JP6849851B2 - Shooting system, shooting device and user shooting method - Google Patents
Shooting system, shooting device and user shooting method Download PDFInfo
- Publication number
- JP6849851B2 JP6849851B2 JP2020175829A JP2020175829A JP6849851B2 JP 6849851 B2 JP6849851 B2 JP 6849851B2 JP 2020175829 A JP2020175829 A JP 2020175829A JP 2020175829 A JP2020175829 A JP 2020175829A JP 6849851 B2 JP6849851 B2 JP 6849851B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- performer
- unit
- data
- audio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 36
- 238000012545 processing Methods 0.000 claims description 47
- 239000002131 composite material Substances 0.000 claims description 45
- 238000001454 recorded image Methods 0.000 claims description 30
- 230000003190 augmentative effect Effects 0.000 claims description 19
- 230000005540 biological transmission Effects 0.000 claims description 17
- 238000003384 imaging method Methods 0.000 claims description 6
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 238000007726 management method Methods 0.000 description 72
- 238000010586 diagram Methods 0.000 description 26
- 238000004891 communication Methods 0.000 description 21
- 230000006870 function Effects 0.000 description 11
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Description
本発明は、撮影システム、撮影装置及びユーザ撮影方法に関する。 The present invention relates to a photographing system, a photographing apparatus, and a user photographing method.
従来、利用者を含む被写体をカメラで撮影し、その撮影画像と付加画像とを合成した合成画像を印刷写真として出力する遊戯用の自動写真作成装置がある。 Conventionally, there is an automatic photo creation device for a game in which a subject including a user is photographed with a camera and a composite image obtained by combining the photographed image and an additional image is output as a print photograph.
しかし、上記の自動写真作成装置は、装置メーカが、付加画像としての画像ソースを別に作成して予め装置に記憶させておき、それを利用者が編集作業で利用するようになっている。従って、利用者は、装置メーカ側で予め用意された付加画像を利用するしかなく、十分な満足感を得ることができない。 However, in the above-mentioned automatic photo creation device, the device maker separately creates an image source as an additional image and stores it in the device in advance, and the user uses it for editing work. Therefore, the user has no choice but to use the additional image prepared in advance by the device maker, and cannot obtain a sufficient sense of satisfaction.
そこで、先行被写体の撮影画像やその編集画像を、後続被写体としての利用者の撮影画像に付加するための新たな付加画像として登録することができる自動写真作成装置が発明されている(特許文献1)。尚、先行被写体は、パブリシティ権や商品化権が認められ得る付加価値を有する人、例えば、タレント等である。これにより、タレント等と並んだ写真を撮影することができ、従来にはない満足感が得られるとしている。 Therefore, an automatic photo creation device has been invented that can register a photographed image of a preceding subject and an edited image thereof as a new additional image for adding to a photographed image of a user as a succeeding subject (Patent Document 1). ). The preceding subject is a person having added value to whom the right of publicity or the right of commercialization can be recognized, for example, a talent. As a result, it is possible to take pictures alongside talents, etc., and it is said that a feeling of satisfaction that has never existed before can be obtained.
ところで、上記自動写真作成装置の付加画像が静止画であり、上記自動写真作成装置の目的は、ユーザとタレント等とが並んだ写真を提供することである。 By the way, the additional image of the automatic photo creation device is a still image, and an object of the automatic photo creation device is to provide a photo in which a user, a talent, or the like are arranged side by side.
しかしながら、上記自動写真作成装置は、ユーザは、タレント等と同じ空間を共有するような体験をすることができず、単なる合成写真の提供に留まっており、ユーザに十分な満足感を与えるものではなかった。 However, the above-mentioned automatic photo creation device does not allow the user to experience sharing the same space as a talent or the like, and merely provides a composite photo, which does not give the user a sufficient sense of satisfaction. There wasn't.
そこで、本発明は、ユーザがタレント等の演者と同じ空間を共有するような体験を得ることができるともに、ユーザがその体験の記録画像を得ることができる撮影システム、撮影装置及びユーザ撮影方法を提供することにある。 Therefore, the present invention provides a photographing system, an imaging device, and a user photographing method in which a user can obtain an experience of sharing the same space as a performer such as a talent, and the user can obtain a recorded image of the experience. To provide.
本発明の一態様は、管理装置と、少なくとも1以上の撮影装置と、を備え、前記管理装置は、前記撮影装置から送信される記録画像を保存し、保存場所を示す情報であり、ユーザの端末により読み取り可能な保存場所情報を前記撮影装置に送信する保存部と、を備え、前記撮影装置は、ユーザを撮影するカメラと、表示部と、演者の動画である拡張現実用映像データと、前記拡張現実用映像データの演者による案内及び静止画の撮影開始タイミングの音声を含む音声データとを、含むコンテンツデータを記憶する記憶部と、前記コンテンツデータの拡張現実用映像データの演者の動画と、前記カメラが撮影したユーザの撮影映像とを合成して合成映像を生成し、前記合成映像を前記表示部に表示し、前記演者の音声による撮影開始タイミングに合わせて前記合成映像の静止画を記録する映像処理部と、前記コンテンツデータの音声データを用いて、前記表示部に表示される合成映像に同期して前記演者の音声を出力する音声出力部と、前記静止画を前記記録画像として、前記管理装置に送信する送信部と、前記保存場所情報を受信し、前記保存場所情報を提示する保存場所提示部と、を備える撮影システムである。 One aspect of the present invention includes a management device and at least one or more photographing devices, and the management device stores recorded images transmitted from the photographing devices, and is information indicating a storage location of a user. The imaging device includes a storage unit that transmits storage location information that can be read by a terminal to the photographing device, and the photographing device includes a camera for photographing a user, a display unit, augmented reality video data that is a moving image of a performer, and the like. A storage unit that stores the content data including the guidance by the performer of the extended reality video data and the audio data including the audio of the shooting start timing of the still image, and the moving image of the performer of the extended reality video data of the content data. , The combined image is generated by synthesizing the image taken by the user taken by the camera, the combined image is displayed on the display unit, and the still image of the combined image is displayed in accordance with the shooting start timing by the voice of the performer. The video processing unit to be recorded, the audio output unit that outputs the voice of the performer in synchronization with the composite video displayed on the display unit using the audio data of the content data, and the still image as the recorded image. An imaging system including a transmission unit that transmits data to the management device and a storage location presentation unit that receives the storage location information and presents the storage location information.
本発明の一態様は、ユーザを撮影するカメラと、表示部と、演者の動画である拡張現実用映像データと、前記拡張現実用映像データの演者による案内及び静止画の撮影開始タイミングの音声を含む音声データとを、含むコンテンツデータを記憶する記憶部と、前記コンテンツデータの拡張現実用映像データの演者の動画と、前記カメラが撮影したユーザの撮影映像とを合成して合成映像を生成し、前記合成映像を前記表示部に表示し、前記演者の音声による撮影開始タイミングに合わせて前記合成映像の静止画を記録する映像処理部と、前記コンテンツデータの音声データを用いて、前記表示部に表示される合成映像に同期して前記演者の音声を出力する音声出力部と、前記静止画像を記録画像として、管理装置に送信する送信部と、前記記録画像の保存場所を示す情報であり、ユーザの端末により読み取り可能な保存場所情報を前記管理装置から受信し、前記保存場所情報を提示する保存場所提示部と、を備える撮影装置である。 One aspect of the present invention is a camera for photographing a user, a display unit, augmented reality video data which is a moving image of a performer, guidance by the performer of the augmented reality video data, and audio of a still image shooting start timing. A composite video is generated by synthesizing a storage unit that stores content data including audio data, a video of a performer of the extended reality video data of the content data, and a video shot by a user shot by the camera. The display unit uses the video processing unit that displays the composite video on the display unit and records the still image of the composite video in accordance with the shooting start timing by the voice of the performer, and the audio data of the content data. Information indicating an audio output unit that outputs the voice of the performer in synchronization with the composite video displayed on the screen, a transmission unit that transmits the still image as a recorded image to the management device, and a storage location of the recorded image. An imaging device including a storage location presentation unit that receives storage location information that can be read by a user's terminal from the management device and presents the storage location information.
本発明の一態様は、演者の動画である拡張現実用映像データと、前記拡張現実用映像データの演者による案内及び静止画の撮影開始タイミングの音声を含む音声データとを、含むコンテンツデータを記憶した記憶部を備えたコンピュータのユーザ撮影方法であって、コンピュータは、カメラが撮影したユーザの撮影映像と前記拡張現実用映像データの演者の動画とを合成して合成映像を生成し、前記合成映像を表示部に表示し、コンピュータは、前記コンテンツデータの音声データを用いて、前記表示部に表示される合成映像に同期して前記演者の音声を出力し、コンピュータは、前記演者の音声による撮影開始タイミングに合わせて前記合成映像の静止画を記録し、コンピュータは、前記静止画像を記録画像として、管理装置に送信し、コンピュータは、前記記録画像の保存場所を示す情報であり、ユーザの端末により読み取り可能な保存場所情報を前記管理装置から受信し、前記保存場所情報を提示するユーザ撮影方法である。 One aspect of the present invention stores content data including extended reality video data which is a moving image of a performer and audio data including audio of guidance by the performer of the extended reality video data and shooting start timing of a still image. It is a user shooting method of a computer provided with a storage unit, and the computer synthesizes a video shot by the user shot by the camera and a video of the performer of the extended reality video data to generate a composite video, and the composite video is generated. The video is displayed on the display unit, the computer uses the audio data of the content data, and outputs the voice of the performer in synchronization with the composite video displayed on the display unit, and the computer uses the voice of the performer. A still image of the composite image is recorded according to a shooting start timing, the computer transmits the still image as a recorded image to a management device, and the computer is information indicating a storage location of the recorded image, which is information of a user. This is a user photographing method in which storage location information readable by a terminal is received from the management device and the storage location information is presented.
本発明は、ユーザが演者と同じ空間を共有するような体験を得ることができるともに、ユーザがその体験の記録画像を得ることができる。 According to the present invention, the user can obtain an experience in which the user shares the same space as the performer, and the user can obtain a recorded image of the experience.
<第1の実施の形態>
[全体構成]
図1は、本実施形態における撮影システムの全体構成例を示す図である。図1に示すように、撮影システムは、撮影装置1と、管理サーバ2と、決済サーバ3と、端末4とを備えて構成される。撮影装置1と、管理サーバ2と、決済サーバ3と、端末4とは、通信回線Nに接続可能で、相互に通信可能である。
<First Embodiment>
[overall structure]
FIG. 1 is a diagram showing an example of the overall configuration of the photographing system according to the present embodiment. As shown in FIG. 1, the photographing system includes a
通信回線Nは、データ通信が可能な通信路を意味する。すなわち、通信回線Nは、直接接続のための専用線(専用ケーブル)やイーサネット(登録商標)等によるLANの他、電話通信網やケーブル網、インターネット等の通信網を含み、通信方法については有線/無線を問わない。 The communication line N means a communication path capable of data communication. That is, the communication line N includes a telephone communication network, a cable network, a communication network such as the Internet, as well as a LAN by a dedicated line (dedicated cable) for direct connection and Ethernet (registered trademark), and the communication method is wired. / Regardless of wireless.
撮影装置1は、イベント会場、映画館等の施設に設置され、ユーザ(被写体)の撮影映像と、コンテンツ映像とを合成した合成映像を生成する装置である。尚、コンテンツ映像は、芸能人(ドラマ・映画などのキャスト、アイドル等)やスポーツ選手等(以下、これらをまとめて演者と記載する)の拡張現実用の映像(例えば、動画)である。また、撮影装置1は、デジタルサイネージの機能も備えている。また、撮影装置1は、基本的には、複数存在し、各イベント会場、映画館等の施設に設置される。
The
管理サーバ2は、撮影装置1により使用されるコンテンツ映像及び広告の管理と、ユーザ(被写体)に提供する記録画像の保存を行うサーバである。
The
決済サーバ3は、撮影装置1の利用料金の決済を行うサーバである。
The
端末4は、ユーザ(被写体)が所持する端末であり、無線通信基地局等を介して通信回線Nに接続し、管理サーバ2とデータ通信を行うことができる。端末4は、例えば、スマートフォンや、携帯電話機、パソコン、タブレット型コンピュータ等である。端末4は、基本的には、複数存在し、各ユーザ(被写体)により操作される。そして、端末4は、少なくとも、画像データを受信し、その画像データを格納又は表示する機能、撮影機能などを持つ。
The
[各装置の構成]
撮影装置1の構成を説明する。図2は撮影装置1のブロック図である。
[Configuration of each device]
The configuration of the photographing
図2中、10はカメラであり、11はディスプレイであり、12はスピーカであり、13は操作入力部であり、14は近距離無線通信部であり、15は処理部であり、16は送受信部であり、17は記憶部である。 In FIG. 2, 10 is a camera, 11 is a display, 12 is a speaker, 13 is an operation input unit, 14 is a short-range wireless communication unit, 15 is a processing unit, and 16 is a transmission / reception unit. It is a part, and 17 is a storage part.
カメラ10は、ユーザ(被写体)と、ユーザ(被写体)が存在する空間の背景とを撮影するカメラである。カメラ10が撮影した映像(静止画、動画の双方を含む)を、以下、撮影映像と記載する。この撮影映像は処理部15に入力される。 The camera 10 is a camera that captures a user (subject) and a background of a space in which the user (subject) exists. An image (including both a still image and a moving image) captured by the camera 10 is hereinafter referred to as a captured image. This captured image is input to the processing unit 15.
ディスプレイ11は、カメラ10により撮影された撮影映像とコンテンツ映像とが合成された映像が表示される。 The display 11 displays a video in which the shot video shot by the camera 10 and the content video are combined.
スピーカ12はコンテンツの音声が出力される。 The speaker 12 outputs the sound of the content.
操作部入力部13は、ユーザ(被写体)が撮影に関する各種操作を入力するためのものであり、操作入力に応じた操作入力信号を処理部15に出力する。操作入力部13の機能は、例えば、キーボード、マウス、タッチ操作パッド、ホームボタン、ボタンスイッチや、ジョイスティック、トラックボールといったユーザが指で操作する素子はもちろん、加速度センサや角速度センサ、傾斜センサ、地磁気センサといった、運動や姿勢を検知する素子等によっても実現できる。本実施の形態の操作部入力部13は、操作情報が表示されるディプレイを備えるタッチ操作パネルである。 The operation unit input unit 13 is for the user (subject) to input various operations related to shooting, and outputs an operation input signal corresponding to the operation input to the processing unit 15. The functions of the operation input unit 13 include not only elements operated by the user such as a keyboard, a mouse, a touch operation pad, a home button, a button switch, a joystick, and a trackball, but also an acceleration sensor, an angular speed sensor, an inclination sensor, and geomagnetism. It can also be realized by an element such as a sensor that detects movement or posture. The operation unit input unit 13 of the present embodiment is a touch operation panel including a display on which operation information is displayed.
近距離無線通信部14は、利用料金の決済に使用される非接触型ICカードのリーダ・ライタである。 The short-range wireless communication unit 14 is a reader / writer for a contactless IC card used for payment of usage fees.
処理部15は、記憶部17に格納されるプログラムやコンテンツデータ、操作入力部13からの操作入力信号等に基づいて撮影装置1の動作を統括的に制御する。処理部15の機能は、例えば、CPUやGPU等のマイクロプロセッサ、ASIC、ICメモリ等の電子部品によって実現できる。この処理部15は、主な機能部として、管理部151と、操作制御部152と、決済処理部153と、映像処理部154と、サイネージ制御部155と、音声制御部156と、保存場所提示部157とを備える。
The processing unit 15 comprehensively controls the operation of the photographing
管理部151は、撮影装置1の設定及びデータの管理を行う。撮影装置1の設定は、撮影装置1の付与されたアカウント及びパスワードによる認証後、管理者が必要な設定を行う。撮影装置1の設定の代表的なものとして、撮影装置1で使用するコンテンツの設定がある。コンテンツは、管理サーバ2からダウンロードし、記憶部17に格納される。コンテンツのダウンロードは、自動でコンテンツのダウンロードが行われる自動更新モードと、管理者が希望するコンテンツを選択してダウンロードする手動更新モードがある。管理者がいずれかのモードを設定することにより、コンテンツのダウンロードが行われ、コンテンツが撮影装置1に格納される。
The
コンテンツには、ユーザ(被写体)の撮影映像と合成されるコンテンツ映像と、デジタルサイネージに使用されるサイネージ映像(広告映像)とがある。コンテンツ映像は、芸能人(ドラマ・映画などのキャスト、アイドル等)やスポーツ選手等の演者の映像であり、拡張現実用の映像データである。コンテンツ映像は、基本的には動画である。また、サイネージ映像は、広告映像であり、動画、静止画のいずれも含む。尚、コンテンツ映像と、それらの映像に関するメタデータ(識別情報及び利用料金など)とを含めてコンテンツデータ記載する。同様に、サイネージ映像と、それらの映像に関するメタデータ(識別情報など)とを含めてサイネージデータと記載する。 The content includes a content image synthesized with a photographed image of a user (subject) and a signage image (advertisement image) used for digital signage. The content video is a video of a performer such as an entertainer (cast of a drama / movie, an idol, etc.) or an athlete, and is video data for augmented reality. The content video is basically a video. Further, the signage video is an advertisement video, and includes both a moving image and a still image. In addition, the content data including the content video and the metadata (identification information, usage fee, etc.) related to the video is described. Similarly, the signage video and the metadata (identification information, etc.) related to the video are described as signage data.
操作制御部152は、コンテンツの内容(例えば、サムネイル映像)や操作情報を操作部入力部13に表示する。また、操作部入力部13からの操作信号を受信する。 The operation control unit 152 displays the content (for example, thumbnail video) and operation information on the operation unit input unit 13. In addition, the operation signal from the operation unit input unit 13 is received.
決済処理部153は、近距離無線通信部14により読み取られた非接触型ICカードの決済情報を受信し、決済情報を決済サーバ3に送信する。また、決済が完了した場合、決済サーバ3から決済完了情報を受信する。
The payment processing unit 153 receives the payment information of the contactless IC card read by the short-range wireless communication unit 14, and transmits the payment information to the
映像処理部154は、カメラ10からのユーザ(被写体)の撮影映像を入力し、撮影映像に、ユーザ(被写体)が選択したコンテンツのコンテンツ映像を重畳した合成映像を生成する。 The image processing unit 154 inputs the captured image of the user (subject) from the camera 10 and generates a composite image in which the content image of the content selected by the user (subject) is superimposed on the captured image.
映像処理部154が行う合成映像の生成について説明する。合成映像を生成するためには、撮影映像、フィル(Fill)信号及びキー信号の3種類の映像信号が必要となる。フィル(Fill)信号は、ユーザ(被写体)が選択したコンテンツの演者のコンテンツ映像である。キー信号は、フィル(Fill)信号であるコンテンツ映像を重畳する領域を指定する信号である。尚、本実施の形態では、フィル(Fill)信号及びキー信号が、拡張現実用映像データである。 The generation of the composite video performed by the video processing unit 154 will be described. In order to generate a composite video, three types of video signals, a captured video, a fill signal, and a key signal, are required. The Fill signal is a content image of the performer of the content selected by the user (subject). The key signal is a signal that specifies an area on which the content video, which is a fill signal, is superimposed. In the present embodiment, the fill signal and the key signal are augmented reality video data.
図3は映像処理部154が行う合成映像の合成処理を説明するための図である。合成処理は、撮影映像の全領域のうち、キー信号に基づいて指定される領域に、フィル信号の演者の映像をはめ込むことによって、合成映像を生成する。尚、図3では、ある所定フレームの合成処理を説明した図であり、実際は、撮影映像、コンテンツ映像は動画であるため、フレーム単位で合成映像の生成処理が行われる。 FIG. 3 is a diagram for explaining the compositing process of the composite video performed by the video processing unit 154. The compositing process generates a compositing image by fitting the image of the performer of the fill signal into the area designated based on the key signal in the entire area of the captured image. It should be noted that FIG. 3 is a diagram for explaining the compositing process of a predetermined frame. In reality, since the captured video and the content video are moving images, the compositing video is generated in frame units.
また、撮影空間におけるユーザ(被写体)と演者との位置関係が分かる場合は、重畳するフィル(Fill)信号(演者の映像)とユーザ(被写体)の領域とが重なる部分は、前方に位置する方を優先的に合成する。このようにすれば、より自然な仮想空間の映像を演出することが可能である。尚、ユーザ(被写体)と演者との位置関係は、赤外線による測定や、映像の画像解析などの従来方法を用いることが出来る。 If the positional relationship between the user (subject) and the performer in the shooting space is known, the part where the superimposed fill signal (performer's image) and the user (subject) area overlap is the one located in front. Is preferentially synthesized. In this way, it is possible to produce a more natural image of the virtual space. As for the positional relationship between the user (subject) and the performer, conventional methods such as infrared measurement and video image analysis can be used.
また、映像処理部154は、合成映像(動画)のうちのある時刻の映像を静止画として記録する機能も有する。この記録された記録画像は、後述する管理サーバ2の保存場所に保存される。尚、記録画像は静止画に限定するものではなく、合成映像(動画)の全部又は一部の動画でも良い。
The video processing unit 154 also has a function of recording a video at a certain time in the composite video (moving image) as a still image. The recorded recorded image is saved in a storage location of the
サイネージ制御部155は、撮影装置1が撮影に利用されていない時間に、サイネージデータを使用してディスプレイ11に広告を表示する。
The signage control unit 155 uses the signage data to display an advertisement on the display 11 when the photographing
音声制御部156は、コンテンツデータに含まれる音声データを使用して、ユーザ(被写体)の撮影映像の撮影時に、映像上の演者の音声や、利用案内の音声などをスピーカ12から出力する。 The voice control unit 156 uses the voice data included in the content data to output the voice of the performer on the video, the voice of the usage guide, and the like from the speaker 12 when shooting the shot video of the user (subject).
保存場所提示部157は、上述した記録画像の保存場所をユーザ(被写体)に通知する。通知方法としては、記録画像の保存場所のアドレスを示す二次元コード(QRコード(登録商標)など)を、ディスプレイ11に表示する方法がある。但し、これに限定されず、保存場所のアドレスを、ディスプレイ11に直接表示しても良いし、他の方法でも良い。 The storage location presentation unit 157 notifies the user (subject) of the storage location of the recorded image described above. As a notification method, there is a method of displaying a two-dimensional code (QR code (registered trademark) or the like) indicating the address of the storage location of the recorded image on the display 11. However, the present invention is not limited to this, and the address of the storage location may be displayed directly on the display 11, or another method may be used.
送受信部16は、通信回線Nを介して、管理サーバ2及び決済サーバ3との間で、データの送受信を行う。
The transmission / reception unit 16 transmits / receives data to / from the
記憶部17は、撮影装置1に必要な各種データが格納される。例えば、コンテンツデータベースや、設定データ等である。
The storage unit 17 stores various data required for the photographing
図4はコンテンツデータベースの一例を示した図である。図4に示すデータベースは、ユーザとの撮影に使用される演者のコンテンツデータと、広告として使用されるサイネージデータとが格納されている。コンテンツデータは、コンテンツ識別情報(ID)と、コンテンツ名と、拡張現実用の映像データ(フィル(Fill)信号、キー信号を含む)と、音声データと、メタデータとを含む。サイネージデータは、サイネージ識別情報(ID)と、広告名と、映像データと、音声データと、メタデータとを含む。尚、図4は一例であり、これに限られない。 FIG. 4 is a diagram showing an example of a content database. The database shown in FIG. 4 stores the content data of the performer used for shooting with the user and the signage data used as an advertisement. The content data includes content identification information (ID), a content name, video data for augmented reality (including a fill signal and a key signal), audio data, and metadata. The signage data includes signage identification information (ID), an advertisement name, video data, audio data, and metadata. Note that FIG. 4 is an example, and the present invention is not limited to this.
図5は設定データの一例を示した図である。図5に示す設定データは、撮影装置1のアカウントと、管理パスワードと、自動更新の有無と、広告開始時間(撮影装置1が最後に使用されてからの経過時間)、補助データを含む。尚、図5は一例であり、これに限られない。
FIG. 5 is a diagram showing an example of setting data. The setting data shown in FIG. 5 includes an account of the photographing
上述した撮影装置1の外観を、図6に示す。
The appearance of the above-mentioned photographing
次に、管理サーバ2の構成を説明する。図7は管理サーバ2のブロック図である。
Next, the configuration of the
図7中、20は入力部であり、21は送受信部であり、22は処理部であり、23は記憶部である。 In FIG. 7, 20 is an input unit, 21 is a transmission / reception unit, 22 is a processing unit, and 23 is a storage unit.
入力部20は、管理者が各種操作を入力するためのものであり、操作入力に応じた操作入力信号を処理部22に出力する。入力部20の機能は、例えば、キーボード、マウス、タッチ操作パッド、ホームボタン、ボタンスイッチや、ジョイスティック、トラックボールといったユーザが指で操作する素子はもちろん、加速度センサや角速度センサ、傾斜センサ、地磁気センサといった、運動や姿勢を検知する素子等によっても実現できる。 The input unit 20 is for the administrator to input various operations, and outputs an operation input signal corresponding to the operation input to the processing unit 22. The functions of the input unit 20 include not only elements operated by the user such as a keyboard, mouse, touch operation pad, home button, button switch, joystick, and trackball, but also an acceleration sensor, an angular velocity sensor, an inclination sensor, and a geomagnetic sensor. It can also be realized by an element that detects movement or posture.
送受信部21は、通信回線Nを介して、撮影装置1との間で、データの送受信を行う。
The transmission / reception unit 21 transmits / receives data to / from the photographing
処理部22は、記憶部23に格納されるプログラムやコンテンツデータ、入力部20からの操作入力信号等に基づいて管理サーバ2の動作を統括的に制御する。処理部15の機能は、例えば、CPUやGPU等のマイクロプロセッサ、ASIC、ICメモリ等の電子部品によって実現できる。この処理部22は、主な機能部として、コンテンツ管理部121し、撮影データ保存管理部122とを備える。
The processing unit 22 comprehensively controls the operation of the
コンテンツ管理部121は、撮影装置1に設定するコンテンツデータを管理する。具体的には、記憶部23に格納された撮影装置管理データベースを用いて、撮影装置1で使用されるコンテンツなどを管理する。図8は撮影装置管理データベースの一例である。図8に示す撮影装置管理データベースは、撮影装置の識別情報、アカウント、パスワード、自動更新の有無及び利用可能なコンテンツの識別情報を、撮影装置1毎に記録している。
The content management unit 121 manages the content data set in the photographing
撮影データ保存管理部122は、撮影装置1が撮影した記録画像を記憶23に保存し、保存場所のアドレスを撮影装置1に通知する。
The shooting data storage management unit 122 saves the recorded image shot by the
次に、決済サーバ3の構成を説明する。図9は決済サーバ3のブロック図である。
Next, the configuration of the
図9中、30は送受信部であり、31は決済処理部であり、32は記憶部である。 In FIG. 9, 30 is a transmission / reception unit, 31 is a payment processing unit, and 32 is a storage unit.
送受信部30は、通信回線Nを介して、撮影装置1との間で、データの送受信を行う。
The transmission / reception unit 30 transmits / receives data to / from the photographing
決済処理部31は、撮影装置1から決済情報を受信し、記憶部32に格納されるプログラムや決済データに基づいて決済処理を行い、決済完了情報を撮影装置1に送信する。決済処理部31は、例えば、CPUやGPU等のマイクロプロセッサ、ASIC、ICメモリ等の電子部品によって実現できる。尚、非接触型ICカードの料金の決済は、従来からある方法を用いることができる。
The payment processing unit 31 receives payment information from the photographing
[各装置の動作]
第1の実施の形態の動作を説明する。図10は装置間のシーケンス図である。
[Operation of each device]
The operation of the first embodiment will be described. FIG. 10 is a sequence diagram between devices.
まず、撮影装置1を利用可能な状態にするために、設定処理を行う(Step1)。そして、管理サーバ2は、撮影装置1からの設定要求に応答して、管理処理を行い、コンテンツデータやサイネージデータを送信する(Step2)。
First, a setting process is performed in order to make the photographing
ここで、撮影装置1の設定処理(Step1)の動作を、フローチャートを用いて説明する。図11は撮影装置1の設定処理(Step1)の動作フローチャートである。
Here, the operation of the setting process (Step 1) of the photographing
まず、撮影装置1の管理者は、操作入力部13を操作して管理画面を表示する。操作制御部152は、管理画面を操作入力部13に表示する(Step100)。
First, the administrator of the photographing
管理者は、操作入力部13を操作して、識別情報(アカウント)及びパスワードを入力する(Step101)。 The administrator operates the operation input unit 13 to input the identification information (account) and the password (Step 101).
管理部151は、入力された識別情報(アカウント)及びパスワードの照合を行い(Step102)、認証できたならば(Step103)、更新モードの選択に遷移する。一方、認証できない場合は、設定処理を終了する。
The
認証できた場合は、管理画面には、自動更新モードと手動更新モードとが表示される。管理者は、いずれかのモードを選択する。 If the authentication is successful, the management screen displays the automatic update mode and the manual update mode. The administrator selects one of the modes.
管理者が自動更新モードを選択した場合(Step104)は、撮影装置1で利用可能なコンテンツデータとサイネージデータとが管理サーバ2から送信され、管理部151は、それらのコンテンツデータとサイネージデータを記憶部17のコンテンツデータベースに格納し、コンテンツの設定を完了する。そして、設定完了通知を管理サーバ2に送信する。
When the administrator selects the automatic update mode (Step104), the content data and signage data available in the photographing
一方、管理者が手動更新モードを選択した場合(Step104)は、管理サーバ2から撮影装置1で利用可能なコンテンツデータ及びサイネージデータの一覧が送信され、管理部151は、コンテンツデータ及びサイネージデータの一覧情報を表示する(Step105)。管理者は、操作入力部13を操作し、一覧情報から利用したいコンテンツデータ及びサイネージデータを選択する(Step106)。そして、管理部151は、選択されたコンテンツデータ及びサイネージデータを、管理サーバ2からダウンロードし(Step107)、記憶部17のコンテンツデータベースに格納し、コンテンツの設定を完了する(Step108)。そして、設定完了通知を管理サーバ2に送信する。
On the other hand, when the administrator selects the manual update mode (Step104), the
次に、管理サーバ2の管理処理(Step2)の動作を、フローチャートを用いて説明する。図12は管理サーバ2の管理処理(Step2)の動作フローチャートである。
Next, the operation of the management process (Step 2) of the
管理サーバ2は、撮影装置1から設定要求に応答して、識別情報(アカウント)の照合を行う(Step200)。識別情報(アカウント)が登録されているものであれば(Step201)、撮影装置1からのモードの要求に対応する処理を行う。
The
撮影装置1から要求されたモードが手動更新モードである場合(Step202)、記憶部23の撮影装置管理データベースのうち、設定要求した撮影装置1のアカウントの利用可能コンテンツのフィールドに記載されているコンテンツID又はサイネージIDに対応するコンテンツデータ及びサイネージデータの一覧を送信する(Step203)。撮影装置1からコンテンツデータ及びサイネージデータの選択情報を受信すると、選択されたコンテンツデータ及びサイネージデータを撮影装置1に送信する(Step204)。そして、撮影装置1から設定完了通知を受信すると、管理処理を終了する(Step205)。
When the mode requested by the photographing
一方、撮影装置1から要求されたモードが自動更新モードである場合、記憶部23の撮影装置管理データベースのうち、設定要求した撮影装置1のアカウントの自動更新有無のフィールドのフラグを”ON”にする(Step206)。そして、コンテンツデータベースに登録されているコンテンツのうち、設定要求した撮影装置1のアカウントの利用可能コンテンツのフィールドに記載されているコンテンツID又はサイネージIDに対応するコンテンツデータ及びサイネージデータを検索し(Step207)、利用可能なコンテンツデータ及びサイネージデータを送信する(Step208)。そして、撮影装置1から設定完了通知を受信すると、管理処理を終了する(Step205)。
On the other hand, when the mode requested by the photographing
尚、自動更新が有効であるアカウントの撮影装置1については、利用可能コンテンツの変更があった場合には、利用可能コンテンツフィールドに記載されているIDに対応するコンテンツデータ又はサイネージデータを、自動的に撮影装置1に送信し、撮影装置1のコンテンツの自動更新を行う。
For the
図10のシーケンス図の説明に戻る。 Returning to the description of the sequence diagram of FIG.
撮影装置1の設定が完了すると、ユーザ(被写体)が撮影装置1を利用することが可能となる。そして、ユーザ(被写体)が撮影装置1の利用を開始すると、撮影装置1は撮影処理(Step3)を実行する。
When the setting of the photographing
ここで、撮影処理(Step3)の動作を、フローチャートを用いて説明する。図13は撮影処理(Step3)の動作フローチャートである。 Here, the operation of the shooting process (Step 3) will be described with reference to a flowchart. FIG. 13 is an operation flowchart of the shooting process (Step 3).
撮影装置1の操作制御部152は、コンテンツの一覧を操作入力部13に表示する(Step300)。図14は操作入力部13に表示されるコンテンツの選択画面の一例である。図14の例では、コンテンツAAA、コンテンツBBB及びコンテンツCCCの3種類のコンテンツが選択可能な画面の例である。
The operation control unit 152 of the photographing
撮影装置1を利用するユーザは、操作入力部13に表示されているコンテンツの一覧から希望のコンテンツを選択する。選択は、コンテンツの一覧から希望のコンテンツをタッチすることにより行われる(Step301)。
The user who uses the photographing
コンテンツが選択されると、操作入力部13の画面にはコンテンツの利用料金の画面が表示される(Step302)。図15は操作入力部13に表示される利用料金画面の一例である。図15の例では、コンテンツAAAの利用料金が600円であり、ICカードを近距離無線通信部14にタッチすることを要求する画面の例である。 When the content is selected, the content usage fee screen is displayed on the screen of the operation input unit 13 (Step 302). FIG. 15 is an example of a usage fee screen displayed on the operation input unit 13. In the example of FIG. 15, the usage fee of the content AAA is 600 yen, and it is an example of a screen requesting that the IC card be touched by the short-range wireless communication unit 14.
ユーザが利用料金画面の指示に従って、ICカードを近距離無線通信部14にタッチすることにより、料金の決済情報を決済処理部153が受信し(Step303)、決済情報を決済サーバ3に送信する(Step304)。 When the user touches the short-range wireless communication unit 14 with the IC card according to the instruction on the usage charge screen, the payment processing unit 153 receives the payment information of the charge (Step 303) and transmits the payment information to the payment server 3 (Step 303). Step 304).
撮影装置1の決済処理部153は、決済サーバ3から決済完了情報を受信し(Step305)、決済が完了したことを操作入力部13に表示し、撮影が開始されることを通知する(Step306)。
The payment processing unit 153 of the photographing
カメラによるユーザ(被写体)の撮影が開始されると、その撮影映像がディスプレイ11に表示される。続いて、映像処理部154は、撮影映像に選択したコンテンツの仮想現実用の映像データを重畳し、合成映像を生成する(Step307)。そして、映像処理部154は、合成映像(動画)をディスプレイ11に表示する(Step308)。このとき、コンテンツの音声データにより、演者の音声もスピーカから出力される。例えば、「AAAです。今日は撮影会に参加してくれてありがとう。」等の音声が出力される。このように、ディスプレイ11には、演者とユーザとが一緒に同じ空間に存在する映像が表示され(図3の合成映像を参照)、音声も聞こえるので、ユーザは演者と一緒に同じ空間を共有するような疑似体験を得ることが出来る。そして、演者から記念撮影のタイミングが告げられ、記録画像(静止画)の撮影が行われる(Step309)。 When the camera starts shooting the user (subject), the shot image is displayed on the display 11. Subsequently, the video processing unit 154 superimposes the video data for virtual reality of the selected content on the captured video to generate a composite video (Step 307). Then, the video processing unit 154 displays the composite video (moving image) on the display 11 (Step 308). At this time, the voice of the performer is also output from the speaker according to the voice data of the content. For example, a voice such as "AAA. Thank you for participating in the photo session today." Is output. In this way, the display 11 displays an image in which the performer and the user coexist in the same space (see the composite image in FIG. 3), and the sound can be heard, so that the user shares the same space with the performer. You can get a simulated experience like that. Then, the performer announces the timing of commemorative photography, and the recorded image (still image) is photographed (Step 309).
撮影が終了すると、保存場所提示部157は、管理サーバに、静止画をアップロードし(Step310)、保存場所のアドレスを、二次元コードを使用して、操作入力部13の画面に表示する(Step311)。図16は保存場所のアドレスを示す二次元コードが表示された画面の一例である。 When the shooting is completed, the storage location presentation unit 157 uploads the still image to the management server (Step 310), and displays the address of the storage location on the screen of the operation input unit 13 using the two-dimensional code (Step 311). ). FIG. 16 is an example of a screen on which a two-dimensional code indicating the address of the storage location is displayed.
以上で、撮影処理の説明を終了する。 This is the end of the description of the shooting process.
図10のシーケンス図の説明に戻る。 Returning to the description of the sequence diagram of FIG.
Step4は、決済サーバ3で行われる決済処理である。撮影装置1から送信されたユーザのICカードの決済情報を受信し、その決済情報に基づいて決済完了情報を撮影装置1に送信する。
Step5は、管理サーバ2で行われる保存処理である。撮影装置1から送信された記録画像(静止画)を保存し、その保存場所のアドレスを撮影装置1に送信する。
ユーザは端末1の撮影機能を利用し、操作入力部13の画面に表示された二次元コードを撮影し、二次元コードで示されるアドレスにアクセスする(Step6)。そして、端末1は、撮影した記録画像(静止画)を端末1にダウンロードする(Step7)。図17は端末4にダウンロードされた記録画像が、端末4のディスプレイに表示された場合の一例である。
The user uses the photographing function of the
一方、撮影装置1のサイネージ制御部155は、一定時間(例えば、3分)、ユーザによる撮影装置1の利用がない場合は、記憶部17のコンテンツデータベースのサイネージデータから、映像データ及音声データを取得し、ディスプレイ11に映像データによる広告を表示し、スピーカ12から音声データによる音声を出力する(Step8)。
On the other hand, the signage control unit 155 of the photographing
以上で、第1の実施の形態の動作の説明を終了する。 This is the end of the description of the operation of the first embodiment.
第1の実施の形態は、演者の映像(動画)とユーザの撮影映像とを合成してディスプレイに表示させ、音声も聞こえるように構成しているので、ユーザは演者と一緒に同じ空間を共有するような体験を得ることが出来る。また、その体験の記念として記録される記録画像は、管理サーバに保存され、ユーザは端末にダウンロードすることができるので、例えば、SNS等によるシェアの利便性向上を図ることができると共に、物理的な印刷を行わないため、コストの削減も図れる。 In the first embodiment, the image (video) of the performer and the image taken by the user are combined and displayed on the display so that the sound can be heard, so that the user shares the same space with the performer. You can get an experience like that. In addition, the recorded image recorded as a memorial of the experience is saved in the management server and can be downloaded to the terminal by the user. Therefore, for example, it is possible to improve the convenience of sharing by SNS or the like and physically. Costs can be reduced because no printing is performed.
また、第1の実施の形態は、管理サーバにより、撮影装置で使用されるコンテンツを一括で管理しているので、撮影装置で使用するコンテンツの設定の即時性・登録の柔軟性を実現することができる。 Further, in the first embodiment, since the content used in the photographing device is collectively managed by the management server, the immediacy of setting the content used in the photographing device and the flexibility of registration are realized. Can be done.
更に、第1の実施の形態の撮影装置は、デジタルサイネージの機能も搭載されているので、撮影装置が利用されていない時間を有効に活用することもできる。 Further, since the photographing apparatus of the first embodiment is also equipped with a digital signage function, it is possible to effectively utilize the time when the photographing apparatus is not used.
<第2の実施の形態>
第2の実施の形態を説明する。図18は第2の実施の形態における撮影システムの全体構成例を示す図である。
<Second embodiment>
A second embodiment will be described. FIG. 18 is a diagram showing an example of the overall configuration of the photographing system according to the second embodiment.
第2の実施の形態では、第1の実施の形態に加えて、演者のライブ映像を撮影し、ライブ映像から撮影装置1で使用するコンテンツデータ(フィル(Fill)信号、キー信号及び音声データ)を生成する演者撮影装置5が設けられている。
In the second embodiment, in addition to the first embodiment, the live image of the performer is photographed, and the content data (fill signal, key signal, and audio data) used in the photographing
図19は演者撮影装置5のブロック図である。図19中、50カメラであり、51はマイク、52はディスプレイであり、53は送受信部であり、54は処理部であり、55は記憶部である。
FIG. 19 is a block diagram of the
カメラ50は、演者のライブ映像を撮影するカメラである。カメラ50が撮影した映像をライブ映像と記載する。このライブ映像は処理部54に入力される。 The camera 50 is a camera that captures a live image of the performer. The image taken by the camera 50 is referred to as a live image. This live video is input to the processing unit 54.
マイク51は、演者の音声を取得し、取得した音声を処理部54に出力する。 The microphone 51 acquires the voice of the performer and outputs the acquired voice to the processing unit 54.
ディスプレイ52は、カメラ50により撮影されたライブ映像が表示される。 The display 52 displays a live image taken by the camera 50.
送受信部53は、通信回線Nを介して、管理サーバ2との間で、データの送受信を行う。
The transmission / reception unit 53 transmits / receives data to / from the
処理部54は、記憶部55に格納されるプログラムに基づいて演者撮影装置5の動作を統括的に制御する。処理部54の機能は、例えば、CPUやGPU等のマイクロプロセッサ、ASIC、ICメモリ等の電子部品によって実現できる。この処理部54は、主な機能部として、フィル(Fill)信号生成部151と、キー信号生成部152と、ライブコンテンツデータ生成部153とを備える。
The processing unit 54 comprehensively controls the operation of the
フィル(Fill)信号生成部151は、カメラ50で撮影されたライブ映像から、リアルタイムで、演者のフィル(Fill)信号を生成する。キー信号生成部152は、カメラ50で撮影されたライブ映像から、リアルタイムで、演者のキー信号を生成する。これらの処理は、例えば、クロマキーの技術を用いることができる。
The fill
ライブコンテンツデータ生成部153は、演者のフィル(Fill)信号、キー信号及びマイク51で取得された演者の音声を含むライブコンテンツデータを生成する。このライブコンテンツデータは、送受信部53を介して、リアルタイムで、管理サーバ2に送信される。
The live content data generation unit 153 generates live content data including the performer's fill signal, the key signal, and the performer's voice acquired by the microphone 51. This live content data is transmitted to the
第2の実施の形態の管理サーバ2を説明する。図20は第2の実施の形態の管理サーバ2のブロック図である。第2の実施の形態の管理サーバ2が第1の実施の形態と異なる所は、リアルタイム配信部123が追加されたことである。
The
リアルタイム配信部123は、演者撮影装置5から受信したライブコンテンツデータを、所定の撮影装置1にリアルタイムでストリーミング配信する。配信する撮影装置1は、記憶部23に格納されている撮影装置管理データベースを用いて決定する。図21は第2の実施の形態における撮影装置管理データベースの一例である。図21に示される撮影装置管理データベースは、第1の実施の形態に加えて、ライブ配信の有無のフィールドが設けられている。リアルタイム配信部123は、撮影装置管理データベースのライブ配信フィールドが「有」のフラグである撮影装置1に、受信したライブコンテンツデータを送信する。
The real-time distribution unit 123 streams and distributes the live content data received from the
撮影装置1は、管理データベース2からライブコンテンツデータを受信すると、記憶部17に格納しつつ、カメラによるユーザ(被写体)の撮影を開始する。その撮影映像がディスプレイ11に表示される。続いて、映像処理部154は、ライブコンテンツデータのキー信号を用いて、フィル(Fill)信号とユーザの撮影画像とを合成する(図13のStep307)。そして、映像処理部154は、合成映像(動画)をディスプレイ11に表示する(図13のStep308)。他の処理は、第1の実施の形態と同様である。
When the photographing
第2の実施の形態は、演者のライブ映像からコンテンツデータを生成し、管理装置が各撮影装置にライブ配信している。従って、ひとり演者が、異なる場所の多数のユーザと同時に空間を共有するといったことが可能である。 In the second embodiment, content data is generated from the live video of the performer, and the management device performs live distribution to each shooting device. Therefore, it is possible for a single performer to share a space with many users in different places at the same time.
以上、好ましい実施の形態をあげて本発明を説明したが、本発明は必ずしも上記実施の形態に限定されるものではなく、その技術的思想の範囲内において様々に変形し実施することが出来る。 Although the present invention has been described above with reference to preferred embodiments, the present invention is not necessarily limited to the above embodiments, and can be variously modified and implemented within the scope of the technical idea.
1 撮影装置
2 管理サーバ
3 決済サーバ
4 端末
5 演者撮影装置
10 カメラ
11 ディスプレイ
12 スピーカ
13 操作入力部
14 近距離無線通信部
15 処理部
16 送受信部
17 記憶部
20 入力部
21 送受信部
22 処理部
23 記憶部
30 送受信部
31 決済処理部
32 記憶部
1
Claims (9)
前記管理装置は、
前記撮影装置から送信される記録画像を保存し、保存場所を示す情報であり、ユーザの端末により読み取り可能な保存場所情報を前記撮影装置に送信する保存部と、
を備え、
前記撮影装置は、
ユーザを撮影する第1のカメラと、
表示部と、
演者の動画である拡張現実用映像データと、前記拡張現実用映像データの演者による案内及び静止画の撮影開始タイミングの音声を含む音声データとを、含むコンテンツデータを記憶する記憶部と、
前記コンテンツデータの拡張現実用映像データの演者の動画と、前記第1のカメラが撮影したユーザの撮影映像とを合成して合成映像を生成し、前記合成映像を前記表示部に表示し、前記演者の音声による撮影開始タイミングに合わせて前記合成映像の静止画を記録する映像処理部と、
前記コンテンツデータの音声データを用いて、前記表示部に表示される合成映像に同期して前記演者の音声を出力する音声出力部と、
前記静止画を前記記録画像として、前記管理装置に送信する送信部と、
前記保存場所情報を受信し、前記保存場所情報を提示する保存場所提示部と、
を備える
撮影システム。 It is equipped with a management device and at least one or more photographing devices.
The management device is
A storage unit that stores the recorded image transmitted from the photographing device and indicates the storage location, and transmits the storage location information that can be read by the user's terminal to the photographing device.
With
The photographing device is
The first camera that shoots the user,
Display and
A storage unit that stores content data including augmented reality video data that is a moving image of the performer and audio data including audio for guidance by the performer of the augmented reality video data and shooting start timing of a still image.
A composite video is generated by synthesizing the video of the performer of the extended reality video data of the content data and the video shot by the user taken by the first camera, and the composite video is displayed on the display unit. A video processing unit that records a still image of the composite video according to the shooting start timing by the performer's voice, and
Using the audio data of the content data, an audio output unit that outputs the audio of the performer in synchronization with the composite video displayed on the display unit, and an audio output unit.
A transmission unit that transmits the still image as the recorded image to the management device, and
A storage location presentation unit that receives the storage location information and presents the storage location information,
A shooting system equipped with.
請求項1に記載の撮影システム。 The photographing system according to claim 1, wherein the storage location presentation unit displays the storage location information on the display unit.
請求項1又は請求項2に記載の撮影システム。 The shooting system according to claim 1 or 2, wherein the video processing unit records the composite video from the start to the end of the shooting of the user as the recorded image.
前記第2のカメラで撮影された演者の撮影映像から、前記演者の拡張現実用映像データを生成する拡張現実用映像データ生成部と、
前記演者の音声を取得するマイクと、
前記マイクで取得された前記演者の音声から、音声データを生成する音声データ生成部と、
前記拡張現実用映像データ及び音声データを少なくとも含むライブコンテンツデータを、前記管理装置に送信する送信部と、
を備える演者撮影装置を備え、
前記管理装置は、前記ライブコンテンツデータを受信し、少なくとも1以上の前記撮影装置に前記ライブコンテンツデータをライブ配信するライブ配信部を備え、
前記撮影装置は、前記ライブコンテンツデータを受信する受信部を備え、
前記撮影装置の前記映像処理部は、前記ライブコンテンツデータの拡張現実用映像データと前記第1のカメラが撮影したユーザの撮影映像とを合成して合成映像を生成し、前記合成映像を前記表示部に表示し、前記合成映像の少なくとも一部を前記記録画像として記録し、
前記撮影装置の前記音声出力部は、前記ライブコンテンツデータの音声データを用いて、前記表示部に表示される合成映像に同期して前記演者の音声を出力する
請求項1から請求項3のいずれかに記載の撮影システム。 A second camera that shoots the performer,
An augmented reality video data generation unit that generates augmented reality video data of the performer from the video shot by the performer taken by the second camera.
With a microphone that acquires the voice of the performer,
A voice data generation unit that generates voice data from the voice of the performer acquired by the microphone, and
A transmission unit that transmits live content data including at least the augmented reality video data and audio data to the management device, and
Equipped with a performer shooting device
The management device includes a live distribution unit that receives the live content data and performs live distribution of the live content data to at least one or more shooting devices.
The photographing device includes a receiving unit that receives the live content data.
The video processing unit of the shooting device synthesizes the augmented reality video data of the live content data and the user's shot video shot by the first camera to generate a composite video, and displays the composite video. Display on the unit, and record at least a part of the composite video as the recorded image.
Any of claims 1 to 3, wherein the audio output unit of the photographing device uses the audio data of the live content data to output the audio of the performer in synchronization with the synthetic video displayed on the display unit. The shooting system described in Crab.
表示部と、
演者の動画である拡張現実用映像データと、前記拡張現実用映像データの演者による案内及び静止画の撮影開始タイミングの音声を含む音声データとを、含むコンテンツデータを記憶する記憶部と、
前記コンテンツデータの拡張現実用映像データの演者の動画と、前記カメラが撮影したユーザの撮影映像とを合成して合成映像を生成し、前記合成映像を前記表示部に表示し、前記演者の音声による撮影開始タイミングに合わせて前記合成映像の静止画を記録する映像処理部と、
前記コンテンツデータの音声データを用いて、前記表示部に表示される合成映像に同期して前記演者の音声を出力する音声出力部と、
前記静止画を記録画像として、管理装置に送信する送信部と、
前記記録画像の保存場所を示す情報であり、ユーザの端末により読み取り可能な保存場所情報を前記管理装置から受信し、前記保存場所情報を提示する保存場所提示部と、
を備える撮影装置。 A camera that shoots the user and
Display and
A storage unit that stores content data including augmented reality video data that is a moving image of the performer and audio data including audio for guidance by the performer of the augmented reality video data and shooting start timing of a still image.
The video of the performer of the extended reality video data of the content data and the video shot by the user taken by the camera are combined to generate a composite video, the composite video is displayed on the display unit, and the voice of the performer is displayed. A video processing unit that records a still image of the composite video according to the shooting start timing by
Using the audio data of the content data, an audio output unit that outputs the audio of the performer in synchronization with the composite video displayed on the display unit, and an audio output unit.
A transmission unit that transmits the still image as a recorded image to the management device,
A storage location presentation unit that receives information indicating a storage location of the recorded image and can be read by a user's terminal from the management device and presents the storage location information.
A shooting device equipped with.
請求項5に記載の撮影装置。 The imaging device according to claim 5, wherein the storage location presentation unit displays the storage location information on the display unit.
請求項5又は請求項6に記載の撮影装置。 The imaging device according to claim 5 or 6, wherein the image processing unit records the composite image from the start to the end of the image of the user as the recorded image.
前記映像処理部は、前記ライブコンテンツデータの拡張現実用映像データと、前記カメラが撮影したユーザの撮影映像とを合成して合成映像を生成し、前記合成映像を前記表示部に表示し、前記合成映像の少なくとも一部を前記記録画像として記録し、
前記音声出力部は、前記ライブコンテンツデータの音声データを用いて、前記表示部に表示される合成映像に同期して前記演者の音声を出力する
請求項5から請求項7のいずれかに記載の撮影装置。 It is provided with a receiving unit that receives live content data including at least the augmented reality video data of the performer generated from the live video of the performer and the audio data generated from the audio of the performer from the management device.
The video processing unit synthesizes the augmented reality video data of the live content data and the video captured by the user taken by the camera to generate a composite video, displays the composite video on the display unit, and displays the composite video. At least a part of the composite video is recorded as the recorded image,
The method according to any one of claims 5 to 7, wherein the audio output unit uses the audio data of the live content data to output the audio of the performer in synchronization with the composite video displayed on the display unit. Shooting device.
コンピュータは、カメラが撮影したユーザの撮影映像と前記拡張現実用映像データの演者の動画とを合成して合成映像を生成し、前記合成映像を表示部に表示し、
コンピュータは、前記コンテンツデータの音声データを用いて、前記表示部に表示される合成映像に同期して前記演者の音声を出力し、
コンピュータは、前記演者の音声による撮影開始タイミングに合わせて前記合成映像の静止画を記録し、
コンピュータは、前記静止画を記録画像として、管理装置に送信し、
コンピュータは、前記記録画像の保存場所を示す情報であり、ユーザの端末により読み取り可能な保存場所情報を前記管理装置から受信し、前記保存場所情報を提示する
ユーザ撮影方法。 A computer equipped with a storage unit that stores content data including augmented reality video data that is a moving image of a performer and audio data including audio for guidance by the performer and audio of a still image shooting start timing. It is a user shooting method of
The computer synthesizes the video captured by the user taken by the camera and the video of the performer of the augmented reality video data to generate a composite video, and displays the composite video on the display unit.
The computer uses the audio data of the content data to output the audio of the performer in synchronization with the composite video displayed on the display unit.
The computer records a still image of the composite video at the timing of starting shooting by the voice of the performer.
The computer transmits the still image as a recorded image to the management device, and then
A user photographing method in which a computer is information indicating a storage location of the recorded image, receives storage location information that can be read by a user's terminal from the management device, and presents the storage location information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020175829A JP6849851B2 (en) | 2020-10-20 | 2020-10-20 | Shooting system, shooting device and user shooting method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020175829A JP6849851B2 (en) | 2020-10-20 | 2020-10-20 | Shooting system, shooting device and user shooting method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019043388A Division JP7313847B2 (en) | 2019-03-11 | 2019-03-11 | Photography system, photography device, management device and photography method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021022940A JP2021022940A (en) | 2021-02-18 |
JP6849851B2 true JP6849851B2 (en) | 2021-03-31 |
Family
ID=74573816
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020175829A Active JP6849851B2 (en) | 2020-10-20 | 2020-10-20 | Shooting system, shooting device and user shooting method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6849851B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002056204A (en) * | 2000-08-11 | 2002-02-20 | Plaza Create Co Ltd | System and method for providing service and information storage medium |
JP2003283740A (en) * | 2002-03-22 | 2003-10-03 | Seiko Instruments Inc | Image processing system and processed image providing method |
JP2010002732A (en) * | 2008-06-20 | 2010-01-07 | Bmb Corp | Karaoke video recording device |
-
2020
- 2020-10-20 JP JP2020175829A patent/JP6849851B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2021022940A (en) | 2021-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6474932B2 (en) | COMMUNICATION TERMINAL, COMMUNICATION METHOD, PROGRAM, AND COMMUNICATION SYSTEM | |
CN106664438B (en) | Server device, moving picture delivery system, and control method used therefor | |
US10171617B2 (en) | Communication system that support review of usage details for a communication service | |
JP5939659B2 (en) | Photo / video system | |
JP6273206B2 (en) | Communication terminal, communication method, and program | |
JP6258862B2 (en) | Image processing apparatus, image processing method, and program | |
US20210150773A1 (en) | System and method for generating an augmented reality experience | |
JP2014085644A (en) | Karaoke system | |
JP4423929B2 (en) | Image output device, image output method, image output processing program, image distribution server, and image distribution processing program | |
JP5090115B2 (en) | Moving image distribution apparatus, moving image distribution method and program thereof | |
JP2023153790A (en) | program | |
TW201917556A (en) | Multi-screen interaction method and apparatus, and electronic device | |
JP6849851B2 (en) | Shooting system, shooting device and user shooting method | |
JP2020057329A (en) | Guide system | |
JP7167629B2 (en) | guide system | |
JP7102937B2 (en) | Game image shooting system | |
KR102258495B1 (en) | Sharing system of star's image and method of the same | |
JP2004173320A (en) | Image providing apparatus | |
JP6909903B1 (en) | Image management device, image management system and image management method | |
JP6909902B1 (en) | Image management device, image management system and image management method | |
JP7167207B2 (en) | program, method, information processing device, system | |
JP2005107988A (en) | Image output device, image output method, image output processing program, image delivery server and image delivery processing program | |
JP6909904B1 (en) | Image management device, image management system and image management method | |
JP2004180141A (en) | Moving image photographing management system using digital photographing and transmitting unit | |
JP2016178434A (en) | Printed matter generation device, server device, and moving image data reproduction method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201020 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20201020 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20201218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210127 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210215 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210303 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210304 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6849851 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |