JP2023153790A - プログラム - Google Patents

プログラム Download PDF

Info

Publication number
JP2023153790A
JP2023153790A JP2023113436A JP2023113436A JP2023153790A JP 2023153790 A JP2023153790 A JP 2023153790A JP 2023113436 A JP2023113436 A JP 2023113436A JP 2023113436 A JP2023113436 A JP 2023113436A JP 2023153790 A JP2023153790 A JP 2023153790A
Authority
JP
Japan
Prior art keywords
content
video
data
performer
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023113436A
Other languages
English (en)
Other versions
JP2023153790A5 (ja
Inventor
彩人 藤井
Ayato FUJII
泰生 堤
Yasuo Tsutsumi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Television Network Corp
Original Assignee
Nippon Television Network Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Television Network Corp filed Critical Nippon Television Network Corp
Priority to JP2023113436A priority Critical patent/JP2023153790A/ja
Publication of JP2023153790A publication Critical patent/JP2023153790A/ja
Publication of JP2023153790A5 publication Critical patent/JP2023153790A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】ユーザが演者と同じ空間を共有体験でき、その体験の記録できるプログラムを提供する。【解決手段】撮影システムにおいて、プログラムは、管理サーバから、演者のフィル信号とキー信号とを含む拡張現実用映像データ及び音声データを含むコンテンツデータを受信し、記憶部に格納する受信手段、コンテンツ一覧を表示し、希望するコンテンツの選択を受け付けるコンテンツ選択手段、選択されたコンテンツの拡張現実用映像データのキー信号を用いて、演者のフィル信号と撮影映像とを合成し、ユーザと演者とを含む合成映像を生成、表示し、かつ、合成映像の少なくとも一部を記録画像として記録する映像合成手段、選択された音声データを用いて、表示部に表示される合成映像に同期して演者の音声を出力する音声出力手段、記録画像を保存のために管理装置に送信する送信手段及び保存場所情報を受信し、表示部に表示する保存場所提示手段として端末を機能させる。【選択図】図1

Description

本発明は、プログラムに関し、特に、ユーザを撮影するプログラムに関する。
従来、利用者を含む被写体をカメラで撮影し、その撮影画像と付加画像とを合成した合成画像を印刷写真として出力する遊戯用の自動写真作成装置がある。
しかし、上記の自動写真作成装置は、装置メーカが、付加画像としての画像ソースを別に作成して予め装置に記憶させておき、それを利用者が編集作業で利用するようになっている。従って、利用者は、装置メーカ側で予め用意された付加画像を利用するしかなく、十分な満足感を得ることができない。
そこで、先行被写体の撮影画像やその編集画像を、後続被写体としての利用者の撮影画像に付加するための新たな付加画像として登録することができる自動写真作成装置が発明されている(特許文献1)。尚、先行被写体は、パブリシティ権や商品化権が認められ得る付加価値を有する人、例えば、タレント等である。これにより、タレント等と並んだ写真を撮影することができ、従来にはない満足感が得られるとしている。
特開2008-005401号公報
ところで、上記自動写真作成装置の付加画像が静止画であり、上記自動写真作成装置の目的は、ユーザとタレント等とが並んだ写真を提供することである。
しかしながら、上記自動写真作成装置は、ユーザは、タレント等と同じ空間を共有するような体験をすることができず、単なる合成写真の提供に留まっており、ユーザに十分な満足感を与えるものではなかった。
そこで、本発明は、ユーザがタレント等の演者と同じ空間を共有するような体験を得ることができるともに、ユーザがその体験の記録画像を得ることができるプログラムを提供することにある。
本発明の一態様は、ユーザを撮影するカメラと、表示部と、記憶部と、を備えるコンピュータのプログラムであって、プログラムは、コンピュータを、コンテンツを管理する管理装置から、演者のフィル信号とキー信号とを含む拡張現実用映像データ及び音声データを含むコンテンツデータを受信し、受信したコンテンツデータを記憶部に格納する受信手段、コンテンツデータを用いたコンテンツのコンテンツ一覧を、表示部に表示し、コンテンツ一覧から、ユーザが希望するコンテンツの選択を受け付けるコンテンツ選択手段、ユーザにより選択されたコンテンツのコンテンツデータの拡張現実用映像データのキー信号を用いて、演者のフィル信号とカメラが撮影したユーザの撮影映像とを合成し、ユーザと演者とを含む合成映像を生成し、合成映像を表示部に表示し、かつ、合成映像の少なくとも一部を記録画像として記録する映像合成手段、ユーザにより選択されたコンテンツのコンテンツデータの音声データを用いて、表示部に表示される合成映像に同期して演者の音声を出力する音声出力手段、記録画像を、保存のために管理装置に送信する送信手段、記録画像の保存場所を示す保存場所情報を、管理装置から受信し、保存場所を示す情報を表示部に表示する保存場所提示手段、として機能させるプログラムである。
本発明は、ユーザが演者と同じ空間を共有するような体験を得ることができるともに、ユーザがその体験の記録画像を得ることができる。
図1は本実施形態における撮影システムの全体構成例を示す図である。 図2は撮影装置1のブロック図である。 図3は映像処理部154が行う合成映像の合成処理を説明するための図である。 図4はコンテンツデータベースの一例を示した図である。 図5は設定データの一例を示した図である。 図6は撮影装置1の外観を示す図である。 図7は管理サーバ2のブロック図である。 図8は撮影装置管理データベースの一例である。 図9は決済サーバ3のブロック図である。 図10は装置間のシーケンス図である。 図11は撮影装置1の設定処理(Step1)の動作フローチャートである。 図12は管理サーバ2の管理処理(Step2)の動作フローチャートである。 図13は撮影処理(Step3)の動作フローチャートである。 図14は操作入力部13に表示されるコンテンツの選択画面の一例である。 図15は操作入力部13に表示される利用料金画面の一例である。 図16は保存場所のアドレスを示す二次元コードが表示された画面の一例である。 図17は端末4にダウンロードされた記録画像が、端末4のディスプレイに表示された場合の一例である。 図18は第2の実施の形態における撮影システムの全体構成例を示す図である。 図19は演者撮影装置5のブロック図である。 図20は第2の実施の形態の管理サーバ2のブロック図である。 図21は第2の実施の形態における撮影装置管理データベースの一例である。
<第1の実施の形態>
[全体構成]
図1は、本実施形態における撮影システムの全体構成例を示す図である。図1に示すように、撮影システムは、撮影装置1と、管理サーバ2と、決済サーバ3と、端末4とを備えて構成される。撮影装置1と、管理サーバ2と、決済サーバ3と、端末4とは、通信回線Nに接続可能で、相互に通信可能である。
通信回線Nは、データ通信が可能な通信路を意味する。すなわち、通信回線Nは、直接接続のための専用線(専用ケーブル)やイーサネット(登録商標)等によるLANの他、電話通信網やケーブル網、インターネット等の通信網を含み、通信方法については有線/無線を問わない。
撮影装置1は、イベント会場、映画館等の施設に設置され、ユーザ(被写体)の撮影映像と、コンテンツ映像とを合成した合成映像を生成する装置である。尚、コンテンツ映像は、芸能人(ドラマ・映画などのキャスト、アイドル等)やスポーツ選手等(以下、これらをまとめて演者と記載する)の拡張現実用の映像(例えば、動画)である。また、撮影装置1は、デジタルサイネージの機能も備えている。また、撮影装置1は、基本的には、複数存在し、各イベント会場、映画館等の施設に設置される。
管理サーバ2は、撮影装置1により使用されるコンテンツ映像及び広告の管理と、ユーザ(被写体)に提供する記録画像の保存を行うサーバである。
決済サーバ3は、撮影装置1の利用料金の決済を行うサーバである。
端末4は、ユーザ(被写体)が所持する端末であり、無線通信基地局等を介して通信回線Nに接続し、管理サーバ2とデータ通信を行うことができる。端末4は、例えば、スマートフォンや、携帯電話機、パソコン、タブレット型コンピュータ等である。端末4は、基本的には、複数存在し、各ユーザ(被写体)により操作される。そして、端末4は、少なくとも、画像データを受信し、その画像データを格納又は表示する機能、撮影機能などを持つ。
[各装置の構成]
撮影装置1の構成を説明する。図2は撮影装置1のブロック図である。
図2中、10はカメラであり、11はディスプレイであり、12はスピーカであり、13は操作入力部であり、14は近距離無線通信部であり、15は処理部であり、16は送受信部であり、17は記憶部である。
カメラ10は、ユーザ(被写体)と、ユーザ(被写体)が存在する空間の背景とを撮影するカメラである。カメラ10が撮影した映像(静止画、動画の双方を含む)を、以下、撮影映像と記載する。この撮影映像は処理部15に入力される。
ディスプレイ11は、カメラ10により撮影された撮影映像とコンテンツ映像とが合成された映像が表示される。
スピーカ12はコンテンツの音声が出力される。
操作部入力部13は、ユーザ(被写体)が撮影に関する各種操作を入力するためのものであり、操作入力に応じた操作入力信号を処理部15に出力する。操作入力部13の機能は、例えば、キーボード、マウス、タッチ操作パッド、ホームボタン、ボタンスイッチや、ジョイスティック、トラックボールといったユーザが指で操作する素子はもちろん、加速度センサや角速度センサ、傾斜センサ、地磁気センサといった、運動や姿勢を検知する素子等によっても実現できる。本実施の形態の操作部入力部13は、操作情報が表示されるディプレイを備えるタッチ操作パネルである。
近距離無線通信部14は、利用料金の決済に使用される非接触型ICカードのリーダ・ライタである。
処理部15は、記憶部17に格納されるプログラムやコンテンツデータ、操作入力部13からの操作入力信号等に基づいて撮影装置1の動作を統括的に制御する。処理部15の機能は、例えば、CPUやGPU等のマイクロプロセッサ、ASIC、ICメモリ等の電子部品によって実現できる。この処理部15は、主な機能部として、管理部151と、操作制御部152と、決済処理部153と、映像処理部154と、サイネージ制御部155と、音声制御部156と、保存場所提示部157とを備える。
管理部151は、撮影装置1の設定及びデータの管理を行う。撮影装置1の設定は、撮影装置1の付与されたアカウント及びパスワードによる認証後、管理者が必要な設定を行う。撮影装置1の設定の代表的なものとして、撮影装置1で使用するコンテンツの設定がある。コンテンツは、管理サーバ2からダウンロードし、記憶部17に格納される。コンテンツのダウンロードは、自動でコンテンツのダウンロードが行われる自動更新モードと、管理者が希望するコンテンツを選択してダウンロードする手動更新モードがある。管理者がいずれかのモードを設定することにより、コンテンツのダウンロードが行われ、コンテンツが撮影装置1に格納される。
コンテンツには、ユーザ(被写体)の撮影映像と合成されるコンテンツ映像と、デジタルサイネージに使用されるサイネージ映像(広告映像)とがある。コンテンツ映像は、芸能人(ドラマ・映画などのキャスト、アイドル等)やスポーツ選手等の演者の映像であり、拡張現実用の映像データである。コンテンツ映像は、基本的には動画である。また、サイネージ映像は、広告映像であり、動画、静止画のいずれも含む。尚、コンテンツ映像と、それらの映像に関するメタデータ(識別情報及び利用料金など)とを含めてコンテンツデータ記載する。同様に、サイネージ映像と、それらの映像に関するメタデータ(識別情報など)とを含めてサイネージデータと記載する。
操作制御部152は、コンテンツの内容(例えば、サムネイル映像)や操作情報を操作部入力部13に表示する。また、操作部入力部13からの操作信号を受信する。
決済処理部153は、近距離無線通信部14により読み取られた非接触型ICカードの決済情報を受信し、決済情報を決済サーバ3に送信する。また、決済が完了した場合、決済サーバ3から決済完了情報を受信する。
映像処理部154は、カメラ10からのユーザ(被写体)の撮影映像を入力し、撮影映像に、ユーザ(被写体)が選択したコンテンツのコンテンツ映像を重畳した合成映像を生成する。
映像処理部154が行う合成映像の生成について説明する。合成映像を生成するためには、撮影映像、フィル(Fill)信号及びキー信号の3種類の映像信号が必要となる。フィル(Fill)信号は、ユーザ(被写体)が選択したコンテンツの演者のコンテンツ映像である。キー信号は、フィル(Fill)信号であるコンテンツ映像を重畳する領域を指定する信号である。尚、本実施の形態では、フィル(Fill)信号及びキー信号が、拡張現実用映像データである。
図3は映像処理部154が行う合成映像の合成処理を説明するための図である。合成処理は、撮影映像の全領域のうち、キー信号に基づいて指定される領域に、フィル信号の演者の映像をはめ込むことによって、合成映像を生成する。尚、図3では、ある所定フレームの合成処理を説明した図であり、実際は、撮影映像、コンテンツ映像は動画であるため、フレーム単位で合成映像の生成処理が行われる。
また、撮影空間におけるユーザ(被写体)と演者との位置関係が分かる場合は、重畳するフィル(Fill)信号(演者の映像)とユーザ(被写体)の領域とが重なる部分は、前方に位置する方を優先的に合成する。このようにすれば、より自然な仮想空間の映像を演出することが可能である。尚、ユーザ(被写体)と演者との位置関係は、赤外線による測定や、映像の画像解析などの従来方法を用いることが出来る。
また、映像処理部154は、合成映像(動画)のうちのある時刻の映像を静止画として記録する機能も有する。この記録された記録画像は、後述する管理サーバ2の保存場所に保存される。尚、記録画像は静止画に限定するものではなく、合成映像(動画)の全部又は一部の動画でも良い。
サイネージ制御部155は、撮影装置1が撮影に利用されていない時間に、サイネージデータを使用してディスプレイ11に広告を表示する。
音声制御部156は、コンテンツデータに含まれる音声データを使用して、ユーザ(被写体)の撮影映像の撮影時に、映像上の演者の音声や、利用案内の音声などをスピーカ12から出力する。
保存場所提示部157は、上述した記録画像の保存場所をユーザ(被写体)に通知する。通知方法としては、記録画像の保存場所のアドレスを示す二次元コード(QRコード(登録商標)など)を、ディスプレイ11に表示する方法がある。但し、これに限定されず、保存場所のアドレスを、ディスプレイ11に直接表示しても良いし、他の方法でも良い。
送受信部16は、通信回線Nを介して、管理サーバ2及び決済サーバ3との間で、データの送受信を行う。
記憶部17は、撮影装置1に必要な各種データが格納される。例えば、コンテンツデータベースや、設定データ等である。
図4はコンテンツデータベースの一例を示した図である。図4に示すデータベースは、ユーザとの撮影に使用される演者のコンテンツデータと、広告として使用されるサイネージデータとが格納されている。コンテンツデータは、コンテンツ識別情報(ID)と、コンテンツ名と、拡張現実用の映像データ(フィル(Fill)信号、キー信号を含む)と、音声データと、メタデータとを含む。サイネージデータは、サイネージ識別情報(ID)と、広告名と、映像データと、音声データと、メタデータとを含む。尚、図4は一例であり、これに限られない。
図5は設定データの一例を示した図である。図5に示す設定データは、撮影装置1のアカウントと、管理パスワードと、自動更新の有無と、広告開始時間(撮影装置1が最後に使用されてからの経過時間)、補助データを含む。尚、図5は一例であり、これに限られない。
上述した撮影装置1の外観を、図6に示す。
次に、管理サーバ2の構成を説明する。図7は管理サーバ2のブロック図である。
図7中、20は入力部であり、21は送受信部であり、22は処理部であり、23は記憶部である。
入力部20は、管理者が各種操作を入力するためのものであり、操作入力に応じた操作入力信号を処理部22に出力する。入力部20の機能は、例えば、キーボード、マウス、タッチ操作パッド、ホームボタン、ボタンスイッチや、ジョイスティック、トラックボールといったユーザが指で操作する素子はもちろん、加速度センサや角速度センサ、傾斜センサ、地磁気センサといった、運動や姿勢を検知する素子等によっても実現できる。
送受信部21は、通信回線Nを介して、撮影装置1との間で、データの送受信を行う。
処理部22は、記憶部23に格納されるプログラムやコンテンツデータ、入力部20からの操作入力信号等に基づいて管理サーバ2の動作を統括的に制御する。処理部15の機能は、例えば、CPUやGPU等のマイクロプロセッサ、ASIC、ICメモリ等の電子部品によって実現できる。この処理部22は、主な機能部として、コンテンツ管理部121し、撮影データ保存管理部122とを備える。
コンテンツ管理部121は、撮影装置1に設定するコンテンツデータを管理する。具体的には、記憶部23に格納された撮影装置管理データベースを用いて、撮影装置1で使用されるコンテンツなどを管理する。図8は撮影装置管理データベースの一例である。図8に示す撮影装置管理データベースは、撮影装置の識別情報、アカウント、パスワード、自動更新の有無及び利用可能なコンテンツの識別情報を、撮影装置1毎に記録している。
撮影データ保存管理部122は、撮影装置1が撮影した記録画像を記憶23に保存し、保存場所のアドレスを撮影装置1に通知する。
次に、決済サーバ3の構成を説明する。図9は決済サーバ3のブロック図である。
図9中、30は送受信部であり、31は決済処理部であり、32は記憶部である。
送受信部30は、通信回線Nを介して、撮影装置1との間で、データの送受信を行う。
決済処理部31は、撮影装置1から決済情報を受信し、記憶部32に格納されるプログラムや決済データに基づいて決済処理を行い、決済完了情報を撮影装置1に送信する。決済処理部31は、例えば、CPUやGPU等のマイクロプロセッサ、ASIC、ICメモリ等の電子部品によって実現できる。尚、非接触型ICカードの料金の決済は、従来からある方法を用いることができる。
[各装置の動作]
第1の実施の形態の動作を説明する。図10は装置間のシーケンス図である。
まず、撮影装置1を利用可能な状態にするために、設定処理を行う(Step1)。そして、管理サーバ2は、撮影装置1からの設定要求に応答して、管理処理を行い、コンテンツデータやサイネージデータを送信する(Step2)。
ここで、撮影装置1の設定処理(Step1)の動作を、フローチャートを用いて説明する。図11は撮影装置1の設定処理(Step1)の動作フローチャートである。
まず、撮影装置1の管理者は、操作入力部13を操作して管理画面を表示する。操作制御部152は、管理画面を操作入力部13に表示する(Step100)。
管理者は、操作入力部13を操作して、識別情報(アカウント)及びパスワードを入力する(Step101)。
管理部151は、入力された識別情報(アカウント)及びパスワードの照合を行い(Step102)、認証できたならば(Step103)、更新モードの選択に遷移する。一方、認証できない場合は、設定処理を終了する。
認証できた場合は、管理画面には、自動更新モードと手動更新モードとが表示される。管理者は、いずれかのモードを選択する。
管理者が自動更新モードを選択した場合(Step104)は、撮影装置1で利用可能なコンテンツデータとサイネージデータとが管理サーバ2から送信され、管理部151は、それらのコンテンツデータとサイネージデータを記憶部17のコンテンツデータベースに格納し、コンテンツの設定を完了する。そして、設定完了通知を管理サーバ2に送信する。
一方、管理者が手動更新モードを選択した場合(Step104)は、管理サーバ2から撮影装置1で利用可能なコンテンツデータ及びサイネージデータの一覧が送信され、管理部151は、コンテンツデータ及びサイネージデータの一覧情報を表示する(Step105)。管理者は、操作入力部13を操作し、一覧情報から利用したいコンテンツデータ及びサイネージデータを選択する(Step106)。そして、管理部151は、選択されたコンテンツデータ及びサイネージデータを、管理サーバ2からダウンロードし(Step107)、記憶部17のコンテンツデータベースに格納し、コンテンツの設定を完了する(Step108)。そして、設定完了通知を管理サーバ2に送信する。
次に、管理サーバ2の管理処理(Step2)の動作を、フローチャートを用いて説明する。図12は管理サーバ2の管理処理(Step2)の動作フローチャートである。
管理サーバ2は、撮影装置1から設定要求に応答して、識別情報(アカウント)の照合を行う(Step200)。識別情報(アカウント)が登録されているものであれば(Step201)、撮影装置1からのモードの要求に対応する処理を行う。
撮影装置1から要求されたモードが手動更新モードである場合(Step202)、記憶部23の撮影装置管理データベースのうち、設定要求した撮影装置1のアカウントの利用可能コンテンツのフィールドに記載されているコンテンツID又はサイネージIDに対応するコンテンツデータ及びサイネージデータの一覧を送信する(Step203)。撮影装置1からコンテンツデータ及びサイネージデータの選択情報を受信すると、選択されたコンテンツデータ及びサイネージデータを撮影装置1に送信する(Step204)。そして、撮影装置1から設定完了通知を受信すると、管理処理を終了する(Step205)。
一方、撮影装置1から要求されたモードが自動更新モードである場合、記憶部23の撮影装置管理データベースのうち、設定要求した撮影装置1のアカウントの自動更新有無のフィールドのフラグを”ON”にする(Step206)。そして、コンテンツデータベースに登録されているコンテンツのうち、設定要求した撮影装置1のアカウントの利用可能コンテンツのフィールドに記載されているコンテンツID又はサイネージIDに対応するコンテンツデータ及びサイネージデータを検索し(Step207)、利用可能なコンテンツデータ及びサイネージデータを送信する(Step208)。そして、撮影装置1から設定完了通知を受信すると、管理処理を終了する(Step205)。
尚、自動更新が有効であるアカウントの撮影装置1については、利用可能コンテンツの変更があった場合には、利用可能コンテンツフィールドに記載されているIDに対応するコンテンツデータ又はサイネージデータを、自動的に撮影装置1に送信し、撮影装置1のコンテンツの自動更新を行う。
図10のシーケンス図の説明に戻る。
撮影装置1の設定が完了すると、ユーザ(被写体)が撮影装置1を利用することが可能となる。そして、ユーザ(被写体)が撮影装置1の利用を開始すると、撮影装置1は撮影処理(Step3)を実行する。
ここで、撮影処理(Step3)の動作を、フローチャートを用いて説明する。図13は撮影処理(Step3)の動作フローチャートである。
撮影装置1の操作制御部152は、コンテンツの一覧を操作入力部13に表示する(Step300)。図14は操作入力部13に表示されるコンテンツの選択画面の一例である。図14の例では、コンテンツAAA、コンテンツBBB及びコンテンツCCCの3種類のコンテンツが選択可能な画面の例である。
撮影装置1を利用するユーザは、操作入力部13に表示されているコンテンツの一覧から希望のコンテンツを選択する。選択は、コンテンツの一覧から希望のコンテンツをタッチすることにより行われる(Step301)。
コンテンツが選択されると、操作入力部13の画面にはコンテンツの利用料金の画面が表示される(Step302)。図15は操作入力部13に表示される利用料金画面の一例である。図15の例では、コンテンツAAAの利用料金が600円であり、ICカードを近距離無線通信部14にタッチすることを要求する画面の例である。
ユーザが利用料金画面の指示に従って、ICカードを近距離無線通信部14にタッチすることにより、料金の決済情報を決済処理部153が受信し(Step303)、決済情報を決済サーバ3に送信する(Step304)。
撮影装置1の決済処理部153は、決済サーバ3から決済完了情報を受信し(Step305)、決済が完了したことを操作入力部13に表示し、撮影が開始されることを通知する(Step306)。
カメラによるユーザ(被写体)の撮影が開始されると、その撮影映像がディスプレイ11に表示される。続いて、映像処理部154は、撮影映像に選択したコンテンツの仮想現実用の映像データを重畳し、合成映像を生成する(Step307)。そして、映像処理部154は、合成映像(動画)をディスプレイ11に表示する(Step308)。このとき、コンテンツの音声データにより、演者の音声もスピーカから出力される。例えば、「AAAです。今日は撮影会に参加してくれてありがとう。」等の音声が出力される。このように、ディスプレイ11には、演者とユーザとが一緒に同じ空間に存在する映像が表示され(図3の合成映像を参照)、音声も聞こえるので、ユーザは演者と一緒に同じ空間を共有するような疑似体験を得ることが出来る。そして、演者から記念撮影のタイミングが告げられ、記録画像(静止画)の撮影が行われる(Step309)。
撮影が終了すると、保存場所提示部157は、管理サーバに、静止画をアップロードし(Step310)、保存場所のアドレスを、二次元コードを使用して、操作入力部13の画面に表示する(Step311)。図16は保存場所のアドレスを示す二次元コードが表示された画面の一例である。
以上で、撮影処理の説明を終了する。
図10のシーケンス図の説明に戻る。
Step4は、決済サーバ3で行われる決済処理である。撮影装置1から送信されたユーザのICカードの決済情報を受信し、その決済情報に基づいて決済完了情報を撮影装置1に送信する。
Step5は、管理サーバ2で行われる保存処理である。撮影装置1から送信された記録画像(静止画)を保存し、その保存場所のアドレスを撮影装置1に送信する。
ユーザは端末1の撮影機能を利用し、操作入力部13の画面に表示された二次元コードを撮影し、二次元コードで示されるアドレスにアクセスする(Step6)。そして、端末1は、撮影した記録画像(静止画)を端末1にダウンロードする(Step7)。図17は端末4にダウンロードされた記録画像が、端末4のディスプレイに表示された場合の一例である。
一方、撮影装置1のサイネージ制御部155は、一定時間(例えば、3分)、ユーザによる撮影装置1の利用がない場合は、記憶部17のコンテンツデータベースのサイネージデータから、映像データ及音声データを取得し、ディスプレイ11に映像データによる広告を表示し、スピーカ12から音声データによる音声を出力する(Step8)。
以上で、第1の実施の形態の動作の説明を終了する。
第1の実施の形態は、演者の映像(動画)とユーザの撮影映像とを合成してディスプレイに表示させ、音声も聞こえるように構成しているので、ユーザは演者と一緒に同じ空間を共有するような体験を得ることが出来る。また、その体験の記念として記録される記録画像は、管理サーバに保存され、ユーザは端末にダウンロードすることができるので、例えば、SNS等によるシェアの利便性向上を図ることができると共に、物理的な印刷を行わないため、コストの削減も図れる。
また、第1の実施の形態は、管理サーバにより、撮影装置で使用されるコンテンツを一括で管理しているので、撮影装置で使用するコンテンツの設定の即時性・登録の柔軟性を実現することができる。
更に、第1の実施の形態の撮影装置は、デジタルサイネージの機能も搭載されているので、撮影装置が利用されていない時間を有効に活用することもできる。
<第2の実施の形態>
第2の実施の形態を説明する。図18は第2の実施の形態における撮影システムの全体構成例を示す図である。
第2の実施の形態では、第1の実施の形態に加えて、演者のライブ映像を撮影し、ライブ映像から撮影装置1で使用するコンテンツデータ(フィル(Fill)信号、キー信号及び音声データ)を生成する演者撮影装置5が設けられている。
図19は演者撮影装置5のブロック図である。図19中、50カメラであり、51はマイク、52はディスプレイであり、53は送受信部であり、54は処理部であり、55は記憶部である。
カメラ50は、演者のライブ映像を撮影するカメラである。カメラ50が撮影した映像をライブ映像と記載する。このライブ映像は処理部54に入力される。
マイク51は、演者の音声を取得し、取得した音声を処理部54に出力する。
ディスプレイ52は、カメラ50により撮影されたライブ映像が表示される。
送受信部53は、通信回線Nを介して、管理サーバ2との間で、データの送受信を行う。
処理部54は、記憶部55に格納されるプログラムに基づいて演者撮影装置5の動作を統括的に制御する。処理部54の機能は、例えば、CPUやGPU等のマイクロプロセッサ、ASIC、ICメモリ等の電子部品によって実現できる。この処理部54は、主な機能部として、フィル(Fill)信号生成部151と、キー信号生成部152と、ライブコンテンツデータ生成部153とを備える。
フィル(Fill)信号生成部151は、カメラ50で撮影されたライブ映像から、リアルタイムで、演者のフィル(Fill)信号を生成する。キー信号生成部152は、カメラ50で撮影されたライブ映像から、リアルタイムで、演者のキー信号を生成する。これらの処理は、例えば、クロマキーの技術を用いることができる。
ライブコンテンツデータ生成部153は、演者のフィル(Fill)信号、キー信号及びマイク51で取得された演者の音声を含むライブコンテンツデータを生成する。このライブコンテンツデータは、送受信部53を介して、リアルタイムで、管理サーバ2に送信される。
第2の実施の形態の管理サーバ2を説明する。図20は第2の実施の形態の管理サーバ2のブロック図である。第2の実施の形態の管理サーバ2が第1の実施の形態と異なる所は、リアルタイム配信部123が追加されたことである。
リアルタイム配信部123は、演者撮影装置5から受信したライブコンテンツデータを、所定の撮影装置1にリアルタイムでストリーミング配信する。配信する撮影装置1は、記憶部23に格納されている撮影装置管理データベースを用いて決定する。図21は第2の実施の形態における撮影装置管理データベースの一例である。図21に示される撮影装置管理データベースは、第1の実施の形態に加えて、ライブ配信の有無のフィールドが設けられている。リアルタイム配信部123は、撮影装置管理データベースのライブ配信フィールドが「有」のフラグである撮影装置1に、受信したライブコンテンツデータを送信する。
撮影装置1は、管理データベース2からライブコンテンツデータを受信すると、記憶部17に格納しつつ、カメラによるユーザ(被写体)の撮影を開始する。その撮影映像がディスプレイ11に表示される。続いて、映像処理部154は、ライブコンテンツデータのキー信号を用いて、フィル(Fill)信号とユーザの撮影画像とを合成する(図13のStep307)。そして、映像処理部154は、合成映像(動画)をディスプレイ11に表示する(図13のStep308)。他の処理は、第1の実施の形態と同様である。
第2の実施の形態は、演者のライブ映像からコンテンツデータを生成し、管理装置が各撮影装置にライブ配信している。従って、ひとり演者が、異なる場所の多数のユーザと同時に空間を共有するといったことが可能である。
以上、好ましい実施の形態をあげて本発明を説明したが、本発明は必ずしも上記実施の形態に限定されるものではなく、その技術的思想の範囲内において様々に変形し実施することが出来る。
1 撮影装置
2 管理サーバ
3 決済サーバ
4 端末
5 演者撮影装置
10 カメラ
11 ディスプレイ
12 スピーカ
13 操作入力部
14 近距離無線通信部
15 処理部
16 送受信部
17 記憶部
20 入力部
21 送受信部
22 処理部
23 記憶部
30 送受信部
31 決済処理部
32 記憶部

Claims (2)

  1. ユーザを撮影するカメラと、表示部と、記憶部と、を備えるコンピュータのプログラムであって、
    前記プログラムは、前記コンピュータを、
    コンテンツを管理する管理装置から、演者のフィル信号とキー信号とを含む拡張現実用映像データ及び音声データを含むコンテンツデータを受信し、前記受信したコンテンツデータを前記記憶部に格納する受信手段、
    前記コンテンツデータを用いたコンテンツのコンテンツ一覧を、前記表示部に表示し、前記コンテンツ一覧から、ユーザが希望するコンテンツの選択を受け付けるコンテンツ選択手段、
    ユーザにより選択されたコンテンツのコンテンツデータの前記拡張現実用映像データのキー信号を用いて、前記演者のフィル信号と前記カメラが撮影したユーザの撮影映像とを合成し、前記ユーザと前記演者とを含む合成映像を生成し、前記合成映像を前記表示部に表示し、かつ、前記合成映像の少なくとも一部を記録画像として記録する映像合成手段、
    前記ユーザにより選択されたコンテンツのコンテンツデータの音声データを用いて、前記表示部に表示される合成映像に同期して前記演者の音声を出力する音声出力手段、
    前記記録画像を、保存のために前記管理装置に送信する送信手段、
    前記記録画像の保存場所を示す保存場所情報を、前記管理装置から受信し、前記保存場所を示す情報を前記表示部に表示する保存場所提示手段、
    として機能させるプログラム。
  2. 前記音声データは、前記演者による案内及び静止画の撮影開始タイミングの音声を含み、
    前記音声出力手段は、前記音声データを用いて、前記表示部に表示される合成映像に同期して、前記演者による案内及び撮影開始タイミングの音声を出力し、
    前記映像合成手段は、前記演者の音声による撮影開始タイミングに合わせて前記合成映像の静止画を、前記記録画像として記録する、
    請求項1に記載のプログラム。
JP2023113436A 2019-03-11 2023-07-11 プログラム Pending JP2023153790A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023113436A JP2023153790A (ja) 2019-03-11 2023-07-11 プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019043388A JP7313847B2 (ja) 2019-03-11 2019-03-11 撮影システム、撮影装置、管理装置及び撮影方法
JP2023113436A JP2023153790A (ja) 2019-03-11 2023-07-11 プログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019043388A Division JP7313847B2 (ja) 2019-03-11 2019-03-11 撮影システム、撮影装置、管理装置及び撮影方法

Publications (2)

Publication Number Publication Date
JP2023153790A true JP2023153790A (ja) 2023-10-18
JP2023153790A5 JP2023153790A5 (ja) 2024-01-15

Family

ID=72430874

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019043388A Active JP7313847B2 (ja) 2019-03-11 2019-03-11 撮影システム、撮影装置、管理装置及び撮影方法
JP2023113436A Pending JP2023153790A (ja) 2019-03-11 2023-07-11 プログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019043388A Active JP7313847B2 (ja) 2019-03-11 2019-03-11 撮影システム、撮影装置、管理装置及び撮影方法

Country Status (1)

Country Link
JP (2) JP7313847B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7332562B2 (ja) * 2019-04-26 2023-08-23 株式会社コロプラ プログラム、方法、および情報端末装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6002770B2 (ja) 2011-09-18 2016-10-05 タッチチューンズ ミュージック コーポレーション カラオケおよび/またはプリクラ機能を備えたデジタルジュークボックス装置および関連手法
JP5964722B2 (ja) 2012-10-26 2016-08-03 株式会社エクシング カラオケシステム
JP6075356B2 (ja) 2014-11-10 2017-02-08 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
JP7313847B2 (ja) 2023-07-25
JP2020150289A (ja) 2020-09-17

Similar Documents

Publication Publication Date Title
CN109167950B (zh) 视频录制方法、视频播放方法、装置、设备及存储介质
JP6469279B1 (ja) コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
WO2020044874A1 (ja) コンテンツ配信サーバ、コンテンツ配信システム、コンテンツ配信方法及びプログラム
CN106664438B (zh) 服务器装置、动画传送系统以及使用的控制方法
JP6241802B1 (ja) 映像配信システム、ユーザ端末装置および映像配信方法
JP5964722B2 (ja) カラオケシステム
JP2017010536A (ja) ユーザ間の協業によってコンテンツを生成する方法およびシステム
JP5090115B2 (ja) 動画像配信装置、動画像配信方法ならびにそのプログラム
JP2023153790A (ja) プログラム
CN106385614A (zh) 画面合成方法及装置
JP5800319B2 (ja) 土産用動画配信システム
CN114268823A (zh) 一种视频播放方法、装置、电子设备及存储介质
JP2019146062A (ja) コンテンツ配信システム、コンテンツ配信方法およびコンテンツ配信プログラム
JP6849851B2 (ja) 撮影システム、撮影装置及びユーザ撮影方法
JP2020057329A (ja) ガイドシステム
JP6265621B2 (ja) 表示制御装置およびプログラム
JP2012169986A (ja) 撮影端末、撮影システム、サーバ、撮影サービス制御方法、およびプログラム
JP7167629B2 (ja) ガイドシステム
JP2023072567A (ja) ライブ配信システム、ライブ配信方法、及びライブ配信プログラム
JP2017098800A (ja) 合成動画提供システム
JP6909903B1 (ja) 画像管理装置、画像管理システム及び画像管理方法
JP6520262B2 (ja) 動画データ再生方法
JP2016174289A (ja) サーバ装置、動画データ再生方法、及びプログラム
JP6909904B1 (ja) 画像管理装置、画像管理システム及び画像管理方法
JP6909902B1 (ja) 画像管理装置、画像管理システム及び画像管理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240724

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240906