JP2020191620A - 映像配信方法、映像配信装置、及びコンピュータプログラム - Google Patents
映像配信方法、映像配信装置、及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2020191620A JP2020191620A JP2019227646A JP2019227646A JP2020191620A JP 2020191620 A JP2020191620 A JP 2020191620A JP 2019227646 A JP2019227646 A JP 2019227646A JP 2019227646 A JP2019227646 A JP 2019227646A JP 2020191620 A JP2020191620 A JP 2020191620A
- Authority
- JP
- Japan
- Prior art keywords
- video
- live video
- live
- distribution
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Transfer Between Computers (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
【課題】不特定多数のユーザの関心を引くことができる映像配信装置を提供する。【解決手段】バーチャルアシスタントを用いた映像を配信する配信システム10において、映像処理装置11は実空間に存在するバーチャルアシスタントを演じる演者の動作を仮想空間上のキャラクタに反映させることにより生成されるライブ映像を生成し、配信サーバ12は生成したライブ映像と、ライブ映像を録画して得られた録画映像やダイジェスト映像の非ライブ映像を取得し、複数の施設に分散配置される表示装置へ配信する。【選択図】図2
Description
本発明は、映像配信方法、映像配信装置、及びコンピュータプログラムに関する。
本出願は、2018年12月20日出願の米国仮特許出願第62/783,078号、及び2019年5月20日出願の日本国特許出願第2019−094594号に基づく優先権を主張し、前記米国仮特許出願及び前記日本国特許出願に記載された全ての記載内容を援用するものである。
本出願は、2018年12月20日出願の米国仮特許出願第62/783,078号、及び2019年5月20日出願の日本国特許出願第2019−094594号に基づく優先権を主張し、前記米国仮特許出願及び前記日本国特許出願に記載された全ての記載内容を援用するものである。
ライブ会場におけるライブをインターネット等の通信ネットワークを介して、リアルタイム中継することにより、ライブ動画を共有するサービスが知られている。ライブ動画を共有するサービスでは、ライブ会場で撮影された動画をライブストリーミングにより配信することにより、複数のユーザの端末で共有することが可能である(例えば、特許文献1を参照)。
しかしながら、上述したライブ動画の共有サービスでは、特定のユーザの端末に対してライブ動画を配信する構成としており、不特定多数のユーザの関心を引くことは困難である。
本発明は、不特定多数のユーザの関心を引くことができる映像配信方法、映像配信装置、及びコンピュータプログラムを提供することを目的とする。
本発明の一態様に係る映像配信方法は、実空間に存在する演者の動作を仮想空間上のキャラクタに反映させることにより生成されるライブ映像を取得し、取得したライブ映像と、該ライブ映像に基づく非ライブ映像とを、複数の施設に分散配置される表示装置へ配信する。
本発明の一態様に係る映像配信装置は、実空間に存在する演者の動作を仮想空間上のキャラクタに反映させることにより生成されるライブ映像を取得する取得部と、取得したライブ映像と、該ライブ映像に基づく非ライブ映像とを、複数の施設に分散配置される表示装置へ配信する配信部とを備える。
本発明の一態様に係るコンピュータプログラムは、コンピュータに、実空間に存在する演者の動作を仮想空間上のキャラクタに反映させることにより生成されるライブ映像と、前記ライブ映像を録画して得られる録画映像と、前記ライブ映像の一部を抽出して得られるダイジェスト映像とを選択可能に表示し、選択に応じて、前記ライブ映像、前記録画映像、及び、前記ダイジェスト映像の何れか1つを表示する処理を実行させるためのコンピュータプログラムである。
本願によれば、不特定多数のユーザの関心を引くことができる。
以下、本発明の適用例の1つとして、バーチャルアシスタントを用いてポロモーション活動を行うシステムについて、図面を用いて具体的に説明する。
(実施の形態1)
図1は実施の形態1に係るプロモーションシステムの全体構成を説明する模式図である。本実施の形態に係るプロモーションシステムは、例えば、バーチャルアシスタントを用いた映像を配信する配信システム10、店舗などの施設にてプロモーションを実施する事業者(広告主)が利用する事業者端末20、店舗などの複数の施設に分散配置される表示システム30,30,…,30、及び、個人ユーザが用いるユーザ端末40を含む。事業者端末20、表示システム30及びユーザ端末40は、インターネット網などの通信ネットワークNを介して、配信システム10に通信可能に接続される。
(実施の形態1)
図1は実施の形態1に係るプロモーションシステムの全体構成を説明する模式図である。本実施の形態に係るプロモーションシステムは、例えば、バーチャルアシスタントを用いた映像を配信する配信システム10、店舗などの施設にてプロモーションを実施する事業者(広告主)が利用する事業者端末20、店舗などの複数の施設に分散配置される表示システム30,30,…,30、及び、個人ユーザが用いるユーザ端末40を含む。事業者端末20、表示システム30及びユーザ端末40は、インターネット網などの通信ネットワークNを介して、配信システム10に通信可能に接続される。
本実施の形態に係るプロモーションシステムは、配信システム10から表示システム30及びユーザ端末40に対し、バーチャルアシスタントの映像を配信することによって、商品又はサービスを販売する店舗等における広告活動や販促活動などのプロモーションを実施する。配信システム10が配信するバーチャルアシスタントの映像は、現実世界(実空間)に存在する演者の動作を仮想空間上のキャラクタに反映させることによって生成されるライブ映像を含む。演者は、例えば、声優、俳優、司会者、講演者などである。代替的に、演者は一般ユーザであってもよい。演者の動作を反映させる仮想空間上のキャラクタは、人物、動物などをコンピュータグラフィックスにより表現したオブジェクトである。当該オブジェクトは、2次元のオブジェクトであってもよく、3次元のオブジェクトであってもよい。所謂バーチャルユーチューバー(Vtuber)は、演者の動作を仮想空間上のキャラクタに反映させることによって生成されるバーチャルアシスタントの一例である。ライブ映像には、音声が付加されていてもよい。
配信システム10が配信する映像は、バーチャルアシスタントのライブ映像に基づく非ライブ映像を含んでもよい。非ライブ映像は、ライブ映像を録画して得られる録画映像、及びライブ映像の一部を抽出して得られるダイジェスト映像の少なくとも一方を含む。録画映像及びダイジェスト映像には、音声が付加されていてもよい。
バーチャルアシスタントを用いたプロモーションの一例は、店舗等における広告活動や販促活動である。また、プロモーションは、適宜の施設にて行われるイベント活動、接客業務、コンシェルジュ業務、説明会業務等の様々な活動についてのプロモーションであってもよい。このため、表示システム30は、店舗に限らず、イベント会場、講習会場、レジャー施設、駅、広場などの任意の施設に設置されてもよい。例えば、案内係や警備員を導入する代わりに、表示システム30を用いてバーチャルアシスタントのライブ映像を表示してもよい。さらに、プロモーションは、個人ユーザが通信ネットワークNを介して行うコンテンツ配信活動についてのプロモーションであってもよい。
ライブ映像及び非ライブ映像の配信は、配信システム10から表示システム30及びユーザ端末40に対して直接的に行ってもよく、事業者端末20を介して間接的に行ってもよい。後者の場合、事業者端末20は、配信システム10からライブ映像及び非ライブ映像を取得し、取得したライブ映像及び非ライブ映像を表示システム30及びユーザ端末40へ二次配信すればよい。
また、複数の店舗を統轄する統轄本部にサーバ装置が設定されている場合、当該サーバ装置を介して、各店舗の表示システム30,30,…,30にライブ映像及び非ライブ映像を配信してもよい。この場合、統轄本部のサーバ装置は、配信システム10からライブ映像及び非ライブ映像を取得し、取得したライブ映像及び非ライブ映像を表示システム30及びユーザ端末40へ二次配信すればよい。
また、配信システム10から配信されるライブ映像及び非ライブ映像の配信先は、実店舗の表示システム30であってもよく、通信ネットワークN上の仮想店舗が用意しているチャンネルであってもよい。
以下、プロモーションシステムを構成する配信システム10、事業者端末20、表示システム30、及びユーザ端末40の構成について個々に説明する。
図2は配信システム10の構成を示すブロック図である。配信システム10は、バーチャルアシスタントを用いた映像を生成する映像処理装置11と、映像処理装置11によって生成された映像をクライアントへ配信する配信サーバ12とを含む。
映像処理装置11は、例えば、映像入力部111、音声入力部112、記憶部113、映像処理部114、操作部115、表示部116、及び接続部117を備える。
映像入力部111は、デジタルビデオカメラなどの撮像装置13が接続され、映像データが入力される入力インタフェースを備える。本実施の形態では、撮像装置13を用いて、バーチャルアシスタントを演じる演者の動作を撮像する。映像入力部111は、撮像装置13によって撮像された映像データを取得し、取得した映像データを記憶部113へ出力する。
音声入力部112には、マイクなどの音声入力装置14が接続され、音声データが入力される入力インタフェースを備える。本実施の形態では、音声入力装置14を用いて、バーチャルアシスタントを演じる演者の声を録音する。音声入力部112は、音声入力装置14から音声データを取得し、取得した音声データを記憶部113へ出力する。
なお、本実施形態の映像処理装置11は、映像データ及び音声データをそれぞれ映像入力部111及び音声入力部112から取得する構成としたが、映像データ及び音声データを含むマルチメディアデータを1つの入力インタフェースから取得する構成であっもよい。
記憶部113は、メモリ、ハードディスクなどを用いた記憶装置を備える。記憶部113には、演者の動作が反映されるキャラクタのデータが記憶される。キャラクタのデータは、キャラクタの形状、外観、性格などの各種属性を定める属性データを含む。また、記憶部113には、映像処理装置11において実行される各種コンピュータプログラムが記憶されてもよい。記憶部113に記憶されるコンピュータプログラムには、演者の動作をキャラクタに反映させてバーチャルアシスタントのライブ映像を生成する映像処理プログラムが含まれる。
記憶部113に記憶されるプログラムは、当該プログラムを読み取り可能に記録した非一時的な記録媒体M11により提供されてもよい。記録媒体M11は、例えば、CD−ROM、USBメモリ、SD(Secure Digital)カード、マイクロSDカード、コンパクトフラッシュ(登録商標)などの可搬型メモリである。この場合、映像処理装置11は、不図示の読取装置を用いて記録媒体M11から各種プログラムを読み取り、読み取った各種プログラムを記憶部113にインストールする。また、記憶部113に記憶されるプログラムは、通信により提供されてもよい。
映像処理部114は、ASIC(Application Specific Integrated Circuit)などの処理回路及びメモリを備える。映像処理部114は、記憶部113に記憶された映像処理プログラムを実行することにより、映像入力部111及び音声入力部112を通じて入力される映像データ及び音声データに基づき、演者の動作をキャラクタに反映させたバーチャルアシスタントによるライブ映像を生成する。演者の動作をキャラクタに反映させる手法としては公知の手法を用いることができる。例えば、演者の動作に関する情報をモーションキャプチャにより取得し、取得した情報に基づき、仮想空間においてキャラクタを動作させることによって、演者の動作をキャラクタに反映させることができる。また、演者の動作をキャラクタに反映させる際に、操作部115を通じてコマンドの入力を受付け、受付けたコマンドに従って演者の動作をキャラクタに反映させてもよい。ライブ映像は映像だけでなく音声を含んでもよい。映像処理部114において生成されたライブ映像は、接続部117を通じて配信サーバ12へ出力される。
操作部115は、キーボード、マウスなどの入力インタフェースを備えており、システム管理者等による操作を受付ける。表示部116は、液晶ディスプレイ装置などを備えており、システム管理者等に対して報知すべき情報を表示する。
接続部117は、配信サーバ12を接続する接続インタフェースを備える。映像処理装置11は、映像処理部114によって生成されたライブ映像を、接続部117を通じて配信サーバ12へ出力する。
配信サーバ12は、制御部121、記憶部122、操作部123、表示部124、接続部125、通信部126等を備える。
制御部121は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を備える。制御部121のCPUは、ROM又は記憶部122に予め記憶された各種プログラムをRAMに展開して実行することにより、上述した各種ハードウェアの動作を制御し、装置全体を本願の映像配信装置として機能させる。
なお、制御部121は、上記の構成に限定されるものではなく、1又は複数のCPU、マルチコアCPU、マイコン等を含む任意の処理回路であればよい。また、制御部121は、日時情報を出力するクロック、計測開始指示を与えてから計測終了指示を与えるまでの経過時間を計測するタイマ、数をカウントするカウンタ等の機能を備えていてもよい。
記憶部122は、メモリ、ハードディスクなどを用いた記憶装置を備える。記憶部122には、制御部121によって実行される各種コンピュータプログラム、及びコンピュータプログラムの実行に必要なデータ等が記憶される。また、記憶部122には、各種映像の配信先に係る情報が記憶されてもよい。
記憶部122に記憶されるコンピュータプログラムには、配信サーバ12の動作全体を制御するためのプログラムであるオペレーティングシステム、バーチャルアシスタントの映像を管理するための管理プログラム、バーチャルアシスタントの映像を配信する際に用いる配信プログラム等が含まれてもよい。
なお、記憶部122に記憶されるプログラムは、当該プログラムを読み取り可能に記録した非一時的な記録媒体M12により提供されてもよい。記録媒体M12は、例えば、CD−ROM、USBメモリ、SDカード、マイクロSDカード、コンパクトフラッシュ(登録商標)などの可搬型メモリである。この場合、制御部121は、不図示の読取装置を用いて記録媒体M12から各種プログラムを読み取り、読み取った各種プログラムを記憶部122にインストールする。また、記憶部122に記憶されるプログラムは、通信部126を介した通信により提供されてもよい。この場合、制御部121は、通信部126を通じて各種プログラムを取得し、取得した各種プログラムを記憶部122にインストールする。
更に、記憶部122には、ライブ映像に基づく非ライブ映像が記憶されてもよい。例えば、制御部121は、接続部125を通じて入力されるライブ映像を録画映像として記憶部122に記憶させてもよい。また、制御部121は、接続部125を通じて入力されるライブ映像から一部を抽出することによってダイジェスト映像を生成し、生成したダイジェスト映像を記憶部122に記憶させてもよい。ダイジェスト映像は、制御部121によって自動的に生成されるものであってもよく、操作部123にて編集操作を受け付けることにより生成されるものであってもよい。
操作部123は、キーボード、マウスなどの入力インタフェースを備えており、システム管理者等による操作を受付ける。表示部124は、液晶ディスプレイ装置などを備えており、システム管理者等に対して報知すべき情報を表示する。
接続部125は、映像処理装置11を接続する接続インタフェースを備える。接続部125は、映像処理装置11において生成されるライブ映像のデータを取得する。
通信部126は、通信ネットワークNに接続するための通信インタフェースを備える。通信部126は、通信ネットワークNを介して、事業者端末20、表示システム30及びユーザ端末40との間で各種情報を送受信するように構成されている。例えば、本実施の形態において、配信サーバ12から表示システム30,30,…,30へライブ映像を配信する場合、配信サーバ12は、映像処理装置11にて生成されるライブ映像を接続部125より取得し、取得したライブ映像を表示システム30,30,…,30を宛先として通信部126より配信(ストリーミング配信)する。また、配信サーバ12から表示システム30,30,…,30へ録画映像又はダイジェスト映像を配信する場合、配信サーバ12は、配信対象の録画映像又はダイジェスト映像を記憶部122から読み出し、読み出した録画映像又はダイジェスト映像を表示システム30,30,…,30を宛先として通信部126より送信する。配信サーバ12からライブ映像、録画映像、又はダイジェスト映像を個人のユーザ端末40へ送信する場合も同様である。
なお、配信サーバ12による映像配信は、依頼主(例えば、広告主又は施設等)が指定するスケジュールに従って実施される。図3は配信スケジュールテーブルの一例を示す概念図である。このような配信スケジュールテーブルは、配信サーバ12の記憶部122に記憶される。依頼主は、配信スケジュールだけでなく、配信先の施設を指定してもよい。更に、配信者は、ライブ映像、録画映像、及びダイジェスト映像のうち、どのタイプの映像を配信するのかを指定してもよい。更に、依頼者は、演者と、演者の動作が反映されるキャラクタとの組み合わせを指定してもよい。
本実施の形態では、映像処理装置11及び配信サーバ12をそれぞれ独立した個別の装置として記載したが、配信システム10は、映像処理装置11の機能と、配信サーバ12の機能とを有する単一の装置によって構成されてもよい。また、配信サーバ12に複数の映像処理装置11が接続され、同じ時間帯に複数のライブ映像を複数の配信先へ配信してもよい。
図4は事業者端末20の構成を示すブロック図である。事業者端末20は、パーソナルコンピュータ等であり、制御部201、記憶部202、通信部203、操作部204、表示部205等を備える。
制御部201は、CPU、ROM、RAMなどを備える。制御部201が備えるROMには、上記ハードウェア各部の動作を制御するための制御プログラム等が記憶される。制御部201内のCPUは、ROMに記憶された制御プログラムや後述する記憶部202に記憶された各種プログラムを実行し、上記ハードウェア各部の動作を制御する。なお、制御部201が備えるRAMには、各種プログラムの実行中に一時的に利用されるデータが記憶される。
なお、制御部201は、上記の構成に限定されるものではなく、シングルコアCPU、マルチコアCPU、マイコン、揮発性又は不揮発性のメモリ等を含む1又は複数の処理回路であればよい。また、制御部201は、日時情報を出力するクロック、計測開始指示を与えてから計測終了指示を与えるまでの経過時間を計測するタイマ、数をカウントするカウンタ等の機能を備えていてもよい。
記憶部202は、SRAM、フラッシュメモリ、ハードディスクなどを用いた記憶装置を備える。記憶部202には、制御部201によって実行されるオペレーティングシステム、各種アプリケーションプログラム等のコンピュータプログラム、及びコンピュータプログラムで利用される各種データ等が記憶される。
記憶部202に記憶されるコンピュータプログラムは、店舗又は個人ユーザにおける広告到達度を管理する機能を実現する管理プログラム、店舗における人時生産性を検証する機能を実現する検証プログラム等が含まれる。
なお、記憶部202に記憶されるプログラムは、当該プログラムを読み取り可能に記録した記録媒体M20により提供されてもよい。記録媒体M20は、例えば、CD−ROM、USBメモリ、SDカード、マイクロSDカード、コンパクトフラッシュなどの可搬型メモリである。この場合、制御部201は、各種プログラムは、不図示の読取装置を用いて記録媒体M20からプログラムを読み取り、読み取った各種プログラムを記憶部202にインストールする。また、記憶部202に記憶されるプログラムは、通信部203を介した通信により提供されてもよい。この場合、制御部201は、通信部203を通じて各種プログラムを取得し、取得した各種プログラムを記憶部202にインストールする。
通信部203は、通信ネットワークNに接続するための通信インタフェースを備え、外部へ通知すべき各種情報を送信すると共に、外部から送信される各種情報を受信する。
操作部204は、キーボードやマウスなどの入力インタフェースを備えており、各種の操作情報や設定情報を受付ける。制御部201は、操作部204から入力される操作情報に基づき適宜の制御を行い、必要に応じて設定情報を記憶部202に記憶させる。
表示部205は、液晶表示パネル、有機EL表示パネル等の表示デバイスを備えており、制御部201から出力される制御信号に基づいて、管理者に通知すべき情報を表示する。
図5は表示システム30の構成を示すブロック図である。表示システム30は、配信サーバ12から配信される映像(ライブ映像、録画映像、又はダイジェスト映像)を表示する表示装置31と、表示装置31の設置者が利用する設置者端末32とを備える。
表示装置31は、各種の施設に設置される比較的大型のディスプレイであり、制御部311、通信部312、表示部313、音声出力部314、操作部315、センサ部316、接続部317等を備える。各表示装置31には、それぞれを識別する装置IDが割り振られていてもよい。また、各表示装置31は、通信ネットワークN上でそれぞれを識別するIPアドレスが割り振られていてもよい。
制御部311は、表示装置31が備えるハードウェア各部の動作を制御する制御回路、表示部313を駆動する駆動制御回路等を備える。制御部311は、例えば通信部312にて配信映像のデータを受信した場合、表示用の映像信号を生成し、生成した映像信号に従って表示部313を駆動することにより、表示部313に所望の映像を表示させる。
通信部312は、通信ネットワークNに接続するための通信インタフェースを備え、外部から送信される各種データを受信すると共に、外部へ通知すべき各種データを送信する。表示装置31は、配信サーバ12から送信される映像のデータを通信部312にて受信することが可能である。
表示部313は、液晶表示パネル、有機EL表示パネル等により構成される比較的大型の表示画面を有する。表示部313は、制御部311からの制御に基づき、表示画面に映像を表示する。表示部313が表示する映像は、配信サーバ12から配信されるライブ映像、録画映像、及びダイジェスト映像を含む。
音声出力部314は、アンプ、スピーカ等を備えており、映像に付随する音声を出力する。
操作部315は、施設への来訪者(配信映像の視聴者)や表示システム30の設置者等の操作を受付けるために、操作ボタン、スイッチ、タッチパネル等を備える。操作部315にて受付けた操作情報は制御部311に通知される。制御部311は、操作部315から通知される操作情報に基づき、適宜の処理を実行する。
センサ部316は、表示装置31が設置されている施設への来訪者(視聴者)を検知するためのセンサを備える。センサ部316が備えるセンサは、CCD(Charge-Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)などの撮像センサである。センサ部316は、表示装置31の前に一定時間以上(例えば5秒以上)立ち止まった来訪者を検知し、その数を計数する。センサ部316は、画像解析によって表示装置31の前で立ち止まった来訪者を検知することができる。センサ部316は計数結果を制御部311へ出力する。制御部311は、計数結果を接続部317より設置者端末32へ出力してもよく、通信部312より事業者端末20へ送信してもよい。
また、センサ部316は、表示装置31の画面を一定時間以上(例えば1秒以上)見た来訪者を検知し、その数を計数してもよい。センサ部316は、画像解析によって来訪者の視線の向きを特定することにより、表示装置31の画面を見た来訪者を検知することができる。センサ部316は計数結果を制御部311へ出力する。制御部311は、計数結果を接続部317より設置者端末32へ出力してもよく、通信部312より事業者端末20へ送信してもよい。
なお、センサ部316が備えるセンサは、撮像センサに限定されず、赤外線センサなどの公知のセンサであればよい。
なお、センサ部316が備えるセンサは、撮像センサに限定されず、赤外線センサなどの公知のセンサであればよい。
接続部317は、設置者端末32を接続する接続インタフェースを備える。接続部317は、センサ部316から出力される計数結果を設置者端末32へ出力する。
本実施の形態では、表示装置31が通信部312を備え、配信サーバ12から配信される映像を通信部312にて受信する構成としたが、配信サーバ12から配信される映像を、設置者端末32を介して取得する構成であってもよい。この場合、表示装置31は、通信部312を備えていなくてもよい。また、本実施の形態では、表示装置31がセンサ部316を備える構成としたが、センサ部316は必須の構成ではなく、表示装置31が備えていなくてもよい。センサ部316は、表示装置31から独立した個別の装置であってもよい。
設置者端末32は、パーソナルコンピュータ等であり、制御部321、記憶部322、通信部323、操作部324、表示部325、接続部326等を備える。
制御部321は、CPU、ROM、RAMなどを備える。制御部321が備えるROMには、上記ハードウェア各部の動作を制御するための制御プログラム等が記憶される。制御部321内のCPUは、ROMに記憶された制御プログラムや後述する記憶部322に記憶された各種プログラムを実行し、上記ハードウェア各部の動作を制御する。なお、制御部321が備えるRAMには、各種プログラムの実行中に一時的に利用されるデータが記憶される。
なお、制御部321は、上記の構成に限定されるものではなく、シングルコアCPU、マルチコアCPU、マイコン、揮発性又は不揮発性のメモリ等を含む1又は複数の処理回路であればよい。また、制御部321は、日時情報を出力するクロック、計測開始指示を与えてから計測終了指示を与えるまでの経過時間を計測するタイマ、数をカウントするカウンタ等の機能を備えていてもよい。
記憶部322は、ハードディスク、フラッシュメモリなどを用いた記憶装置を備える。記憶部322には、制御部321によって実行されるオペレーティングシステム、各種アプリケーションプログラム等のコンピュータプログラム、及びコンピュータプログラムで利用される各種データ等が記憶される。
なお、記憶部322に記憶されるプログラムは、当該プログラムを読み取り可能に記録した記録媒体M32により提供されてもよい。記録媒体M32は、例えば、CD−ROM、USBメモリ、SDカード、マイクロSDカード、コンパクトフラッシュ(登録商標)などの可搬型メモリである。この場合、制御部321は、各種プログラムは、不図示の読取装置を用いて記録媒体M32からプログラムを読み取り、読み取った各種プログラムを記憶部322にインストールする。また、記憶部322に記憶されるプログラムは、通信部323を介した通信により提供されてもよい。この場合、制御部321は、通信部323を通じて各種プログラムを取得し、取得した各種プログラムを記憶部322にインストールする。
また、記憶部322には、表示装置31が設置されている施設への来訪者に関する情報が記憶されてもよい。ここで、来訪者に関する情報には、表示装置31に表示する映像の来訪者による視聴に関する情報が含まれてもよい。また、表示システム30が設置されている施設が商品又はサービスを販売する店舗である場合、来訪者に関する情報には、来店客数、来店頻度、顧客属性、購入した商品、商品購入数、販売実績等の情報が含まれてもよい。
通信部323は、通信ネットワークNに接続するための通信インタフェースを備え、外部から送信される各種データを受信すると共に、外部へ通知すべき各種データを送信する。例えば、設置者端末32は、配信サーバ12から送信される映像のデータを通信部323にて受信してもよい。また、設置者端末32は、来訪者に関する情報を通信部323より事業者端末20へ送信してもよい。
操作部324は、キーボードやマウスなどの入力インタフェースを備えており、各種の操作情報や設定情報の入力を受付ける。制御部321は、操作部324から入力される操作情報に基づき適宜の制御を行い、必要に応じて設定情報を記憶部322に記憶させる。
表示部325は、液晶表示パネル、有機EL表示パネル等の表示デバイスを備えており、制御部321から出力される制御信号に基づいて、設置者端末32のオペレータに通知すべき情報を表示する。
接続部326は、表示装置31を接続する接続インタフェースを備える。設置者端末32は、配信サーバ12から配信される映像のデータを記憶部322に記憶させておき、必要に応じて記憶部322から映像のデータを読み出し、接続部326を通じて出力することにより、表示装置31に映像を表示させてもよい。また、設置者端末32は、センサ部316によって計測される情報(計数結果)を、接続部326を通じて取得してもよい。
なお、本実施の形態では、表示装置31及び設置者端末32をそれぞれ独立した個別の装置として記載したが、表示システム30は、表示装置31の機能と、設置者端末32の機能とを有する単一の装置によって構成されてもよい。また、本実施の形態では、表示装置31及び設置者端末32を直接的に接続する構成としたが、通信ネットワークNを介して通信可能に接続されてもよい。
図6はユーザ端末40の構成を示すブロック図である。ユーザ端末40は、例えばスマートフォン、パーソナルコンピュータなどの情報処理装置であり、制御部401、記憶部402、通信部403、操作部404、及び表示部405等を備える。
制御部401は、CPU、ROM、RAMなどを備える。制御部401が備えるROMには、上記ハードウェア各部の動作を制御するための制御プログラム等が記憶される。制御部401内のCPUは、ROMに記憶された制御プログラムや後述する記憶部402に記憶された各種プログラムを実行し、上記ハードウェア各部の動作を制御する。なお、制御部401が備えるRAMには、各種プログラムの実行中に一時的に利用されるデータが記憶される。
なお、制御部401は、上記の構成に限定されるものではなく、シングルコアCPU、マルチコアCPU、マイコン、揮発性又は不揮発性のメモリ等を含む1又は複数の処理回路であればよい。また、制御部401は、日時情報を出力するクロック、計測開始指示を与えてから計測終了指示を与えるまでの経過時間を計測するタイマ、数をカウントするカウンタ等の機能を備えていてもよい。
記憶部402は、フラッシュメモリ、ハードディスクなどを用いた記憶装置を備える。記憶部402には、制御部401によって実行されるオペレーティングシステム、各種アプリケーションプログラム等のコンピュータプログラム、及びコンピュータプログラムで利用される各種データ等が記憶される。
なお、記憶部402に記憶されるプログラムは、当該プログラムを読み取り可能に記録した記録媒体M40により提供されてもよい。記録媒体M40は、例えば、CD−ROM、USBメモリ、SDカード、マイクロSDカード、コンパクトフラッシュ(登録商標)などの可搬型メモリである。この場合、制御部401は、不図示の読取装置を用いて記録媒体M40から各種プログラムを読み取り、読み取った各種プログラムを記憶部402にインストールする。また、記憶部402に記憶されるプログラムは、通信部403を介した通信により提供されてもよい。この場合、制御部401は、通信部403を通じて各種プログラムを取得し、取得した各種プログラムを記憶部402にインストールする。
通信部403は、通信ネットワークNに接続するための通信インタフェースを備え、外部から送信される各種データを受信すると共に、外部へ通知すべき各種データを送信する。通信部403にて受信するデータの一例は、配信サーバ12から送信されるバーチャルアシスタントの映像データである。通信部403から送信するデータの一例は、ユーザ自身が配信するコンテンツのデータである。
操作部404は、タッチパネルや操作ボタンなどの入力インタフェースを備えており、各種の操作情報や設定情報を受付ける。制御部401は、操作部404から入力される操作情報に基づき適宜の制御を行い、必要に応じて設定情報を記憶部402に記憶させる。
表示部405は、液晶表示パネル、有機EL表示パネル等の表示デバイスを備えており、制御部401から出力される制御信号に基づいて、ユーザに通知すべき情報を表示する。
以下、ユーザ端末40の表示部405、及び表示装置31の表示部313に表示される表示画面を参照しながら、本実施の形態に係るプロモーションシステムの動作について説明する。
図7はユーザ端末40の表示部405に表示されるトップページ画面500の一例を示す模式図である。図7に示すトップページ画面500は、ユーザ端末40を用いて配信サーバ12にアクセスした際に表示部405に表示される画面の一例を示している。トップページ画面500の表示データは配信サーバ12によって用意される。
トップページ画面500は、例えば、配信映像に関するカテゴリの選択を受付けるカテゴリ選択欄501、配信映像についての検索を受付ける検索欄502、注目の配信映像に関する情報を提供する情報提供欄503、キャンペーン中の配信映像に関する情報を提供する情報提供欄504、ライブ映像の配信スケジュールを告知するスケジュール告知欄505、及びユーザ専用のマイページ画面に遷移させるマイページボタン506を備える。
カテゴリ選択欄501は、プルダウン式のメニューを有する。ユーザは、操作部404を用いてカテゴリ選択欄501のプルダウン式のメニューを開くことによって、予め用意されている複数のカテゴリの中から一のカテゴリを選択することが可能である。選択可能なカテゴリは、例えば、「小売り」、「メーカー」、「外食」、「アミューズメント」、「イベント」、「講習」等のカテゴリである。また、各カテゴリに対してサブカテゴリを用意してもよい。例えば、「小売り」のサブカテゴリとして、「書店」、「生鮮スーパー」、「ドラッグストア」、「コンビニエンスストア」等のサブカテゴリを用意してもよい。
検索欄502は、文字入力欄を有する。ユーザは、操作部404を用いて検索欄に検索キーワードを入力することにより、所望の配信映像を検索することが可能である。検索欄502に入力された検索キーワードは、配信サーバ12へ送信される。配信サーバ12は、ユーザ端末40から受信した検索キーワードに基づき、該当する映像を検索し、検索結果をユーザ端末40へ返信する。ユーザは、配信サーバ12から通知される検索結果から所望の映像を選択し、選択した映像をユーザ端末40の表示部405に表示させることが可能である。
情報提供欄503,504は、それぞれ注目の配信映像、キャンペーン中の配信映像に関する情報を表示する。情報提供欄503,504において提供される情報は、例えば、店舗等の施設又は広告主からの依頼に応じて作成され、配信サーバ12から配信される情報である。
スケジュール告知欄505は、配信サーバ12から配信されるライブ映像の配信スケジュールに関する情報を表示する。図7の例では、「○○太郎」というバーチャルアシスタントを用いたライブ映像を11時から配信すること、「□□花子」というバーチャルアシスタントを用いたライブ映像を14時から特定の店舗(□□堂○○店)にて配信することをスケジュールとして告知している。
マイページボタン506は、ユーザ専用のマイページ画面に遷移させるためのボタンである。ユーザ端末40の操作部404を用いてマイページボタン506が選択された場合、ログインID及びパスワードを受付けるためのログイン画面が表示され、ログインID及びパスワードによりユーザが認証された場合、ユーザ専用のマイページ画面が表示される。マイページ画面では、ユーザの氏名、年齢、性別、居住地、よく訪れる施設、お気に入りのバーチャルアシスタント等のユーザに関する属性の登録を受け付けてもよい。また、マイページ画面では、ユーザの属性に応じてお勧めの配信映像を通知してもよく、過去の視聴履歴に関する情報を通知してもよい。
なお、マイページ画面は、個人ユーザ専用の画面である必要はなく、広告主専用のマイページ画面を用意してもよく、演者専用のマイページ画面を用意してもよい。
なお、マイページ画面は、個人ユーザ専用の画面である必要はなく、広告主専用のマイページ画面を用意してもよく、演者専用のマイページ画面を用意してもよい。
図7のトップページ画面500は一例に過ぎず、配信映像に対するアクセスランキング、カテゴリ別のお勧め配信映像、バーチャルアシスタントの人気ランキング、演者の人気ランキング等を表示してもよい。
また、図7では、ユーザ端末40から配信サーバ12にアクセスした際に表示されるトップページ画面500の一例を示したが、事業者端末20又は設置者端末32から配信サーバ12にアクセスした場合、同様のトップページ画面をそれぞれに表示してもよい。
図8はコンテンツ選択画面510の一例を示す模式図である。コンテンツ選択画面510は、視聴可能な映像(コンテンツ)をユーザに提示するための画面である。コンテンツ選択画面510は、前述のトップページ画面500において、カテゴリ選択欄501からカテゴリが選択された場合、または、検索欄502に検索キーワードが入力され、配信サーバ12から検索結果が得られた場合、ユーザ端末40の表示部405に表示される画面である。図8は、検索欄502に「書店」という検索キーワードが入力され、配信サーバ12から検索結果が得られた場合の画面例を示している。
コンテンツ選択画面510は、タブ511,512により、ライブ映像に関して視聴可能なコンテンツ(ライブ配信コンテンツ)と、非ライブ映像に関して視聴可能なコンテンツ(録画コンテンツ)とを切り替えることができるように構成されている。図8の例では、タブ511が選択された状態であり、ライブ映像に関して視聴可能なコンテンツをユーザに提示している状態を示している。
コンテンツ選択画面510は、視聴可能なコンテンツのうち、注目コンテンツに関する情報を表示する情報表示欄513を有する。情報表示欄513に表示される注目コンテンツの情報は、例えば、店舗等の施設又は広告主からの依頼に応じて作成され、配信サーバ12から配信されるコンテンツの情報である。
コンテンツ選択画面510は、ユーザが視聴可能なコンテンツを一覧形式にて表示するコンテンツ選択欄514を有する。コンテンツ選択欄514には、ユーザが視聴可能なコンテンツが一覧形式で表示される。図8の例は、タブ511により、ライブ映像が選択されているので、ライブ映像に関して視聴可能なコンテンツが一覧形式で表示されている状態を示している。すなわち、コンテンツ選択欄514には、現在時刻において配信中若しくはこれから配信されるコンテンツ(ライブ映像)が一覧形式で表示される。ユーザは、視聴を希望するコンテンツをユーザ端末40の操作部404を用いて選択することが可能である。なお、ライブ映像については配信時刻が定められているため、視聴が可能となるのは配信時刻以降となる。
タブ512が選択された場合も同様である。すなわち、タブ512が選択された場合、コンテンツ選択欄514には、録画映像及びダイジェスト映像を含む非ライブ映像に関して視聴可能なコンテンツが一覧形式で表示される。ユーザは、視聴を希望するコンテンツをユーザ端末40の操作部404を用いて選択することが可能である。
図9はコンテンツ再生画面520の一例を示す模式図である。図9は前述したコンテンツ選択画面510において視聴を希望するコンテンツが選択された場合に、ユーザ端末40の表示部405に表示される画面の一例を示している。コンテンツ再生画面520は、ユーザによって選択されたコンテンツ(ライブ映像、録画映像、又はダイジェスト映像)が表示される表示欄521を有する。例えば、表示すべきコンテンツとしてライブ映像が選択された場合、演者の動作を仮想空間上のキャラクタにリアルタイムに反映させて生成されるバーチャルアシスタントのライブ映像が表示欄521に表示される。すなわち、表示欄521には演者自身の映像が表示されるのではなく、演者の動作が反映される仮想空間上のキャラクタの映像が表示される。表示すべきコンテンツとして録画映像又はダイジェスト映像が選択された場合も同様であり、表示欄521には演者自身の映像が表示されるのではなく、演者自身の動作が反映されるキャラクタの映像が表示される。
コンテンツ再生画面520の下部には、アイコン522〜525が並ぶ。アイコン522は、再生中のコンテンツがライブ映像であるか否かを示すマーカである。再生中のコンテンツがライブ映像である場合、アイコン522が表示され、再生中のコンテンツが非ライブ映像である場合、アイコン522が非表示となる。
アイコン523は、販促用の商品又はサービスを表示させるためのアイコンである。アイコン523が選択された場合、配信サーバ12は、販促用の商品又はサービスの購入を受付けるための購入画面をユーザ端末40の表示部405に表示させ、商品又はサービスの購入を受付ける。
アイコン524は、表示中のコンテンツを含むランキングを表示させるためのアイコンである。アイコン524が選択された場合、配信サーバ12は、表示中のコンテンツを含むコンテンツの人気ランキングをユーザ端末40の表示部405に表示させる。また、人気ランキングからコンテンツの選択を受付け、表示中のコンテンツに代えて、選択されたコンテンツを表示する構成としてもよい。
アイコン525は、バーチャルアシスタント(又は演者)に対して報酬を付与するためのアイコンである。報酬の一例は、視聴者が保有する何らかの有価ポイントである。有価ポイントに代えて、電子マネー、仮想通貨等を含むデジタル通貨であってもよい。アイコン525が操作された場合、決まった量の報酬を付与する構成としてもよく、付与する報酬の量を視聴者に決定させる構成としてもよい。ユーザ端末40は、公知の決済方法により、バーチャルアシスタント(又は演者)に対して報酬を付与することが可能である。なお、報酬は、経済的価値を持たないポイント(応援ポイント)であってもよい。
配信システム10から配信されるライブ映像は、ユーザ端末40だけでなく、店舗などの施設に設置される表示システム30に配信されてもよい。配信先の表示システム30は予め設定されていればよい。ある特定の施設に設置される1つの表示システム30を配信先としてもよく、複数の施設に設置される複数の表示システム30,30,…,30を配信先としてもよい。
図10は表示システム30における表示例を示す模式図である。配信サーバ12は、ライブ映像の配信時刻となった場合、配信先として設定されている表示システム30を宛先として、ライブ映像を配信する。表示システム30における表示装置31は、配信サーバ12から配信されるライブ映像を通信部312にて受信し、受信したライブ映像を表示部313に表示させる。表示部313には、コンテンツ再生画面530が設けられ、このコンテンツ再生画面530内の表示欄531にライブ映像が表示される。このとき、演者の動作を仮想空間上のキャラクタにリアルタイムに反映させて生成されるバーチャルアシスタントのライブ映像が表示欄531に表示される。すなわち、ライブ映像の表示では、演者自身の映像が表示されるのではなく、演者の動作がリアルタイムに反映された仮想空間上のキャラクタの映像が表示される。
表示装置31は、ライブ映像の表示中に、バーチャルアシスタントに対する評価を受け付けてもよい。例えば、図10に示すように、バーチャルアシスタントに対する評価を受付けるためのソフトウェアボタン532〜534をコンテンツ再生画面530内に設けてもよい。図10の例では、ソフトウェアボタン532は「もっと見たい」との評価、ソフトウェアボタン533は「ナットク」との評価、ソフトウェアボタン534は「ガンバレ」との評価を受付けるボタンとして配置されている。ソフトウェアボタン532〜534の何れかが操作された場合、操作情報は操作部315を通じて制御部311に通知される。制御部311は、各ソフトウェアボタン532〜534が操作された回数を計数し、計数結果を各ソフトウェアボタン532〜534の近傍に配置してもよい。また、制御部311は、計数結果を配信サーバ12若しくは事業者端末20へ送信してもよい。
なお、図10の例では、表示システム30の表示装置31においてライブ映像を表示する構成について説明したが、非ライブ映像である録画映像及びダイジェスト映像を表示してもよい。この場合、表示装置31又は設置者端末32から配信サーバ12にアクセスし、所望の録画コンテンツを選択することよって、録画映像又はダイジェスト映像を表示装置31の表示部313に表示すればよい。
以下、プロモーションシステムを構成する配信システム10、事業者端末20、表示システム30、及びユーザ端末40において実行される処理の手順について説明する。
図11は実施の形態1に係るプロモーションシステムが実行する処理の手順を説明するフローチャートである。事業者端末20は、操作部204を通じてライブ映像の配信依頼を受付け、通信部203よりライブ映像の配信依頼を配信サーバ12へ送信する(ステップS101)。このとき、事業者(広告主)は、配信日時を指定してもよい。また、事業者(広告主)は、配信先の表示装置31を指定するために、表示装置31の装置ID又はIPアドレスを指定してもよい。なお、配信先の表示装置31は1つである必要はなく、複数の表示装置31,31,…,31を配信先としてもよい。また、事業者(広告主)は、専門分野が異なる複数の演者と、演者の動作が反映される複数のキャラクタとの組み合わせから、一の演者と一のキャラクタとの組み合わせを指定してもよい。ここで、専門分野とは、演者の知識が豊富な分野を表し、例えば、書籍、家電製品、生鮮食品、ワインなどの販売種別に応じて区分される。更に、事業者(広告主)は、キャラクタの外観を指定してもよい。ここで、キャラクタの外観とは髪型、服装、装飾品等である。事業者(広告主)は、嗜好に応じて、キャラクタの外観を任意にカスタマイズしてもよい。ステップS101において、事業者端末20は、配信日時、配信先の表示装置31、演者及びキャラクタ、キャラクタの外観等が指定されたライブ映像の配信依頼を配信サーバ12へ送信する。
なお、本実施の形態では、事業者端末20からライブ映像の配信依頼を行う構成について説明したが、各施設からライブ映像の配信依頼を行う構成としてもよい。この場合、各施設の担当者は、設置者端末32を用いて、配信日時、配信先の表示装置31、演者及びキャラクタ、キャラクタの外観等の情報と共に、配信依頼を配信サーバ12へ送信すればよい。
配信サーバ12は、通信部126にてライブ映像の配信依頼を受信する(ステップS102)。配信者は、受信した配信依頼に応じて、演者を手配し、ライブ配信の準備を進める。また、配信サーバ12は、通信部126を通じて、ライブ配信の告知を表示装置31(若しくは表示装置31に接続されている設置者端末32)及びユーザ端末40へ送信してもよい(ステップS103)。ライブ配信の告知には、配信日時の情報や配信先の施設の情報が含まれていればよい。ライブ配信の告知を表示装置31又は設置者端末32において受信した場合、施設の担当者は、配信開始前に表示装置31の電源を入れ、ライブ映像を表示するための専用又は汎用のビューワ(アプリケーション)を表示装置31において起動する等の準備を行えばよい。また、ユーザ端末40へライブ配信の告知を送信する際、配信先の施設にて利用可能なクーポンを送信してもよい。
ユーザ端末40は、図8に示すようなコンテンツ選択画面510を表示部405に表示し、ライブ映像に関して視聴可能なコンテンツから、一のコンテンツの選択を受付けることにより、ライブ映像の配信リクエストを受付ける(ステップS104)。ユーザ端末40は、受付けた配信リクエストを通信部403を通じて配信サーバ12へ送信する(ステップS105)。
配信サーバ12は、ユーザ端末40から送信される配信リクエストを通信部126にて受信する(ステップS106)。本実施の形態では、ライブ映像の配信開始前に、ユーザ端末40から配信リクエストを受付ける手順について説明したが、ライブ映像の配信中に配信リクエストを受け付けてもよい。
配信時刻になると、配信サーバ12は、ライブ映像の配信を開始する(ステップS107)。すなわち、映像処理装置11の映像処理部114において、演者の動作をリアルタイムに反映させたキャラクタによるライブ映像を生成しつつ、配信サーバ12の通信部126より、ライブ映像のデータを所定の配信先へ送信する。ここで、所定の配信先とは、事業者等からの配信依頼において指定された装置ID又はIPアドレスを有する表示装置31、及び配信リクエストを行ったユーザ端末40である。配信先の施設は複数であってもよい。また、配信サーバ12は、配信中のライブ映像を記憶部122に記憶させる。
配信先として指定されている施設の表示装置31は、配信サーバ12から送信されるライブ映像のデータを通信部312にて受信し、ライブ映像を表示部313に表示する(ステップS108)。表示装置31は、図10に示すようなコンテンツ再生画面530内の表示欄531にライブ映像を表示することができる。また、表示装置31は、コンテンツ再生画面530に配置されるソフトウェアボタン532〜534を通じてライブ映像に対する評価を受付けることができる。ライブ映像に対する評価を受付ける構成に代えて、演者の実演に対する評価と、演者の動作が反映されたキャラクタ(バーチャルアシスタント)に対する評価とを個別に受け付けてもよい。表示装置31は、評価を受付けた場合(ステップS109)、受付けた評価の情報(評価情報)を通信部312より配信サーバ12へ送信する(ステップS110)。なお、評価情報の送信はライブ映像の配信終了後であってもよい。
なお、ステップS109では、コンテンツ再生画面530に配置されるソフトウェアボタン532〜534の操作により、バーチャルアシスタントの評価を受付ける構成としたが、表示装置31の画面を閲覧しているユーザ(すなわち、施設に来訪しているユーザ)が所持するユーザ端末40を用いて、バーチャルアシスタントの評価を受け付けてもよい。このとき、表示装置31は、ユーザ端末40に同じ画面を表示させるためのコード(例えばQRコード(登録商標))を表示すればよい。ユーザは、ユーザ端末40を用いてコードを読み取ることにより、表示装置31に表示される画面と同一の画面をユーザ端末40の表示部405に表示させることが可能である。また、ユーザは、表示部405に表示させた画面に配置されるソフトウェアボタン(不図示)を用いて、バーチャルアシスタントの評価を受付けることが可能である。更に、表示部405に表示させた画面にバーチャルアシスタント(演者)に対する報酬を受付けるためのソフトウェアボタンを配置し、当該ソフトウェアボタンを通じて報酬を受け付けてもよい。ユーザ端末40にて受付けた評価及び報酬情報は、通信部403を通じて配信サーバ12へ送信される。
配信サーバ12は、表示装置31から送信される評価情報を通信部126にて受信する(ステップS111)。受信した評価情報は記憶部122に記憶されてもよい。また、受信した評価情報は事業者端末20へ送信されてもよい。
ステップS104で配信リクエストを行ったユーザ端末40は、配信サーバ12から送信されるライブ映像のデータを通信部403にて受信し、ライブ映像を表示部205に表示する(ステップS112)。ユーザ端末40は、図9に示すようなコンテンツ再生画面520の表示欄521にライブ映像を表示することができる。また、ユーザ端末40は、コンテンツ再生画面520に配置されるアイコン525を通じてバーチャルアシスタント(又は演者)に対する報酬を受付けることができる。ユーザ端末40は、バーチャルアシスタント(又は演者)に対する報酬を受付けた場合(ステップS113)、受付けた報酬の情報(報酬情報)を通信部403より配信サーバ12へ送信する(ステップS114)。なお、報酬情報の送信はライブ映像の配信終了後であってもよい。
配信サーバ12は、ユーザ端末40から送信される報酬情報を通信部126にて受信する(ステップS115)。受信した報酬情報は記憶部122に記憶されてもよい。また、受信した報酬情報は演者の端末へ送信されてもよい。
配信サーバ12は、配信時間の終了と共にライブ映像の配信を終了する(ステップS116)。ライブ映像の配信終了後、配信サーバ12は、非ライブ映像を生成する(ステップS117)。配信サーバ12は、ライブ映像の記憶部122への記憶を停止させることにより、録画映像を生成することができる。また、配信サーバ12は、録画映像の一部を抽出することによってダイジェスト映像を生成することができる。配信サーバ12は、公知のアルゴリズムに従って自動的にダイジェスト映像を生成してもよく、配信者の編集作業を受け付けてダイジェスト映像を生成してもよい。
また、配信サーバ12は、配信中に受信したライブ映像に対する評価情報を通信部126より事業者端末20へ送信してもよい(ステップS118)。事業者端末20は、配信サーバ12から送信される評価情報を通信部203にて受信する(ステップS119)。事業者端末20は、受信した評価情報を記憶部202に記憶させる。
また、ユーザ端末40は、図8に示すようなコンテンツ選択画面510を表示部405に表示し、タブ512を選択することによって表示される録画コンテンツ(非ライブ映像)の一覧から、一のコンテンツの選択を受付けることにより、非ライブ映像の配信リクエストを受付けることが可能である。ユーザ端末40は、非ライブ映像の配信リクエストを受付けた場合(ステップS120)、受付けた配信リクエストを通信部403より配信サーバ12へ送信する(ステップS121)。
配信サーバ12は、ユーザ端末40から送信される配信リクエストを通信部126にて受信する(ステップS122)。配信サーバ12は、非ライブ映像に対する配信リクエストを受信した場合、対象の非ライブ映像(録画映像又はダイジェスト映像)を記憶部122から読み出し、読み出した非ライブ映像のデータを通信部126よりユーザ端末40へ配信する(ステップS123)。
ユーザ端末40は、配信サーバ12から送信される非ライブ映像のデータを通信部403にて受信し、非ライブ映像を表示部205に表示する(ステップS124)。ユーザ端末40は、図9に示すようなコンテンツ再生画面520の表示欄521に非ライブ映像を表示することができる。また、ユーザ端末40は、コンテンツ再生画面520に配置されるアイコン525を通じてバーチャルアシスタント(又は演者)に対する報酬を受付けることができる。ユーザ端末40は、バーチャルアシスタント(又は演算)に対する報酬を受付けた場合、受付けた報酬の情報(報酬情報)を通信部403より配信サーバ12へ送信してもよい。また、報酬情報の送信はライブ映像の配信終了後であってもよい。
以上のように、実施の形態1では、演者の動作を仮想空間上のキャラクタに反映させることにより生成されるライブ映像と、ライブ映像に基づく非ライブ映像とを複数の施設に分散配置される表示装置31,31,…,31へ配信するので、各施設での活動形態に応じて、さまざまなプロモーションを実施することができ、不特定多数のユーザの関心を引くことができる。なお、表示装置31の設置場所は屋内に限らず、屋外であってもよい。
なお、図11に示すフローチャートでは、事業者端末20から配信サーバ12に対してライブ映像の配信依頼を行う構成としたが、配信する映像のタイプを事業者(広告主)にて選択する構成としてもよい。すなわち、事業者端末20は、ライブ映像、録画映像、及びダイジェスト映像の中から、配信する映像のタイプの選択を受け付けてもよい。配信する映像のタイプとして録画映像が選択された場合、配信サーバ12は、ライブ映像の配信を行わずに、録画映像の配信を行えばよい。広告主は、録画映像を選択することによって、複数の施設に分散配置される表示装置31,31,…,31に、所望する時間帯に、必要な回数だけ録画映像を配信することができる。ダイジェスト映像が選択された場合も同様である。
(実施の形態2)
実施の形態2では、ライブ映像の配信効果を検証する構成について説明する。
なお、プロモーションシステムの全体構成、及び各装置の内部構成は実施の形態1と同様であるため、その説明を省略する。
実施の形態2では、ライブ映像の配信効果を検証する構成について説明する。
なお、プロモーションシステムの全体構成、及び各装置の内部構成は実施の形態1と同様であるため、その説明を省略する。
図12は実施の形態2に係るプロモーションシステムが実行する処理の手順を説明するフローチャートである。図12では、簡略化のために、事業者端末20及び表示装置31が実行する処理についてのみ記載している。また、実施の形態2では、ライブ映像の配信先を、商品又はサービスを販売する店舗に設置されている表示装置31として説明を行う。
表示装置31は、配信サーバ12から配信されるライブ映像を通信部312にて受信し、受信したライブ映像を表示部313に表示する(ステップS201)。なお、ライブ映像の表示に至る手順は、実施の形態1と同様である。
表示装置31のセンサ部316は、ライブ映像の表示中に、表示装置31の前に一定時間以上(例えば5秒以上)立ち止まった来訪者を検知し、その数をリーチ数として計数する(ステップS202)。センサ部316は、画像解析によって表示装置31の前で立ち止まった来訪者を検知することができる。センサ部316は、計数したリーチ数を制御部311へ出力する。
表示装置31のセンサ部316は、ライブ映像の表示中に、表示装置31の画面を一定時間以上(例えば1秒以上)見た来訪者を検知し、その数をストップ数として計数する(ステップS203)。センサ部316は、画像解析によって来訪者の視線の向きを特定することにより、表示装置31の画面を見た来訪者を検知することができる。センサ部316は、計数したストップ数を制御部311へ出力する。
表示装置31は、ライブ映像の配信終了後に、リーチ数及びストップ数の情報を通信部312より事業者端末20へ送信する(ステップS204)。
なお、本実施の形態では、センサ部316を用いてリーチ数及びストップ数を計測する構成としたが、センサ部316を用いて来訪者の表情を読み取り、読み取った表情の情報を事業者端末20へ送信してもよい。なお、来訪者の表情の読み取りは、人工知能を用いた公知の手法を用いて実現することが可能である。
事業者端末20は、表示装置31より送信されるリーチ数及びストップ数の情報を通信部203にて受信し(ステップS205)、受信したリーチ数及びストップ数の情報を記憶部202に記憶させる(ステップS206)。
事業者端末20の制御部201は、ライブ映像の配信先の店舗から来店者数の情報を取得し、来店者のライブ映像に対する関心度を算出する(ステップS207)。例えば、制御部201は、リーチ数を来店者数で除算した値(リーチ率)を関心度として算出してもよい。また、制御部201は、ストップ数を来店者数で除算した値(ストップ率)を関心度として算出してもよい。ライブ映像の配信先が複数の店舗である場合、各店舗における関心度を算出してもよく、複数の店舗における関心度の平均値を算出してもよい。制御部201は、算出した関心度を記憶部202に記憶させる(ステップS208)。このとき、制御部201は、来店者数の情報に関連付けて、関心度を記憶させてもよい。また、制御部201は、店舗の表示装置31に配信されたライブ映像に関する情報に関連付けて、関心度を記憶させてもよい。ここで、ライブ映像に関する情報とは、演者の情報、キャラクタの情報、演者による実演内容等の情報を含んでもよい。図13は関心度を記憶したテーブルの一例を示す概念図である。図13に示すテーブルでは、ライブ映像の配信日時、配信先、配信内容、来店客数、リーチ数、ストップ数、リーチ率、及びストップ率を関連付けて記憶している。
事業者端末20の制御部201は、ライブ映像が配信された店舗から商品又はサービスの販売点数等の情報を取得し、ライブ映像の配信効果を検証してもよい(ステップS209)。例えば、制御部201は、所定期間毎(例えば、1日毎)に、ライブ映像の配信の有無、販売点数、売上高、来店客数、リーチ数、ストップ数、リーチ率、ストップ率等を集計する。制御部201は、集計結果に基づき、ライブ映像を配信した場合と、ライブ映像を配信しなかった場合とで、販売点数、売上高、及び来店客数とを比較することにより、ライブ映像の配信効果を検証することができる。また、制御部201は、リーチ率及びストップ数に応じて、販売点数、売上高、及び来店客数がどのように変化したのかを算出することにより、ライブ映像の配信効果を検証することができる。また、制御部201は、バーチャルアシスタント毎(又は演者毎)の売上高を算出し、人時生産性を検証してもよい。
なお、実施の形態2では、ライブ映像の配信効果を検証する構成としたが、録画映像及びダイジェスト映像についても同様の手法にて配信効果を検証することが可能である。
また、事業者端末20は、ユーザ端末40に配信したライブ映像、録画映像、及びダイジェスト映像に関して、関心度を算出してもよい。例えば、事業者端末20の制御部201は、特定のコンテンツを視聴したユーザの数(視聴者数)を計数し、全コンテンツの視聴者数で除算することによって、前記特定のコンテンツに対する関心度を算出してもよい。
更に、事業者端末20は、ユーザ端末40に配信したライブ映像、録画映像、及びダイジェスト映像に関して、配信効果を検証してもよい。例えば、事業者端末20の制御部201は、ライブ配信の告知の際に配布したクーポンの数のうち、実際に店舗で使用されたクーポンの割合を算出することにより、配信効果を検証してもよい。
以上のように、実施の形態2では、ライブ映像、録画映像、及びダイジェスト映像の配信に関して、来店者や視聴者の関心度を算出したり、配信効果を検証したりすることができるので、より効果的なプロモーション活動を推進できる。
なお、本実施の形態では、事業者端末20において、関心度を算出し、配信効果を検証する構成としたが、配信サーバ12又は設置者端末32において、関心度を算出し、配信効果を検証する構成としてもよい。
(実施の形態3)
実施の形態3では、バーチャルアシスタントの外観を変更する構成について説明する。
なお、プロモーションシステムの全体構成、及び各装置の内部構成は実施の形態1と同様であるため、その説明を省略する。
実施の形態3では、バーチャルアシスタントの外観を変更する構成について説明する。
なお、プロモーションシステムの全体構成、及び各装置の内部構成は実施の形態1と同様であるため、その説明を省略する。
図14はバーチャルアシスタントの外観変更処理に係る処理手順を説明するフローチャートである。バーチャルアシスタントの概観変更処理は、配信サーバ12において実行される。配信サーバ12の制御部121は、適宜のタイミング(例えば定期的なタイミング)にてバーチャルアシスタントに対する評価を算出する(ステップS301)。ここで、制御部121は、表示装置31においてバーチャルアシスタントの映像を表示した際、図10に示すソフトウェアボタン532〜534が操作された回数の情報を取得し、取得した回数の情報に基づき、評価を行うことができる。評価の算出手法は任意に設定することが可能である。
制御部121は、バーチャルアシスタントの評価に応じて外観を決定する(ステップS302)。例えば、制御部121は、バーチャルアシスタントを3段階に評価し、それぞれにおいて異なる外観を割り当ててもよい。図15はバーチャルアシスタントの外観の変更例を説明する説明図である。図15の例では、評価ランクC(最も低い評価)では左端の外観、評価ランクB(中程度の評価)では中央の外観、評価ランクA(最も高い評価)では右端の外観を割り当てることを示している。外観は、キャラクタの髪型、服装、装飾品などにより変更可能である。
制御部121は、配信時刻となった場合、ステップS302で決定した外観にて、バーチャルアシスタントの映像を配信する(ステップS303)。
以上のように、実施の形態3では、視聴者の評価に応じてバーチャルアシスタントの外観が変わるので、演者に対してインセンティブを付与することができる。
(実施の形態4)
実施の形態4では、WebRTC(Web Real Time Communication)のフレームワークを利用して映像を配信する構成について説明する。
実施の形態4では、WebRTC(Web Real Time Communication)のフレームワークを利用して映像を配信する構成について説明する。
図16は実施の形態4に係るプロモーションシステムの全体構成を説明する模式図である。本実施の形態に係るプロモーションシステムは、例えば、バーチャルアシスタントを用いた映像を配信する配信端末60、配信端末60から配信される映像を受信するセットトップボックス71(以下、STB71と記載)とSTB71にて受信した映像表示する表示装置72とを備える受信システム70、及び配信スケジュールなどを管理する管理サーバ80を含む。配信端末60、受信システム70、及び管理サーバ80は通信ネットワークNを介して互いに通信可能に接続される。
本実施の形態に係るプロモーションシステムは、配信端末60から受信システム70に対し、バーチャルアシスタントの映像を配信することによって、商品又はサービスを販売する店舗等における広告活動や販促活動などのプロモーションを実施する。ここで、配信端末60は、実施の形態1の配信システム10と同等の機能を有し、演者の動作を仮想空間上のキャラクタに反映させたライブ映像の生成、ライブ映像に基づく非ライブ映像の生成、生成したライブ映像及び非ライブ映像の配信等を行う。受信システム70は、店舗などの施設に設置され、STB71と表示装置72とを備える。受信システム70は、実施の形態1の表示システム30と同等の機能を有し、配信端末60から配信されるライブ映像及び非ライブ映像を表示する。
なお、図16の例では、簡略化のために、配信端末60及び受信システム70をそれぞれ1台ずつ通信ネットワークNに接続した構成を示したが、複数の配信端末60が通信ネットワークNに接続されてもよく、複数の受信システム70が通信ネットワークNに接続されてもよい。また、通信ネットワークNには、実施の形態1において説明した事業者端末20やユーザ端末40などが接続されてもよい。
以下、実施の形態4のプロモーションシステムを構成する配信端末60、受信システム70、及び管理サーバ80の構成について個々に説明する。
図17は配信端末60の構成を示すブロック図である。配信端末60は、例えばパーソナルコンピュータであり、制御部601、記憶部602、映像入力部603、音声入力部604、通信部605、操作部606、及び表示部607を備える。
制御部601は、CPU、ROM、RAM等を備える。制御部601のCPUは、ROM又は記憶部602に予め記憶された各種プログラムをRAMに展開して実行することにより、上述した各種ハードウェアの動作を制御し、装置全体を本願の映像配信装置として機能させる。
なお、制御部601は、上記の構成に限定されるものではなく、1又は複数のCPU、マルチコアCPU、マイコン等を含む任意の処理回路であればよい。また、制御部601は、日時情報を出力するクロック、計測開始指示を与えてから計測終了指示を与えるまでの経過時間を計測するタイマ、数をカウントするカウンタ等の機能を備えていてもよい。
記憶部602は、メモリ、ハードディスクなどを用いた記憶装置を備える。記憶部602には、制御部601によって実行される各種コンピュータプログラム、及びコンピュータプログラムの実行に必要なデータ等が記憶される。
記憶部602に記憶されるコンピュータプログラムには、配信端末60の動作全体を制御するためのプログラムであるオペレーティングシステム、バーチャルアシスタントの映像を生成するためのコンピュータプログラム、WebRTCにより各種デジタルデータを送受信するためのコンピュータプログラム(以下、WebRTCプログラムという)等が含まれてもよい。なお、WebRTCプログラムは、単独で起動されるアプリケーションプログラムである必要はなく、ウェブブラウザなどの他のアプリケーションプログラムの機能を利用するためのプラグインやアプレットなどであってもよい。
映像入力部603は、デジタルビデオカメラなどの撮像装置61が接続され、映像データが入力される入力インタフェースを備える。本実施の形態では、撮像装置61を用いて、バーチャルアシスタントを演じる演者の動作を撮像する。映像入力部603は、撮像装置61によって撮像された映像データを取得する。
音声入力部604には、マイクなどの音声入力装置62が接続され、音声データが入力される入力インタフェースを備える。本実施の形態では、音声入力装置62を用いて、バーチャルアシスタントを演じる演者の声を録音する。音声入力部604は、音声入力装置62から音声データを取得する。
制御部601は、映像入力部603を通じて入力される映像データと、音声入力部604を通じて入力される音声データとを用いて、バーチャルアシスタントのライブ映像を生成する。
なお、配信端末60は、映像データ及び音声データをそれぞれ映像入力部603及び音声入力部604から取得する構成としたが、映像データ及び音声データを含むマルチメディアデータを1つの入力インタフェースから取得する構成であっもよい。また、本実施の形態では、配信端末60の外部に撮像装置61及び音声入力装置62が接続される構成としたが、撮像装置61及び音声入力装置62を内蔵する構成であってもよい。
通信部605は、通信ネットワークNに接続するための通信インタフェースを備える。通信部605は、通信ネットワークNを介して、受信システム70及び管理サーバ80との間で各種情報を送受信するように構成されている。
操作部606は、キーボード、マウスなどの入力インタフェースを備えており、配信者や演者による操作を受付ける。表示部607は、液晶ディスプレイ装置などを備えており、配信者や演者に対して報知すべき情報を表示する。
図18は受信システム70の構成を示すブロック図である。受信システム70は、STB71及び表示装置72を備える。受信システム70は、配信端末60から配信される映像をSTB71にて受信し、受信した映像をSTB71から表示装置72へ出力することにより、表示装置72に映像を表示させる。
STB71は、例えば、制御部711、記憶部712、通信部713、出力部714、映像入力部715、及び音声入力部716を備える。
制御部711は、CPU、ROM、RAM等を備える。制御部711のCPUは、ROM又は記憶部712に予め記憶された各種プログラムをRAMに展開して実行することにより、上述した各種ハードウェアの動作を制御する。制御部711が備えるRAMには、各種プログラムの実行中に一時的に利用されるデータが記憶される。
記憶部712は、ROMなどのメモリにより構成される。記憶部712には、制御部711によって実行される各種コンピュータプログラム、及び当該コンピュータプログラムにより利用される各種データが記憶される。記憶部712に記憶されるコンピュータプログラムは、WebRTCにより各種デジタルデータを送受信するためのコンピュータプログラム(WebRTCプログラム)等が含まれてもよい。なお、WebRTCプログラムは、単独で起動されるアプリケーションプログラムである必要はなく、ウェブブラウザなどの他のアプリケーションプログラムの機能を利用するためのプラグインやアプレットなどであってもよい。
通信部713は、通信ネットワークNに接続するための通信インタフェースを備える。通信部713は、通信ネットワークNを介して、配信端末60及び管理サーバ80との間で各種情報を送受信するように構成されている。
出力部714は、表示装置72を接続するための接続インタフェースを備える。制御部711は、通信部713を介して受信する配信端末60からの映像等を、出力部714を通じて表示装置72へ出力することにより、映像を表示装置72に表示させることが可能である。表示装置72は、液晶ディスプレイ、有機ELディスプレイなどの一般的な表示装置である。
映像入力部715は、デジタルビデオカメラなどの撮像装置73が接続され、映像データが入力される入力インタフェースを備える。撮像装置73は、例えば、受信システム70が設置されている施設への来訪者(視聴者)を撮像することが可能である。映像入力部715は、撮像装置73によって撮像された映像データを取得する。
音声入力部716は、マイクなどの音声入力装置74が接続され、音声データが入力される入力インタフェースを備える。音声入力装置74は、例えば、受信システム70が設置されている施設への来訪者(視聴者)の声を特音する。音声入力部716は、音声入力装置74から音声データを取得する。
図19は管理サーバ80の構成を示すブロック図である。本実施の形態において、管理サーバ80は、制御部801、記憶部802、通信部803、操作部804、表示部805等を備え、映像配信のスケジュール管理や受信システム70の遠隔操作を行う。
制御部801は、CPU、ROM、RAMなどを備える。制御部801が備えるROMには、上記ハードウェア各部の動作を制御するための制御プログラム等が記憶される。制御部801内のCPUは、ROMに記憶された制御プログラムや記憶部802に記憶された各種プログラムを実行し、上記ハードウェア各部の動作を制御する。制御部801が備えるRAMには、各種プログラムの実行中に一時的に利用されるデータが記憶される。
なお、制御部801は、上記の構成に限定されるものではなく、シングルコアCPU、マルチコアCPU、マイコン、揮発性又は不揮発性のメモリ等を含む1又は複数の処理回路であればよい。また、制御部801は、日時情報を出力するクロック、計測開始指示を与えてから計測終了指示を与えるまでの経過時間を計測するタイマ、数をカウントするカウンタ等の機能を備えていてもよい。
記憶部802は、SRAM、フラッシュメモリ、ハードディスクなどを用いた記憶装置を備える。記憶部802には、制御部801によって実行されるオペレーティングシステム、各種アプリケーションプログラム等のコンピュータプログラム、及びコンピュータプログラムで利用される各種データ等が記憶される。
記憶部802に記憶されるコンピュータプログラムは、映像の配信スケジュールを管理するためのスケジュール管理プログラム、受信システム70の遠隔操作を実現する遠隔操作プログラム等が含まれる。なお、遠隔操作プログラムは、MDM(Mobile Device Management)の機能の一部として実現されるものであってもよい。また、管理サーバ80の記憶部802には、上述したようなWebRTCプログラムが記憶されてもよい。
なお、記憶部802に記憶されるプログラムは、当該プログラムを読み取り可能に記録した記録媒体M80により提供されてもよい。記録媒体M80は、例えば、CD−ROM、USBメモリ、SDカード、マイクロSDカード、コンパクトフラッシュなどの可搬型メモリである。この場合、制御部801は、各種プログラムは、不図示の読取装置を用いて記録媒体M80からプログラムを読み取り、読み取った各種プログラムを記憶部802にインストールする。また、記憶部802に記憶されるプログラムは、通信部803を介した通信により提供されてもよい。この場合、制御部801は、通信部803を通じて各種プログラムを取得し、取得した各種プログラムを記憶部802にインストールする。
また、記憶部802は、配信スケジュールを記録するための配信スケジュールテーブルを備えてもよい。図20は配信スケジュールテーブルの一例を示す概念図である。配信スケジュールテーブルは、例えば、配信日時、配信元アドレス、配信先アドレス、映像タイプ、演者、キャラクタ、依頼者等の情報を関連付けて記憶する。ここで、配信元アドレスは、ライブ映像及び非ライブ映像の配信元を識別する通信ネットワークN上のアドレスであり、例えばIPアドレスが用いられる。配信端末60からライブ映像及び非ライブ映像の配信を行う場合、配信元アドレスとして配信端末60のIPアドレスが登録される。また、非ライブ映像を管理サーバ80の記憶部802に記憶させておき、管理サーバ80から非ライブ映像の配信を行う場合、配信元アドレスとして管理サーバ80のIPアドレスが登録される。一方、配信先アドレスは、ライブ映像及び非ライブ映像の配信先を識別する通信ネットワークN乗のアドレスであり、例えばIPアドレスが用いられる。受信システム70へのライブ映像及び非ライブ映像の配信を行う場合、配信先アドレスとして受信システム70のIPアドレスが登録される。
通信部803は、通信ネットワークNに接続するための通信インタフェースを備え、配信端末60又は受信システム70へ通知すべき各種情報を送信すると共に、配信端末60又は通信システム70から送信される各種情報を受信する。
操作部804は、キーボードやマウスなどの入力インタフェースを備えており、各種の操作情報や設定情報を受付ける。制御部801は、操作部804から入力される操作情報に基づき適宜の制御を行い、必要に応じて設定情報を記憶部802に記憶させる。
表示部805は、液晶表示パネル、有機EL表示パネル等の表示デバイスを備えており、制御部801から出力される制御信号に基づいて、管理者等に通知すべき情報を表示する。
管理サーバ80は、配信スケジュールテーブルに従って映像配信を開始させる。以下、管理サーバ80が実行する処理の手順について説明する。
図21は管理サーバ80が実行する処理の手順を説明するフローチャートである。管理サーバ80の制御部801は、配信スケジュールテーブルを参照し、現時点が配信タイミングであるか否かを判断する(ステップS401)。配信タイミングでない場合(S401:NO)、制御部801は、以下の処理を実行せずに本フローチャートによる処理を終了する。
配信タイミングである場合(S401:YES)、制御部801は、通信ネットワークNを介してSTB71を遠隔操作することにより、STB71にインストールされているWebRTCプログラムを起動させる(ステップS402)。STB71の遠隔操作は、MDMの機能により実現できる。なお、配信端末60にインストールされているWebRTCプログラムは、演者などの操作を受付けることにより、事前に起動されるものとする。また、管理サーバ80が配信元となる場合、制御部801は、記憶部802に記憶されているWebRTCプログラムを起動してもよい。
次いで、制御部801は、配信元と配信先との間のシグナリング処理を実行する(ステップS403)。具体的には、制御部801は、配信スケジュールテーブルを参照し、配信元(配信端末60)に対して配信先(受信システム70)のアドレスを通知する処理を実行すると共に、配信先(受信システム70)に対して配信元(配信端末60)のアドレスを通知する処理を実行する。また、配信元又は配信先においてアドレスが動的に割り当てられる場合、制御部801は、このタイミングで配信元又は配信先にアドレスを問い合わせ、得られたアドレスの情報を相手方に通知してもよい。更に、制御部801は、WebRTCで必要な情報を配信元及び配信先に問い合わせ、それぞれを相手方に通知する処理を行ってもよい。例えば、WebRTCでは、通信ネットワークN経由で双方向UDP(User Datagram Protocol)コネクションを確立してP2P(Peer to Peer)通信を行うので、制御部801は、UDPのポート番号を配信元及び配信先に問い合わせ、得られたポート番号の情報を相手方に通知してもよい。また、制御部801は、通信するメディアの種類(映像、音声)、メディアの形式(コーデック)、暗号鍵などの情報を配信元及び配信先に問い合わせ、得られた情報を相手方に通知してもよい。
なお、本実施の形態では、管理サーバ80においてシグナリング処理を実行する構成としたが、シグナリング処理を実施するサーバを別途設け、このサーバにおいてシグナリング処理を実施してもよい。
次いで、制御部801は、配信元から配信先への映像配信を開始させる(ステップS404)。制御部801は、例えば、映像配信の開始を指示するコマンドを配信端末60のWebRTCプログラムへ送信することにより、映像配信を開始させることができる。また、WebRTCは双方向通信であるため、受信側の撮像装置73により撮像された視聴者の映像等のデータをSTB71から配信端末60へ送信することが可能である。このため、ライブ映像及び非ライブ映像の視聴者は必要に応じて、バーチャルアシスタントに問い合わせ等を行うことが可能である。
以上のように、実施の形態4では、WebRTCのフレームワークを利用することによって、バーチャルアシスタントを用いた映像の配信側と受信側との間で双方向通信を実現できる。受信側では、既存のディスプレイ(表示装置72)にSTB71を接続すれば、配信端末60から配信される映像を受信することができるので、システムの構築に要する費用を低く抑えることができる。
今回開示された実施形態は、全ての点において例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上述した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内での全ての変更が含まれることが意図される。
10 配信システム
11 映像処理装置
12 配信サーバ
20 事業者端末
30 表示システム
31 表示装置
32 設置者端末
40 ユーザ端末
60 配信端末
70 受信システム
71 STB
72 表示装置
80 管理サーバ
111 映像入力部
112 音声入力部
113 記憶部
114 映像処理部
115 操作部
116 表示部
117 接続部
121 制御部
122 記憶部
123 操作部
124 表示部
125 接続部
126 通信部
11 映像処理装置
12 配信サーバ
20 事業者端末
30 表示システム
31 表示装置
32 設置者端末
40 ユーザ端末
60 配信端末
70 受信システム
71 STB
72 表示装置
80 管理サーバ
111 映像入力部
112 音声入力部
113 記憶部
114 映像処理部
115 操作部
116 表示部
117 接続部
121 制御部
122 記憶部
123 操作部
124 表示部
125 接続部
126 通信部
Claims (22)
- 実空間に存在する演者の動作を仮想空間上のキャラクタに反映させることにより生成されるライブ映像を取得し、
取得したライブ映像と、該ライブ映像に基づく非ライブ映像とを、複数の施設に分散配置される表示装置へ配信する
映像配信方法。 - 前記ライブ映像と、前記非ライブ映像とをユーザの端末装置へ配信する
請求項1に記載の映像配信方法。 - 前記非ライブ映像は、前記ライブ映像を録画して得られる録画映像、又は前記ライブ映像の一部を抽出して得られるダイジェスト映像を含み、
配信先から受付けた選択に応じて、前記ライブ映像、前記録画映像、又は前記ダイジェスト映像を前記配信先へ配信する
請求項1又は請求項2に記載の映像配信方法。 - 前記ライブ映像、前記録画映像、及び前記ダイジェスト映像の中から配信者が選択した種類の映像を配信する
請求項3に記載の映像配信方法。 - 専門分野が異なる複数の演者と、各演者の動作を反映させる複数のキャラクタとの組み合わせの中から、一の演者と該演者の動作を反映させる一のキャラクタとの組み合わせに対する選択を受付け、
受付けた選択に基づき、前記一の演者の動作を反映させた前記一のキャラクタによるライブ映像と、該ライブ映像に基づく非ライブ映像とを配信する
請求項1から請求項4の何れか1つに記載の映像配信方法。 - 前記ライブ映像又は前記非ライブ映像に対する視聴者の関心度を算出し、
算出した関心度を記憶装置に記憶させる
請求項1から請求項5の何れか1つに記載の映像配信方法。 - 前記ライブ映像又は前記非ライブ映像の視聴者数に応じて前記関心度を算出する
請求項6に記載の映像配信方法。 - 配信先が施設に設置された表示装置である場合、前記施設に来訪した来訪者のうち、前記表示装置の画面を見た来訪者の人数、又は前記表示装置の前に立ち止まった来訪者の人数を計数し、
計数結果に基づき、前記ライブ映像又は前記非ライブ映像に対する来訪者の関心度を算出し、
算出した関心度を記憶装置に記憶させる
請求項1から請求項5の何れか1つに記載の映像配信方法。 - 前記施設は、商品又はサービスを販売する店舗であり、
前記ライブ映像又は前記非ライブ映像は、前記店舗にて販売される商品又はサービスに関する映像を含み、
前記店舗への来店者数、及び前記商品又はサービスの販売点数の情報を、前記関心度に関連付けて前記記憶装置に記憶させる
請求項8に記載の映像配信方法。 - 前記関心度と、前記販売点数とに基づき、前記ライブ映像及び前記非ライブ映像の配信効果を検証する
請求項9に記載の映像配信方法。 - 前記ライブ映像及び前記非ライブ映像に関する情報を、前記関心度に関連付けて前記記憶装置に記憶させる
請求項9又は請求項10に記載の映像配信方法。 - 前記ライブ映像の配信日時を前記端末装置に事前に通知する
請求項2に記載の映像配信方法。 - 前記施設にて利用可能なクーポンを前記端末装置へ付与する
請求項2に記載の映像配信方法。 - 前記ライブ映像及び前記非ライブ映像に対する評価を受付ける
請求項1から請求項13の何れか1つに記載の映像配信方法。 - 前記演者に対する報酬を視聴者から受付ける
請求項1から請求項14の何れか1つに記載の映像配信方法。 - 前記報酬は、ネットワーク上で前記視聴者が保有する有価ポイントを含む
請求項15に記載の映像配信方法。 - 前記キャラクタの外観変更を変更し、外観変更後のキャラクタによるライブ映像を配信する
請求項1から請求項16の何れか1つに記載の映像配信方法。 - 配信元及び配信先をWebRTCにより接続し、前記配信元から前記配信先へ前記ライブ映像及び前記非ライブ映像を配信する
請求項1から請求項17の何れか1つに記載の映像配信方法。 - 実空間に存在する演者の動作を仮想空間上のキャラクタに反映させることにより生成されるライブ映像を取得する取得部と、
取得したライブ映像と、該ライブ映像に基づく非ライブ映像とを、複数の施設に分散配置される表示装置へ配信する配信部と
を備える映像配信装置。 - コンピュータに、
実空間に存在する演者の動作を仮想空間上のキャラクタに反映させることにより生成されるライブ映像と、前記ライブ映像を録画して得られる録画映像と、前記ライブ映像の一部を抽出して得られるダイジェスト映像とを選択可能に表示し、
選択に応じて、前記ライブ映像、前記録画映像、及び、前記ダイジェスト映像の何れか1つを表示する
処理を実行させるためのコンピュータプログラム。 - 前記ライブ映像の配信先は、複数の施設に分散配置される表示装置と、ユーザの端末装置とを含み、
前記コンピュータに、
前記施設にて利用可能なクーポンを前記端末装置へ付与する
処理を実行させるための請求項20に記載のコンピュータプログラム。 - 前記コンピュータに、
前記演者に対する報酬を視聴者から受付ける
処理を実行させるための請求項20又は請求項21に記載のコンピュータプログラム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862783078P | 2018-12-20 | 2018-12-20 | |
US62/783,078 | 2018-12-20 | ||
JP2019094594 | 2019-05-20 | ||
JP2019094594 | 2019-05-20 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020191620A true JP2020191620A (ja) | 2020-11-26 |
Family
ID=73455184
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019227646A Pending JP2020191620A (ja) | 2018-12-20 | 2019-12-17 | 映像配信方法、映像配信装置、及びコンピュータプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020191620A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022099435A (ja) * | 2020-12-23 | 2022-07-05 | 合同会社ラムタフ | 動画配信システム |
WO2022259522A1 (ja) * | 2021-06-11 | 2022-12-15 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP7290373B1 (ja) | 2022-05-10 | 2023-06-13 | 株式会社ピーゼットピー | 情報管理システム |
KR20240105361A (ko) | 2021-03-19 | 2024-07-05 | 주식회사 아스트로젠 | L-세린 또는 이의 약제학적으로 허용가능한 염의 액상 제제 및 이의 제조방법 |
JP7576678B1 (ja) | 2023-10-24 | 2024-10-31 | カバー株式会社 | 仮想空間コンテンツ配信システム、仮想空間コンテンツ配信プログラム、および仮想空間コンテンツ配信方法 |
-
2019
- 2019-12-17 JP JP2019227646A patent/JP2020191620A/ja active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022099435A (ja) * | 2020-12-23 | 2022-07-05 | 合同会社ラムタフ | 動画配信システム |
JP7321461B2 (ja) | 2020-12-23 | 2023-08-07 | 合同会社ラムタフ | 動画配信システム |
KR20240105361A (ko) | 2021-03-19 | 2024-07-05 | 주식회사 아스트로젠 | L-세린 또는 이의 약제학적으로 허용가능한 염의 액상 제제 및 이의 제조방법 |
WO2022259522A1 (ja) * | 2021-06-11 | 2022-12-15 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP7290373B1 (ja) | 2022-05-10 | 2023-06-13 | 株式会社ピーゼットピー | 情報管理システム |
JP2023166948A (ja) * | 2022-05-10 | 2023-11-22 | 株式会社ピーゼットピー | 情報管理システム |
JP7576678B1 (ja) | 2023-10-24 | 2024-10-31 | カバー株式会社 | 仮想空間コンテンツ配信システム、仮想空間コンテンツ配信プログラム、および仮想空間コンテンツ配信方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11227328B2 (en) | Interactive method and device for e-commerce application program | |
JP2020191620A (ja) | 映像配信方法、映像配信装置、及びコンピュータプログラム | |
CN102667841B (zh) | 遥控装置 | |
US8799005B2 (en) | Systems and methods for capturing event feedback | |
US8850328B2 (en) | Networked profiling and multimedia content targeting system | |
US7938727B1 (en) | System and method for providing interactive content for multiple networked users in a shared venue | |
US20080172243A1 (en) | System and method for providing targeted, interactive, multimedia content for entertaining, advertising, and promotional purposes | |
JP2017535903A (ja) | 協調発券システム | |
US20160029069A1 (en) | Methods and systems for displaying content | |
US20080270163A1 (en) | System, program and method for experientially inducing user activity | |
KR20050109919A (ko) | 컨텐츠 제작, 배급, 상호작용, 및 모니터링 시스템 | |
JP2009510608A (ja) | ターゲット広告 | |
KR20140079307A (ko) | 아이콘을 사용하여 이벤트 정보를 공유하기 위한 시스템 및 방법 | |
CN102346898A (zh) | 自动定制广告生成系统 | |
US20150032554A1 (en) | Method for Social Retail/Commercial Media Content | |
CN104853228B (zh) | 使播出的商业节目与互动应用同步的系统和方法 | |
US20150220948A1 (en) | On-site election method and apparatus | |
US20150287053A1 (en) | System and method for tracking consumer habits at a venue | |
US20150262200A1 (en) | System and method for tracking consumption habits of venue products | |
JP2001283024A (ja) | 仮想店舗管理装置、仮想店舗管理方法および仮想店舗管理システムならびに情報記録媒体 | |
KR101571864B1 (ko) | 이벤트 제공 방법 및 시스템 | |
JP6675736B2 (ja) | 映像と音声を上映するための映像音声管理装置および上映システム | |
KR101271590B1 (ko) | 스마트 실시간 공연 시스템 및 그 방법 | |
US20220164825A1 (en) | Information processing apparatus and system and non-transitory computer readable medium for outputting information to user terminals | |
TWI679599B (zh) | 廣告推播系統及廣告推播方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AA64 | Notification of invalidation of claim of internal priority (with term) |
Free format text: JAPANESE INTERMEDIATE CODE: A241764 Effective date: 20200218 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200228 |