JP2018117312A - 映像配信システム、ユーザ端末装置および映像配信方法 - Google Patents

映像配信システム、ユーザ端末装置および映像配信方法 Download PDF

Info

Publication number
JP2018117312A
JP2018117312A JP2017008318A JP2017008318A JP2018117312A JP 2018117312 A JP2018117312 A JP 2018117312A JP 2017008318 A JP2017008318 A JP 2017008318A JP 2017008318 A JP2017008318 A JP 2017008318A JP 2018117312 A JP2018117312 A JP 2018117312A
Authority
JP
Japan
Prior art keywords
video
distribution
user terminal
user
videos
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017008318A
Other languages
English (en)
Other versions
JP6241802B1 (ja
Inventor
隆志 向山
Takashi Mukaiyama
隆志 向山
萩原 明
Akira Hagiwara
明 萩原
俊樹 山口
Toshiki Yamaguchi
俊樹 山口
康平 名倉
Kohei NAGURA
康平 名倉
ビルグーン サインバヤル
Bilguun SAINBAYAR
ビルグーン サインバヤル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2017008318A priority Critical patent/JP6241802B1/ja
Application granted granted Critical
Publication of JP6241802B1 publication Critical patent/JP6241802B1/ja
Priority to PCT/JP2017/045412 priority patent/WO2018135210A1/ja
Priority to US16/478,608 priority patent/US20200053395A1/en
Publication of JP2018117312A publication Critical patent/JP2018117312A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/214Specialised server platform, e.g. server located in an airplane, hotel, hospital
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/231Content storage operation, e.g. caching movies for short term storage, replicating data over plural servers, prioritizing data for deletion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Information Transfer Between Computers (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】多様化したユーザの要望に合致するような種々の映像を効率よく生成し、ユーザが自分の要望に合致する映像を観賞できるようにする。【解決手段】イベント会場を撮影した撮影映像から配信映像を生成して、その配信映像を、ネットワークを介してユーザ端末2に配信する映像配信システムであり、イベント会場の所定位置に設置され、イベント会場を所定方向から撮影するカメラ1と、カメラから出力される撮影映像を蓄積する撮影映像用ストレージ3と、被写体に対する複数の視点にそれぞれ対応する領域を撮影映像から切り出して、視点が異なる複数の配信映像を生成する映像処理コンピュータ4と、ユーザが選択した視点に関する情報を含む配信要求を、ユーザ端末装置から受信すると、配信要求に対応した配信映像をユーザ端末装置に配信する映像配信サーバ6と、を備えたものとする。【選択図】図3

Description

本発明は、イベント会場を撮影した撮影映像から配信映像を生成して、その配信映像を、ネットワークを介してユーザ端末装置に配信する映像配信システムおよび映像配信方法、ならびに映像配信装置からネットワークを介して配信される配信映像を受信して、その配信映像を表示するユーザ端末装置に関するものである。
近年、コンサートなどの各種のイベントが開催される会場をカメラで撮影した映像を、映像配信サーバからユーザ端末に配信する映像配信サービスが広く普及している。このような映像配信サービスでは、お気に入りの人物が映像の端に映ったり、別の人物の後に隠れたりして、お気に入りの人物が見にくくなる場合があるため、ユーザが自分の要望に合致する映像を観賞したいという要望がある。
このような映像配信サービスにおけるユーザの要望に対して、従来、異なる方向から同時に人物を撮影できるように複数のカメラを設置して、ユーザがカメラを選択することで、撮影角度が異なる映像を観賞できるようにした技術が知られている(特許文献1参照)。また、カメラを操作する権限を特定のユーザに与えて、そのユーザの操作により、カメラの姿勢や視野角などの撮影状態を遠隔制御する技術が知られている(特許文献2参照)。
特開2011−103522号公報 特開2003−339038号公報
さて、特許文献1に開示された技術では、ユーザが希望する方向から撮影した映像を視聴できるが、例えば、お気に入りの人物の顔など、映像内の注目する部分を大写しで見たいなどの要望があっても、そのような要望に合致する映像を表示させることができないという問題があった。また、特許文献2に開示された技術では、カメラを操作する権限を有する特定のユーザは、自分の要望に合致する映像を観賞できるが、全てのユーザが自分の要望に合致する映像を観賞できないという問題があった。
そこで、本発明は、多様化したユーザの要望に合致するような種々の映像を効率よく生成し、ユーザが自分の要望に合致する映像を観賞できるようにした映像配信システム、ユーザ端末装置および映像配信方法を提供することを主な目的とする。
本発明の映像配信システムは、イベント会場を撮影した撮影映像から配信映像を生成して、その配信映像を、ネットワークを介してユーザ端末装置に配信する映像配信システムであって、前記イベント会場の所定位置に設置され、前記イベント会場を所定方向から撮影するカメラと、前記カメラから出力される前記撮影映像を蓄積する映像蓄積部と、被写体に対する複数の視点にそれぞれ対応する領域を前記撮影映像から切り出して、前記視点が異なる複数の前記配信映像を生成する映像処理部と、ユーザが選択した前記視点に関する情報を含む配信要求を、前記ユーザ端末装置から受信すると、前記配信要求に対応した前記配信映像を前記ユーザ端末装置に配信する映像配信部と、を備えた構成とする。
また、本発明のユーザ端末装置は、映像配信装置からネットワークを介して配信される配信映像を受信して、その配信映像を表示するユーザ端末装置であって、ユーザが、視聴を希望するイベント、および被写体に対する視点を選択する操作を行う操作入力部と、ユーザが選択した前記イベントおよび前記視点に関する情報を含む配信要求を前記映像配信装置に送信する送信部と、前記映像配信装置から配信される前記配信要求に対応した前記配信映像を受信する受信部と、受信した前記配信映像の再生を制御して前記配信映像を映像表示部に表示するプロセッサと、を備えた構成とする。
また、本発明の映像配信方法は、イベント会場を撮影した撮影映像から配信映像を生成して、その配信映像を、ネットワークを介してユーザ端末装置に配信する処理を情報処理装置に行わせる映像配信方法であって、被写体に対する複数の視点にそれぞれ対応する領域を前記撮影映像から切り出して、前記視点が異なる複数の前記配信映像を生成し、ユーザが選択した前記視点に関する情報を含む配信要求を、前記ユーザ端末装置から受信すると、前記配信要求に対応した前記配信映像を前記ユーザ端末装置に配信する構成とする。
本発明によれば、複数の視点にそれぞれ対応する領域を撮影映像から切り出して、視点が異なる複数の配信映像を生成することで、多様化したユーザの要望に合致するような種々の映像を効率よく生成することができる。そして、ユーザが視点を選択することで、ユーザが自分の要望に合致する映像を観賞することができる。
第1実施形態に係る映像配信システムの全体構成図 カメラ1の配置状況を示す説明図 映像処理コンピュータ4および映像配信サーバ6の概略構成を示すブロック図 映像処理コンピュータ4で行われる処理の概要を示す説明図 ユーザ端末2の概略構成を示すブロック図 撮影映像用ストレージ3での撮影映像の蓄積状況を示す説明図 配信映像用ストレージ5での配信映像の蓄積状況を示す説明図 ユーザ端末2に表示される画面の遷移状況を示す説明図 ユーザ端末2に表示される画面を示す説明図 ユーザ端末2に表示される画面を示す説明図 映像配信サーバ6およびユーザ端末2の動作手順を示すシーケンス図 第2実施形態に係る映像配信システムを示すブロック図
前記課題を解決するためになされた第1の発明は、イベント会場を撮影した撮影映像から配信映像を生成して、その配信映像を、ネットワークを介してユーザ端末装置に配信する映像配信システムであって、前記イベント会場の所定位置に設置され、前記イベント会場を所定方向から撮影するカメラと、前記カメラから出力される前記撮影映像を蓄積する映像蓄積部と、被写体に対する複数の視点にそれぞれ対応する領域を前記撮影映像から切り出して、前記視点が異なる複数の前記配信映像を生成する映像処理部と、ユーザが選択した前記視点に関する情報を含む配信要求を、前記ユーザ端末装置から受信すると、前記配信要求に対応した前記配信映像を前記ユーザ端末装置に配信する映像配信部と、を備えた構成とする。
これによると、複数の視点にそれぞれ対応する領域を撮影映像から切り出して、視点が異なる複数の配信映像を生成することで、多様化したユーザの要望に合致するような種々の映像を効率よく生成することができる。そして、ユーザが視点を選択することで、ユーザが自分の要望に合致する映像を観賞することができる。
また、第2の発明は、前記映像処理部は、前記撮影映像から人物を検出して、その人物検出の結果に基づいて、前記視点としての対象人物が異なる複数の前記配信映像を生成する構成とする。
これによると、視点としての対象人物をユーザが選択することで、ユーザが注目する人物が主に映る映像を観賞することができる。
また、第3の発明は、前記カメラは、前記イベント会場の異なる位置に複数設置され、前記映像処理部は、複数の前記カメラごとの前記撮影映像から、前記視点としての撮影角度が異なる複数の前記配信映像を生成する構成とする。
これによると、視点としての撮影角度をユーザが選択することで、種々の角度から撮影した映像をユーザが観賞することができる。
また、第4の発明は、前記映像処理部は、前記撮影映像から切り出す領域の大きさを変更することで、見かけ上のズーム倍率が異なる複数の前記配信映像を生成する構成とする。
これによると、ズーム倍率が異なる映像をユーザが観賞することができる。
また、第5の発明は、前記映像処理部は、前記視点としての被写体の注目部位が異なる複数の前記配信映像を生成する構成とする。
これによると、視点としての被写体の注目部位をユーザが選択することで、注目部位が主に映る映像をユーザが観賞することができる。
また、第6の発明は、前記注目部位は、人物の全身、顔、手および足、ならびに人物が演奏する楽器の少なくともいずれかである構成とする。
これによると、人物の全身、顔、手および足、ならびに人物が演奏する楽器が主に映る映像をユーザが観賞することができる。
また、第7の発明は、前記映像配信部は、配信を開始する際に前記ユーザ端末装置から送信される第1の配信要求に応じて前記配信映像を配信中に、ユーザが選択した前記視点に関する情報を含む第2の配信要求を受信すると、その第2の配信要求に対応した前記配信映像の配信準備を開始し、その配信準備が完了すると、前記第2の配信要求に対応した前記配信映像の配信を開始する構成とする。
これによると、ユーザ端末装置でユーザが映像を観賞している最中に、視点が異なる別の映像に切り替えることができる。
また、第8の発明は、映像配信装置からネットワークを介して配信される配信映像を受信して、その配信映像を表示するユーザ端末装置であって、ユーザが、視聴を希望するイベント、および被写体に対する視点を選択する操作を行う操作入力部と、ユーザが選択した前記イベントおよび前記視点に関する情報を含む配信要求を前記映像配信装置に送信する送信部と、前記映像配信装置から配信される前記配信要求に対応した前記配信映像を受信する受信部と、受信した前記配信映像の再生を制御して前記配信映像を映像表示部に表示するプロセッサと、を備えた構成とする。
これによると、第1の発明と同様に、多様化したユーザの要望に合致するような種々の映像を効率よく生成し、ユーザが自分の要望に合致する映像を観賞できるようになる。
また、第9の発明は、イベント会場を撮影した撮影映像から配信映像を生成して、その配信映像を、ネットワークを介してユーザ端末装置に配信する処理を情報処理装置に行わせる映像配信方法であって、被写体に対する複数の視点にそれぞれ対応する領域を前記撮影映像から切り出して、前記視点が異なる複数の前記配信映像を生成し、ユーザが選択した前記視点に関する情報を含む配信要求を、前記ユーザ端末装置から受信すると、前記配信要求に対応した前記配信映像を前記ユーザ端末装置に配信する構成とする。
これによると、第1の発明と同様に、多様化したユーザの要望に合致するような種々の映像を効率よく生成し、ユーザが自分の要望に合致する映像を観賞できるようになる。
以下、本発明の実施の形態を、図面を参照しながら説明する。
(第1実施形態)
図1は、第1実施形態に係る映像配信システムの全体構成図である。
この映像配信システムは、コンサート会場(イベント会場)をカメラ1で撮影した撮影映像から配信映像を生成して、その配信映像を、ネットワークを介してユーザ端末2(ユーザ端末装置)に配信するものであり、カメラ1と、撮影映像用ストレージ3(映像蓄積部)と、映像処理コンピュータ4(映像処理部)と、配信映像用ストレージ5と、映像配信サーバ6(映像配信部)と、ユーザ端末2と、を備えている。
カメラ1は、コンサート会場に複数設置されている。各カメラ1は、撮影映像用ストレージ3に接続されている。なお、撮影映像は、ネットワーク上の撮影映像用ストレージ3に保存するほか、光ディスクやポータブルHDDなどを用いて、撮影会場でローカルに保存するようにしても良い。
ユーザ端末2は、タブレット端末やスマートフォンやPCなどであり、ネットワークを介して映像配信サーバ6と接続される。
撮影映像用ストレージ3は、複数のカメラ1から出力される撮影映像を蓄積する。
映像処理コンピュータ4は、撮影映像用ストレージ3に蓄積された撮影映像に対して映像処理を行って配信映像を生成する。この映像処理コンピュータ4で行われる映像処理は、配信映像を生成する処理を自動化するものであり、これにより、編集者の作業が不要となるため、編集コストを削減することができる。なお、映像処理コンピュータ4には、配信映像の編集ソフトウェアを搭載され、生成した配信映像の確認や修正を行うことができる。
配信映像用ストレージ5は、映像処理コンピュータ4から出力される配信映像を蓄積する。本実施形態では、ストア配信が行われ、映像処理コンピュータ4で生成した配信映像を配信映像用ストレージ5に蓄積して、コンサートが終了した後に、配信映像用ストレージ5に蓄積された配信映像をユーザ端末2に配信する。
映像配信サーバ6は、ユーザ端末2からの配信要求に応じて、配信映像用ストレージ5に蓄積された配信映像のデータを順次ユーザ端末2に配信するストリーミング配信が行われる。
次に、カメラ1の配置状況について説明する。図2は、カメラ1の配置状況を示す説明図である。
各カメラ1は、コンサート会場の所定位置に設置され、設置位置が固定されている(定点撮影)。また、各カメラ1は、ステージを所定方向から撮影するように設定され、撮影アングル(撮影の向き)も固定されている。また、各カメラ1では、ステージの略全体を撮影できるように広角な撮影が行われ、これにより、ステージ上を動き回る人物を、各カメラ1で漏れなく撮影することができる。また、各カメラ1では、高解像度(例えば4K以上)の撮影が行われ、これにより、ソフトウェアズームを行っても高精細な映像を配信することができる。また、各カメラ1のうち、予め設定された2台のカメラによる撮影映像を用いてステレオ画像処理を行い、3D配信映像を作成することもできる。
また、各カメラ1は、ステージを取り囲むように異なる位置に設置されている。図2に示す例では、正面、左寄り、左端、右寄り、右端の5地点にカメラ1が設置されている。この5台のカメラ1により、ステージ上の人物が5方向から撮影され、撮影角度が5段階に異なる映像、すなわち、正面、斜め左側、左側、斜め右側、右側の各方向から撮影された映像を得ることができる。
このように本実施形態では、カメラ1が、イベント会場の所定位置に設置され、イベント会場を所定方向から常時撮影することから、カメラマンが不要となり、撮影コストを削減することができる。
次に、映像処理コンピュータ4および映像配信サーバ6の概略構成について説明する。図3は、映像処理コンピュータ4および映像配信サーバ6の概略構成を示すブロック図である。図4は、映像処理コンピュータ4で行われる処理の概要を示す説明図である。
映像処理コンピュータ4は、通信部11と、プロセッサ12と、記憶部13と、を備えている。
通信部11は、撮影映像用ストレージ3および配信映像用ストレージ5との間で通信を行うものであり、撮影映像用ストレージ3から送信される撮影映像を受信し、また、プロセッサ12で生成した配信映像を配信映像用ストレージ5に送信する。
記憶部13は、撮影映像用ストレージ3から受信した撮影映像などを記憶する。また、記憶部13は、プロセッサ12で実行するプログラムを記憶する。
プロセッサ12は、記憶部13に記憶されたプログラムを実行することで、各種の処理を行う。本実施形態では、人物検出、切り出し領域設定、画像切り出し、および配信映像生成の各処理を行う。
人物検出処理では、撮影映像の各フレームから人物(動体)を検出し、各フレームでの人物領域の位置情報を取得する。このとき、図4(A)に示すように、人物を取り囲む人物枠を取得する。
切り出し領域設定処理では、人物検出処理で取得した人物領域の位置情報に基づいて、撮影映像から切り出す領域の位置および大きさを設定する。本実施形態では、撮影映像から検出された人物が中心に映る配信映像を人物ごとに生成するようにしており、人物領域(人物枠)の中心が切り出し領域の中心となるように切り出し領域の位置が設定される。
また、本実施形態では、いわゆるソフトウェアズームが行われ、切り出し領域を小さくすることで、被写体が拡大表示されるズームインとなり、切り出し領域を大きくすることで、被写体が縮小表示されるズームアウトとなる。このため、本実施形態では、ズーム倍率に応じて切り出し領域の大きさが設定される。
また、本実施形態では、被写体に対する複数の視点にそれぞれ対応する領域を撮影映像から切り出して、視点が異なる複数の配信映像を生成するようにしており、特に、視点として人物の注目部位が異なる複数の配信映像を生成するようにしている。具体的には、人物の全身、顔、手および足、ならびに人物が演奏する楽器が中心に映る配信映像を生成するようにしており、注目部位の中心が切り出し領域の中心となるように切り出し領域の位置が設定される。
図4に示す例は、撮影画像に映る5人の人物A〜Eのうち、人物Dに関する配信映像を生成する場合であり、図4(B)に示すように、人物Dの人物枠の中心が、切り出し領域の中心に設定されて、図4(C)に示すように、人物Dが中心に映る切り出し画像が得られる。
ここで、注目部位が人物の全身である場合に、人物領域(人物枠)の中心を切り出し領域の中心に設定すればよい。
また、注目部位が顔である場合に、人物領域の上方の領域を顔の領域として、その領域の中心を切り出し領域の中心に設定すればよい。また、頭部および肩部で構成されるΩ形状を検出して、Ω形状に基づいて頭部の領域を特定して、その領域の中心を切り出し領域の中心に設定するようにしてもよい。
また、注目部位が手である場合に、人物領域を対象にして手を検出して、その手の領域の中心を切り出し領域の中心に設定すればよい。また、Ω形状で特定される頭部の領域の下方の領域を手の領域として、その領域の中心を切り出し領域の中心に設定するようにしてもよい。
また、注目部位が足である場合に、人物領域を対象にして足を検出して、その足の領域の中心を、切り出し領域の中心に設定すればよい。また、人物領域の下方の領域を足の領域として、その領域の中心を切り出し領域の中心に設定するようにしてもよい。
また、注目部位が楽器である場合に、手の領域に周辺を対象にして楽器を検出して、その楽器の領域の中心を切り出し領域の中心に設定すればよい。なお、楽器の検出では、形状や色に注目して楽器を検出すればよい。
なお、本実施形態では、注目部位を、人物の全身、顔、手、足、および楽器としたが、人物の上半身や下半身などを注目部位としてもよい。
画像切り出し処理では、切り出し領域設定処理で設定された切り出し領域の位置および大きさに基づいて、撮影映像から切り出し領域の画像(切り出し画像)を切り出す。
配信映像生成処理では、画像切り出し処理で取得した切り出し画像に基づいて、配信映像を生成する。このとき、映像配信の仕様に基づいて配信映像を生成し、例えば、配信映像の解像度(例えば2K)によるリサンプリングが行われる。
映像配信サーバ6は、第1の通信部21と、第2の通信部22と、プロセッサ23と、記憶部24と、を備えている。
第1の通信部21は、配信映像用ストレージ5との間で通信を行うものであり、配信映像用ストレージ5から送信される配信映像を受信する。
第2の通信部22は、ユーザ端末2との間で通信を行うものであり、ユーザ端末2から送信される配信要求を受信し、また、配信映像をユーザ端末2に送信する。
記憶部24は、配信映像用ストレージ5から受信した配信映像などを記憶する。また、記憶部24は、プロセッサ23で実行するプログラムを記憶する。
プロセッサ23は、記憶部24に記憶されたプログラムを実行することで、各種の処理を行う。本実施形態では、配信要求受付および配信制御の各処理を行う。
配信要求受付処理では、ユーザ端末2から送信されて第2の通信部22で受信した配信要求を受け付ける。
配信制御処理では、配信要求受付処理で受け付けた配信要求に応じて、その配信要求に対応する配信映像、すなわち、ユーザが選択した視点に該当する配信映像を、配信映像用ストレージ5から取得して、その配信映像データを順次、ユーザ端末2に送信するストリーミング配信を制御する。
次に、ユーザ端末2の概略構成について説明する。図5は、ユーザ端末2の概略構成を示すブロック図である。
ユーザ端末2は、通信部31と、プロセッサ32と、記憶部33と、映像表示部34と、操作入力部35と、を備えている。
通信部31は、映像配信サーバ6との間で通信を行うものであり、配信要求を映像配信サーバ6に送信し、映像配信サーバ6から送信される配信映像を受信する。
記憶部33は、映像配信サーバ6から受信した配信映像を記憶する。また、記憶部33は、プロセッサ32で実行するプログラムを記憶する。
映像表示部34は、液晶表示パネルなどで構成される。操作入力部35は、タッチパネルやマウスなどで構成される。なお、映像表示部34および操作入力部35はタッチパネルディスプレイで構成することができる。
プロセッサ32は、記憶部33に記憶されたプログラムを実行することで、各種の処理を行う。本実施形態では、操作入力部35でのユーザの操作に基づく配信要求を通信部31から映像配信サーバ6に送信する。また、通信部31で受信した配信映像の再生を制御し、映像表示部34に配信映像が表示される。
なお、映像配信サーバ6では、映像とともに音声が配信され、ユーザ端末2は、スピーカなどで構成される音声出力部(図示せず)を備えており、この音声出力部で、映像配信サーバ6から配信された音声が出力される。
ここで、本実施形態では、映像配信サーバ6に映像配信を開始させる際に、ユーザの操作に応じて、第1の配信要求がユーザ端末2から映像配信サーバ6に送信され、この第1の配信要求に対応する配信映像が映像配信サーバ6からユーザ端末2に配信される。本実施形態では、配信を開始する際に、視点として人物をユーザが選択することができ、その選択情報を含む第1の配信要求がユーザ端末2から映像配信サーバ6に送信される。
また、本実施形態では、映像配信中に、ユーザが視点を選択する操作に応じて、第2の配信要求がユーザ端末2から映像配信サーバ6に送信され、この第2の配信要求に対応する配信映像、すなわち、ユーザが選択した視点に該当する配信映像が映像配信サーバ6からユーザ端末2に配信される。本実施形態では、視点として、撮影角度、注目部位(全身、顔、手、足、楽器)、対象人物を選択することができ、その選択情報を含む第2の配信要求がユーザ端末2から映像配信サーバ6に送信される。これにより、映像配信中の任意のタイミングで、視点が異なる別の映像に切り替えることができる。
次に、撮影映像用ストレージ3での撮影映像の蓄積状況について説明する。図6は、撮影映像用ストレージ3での撮影映像の蓄積状況を示す説明図である。
本実施形態では、各カメラ1から出力される撮影映像が撮影映像用ストレージ3に蓄積される。この撮影映像用ストレージ3では、撮影映像(映像バイナリデータ)に、通し番号などによる映像ID(映像識別情報)が付与され、この映像IDに基づいて撮影映像が管理される。また、撮影映像用ストレージ3では、撮影映像の属性情報である、撮影元のカメラ1のカメラID(カメラ識別情報)に基づいて撮影映像が管理される。
なお、図6に示す例では、1つのイベントの撮影映像を示しているが、撮影映像用ストレージ3には、アーティスト、開催日時、および会場などが異なる複数のイベントごとの撮影映像を蓄積することができ、この場合、異なるイベントの撮影映像には異なる映像IDを付与するとともに、イベントの名称(イベント識別情報)に基づいて撮影映像を管理するようにするとよい。
次に、配信映像用ストレージ5での配信映像の蓄積状況について説明する。図7は、配信映像用ストレージ5での配信映像の蓄積状況を示す説明図である。
映像処理コンピュータ4では、被写体に対する視点が異なる複数の配信映像が生成され、この複数の配信映像が配信映像用ストレージ5に蓄積される。この配信映像用ストレージ5では、配信映像(映像バイナリデータ)に、通し番号などによる映像ID(映像識別情報)が付与され、この映像IDに基づいて配信映像が管理される。また、配信映像用ストレージ5では、配信映像の属性情報である、視点(対象人物、注目部位、撮影角度)およびズーム倍率に基づいて配信映像が管理される。
図7に示す例では、対象人物が5人(人物A〜人物E)となり、注目部位が5通り(全身、顔、手、足、楽器)となり、撮影角度が5段階(正面、斜め左側、左側、斜め右側、右側)となり、ズームが3通り(近、中、遠)となり、合計で375個の配信映像が配信映像用ストレージ5に蓄積されている。
次に、ユーザ端末2に表示される画面について説明する。図8は、ユーザ端末2に表示される画面の遷移状況を示す説明図である。図9および図10は、ユーザ端末2に表示される画面を示す説明図である。図11は、映像配信サーバ6およびユーザ端末2の動作手順を示すシーケンス図である。
図8に示すように、ユーザ端末2では、配信コンテンツ視聴用のアプリケーションを起動すると、まず、ログイン画面が表示される。このログイン画面には、図9(A)に示すように、ユーザIDおよびパスワードの入力部41,42が設けられている。このログイン画面でユーザが、入力部41,42にユーザIDおよびパスワードを入力して、ログインのボタン43を操作すると、図11に示すように、入力情報が映像配信サーバ6に送信される。
映像配信サーバ6では、入力情報に基づいてユーザ認証が行われ、ユーザ認証が成功すると、利用を許可する成功通知がユーザ端末2に送信される。
ユーザ端末2では、映像配信サーバ6からの成功通知を受信すると、図8に示すように、イベント選択画面に遷移する。
このイベント選択画面には、図9(B)に示すように、ユーザが視聴可能なイベントごとのイベント選択部45が設けられている。このイベント選択画面でユーザが、視聴を希望するイベントのイベント選択部45を操作すると、図8に示すように、人物選択画面に遷移する。
この人物選択画面には、図9(C)に示すように、人物(出演者)ごとのサムネイル47が表示されている。この人物選択画面でユーザが、お気に入りの人物のサムネイル47を選択すると、図11に示すように、ユーザ端末2から第1の配信要求が映像配信サーバ6に送信される。この第1の配信要求には、ユーザが選択したイベントおよび人物に関する情報が含まれている。
映像配信サーバ6では、ユーザ端末2からの第1の配信要求を受信すると、その第1の配信要求に対応する配信映像、すなわち、ユーザが選択したイベントおよび人物に該当する配信映像を、配信映像用ストレージ5から取得して、その配信映像のデータを順次ユーザ端末2に送信するストリーム配信が開始される。
ユーザ端末2では、映像配信サーバ6でストリーム配信が開始されると、再生画面に遷移する。
この再生画面では、図9(D)に示すように、ユーザが選択したイベントの映像が画面全体に表示される。また、この再生画面では、ユーザが選択した人物が中心に映る映像が表示され、ユーザがお気に入りの人物の映像を観賞することができる。
また、この再生画面には、「設定」のボタン49が設けられている。このボタン49をユーザが操作すると、図8に示すように、再生時設定画面に遷移する。この再生時設定画面には、図10(A)に示すズーム設定画面と、図10(B)に示す撮影角度設定画面と、図10(C)に示す注目部位設定画面と、図10(D)に示す対象人物設定画面と、がある。
これらの再生時設定画面には、図10に示すように、「モード切替」のボタン51が設けられている。このボタン51をユーザが操作すると、プルダウンメニュー(図示せず)が表示され、このプルダウンメニューで設定モード(ズーム倍率、撮影角度、注目部位、対象人物)を選択することで、別の再生時設定画面に遷移させることができる。
図10(A)に示すように、ズーム設定画面には、ズームインおよびズームアウトのボタン53,54が設けられている。ズームインのボタン53を操作すると、被写体に近づくズームインとなる、すなわち、ズーム倍率が高くなって被写体が大きく表示される。ズームアウトのボタン54を操作すると、被写体から離れるズームアウトとなる、すなわち、ズーム倍率が低くなって広い範囲の被写体が表示される。本実施形態では、ズーム倍率を3段階(近、中、遠)に調整することができる。
図10(B)に示すように、撮影角度設定画面には、左右の角度調整ボタン56,57が設けられている。左側の角度調整ボタン56を操作すると、撮影角度が左側に1つずれる、すなわち、1つ左側のカメラ1の映像に切り替わる。右側の角度調整ボタン57を操作すると、撮影角度が右側に1つずれる、すなわち、1つ右側のカメラ1の映像に切り替わる。本実施形態では、5台のカメラ1が設置されており、撮影角度を5段階(正面、斜め左側、左側、斜め右側、右側)に調整することができる。
図10(C)に示すように、注目部位設定画面には、注目部位(全身、顔、手、足、楽器)ごとのアイコン61〜65が設けられている。このアイコン61〜65を操作することで、注目部位が設定され、対象人物の注目部位を中心にした映像が表示される。
ここで、全身のアイコン61を操作すると、対象人物の全身(人物全体)が映る映像が表示される。また、顔のアイコン62を操作すると、対象人物の顔を中心にした映像が表示される。また、手のアイコン63を操作すると、対象人物の手を中心にした映像が表示される。また、足のアイコン64を操作すると、対象人物の足を中心にした映像が表示される。また、楽器のアイコン65を操作すると、対象人物が演奏している楽器を中心にした映像が表示される。
このように本実施形態では、対象人物の注目部位を変更することができるため、例えば人物がダンスを踊っている際に、全身の動きを観察したり足のステップを詳しく観察したりすることができ、また、人物が楽器を演奏している際に、指使いを詳しく観察することができる。
図10(D)に示すように、対象人物設定画面には、人物ごとのサムネイル67が表示されている。このサムネイル67を操作して人物を選択すると、選択した人物が対象人物に設定され、対象人物が中心に映る映像が表示される。
また、これらの再生時設定画面(ズーム倍率設定画面、撮影角度設定画面、注目対象設定画面、対象人物設定画面)には、再生操作部69が設けられている。この再生操作部69では、再生の開始および停止、音量の調整、全画面表示などの操作を行うことができる。
このように再生時設定画面(ズーム倍率設定画面、撮影角度設定画面、注目対象設定画面、対象人物設定画面)で、ズーム倍率や視点(撮影角度、注目部位、対象人物)を設定する操作が行われると、図11に示すように、ユーザ端末2から第2の配信要求が映像配信サーバ6に送信される。この第2の配信要求には、ユーザが設定したズーム倍率や視点(撮影角度、注目部位、対象人物)に関する情報が含まれている。
映像配信サーバ6では、ユーザ端末2からの第2の配信要求を受信すると、その第2の配信要求に対応する配信映像、すなわち、ユーザが設定したズーム倍率および視点(撮影角度、注目部位、対象人物)に該当する配信映像を、配信映像用ストレージ5から取得して、その配信映像のストリーム配信の準備を開始する。そして、ストリーム配信の準備が完了すると、新たな配信映像のストリーム配信が開始され、ユーザ端末2では、再生画面に表示される映像が、ユーザが設定したズーム倍率や視点に基づく新たな映像に切り替えられる。
このように本実施形態では、ユーザ端末2でユーザが映像を観賞している最中に、視点を変更する操作をユーザが行うことで、視点が異なる別の映像に切り替えることができ、ユーザが自分の要望に合致する映像を観賞することができる。
(第2実施形態)
次に、第2実施形態について説明する。なお、ここで特に言及しない点は前記の実施形態と同様である。図12は、第2実施形態に係る映像配信システムを示すブロック図である。
第1実施形態(図3参照)では、ストア配信、すなわち、映像処理コンピュータ4で生成した配信映像を配信映像用ストレージ5に蓄積して、ユーザ端末2からの配信要求に応じて、配信映像用ストレージ5に蓄積された配信映像をユーザ端末2に配信するようにしたが、本実施形態では、ライブ配信、すなわち、映像処理コンピュータ4で生成した配信映像をリアルタイムでユーザ端末2に配信するようになっており、第1実施形態で設けられていた配信映像用ストレージ5を備えていない。
また、映像処理コンピュータ4および映像配信サーバ6の概略構成は、第1実施形態と同様であるが、映像処理コンピュータ4では、ユーザ端末2からの配信要求に関係なく、全ての配信映像を生成し、映像配信サーバ6では、ユーザ端末2からの配信要求に応じて、映像処理コンピュータ4から出力される配信映像の中から、配信要求に対応した配信映像、すなわち、ユーザが選択した視点に該当する配信映像を選択して、その配信映像をユーザ端末2に配信する。
以上のように、本出願において開示する技術の例示として、実施形態を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置き換え、付加、省略などを行った実施形態にも適用できる。また、上記の実施形態で説明した各構成要素を組み合わせて、新たな実施形態とすることも可能である。
例えば、前記の実施形態では、映像処理コンピュータ(映像処理装置)と映像配信サーバ(映像配信装置)とを設けたが、この映像処理コンピュータおよび映像配信サーバを、1つの情報処理装置で構成するようにしてもよい。また、撮影映像用ストレージと配信映像用ストレージとを設けたが、この撮影映像用ストレージおよび配信映像用ストレージを、1つの記憶装置で構成するようにしてもよい。
また、前記の実施形態では、映像の被写体を人物とした例について説明したが、映像の被写体は人物に限定されるものではなく、動物などの人物以外の動体を被写体とした映像としてもよい。
本発明に係る映像配信システム、ユーザ端末装置および映像配信方法は、多様化したユーザの要望に合致するような種々の映像を効率よく生成し、ユーザが自分の要望に合致する映像を観賞できるようにする効果を有し、イベント会場を撮影した撮影映像から配信映像を生成して、その配信映像を、ネットワークを介してユーザ端末装置に配信する映像配信システムおよび映像配信方法、ならびに映像配信装置からネットワークを介して配信される配信映像を受信して、その配信映像を表示するユーザ端末装置などとして有用である。
1 カメラ
2 ユーザ端末(ユーザ端末装置)
3 撮影映像用ストレージ(映像蓄積部)
4 映像処理コンピュータ(映像処理部)
5 配信映像用ストレージ
6 映像配信サーバ(映像配信部)
31 通信部(送信部、受信部)
32 プロセッサ
34 映像表示部
35 操作入力部
本発明の映像配信システムは、イベント会場を撮影した撮影映像から配信映像を生成して、その配信映像を、ネットワークを介してユーザ端末装置に配信する映像配信システムであって、前記イベント会場の所定位置に設置され、前記イベント会場を所定方向から撮影するカメラと、前記カメラから出力される前記撮影映像を蓄積する映像蓄積部と、前記撮影映像から人物を検出して、その人物検出の結果に基づいて、対象人物および注目部位で特定される被写体に対する複数の視点にそれぞれ対応する領域を前記撮影映像から切り出して、前記視点が異なる複数の前記配信映像を生成する映像処理部と、ユーザが選択した前記対象人物および前記注目部位に関する情報を含む配信要求を、前記ユーザ端末装置から受信すると、前記配信要求に対応した前記配信映像を前記ユーザ端末装置に配信する映像配信部と、を備えた構成とする。
また、本発明のユーザ端末装置は、映像配信装置からネットワークを介して配信される配信映像を受信して、その配信映像を表示するユーザ端末装置であって、ユーザが、視聴を希望するイベント、および対象人物および注目部位で特定される被写体に対する視点を選択する操作を行う操作入力部と、ユーザが選択した前記イベントおよび前記視点に関する情報を含む配信要求を前記映像配信装置に送信する送信部と、前記映像配信装置から配信される前記配信要求に対応した前記配信映像を受信する受信部と、受信した前記配信映像の再生を制御して前記配信映像を映像表示部に表示するプロセッサと、を備えた構成とする。
また、本発明の映像配信方法は、イベント会場を撮影した撮影映像から配信映像を生成して、その配信映像を、ネットワークを介してユーザ端末装置に配信する処理を情報処理装置に行わせる映像配信方法であって、前記撮影映像から人物を検出して、その人物検出の結果に基づいて、対象人物および注目部位で特定される被写体に対する複数の視点にそれぞれ対応する領域を前記撮影映像から切り出して、前記視点が異なる複数の前記配信映像を生成し、ユーザが選択した前記対象人物および前記注目部位に関する情報を含む配信要求を、前記ユーザ端末装置から受信すると、前記配信要求に対応した前記配信映像を前記ユーザ端末装置に配信する構成とする。
本発明によれば、対象人物および注目部位で特定される被写体に対する複数の視点にそれぞれ対応する領域を撮影映像から切り出して、視点が異なる複数の配信映像を生成することで、多様化したユーザの要望に合致するような種々の映像を効率よく生成することができる。そして、ユーザが視点を選択することで、ユーザが自分の要望に合致する映像を観賞することができる。
前記課題を解決するためになされた第1の発明は、イベント会場を撮影した撮影映像から配信映像を生成して、その配信映像を、ネットワークを介してユーザ端末装置に配信する映像配信システムであって、前記イベント会場の所定位置に設置され、前記イベント会場を所定方向から撮影するカメラと、前記カメラから出力される前記撮影映像を蓄積する映像蓄積部と、前記撮影映像から人物を検出して、その人物検出の結果に基づいて、対象人物および注目部位で特定される被写体に対する複数の視点にそれぞれ対応する領域を前記撮影映像から切り出して、前記視点が異なる複数の前記配信映像を生成する映像処理部と、ユーザが選択した前記対象人物および前記注目部位に関する情報を含む配信要求を、前記ユーザ端末装置から受信すると、前記配信要求に対応した前記配信映像を前記ユーザ端末装置に配信する映像配信部と、を備えた構成とする。
これによると、対象人物および注目部位で特定される被写体に対する複数の視点にそれぞれ対応する領域を撮影映像から切り出して、視点が異なる複数の配信映像を生成することで、多様化したユーザの要望に合致するような種々の映像を効率よく生成することができる。そして、ユーザが視点を選択することで、ユーザが自分の要望に合致する映像を観賞することができる。
また、第2の発明は、前記カメラは、前記イベント会場の異なる位置に複数設置され、前記映像処理部は、複数の前記カメラごとの前記撮影映像から、前記視点としての撮影角度が異なる複数の前記配信映像を生成する構成とする。
また、第3の発明は、前記映像処理部は、前記撮影映像から切り出す領域の大きさを変更することで、見かけ上のズーム倍率が異なる複数の前記配信映像を生成する構成とする。
また、第4の発明は、前記注目部位は、人物の全身、顔、手および足、ならびに人物が演奏する楽器の少なくともいずれかである構成とする。
また、第5の発明は、前記映像配信部は、配信を開始する際に前記ユーザ端末装置から送信される第1の配信要求に応じて前記配信映像を配信中に、ユーザが選択した前記視点に関する情報を含む第2の配信要求を受信すると、その第2の配信要求に対応した前記配信映像の配信準備を開始し、その配信準備が完了すると、前記第2の配信要求に対応した前記配信映像の配信を開始する構成とする。
また、第6の発明は、映像配信装置からネットワークを介して配信される配信映像を受信して、その配信映像を表示するユーザ端末装置であって、ユーザが、視聴を希望するイベント、および対象人物および注目部位で特定される被写体に対する視点を選択する操作を行う操作入力部と、ユーザが選択した前記イベントおよび前記視点に関する情報を含む配信要求を前記映像配信装置に送信する送信部と、前記映像配信装置から配信される前記配信要求に対応した前記配信映像を受信する受信部と、受信した前記配信映像の再生を制御して前記配信映像を映像表示部に表示するプロセッサと、を備えた構成とする。
また、第7の発明は、イベント会場を撮影した撮影映像から配信映像を生成して、その配信映像を、ネットワークを介してユーザ端末装置に配信する処理を情報処理装置に行わせる映像配信方法であって、前記撮影映像から人物を検出して、その人物検出の結果に基づいて、対象人物および注目部位で特定される被写体に対する複数の視点にそれぞれ対応する領域を前記撮影映像から切り出して、前記視点が異なる複数の前記配信映像を生成し、ユーザが選択した前記対象人物および前記注目部位に関する情報を含む配信要求を、前記ユーザ端末装置から受信すると、前記配信要求に対応した前記配信映像を前記ユーザ端末装置に配信する構成とする。

Claims (9)

  1. イベント会場を撮影した撮影映像から配信映像を生成して、その配信映像を、ネットワークを介してユーザ端末装置に配信する映像配信システムであって、
    前記イベント会場の所定位置に設置され、前記イベント会場を所定方向から撮影するカメラと、
    前記カメラから出力される前記撮影映像を蓄積する映像蓄積部と、
    被写体に対する複数の視点にそれぞれ対応する領域を前記撮影映像から切り出して、前記視点が異なる複数の前記配信映像を生成する映像処理部と、
    ユーザが選択した前記視点に関する情報を含む配信要求を、前記ユーザ端末装置から受信すると、前記配信要求に対応した前記配信映像を前記ユーザ端末装置に配信する映像配信部と、
    を備えたことを特徴とする映像配信システム。
  2. 前記映像処理部は、前記撮影映像から人物を検出して、その人物検出の結果に基づいて、前記視点としての対象人物が異なる複数の前記配信映像を生成することを特徴とする請求項1に記載の映像配信システム。
  3. 前記カメラは、前記イベント会場の異なる位置に複数設置され、
    前記映像処理部は、複数の前記カメラごとの前記撮影映像から、前記視点としての撮影角度が異なる複数の前記配信映像を生成することを特徴とする請求項1または請求項2に記載の映像配信システム。
  4. 前記映像処理部は、前記撮影映像から切り出す領域の大きさを変更することで、見かけ上のズーム倍率が異なる複数の前記配信映像を生成することを特徴とする請求項1から請求項3のいずれかに記載の映像配信システム。
  5. 前記映像処理部は、前記視点としての被写体の注目部位が異なる複数の前記配信映像を生成することを特徴とする請求項1から請求項4のいずれかに記載の映像配信システム。
  6. 前記注目部位は、人物の全身、顔、手および足、ならびに人物が演奏する楽器の少なくともいずれかであることを特徴とする請求項5に記載の映像配信システム。
  7. 前記映像配信部は、配信を開始する際に前記ユーザ端末装置から送信される第1の配信要求に応じて前記配信映像を配信中に、ユーザが選択した前記視点に関する情報を含む第2の配信要求を受信すると、その第2の配信要求に対応した前記配信映像の配信準備を開始し、その配信準備が完了すると、前記第2の配信要求に対応した前記配信映像の配信を開始することを特徴とする請求項1から請求項6のいずれかに記載の映像配信システム。
  8. 映像配信装置からネットワークを介して配信される配信映像を受信して、その配信映像を表示するユーザ端末装置であって、
    ユーザが、視聴を希望するイベント、および被写体に対する視点を選択する操作を行う操作入力部と、
    ユーザが選択した前記イベントおよび前記視点に関する情報を含む配信要求を前記映像配信装置に送信する送信部と、
    前記映像配信装置から配信される前記配信要求に対応した前記配信映像を受信する受信部と、
    受信した前記配信映像の再生を制御して前記配信映像を映像表示部に表示するプロセッサと、
    を備えたことを特徴とするユーザ端末装置。
  9. イベント会場を撮影した撮影映像から配信映像を生成して、その配信映像を、ネットワークを介してユーザ端末装置に配信する処理を情報処理装置に行わせる映像配信方法であって、
    被写体に対する複数の視点にそれぞれ対応する領域を前記撮影映像から切り出して、前記視点が異なる複数の前記配信映像を生成し、
    ユーザが選択した前記視点に関する情報を含む配信要求を、前記ユーザ端末装置から受信すると、前記配信要求に対応した前記配信映像を前記ユーザ端末装置に配信することを特徴とする映像配信方法。
JP2017008318A 2017-01-20 2017-01-20 映像配信システム、ユーザ端末装置および映像配信方法 Active JP6241802B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017008318A JP6241802B1 (ja) 2017-01-20 2017-01-20 映像配信システム、ユーザ端末装置および映像配信方法
PCT/JP2017/045412 WO2018135210A1 (ja) 2017-01-20 2017-12-19 映像配信システム、ユーザ端末装置および映像配信方法
US16/478,608 US20200053395A1 (en) 2017-01-20 2017-12-19 Video distribution system, user terminal device, and video distribution method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017008318A JP6241802B1 (ja) 2017-01-20 2017-01-20 映像配信システム、ユーザ端末装置および映像配信方法

Publications (2)

Publication Number Publication Date
JP6241802B1 JP6241802B1 (ja) 2017-12-06
JP2018117312A true JP2018117312A (ja) 2018-07-26

Family

ID=60570455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017008318A Active JP6241802B1 (ja) 2017-01-20 2017-01-20 映像配信システム、ユーザ端末装置および映像配信方法

Country Status (3)

Country Link
US (1) US20200053395A1 (ja)
JP (1) JP6241802B1 (ja)
WO (1) WO2018135210A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020155949A (ja) * 2019-03-20 2020-09-24 京セラドキュメントソリューションズ株式会社 画像処理装置、画像処理方法、画像提供システム及び画像処理プログラム
JP7118379B1 (ja) 2021-02-19 2022-08-16 株式会社Gravitas 映像編集装置、映像編集方法、及びコンピュータプログラム
WO2023171120A1 (ja) * 2022-03-11 2023-09-14 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
WO2024122075A1 (ja) * 2022-12-09 2024-06-13 ラディウス株式会社 サーバ装置、表示装置及び制御プログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10868955B2 (en) 2017-09-05 2020-12-15 Facebook, Inc. Modifying capture of video data by an image capture device based on video data previously captured by the image capture device
CN116208791A (zh) * 2017-09-05 2023-06-02 元平台公司 一种计算机实现的方法及存储介质
US11521390B1 (en) 2018-04-30 2022-12-06 LiveLiveLive, Inc. Systems and methods for autodirecting a real-time transmission

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011182160A (ja) * 2010-03-01 2011-09-15 Canon Inc 映像処理装置及び映像処理方法
JP2015056711A (ja) * 2013-09-11 2015-03-23 日本電信電話株式会社 画像配信システム及び画像配信方法
JP2015225529A (ja) * 2014-05-28 2015-12-14 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
WO2016009864A1 (ja) * 2014-07-18 2016-01-21 ソニー株式会社 情報処理装置、表示装置、情報処理方法、プログラム、および情報処理システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011182160A (ja) * 2010-03-01 2011-09-15 Canon Inc 映像処理装置及び映像処理方法
JP2015056711A (ja) * 2013-09-11 2015-03-23 日本電信電話株式会社 画像配信システム及び画像配信方法
JP2015225529A (ja) * 2014-05-28 2015-12-14 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
WO2016009864A1 (ja) * 2014-07-18 2016-01-21 ソニー株式会社 情報処理装置、表示装置、情報処理方法、プログラム、および情報処理システム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020155949A (ja) * 2019-03-20 2020-09-24 京セラドキュメントソリューションズ株式会社 画像処理装置、画像処理方法、画像提供システム及び画像処理プログラム
JP7212862B2 (ja) 2019-03-20 2023-01-26 京セラドキュメントソリューションズ株式会社 画像処理装置、画像処理方法、画像提供システム及び画像処理プログラム
JP7118379B1 (ja) 2021-02-19 2022-08-16 株式会社Gravitas 映像編集装置、映像編集方法、及びコンピュータプログラム
WO2022176633A1 (ja) * 2021-02-19 2022-08-25 株式会社Gravitas 映像編集装置、映像編集方法、及びコンピュータプログラム
JP2022127469A (ja) * 2021-02-19 2022-08-31 株式会社Gravitas 映像編集装置、映像編集方法、及びコンピュータプログラム
US11942115B2 (en) 2021-02-19 2024-03-26 Genevis Inc. Video editing device, video editing method, and computer program
WO2023171120A1 (ja) * 2022-03-11 2023-09-14 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
WO2024122075A1 (ja) * 2022-12-09 2024-06-13 ラディウス株式会社 サーバ装置、表示装置及び制御プログラム
WO2024122068A1 (ja) * 2022-12-09 2024-06-13 ラディウス株式会社 サーバ装置、表示装置及び制御プログラム

Also Published As

Publication number Publication date
US20200053395A1 (en) 2020-02-13
JP6241802B1 (ja) 2017-12-06
WO2018135210A1 (ja) 2018-07-26

Similar Documents

Publication Publication Date Title
JP6241802B1 (ja) 映像配信システム、ユーザ端末装置および映像配信方法
JP3862315B2 (ja) 画像表示装置及びその制御方法
JP6171263B2 (ja) 遠隔会議システム及び遠隔会議端末
US7956891B2 (en) Camera control apparatus and method, and camera control system
KR101782282B1 (ko) 제어 장치, 카메라 시스템 및 카메라 제어를 행하는 제어 방법
JP2011205573A (ja) 制御装置、カメラシステム及びプログラム
JP7111288B2 (ja) ビデオ処理方法、装置および記憶媒体
JP2017085372A (ja) 通信システム、通信装置、通信方法およびプログラム
JP2019087974A (ja) 撮像装置、撮像方法、表示装置および表示方法
WO2014094537A1 (zh) 沉浸通信客户端、服务器及获取内容视图的方法
JP2021136683A (ja) 全景リアリティシミュレーションシステム及びその使用方法
JP4583717B2 (ja) 撮像装置及び方法、画像情報提供システム、プログラム、並びに制御装置
US20150281744A1 (en) Viewing system and method
JP2021086189A (ja) 情報処理装置、情報処理方法、映像処理システム、およびプログラム
US20240146863A1 (en) Information processing device, information processing program, and recording medium
CN114268823A (zh) 一种视频播放方法、装置、电子设备及存储介质
KR20190129592A (ko) 휴대 단말에서의 영상 제공 방법 및 그 장치
JP2023153790A (ja) プログラム
WO2022091464A1 (ja) 情報処理装置、情報処理方法、プログラム
JP5239826B2 (ja) 画像配信装置、画像配信システム、画像配信方法、およびプログラム
JP2019012533A (ja) 情報処理装置、情報処理方法及びプログラム
KR20150051048A (ko) 멀티앵글영상촬영을 위한 사용자인터페이스 메뉴 제공방법 및 사용자 인터페이스메뉴 제공장치
KR20180092411A (ko) 다원 방송 송출 방법 및 장치
CN112887620A (zh) 视频拍摄方法、装置及电子设备
JP2007104540A (ja) 撮影画像配信装置、撮影画像配信プログラム及び撮影画像配信方法

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171027

R151 Written notification of patent or utility model registration

Ref document number: 6241802

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151