JP2024050737A - 情報処理装置、情報処理装置の作動方法、及びプログラム - Google Patents

情報処理装置、情報処理装置の作動方法、及びプログラム Download PDF

Info

Publication number
JP2024050737A
JP2024050737A JP2024013176A JP2024013176A JP2024050737A JP 2024050737 A JP2024050737 A JP 2024050737A JP 2024013176 A JP2024013176 A JP 2024013176A JP 2024013176 A JP2024013176 A JP 2024013176A JP 2024050737 A JP2024050737 A JP 2024050737A
Authority
JP
Japan
Prior art keywords
image
imaging device
virtual viewpoint
imaging
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024013176A
Other languages
English (en)
Other versions
JP2024050737A5 (ja
Inventor
一紀 田村
貴嗣 青木
史憲 入江
真彦 宮田
泰規 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JP2024050737A publication Critical patent/JP2024050737A/ja
Publication of JP2024050737A5 publication Critical patent/JP2024050737A5/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image

Abstract

【課題】基準撮像装置によって撮像された画像と仮想視点画像との視野における差異を軽減する情報処理装置、その作動方法及びプログラムを提供する。【解決手段】情報処理装置12は、プロセッサ58と、プロセッサに接続又は内蔵されたメモリ60、62と、を備える。プロセッサは、基準撮像装置の位置、撮像方向及び画角に相当する基準撮像装置情報を取得し、複数の撮像装置によって撮像領域が撮像されることで得られた複数の画像に基づく仮想視点画像の生成を開始する指示が与えられたことを条件に、基準撮像装置情報を基準にして、仮想視点画像を生成する。【選択図】図3

Description

本開示の技術は、情報処理装置、情報処理装置の作動方法、及びプログラムに関する。
国際公開WO2018/021067には、仮想的な視点位置と視線方向とからなる仮想視点において撮影される仮想視点画像を、複数の視点位置および視線方向で撮影された複数の基準映像より生成する仮想視点画像生成部を含む画像処理装置が開示されている。
特開2019-036790号公報には、複数の異なる位置から撮像された被写体の画像群を取得する画像取得手段と、仮想視点の位置情報を取得する視点取得手段と、解像度設定の基準となる基準点と仮想視点との間の距離に応じて被写体形状データの解像度を設定する設定手段と、解像度に応じた被写体形状データと、被写体の画像群とを用いて、仮想視点からの被写体の仮想視点画像を生成する生成手段と、を備えることを特徴とする画像生成装置が開示されている。
本開示の技術に係る一つの実施形態は、基準撮像装置によって撮像された画像と仮想視点画像との視野における差異を軽減することができる情報処理装置、情報処理装置の作動方法、及びプログラムを提供する。
本開示の技術に係る第1の態様は、プロセッサと、プロセッサに接続又は内蔵されたメモリと、を備える情報処理装置であって、プロセッサが、基準撮像装置の位置、撮像方向、及び画角に相当する基準撮像装置情報を取得し、複数の撮像装置によって撮像領域が撮像されることで得られた複数の画像に基づく仮想視点画像の生成を開始する指示が与えられたことを条件に、基準撮像装置情報を基準にして、仮想視点画像を生成する情報処理装置である。
本開示の技術に係る第2の態様は、基準撮像装置情報が送信装置によって継続的に送信される場合、プロセッサが、指示が与えられたことを条件に、送信装置から送信された基準撮像装置情報を基準にして、仮想視点画像を生成する、第1の態様に係る情報処理装置である。
本開示の技術に係る第3の態様は、プロセッサが、基準撮像装置情報を取得する度に、基準撮像装置情報を更新する、第1の態様又は第2の態様に係る情報処理装置である。
本開示の技術に係る第4の態様は、プロセッサが、基準撮像装置によって撮像領域が撮像されることで得られた第1基準画像の画質を示す画質情報を取得し、指示が与えられたことを条件に、画質情報に基づいて、仮想視点画像の画質を定める、第1の態様から第3の態様のうちの何れか一つの態様に係る情報処理装置である。
本開示の技術に係る第5の態様は、プロセッサが、指示が与えられたことを条件に、基準撮像装置によって撮像領域が撮像されることで得られた第2基準画像に仮想視点画像を重ねた重畳画像を出力する、第1の態様から第4の態様のうちの何れか一つの態様に係る情報処理装置である。
本開示の技術に係る第6の態様は、プロセッサが、重畳画像において、第2基準画像と仮想視点画像との割合を徐々に変化させる、第5の態様に係る情報処理装置である。
本開示の技術に係る第7の態様は、プロセッサが、仮想視点画像をディスプレイに出力し、出力した仮想視点画像における視点位置、視線方向、及び画角のうちの少なくとも1つを連続的に変化させる変更信号を受け付ける、第1の態様から第6の態様のうちの何れか一つの態様に係る情報処理装置である。
本開示の技術に係る第8の態様は、基準撮像装置が、位置、撮像方向、及び画角のうちの少なくとも1つを変更可能な撮像装置である、第1の態様から第7の態様のうちの何れか一つの態様に係る情報処理装置である。
本開示の技術に係る第9の態様は、プロセッサが、基準撮像装置によって撮像領域が撮像されることで得られた第3基準画像に基づいて、基準撮像装置情報を取得する、第1の態様から第8の態様のうちの何れか一つの態様に係る情報処理装置である。
本開示の技術に係る第10の態様は、基準撮像装置情報が、基準撮像装置の位置、撮像方向、及び画角である、第1の態様から第9の態様のうちの何れか一つの態様に係る情報処理装置である。
本開示の技術に係る第11の態様は、基準撮像装置が、複数の撮像装置のうちの1つである、第1の態様から第10の態様のうちの何れか一つの態様に係る情報処理装置である。
本開示の技術に係る第12の態様は、基準撮像装置が、複数の撮像装置の間で切り替え可能である、第11の態様に係る情報処理装置である。
本開示の技術に係る第13の態様は、プロセッサが、基準撮像装置によって撮像領域が撮像されることで得られた第4基準画像を出力し、基準撮像装置情報を取得し、指示が与えられたことを条件に、基準撮像装置情報を基準にして、第4基準画像に対応する仮想視点画像を生成する、第1の態様から第12の態様のうちの何れか一つの態様に係る情報処理装置である。
本開示の技術に係る第14の態様は、プロセッサと、プロセッサに接続又は内蔵されたメモリと、を備える情報処理装置の作動方法であって、基準撮像装置の位置、撮像方向、及び画角に相当する基準撮像装置情報を取得し、複数の撮像装置によって撮像領域が撮像されることによって得られた複数の画像に基づく仮想視点画像の生成を開始する指示が与えられたことを条件に、基準撮像装置情報を基準にして、仮想視点画像を生成することを含む、情報処理装置の作動方法である。
本開示の技術に係る第15の態様は、プロセッサと、プロセッサに接続又は内蔵されたメモリと、を備える情報処理装置に対して適用されるコンピュータに、基準撮像装置の位置、撮像方向、及び画角に相当する基準撮像装置情報を取得し、複数の撮像装置によって撮像領域が撮像されることによって得られた複数の画像に基づく仮想視点画像の生成を開始する指示が与えられたことを条件に、基準撮像装置情報を基準にして、仮想視点画像を生成することを含む処理を実行させるためのプログラムである。
情報処理システムの外観構成の一例を示す概略斜視図である。 情報処理システムに含まれる情報処理装置、スマートデバイス、受像機、無人航空機、及び撮像装置の関係の一例を示す概念図である。 情報処理装置の電気系のハードウェア構成の一例、及び情報処理装置と周辺機器との関係性の一例を示すブロック図である。 スマートデバイスの電気系のハードウェア構成の一例を示すブロック図である。 情報処理装置の要部機能の一例を示すブロック図である。 基準映像生成処理の内容の一例を説明するブロック図である。 仮想視点映像生成処理の内容の一例を説明するブロック図である。 スマートデバイスの表示を基準映像から仮想視点映像へ切り替えた場合に生じる表示変化の一例の説明に供する概念図である。 スマートデバイスの表示を仮想視点映像へ切り替えた後に生じる表示変化の一例の説明に供する概念図である。 仮想視点映像の表示中にユーザから発せられる変更指示の内容と、変更指示を受けて行われる変更処理内容の一例の説明に供する概念図である。 視点位置変更指示の指示方法と、視点位置変更処理の一例の説明に供する概念図である。 視点位置変更処理における仮想撮像装置のカメラパスの一例の説明に供する概念図である。 視点位置変更指示及び視線方向変更指示の指示方法と、視点位置変更処理及び視線方向変更処理の一例の説明に供する概念図である。 視点位置変更処理及び視線方向変更処理における仮想撮像装置のカメラパスの一例の説明に供する概念図である。 画角変更指示の指示方法と、画角変更処理の一例の説明に供する概念図である。 画角変更指示の指示方法と、画角変更処理の別の一例の説明に供する概念図である。 基準映像生成部によって行われる基準映像生成処理の流れの一例を示すフローチャートである。 仮想視点映像生成部によって行われる仮想視点映像生成処理の流れの一例を示すフローチャートである。 制御部によって行われる映像配信処理の流れの一例を示すフローチャートである。 情報処理装置側プログラムが記憶されている記憶媒体から情報処理装置のコンピュータに情報処理装置側プログラムがインストールされる態様の一例を示すブロック図である。
添付図面に従って本開示の技術に係る実施形態の一例について説明する。
先ず、以下の説明で使用される文言について説明する。
CPUとは、“Central Processing Unit”の略称を指す。RAMとは、“Random Access Memory”の略称を指す。DRAMとは、“Dynamic Random Access Memory”の略称を指す。SRAMとは、“Static Random Access Memory”の略称を指す。ROMとは、“Read Only Memory”の略称を指す。SSDとは、“Solid State Drive”の略称を指す。HDDとは、“Hard Disk Drive”の略称を指す。EEPROMとは、“Electrically Erasable and Programmable Read Only Memory”の略称を指す。I/Fとは、“Interface”の略称を指す。ICとは、“Integrated Circuit”の略称を指す。ASICとは、“Application Specific Integrated Circuit”の略称を指す。PLDとは、“Programmable Logic Device”の略称を指す。FPGAとは、“Field-Programmable Gate Array”の略称を指す。SoCとは、“System-on-a-chip”の略称を指す。CMOSとは、“Complementary Metal Oxide Semiconductor”の略称を指す。CCDとは、“Charge Coupled Device”の略称を指す。ELとは、“Electro-Luminescence”の略称を指す。GPUとは、“Graphics Processing Unit”の略称を指す。LANとは、“Local Area Network”の略称を指す。3Dとは、“3 Dimension”の略称を指す。“HMD”とは、“Head Mounted Display”の略称を指す。USBとは、“Universal Serial Bus”の略称を指す。fpsとは、“frame per second”の略称を指す。LTEとは、“Long Term Evolution”の略称を指す。5Gとは、“5th generation (wireless technology for digital cellular networks)”の略称を指す。TDMとは“Time-Division Multiplexing”の略称を指す。
本明細書の説明において、「一致」の意味には、完全な一致の意味の他に、設計上及び製造上において許容される誤差を含む略一致の意味も含まれる。本明細書の説明において、「同一」の意味には、完全な同一の意味の他に、設計上及び製造上において許容される誤差を含む略同一の意味も含まれる。本明細書の説明において、「直線的」の意味には、完全な直線の意味の他に、設計上及び製造上において許容される誤差を含む略直線の意味も含まれる。また、本明細書の説明において、「曲線的」の意味には、完全な曲線の意味の他に、設計上及び製造上において許容される誤差を含む略曲線の意味も含まれる。
一例として図1に示すように、情報処理システム10は、情報処理装置12、スマートデバイス14、複数の撮像装置16、撮像装置18、無線通信基地局(以下、単に「基地局」と称する)20、及び受像機34を備えている。なお、ここで、「スマートデバイス14」とは、例えば、スマートフォンタブレット端末、スマートウォッチ(時計型多機能端末)、およびHMD型多機能端末等の携帯型の多機能端末を指す。ここで、情報処理装置12は、本開示の技術に係る「情報処理装置」の一例である。複数の撮像装置16及び撮像装置18は、本開示の技術に係る「複数の撮像装置」の一例である。なお、ここでは、受像機34を例示しているが、本開示の技術はこれに限定されず、ディスプレイ付きの電子機器(例えば、スマートデバイス)であってもよい。また、基地局20は1ヵ所に限らず複数存在していてもよい。さらに、基地局で使用する通信規格には、LTE規格等を含む無線通信規格と、WiFi(802.11)規格及び/又はBluetooth(登録商標)規格を含む無線通信規格と、TDM規格及び/又はイーサネット(登録商標)規格を含む有線通信規格が含まれる。
撮像装置16及び18は、CMOSイメージセンサを有する撮像用のデバイスであり、光学式ズーム機能及び/又はデジタルズーム機能が搭載されている。なお、CMOSイメージセンサに代えてCCDイメージセンサ等の他種類のイメージセンサを採用してもよい。以下では、説明の便宜上、撮像装置18及び複数の撮像装置16を区別して説明する必要がない場合、符号を付さずに「複数の撮像装置」と称する。
複数の撮像装置16は、サッカー競技場22内に設置されている。複数の撮像装置16の各々は、サッカーフィールド24を取り囲むように配置されており、サッカーフィールド24を含む領域を撮像領域として撮像する。ここで、サッカーフィールド24を含む領域は、本開示の技術に係る「撮像領域」の一例である。ここでは、複数の撮像装置16の各々がサッカーフィールド24を取り囲むように配置されている形態例を挙げているが、本開示の技術はこれに限定されず、複数の撮像装置16の配置は、視聴者28等によって生成されることが要求された仮想視点映像に応じて決定される。サッカーフィールド24の全部を取り囲むように複数の撮像装置16を配置してもよいし、特定の一部を取り囲むように複数の撮像装置16を配置してもよい。撮像装置18は、無人航空機(例えば、マルチ回転翼型無人航空機)に設置されており、サッカーフィールド24を含む領域を撮像領域として上空から俯瞰した状態で撮像する。サッカーフィールド24を含む領域を上空から俯瞰した状態の撮像領域とは、サッカーフィールド24に対する撮像装置18による撮像面を指す。
情報処理装置12は、管制室32に設置されている。複数の撮像装置16及び情報処理装置12は、LANケーブル30を介して接続されており、情報処理装置12は、複数の撮像装置16を制御し、かつ、複数の撮像装置16の各々によって撮像されることで得られた画像を取得する。なお、ここでは、LANケーブル30による有線通信方式を用いた接続を例示しているが、これに限らず、無線通信方式を用いた接続であってもよい。
サッカー競技場22には、サッカーフィールド24を取り囲むように観戦席26が設けられており、観戦席26には視聴者28が着座している。視聴者28は、スマートデバイス14を所持しており、スマートデバイス14は、視聴者28によって用いられる。なお、ここでは、サッカー競技場22内に視聴者28が存在している形態例を挙げて説明しているが、本開示の技術はこれに限定されず、視聴者28は、サッカー競技場22外に存在していてもよい。
基地局20は、情報処理装置12及び無人航空機27と電波を介して各種情報の送受信を行う。すなわち、情報処理装置12は、基地局20を介して、無人航空機27と無線通信可能に接続されている。情報処理装置12は、基地局20を介して無人航空機27と無線通信を行うことにより、無人航空機27を制御したり、撮像装置18によって撮像されることで得られた画像を無人航空機27から取得したりする。
基地局20は、受像機34に対して無線通信を介して各種情報を送信する。情報処理装置12は、基地局20を介して、各種映像を受像機34に送信し、受像機34は、情報処理装置12から送信された各種映像を受信し、受信した各種映像を画面34Aに表示する。なお、受像機34は、例えば、不特定多数の観戦者等の視聴に使用される。受像機34の設置箇所は、サッカー競技場22内であってもよいし、サッカー競技場22外(例えば、パブリックビューイング会場)等であってもよい。なお、ここでは、受像機34に対して無線通信を介して各種情報を送信する形態例を挙げているが、本開示の技術はこれに限定されず、例えば、受像機34に対して有線通信を介して各種情報を送信する形態であってもよい。
情報処理装置12はサーバに相当するデバイスであり、スマートデバイス14は、情報処理装置12に対するクライアント端末に相当するデバイスである。情報処理装置12及びスマートデバイス14が、基地局20を介して互いに無線通信を行うことにより、スマートデバイス14は、情報処理装置12に対して各種サービスの提供を要求し、情報処理装置12は、スマートデバイス14からの要求に応じたサービスをスマートデバイス14に提供する。
一例として図2に示すように、情報処理装置12は、上空から観察した場合のサッカーフィールド24を含む領域を示す俯瞰映像46Aを無人航空機27から取得する。俯瞰映像46Aは、サッカーフィールド24を含む領域が撮像領域(以下、単に「撮像領域」とも称する)として上空から俯瞰した状態で無人航空機27の撮像装置18によって撮像されることで得られた動画像である。なお、ここでは、俯瞰映像46Aが動画像である場合を例示しているが、俯瞰映像46Aは、これに限らず、上空から観察した場合のサッカーフィールド24を含む領域を示す静止画像であってもよい。
情報処理装置12は、複数の撮像装置16の各々の位置から観察した場合の撮像領域を示す撮像映像46Bを複数の撮像装置16の各々から取得する。撮像映像46Bは、撮像領域が複数の撮像装置16の各々によって撮像されることで得られた動画像である。なお、ここでは、撮像映像46Bが動画像である場合を例示しているが、撮像映像46Bは、これに限らず、複数の撮像装置16の各々の位置から観察した場合の撮像領域を示す静止画像であってもよい。ここで、俯瞰映像46A及び撮像映像46Bは、本開示の技術に係る「複数の画像」の一例である。以下では、説明の便宜上、俯瞰映像46A及び複数の撮像映像46Bを区別して説明する必要がない場合、符号を付さずに「複数の原映像」と称する。
情報処理装置12は、複数の原映像に基づいて仮想視点映像46Cを生成する。仮想視点映像46Cは、特定の視点位置及び特定の視線方向から撮像領域を観察した場合の撮像領域を示す映像である。図2に示す例において、仮想視点映像46Cとは、例えば、観戦席26内の視点位置42及び視線方向44から画角43でサッカーフィールド24を観察した場合の撮像領域を示す仮想視点映像を指す。仮想視点映像46Cの一例としては、3Dポリゴンを用いた動画像が挙げられる。視点位置42、視線方向44、及び画角43は固定されていない。つまり、視点位置42、視線方向44、及び画角43は、視聴者28等からの指示に応じて変動する。ここでは、視点位置42、視線方向44、及び画角43が固定されていない形態例を挙げて説明しているが、本開示の技術はこれに限定されず、視点位置42、視線方向44、及び画角43は固定されていてもよい。
情報処理装置12は、複数の撮像装置によって撮像領域が撮像されることで得られた複数の画像(ここでは、一例として、俯瞰映像46Aを構成する俯瞰画像及び複数の撮像映像46Bを構成する複数の撮像画像(以下では、説明の便宜上、俯瞰画像と複数の撮像画像を区別して説明する必要がない場合、符号を付さずに「複数の原画像」と称する。))を合成することにより、3Dポリゴンを用いた動画像を生成する。情報処理装置12は、生成した3Dポリゴンを用いた動画像に基づき、任意の位置及び任意の方向から撮像領域が観察された場合に相当する仮想視点映像を生成する。本実施形態では、情報処理装置12は、視点位置42、視線方向44、及び画角43で被写体を観察した場合の被写体を示す仮想視点映像46Cを生成する。換言すると、仮想視点映像46Cとは、視点位置42に設置された仮想的な撮像装置(以下、「仮想撮像装置」とも称する)が視線方向44を撮像方向として画角43で撮像することで得た映像に相当する映像を指す。ここでは、仮想視点映像46Cとして動画像を例示しているが、これに限らず、静止画像であってもよい。なお、視点位置42は、本開示の技術に係る「視点位置」の一例である。視線方向44は、本開示の技術に係る「視線方向」の一例であり、画角43は、本開示の技術に係る「画角」の一例である。また、仮想視点映像46Cは、本開示の技術に係る「仮想視点画像」の一例である。
また、ここでは、撮像装置18によって撮像されることで得られた俯瞰映像46Aも生成に使用される形態例を示しているが、本開示の技術はこれに限定されない。例えば、俯瞰映像46Aが仮想視点映像46Cの生成に使用されずに、複数の撮像装置16の各々によって撮像されることで得られた複数の撮像映像46Bのみが仮想視点映像46Cの生成に使用されるようにしてもよい。すなわち、撮像装置18から得られる映像を使用せずに、複数の撮像装置16によって撮像されることで得られた映像のみから仮想視点映像46Cが生成されるようにしてもよい。なお、撮像装置18(例えば、ドローン)から得られる映像を使用すれば、より高精度な仮想視点映像の生成が可能となる。
情報処理装置12は、配信映像として後述の基準映像46D(例えば、図6及び図7参照)及び仮想視点映像46Cを選択的にスマートデバイス14及び受像機34に送信する。なお、以下では、説明の便宜上、基準映像46D及び仮想視点映像46Cを区別して説明する必要がない場合、「配信映像」とも称する。
一例として図3に示すように、情報処理装置12は、コンピュータ50、受付デバイス52、ディスプレイ53、第1通信I/F54、および第2通信I/F56を備えている。コンピュータ50は、CPU58、ストレージ60、及びメモリ62を備えており、CPU58、ストレージ60、及びメモリ62は、バス64を介して接続されている。図3に示す例では、図示の都合上、バス64として1本のバスが図示されているが、複数のバスであってもよい。また、バス64には、シリアルバス、又は、データバス、アドレスバス、及びコントロールバス等で構成されるパラレルバスが含まれていてもよい。また、メモリ62はCPU58に内蔵されていてもよい。CPU58は、本開示の技術に係る「プロセッサ」の一例であり、ストレージ60及びメモリ62は、本開示の技術に係る「メモリ」の一例である。
CPU58は、情報処理装置12の全体を制御する。ストレージ60は、各種パラメータ及び各種プログラムを記憶している。ストレージ60は、不揮発性の記憶装置である。ここでは、ストレージ60の一例として、フラッシュメモリが採用されているが、これに限らず、EEPROM、HDD、又はSSD等であってもよい。メモリ62は、記憶装置である。メモリ62には、各種情報が一時的に記憶される。メモリ62は、CPU58によってワークメモリとして用いられる。ここでは、メモリ62の一例として、DRAMが採用されているが、これに限らず、他の種類の記憶装置であってもよい。
受付デバイス52は、情報処理装置12の使用者等からの指示を受け付ける。受付デバイス52の一例としては、タッチパネル、ハードキー、及びマウス等が挙げられる。受付デバイス52は、バス64等に接続されており、受付デバイス52によって受け付けられた指示は、CPU58によって取得される。
ディスプレイ53は、バス64に接続されており、CPU58の制御下で、各種情報を表示する。ディスプレイ53の一例としては、液晶ディスプレイが挙げられる。なお、液晶ディプレイに限らず、有機ELディスプレイ等の他の種類のディスプレイがディスプレイ53として採用されてもよい。
第1通信I/F54は、LANケーブル30に接続されている。第1通信I/F54は、例えば、FPGAを有するデバイスによって実現される。第1通信I/F54は、バス64に接続されており、CPU58と複数の撮像装置16との間で各種情報の授受を制御する。例えば、第1通信I/F54は、CPU58の要求に従って複数の撮像装置16を制御する。また、第1通信I/F54は、複数の撮像装置16の各々によって撮像されることで得られた撮像映像46B(図2参照)を取得し、取得した撮像映像46BをCPU58に出力する。なお、ここでは、第1通信I/F54は有線通信I/Fとして例示されているが、高速無線LAN等の無線通信I/Fであってもよい。
第2通信I/F56は、基地局20に対して無線通信可能に接続されている。第2通信I/F56は、例えば、FPGAを有するデバイスによって実現される。第2通信I/F56は、バス64に接続されている。第2通信I/F56は、基地局20を介して、無線通信方式で、CPU58と無人航空機27との間で各種情報の授受を制御する。また、第2通信I/F56は、基地局20を介して、無線通信方式で、CPU58とスマートデバイス14との間で各種情報の授受を制御する。また、第2通信I/F56は、基地局20を介して、無線通信方式で、CPU58による受像機34に対する各種映像の送信を制御する。なお、第1通信I/F54及び第2通信I/F56の少なくとも一方は、FPGAの代わりに固定回路で構成することも可能である。また、第1通信I/F54及び第2通信I/F56の少なくとも一方は、ASIC、FPGA、及び/又はPLD等で構成された回路であってもよい。
一例として図4に示すように、スマートデバイス14は、コンピュータ70、ジャイロセンサ74、受付デバイス76、ディスプレイ78、マイクロフォン80、スピーカ82、撮像装置84、及び通信I/F86を備えている。コンピュータ70は、CPU88、ストレージ90、及びメモリ92を備えており、CPU88、ストレージ90、及びメモリ92は、バス94を介して接続されている。図4に示す例では、図示の都合上、バス94として1本のバスが図示されているが、バス94は、複数本のバスであってもよい。バス94は、シリアルバスであってもよいし、データバス、アドレスバス、及びコントロールバス等を含むパラレルバスであってもよい。
CPU88は、スマートデバイス14の全体を制御する。ストレージ90は、各種パラメータ及び各種プログラムを記憶している。ストレージ90は、不揮発性の記憶装置である。ここでは、ストレージ90の一例として、フラッシュメモリが採用されている。フラッシュメモリはあくまでも一例に過ぎず、ストレージ90としては、例えば、フラッシュメモリに代えて、又は、フラッシュメモリと併せて、磁気抵抗メモリ及び/又は強誘電体メモリなどの各種の不揮発性メモリが挙げられる。また、不揮発性の記憶装置は、EEPROM、HDD、及び/又はSSD等であってもよい。メモリ92は、各種情報を一時的に記憶し、CPU88によってワークメモリとして用いられる。メモリ92の一例としては、RAMが挙げられるが、これに限らず、他の種類の記憶装置であってもよい。
ジャイロセンサ74は、スマートデバイス14のヨー軸周りの角度(以下、「ヨー角」とも称する)、スマートデバイス14のロール軸周りの角度(以下、「ロール角」とも称する)、及びスマートデバイス14のピッチ軸周りの角度(以下、「ピッチ角」とも称する)を測定する。ジャイロセンサ74は、バス94に接続されており、ジャイロセンサ74によって測定されたヨー角、ロール角、及びピッチ角を示す角度情報は、バス94等を介してCPU88によって取得される。
受付デバイス76は、スマートデバイス14の使用者等(ここでは、一例として、視聴者28)からの指示を受け付ける。受付デバイス76の一例としては、タッチパネル76A及びハードキー等が挙げられる。受付デバイス76は、バス94に接続されており、受付デバイス76によって受け付けられた指示は、CPU88によって取得される。
ディスプレイ78は、バス94に接続されており、CPU88の制御下で、各種情報を表示する。ディスプレイ78の一例としては、液晶ディスプレイが挙げられる。なお、液晶ディプレイに限らず、有機ELディスプレイ等の他の種類のディスプレイがディスプレイ78として採用されてもよい。
スマートデバイス14は、タッチパネル・ディスプレイを備えており、タッチパネル・ディスプレイは、タッチパネル76A及びディスプレイ78によって実現される。すなわち、ディスプレイ78の表示領域に対してタッチパネル76Aを重ね合わせることによって、あるいはディスプレイ78の内部にタッチパネル機能を内蔵(「インセル」型)することでタッチパネル・ディスプレイが形成される。
マイクロフォン80は、収集した音を電気信号に変換する。マイクロフォン80は、バス94に接続されている。マイクロフォン80によって収集された音が変換されて得られた電気信号は、バス94を介してCPU88によって取得される。
スピーカ82は、電気信号を音に変換する。スピーカ82は、バス94に接続されている。スピーカ82は、CPU88から出力された電気信号を、バス94を介して受信し、受信した電気信号を音に変換し、電気信号を変換して得た音をスマートデバイス14の外部に出力する。
撮像装置84は、被写体を撮像することで、被写体を示す画像を取得する。撮像装置84は、バス94に接続されている。撮像装置84によって被写体が撮像されることで得られた画像は、バス94を介してCPU88によって取得される。
通信I/F86は、基地局20に対して無線通信可能に接続されている。通信I/F86は、例えば、回路(例えば、ASIC、FPGA、及び/又はPLD等)で構成されたデバイスによって実現される。通信I/F86は、バス94に接続されている。通信I/F86は、基地局20を介して、無線通信方式で、CPU88と外部装置との間で各種情報の授受を制御する。ここで、「外部装置」としては、例えば、情報処理装置12が挙げられる。
一例として図5に示すように、情報処理装置12において、ストレージ60には、基準映像生成処理プログラム60A、仮想視点映像生成処理プログラム60B、及び映像配信処理プログラム60Cが記憶されている。仮想視点映像生成処理プログラム60Bは、本開示の技術に係る「プログラム」の一例である。なお、以下では、基準映像生成処理プログラム60A、仮想視点映像生成処理プログラム60B、及び映像配信処理プログラム60Cを区別して説明する必要がない場合、符号を付さずに「情報処理装置側プログラム」と称する。
CPU58は、ストレージ60から情報処理装置側プログラムを読み出し、読み出した情報処理装置側プログラムをメモリ62上で実行する。CPU58は、メモリ62上で実行する情報処理装置側プログラムに従って、スマートデバイス14、撮像装置16、及び無人航空機27との間で各種情報の授受を行い、かつ、受像機34に対する各種映像の送信を行う。
CPU58は、ストレージ60から基準映像生成処理プログラム60Aを読み出し、読み出した基準映像生成処理プログラム60Aをメモリ62上で実行する。CPU58は、メモリ62上で実行する基準映像生成処理プログラム60Aに従って制御部100及び基準映像生成部102として動作する。CPU58は、制御部100及び基準映像生成部102として動作することで、後述の基準映像生成処理(図17参照)を実行する。
CPU58は、ストレージ60から仮想視点映像生成処理プログラム60Bを読み出し、読み出した仮想視点映像生成処理プログラム60Bをメモリ62上で実行する。CPU58は、メモリ62上で実行する仮想視点映像生成処理プログラム60Bに従って制御部100及び仮想視点映像生成部104として動作することで、後述の仮想視点映像生成処理(図18参照)を実行する。
CPU58は、ストレージ60から映像配信処理プログラム60Cを読み出し、読み出した映像配信処理プログラム60Cをメモリ62上で実行する。CPU58は、メモリ62上で実行する映像配信処理プログラム60Cに従って制御部100として動作する。CPU58は、制御部100として動作することで、後述の映像配信処理(図19参照)を実行する。
基準映像生成処理の内容の一例について、図6を参照して説明する。複数の撮像装置によって撮像されることで得られた複数の原映像は、情報処理装置12のメモリ62に記憶される。複数の原映像の各々は、予め定められたフレームレート(例えば、30fps)で撮像されることで得られた動画像であり、複数フレームの静止画像から成る。メモリ62には、複数の原映像の各々について、予め定められたフレーム数(例えば、数千フレーム)の静止画像を記憶する領域が設けられており、古い静止画像は新たに取得された静止画像で上書きされる。これにより、メモリ62には、予め定められた時間分の複数の原映像が記憶される。
基準映像生成処理において、情報処理装置12では、受付デバイス52によって映像制作者(図示省略)からの指示が受け付けられ、受け付けられた指示に従って受付デバイス52によって基準撮像装置識別子35が出力される。基準撮像装置識別子35とは、複数の撮像装置のうちの1つを特定する識別子である。
具体的には、ディスプレイ53に複数の原映像が並べて表示されている状態で、映像制作者によって複数の原映像から1つの映像がタッチパネルを介して指定される。すると、指定された撮像映像46B又は俯瞰映像46Aを撮像した撮像装置16又は18に関連付けられた識別子が、基準撮像装置識別子35として受付デバイス52から出力される。以下では、説明の便宜上、指定された撮像映像46Bを得るための撮像に用いられた撮像装置16、又は指定された俯瞰映像46Aを得るための撮像に用いられた撮像装置18を、基準撮像装置17と称する。つまり、基準撮像装置17は、複数の撮像装置のうちの1つである。なお、ここで、基準撮像装置17は、本開示の技術に係る「基準撮像装置」の一例である。
基準撮像装置17の位置、撮像方向、及び画角は変更可能である。また、基準撮像装置17は、複数の撮像装置の間で切り替え可能である。なお、ここでは、基準撮像装置17の位置、撮像方向、及び画角が変更可能である場合を例示しているが、本開示の技術はこれに限定されず、基準撮像装置17の位置、撮像方向、及び画角の何れか1つ又は何れか2つが変更可能であってもよい。また、ここでは、複数の撮像装置のうちの1つが基準撮像装置17として指定される場合を例示しているが、これに限らず、複数の撮像装置とは別の撮像装置が基準撮像装置17として指定されてもよい。この場合、基準撮像装置17として指定される撮像装置は、カメラマンによって位置、撮像方向、及び画角を操作される可動型のビデオカメラ(例えば、テレビ中継用のカメラ)であってもよい。
図6に示す例では、複数の撮像装置16のうちの1つが基準撮像装置17として指定されている。基準映像生成部102は、基準撮像装置17によってサッカーフィールド24が撮像されることで得られた撮像映像46Bをメモリ62から読み出し、読み出した撮像映像46Bに試合状況を示す情報(例えば、得点、選手情報、及び/又は試合の残り時間)を重畳することで基準映像46Dを生成する。ここで、「基準映像46D」とは、例えば、生中継映像である。基準映像46Dは、本開示の技術に係る「第1基準画像」、「第2基準画像」、「第3基準画像」、及び「第4基準画像」の一例である。
なお、ここでは、基準撮像装置識別子35により指定された撮像装置16によって撮像されることで得られた撮像映像46Bに基づいて基準映像46Dが生成されているが、撮像映像46Bそのものが基準映像46Dとして採用されてもよい。また、撮像装置16の代わりに、撮像装置18が基準撮像装置17として指定されてもよい。この場合、俯瞰映像46Aに基づいて基準映像生成部102によって基準映像46Dが生成される。
基準映像生成部102は、生成した基準映像46Dをメモリ62に記憶する。ここで、基準映像46Dは、予め定められたフレームレート(例えば、30fps)で表示可能な動画像である。制御部100は、基準映像46Dをメモリから読み出し、第2通信I/F56及び基地局20を介して受像機34に出力する。また、制御部100は、後述する仮想視点映像生成指示107(図7及び図8参照)を受け付けていない場合に、スマートデバイス14にも基準映像46Dを出力する。この場合、ディスプレイ78(図8参照)には基準映像46Dが表示される。
次に、仮想視点映像生成処理の内容の一例について、図7を参照して説明する。スマートデバイス14のタッチパネル76Aは、視聴者28から仮想視点映像生成指示107(図8参照)を受け付ける。制御部100は、タッチパネル76Aによって受け付けられた仮想視点映像生成指示107を取得する。仮想視点映像生成指示107は、例えば、スマートデバイス14のディスプレイ78上で基準映像46Dを視聴している視聴者28によって、ディスプレイ78に表示された指示ボタン106(図8参照)がタッチパネル76Aを介してオンされる。なお、仮想視点映像生成指示107は、本開示の技術に係る「指示」の一例である。
仮想視点映像生成指示107は、複数の撮像装置によってサッカーフィールド24が撮像されることで得られた複数の原映像に基づく仮想視点映像46Cの生成を開始する指示である。例えば、仮想視点映像生成指示107は、情報処理装置12に対して、仮想視点映像46Cの生成を開始させ、かつ、生成された仮想視点映像46Cをディスプレイ78に表示させることを指示する場合に、視聴者28によってスマートデバイス14に対して与えられる。
制御部100は、基準撮像装置情報46Eを取得する。基準撮像装置情報46Eは、基準撮像装置17の位置、撮像方向、及び画角である。ここでは、基準撮像装置情報46Eとして、基準撮像装置17の位置、撮像方向、及び画角を例示しているが、本開示の技術はこれに限らず、基準撮像装置17の位置に近接した位置、基準撮像装置17の撮像方向に近接した方向、及び基準撮像装置17の画角に近接した画角であってもよく、基準撮像装置17の位置、撮像方向、及び画角に相当する情報であればよい。
複数の撮像装置は、それぞれ、サッカーフィールド24における自らの位置、撮像方向、及び画角に相当する撮像装置情報を継続的に送信している。制御部100は、複数の撮像装置によって送信された撮像装置情報を受け付け、メモリ62に記憶する。さらに、制御部100は、複数の撮像装置の中から指定された基準撮像装置17によって送信された撮像装置情報を、基準撮像装置情報46Eとして、メモリ62から読み出すことにより取得する。なお、基準撮像装置情報46Eは、本開示の技術に係る「基準撮像装置情報」の一例である。また、基準撮像装置17は、本開示の技術に係る「送信装置」の一例である。また、ここで、「撮像装置情報を継続的に送信する」とは、撮像装置情報が複数回送信されることを意味する。撮像装置情報の送信間隔は一定であってもよいし、一定でなくてもよい。
制御部100は、抽出部108を作動させる。抽出部108は、メモリ62から基準映像46Dを読み出し、基準映像46Dの画質を示す画質情報46Fを取得する。抽出部108によって取得された画質情報46Fは、メモリ62に記憶される。画質情報46Fとしては、例えば、画像の解像度、輝度、及びコントラスト等が含まれる。なお、画質情報46Fは、本開示の技術に係る「画質情報」の一例である。
さらに、制御部100は、仮想視点映像生成指示107が与えられたことを条件に、仮想視点映像生成部104を作動させる。制御部100は、撮像映像46B、俯瞰映像46A、画質情報46F、及び基準撮像装置情報46Eをメモリ62から読み出して、仮想視点映像生成部104へ出力する。
仮想視点映像生成部104は、仮想視点映像生成指示107が与えられたことを条件に、複数の原映像を構成する複数の原画像を合成することにより、基準撮像装置情報46Eを基準にして、3Dポリゴンを用いた仮想視点映像46Cを生成する。仮想視点映像46Cは、基準映像46Dに対応した映像である。例えば、仮想視点映像46Cは、基準撮像装置情報46Eに含まれる位置、撮像方向、及び画角と同一の視点位置42、視線方向44、及び画角43からサッカーフィールド24を撮像することで得られる映像を、仮想視点映像46Cとして生成する。すなわち、仮想撮像装置は、基準撮像装置17と一致し、かつ仮想視点映像46Cの視点位置42、視線方向44、及び画角43は基準撮像装置17の位置、撮像方向、及び画角と一致する。
また、仮想視点映像生成部104は、仮想視点映像生成指示107が与えられたことを条件に、画質情報46Fに基づいて、生成する仮想視点映像46Cの画質を定める。例えば、仮想視点映像生成部104は、生成する仮想視点映像46Cの解像度、輝度、及びコントラストを、画質情報46Fに含まれる解像度、輝度、及びコントラストに一致させる。ここでは、仮想視点映像46Cの解像度、輝度、及びコントラストを、画質情報46Fに含まれる解像度、輝度、及びコントラストに一致させる形態例を挙げて説明しているが、本開示の技術はこれに限らず、仮想視点映像46Cの解像度、輝度、及びコントラストを、画質情報46Fに含まれる解像度、輝度、及びコントラストには近付けるようにしてもよい。仮想視点映像生成部104は、生成した仮想視点映像46Cをメモリ62に記憶する。
次に、仮想視点映像46Cをスマートデバイス14のディスプレイ78に表示する態様について説明する。一例として図8に示すように、ディスプレイ78に基準映像46Dが表示されている間、ディスプレイ78の上部に指示ボタン106が表示される。視聴者28が指示ボタン106をタッチパネル76A上からタッチすることで、仮想視点映像生成指示107が情報処理装置12によってスマートデバイス14から取得される。
制御部100は、仮想視点映像生成指示107が与えられたことを条件に、上述のように、仮想視点映像生成部104を作動させて仮想視点映像46Cを生成する。制御部100は、基準撮像装置17によって得られた基準映像46Dと、基準撮像装置情報46Eを基準にして生成された仮想視点映像46Cとをメモリ62から読み出す。制御部100は、基準映像46Dと仮想視点映像46Cと重ねた重畳映像46Gを生成する。具体的には、重畳映像46Gは、基準映像46Dに仮想視点映像46Cが重ねられた映像である。制御部100は、重畳映像46Gを第2通信I/F56及び基地局20を介してスマートデバイス14に出力する。スマートデバイス14のディスプレイ78には重畳映像46Gが表示される。なお、重畳映像46Gは、本開示の技術に係る「重畳画像」の一例である。
また、制御部100は、重畳映像46Gにおいて、基準映像46Dと仮想視点映像46Cとの割合を徐々に変化させる。一例として図9に示すように、仮想視点映像生成指示107が受信された後、制御部100は、基準画像と仮想視点画像とを、例えば9:1の比で重ねて重畳画像を生成し、スマートデバイス14へ出力する。ここで、比とは、例えば、重畳映像46Gでの基準画像の平均画素値と重畳映像46Gでの仮想視点画像の平均画素値との比を指す。換言すると、ここで、比とは、重畳映像46Gの画素単位で、基準画像が占める度合いと仮想視点画像が占める度合いとの比を指す。また、ここで、基準画像とは、基準映像46Dを構成する1フレーム分の画像のことである。仮想視点画像とは、仮想視点映像46Cを構成する1フレーム分の画像のことである。なお、比は、本開示の技術に係る「割合」の一例である。
9:1の比に従って制御部100によって生成された重畳画像は、スマートデバイス14へ出力される。例えば、スマートデバイス14への重畳映像46G及び仮想視点映像46Cの出力フレームレートが30fpsである場合、制御部100は、3フレーム単位で比を変えながら重畳画像をスマートデバイス14へ出力する。例えば、先ず、制御部100は、9:1の比で生成した3フレーム分の重畳画像をスマートデバイス14へ出力する。
続いて、制御部100は、基準画像と仮想視点画像とを8:2の比で重ねて生成した重畳画像を3フレーム分生成し、スマートデバイス14へ出力する。以降、制御部100は、基準画像と仮想視点画像との比を7:3、6:4、・・・、1:9と徐々に変化させて生成した重畳画像を、それぞれ3フレーム分ずつスマートデバイス14へ出力する。その後、制御部100は、仮想視点画像から構成される仮想視点映像46Cをスマートデバイス14へ出力する。
基準画像と仮想視点画像との重畳には、例えば、アルファブレンドが適用される。アルファブレンドとは、2つの画像を係数(α値)に応じて合成する技術である。α値は0から1の範囲の値であり、α値が1に設定された画像は完全な不透明、α値が0に設定された画像は完全な透明となる。従って、基準画像と仮想視点画像とを9:1の比で重ね合わせるならば、例えば、基準画像のα値は0.9、かつ仮想視点画像のα値は0.1に設定されている。
図9に示す例では、図9の上部に描かれたスマートデバイス14は、指示ボタン106をタッチしたタイミングでの態様であり、ディスプレイ78には、基準画像と仮想視点画像とを9:1の比で重ね合わせて生成した重畳画像が表示されている。図9の中央に描かれたスマートデバイス14は、指示ボタン106をタッチしてから例えば0.5秒が経過したタイミングでの態様であり、ディスプレイ78には、基準画像と仮想視点画像とを5:5の比で重ね合わせて生成した重畳画像が表示されている。図9の下部に描かれたスマートデバイス14は、指示ボタン106をタッチしてから例えば1.0秒が経過したタイミングでの態様であり、ディスプレイ78の表示は、重畳画像から仮想視点画像に切り替わっている。このように、スマートデバイス14の表示は、基準映像46Dから重畳映像を経て仮想視点映像46Cへ1秒かけて徐々に変化する。
ディスプレイ78に仮想視点映像46Cが表示されると、ディスプレイ78の上部に指示ボタン106が表示される。指示ボタン106は、ディスプレイ78の表示を仮想視点映像46Cから基準映像46Dへ変更する場合に操作されるボタンである。視聴者28が指示ボタン106をタッチパネル76A上からタッチすることで、基準映像生成指示109がスマートデバイス14から情報処理装置12によって取得される。制御部100は、基準映像生成指示109が与えられたことを条件に、仮想視点映像46Cの生成及び出力を止め、基準映像46Dをスマートデバイス14に出力する。
一例として図10に示すように、制御部100は、仮想視点映像46Cをスマートデバイス14のディスプレイ78に出力し、出力した仮想視点映像46Cにおける視点位置42、視線方向44、及び画角43のうちの少なくとも一つを連続的に変化させる変更信号120を受け付ける。ここで、ディスプレイ78は、本開示の技術に係る「ディスプレイ」の一例である。変更信号120は、本開示の技術に係る「変更信号」の一例である。
ディスプレイ78に表示された仮想視点映像46Cにおいて、タッチパネル76Aによって視聴者28からの変更指示110が受け付けられる。変更指示110は、視点位置42を変更するための視点位置変更指示110Aと、視線方向44を変更するための視線方向変更指示110Bと、画角43を変更するための画角変更指示110Cとに大別される。タッチパネル76Aによって受け付けられた変更指示110は、スマートデバイス14から制御部100に出力される。
制御部100は、スマートデバイス14から入力された変更指示110を示す変更信号120を生成する。変更信号120は、視点位置変更指示110Aを示す視点位置変更信号120Aと、視線方向変更指示110Bを示す視線方向変更信号120Bと、画角変更指示110Cを示す画角変更信号120Cとに大別される。変更信号120は、制御部100から仮想視点映像生成部104に出力される。
仮想視点映像生成部104は、制御部100から視点位置変更信号120Aが入力された場合に、視点位置42を変更する視点位置変更処理104Aを実行する。仮想視点映像生成部104は、制御部100から視線方向変更信号120Bが入力された場合に、視線方向44を変更する視線方向変更処理104Bを実行する。仮想視点映像生成部104は、制御部100から画角変更信号120Cが入力された場合に、画角43を変更する画角変更処理104Cを実行する。
一例として図11に示すように、視点位置変更指示110Aは、仮想視点映像46Cの視点位置42を変更するための指示である。視点位置変更指示110Aは、視聴者28はタッチパネル76A上で、直線的に指を滑らせることで、タッチパネル76Aによって受け付けられる。例えば、図11の上部に描かれたスマートデバイス14に示すように、視聴者28がタッチパネル76A上で点線矢印の方向へ指を滑らせることによって、視点位置変更指示110Aがスマートデバイス14に対して与えられる。
図11の上部に描かれたスマートデバイス14に表示されている仮想視点映像46Cは、視点位置42Aに配置された仮想撮像装置で撮像された映像である。仮想撮像装置の視点位置42Aを視点位置42Bに移動させる場合、視聴者28は、タッチパネル76Aに対して視点位置の移動方向と反対方向へ連続的に指を滑らせるスワイプ動作を行うことで、スマートデバイス14に対して視点位置変更指示110Aを与える。
このように、スマートデバイス14に対して視点位置変更指示110Aが与えられると、上述したように、仮想視点映像生成部104によって、視点位置変更処理104Aが行われる。仮想視点映像生成部104によって視点位置変更処理104Aが行われることで、一例として図12に示すように、仮想撮像装置が、視点位置42Aから視点位置42Bへ移動する。仮想視点映像生成部104によって視点位置42Bを基準にして生成される仮想視点映像46Cは、視点位置42Bに配置された仮想撮像装置によって仮想的に撮像されることで得られる。
一例として図13に示すように、視聴者28は、視点位置変更指示110Aと共に視線方向変更指示110Bをスマートデバイス14に対して与えることもできる。視線方向変更指示110Bは、仮想視点映像46Cの視線方向44を変更するための指示である。視線方向変更指示110Bをスマートデバイス14に対して与えるためには、例えば、視聴者28はタッチパネル76A上で曲線的に指を滑らせる。図13の上部に示すように、視聴者28がタッチパネル76A上で点線矢印の方向へ指を滑らせることによって、視点位置変更指示110Aがタッチパネル76Aによって受け付けられる。
図13の上部に描かれたスマートデバイス14に表示されている仮想視点映像46Cは、視点位置42Cに配置された仮想撮像装置によって視線方向44Cが撮像されることで得られた映像である。仮想撮像装置の視点位置42Cを視点位置42Dに移動させ、仮想撮像装置の視線方向44Cを視線方向44Dに変更させる場合、視聴者28は、タッチパネル76A上で視点位置の移動方向と反対方向へ連続的に指を滑らせるスワイプ動作によって、視点位置変更指示110A及び視線方向変更指示110Bをスマートデバイス14に対して与える。
このように、スマートデバイス14に対して視点位置変更指示110A及び視線方向変更指示110Bが与えられると、仮想視点映像生成部104によって視点位置変更処理104Aが行われ、かつ、視線方向変更処理104Bが行われる。これにより、一例として図14に示すように、仮想撮像装置の視点位置は、視点位置42Cから視点位置42Dへ変更され、仮想撮像装置の視線方向が視線方向44Cから視線方向44Dへ変更される。仮想視点映像生成部104によって視点位置42D及び視線方向44Dを基準にして生成される仮想視点映像46Cは、視点位置42Dに配置された仮想撮像装置によって視線方向44Dが仮想的に撮像されることで得られる。
一例として図15及び図16に示すように、画角変更指示110Cは、仮想視点映像46Cの画角43を変更するための指示である。画角変更指示110Cをスマートデバイス14に対して与えるためには、視聴者28は、タッチパネル76A上で、2本の指で画面を摘まむピンチイン動作、又は画面を摘まんだ状態から放していくピンチアウト動作を行う。画角を狭くする場合にはピンチアウト動作が行われ、画角を広くする場合にはピンチイン動作が行われる。
図15に示す例では、仮想視点映像46Cが表示されたタッチパネル76A上で、視聴者28によってピンチアウト動作が行われる。タッチパネル76A上でピンチアウト動作が行われることによって、画角変更指示110Cとして、画角を狭くする指示がスマートデバイス14に対して与えられる。このように、スマートデバイス14に対して、画角変更指示110Cとして、画角を狭くする指示が与えられることで、上述したように、仮想視点映像生成部104によってピンチアウト動作に応じた画角変更処理104Cが行われる。仮想視点映像生成部104によってピンチアウト動作に応じた画角変更処理104Cが行われることで、一例として図15に示すように、ピンチアウト動作に従って画角が狭くなるように、仮想視点映像生成部104によって仮想視点映像46Cが生成される。
図16に示す例では、仮想視点映像46Cが表示されたタッチパネル76A上で、視聴者28によってピンチイン動作が行われる。タッチパネル76A上でピンチイン動作が行われることによって、画角変更指示110Cとして、画角を広くする指示がスマートデバイス14に対して与えられる。このように、スマートデバイス14に対して、画角変更指示110Cとして、画角を広くする指示が与えられることで、上述したように、仮想視点映像生成部104によってピンチイン動作に応じた画角変更処理104Cが行われる。仮想視点映像生成部104によってピンチイン動作に応じた画角変更処理104Cが行われることで、一例として図16に示すように、ピンチイン動作に従って画角が広くなるように、仮想視点映像生成部104によって仮想視点映像46Cが生成される。
次に、情報処理装置12で行われる基準映像生成処理、仮想視点映像生成処理、及び映像配信処理の流れの一例を図17から図19を参照して説明する。
一例として図17に示す基準映像生成処理は、基準映像生成処理を実行する指示が受付デバイス52によって受け付けられた場合に、CPU58によって基準映像生成処理プログラム60Aに従って実行される。
図17に示す基準映像生成処理では、先ず、ステップS10で、制御部100は、画像生成タイミングが到来したか否かを判定する。画像生成タイミングの一例としては、フレームレートに従って規定されたタイミングが挙げられる。例えば、情報処理装置12のフレームレートが30fpsの場合、画像生成タイミングは1/30秒毎に到来する。ステップS10において、画像生成タイミングが到来していない場合には、判定が否定されて、基準映像生成処理はステップS15へ移行する。ステップS10において、画像生成タイミングが到来した場合には、判定が肯定されて、基準映像生成処理はステップS11へ移行する。
ステップS11で、制御部100は、基準撮像装置識別子35を取得する。基準撮像装置識別子35は、複数の撮像装置のうちの1つを指定する識別子であり、例えば、映像制作者によって受付デバイス52が操作されることによって不定期に受け付けられて、メモリ62に上書き保存される。制御部100は、最も近いタイミングで受け付けられた基準撮像装置識別子35をメモリ62から取得する。その後、基準映像生成処理は、ステップS12へ移行する。
ステップS12で、制御部100は、基準撮像装置識別子35によって特定された撮像装置、すなわち、基準撮像装置17によって撮像されることで得られた1フレーム分の撮像画像又は俯瞰画像をメモリ62から読み出して、基準映像生成部102へ出力する。その後、基準映像生成処理は、ステップS13へ移行する。
ステップS13において、基準映像生成部102は、基準撮像装置17によって撮像されることで得られた撮像画像又は俯瞰画像に試合状況情報を重畳して、1フレーム分の基準画像を生成する。試合状況情報は、例えば、得点、選手情報、及び/又は試合の残り時間を含む。その後、基準映像生成処理は、ステップS14へ移行する。
ステップS14において、基準映像生成部102は、ステップS13で生成した1フレーム分の基準画像をメモリ62に記憶する。その後、基準映像生成処理は、ステップS15へ移行する。
ステップS15で、制御部100は、基準映像生成処理を終了する条件(以下、「基準映像生成処理終了条件」と称する)を満足したか否かを判定する。基準映像生成処理終了条件の一例としては、基準映像46Dの生成を終了させる指示が受付デバイス52(図3参照)によって受け付けられた、との条件が挙げられる。ステップS15において、基準映像生成処理終了条件を満足していない場合は、判定が否定されて、基準映像生成処理はステップS10へ移行する。ステップS15において、基準映像生成処理終了条件を満足した場合は、判定が肯定されて、基準映像生成処理が終了する。
一例として図18に示す仮想視点映像生成処理は、スマートデバイス14のタッチパネル76Aによって仮想視点映像生成指示107が受け付けられた場合に、仮想視点映像生成処理プログラム60Bに従ってCPU58によって実行される。
図18に示す仮想視点映像生成処理では、先ず、ステップS20で、制御部100は、スマートデバイス14のタッチパネル76Aによって仮想視点映像生成指示107が受け付けられたか否かを判定する。ステップS20において、スマートデバイス14のタッチパネル76Aによって仮想視点映像生成指示107が受け付けられていない場合には、判定が否定されて、ステップS20の判定が再び行われる。ステップS20において、スマートデバイス14のタッチパネル76Aによって仮想視点映像生成指示107が受け付けられた場合には、判定が肯定されて、仮想視点映像生成処理は、ステップS21へ移行する。なお、ステップS20は、ステップS22よりも後のステップにしてもよく、具体的には、ステップS22とステップS23との間に入れてもよい。
ステップS21で、制御部100は、基準撮像装置情報46Eをメモリ62から読み出す。基準撮像装置情報46Eは、基準撮像装置17の位置、撮像方向、及び画角に相当する情報である。その後、仮想視点映像生成処理は、ステップS22へ移行する。
ステップS22で、制御部100は、基準撮像装置情報46Eを基準にして、仮想撮像装置の視点位置42、視線方向44、及び画角43を定める。例えば、制御部100は、仮想撮像装置により得られる画像の視野が、基準撮像装置17により得られる画像の視野と同一になるように、仮想撮像装置の視点位置42、視線方向44、及び画角43を定める。その後、基準映像生成処理は、ステップS23へ移行する。
ステップS23で、制御部100は、画像生成タイミングが到来したか否かを判定する。ステップS23において、画像生成タイミングが到来していない場合には、判定が否定されて、仮想視点映像生成処理はステップS29へ移行する。ステップS23において、画像生成タイミングが到来した場合には、判定が肯定されて、仮想視点映像生成処理はステップS24へ移行する。
ステップS24で、制御部100は、ステップS22で定めた視点位置42、視線方向44、及び画角43に基づいて、複数の原画像をメモリ62から読み出す。すなわち、制御部100は、視点位置42、視線方向44、及び画角43で規定された視野の仮想視点映像46Cを生成するために必要となる複数の原画像をメモリ62から読み出して、仮想視点映像生成部104へ出力する。その後、仮想視点映像生成処理は、ステップS25へ移行する。
ステップS25で、仮想視点映像生成部104は、複数の原画像から、ステップS22で定められた視点位置42、視線方向44、及び画角43で規定された視野の1フレーム分の仮想視点画像を生成する。すなわち、仮想視点映像生成部104は、基準画像と同一の視野を有する仮想視点画像を生成する。その後、仮想視点映像生成処理は、ステップS26へ移行する。
ステップS26で、仮想視点映像生成部104は、ステップS25で生成した1フレーム分の仮想視点画像をメモリ62に記憶する。その後、仮想視点映像生成処理は、ステップS27へ移行する。
ステップS27で、制御部100は、スマートデバイス14によって変更指示110が受け付けられたか否かを判定する。ステップS27において、スマートデバイス14によって変更指示110が受け付けられていない場合には、判定が否定されて、仮想視点映像生成処理はステップS29へ移行する。ステップS27において、スマートデバイス14によって変更指示110が受け付けられた場合には、判定が肯定されて、仮想視点映像生成処理はステップS28へ移行する。
ステップS28で、制御部100は、変更指示110に基づいて、仮想撮像装置の視点位置42、視線方向44、及び画角43を定める。すなわち、ステップS22で定めた視点位置42、視線方向44、及び画角43は破棄され、ステップS28で定めた視点位置42、視線方向44、及び画角43が有効になる。すなわち、ステップS25では、ステップS28で定めた視点位置42、視線方向44、及び画角43によって規定された視野の1フレーム分の仮想視点画像が生成される。ステップS28の処理が実行された後、仮想視点映像生成処理は、ステップS29へ移行する。
ステップS29で、制御部100は、仮想視点映像生成処理を終了する条件(以下、「仮想視点映像生成処理終了条件」と称する)を満足したか否かを判定する。仮想視点映像生成処理終了条件の一例としては、仮想視点映像46Cの生成を終了させる指示が受付デバイス52(図3参照)によって受け付けられた、との条件が挙げられる。ステップS29において、仮想視点映像生成処理終了条件を満足していない場合は、判定が否定されて、仮想視点映像生成処理はステップS23へ移行する。ステップS29において、仮想視点映像生成処理終了条件を満足した場合は、判定が肯定されて、仮想視点映像生成処理が終了する。
一例として図19に示す映像配信処理は、映像配信処理の実行を開始する指示が、スマートデバイス14のタッチパネル76Aによって受け付けられた場合に、映像配信処理プログラム60Cに従ってCPU58によって実行される。
図19に示す映像配信処理では、先ず、ステップS31で、制御部100は、画像出力タイミングが到来したか否かを判定する。画像出力タイミングの一例としては、出力フレームレートで規定された時間間隔で区切られたタイミングが挙げられる。ステップS31において、画像出力タイミングが到来していない場合には、判定が否定されて、ステップS31の判定が再び行われる。ステップS31において、画像出力タイミングが到来した場合には、判定が肯定されて、映像配信処理はステップS32へ移行する。
ステップS32で、制御部100は、メモリ62から1フレーム分の基準画像を読み出して、スマートデバイス14へ出力する。その後、映像配信処理は、ステップS33へ移行する。
ステップS33で、制御部100は、映像配信処理を終了する条件(以下、「映像配信処理終了条件」と称する)を満足したか否かを判定する。映像配信処理終了条件の一例としては、映像配信処理を終了する指示が受付デバイス52又は76によって受け付けられた、との条件が挙げられる。ステップS33において、映像配信処理終了条件を満足していない場合は、判定が否定されて、映像配信処理はステップS34へ移行する。ステップS33において、映像配信処理終了条件を満足した場合は、判定が肯定されて、映像配信処理が終了する。
ステップS34で、制御部100は、スマートデバイス14のタッチパネル76Aによって仮想視点映像生成指示107が受け付けられたか否かを判定する。ステップS34において、スマートデバイス14のタッチパネル76Aによって仮想視点映像生成指示107が受け付けられていない場合には、判定が否定されて、映像配信処理はステップS31に移行する。ステップS34において、スマートデバイス14のタッチパネル76Aによって仮想視点映像生成指示107が受け付けられた場合には、判定が肯定されて、映像配信処理はステップS35へ移行する。
ステップS35で、制御部100は、画像出力タイミングが到来したか否かを判定する。ステップS35において、画像出力タイミングが到来していない場合には、判定が否定されて、ステップS35の判定が再び行われる。ステップS35において、画像出力タイミングが到来した場合には、判定が肯定されて、映像配信処理はステップS36へ移行する。
ステップS36で、制御部100は、メモリ62から1フレーム分の仮想視点画像を読み出す。その後、映像配信処理は、ステップS37へ移行する。
ステップS37で、制御部100は、次の表示フレームが仮想視点映像生成指示107を受け付けてから間もない初期表示フレームか否かを判定する。例えば、次のフレームがN番目の表示フレームで(Nは1以上の自然数)、特定のフレーム数(例えば30)より小さい場合(N<30)、判定が肯定されて、映像配信処理はステップS38へ移行する。一方、次の表示フレームがN番目の表示フレームで、特定のフレーム数以上の場合(N≧30)、判定が否定されて、映像配信処理はステップS39へ移行する。なお、特定のフレーム数を“30”として説明したが、本開示の技術はこれに限定されず、特定のフレーム数は自然数のうち何れの数に設定してもよい。
ステップS38で、制御部100は、基準画像に仮想視点画像を重ねた重畳画像を生成し、生成した重畳画像をスマートデバイス14へ出力する。その後、映像配信処理は、ステップS40へ移行する。
ステップS39で、制御部100は、ステップS36で読み出した1フレーム分の仮想視点画像をスマートデバイス14へ出力する。その後、映像配信処理はステップS40へ移行する。
ステップS40で、制御部100は、映像配信処理を終了する条件(以下、「映像配信処理終了条件」と称する)を満足したか否かを判定する。映像配信処理終了条件の一例としては、映像配信アプリケーションが終了された、との条件が挙げられる。ステップS40において、映像配信処理終了条件を満足していない場合は、判定が否定されて、映像配信処理はステップS41へ移行する。ステップS40において、映像配信処理終了条件を満足した場合は、判定が肯定されて、映像配信処理が終了する。
ステップS41で、制御部100は、スマートデバイス14のタッチパネル76Aによって基準映像生成指示109が受け付けられたか否かを判定する。ステップS41において、スマートデバイス14のタッチパネル76Aによって基準映像生成指示109が受け付けられていない場合には、判定が否定されて、映像配信処理はステップS35に移行する。ステップS41において、スマートデバイス14のタッチパネル76Aによって基準映像生成指示109が受け付けられた場合には、判定が肯定されて、映像配信処理はステップS31へ移行する。
以上説明したように、情報処理装置12は、CPU58と、CPU58に接続又は内蔵されたメモリ62とを備える。CPU58は、基準撮像装置17の位置、撮像方向、及び画角に相当する基準撮像装置情報46Eを取得する。さらに、CPU58は、複数の原映像に基づく仮想視点映像46Cの生成を開始する指示である仮想視点映像生成指示107が与えられたことを条件に、基準撮像装置情報46Eを基準にして、仮想視点映像46Cを生成する。従って、基準撮像装置情報46Eと同一又は近似した視野を有する仮想視点映像46Cが生成される。本構成によれば、複数の撮像装置のうち、基準撮像装置17とは異なる撮像装置16又は18の位置、撮像方向、及び画角に基づいて仮想視点映像46Cが生成される場合に比べ、基準映像46Dと仮想視点映像46Cとの視野における差異を低減することができる。
また、基準撮像装置情報46Eが基準撮像装置17によって継続的に送信される場合、CPU58は、仮想視点映像生成指示107が与えられたことを条件に、基準撮像装置17から送信された基準撮像装置情報46Eを基準にして、仮想視点映像46Cを生成する。基準撮像装置17は、基準撮像装置情報46Eを継続的に送信するので、継続的に送信しない場合に比べ、CPU58は、仮想視点映像生成指示107が与えられた後、短時間で基準撮像装置情報46Eを取得して仮想視点映像46Cを生成することができる。また、CPU58は、仮想視点映像生成指示107が与えられたことを条件に仮想視点映像46Cを生成するので、常に仮想視点映像46Cを生成する場合に比べ、仮想視点映像46Cの生成に要する通信負荷及び消費電力を低減することができる。
また、CPU58は、基準撮像装置情報46Eを取得する度に、基準撮像装置情報46Eを更新する。従って、CPU58は、基準撮像装置情報46Eが更新されない場合に比べ、基準撮像装置識別子35の入力に応じて基準撮像装置情報46Eを切り替えることができる。
また、CPU58は、基準撮像装置17によってサッカーフィールド24が撮像されることで得られた基準映像46Dの画質を示す画質情報46Fを取得する。さらに、CPU58は、仮想視点映像生成指示107が与えられたことを条件に、画質情報46Fに基づいて、仮想視点映像46Cの画質を定める。従って、CPU58は、画質情報46Fに基づいた画質を有する仮想視点映像46Cを生成する。本構成によれば、基準映像46Dの画質情報46Fに基づいて仮想視点映像46Cの画質が決定されない場合に比べ、基準映像46Dと仮想視点映像46Cとの画質における差異を低減することができる。
また、CPU58は、仮想視点映像生成指示107が与えられたことを条件に、基準撮像装置17によってサッカーフィールド24が撮像されることで得られた基準映像46Dに仮想視点映像46Cを重ねた重畳映像46Gをスマートデバイス14に出力する。従って、生成される仮想視点画像の視野は、基準画像の視野と同一又は近似しているので、仮想視点画像は、視野の差異を有することなく基準画像に重畳される。本構成によれば、基準映像46Dから仮想視点映像46Cへの表示を切り替える際に重畳映像46Gが出力されることにより、重畳映像46Gが出力されない場合に比べ、視聴者28に与える視覚的な違和感を軽減することができる。
CPU58は、重畳映像46Gにおいて、基準映像46Dと仮想視点映像46Cとの重ね合わせの比を徐々に変化させる。従って、基準映像46Dから仮想視点映像46Cへ徐々に表示を変化させることができる。本構成によれば、基準映像46Dから仮想視点映像46Cへ表示を切り替える際に、基準映像46Dと仮想視点映像46Cとを常に一定の比で重ね合わせる場合に比べ、視聴者28に与える視覚的な違和感をより軽減することができる。
CPU58は、仮想視点映像46Cをスマートデバイス14のディスプレイ78に出力し、出力した仮想視点映像46Cにおける視点位置42、視線方向44、及び画角43のうちの少なくとも1つを連続的に変化させる変更信号120を受け付ける。本構成によれば、変更信号120により、視点位置42、視線方向44、及び画角43のうちの少なくとも1つが連続的に変化されるため、視点位置42、視線方向44、及び画角43が連続的に変更されない場合に比べ、仮想視点映像46Cにおける臨場感を高めることができる。
基準撮像装置17は、位置、撮像方向、及び画角のうちの少なくとも1つを変更可能な撮像装置である。従って、基準撮像装置17の位置、撮像方向、及び画角が変更できない場合に比べ、基準映像46Dの撮像の自由度を高めることができる。
CPU58は、基準撮像装置17によってサッカーフィールド24が撮像されることで得られた基準映像46Dに基づいて、基準撮像装置情報46Eを取得する。従って、基準映像46Dに基づいて基準撮像装置情報46Eが取得されない場合に比べ、基準撮像装置情報46Eを容易に取得することができる。
基準撮像装置情報46Eは、基準撮像装置17の位置、撮像方向、及び画角である。従って、基準撮像装置情報46Eが、基準撮像装置17の位置、撮像方向、及び画角でない場合に比べ、基準映像46Dと仮想視点映像46Cとの視野における差異をより低減することができる。
基準撮像装置17は、複数の撮像装置のうちの1つである。従って、基準撮像装置17が複数の撮像装置のうちの1つでない場合に比べ、どの撮像装置を基準撮像装置17として設定するか、設定の自由度を増すことができる。
基準撮像装置17は、複数の撮像装置の間で切り替え可能である。従って、基準撮像装置17が切り替え可能でない場合に比べ、どの撮像装置を基準撮像装置17として設定するか、設計の自由度を増すことができる。
CPU58は、基準撮像装置17によってサッカーフィールド24が撮像されることで得られた基準映像46Dを出力し、仮想視点映像生成指示107が与えられたことを条件に、基準撮像装置情報46Eを基準にして、基準映像46Dに対応する仮想視点映像46Cを生成する。従って、基準撮像装置情報46Eと同一の視野を有する仮想視点映像46Cが生成される。本構成によれば、基準映像46Dに対応しない仮想視点映像46Cが生成される場合に比べ、基準映像46Dと仮想視点映像46Cとの視野における差異を低減することができる。
なお、上記実施形態では、複数の撮像装置が撮像装置情報を継続的に送信する形態例を挙げて説明しているが、本開示の技術はこれに限定されない。例えば、サーバ(図示省略)によって撮像装置情報が継続的に送信されるようにしてもよい。この場合、サーバが本開示の技術に係る「送信装置」の一例である。サーバは、複数の撮像装置の撮像装置情報を保持する。そして、制御部100は、サーバから送信された撮像装置情報を受信し、メモリ62に記憶する。
また、上記実施形態では、複数の撮像装置は撮像装置情報を継続的に送信したが、複数の撮像装置は、制御部100からの送信要求に応じて、撮像装置情報を制御部100に送信するようにしてもよい。すなわち、制御部100は、基準撮像装置17のみに対して撮像装置情報の送信要求を行い、送信要求に応じて、基準撮像装置17が自らの撮像装置情報を基準撮像装置情報46Eとして送信するようにしてもよい。
また、上記実施形態では、複数の撮像装置の撮像装置情報がメモリ62に記憶されたが、制御部100は、基準撮像装置17の撮像装置情報のみを、基準撮像装置情報46Eとしてメモリ62又はサーバに記憶してもよい。この場合、基準撮像装置17は、映像制作者の操作に応じて変わるので、制御部100は、基準撮像装置識別子35を取得する度に、すなわち、基準撮像装置情報46Eを取得する度に、メモリ62又はサーバに保持する基準撮像装置情報46Eを更新する。制御部100は、サーバ又はメモリ62に保持された基準撮像装置情報46Eを取得する。
また、上記実施形態では、制御部100は、複数の撮像装置によって送信された撮像装置情報から基準撮像装置情報46Eを取得したが、制御部100は、基準映像46Dに基づいて、基準撮像装置情報46Eを取得してもよい。この場合、例えば、サッカーフィールド24には、予め定められた距離毎に、基準位置からの距離を示す標識が設けられている。サッカーフィールド24には、例えば、サッカーフィールド24の中央を基準位置(0,0)として、サッカーフィールド24の長手方向の距離X及び短手方向の距離Yを(X,Y)の形で示した標識が、一定の間隔で格子状に設けられている。また、サッカーフィールド24を囲む四方の壁の各々には、壁の長手方向の中央かつ地面を基準位置(0,0)として、基準位置から水平方向の距離X及び鉛直方向の距離Yを(X,Y)の形で示した標識が、一定の間隔で格子状に設けられている。制御部100は、基準映像46Dから標識を検出することで、基準撮像装置17の視野を特定し、特定した視野に基づいて幾何学的に基準撮像装置情報46Eを取得することができる。
なお、上記実施形態では、情報処理装置12によって基準映像46Dが生成される形態例を挙げて説明したが、本開示の技術はこれに限定されない。情報処理装置12とは異なる装置(以下、「映像生成装置」と称する)によって基準映像46Dが生成されるようにしてもよい。
なお、本開示の技術に係る「ディスプレイ」の一例としてスマートデバイス14のディスプレイ78を挙げているが、スマートデバイス14に代えて、ヘッドアップディスプレイ、ヘッドマウントディスプレイ、パーソナル・コンピュータ及び/又はウェアラブル端末等のディスプレイ付きの各種デバイスも本開示の技術に係る「ディスプレイ」として採用することができる。
また、上記実施形態では、サッカー競技場22を例示したが、これはあくまでも一例に過ぎず、野球場、ラグビー場、カーリング場、陸上競技場、競泳場、コンサートホール、野外音楽場、及び演劇会場等のように、複数の撮像装置及び複数の収音装置が設置可能であれば、如何なる場所であってもよい。
また、上記実施形態では、基地局20を用いた無線通信方式を例示したが、これはあくまでも一例に過ぎず、ケーブルを用いた有線通信方式であっても本開示の技術は成立する。
また、上記実施形態では、無人航空機27を例示したが、本開示の技術はこれに限定されず、ワイヤで吊るされた撮像装置18(例えば、ワイヤを伝って移動可能な自走式の撮像装置)によって撮像領域が撮像されるようにしてもよい。
また、上記実施形態では、コンピュータ50及び70を例示したが、本開示の技術はこれに限定されない。例えば、コンピュータ50及び/又は70に代えて、ASIC、FPGA、及び/又はPLDを含むデバイスを適用してもよい。また、コンピュータ50及び/又は70に代えて、ハードウェア構成及びソフトウェア構成の組み合わせを用いてもよい。
また、上記実施形態では、ストレージ60に情報処理装置側プログラムが記憶されているが、本開示の技術はこれに限定されず、一例として図20に示すように、SSD又はUSBメモリなどの任意の可搬型の記憶媒体200に情報処理装置側プログラムが記憶されていてもよい。この場合、記憶媒体200に記憶されている情報処理装置側プログラムがコンピュータ50にインストールされ、CPU58は、情報処理装置側プログラムに従って、情報処理装置側処理を実行する。
また、通信網(図示省略)を介してコンピュータ50に接続される他のコンピュータ又はサーバ装置等の記憶部に情報処理装置側プログラムを記憶させておき、情報処理装置12の要求に応じて情報処理装置側プログラムが情報処理装置12にダウンロードされるようにしてもよい。この場合、ダウンロードされた情報処理装置側プログラムに基づく情報処理装置側処理がコンピュータ50のCPU58によって実行される。
また、上記実施形態では、CPU58を例示したが、本開示の技術はこれに限定されず、GPUを採用してもよい。また、CPU58に代えて、複数のCPUや、CPUとGPUの組み合わせを採用してもよい。つまり、1つのプロセッサ、又は、物理的に離れている複数のプロセッサによって情報処理装置側処理が実行されるようにしてもよい。また、CPU88に代えて、GPUを採用してもよいし、複数のCPUや、CPUとGPUの組み合わせを採用してもよく、1つのプロセッサ、又は、物理的に離れている複数のプロセッサによって各種処理が実行されるようにしてもよい。
情報処理装置側処理を実行するハードウェア資源としては、次に示す各種のプロセッサを用いることができる。プロセッサとしては、例えば、上述したように、ソフトウェア、すなわち、プログラムに従って情報処理装置側処理を実行するハードウェア資源として機能する汎用的なプロセッサであるCPUが挙げられる。また、他のプロセッサとしては、例えば、FPGA、PLD、又はASICなどの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路が挙げられる。何れのプロセッサにもメモリが内蔵又は接続されており、何れのプロセッサもメモリを使用することで情報処理装置側処理を実行する。
情報処理装置側処理を実行するハードウェア資源は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、又はCPUとFPGAとの組み合わせ)で構成されてもよい。また、情報処理装置側処理を実行するハードウェア資源は1つのプロセッサであってもよい。
1つのプロセッサで構成する例としては、第1に、クライアント及びサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが、情報処理装置側処理を実行するハードウェア資源として機能する形態がある。第2に、SoCなどに代表されるように、情報処理装置側処理を実行する複数のハードウェア資源を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、情報処理装置側処理は、ハードウェア資源として、上記各種のプロセッサの1つ以上を用いて実現される。
更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路を用いることができる。
また、上述した情報処理装置12側の処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
以上に示した記載内容及び図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、及び効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、及び効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容及び図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容及び図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
本明細書において、「A及び/又はB」は、「A及びBのうちの少なくとも1つ」と同義である。つまり、「A及び/又はB」は、Aだけであってもよいし、Bだけであってもよいし、A及びBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「及び/又は」で結び付けて表現する場合も、「A及び/又はB」と同様の考え方が適用される。
本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (15)

  1. プロセッサと、
    前記プロセッサに接続又は内蔵されたメモリと、を備え、
    前記プロセッサは、
    基準撮像装置の位置、撮像方向、及び画角に相当する基準撮像装置情報を取得し、
    複数の撮像装置によって撮像領域が撮像されることで得られた複数の画像に基づく仮想視点画像の生成を開始する指示が与えられたことを条件に、
    前記基準撮像装置情報を基準にして、前記仮想視点画像を生成する
    情報処理装置。
  2. 前記基準撮像装置情報が送信装置によって継続的に送信される場合、前記プロセッサは、前記指示が与えられたことを条件に、前記送信装置から送信された前記基準撮像装置情報を基準にして、前記仮想視点画像を生成する
    請求項1に記載の情報処理装置。
  3. 前記プロセッサは、前記基準撮像装置情報を取得する度に、前記基準撮像装置情報を更新する
    請求項1又は請求項2に記載の情報処理装置。
  4. 前記プロセッサは、
    前記基準撮像装置によって前記撮像領域が撮像されることで得られた第1基準画像の画質を示す画質情報を取得し、
    前記指示が与えられたことを条件に、前記画質情報に基づいて、前記仮想視点画像の画質を定める、
    請求項1から請求項3のうちの何れか一項に記載の情報処理装置。
  5. 前記プロセッサは、前記指示が与えられたことを条件に、前記基準撮像装置によって前記撮像領域が撮像されることで得られた第2基準画像に前記仮想視点画像を重ねた重畳画像を出力する
    請求項1から請求項4のうちの何れか一項に記載の情報処理装置。
  6. 前記プロセッサは、前記重畳画像において、前記第2基準画像と前記仮想視点画像との割合を徐々に変化させる
    請求項5に記載の情報処理装置。
  7. 前記プロセッサは、
    前記仮想視点画像をディスプレイに出力し、
    出力した前記仮想視点画像における視点位置、視線方向、及び画角のうちの少なくとも1つを連続的に変化させる変更信号を受け付ける、
    請求項1から請求項6のうちの何れか一項に記載の情報処理装置。
  8. 前記基準撮像装置は、前記位置、前記撮像方向、及び前記画角のうちの少なくとも1つを変更可能な撮像装置である
    請求項1から請求項7のうちの何れか一項に記載の情報処理装置。
  9. 前記プロセッサは、前記基準撮像装置によって前記撮像領域が撮像されることで得られた第3基準画像に基づいて、前記基準撮像装置情報を取得する
    請求項1から請求項8のうちの何れか一項に記載の情報処理装置。
  10. 前記基準撮像装置情報は、前記基準撮像装置の前記位置、前記撮像方向、及び前記画角である
    請求項1から請求項9のうちの何れか一項に記載の情報処理装置。
  11. 前記基準撮像装置は、前記複数の撮像装置のうちの1つである
    請求項1から請求項10のうちの何れか一項に記載の情報処理装置。
  12. 前記基準撮像装置は、前記複数の撮像装置の間で切り替え可能である
    請求項11に記載の情報処理装置。
  13. 前記プロセッサは、
    前記基準撮像装置によって前記撮像領域が撮像されることで得られた第4基準画像を出力し、
    前記基準撮像装置情報を取得し、
    前記指示が与えられたことを条件に、前記基準撮像装置情報を基準にして、前記第4基準画像に対応する仮想視点画像を生成する
    請求項1から請求項12のうちの何れか一項に記載の情報処理装置。
  14. プロセッサと、前記プロセッサに接続又は内蔵されたメモリと、を備える情報処理装置の作動方法であって、
    基準撮像装置の位置、撮像方向、及び画角に相当する基準撮像装置情報を取得し、
    複数の撮像装置によって撮像領域が撮像されることによって得られた複数の画像に基づく仮想視点画像の生成を開始する指示が与えられたことを条件に、
    前記基準撮像装置情報を基準にして、前記仮想視点画像を生成することを含む
    情報処理装置の作動方法。
  15. プロセッサと、前記プロセッサに接続又は内蔵されたメモリと、を備える情報処理装置に対して適用されるコンピュータに、
    基準撮像装置の位置、撮像方向、及び画角に相当する基準撮像装置情報を取得し、
    複数の撮像装置によって撮像領域が撮像されることによって得られた複数の画像に基づく仮想視点画像の生成を開始する指示が与えられたことを条件に、
    前記基準撮像装置情報を基準にして、前記仮想視点画像を生成することを含む処理を実行させるためのプログラム。
JP2024013176A 2019-12-26 2024-01-31 情報処理装置、情報処理装置の作動方法、及びプログラム Pending JP2024050737A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2019237438 2019-12-26
JP2019237438 2019-12-26
JP2021566893A JPWO2021131365A1 (ja) 2019-12-26 2020-11-10
PCT/JP2020/041983 WO2021131365A1 (ja) 2019-12-26 2020-11-10 情報処理装置、情報処理装置の作動方法、及びプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021566893A Division JPWO2021131365A1 (ja) 2019-12-26 2020-11-10

Publications (2)

Publication Number Publication Date
JP2024050737A true JP2024050737A (ja) 2024-04-10
JP2024050737A5 JP2024050737A5 (ja) 2024-05-01

Family

ID=76574044

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021566893A Pending JPWO2021131365A1 (ja) 2019-12-26 2020-11-10
JP2024013176A Pending JP2024050737A (ja) 2019-12-26 2024-01-31 情報処理装置、情報処理装置の作動方法、及びプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021566893A Pending JPWO2021131365A1 (ja) 2019-12-26 2020-11-10

Country Status (3)

Country Link
US (1) US20220319102A1 (ja)
JP (2) JPWO2021131365A1 (ja)
WO (1) WO2021131365A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022077380A (ja) * 2020-11-11 2022-05-23 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6419128B2 (ja) * 2016-10-28 2018-11-07 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP7195791B2 (ja) * 2017-12-04 2022-12-26 キヤノン株式会社 画像処理装置、情報処理方法及びプログラム
JP6513169B1 (ja) * 2017-12-14 2019-05-15 キヤノン株式会社 仮想視点画像を生成するシステム、方法及びプログラム

Also Published As

Publication number Publication date
JPWO2021131365A1 (ja) 2021-07-01
WO2021131365A1 (ja) 2021-07-01
US20220319102A1 (en) 2022-10-06

Similar Documents

Publication Publication Date Title
US11558431B2 (en) Communication terminal, communication system, communication method, and display method
US10778865B2 (en) Image processing apparatus, image processing system, and image processing method
JP6044328B2 (ja) 画像処理システム、画像処理方法およびプログラム
CN108292489A (zh) 信息处理装置和图像生成方法
JP2024050737A (ja) 情報処理装置、情報処理装置の作動方法、及びプログラム
JP5743016B2 (ja) 画像を生成する装置および方法
CN110419224A (zh) 用于封装和流传输虚拟现实媒体内容的方法和装置
WO2019080792A1 (zh) 全景视频图像的播放方法、装置、存储介质及电子装置
US20220159197A1 (en) Image special effect processing method and apparatus, and electronic device and computer readable storage medium
CN109923868A (zh) 显示装置及其控制方法
CN110720214A (zh) 显示控制设备和显示控制方法
JP2023163182A (ja) 情報処理装置、情報処理方法、及びプログラム
US20220329912A1 (en) Information processing apparatus, information processing method, and program
JP6394682B2 (ja) 方法および画像処理装置
US11805219B2 (en) Image special effect processing method and apparatus, electronic device and computer-readable storage medium
WO2021020200A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2016190193A1 (ja) 情報処理装置、出力制御装置、情報処理システム、および動画データ出力方法
JP6994013B2 (ja) 映像配信システム、映像データ配信装置、映像データ配信装置制御プログラム及び映像データ配信方法
JP2018174376A (ja) 映像配信システム、端末装置及び映像データ配信装置
US20230388471A1 (en) Image processing apparatus, image processing method, and program
US20230156244A1 (en) Information processing apparatus, information processing method, and program
WO2022181379A1 (ja) 画像処理装置、画像処理方法、及びプログラム
US20240015274A1 (en) Image processing apparatus, image processing method, and program
US11863902B2 (en) Techniques for enabling high fidelity magnification of video
WO2018224799A1 (en) Image processing device and system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240422