WO2020184316A1 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
WO2020184316A1
WO2020184316A1 PCT/JP2020/009038 JP2020009038W WO2020184316A1 WO 2020184316 A1 WO2020184316 A1 WO 2020184316A1 JP 2020009038 W JP2020009038 W JP 2020009038W WO 2020184316 A1 WO2020184316 A1 WO 2020184316A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
image
information
information processing
viewpoint
Prior art date
Application number
PCT/JP2020/009038
Other languages
English (en)
French (fr)
Inventor
幸司 西田
高橋 修一
大輔 入江
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US17/436,447 priority Critical patent/US20220174258A1/en
Publication of WO2020184316A1 publication Critical patent/WO2020184316A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

第1の映像が撮影された視点に関する情報を取得する視点情報取得部と、前記第1の映像の関連情報を取得する関連情報取得部と、前記視点に関する情報及び前記関連情報を用いて、前記第1の映像に関連し、前記第1の映像と連動する第2の映像を生成する生成部と、を備える、情報処理装置が提供される。

Description

情報処理装置、情報処理方法、及びプログラム
 本開示は、情報処理装置、情報処理方法、及びプログラムに関する。
 近年、ある映像(第1の映像)と、当該映像に関連する他の映像(第2の映像)とを表示するための技術が開発されている。例えば以下の非特許文献1には、テレビのディスプレイに表示されるゲームの映像(第1の映像)を補う映像(第2の映像)をテレビのディスプレイ外に投影することで没入感を高める技術が公開されている。
Andy Wilson、外1名、"IllumiRoom: Peripheral Projected Illusions for Interactive Experiences"、[online]、2013年1月4日、Microsoft、[平成31年2月15日検索]、インターネット〈URL:https://www.microsoft.com/en-us/research/project/illumiroom-peripheral-projected-illusions-for-interactive-experiences/〉
 しかし、上記の技術等によっては、第1の映像に関連する第2の映像を適切に生成することができない場合があった。例えば、非特許文献1で公開されている技術によっては、表示される第1の映像の内容が予め決まっていることが前提であり、例えば、ある視点から撮影された映像が配信される場合等(例えば、スポーツ中継等)のように、第1の映像の内容が予め決まっていない場合に第2の映像を適切に生成することができない(なお、これは第2の映像を適切に生成することができない場合の具体例であり、本開示の課題は必ずしもこれに限定されない点に留意されたい)。
 そこで、本開示は、上記事情に鑑みてなされたものであり、第1の映像に関連する第2の映像をより適切に生成することが可能な、新規かつ改良された情報処理装置、情報処理方法、及びプログラムを提供する。
 本開示によれば、第1の映像が撮影された視点に関する情報を取得する視点情報取得部と、前記第1の映像の関連情報を取得する関連情報取得部と、前記視点に関する情報及び前記関連情報を用いて、前記第1の映像に関連し、前記第1の映像と連動する第2の映像を生成する生成部と、を備える、情報処理装置が提供される。
 また、本開示によれば、第1の映像が撮影された視点に関する情報を取得することと、前記第1の映像の関連情報を取得することと、前記視点に関する情報及び前記関連情報を用いて、前記第1の映像に関連し、前記第1の映像と連動する第2の映像を生成することと、を有する、コンピュータにより実行される情報処理方法が提供される。
 また、本開示によれば、第1の映像が撮影された視点に関する情報を取得することと、前記第1の映像の関連情報を取得することと、前記視点に関する情報及び前記関連情報を用いて、前記第1の映像に関連し、前記第1の映像と連動する第2の映像を生成することと、をコンピュータに実現させるためのプログラムが提供される。
第1の実施形態の概要を示す図である。 第1の実施形態に係る情報処理システムの構成例を示すブロック図である。 第1の実施形態に係る情報処理装置を示すブロック図である。 第1の実施形態に係る情報処理装置の処理フロー例を示すフローチャートである。 第1の実施形態に係る情報処理装置の処理フロー例を示すフローチャートである。 第2の実施形態に係る情報処理装置の処理フロー例を示すフローチャートである。 第2の実施形態に係る情報処理装置の処理フロー例を示すフローチャートである。 第3の実施形態に係る情報処理システムの構成例を示すブロック図である。 第3の実施形態に係る情報処理装置の構成例を示すブロック図である。 第3の実施形態に係る情報処理装置の処理フロー例を示すフローチャートである。 第3の実施形態に係る情報処理装置の処理フロー例を示すフローチャートである。 合成映像における第1の映像及び第2の映像それぞれの大きさや形状の決定方法を説明する図である。 合成映像における第1の映像及び第2の映像それぞれの大きさや形状の決定方法を説明する図である。 合成映像における第1の映像及び第2の映像それぞれの大きさや形状の決定方法を説明する図である。 合成映像における第1の映像及び第2の映像それぞれの大きさや形状の決定方法を説明する図である。 第4の実施形態に係る情報処理装置の構成例を示すブロック図である。 第4の実施形態に係る情報処理装置の処理フロー例を示すフローチャートである。 第4の実施形態に係る情報処理装置の処理フロー例を示すフローチャートである。 第5の実施形態に係る情報処理装置の構成例を示すブロック図である。 第5の実施形態に係る情報処理装置の処理フロー例を示すフローチャートである。 第5の実施形態に係る情報処理装置の処理フロー例を示すフローチャートである。 第6の実施形態に係る情報処理システムの構成例を示すブロック図である。 第6の実施形態に係る情報処理装置の構成例を示すブロック図である。 第6の実施形態に係る情報処理装置の処理フロー例を示すフローチャートである。 第6の実施形態に係る情報処理装置の処理フロー例を示すフローチャートである。 第2の映像が第2の映像表示装置の表示可能な領域に収まらない場合の対応を説明する図である。 各実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.第1の実施形態
 2.第2の実施形態
 3.第3の実施形態
 4.第4の実施形態
 5.第5の実施形態
 6.第6の実施形態
 7.備考
 8.ハードウェア構成例
  <1.第1の実施形態>
 まず、本開示に係る第1の実施形態について説明する。
 図1は、本開示の第1の実施形態の概要を示す図である。図1に示すように、第1の実施形態に係る情報処理システムは、第1の映像10を表示する第1の映像表示装置600と、第1の映像10に関連し、第1の映像10と連動する第2の映像20を表示する第2の映像表示装置700と、を備える。
 図1の例では、第1の映像表示装置600は、テレビであり、サッカーの試合の映像を第1の映像10として表示している。また、第2の映像表示装置700は、プロジェクタであり、第1の映像10を表示するテレビのディスプレイに向けて、第1の映像10に欠けている映像を第2の映像20として投影している(換言すると、第1の映像10と、第2の映像20とは、欠けている情報を相互に補い合う)。より具体的には、第2の映像表示装置700は、第1の映像10に欠けている範囲に含まれる選手に対応する映像21やグラウンドに対応する映像22等を投影している。また、図1に示すように、第1の映像10と、第2の映像20とは、グラウンドの白線の情報を相互に補い合っている(換言すると、第1の映像10又は第2の映像20は、第1の映像10の撮影対象に応じて決まる枠(グラウンドの白線)の少なくとも一部を含む)。
 ここで、第2の映像20は、第1の映像10が表示されていない範囲に表示されてもよいし、第1の映像10に重畳されるように表示されてもよい。例えば、第1の映像10に表示されていない、選手名等の情報を示す第2の映像20が第1の映像10に重畳されるように表示されてもよい。また、第2の映像20は、第1の映像10が撮影された視点からの映像に変換された状態で投影されている(すなわち、第1の映像10と第2の映像20とで視点が一致している)。
 これによって、第1の映像10が撮影された視点(カメラアングル)が変更されなくても、視聴者は、カメラの画枠外の情報をリアルタイムで直感的に認識することができる。したがって、例えば第1の映像10が被写体の拡大映像である場合でも、視聴者は、会場における被写体の位置(例えば、グラウンドにおける選手の位置)や、会場全体の状況等を直感的に認識することができる。また、本実施形態に係る情報処理システムは、上記の処理によって、第1の映像10と第2の映像20とが相互に繋がっているように見せることができるため、表示画面が大きくなったような印象を視聴者に与えることができる。
 なお、図1はあくまで本実施形態の概要を示す図であり、本実施形態の内容は必ずしも図1の例に限定されない。以降では、本実施形態を詳細に説明していく。
 (1.1.構成例)
 上記では、第1の実施形態の概要について説明した。続いて、図2及び図3を参照して、第1の実施形態に係る構成例について説明する。
 図2は、第1の実施形態に係る情報処理システムの構成例を示すブロック図である。図2に示すように、第1の実施形態に係る情報処理システムは、情報処理装置100と、カメラ群200と、編集装置300と、会場装置400と、関連情報生成装置500と、第1の映像表示装置600と、第2の映像表示装置700と、を備える。
 カメラ群200は、第1の映像10を撮影する1又は2以上のビデオカメラ等の装置である。より具体的には、カメラ群200は、会場(例えば、サッカースタジアム等)において1又は2以上の位置に配置されたビデオカメラ等である。カメラ群200は、生成した第1の映像10の各フレームを順次編集装置300及び関連情報生成装置500に提供する。なお、カメラ群200を実現する装置(ビデオカメラ等)の種類及び台数は特に限定されない。
 編集装置300は、カメラ群200における複数のビデオカメラによって撮影された映像を随時選択する装置である。映像の選択方法は特に限定されず、例えば映像の配信者からの入力等によって映像が選択され得る。編集装置300は、選択した映像の各フレームを情報処理装置100及び関連情報生成装置500に提供する。なお、編集装置300は、各種画像処理を行ってもよい。また、編集装置300の種類及び台数は特に限定されない。また、編集装置300は、映像機能を有する装置と、中継機能を有する装置とで実現されてもよい。また、情報処理装置100への第1の映像10の提供方法は特に限定されない。例えば、第1の映像10は、テレビ放送に用いられる放送網又はインターネットを含む任意の通信回線を介して情報処理装置100へ提供されてもよいし、第1の映像10が任意の記録媒体に記録され、当該記録媒体が情報処理装置100に接続されることで第1の映像10が情報処理装置100へ提供されてもよい。
 会場装置400は、第1の映像10の関連情報の生成に用いられる情報を取得する装置である。ここで、「関連情報」とは、第1の映像10に関連する何らかの情報であればよい。例えば、関連情報は、被写体として第1の映像10に映り得る会場に関する情報(サッカー中継の例では、グラウンドの形状、スタジアムの形状、又はスタジアムに配置されるビデオカメラの位置等)、人に関する情報(サッカー中継の例では、選手名、位置、姿勢、体格、顔画像、背番号、ポジション、又は心拍数等の生体情報等)、物体に関する情報(サッカー中継の例では、サッカーボールの位置やスピン量、又はゴールポストの位置等)、又はこれらの解析結果に関する情報等(サッカー中継の例では、オフサイドラインの位置、選手やボールの動きの軌道、又は動きの予測結果等)を含み、必ずしもこれらに限定されない。関連情報が、第1の映像10の内容に基づいて変わることは言うまでもない。例えば、第1の映像10の内容がコンサートや演劇であれば、関連情報に含まれる、会場に関する情報はステージ(舞台)の形状等であり得、人に関する情報は演者名、位置、姿勢、体格、顔画像、衣装、役名、セリフ、譜面、歌詞、又は心拍数等の生体情報等であり得、物体に関する情報はセットの位置等であり得、これらの解析結果に関する情報はコンサートや演劇の進行状況等であり得る。なお、関連情報の内容は必ずしも上記に限定されない。例えば、編集装置300によって選択されたビデオカメラの識別情報等であってもよい。会場装置400は、会場、人、又は物体等に備えられた1又は2以上のセンサ(例えば、位置センサ、加速度センサ、ジャイロセンサ、又はイメージセンサ等)であり、上記の関連情報の生成に用いられるセンサデータを取得し、当該センサデータを関連情報生成装置500に提供する。なお、会場装置400の種類及び台数は特に限定されない。
 関連情報生成装置500は、関連情報を生成する装置である。より具体的には、関連情報生成装置500は、カメラ群200、編集装置300及び会場装置400から提供された情報を解析することで関連情報を生成する。例えば、カメラ群200から第1の映像10が提供されたり、編集装置300により選択された第1の映像10が提供されたりした場合、関連情報生成装置500は、当該第1の映像10を解析することで、上記で説明した関連情報を生成する。また、会場装置400からセンサデータが提供された場合、関連情報生成装置500は、当該センサデータを解析することで関連情報を生成する。そして、関連情報生成装置500は、生成した関連情報を情報処理装置100へ提供する。なお、関連情報生成装置500の種類及び台数は特に限定されない。また、一部の関連情報は、第1の映像10やセンサデータの解析によってではなく、関連情報生成装置500に別途提供されてもよい。例えば、スタジアムの形状等のように既知の関連情報は、映像の配信者からの入力等により関連情報生成装置500に別途提供されてもよい。また、関連情報生成装置500によって生成される関連情報は、第1の映像10のフレームと同期されていることが望ましいが、必ずしも同期されていなくてもよい。また、情報処理装置100への関連情報の提供方法は特に限定されない。例えば、関連情報は、テレビ放送に用いられる放送網又はインターネットを含む任意の通信回線を介して情報処理装置100へ提供されてもよいし、関連情報が任意の記録媒体に記録され、当該記録媒体が情報処理装置100に接続されることで関連情報が情報処理装置100へ提供されてもよい。
 情報処理装置100は、第1の映像10及び関連情報を用いて第2の映像20を生成する装置である。情報処理装置100の構成例の詳細については後述する。情報処理装置100は、第1の映像10を第1の映像表示装置600へ、第2の映像20を第2の映像表示装置700へそれぞれ提供する。なお、情報処理装置100は、視聴者のPC(Personal Computer)又はスマートフォン等により実現され得るところ、必ずしもこれらに限定されず、その台数も特に限定されない。
 第1の映像表示装置600は、第1の映像10を表示する装置である。例えば図1に示したように、第1の映像表示装置600はテレビであり得るところ、必ずしもこれに限定されない。より具体的には、第1の映像表示装置600は、第1の映像10を表示することができる据え置き型ディスプレイを備えた装置(例えば、PC等)、又は第1の映像10を投影することができる装置等(例えば、プロジェクタ等)を含む。また、第1の映像表示装置600の台数も特に限定されない。
 第2の映像表示装置700は、第2の映像20を表示する装置である。例えば図1に示したように、第2の映像表示装置700はプロジェクタであり得るところ、第1の映像表示装置600と同様に必ずしもこれに限定されない。また、第2の映像表示装置700の台数も特に限定されない。
 以上、本実施形態に係る情報処理システムの構成例について説明した。なお、図2を参照して説明した上記の構成はあくまで一例であり、本実施形態に係る情報処理システムの構成は係る例に限定されない。本実施形態に係る情報処理システムの構成は、仕様や運用に応じて柔軟に変形可能である。
 図3は、第1の実施形態に係る情報処理装置100を示すブロック図である。図3に示すように、情報処理装置100は、第1の映像取得部110と、視点情報取得部120と、関連情報取得部130と、生成部140と、遅延同期部150と、第1の映像提供部160と、第2の映像提供部170と、を備える。また、生成部140は、座標変換部141と、第2の映像生成部142と、位置関係計算部143と、表示位置補正部144と、を備える。
 第1の映像取得部110は、第1の映像10を取得する構成である。より具体的には、第1の映像取得部110は、編集装置300によって選択された第1の映像10の各フレームを順次取得する。第1の映像取得部110は、第1の映像10を編集装置300から受信することで第1の映像10を取得してもよいし、他の構成によって編集装置300から受信された第1の映像10を取得してもよい。第1の映像取得部110は、取得した第1の映像10を視点情報取得部120及び遅延同期部150に提供する。
 関連情報取得部130は、第1の映像10の関連情報を取得する構成である。より具体的には、関連情報取得部130は、関連情報生成装置500によって生成された関連情報を順次取得する。関連情報取得部130は、関連情報を関連情報生成装置500から受信することで関連情報を取得してもよいし、他の構成によって関連情報生成装置500から受信された関連情報を取得してもよい。関連情報取得部130は、取得した関連情報を視点情報取得部120及び生成部140に提供する。
 視点情報取得部120は、第1の映像10が撮影された視点に関する情報を取得する構成である。より具体的には、視点情報取得部120は、関連情報に含まれる、会場に関する情報(サッカー中継の例では、グラウンドの形状、スタジアムの形状、又はスタジアムに配置されるビデオカメラの位置等)を用いて第1の映像10を解析することで、第1の映像10が撮影された視点を求める。
 例えば、視点情報取得部120は、関連情報に含まれる「第1の映像10の撮影対象に応じて決まる枠」(以降、単に「枠」とも呼称する)に関する情報を用いて第1の映像10を解析することで、第1の映像10が撮影された視点を求める。枠とは、サッカー中継の例ではグラウンドの白線(換言すると、グラウンドの形状)であるところ、第1の映像10の撮影対象に応じてその内容が変わることは言うまでもない。例えば、第1の映像10の撮影対象がバスケットボールの試合であれば、枠はコートの白線とゴールリングであり得、第1の映像10の撮影対象がカーレースであれば、枠はコース左右の白線であり得、第1の映像10の撮影対象がコンサートや演劇であれば、枠は舞台を示すものであり得る。視点情報取得部120は、関連情報によってグラウンドの形状を認識し、第1の映像10に映るグラウンドの白線と比較することで、第1の映像10が撮影された視点を特定(取得)する。視点情報取得部120は、グラウンドの白線(枠)を用いることで、第1の映像10が撮影された視点をより容易に特定することができる。視点情報取得部120は、この方法により、第1の映像10が撮影された視点だけでなく、第1の映像10が撮影されたアングル(角度)や倍率等の、撮影に関する諸情報を取得することもできる。視点情報取得部120は、取得した視点に関する情報(又は、アングルや倍率等の情報が含まれてもよい)を生成部140へ提供する。
 なお、視点情報取得部120が視点に関する情報を取得する方法は上記方法に限定されない。例えば、第1の映像10が撮影された視点に関する情報が関連情報に含まれていたり、第1の映像10にメタデータとして付加されていたりすることで、視点情報取得部120は、視点に関する情報を関連情報や第1の映像10から取得してもよい。また、第1の映像10に枠が含まれていない場合等(例えば、第1の映像10が選手や客席を拡大した映像やリプレイ映像である場合等)において、視点に関する情報の取得に失敗した場合、視点情報取得部120はその旨を示す情報(以降、「取得不可情報」と呼称する)を生成部140へ提供する。
 生成部140は、視点に関する情報及び関連情報を用いて、第1の映像10に関連し、第1の映像10と連動する第2の映像20を生成する構成である。生成部140は、後段で説明する各構成によって第2の映像20の各フレームを生成し、当該フレームを第2の映像提供部170へ提供する。また、生成部140は、第2の映像20の生成に要した時間に関する情報を遅延同期部150へ提供する。これにより、遅延同期部150は、第2の映像20の生成時に生じた遅延を補償し、第1の映像10と第2の映像20の表示タイミングを同期させることができる。
 座標変換部141は、第1の映像10が撮影された視点に基づいて、関連情報の座標変換を行う構成である。例えば、座標変換部141は、関連情報に含まれる、会場に関する情報(サッカー中継の例では、グラウンドの形状、スタジアムの形状、又はスタジアムに配置されるビデオカメラの位置等)、人に関する情報(サッカー中継の例では、選手の位置、又は姿勢等)、物体に関する情報(サッカー中継の例では、サッカーボールの位置、又はゴールポストの位置等)、又はこれらの解析結果に関する情報等(サッカー中継の例では、オフサイドラインの位置、選手やボールの動きの軌道、又は動きの予測結果等)を、第1の映像10が撮影された視点に基づいて座標変換することで、当該視点を基準としたときの位置や形状等を出力する。上記のとおり、関連情報と第1の映像10の各フレームとは同期していることが望ましいところ、これらが同期していない場合、座標変換部141は、処理対象となる第1の映像10のフレームと最も近い時刻の関連情報を上記処理に用いる。座標変換部141は、処理後の関連情報を第2の映像生成部142へ提供する。なお、第1の映像10が撮影されたときの倍率等の情報が視点情報取得部120から提供される場合、座標変換部141は、これらの情報も用いて倍率変換等を行ってもよい。また、視点情報取得部120から取得不可情報が提供された場合(換言すると、視点に関する情報の取得に失敗した場合)、座標変換部141は上記の座標変換を省略する。
 第2の映像生成部142は、座標変換後の関連情報を用いて第2の映像20を生成する構成である。より具体的には、第2の映像生成部142は、座標変換後の関連情報に対応する映像を生成することで第2の映像20を生成する。「関連情報に対応する映像」とは、第2の映像20として表示される対象(オブジェクト)であり、図1の例では、選手に対応する映像21やグラウンドに対応する映像22である。「関連情報に対応する映像」の内容が関連情報に応じて変わることは言うまでもない。例えば、関連情報に含まれる選手名、背番号、ポジション等の情報が第2の映像20として生成され、選手の映像に重畳するように表示されてもよい。また、第2の映像生成部142は、視聴者が直感的に第2の映像20を認識できるように、第2の映像20の態様を制御してもよい。例えば、第2の映像生成部142は、第2の映像20の色彩を、対象の色彩に近いものにしてもよいし(例えば、第2の映像20である選手の映像の色彩を、実際に選手が着用しているユニフォームの色彩にする等)、対象を簡略化若しくはデフォルメしたものを第2の映像20にしてもよいし(例えば、選手を簡略化した人型を第2の映像20にする等)、第2の映像20の輪郭を強調させたり、第2の映像20を点滅させたりしてもよいし、対象の高さ(例えば、選手の身長等)や遠近に応じて第2の映像20の大きさを変更したりしてもよい。第2の映像生成部142は、座標変換後の関連情報に基づいて、関連情報に対応する映像を生成する(又は、関連情報に当該映像が含まれる場合には、当該映像を取得してもよい)。そして、第2の映像生成部142は、生成した第2の映像20を表示位置補正部144に提供する。生成部140は、以上で説明した座標変換部141及び第2の映像生成部142の処理から、関連情報に対応する映像を、第1の映像10が撮影された視点からの映像に変換することで第2の映像20を生成すると言える点に留意されたい。
 これによって、第1の映像10が撮影された視点(カメラアングル)が変更されなくても、視聴者は、カメラの画枠外の情報をリアルタイムで直感的に認識することができる。したがって、例えば第1の映像10が被写体の拡大映像である場合でも、視聴者は、会場における被写体の位置(例えば、グラウンドにおける選手の位置)や、会場全体の状況等を直感的に認識することができる。また、第2の映像生成部142は、上記の処理によって、第1の映像10と第2の映像20とが相互に繋がっているように見せることができるため、表示画面が大きくなったような印象を視聴者に与えることができる。また、関連情報には、上記のとおり、各種解析結果に関する情報(サッカー中継の例では、オフサイドラインの位置、選手やボールの動きの軌道、又は動きの予測結果等)が含まれるため、第2の映像生成部142は、これらの情報を用いて第2の映像20を生成することで、オフサイドラインの位置、又は選手やボールの動きの軌道等のように第1の映像10からは分かりにくい情報を視聴者へ提供することができる。
 なお、視点情報取得部120から取得不可情報が提供された場合(換言すると、視点に関する情報の取得に失敗した場合)、第2の映像生成部142は、代替用の第2の映像20を生成する。例えば、第1の映像10が選手や客席を拡大した映像やリプレイ映像に切り替わる等の理由により視点に関する情報の取得が失敗した場合、第2の映像生成部142は、会場全体が映る映像を代替用の第2の映像20として生成してもよい。このような代替用の第2の映像20が生成され表示されることで、例えば第1の映像10が選手や客席を拡大した映像やリプレイ映像に切り替わっても、視聴者は会場全体の様子を容易に認識することができる。なお、代替用の第2の映像20の内容は特に限定されない。もちろん、第2の映像生成部142は、代替用の第2の映像20を生成することなく、第2の映像20の生成を省略したり、最後に視点が特定された時点(換言すると、第1の映像10が切り替わる直前)の視点からの第2の映像20を生成し続けたりしてもよい。
 位置関係計算部143は、第1の映像10が表示される位置と、第2の映像20が表示される位置との位置関係を計算する構成である。本実施形態では、第1の映像10を表示する第1の映像表示装置600がテレビであり、第2の映像20を表示する第2の映像表示装置700がプロジェクタであるため、位置関係計算部143は、テレビのディスプレイの位置と、プロジェクタの投影位置との位置関係を計算する。位置関係計算部143は、当該位置関係に関する情報を表示位置補正部144へ提供する。これによって、後段の表示位置補正部144は、テレビのディスプレイの位置と、プロジェクタの投影位置との位置関係に基づいて第2の映像20の表示位置を適切に調節することができる。なお、第1の映像10が表示される位置と、第2の映像20が表示される位置とが理想的な位置関係にない場合、これらの位置を調節するための指示が行われてもよい。例えば、表示位置を調節するために第1の映像表示装置600又は第2の映像表示装置700が駆動されてもよい(例えば、プロジェクタがカメラを内蔵し、テレビに所定のマーカが付されることで、プロジェクタのカメラによって撮影された当該マーカの位置や大きさに基づいてプロジェクタの投影位置が自動的に調節される等)。また、第1の映像表示装置600又は第2の映像表示装置700の理想的な表示位置が視聴者に提示され、この提示に基づいて視聴者が第1の映像表示装置600又は第2の映像表示装置700の表示位置を調節してもよい(例えば、プロジェクタで長方形状のマーカを投影し、視聴者が当該マーカの四隅がテレビのディスプレイの四隅と一致するようにテレビのディスプレイの位置を調節する等)。
 表示位置補正部144は、第1の映像10が表示される位置と、第2の映像20が表示される位置との位置関係に基づいて第1の映像10が表示される位置又は第2の映像20が表示される位置の少なくともいずれか一方を補正する構成である。なお、本実施形態では、表示位置補正部144が第2の映像20の表示位置のみを補正する場合を一例として説明する。これによって、表示位置補正部144は、第1の映像10及び第2の映像20を適切な位置に表示させることができるため、視聴者は、図1に示すように、第1の映像10と第2の映像20とが繋がっているように見える。表示位置補正部144は、表示位置を補正した第2の映像20を第2の映像提供部170へ提供する。
 遅延同期部150は、第2の映像20の生成時に発生した遅延を補償し、第1の映像10と第2の映像20とを同期する構成である。より具体的には、遅延同期部150は、生成部140から提供される、第2の映像20の生成に要した時間に関する情報に基づいて、第2の映像20の生成に1フレーム以上の時間(必ずしも1フレームに限定されない)を要した場合、その時間だけ第1の映像10の表示タイミングを遅らせる。これによって、第1の映像10と第2の映像20とが略同一のタイミングで表示される。遅延同期部150は、第2の映像20と同期させた第1の映像10を第1の映像提供部160へ提供する。
 第1の映像提供部160は、遅延同期部150から提供された第1の映像10を第1の映像表示装置600へ提供する構成である。
 第2の映像提供部170は、生成部140から提供された第2の映像20を第2の映像表示装置700へ提供する構成である。
 以上、情報処理装置100の構成例について説明した。なお、図3を用いて説明した上記の構成はあくまで一例であり、情報処理装置100の構成は係る例に限定されない。例えば、情報処理装置100は、図3に示す構成の全てを必ずしも備えなくてもよいし、図3に示していない構成を備えていてもよい。また、情報処理装置100の構成は、仕様や運用に応じて柔軟に変形可能である。
 (1.2.処理フロー例)
 上記では、第1の実施形態に係る構成例について説明した。続いて、図4及び図5を参照して、第1の実施形態に係る情報処理装置100の処理フロー例について説明する。
 図4及び図5は、第1の実施形態に係る情報処理装置100の処理フロー例を示すフローチャートである。ステップS1000では、位置関係計算部143が、第1の映像10が表示される位置と、第2の映像20が表示される位置との位置関係を計算する。例えば、位置関係計算部143は、テレビのディスプレイの位置と、プロジェクタの投影位置との位置関係を計算する。そして、当該位置関係に基づいて第1の映像表示装置600又は第2の映像表示装置700の表示位置が適宜調節される。
 ステップS1004では、第1の映像取得部110が第1の映像10を取得する。より具体的には、第1の映像取得部110が、編集装置300によって選択された第1の映像10の各フレームを順次取得する。ステップS1008では、関連情報取得部130が第1の映像10の関連情報を取得する。より具体的には、関連情報取得部130が、関連情報生成装置500によって生成された関連情報を順次取得する。
 ステップS1012では、視点情報取得部120が第1の映像10を解析することで枠の検出を試みる。より具体的には、視点情報取得部120は、第1の映像10を解析することで第1の映像10に映るグラウンドの白線の検出を試みる。
 枠が検出された場合(ステップS1016/Yes)、ステップS1020にて、視点情報取得部120が当該枠に基づいて視点に関する情報を取得する。より具体的には、視点情報取得部120は、関連情報によってグラウンドの形状を認識し、第1の映像10に映るグラウンドの白線(枠)と比較することで、第1の映像10が撮影された視点を特定(取得)する。
 ステップS1024では、座標変換部141が第2の映像20の視点を決定する。座標変換部141は、基本的には、第1の映像10が撮影された視点と略同一の視点を第2の映像20の視点とするが、当該視点では第2の映像20が所定のサイズより大きい(すなわち、大き過ぎる)、又は所定のサイズより小さい(すなわち、小さ過ぎる)等の諸条件が満たされた場合、第2の映像20の視点を適宜調節してもよい。
 ステップS1028では、座標変換部141が関連情報の座標変換を行う。より具体的には、座標変換部141は、関連情報に含まれる、会場に関する情報(サッカー中継の例では、グラウンドの形状、スタジアムの形状、又はスタジアムに配置されるビデオカメラの位置等)、人に関する情報(サッカー中継の例では、選手の位置、又は姿勢等)、物体に関する情報(サッカー中継の例では、サッカーボールの位置、又はゴールポストの位置等)、又はこれらの解析結果に関する情報等(サッカー中継の例では、オフサイドラインの位置、選手やボールの動きの軌道、又は動きの予測結果等)を、第1の映像10が撮影された視点に基づいて座標変換することで、当該視点を基準としたときの位置や形状等を出力する。
 ステップS1032では、第2の映像生成部142が座標変換後の関連情報を用いて第2の映像20を生成する。より具体的には、第2の映像生成部142は、座標変換後の関連情報に対応する映像(サッカー中継の例では、図1に示した、選手に対応する映像21やグラウンドに対応する映像22)を生成することで第2の映像20を生成する。
 ステップS1016にて、枠が検出されなかった場合(ステップS1016/No)、ステップS1036にて、第2の映像生成部142は、代替用の第2の映像20を生成する。例えば、第1の映像10が選手や客席を拡大した映像又はリプレイ映像に切り替わる等の理由により枠の検出に失敗した場合、第2の映像生成部142は、会場全体が映る映像等を代替用の第2の映像20として生成してもよい。
 ステップS1040では、表示位置補正部144が第2の映像20の表示位置を補正する。より具体的には、位置関係計算部143によって計算された、第1の映像10の表示位置と、第2の映像20の表示位置との位置関係に基づいて、表示位置補正部144が第2の映像20の表示位置を補正する。
 ステップS1044では、第2の映像表示装置700が第2の映像20を表示する。より具体的には、第2の映像提供部170が、表示位置補正後の第2の映像20を第2の映像表示装置700(図1の例では、プロジェクタ)へ提供し、第2の映像表示装置700が当該第2の映像20を表示(投影)する。
 ステップS1048では、遅延同期部150が、第1の映像10に対する第2の映像20の遅延を補償し、第1の映像10と第2の映像20とを同期させる。より具体的には、遅延同期部150が、生成部140から提供される、第2の映像20の生成に要した時間に関する情報に基づいて、第2の映像20の生成に1フレーム以上の時間(必ずしも1フレームに限定されない)を要した場合、その時間だけ第1の映像10の表示タイミングを遅らせる。
 ステップS1052では、第1の映像表示装置600が第1の映像10を表示する。より具体的には、第1の映像提供部160が、遅延補償後の第1の映像10を第1の映像表示装置600(図1の例では、テレビ)へ提供し、第1の映像表示装置600が当該第1の映像10を表示する。
 視聴者に提供されるコンテンツが終了した場合(ステップS1056/Yes)、一連の処理が終了する。視聴者に提供されるコンテンツが終了していない場合(ステップS1056/No)、処理がステップS1004へ移動し、ステップS1004~ステップS1052の処理が繰り返される。
 なお、図4及び図5のフローチャートにおける各ステップは、必ずしも記載された順序に沿って時系列に処理される必要はない。すなわち、フローチャートにおける各ステップは、記載された順序と異なる順序で処理されても、並列的に処理されてもよい(以降で説明するフローチャートも同様)。
  <2.第2の実施形態>
 上記では、本開示に係る第1の実施形態について説明した。続いて、本開示に係る第2の実施形態について説明する。
 本開示に係る第2の実施形態においては、第2の映像20が、視聴者によって装着された透過型ヘッドマウントディスプレイによって表示される(換言すると、第2の映像表示装置700が透過型ヘッドマウントディスプレイである)。透過型ヘッドマウントディスプレイは、第2の映像20を表示することで、視聴者にAR(Augmented Reality)を提供することができる。第1の映像10は、第1の実施形態と同様にテレビ等に表示されるとする。
 第2の実施形態に係る構成例について説明する。透過型ヘッドマウントディスプレイの位置及び姿勢は、視聴者の位置及び姿勢に応じて刻々と変化する。すなわち、第1の映像10が表示される位置と、第2の映像20が表示される位置との位置関係は、視聴者の位置及び姿勢(換言すると、視点)に応じて変わる。そこで、第2の実施形態に係る位置関係計算部143は、第1の映像10が表示される位置と、第2の映像20が表示される位置との位置関係を随時計算し、当該位置関係に関する情報を表示位置補正部144へ提供する。より具体的には、位置関係計算部143は、透過型ヘッドマウントディスプレイに搭載されている各種センサ(例えば、位置センサ、ジャイロセンサ、又はイメージセンサ等)のセンサデータを解析することで透過型ヘッドマウントディスプレイの位置及び姿勢を算出する。そして、位置関係計算部143は、当該位置及び姿勢に基づいて、第1の映像10が表示される位置と、第2の映像20が表示される位置との位置関係を随時計算し、当該位置関係に関する情報を表示位置補正部144へ提供する。これによって、表示位置補正部144は、刻々と変化する透過型ヘッドマウントディスプレイの位置及び姿勢に応じて第1の映像10又は第2の映像20の表示位置を調節することができる。その他の構成例については、情報処理システムの構成例は図2(第1の実施形態に係る情報処理システムの構成例)と同様であり得、情報処理装置100の構成例は図3(第1の実施形態に係る情報処理装置100の構成例)と同様であり得るため説明を省略する。
 図6及び図7を参照して、第2の実施形態に係る情報処理装置100の処理フロー例について説明する。図6及び図7は、第2の実施形態に係る情報処理装置100の処理フロー例を示すフローチャートである。図6及び図7と、図4及び図5(第1の実施形態に係る情報処理装置100の処理フロー例)とを比較すると分かるように、第2の実施形態に係る情報処理装置100の処理フロー例においては、図6のステップS1132にて、位置関係計算部143が、第1の映像10が表示される位置と、第2の映像20が表示される位置との位置関係を計算する。換言すると、第2の映像20の表示位置の補正(ステップS1140)の直前で、第1の映像10の表示位置と第2の映像20の表示位置との位置関係が計算される。これによって、視聴者の位置及び姿勢に応じて透過型ヘッドマウントディスプレイ(第2の映像表示装置700)の位置及び姿勢が変化しても、情報処理装置100は、その変化に適切に対応し、第2の映像20を適切な位置に表示させることができる。その他の処理については、図4及び図5(第1の実施形態に係る情報処理装置100の処理フロー例)と同様であり得るため説明を省略する。
 第2の実施形態においても、第1の実施形態と同様の効果が得られる。より具体的には、第2の映像20が透過型ヘッドマウントディスプレイ(例えば、メガネ型装置のレンズ部分)に表示されることにより、第1の映像10が撮影された視点(カメラアングル)が変更されなくても、視聴者は、カメラの画枠外の情報をリアルタイムで直感的に認識することができる。加えて、第2の実施形態では、第2の映像20が視聴者毎に提供されるため、複数の視聴者が互いに異なる位置から第1の映像10を見ている場合でも、各視聴者に適した第2の映像20が提供される(換言すると、第2の映像20が視聴者毎に最適化される)。
  <3.第3の実施形態>
 上記では、本開示に係る第2の実施形態について説明した。続いて、本開示に係る第3の実施形態について説明する。
 本開示に係る第3の実施形態においては、第1の映像10及び第2の映像20が合成されることで合成映像が生成され、当該合成映像が非透過型ヘッドマウントディスプレイによって表示される。情報処理装置100は、例えば仮想空間を構成する映像を合成映像として生成することで、非透過型ヘッドマウントディスプレイを装着している視聴者にVR(Virtual Reality)を提供してもよい。例えば、合成映像は、第1の映像10を表示する仮想的な第1の映像表示装置600(例えば、テレビ)に、仮想的な第2の映像表示装置700(例えば、プロジェクタ)によって第2の映像20が投影される様子を表す映像であってもよい。そして、非透過型ヘッドマウントディスプレイの位置及び姿勢に応じて視聴者が視認できる範囲が変わる。なお、合成映像は、仮想的な第1の映像表示装置600及び第2の映像表示装置700の他に、背景となる仮想的な物体等(例えば、壁や家具等)を含んでいてもよい。これによって、視聴者は、より仮想空間に没入し易くなる。また、視聴者に提供される映像は、必ずしもVRに係る映像に限定されない。
 図8及び図9を参照して、第3の実施形態に係る構成例について説明する。図8は、第3の実施形態に係る情報処理システムの構成例を示すブロック図である。図8と図2(第1の実施形態に係る情報処理システムの構成例)とを比較すると分かるように、第1の実施形態に係る第1の映像表示装置600及び第2の映像表示装置700の代りに、映像表示装置800が備えられている。
 情報処理装置100は、第1の映像10及び第2の映像20を合成することで合成映像を生成し、当該合成映像を映像表示装置800へ提供する。そして、映像表示装置800は合成映像を表示することで視聴者へ提供する。本実施形態に係る映像表示装置800は、上記のとおり非透過型ヘッドマウントディスプレイであるとする。なお、映像表示装置800は、必ずしも非透過型ヘッドマウントディスプレイに限定されない。
 図9は、第3の実施形態に係る情報処理装置100の構成例を示すブロック図である。図9と図3(第1の実施形態に係る情報処理装置100の構成例)とを比較すると分かるように、第1の実施形態に係る位置関係計算部143及び表示位置補正部144が無くなり、合成映像生成部145が新たに備えられている。また、第1の実施形態に係る第1の映像提供部160及び第2の映像提供部170の代りに、映像提供部180が備えられている。
 合成映像生成部145は、第1の映像取得部110により取得された第1の映像10、及び第2の映像生成部142により生成された第2の映像20を合成することで合成映像を生成する構成である。本実施形態においても、遅延同期部150は、第2の映像20の生成時に発生した遅延を補償する。より具体的には、遅延同期部150は、生成部140から提供される、第2の映像20の生成に要した時間に関する情報に基づいて、第2の映像20の生成に1フレーム以上の時間(必ずしも1フレームに限定されない)を要した場合、その時間だけ第1の映像10の提供タイミングを遅らせる。これによって、合成映像生成部145は、同期のとれた第1の映像10及び第2の映像20を用いて合成映像を生成することができる。合成映像生成部145は、生成した合成映像を映像提供部180へ提供する。映像提供部180は、合成映像生成部145から提供された合成映像を映像表示装置800へ提供する構成である。その後、映像表示装置800が合成映像を表示する。その他の構成例については、情報処理システムの構成例は図2(第1の実施形態に係る情報処理システムの構成例)と同様であり得、情報処理装置100の構成例は図3(第1の実施形態に係る情報処理装置100の構成例)と同様であり得るため説明を省略する。
 図10及び図11を参照して、第3の実施形態に係る情報処理装置100の処理フロー例について説明する。図10及び図11は、第3の実施形態に係る情報処理装置100の処理フロー例を示すフローチャートである。ステップS1200~ステップS1232は、図6及び図7(第2の実施形態に係る処理フロー例)のステップS1100~ステップS1136と同様であるため説明を省略する。ステップS1236では、合成映像生成部145が第1の映像10及び第2の映像20を合成することで合成映像を生成する。その際、遅延同期部150によって第2の映像20の生成時に発生した遅延が補償されている。ステップS1240では、映像表示装置800が合成映像を表示する。より具体的には、映像提供部180が合成映像を映像表示装置800へ提供し、映像表示装置800が当該合成映像を表示する。
 第3の実施形態においても、第1の実施形態と同様の効果が得られる。より具体的には、第1の映像10だけでなく第2の映像20も用いて合成映像が生成されることにより、第1の映像10が撮影された視点(カメラアングル)が変更されなくても、視聴者は、カメラの画枠外の情報をリアルタイムで直感的に認識することができる。加えて、第3の実施形態では、第1の映像10と第2の映像20とが別々に表示される場合とは異なり、第1の映像10又は第2の映像20の表示位置を補正することが求められないため、情報処理装置100の処理が簡略化され、かつ、第1の映像10の表示位置と第2の映像20の表示位置とがずれる恐れが無くなる。
  <4.第4の実施形態>
 上記では、本開示に係る第3の実施形態について説明した。続いて、本開示に係る第4の実施形態について説明する。
 本開示に係る第4の実施形態においては、合成映像を表示する映像表示装置800が、据え置き型ディスプレイを備えた装置(例えば、テレビやPC等)である。なお、据え置き型ディスプレイを備えた装置の種類は特に限定されない。第4の実施形態に係る情報処理装置100は、映像表示装置800におけるディスプレイ全体のサイズに比べて小さい第1の映像10と、ディスプレイにおける第1の映像10以外の余白部分に配置した第2の映像20とを合成することで合成映像を生成する。
 例えば、図12に示すように、情報処理装置100は、縦辺と横辺の長さが映像表示装置800のディスプレイの縦辺と横辺の長さの75[%]となる第1の映像10と、ディスプレイにおける第1の映像10以外の余白部分に配置した第2の映像20とを合成することで合成映像を生成してもよい。なお、合成映像における第1の映像10及び第2の映像20それぞれの大きさや形状の決定方法は上記に限定されない。
 例えば、合成映像における第1の映像10又は第2の映像20の少なくともいずれか一方に含まれる人数又は物体の数の最小値が設定され、その最小値に基づいて第1の映像10及び第2の映像20それぞれの大きさや形状が決定されてもよい。例えば、図13に示すように、第1の映像10に含まれる選手に対応する映像11の数、又は第2の映像20に含まれる選手に対応する映像21の数の少なくともいずれか一方に最小値が設定されてもよい。これにより、表示の混雑具合が調節される。
 また、合成映像における第1の映像10又は第2の映像20の少なくともいずれか一方に含まれるべき人又は物体が設定され、その設定に基づいて第1の映像10及び第2の映像20それぞれの大きさや形状が決定されてもよい。例えば、図14に示すように、合成映像における第1の映像10又は第2の映像20の少なくともいずれか一方に含まれるべき選手(図14の例では、映像21aに対応する選手)が設定されてもよい。これにより、注目されるべき人又は物体の情報が常に視聴者に提示される。
 また、合成映像における第1の映像10又は第2の映像20の少なくともいずれか一方に含まれるべき範囲(又は領域)が設定され、その設定に基づいて第1の映像10及び第2の映像20それぞれの大きさや形状が決定されてもよい。例えば、図15に示すように、合成映像における第1の映像10又は第2の映像20の少なくともいずれか一方に含まれるべき領域(図15の例では、映像23に対応する領域)が設定されてもよい。これにより、注目されるべき範囲(又は領域)の情報が常に視聴者に提示される。
 なお、合成映像における第1の映像10及び第2の映像20それぞれの大きさや形状の決定に用いられる条件(以降、「映像条件」と呼称する)の設定は、映像の配信者によって行われてもよいし、視聴者によって行われてもよい。以降では、映像条件の設定が視聴者によって行われる場合を一例として説明する。
 図16を参照して、第4の実施形態に係る構成例について説明する。図16は、第4の実施形態に係る情報処理装置100の構成例を示すブロック図である。図16と図9(第3の実施形態に係る情報処理装置100の構成例)とを比較すると分かるように、映像条件設定部146が新たに備えられている。
 映像条件設定部146は、視聴者からの入力に基づいて映像条件、すなわち第1の映像10に関する条件、又は第2の映像20に関する条件の少なくともいずれかを設定する構成である。その後、合成映像生成部145は、映像条件設定部146によって設定された映像条件を用いて合成映像を生成する。その他の構成例については、情報処理システムの構成例は図8(第3の実施形態に係る情報処理システムの構成例)と同様であり得、情報処理装置100の構成例は図9(第3の実施形態に係る情報処理装置100の構成例)と同様であり得るため説明を省略する。
 図17及び図18を参照して、第4の実施形態に係る情報処理装置100の処理フロー例について説明する。図17及び図18は、第4の実施形態に係る情報処理装置100の処理フロー例を示すフローチャートである。ステップS1300では、映像条件設定部146が視聴者からの入力に基づいて映像条件を設定する。これによって、後段の処理(ステップS1340)では、映像条件に基づいて合成映像が生成される。ステップS1304~ステップS1348は、図10及び図11(第3の実施形態に係る処理フロー例)のステップS1200~ステップS1244と同様であるため説明を省略する。
 第4の実施形態においても、第1の実施形態と同様の効果が得られる。より具体的には、第1の映像10だけでなく第2の映像20も用いて合成映像が生成されることにより、第1の映像10が撮影された視点(カメラアングル)が変更されなくても、視聴者は、カメラの画枠外の情報をリアルタイムで直感的に認識することができる。加えて、第4の実施形態では、テレビやPC等の据え置き型ディスプレイを備えた装置が用いられ、非透過型ヘッドマウントディスプレイ等の装置が不要であるため、視聴者はより容易にサービスを受けることができる。また、映像条件により合成映像における第1の映像10及び第2の映像20それぞれの大きさや形状が適切に制御される。また、第1の映像10と第2の映像20とが別々に表示される場合とは異なり、第1の映像10又は第2の映像20の表示位置を補正することが求められないため、情報処理装置100の処理が簡略化され、かつ、第1の映像10の表示位置と第2の映像20の表示位置とがずれる恐れが無くなる。
  <5.第5の実施形態>
 上記では、本開示に係る第4の実施形態について説明した。続いて、本開示に係る第5の実施形態について説明する。
 本開示に係る第5の実施形態においては、第1の映像10及び第2の映像20とは異なる第3の映像がさらに生成され、第1の映像10、第2の映像20、及び第3の映像が合成されることで合成映像が生成される。そして、合成映像が、据え置き型ディスプレイを備えた装置(例えば、テレビやPC等)、又は非透過型ヘッドマウントディスプレイを含む映像表示装置800に表示される。
 「第3の映像」とは、例えばPCが映像表示装置800として用いられた場合においては、PC内のプログラムの処理によって表示される映像を含む。例えば、視聴者がPCを用いて何らかの作業を行っている場合、第3の映像は、作業対象を表示する映像である。第3の映像の内容が、映像表示装置800の種類、及び映像表示装置800によって実行されるプログラムの種類等に応じて変わり得ることは言うまでもない。
 合成映像における第1の映像10、第2の映像20、及び第3の映像は、様々な態様で表示され得る。例えば、合成映像における第3の映像が表示される領域は、第1の映像10が表示される領域及び第2の映像20が表示される領域とは異なっていてもよい。これにより、視聴者は、合成映像における第1の映像10及び第2の映像20に邪魔されることなく第3の映像を視認することができ、逆に第3の映像に邪魔されることなく第1の映像10及び第2の映像20を視認することができる。
 また、合成映像にて、第3の映像と、半透明の第1の映像10の一部若しくは全部、又は半透明の第2の映像20の一部若しくは全部とが重畳されるように表示されてもよい。例えば、合成映像において、第1の映像10と第3の映像がそれぞれ異なる領域に表示され、第3の映像の上に、半透明の第2の映像20の全部が重畳されるように表示されてもよい。これによって、合成映像における第1の映像10及び第2の映像20が上記の表示態様に比べてより大きく表示され、かつ、視聴者は第3の映像も視認することができる。
 図19を参照して、第5の実施形態に係る構成例について説明する。図19は、第5の実施形態に係る情報処理装置100の構成例を示すブロック図である。図19と図9(第3の実施形態に係る情報処理装置100の構成例)とを比較すると分かるように、第3の映像生成部147と、表示領域設定部148と、が新たに備えられている。
 第3の映像生成部147は、第1の映像10及び第2の映像20とは異なる第3の映像を生成する構成である。例えば、映像表示装置800がPCである場合、第3の映像生成部147は、視聴者からPCへの入力や、PC内のプログラムの処理に基づいて第3の映像を生成する。第3の映像生成部147は、生成した第3の映像を合成映像生成部145へ提供する。
 表示領域設定部148は、合成映像における第1の映像10、第2の映像20、及び第3の映像の表示領域を設定する構成である。すなわち、表示領域設定部148は、合成映像における第1の映像10、第2の映像20、及び第3の映像が、ディスプレイにおけるどの領域に表示されるか(換言すると、各映像が表示される領域の位置及び大きさ)を設定する。表示領域設定部148は、各映像の表示領域の設定に関する情報(以降、「領域設定情報」と呼称する)を合成映像生成部145へ提供する。なお、各映像の表示領域の設定は、映像の配信者によって行われてもよいし、視聴者によって行われてもよい。また、各映像の表示領域の設定は、コンテンツの視聴途中で変更されてもよい。以降では、各映像の表示領域の設定が視聴者によって行われる場合を一例として説明する。合成映像生成部145は、第3の映像生成部147から第3の映像を提供され、表示領域設定部148から領域設定情報を提供されることで、第1の映像10、第2の映像20、及び第3の映像を合成した合成映像を生成することができる。
 図20及び図21を参照して、第5の実施形態に係る情報処理装置100の処理フロー例について説明する。図20及び図21は、第5の実施形態に係る情報処理装置100の処理フロー例を示すフローチャートである。ステップS1400では、映像条件設定部146が視聴者からの入力に基づいて第1の映像10、第2の映像20、及び第3の映像の表示領域を設定する。これによって、後段の処理(ステップS1444)では、表示領域の設定に基づいて合成映像が生成される。ステップS1404では、第3の映像生成部147が第3の映像を生成する。より具体的には、第3の映像生成部147が、視聴者からPCへの入力や、PC内のプログラムの処理に基づいて第3の映像を生成する。ステップS1408~ステップS1452は、図10及び図11(第3の実施形態に係る処理フロー例)のステップS1200~ステップS1244と同様であるため説明を省略する。
 第5の実施形態においても、第1の実施形態と同様の効果が得られる。より具体的には、第1の映像10だけでなく第2の映像20も用いて合成映像が生成されることにより、第1の映像10が撮影された視点(カメラアングル)が変更されなくても、視聴者は、カメラの画枠外の情報をリアルタイムで直感的に認識することができる。加えて、第5の実施形態では、合成映像が第3の映像を含むことにより、視聴者は、第3の映像を見て作業したり、(第1の映像10及び第2の映像20とは)別のコンテンツ(第3の映像)を視聴したりしながら、第1の映像10及び第2の映像20を視聴することができる。
  <6.第6の実施形態>
 上記では、本開示に係る第5の実施形態について説明した。続いて、本開示に係る第6の実施形態について説明する。
 上記の各実施形態に係る関連情報は、会場装置400(例えば、各種センサ)により取得されたセンサデータを用いて関連情報生成装置500により生成される情報であった。一方、第6の実施形態に係る関連情報は、第1の映像10が撮影された視点とは別の視点から撮影された第4の映像である。「第4の映像」とは、例えば会場全体を俯瞰した俯瞰映像であり得る。なお、第4の映像は、会場全体を俯瞰した俯瞰映像でなくてもよいが、できるだけ広い範囲が撮影された映像であることが望ましい。そして、情報処理装置100は、第1の映像10が撮影された視点の特定に第4の映像を用いたり、第2の映像20の生成に第4の映像を用いたりする。なお、第4の映像だけでなく、上記の実施形態のように会場装置400(例えば、各種センサ)により取得されたセンサデータを用いて生成された情報や、第4の映像が解析されることで生成された情報も関連情報として情報処理装置100に提供されてもよい。
 図22及び図23を参照して、第6の実施形態に係る構成例について説明する。図22は、第6の実施形態に係る情報処理システムの構成例を示すブロック図である。図22と図2(第1の実施形態に係る情報処理システムの構成例)とを比較すると分かるように、第1の実施形態に係る会場装置400及び関連情報生成装置500の代りに、俯瞰カメラ210が備えられている。
 俯瞰カメラ210は、第1の映像10が撮影された視点とは別の視点から撮影された第4の映像(例えば、会場全体を俯瞰した俯瞰映像等)を生成し、第4の映像を情報処理装置100へ提供する。なお、俯瞰カメラ210の種類及び台数は特に限定されない。例えば、複数のカメラにより撮影された映像を用いて第4の映像が生成されてもよい。
 図23は、第6の実施形態に係る情報処理装置100の構成例を示すブロック図である。図23と図3(第1の実施形態に係る情報処理装置100の構成例)とを比較すると分かるように、関連情報取得部130は、第4の映像を取得する第4の映像取得部としても機能する。
 関連情報取得部130は、俯瞰カメラ210によって撮影された第4の映像の各フレームを関連情報として順次取得する。関連情報取得部130は、第4の映像を俯瞰カメラ210から受信することで第4の映像を取得してもよいし、他の構成によって俯瞰カメラ210から受信された第4の映像を取得してもよい。関連情報取得部130は、取得した第4の映像を視点情報取得部120及び生成部140に提供する。
 視点情報取得部120は、関連情報である第4の映像を解析することで、会場に関する情報(サッカー中継の例では、グラウンドの形状、スタジアムの形状、又はスタジアムに配置されるビデオカメラの位置等)を認識する。そして、視点情報取得部120は、当該会場に関する情報を用いて第1の映像10を解析することで、第1の映像10が撮影された視点を求める。なお、視点情報取得部120は、第4の映像を解析することで会場に関する情報を認識するのではなく、当該情報を別途提供されたり、一般的な会場に関する情報(例えば、一般的なグラウンドの形状等)を提供されたりしてもよい。また、第1の映像10が撮影された視点に関する情報が第1の映像10にメタデータとして付加されることで、視点情報取得部120は、視点に関する情報を第1の映像10から取得してもよい。座標変換部141は、第1の映像10が撮影された視点に基づいて、第1の映像10と略同一のタイミングに撮影された第4の映像の座標変換を行う。そして、第2の映像生成部142は、座標変換後の第4の映像を用いて第2の映像20を生成する。例えば、第2の映像生成部142は、座標変換後の第4の映像をそのまま第2の映像20として用いたり、座標変換後の第4の映像から人や物体等を抽出することで第2の映像20を生成したりする。その他の構成例については、情報処理システムの構成例は図2(第1の実施形態に係る情報処理システムの構成例)と同様であり得、情報処理装置100の構成例は図3(第1の実施形態に係る情報処理装置100の構成例)と同様であり得るため説明を省略する。
 図24及び図25を参照して、第6の実施形態に係る情報処理装置100の処理フロー例について説明する。図24及び図25は、第6の実施形態に係る情報処理装置100の処理フロー例を示すフローチャートである。ステップS1508では、関連情報取得部130が第4の映像を関連情報として取得する。これによって、後段の処理にて、第4の映像を用いて視点に関する情報が取得されたり、第2の映像20が生成されたりする。ステップS1500~ステップS1556は、図4及び図5(第1の実施形態に係る処理フロー例)のステップS1000~ステップS1056と同様であるため説明を省略する。
 第6の実施形態においても、第1の実施形態と同様の効果が得られる。より具体的には、第2の映像20が透過型ヘッドマウントディスプレイ等に表示されることにより、第1の映像10が撮影された視点(カメラアングル)が変更されなくても、視聴者は、カメラの画枠外の情報をリアルタイムで直感的に認識することができる。加えて、現地(会場)では、各種センサ等の会場装置400や、センサデータ等を解析する関連情報生成装置500を設けることなく、俯瞰カメラ210のみを設けるだけで本開示の実施が可能となるため、負荷が軽減され得る。また、情報処理装置100は、第2の映像20の生成に第4の映像をそのまま用いることができるため、情報処理装置100の負荷も軽減され得る。また、情報処理装置100は、第4の映像から人や物体等を抽出することで第2の映像20を生成することができるため、第2の映像20の現実感を向上させることができる。
  <7.備考>
 上記では、本開示に係る第6の実施形態について説明した。続いて、第2の映像20が第2の映像表示装置700の表示可能な領域に収まらない場合の対応について説明する。
 上記で説明してきたように、第2の映像表示装置700は、例えば図1のように会場(グラウンド)全体を第2の映像20で表示することにより、第1の映像10が撮影された視点(カメラアングル)が変更されなくても、視聴者は、会場の様子を直感的に認識できる。しかし、第1の映像10が被写体の拡大映像である場合等においては、第2の映像20が大きくなり過ぎることで、第2の映像表示装置700の表示可能な領域に収まらない場合がある。この場合、一部が欠落した第2の映像20が表示されてしまう。
 そこで、第2の映像20が第2の映像表示装置700の表示可能な領域に収まらない場合、情報処理装置100は、第1の映像10と繋がっているように見える第2の映像20をあえて生成しなくてもよい。そして、情報処理装置100は、会場(グラウンド)全体を表示する第2の映像20であり、当該第2の映像20において第1の映像10に対応する領域に関する情報を含む第2の映像20を生成してもよい。
 例えば、図26に示すように、情報処理装置100は、第1の映像10と繋がっているように見える第2の映像20をあえて生成するのではなく、会場(グラウンド)全体を表示する第2の映像20であり、当該第2の映像20において第1の映像10に対応する領域を示す映像24を含む第2の映像20を生成してもよい。図26の例では、映像24は、第2の映像20において第1の映像10に対応する領域を示す枠の映像24aと、当該枠の頂点と第1の映像表示装置600のディスプレイの頂点とを結ぶ線の映像24bと、を含む。視聴者は、映像24により、第2の映像20において第1の映像10に対応する領域を直感的に認識することができる。なお、第2の映像20において第1の映像10に対応する領域に関する情報は、映像24に限定されない。例えば、当該情報は、第2の映像20において第1の映像10に対応する領域を示す文字等であってもよい。
  <8.ハードウェア構成例>
 上記では、第2の映像20が第2の映像表示装置700の表示可能な領域に収まらない場合の対応について説明した。続いて、図27を参照して、各実施形態に係る情報処理装置100のハードウェア構成例について説明する。図27は、各実施形態に係る情報処理装置100のハードウェア構成例を示すブロック図である。情報処理装置100による各種処理は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
 図27に示すように、情報処理装置100は、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903及びホストバス904aを備える。また、情報処理装置100は、ブリッジ904、外部バス904b、インタフェース905、入力装置906、出力装置907、ストレージ装置908、ドライブ909、接続ポート911、通信装置913、及びセンサ915を備える。情報処理装置100は、CPU901に代えて、又はこれとともに、DSP若しくはASIC等の処理回路を有してもよい。
 CPU901は、演算処理装置及び制御装置として機能し、各種プログラムに従って情報処理装置100内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。CPU901は、情報処理装置100の各構成を具現し得る。
 CPU901、ROM902及びRAM903は、CPUバス等を含むホストバス904aにより相互に接続されている。ホストバス904aは、ブリッジ904を介して、PCI(Peripheral Component Interconnect/Interface)バス等の外部バス904bに接続されている。なお、必ずしもホストバス904a、ブリッジ904及び外部バス904bを分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
 入力装置906は、例えば、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバー等、視聴者によって情報が入力される装置によって実現される。また、入力装置906は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置100の操作に対応した携帯電話やPDA等の外部接続機器であってもよい。さらに、入力装置906は、例えば、上記の入力手段を用いて視聴者により入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路等を含んでいてもよい。視聴者は、この入力装置906を操作することにより、情報処理装置100に対して各種のデータを入力したり処理動作を指示したりすることができる。
 出力装置907は、取得した情報を視聴者に対して視覚的又は聴覚的に通知することが可能な装置で形成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置及びランプ等の表示装置や、スピーカ及びヘッドホン等の音響出力装置や、プリンタ装置等がある。
 ストレージ装置908は、データ格納用の装置である。ストレージ装置908は、例えば、HDD等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により実現される。ストレージ装置908は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置、及び記憶媒体に記録されたデータを削除する削除装置等を含んでもよい。このストレージ装置908は、CPU901が実行するプログラムや各種データ及び外部から取得した各種のデータ等を格納する。
 ドライブ909は、記憶媒体用リーダライタであり、情報処理装置100に内蔵、あるいは外付けされる。ドライブ909は、装着されている磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、RAM903に出力する。また、ドライブ909は、リムーバブル記憶媒体に情報を書き込むこともできる。
 接続ポート911は、外部機器と接続されるインタフェースであって、例えばUSB(Universal Serial Bus)等によりデータ伝送可能な外部機器との接続口である。
 通信装置913は、例えば、ネットワーク920に接続するための通信デバイス等で形成された通信インタフェースである。通信装置913は、例えば、有線若しくは無線LAN(Local Area Network)、LTE(Long Term Evolution)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置913は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置913は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。通信装置913は、情報処理装置100の第1の映像取得部110又は関連情報取得部130を具現してもよい。
 センサ915は、各種センサ(例えば、加速度センサ、ジャイロセンサ、地磁気センサ、感圧センサ、音センサ、又は測距センサ等)を含む構成である。
 なお、ネットワーク920は、ネットワーク920に接続されている装置から送信される情報の有線、又は無線の伝送路である。例えば、ネットワーク920は、インターネット、電話回線網、衛星通信網等の公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)等を含んでもよい。また、ネットワーク920は、IP-VPN(Internet Protocol-Virtual Private Network)等の専用回線網を含んでもよい。
 以上、情報処理装置100の機能を実現可能なハードウェア構成例を示した。上記の各構成要素は、汎用的な部材を用いて実現されていてもよいし、各構成要素の機能に特化したハードウェアにより実現されていてもよい。従って、各実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
 なお、上記のような情報処理装置100の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等を含む。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 第1の映像が撮影された視点に関する情報を取得する視点情報取得部と、
 前記第1の映像の関連情報を取得する関連情報取得部と、
 前記視点に関する情報及び前記関連情報を用いて、前記第1の映像に関連し、前記第1の映像と連動する第2の映像を生成する生成部と、を備える、
 情報処理装置。
(2)
 前記生成部は、前記関連情報に対応する映像を前記視点からの映像に変換することで、前記第2の映像を生成する、
 前記(1)に記載の情報処理装置。
(3)
 前記第1の映像と、前記第2の映像とは、欠けている情報を相互に補い合う、
 前記(2)に記載の情報処理装置。
(4)
 前記第1の映像又は前記第2の映像は、前記第1の映像の撮影対象に応じて決まる枠の少なくとも一部分を含む、
 前記(3)に記載の情報処理装置。
(5)
 前記生成部は、前記第1の映像が表示される位置と、前記第2の映像が表示される位置との位置関係を計算する位置関係計算部と、
 前記位置関係に基づいて前記第1の映像が表示される位置又は前記第2の映像が表示される位置の少なくともいずれか一方を補正する表示位置補正部と、をさらに備える、
 前記(1)から(4)のいずれか1項に記載の情報処理装置。
(6)
 前記第2の映像は、前記第1の映像を表示するディスプレイに向けて投影される、
 前記(5)に記載の情報処理装置。
(7)
 前記位置関係は、視聴者の視点に応じて変わる、
 前記(5)又は(6)に記載の情報処理装置。
(8)
 前記第2の映像は、前記視聴者によって装着された透過型ヘッドマウントディスプレイによって表示される、
 前記(7)に記載の情報処理装置。
(9)
 前記第1の映像を取得する第1の映像取得部をさらに備え、
 前記生成部は、前記第1の映像及び前記第2の映像を合成することで合成映像を生成する合成映像生成部を備える、
 前記(1)から(4)のいずれか1項に記載の情報処理装置。
(10)
 前記合成映像は、非透過型ヘッドマウントディスプレイによって表示される、
 前記(9)に記載の情報処理装置。
(11)
 前記生成部は、前記第1の映像に関する条件、又は前記第2の映像に関する条件の少なくともいずれかを設定する映像条件設定部を備え、
 合成映像生成部は、前記第1の映像に関する条件、又は前記第2の映像に関する条件を用いて前記合成映像を生成する、
 前記(9)又は(10)に記載の情報処理装置。
(12)
 前記生成部は、前記第1の映像及び前記第2の映像とは異なる第3の映像をさらに生成し、
 合成映像生成部は、前記第1の映像、前記第2の映像、及び前記第3の映像を合成することで前記合成映像を生成する、
 前記(9)から(11)のいずれか1項に記載の情報処理装置。
(13)
 前記合成映像における前記第3の映像が表示される領域は、前記第1の映像が表示される領域及び前記第2の映像が表示される領域とは異なる、
 前記(12)に記載の情報処理装置。
(14)
 前記合成映像にて、前記第3の映像と、半透明の前記第1の映像の一部若しくは全部、又は半透明の前記第2の映像の一部若しくは全部とが重畳されるように表示される、
 前記(12)に記載の情報処理装置。
(15)
 前記関連情報は、前記第1の映像が撮影された視点とは別の視点から撮影された第4の映像である、
 前記(1)から(14)のいずれか1項に記載の情報処理装置。
(16)
 第1の映像が撮影された視点に関する情報を取得することと、
 前記第1の映像の関連情報を取得することと、
 前記視点に関する情報及び前記関連情報を用いて、前記第1の映像に関連し、前記第1の映像と連動する第2の映像を生成することと、を有する、
 コンピュータにより実行される情報処理方法。
(17)
 第1の映像が撮影された視点に関する情報を取得することと、
 前記第1の映像の関連情報を取得することと、
 前記視点に関する情報及び前記関連情報を用いて、前記第1の映像に関連し、前記第1の映像と連動する第2の映像を生成することと、
 をコンピュータに実現させるためのプログラム。
 10  第1の映像
 20  第2の映像
 100  情報処理装置
 110  第1の映像取得部
 120  視点情報取得部
 130  関連情報取得部(第4の映像取得部)
 140  生成部
 141  座標変換部
 142  第2の映像生成部
 143  位置関係計算部
 144  表示位置補正部
 145  合成映像生成部
 146  映像条件設定部
 147  第3の映像生成部
 148  表示領域設定部
 150  遅延同期部
 160  第1の映像提供部
 170  第2の映像提供部
 180  映像提供部
 200  カメラ群
 210  俯瞰カメラ
 300  編集装置
 400  会場装置
 500  関連情報生成装置
 600  第1の映像表示装置
 700  第2の映像表示装置
 800  映像表示装置

Claims (17)

  1.  第1の映像が撮影された視点に関する情報を取得する視点情報取得部と、
     前記第1の映像の関連情報を取得する関連情報取得部と、
     前記視点に関する情報及び前記関連情報を用いて、前記第1の映像に関連し、前記第1の映像と連動する第2の映像を生成する生成部と、を備える、
     情報処理装置。
  2.  前記生成部は、前記関連情報に対応する映像を前記視点からの映像に変換することで、前記第2の映像を生成する、
     請求項1に記載の情報処理装置。
  3.  前記第1の映像と、前記第2の映像とは、欠けている情報を相互に補い合う、
     請求項2に記載の情報処理装置。
  4.  前記第1の映像又は前記第2の映像は、前記第1の映像の撮影対象に応じて決まる枠の少なくとも一部分を含む、
     請求項3に記載の情報処理装置。
  5.  前記生成部は、前記第1の映像が表示される位置と、前記第2の映像が表示される位置との位置関係を計算する位置関係計算部と、
     前記位置関係に基づいて前記第1の映像が表示される位置又は前記第2の映像が表示される位置の少なくともいずれか一方を補正する表示位置補正部と、をさらに備える、
     請求項1に記載の情報処理装置。
  6.  前記第2の映像は、前記第1の映像を表示するディスプレイに向けて投影される、
     請求項5に記載の情報処理装置。
  7.  前記位置関係は、視聴者の視点に応じて変わる、
     請求項5に記載の情報処理装置。
  8.  前記第2の映像は、前記視聴者によって装着された透過型ヘッドマウントディスプレイによって表示される、
     請求項7に記載の情報処理装置。
  9.  前記第1の映像を取得する第1の映像取得部をさらに備え、
     前記生成部は、前記第1の映像及び前記第2の映像を合成することで合成映像を生成する合成映像生成部を備える、
     請求項1に記載の情報処理装置。
  10.  前記合成映像は、非透過型ヘッドマウントディスプレイによって表示される、
     請求項9に記載の情報処理装置。
  11.  前記生成部は、前記第1の映像に関する条件、又は前記第2の映像に関する条件の少なくともいずれかを設定する映像条件設定部を備え、
     合成映像生成部は、前記第1の映像に関する条件、又は前記第2の映像に関する条件を用いて前記合成映像を生成する、
     請求項9に記載の情報処理装置。
  12.  前記生成部は、前記第1の映像及び前記第2の映像とは異なる第3の映像をさらに生成し、
     合成映像生成部は、前記第1の映像、前記第2の映像、及び前記第3の映像を合成することで前記合成映像を生成する、
     請求項9に記載の情報処理装置。
  13.  前記合成映像における前記第3の映像が表示される領域は、前記第1の映像が表示される領域及び前記第2の映像が表示される領域とは異なる、
     請求項12に記載の情報処理装置。
  14.  前記合成映像にて、前記第3の映像と、半透明の前記第1の映像の一部若しくは全部、又は半透明の前記第2の映像の一部若しくは全部とが重畳されるように表示される、
     請求項12に記載の情報処理装置。
  15.  前記関連情報は、前記第1の映像が撮影された視点とは別の視点から撮影された第4の映像である、
     請求項1に記載の情報処理装置。
  16.  第1の映像が撮影された視点に関する情報を取得することと、
     前記第1の映像の関連情報を取得することと、
     前記視点に関する情報及び前記関連情報を用いて、前記第1の映像に関連し、前記第1の映像と連動する第2の映像を生成することと、を有する、
     コンピュータにより実行される情報処理方法。
  17.  第1の映像が撮影された視点に関する情報を取得することと、
     前記第1の映像の関連情報を取得することと、
     前記視点に関する情報及び前記関連情報を用いて、前記第1の映像に関連し、前記第1の映像と連動する第2の映像を生成することと、
     をコンピュータに実現させるためのプログラム。
PCT/JP2020/009038 2019-03-13 2020-03-04 情報処理装置、情報処理方法、及びプログラム WO2020184316A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/436,447 US20220174258A1 (en) 2019-03-13 2020-03-04 Information processing device, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-046114 2019-03-13
JP2019046114 2019-03-13

Publications (1)

Publication Number Publication Date
WO2020184316A1 true WO2020184316A1 (ja) 2020-09-17

Family

ID=72427872

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/009038 WO2020184316A1 (ja) 2019-03-13 2020-03-04 情報処理装置、情報処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US20220174258A1 (ja)
WO (1) WO2020184316A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022060900A (ja) * 2020-10-05 2022-04-15 キヤノン株式会社 制御装置および学習装置及び制御方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0262371B2 (ja) * 1986-08-25 1990-12-25 Mitsubishi Rayon Eng
JPH08153213A (ja) * 1994-09-29 1996-06-11 Hitachi Ltd 画像合成表示方法
WO2012008536A1 (ja) * 2010-07-15 2012-01-19 株式会社コナミデジタルエンタテインメント ゲームシステム、その制御方法及び、コンピュータプログラム
JP2012105200A (ja) * 2010-11-12 2012-05-31 Sharp Corp 3dコンテンツ表示装置、および3dコンテンツ表示方法
JP2017009741A (ja) * 2015-06-19 2017-01-12 コニカミノルタ株式会社 画像表示システム、画像表示装置、頭部装着型表示装置及びプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4837772B2 (ja) * 2009-12-15 2011-12-14 パナソニック株式会社 多視点動画像復号装置、多視点動画像復号方法、プログラム及び集積回路
US20150248722A1 (en) * 2014-03-03 2015-09-03 Swell, Inc. Web based interactive multimedia system
US9380345B2 (en) * 2014-12-01 2016-06-28 Microsoft Technology Licensing, Llc Immersive scaling interactive television
US9467718B1 (en) * 2015-05-06 2016-10-11 Echostar Broadcasting Corporation Apparatus, systems and methods for a content commentary community
JP6793297B2 (ja) * 2015-10-05 2020-12-02 パナソニックIpマネジメント株式会社 投写型映像表示装置
US10042829B2 (en) * 2016-06-28 2018-08-07 Google Llc Measurement of visibility of overlay content
CN109729365B (zh) * 2017-10-27 2021-03-26 腾讯科技(深圳)有限公司 一种视频处理方法、装置及智能终端、存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0262371B2 (ja) * 1986-08-25 1990-12-25 Mitsubishi Rayon Eng
JPH08153213A (ja) * 1994-09-29 1996-06-11 Hitachi Ltd 画像合成表示方法
WO2012008536A1 (ja) * 2010-07-15 2012-01-19 株式会社コナミデジタルエンタテインメント ゲームシステム、その制御方法及び、コンピュータプログラム
JP2012105200A (ja) * 2010-11-12 2012-05-31 Sharp Corp 3dコンテンツ表示装置、および3dコンテンツ表示方法
JP2017009741A (ja) * 2015-06-19 2017-01-12 コニカミノルタ株式会社 画像表示システム、画像表示装置、頭部装着型表示装置及びプログラム

Also Published As

Publication number Publication date
US20220174258A1 (en) 2022-06-02

Similar Documents

Publication Publication Date Title
US10277813B1 (en) Remote immersive user experience from panoramic video
JP5992210B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
US10382680B2 (en) Methods and systems for generating stitched video content from multiple overlapping and concurrently-generated video instances
JP4716083B2 (ja) 情報処理装置および方法、記録媒体、並びにプログラム
US6184937B1 (en) Audio enhanced electronic insertion of indicia into video
US8958686B2 (en) Information processing device, synchronization method, and program
US20160104452A1 (en) Systems and methods for a shared mixed reality experience
KR102028139B1 (ko) 증강현실 기반의 영상 표시방법
US20080168505A1 (en) Information Processing Device and Method, Recording Medium, and Program
JP7074056B2 (ja) 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム
CN111742353A (zh) 信息处理装置、信息处理方法和程序
JP2012163853A (ja) 表示装置、情報提供システム、情報提供方法、及びプログラム
WO2018135343A1 (ja) 情報処理装置、情報処理方法及びプログラム
CN106534618B (zh) 伪现场解说实现方法、装置和系统
US20120301030A1 (en) Image processing apparatus, image processing method and recording medium
WO2015151766A1 (ja) 投影撮影システム、カラオケ装置及びシミュレーション装置
JP2010069102A (ja) 情報処理方法、情報処理装置、プログラム、およびコンピュータ読み取り可能な記録媒体
WO2018203453A1 (ja) 情報処理装置、情報処理方法及びプログラム
WO2020184316A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20180176628A1 (en) Information device and display processing method
KR20090028673A (ko) 가상 스튜디오 자세 교정 장치
JP5346797B2 (ja) 手話映像合成装置、手話映像合成方法、手話表示位置設定装置、手話表示位置設定方法、及びプログラム
WO2020234939A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20230360316A1 (en) Information processing device, information processing method, and information distribution system
JP2008079917A (ja) トレーニングシステム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20770593

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20770593

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP