JP7395296B2 - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP7395296B2
JP7395296B2 JP2019168860A JP2019168860A JP7395296B2 JP 7395296 B2 JP7395296 B2 JP 7395296B2 JP 2019168860 A JP2019168860 A JP 2019168860A JP 2019168860 A JP2019168860 A JP 2019168860A JP 7395296 B2 JP7395296 B2 JP 7395296B2
Authority
JP
Japan
Prior art keywords
virtual viewpoint
viewpoint
display device
image
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019168860A
Other languages
English (en)
Other versions
JP2021048459A (ja
Inventor
拓 小笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019168860A priority Critical patent/JP7395296B2/ja
Priority to US17/021,790 priority patent/US11587283B2/en
Publication of JP2021048459A publication Critical patent/JP2021048459A/ja
Application granted granted Critical
Publication of JP7395296B2 publication Critical patent/JP7395296B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、立体画像を表示する技術に関するものである。
近年、立体画像を表示する表示装置として、専用の眼鏡を必要とせずユーザが裸眼によって自然な立体画像を閲覧することができる裸眼立体ディスプレイが考えられている。特許文献1には、表示対象の3次元形状モデルを仮想的なカメラで撮影して生成された画像を、レンズアレイを介してユーザに見せることで、立体画像の表示を実現する立体表示装置が開示されている。また、表示対象を取り囲むように配置された撮影装置により撮影された画像から3次元モデルを生成することが開示されている。
特許第5452801号公報
特許文献1に記載の技術のように立体表示装置を用いて立体画像を表示する場合において、ユーザにとっての利便性をより向上させることが求められる。例えば、サッカーやラグビー等の試合が行われる競技場を表示対象とする立体画像を表示する場合において、どのような視点位置から競技場を見た画像を立体表示させるかをユーザが指定することができれば、ユーザはより意図に沿った画像を見ることができる。また例えば、立体表示される競技場の向きと立体表示装置の設置に係る姿勢とを適合させることができれば、ユーザにとって立体画像の見やすさが向上する。
本発明は上記の課題に鑑み、立体表示装置を用いて立体画像を表示する場合におけるユーザにとっての利便性を向上させることを目的とする。
上述の課題を解決するため、本発明に係る画像処理装置は、例えば以下の構成を有する。すなわち、配列された複数のレンズ素子を有するレンズアレイに画像表示面から入射する光を前記複数のレンズ素子により屈折させることで、前記画像表示面に対するユーザの目の位置に応じて異なる立体画像を当該ユーザに対して表示する立体表示装置のための、表示用の画像データを生成する画像処理装置であって、対象領域をそれぞれ異なる方向から撮影する複数の撮影装置による撮影に基づく複数の画像を取得する画像取得手段と、前記立体表示装置が設置された設置面に対する前記立体表示装置の姿勢を特定する特定手段と、前記対象領域に関連付けられた空間における仮想視点の位置及び前記仮想視点からの視線方向であって、前記立体表示装置の姿勢に基づいて前記仮想視点の位置及び前記仮想視点からの視線方向を設定する第1設定手段と、前記第1設定手段により設定された仮想視点の位置及び前記仮想視点からの視線方向を基準として、前記立体表示装置の構成に応じた数の仮想視点の位置及び前記仮想視点からの視線方向を設定する第2設定手段と、前記画像取得手段により取得された前記複数の画像と、前記第1設定手段及び前記第2設定手段により設定された複数の仮想視点の位置及び前記仮想視点からの視線方向とに基づいて、記表示用の画像データを生成する生成手段と、を有する。
本発明によれば、立体表示装置を用いて立体画像を表示する場合におけるユーザにとっての利便性を向上させることができる。
画像処理システムの構成例を示す図である。 画像処理装置の構成例を示す図である。 立体表示装置とその設置情報について説明するための図である。 仮想視点について説明するための図である。 基準視点と従属視点について説明するための図である。 画像処理装置の動作の一例を示すフローチャートである。 立体画像の表示例について説明するための図である。 画像処理装置の動作の一例を示すフローチャートである。 複数の立体表示装置106による表示について説明するための図である。 画像処理装置の動作の一例を示すフローチャートである。
以下、本発明の実施形態について図面を参照して説明する。なお、以下で説明する実施形態は、本発明を具体的に実施した場合の一例を示すものであり、本発明は以下の実施形態に限定されるものではない。
[システム構成]
図1に、本実施形態における画像処理システム100の構成について説明するための図を示す。図1(a)は、画像処理システム100の構成例を示すブロック図である。画像処理システム100は、センサシステム101a、からセンサシステム101nのn台のセンサシステムを有し、各センサシステムは少なくとも1台の撮影装置であるカメラを有する。以降では特に説明がない限り、n台のセンサシステムを区別せずに、センサシステム101と表記する。
図1(b)は、複数のセンサシステム101の設置例を示す図である。複数のセンサシステム101は、撮影の対象領域である領域120を囲むように設置され、それぞれ異なる方向から領域120を撮影する。本実施形態の例では、撮影対象の領域120をサッカーの試合が行われるスタジアムのフィールドとし、フィールドを囲むようにn台(例えば30台)のセンサシステム101が設置される。ただし、設置されるセンサシステム101の数は限定されない。また、撮影対象の領域120はスタジアムのフィールドに限らない。領域120にスタジアムの客席が含まれてもよいし、領域120が屋内のスタジオや舞台等であってもよい。また、センサシステム101は領域120の全周にわたって設置されていなくてもよく、設置場所の制限等によっては領域120の周囲の一部にのみ設置されていてもよい。また、複数のセンサシステム101が有する複数のカメラには、望遠カメラと広角カメラなど機能が異なる撮影装置が含まれていてもよい。
複数のセンサシステム101が有する複数のカメラは同期して撮影を行う。これらのカメラの撮影により得られる複数の画像を複数視点画像と呼ぶ。なお、本実施形態における複数視点画像のそれぞれは、撮影画像であってもよいし、撮影画像に対して例えば所定の領域を抽出する処理などの画像処理を行うことで得られた画像であってもよい。画像記録部102は、センサシステム101からの画像取得により複数視点画像を取得し、データベース103に記憶させる。
なお、各センサシステム101は、カメラに加えてマイク(不図示)を有していてもよい。複数のセンサシステム101それぞれのマイクは同期して音声を収音する。この収音された音声に基づいて、立体表示装置106における画像の表示と共に再生される音響信号を生成することができる。以降では説明の簡略化のため、音声についての記載を省略するが、基本的に画像と音声は共に処理されるものとする。
画像処理装置104は、データベース103から複数視点画像を取得し、操作部105から操作情報を取得する。操作情報は、操作部105に対するユーザ操作に応じた入力を示す情報である。また画像処理装置104は、立体表示装置106の設置に関する設置情報を取得する。そして画像処理装置104は、操作情報と設置情報とに基づいて仮想視点110を設定し、仮想視点110に応じた仮想視点画像を複数視点画像に基づいて生成する。設置情報と操作情報の詳細については後述する。
画像処理装置104が生成する仮想視点画像は、指定された仮想視点110からの見えを表す画像である。本実施形態における仮想視点画像は、自由視点映像とも呼ばれるものであるが、ユーザが自由に(任意に)指定した視点に対応する画像に限定されず、例えば複数の候補からユーザが選択した視点に対応する画像なども仮想視点画像に含まれる。また、本実施形態では仮想視点の指定がユーザ操作に基づいて行われる場合を中心に説明するが、仮想視点の指定が画像解析の結果等に基づいて自動で行われてもよい。また、本実施形態では仮想視点画像が動画である場合を中心に説明するが、仮想視点画像は静止画であってもよい。仮想視点110は、領域120に関連付けられた仮想空間内に設定され、複数のセンサシステム101のどのカメラとも異なる視点から領域120を閲覧できる。仮想視点110は、仮想空間内における仮想視点の位置及び向きを示す視点情報により表される。なお、視点情報は仮想視点に応じた画角や焦点距離を示す情報を含んでいてもよい。視点情報の詳細については後述する。
立体表示装置106による立体画像の表示を実現するために、画像処理装置104は、複数の仮想視点を設定して、各仮想視点に応じた仮想視点画像を生成する。具体的には、画像処理装置104は、操作情報及び設置情報に基づいて基準となる1つの仮想視点110を決定し、その仮想視点110を基準として、立体表示装置106の構成に応じた数の仮想視点を設定する。以降では、基準となる仮想視点110を基準視点と表記し、基準視点に基づいて設定される仮想視点を従属視点と呼ぶ。基準視点と従属視点の詳細については後述する。
そして画像処理装置104は、基準視点と従属視点の位置及び向きに基づいて複数視点画像から生成された複数の仮想視点画像を合成して、立体表示装置106のための表示用の画像データを生成する。画像処理装置104は、生成した出力画像を立体表示装置106へ出力する。画像処理装置104が実行する処理の詳細に関しては、フローチャートを用いて後述する。
操作部105は、例えばジョイスティックやタッチパネル、キーボード、又はマウス等を介してユーザによる操作を受け付け、ユーザ操作に応じた操作情報を画像処理装置へ出力する。立体表示装置106は、画像処理装置104から取得した画像データを用いて立体画像の表示を行う。立体表示装置の構成の詳細については後述する。
なお、画像処理システム100の構成は図1(a)に示すものに限定されない。例えば、複数の操作部105や複数の立体表示装置106が画像処理装置104と接続されてもよい。また、複数の画像処理装置104がデータベース103に接続されてもよい。
[画像処理装置の構成]
図2を用いて、画像処理装置104の構成を説明する。図2(a)は、画像処理装置104の機能構成例を示す図である。画像処理装置104は、図2(a)に示す機能を組み合わせて、立体表示装置106のための表示用の画像データを生成する。
情報取得部205は、立体表示装置106から設置情報を取得し管理する。設置情報の詳細は図3を用いて後述するが、例えば立体表示装置106の設置時の位置(座標)や姿勢(回転)を示す情報が設置情報に含まれる。また、設置情報には、立体表示装置106を構成するレンズアレイに関する情報が含まれていても良い。基準視点設定部201は、操作部105からユーザ操作に応じた入力として操作情報を取得する。
モデル生成部202は、データベース103から取得した複数視点画像に基づいて領域120内のオブジェクトの3次元形状を表す三次元モデルを生成する。具体的には、複数視点画像から、人物やボールなどの所定のオブジェクトに対応する前景領域を抽出した前景画像と、前景領域以外の背景領域を抽出した背景画像が取得される。そしてモデル生成部202は、複数の前景画像に基づいて前景の三次元モデルを生成する。三次元モデルは、例えばVisual Hull等の形状推定方法により生成され、点群で構成されるものである。ただし、オブジェクトの形状を表す3次元形状データの形式はこれに限定されない。背景の三次元モデルは、予め外部の装置により取得されてもよい。
従属視点設定部203は、表示用の画像データの生成に必要となる複数の仮想視点を基準視点に基づいて設定する。基準視点と従属視点については図5を用いて後述する。画像生成部204は、基準視点及び従属視点の位置、向き、及び焦点距離等に基づき、三次元モデルから仮想視点画像を生成する。具体的には、三次元モデルを構成する点毎に、複数視点画像から適切な画素値を取得して色付け処理を行う。そして色付けされた三次元モデルを三次元の仮想空間に配置し、仮想視点へ投影してレンダリングすることで、仮想視点画像が生成される。ただし、仮想視点画像の生成方法はこれに限定されず、三次元モデルを用いずに撮像画像の射影変換により仮想視点画像を生成する方法など、種々の方法を用いることができる。画像出力部206は、複数の仮想視点に基づいて生成された複数の仮想視点画像を合成して表示用の画像データを生成し、立体表示装置106へ出力する。
なお、画像処理装置104の機能構成は図2(a)に示すものに限定されない。例えば、図2(a)に示す画像処理装置104の構成要素の少なくとも一部が、立体表示装置106や別の装置に実装されていてもよい。また、画像処理装置104と立体表示装置106とが一体となって構成されていてもよい。
次に、画像処理装置104のハードウェア構成について説明する。図2(b)は、画像処理装置104のハードウェア構成例を示す図である。CPU(Central Processing Unit)211は、RAM(Random Access Memory)212やROM(Read Only Memory)213に格納されるプログラムやデータを用いて処理する。CPU211は、画像処理装置104の全体の動作制御を行い、図2(a)に示す各機能を実現するための処理を実行する。なお、画像処理装置104がCPU211とは異なる1又は複数の専用のハードウェアを有し、CPU211による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。
ROM213は、プログラムやデータを保持する。RAM212は、ROM213から読み出されるプログラムやデータを一時的に記憶するワークエリアを有する。また、RAM212は、CPU211が各処理を実行する際に用いるワークエリアを提供する。入力部214は、例えば操作部105から入力される情報を取得する。外部インターフェース215は、例えば、LANなどを介した通信により、データベース103や立体表示装置106などの外部の装置と情報の送受信を行う。出力部216は、例えば、HDMI(登録商標)やSDI等の画像出力ポートを介して、画像データを立体表示装置106へ出力する。なお、出力部216による情報の出力方法はこれに限定されず、イーサネット(登録商標)等を介したネットワーク伝送を用いて画像データが出力されてもよい。
[立体表示装置の設置情報]
図3を参照し、立体表示装置106の構成及び設置情報について説明する。図3(a)は立体表示装置106の一例である表示装置301が、テーブル300に設置された様子を示したものである。表示装置301は、投影面302と、ガラスやアクリル等の高屈折率材料からなる透明部材303、及び表示装置301の姿勢を支える支持部304を有する。
図3(b)は投影面302を上(投影面302と平行な方向)から見たものである。投影面302は、画像が表示される液晶パネル308と、液晶パネル308上に2次元配列された複数のレンズ素子を備えるマイクロレンズアレイ309を有する。マイクロレンズアレイ309が有する複数のレンズ素子は分離していてもよいし一体となって構成されていてもよい。表示装置301の構成は、例えば、レンズ素子の数、レンズピッチ、及び画素数等のパラメータにより規定される。後述するように、表示装置301による立体画像の表示に必要となる複数の従属視点は、表示装置301の構成に応じて決定される。
画像表示面としての液晶パネル308からマイクロレンズアレイ309に入射する光が複数のレンズ素子により屈折されて視聴者310の目に届くことで、視聴者310は画像表示面に対する目の位置に応じて異なる画像を見ることができる。これにより、表示装置301は立体画像を視聴者310に対して表示することができる。また、視聴者310が視点位置を左右上下に移動すると、その方向にずらした立体的な画像を見ることができる。
なお、立体表示装置106の構成は上記の表示装置301の例に限定されず、立体画像を表示できる構成であれば良い。例えば、液晶パネル308の代わりに有機ELパネルが用いられてもよいし、マイクロレンズアレイ309の代わりに複数のレンズ素子が1次元的に配列されたレンズアレイが用いられてもよい。また、立体表示装置106が設置できれば、設置する場所はテーブル300等の平面に限定されない。
図3(c)を用いて、表示装置301の設置情報を表現するための座標系について説明する。座標系には、X軸・Y軸・Z軸から構成される一般的な三次元空間の直交座標系が用いられる。また、X軸まわりの回転を「roll」、Y軸まわりの回転を「pitch」、Z軸まわりの回転を「yaw」とする。この様な座標系を用いて、設置された表示装置301の位置(座標)と姿勢(回転)が表現される。
説明を簡単にするため、Z軸がテーブル300の平面に対して垂直方向になり、Y軸がディスプレイ面に平行な方向になるように、座標系が設定されるものとする。ただし、座標系の設定はこれに限定されない。
図3(d)から図3(f)を用いて表示装置301の設置情報の例を説明する。図3(d)は図3(a)に示す表示装置301をY軸の負方向から見たものである。図3(d)における表示装置301は、原点(0,0,0)を中心位置とし、姿勢がpitch方向へ回転(傾斜)して設置されている。この回転の大きさをpi1とした場合の設置情報を図3(f)の(id=1)の行に示す。設置情報は、位置(x,y,z)=(0,0,0)、姿勢(roll,pitch,yaw)=(0,pi1,0)の様に表現される。
表示装置301の設置時の位置や姿勢は限定されない。例えば、図3(e)に示す様にテーブル300の垂直方向を表示方向とする仰向けの様な姿勢で表示装置301が設置されてもよい。この場合の設置情報を図3(f)の(id=2)の行に示す。設置情報は、位置(x,y,z)=(0,0,z2)、姿勢(roll,pitch,yaw)=(0,pi2,0)の様に表現される。
なお、設置情報における位置と姿勢の値は、実測によって取得されても良いし、立体表示装置106に装着されたジャイロセンサや位置測位装置の検出結果から取得されてもよい。また、設置情報には、立体表示装置106を構成する投影面302に関する先述のパラメータ等が含まれていても良い。以上で説明した設置情報は、情報取得部205が、図3(f)に示した設置情報管理テーブルで管理する。設置情報管理テーブルは複数の設置情報を管理できる。
[仮想視点の位置と向き]
図4を用いて、仮想視点(基準視点及び従属視点)の位置と向きについて説明する。仮想視点は、1つの座標系を用いて位置と向きが表現される。座標系としては、図4(a)に示すように、X軸・Y軸・Z軸により規定される一般的な3次元空間の直交座標系が用いられる。なお、図4(a)に示す仮想視点を表現するための座標系と、図3(c)に示す設置情報を表現するための座標系は別のものである。
図4(a)に示す座標系は、センサシステム101により撮影される領域120に関連付けて設定される。被写体としての領域120及び領域120に位置するオブジェクトも、図4(a)に示す座標系で表現される。例えば図4(b)に示す様に、被写体には、領域120としてのスタジアムのフィールドと、その上にあるボール422や選手423等が含まれる。なお、被写体には、フィールド周辺の客席等が含まれても良い。
フィールドに関連付けられた座標系を設定するために、例えばフィールドの中心に座標系の原点(0、0、0)が設定される。また、X軸をフィールドの長辺方向とし、Y軸をフィールドの短辺方向とし、Z軸をフィールドに対する鉛直方向とするように座標系が設定される。なお、座標系の設定方法は、これらに限定されない。
次に、図4(c)及び図4(d)を用いて、仮想視点について説明する。仮想視点は、仮想視点画像を生成するために用いられる視点である。図4(c)に示される四角錐において、頂点が仮想視点の位置401を表し、頂点から伸びるベクトルが仮想視点の向き402を表す。仮想視点の向き402は仮想視点の位置401からの視線の方向であり、仮想視点の位置401からどの方向を見た様子を表す仮想視点画像を生成すべきかを示す。仮想視点の位置は三次元空間の座標(x,y,z)で表現され、向きは各軸の成分をスカラーとする単位ベクトルで表現される。
仮想視点の向き402は、前方クリップ面403と後方クリップ面404の中心点を通る。前方クリップ面403と後方クリップ面に挟まれた空間405を仮想視点の視錐台と呼び、3次元空間のうち視錐台の内部の範囲が、仮想視点画像に表示される範囲となる。
図4(d)を用いて、仮想視点の移動と回転について説明する。仮想視点は、三次元座標で表現された空間内において移動及び回転する。仮想視点の移動411は、仮想視点の位置401の変化であり、各軸の成分(x、y、z)で表現される。仮想視点の回転412は、仮想視点の向き402の変化であり、図4(a)に示す様に、Z軸回りの回転である(yaw)、Y軸回りの回転である(pitch)、X軸回りの回転である(roll)で表現される。仮想視点を領域120に関連付けられた三次元空間で移動及び回転させることで、領域120を任意の位置及び方向から見た仮想視点画像を生成できる。
[基準視点と従属視点]
図5(a)及び図5(c)を参照し、基準視点について説明する。基準視点は、操作部105から入力された操作情報に応じて、領域120に関連付けられた三次元空間内で移動及び回転する仮想視点である。画像処理装置104により生成される仮想視点画像は、領域120を囲むように設置された複数カメラで撮影した複数視点画像に基づいて生成される。そのため、撮影対象の領域120がサッカーやラグビー等のフィールドの様な大規模なものであっても、仮想視点画像に対応する仮想視点である基準視点は、領域120内の任意の位置で移動及び回転できる。
視点情報の例を図5(c)に示す。視点情報は、仮想視点の位置(x,y,z)と向き(roll、pitch、yaw)を示す。なお、視点情報の形式はこれに限定されず、少なくとも仮想視点の位置及び向きを示す情報であればよい。視点情報には、仮想視点の焦点距離や画角を示す情報が含まれてもよい。すなわち、視点情報により示される仮想視点は、位置、向き、及び画角等で規定される。
操作部105から入力される操作情報は、ユーザ操作に応じた仮想視点の移動量及び回転量の少なくとも何れかを示す情報である。例えば、基準視点が原点に設定されている場合に、仮想視点の位置をx軸方向にx0だけ移動させることを示す操作情報が入力されると、基準視点設定部201は位置がx0に変更された基準視点を示す視点情報を生成する。同様に、基準視点の向きを回転させることを示す操作情報が入力されると、基準視点設定部201は向きが変更された基準視点を示す視点情報を生成する。なお、基準視点をズームさせることを示す操作情報が入力されることに応じて、基準視点の画角又は焦点距離が変更されてもよい。
また、操作情報は、基準視点の移動量及び回転量を示すものに限定されず、ユーザ操作により指定された基準視点の位置及び向きを示すものであってもよい。この場合、基準視点設定部201は、操作情報が示す位置及び向きに従って基準視点を設定する。例えば、図5(a)は領域120をZ軸方向から見たものである。視点の位置及び向きを指定する操作情報590が入力された場合に、基準視点設定部201はその操作情報に応じて、位置501aを基準視点500aの位置に設定し、方向502aを基準視点500aの向きに設定することができる。
次に図5(b)、図5(d)、及び図5(e)を参照し、従属視点について説明する。図3を用いて説明した様に、立体表示装置106により表示される画像には、視聴者310の位置に応じた画像を視聴者310に見せるために、複数の視聴方向510a~510nのそれぞれに対応する仮想視点画像が含まれる。そのため、画像処理装置104は、設定された複数の仮想視点の位置及び向きにそれぞれ対応する複数の仮想視点画像を複数視点画像に基づいて生成する。
まず、基準視点の位置及び向きに応じた仮想視点画像が、表示装置301の正面から見る視聴方向510aに対応付けられる。そして、その他の視聴方向510b~510nは、基準視点を基準として設定された従属視点の位置及び向きに応じた仮想視点画像に対応付けられる。従属視点の数は、図3を用いて説明した表示装置301の構成を示すパラメータに基づいて決定される。例えば、従属視点設定部203は、表示装置301が有するレンズアレイに含まれるレンズ素子の数に応じた数の従属視点の位置及び向きを設定する。レンズアレイが45個のレンズ素子を配列したものである場合には、1つの基準視点と44個の従属視点が設定される。ただし、従属視点の数がレンズ素子の数よりも少なくてもよい。従属視点設定部203により設定される複数の従属視点は、少なくとも位置及び向きの何れかが異なる。
なお、従属視点に対応する視聴方向は、1次元的に並んでいてもよいし、2次元的に並んでいてもよい。例えば、表示装置301に対して視聴者310が左右に移動することで視聴者310が見える画像が変化し、表示装置301に対して視聴者310が上下に移動しても視聴者310が見える画像は変化しなくてもよい。一方、表示装置301に対して視聴者310が左右に移動しても上下に移動しても、視聴者310が見える画像が変化してもよい。
本実施形態では、各従属視点の位置と向きが、基準視点の位置と向きに対するオフセット(調整量)により管理される。各従属視点を表現する情報を図5(d)に示す。従属視点設定部203は、基準視点の位置と向きを基準として、複数の従属視点それぞれの位置と向きを、図5(d)に示されるオフセットに基づいて設定する。具体的には、従属視点設定部203は、基準視点設定部201から基準視点の位置及び向きを示す視点情報を取得し、その視点情報の値をオフセットに応じて変更することで、従属視点の位置及び向きを示す視点情報を生成する。オフセットの大きさは、立体表示装置106の構成に応じて予め決められていてもよいし、ユーザ操作に応じて変更可能であってもよい。
続いて、図5(b)を参照し、3次元空間における基準視点と従属視点の位置と向きの関係を説明する。図5(b)は、図5(a)の基準視点500a(位置501aと向き502aで規定される視点)付近を拡大したものである。図5(b)において、従属視点500b~500nは、基準視点が捉える対象(基準視点500aの視錐体に含まれるオブジェクト)を異なる位置から異なる向きで捉える。
なお、図5(b)はZ軸方向から見て基準視点と異なる位置及び向きに設定された従属視点を表したものであるが、X軸方向又はY軸方向から見た場合にも位置及び向きが基準視点と異なる従属視点が設定されても良い。従属視点は図5(d)に示す基準視点に対する位置と向きのオフセットを維持する。すなわち、基準視点の移動及び回転に応じて、各従属視点も連動して移動及び回転することになる。これにより、基準視点が変化しても基準視点と従属視点の関係性を保つことができる。
上記の様な撮影対象の領域(フィールド)120内における基準視点と従属視点の位置と向きの指定は、従来技術においては、フィールド内にカメラを配置して撮影しなければ実現できないものであった。サッカーやラグビー等の様なフィールドスポーツにおいて、フィールド内にカメラを配置することは難しい。しかし本実施形態によれば、その様な制約を受けることなく、フィールド内の任意に指定された位置及び向きの基準視点と従属視点を用いて仮想視点画像を生成し、それらを合成した画像データを立体表示装置106へ出力できる。
更に、本実施形態によれば、基準視点の向きの初期値を、立体表示装置106の設置情報に応じて決定することも可能である。例えば、図3(d)の(id=1)に示す表示装置301の設置情報が画像処理装置104に入力された場合、基準視点設定部201は、設置情報に基づいて表示装置301の姿勢(pitch=pi1)を特定する。そして基準視点設定部201は、表示装置301の姿勢に応じた視点の向きを基準視点の向きの初期値として表す視点情報を生成してもよい。この場合、表示装置301により表示される立体画像におけるフィールド面をテーブル300の面と平行にすることができ、視聴者310にとってより見やすい表示を行うことができる。この場合の立体画像の表示例を図7(a)及び図7(b)を用いて後述する。ただし、立体画像におけるフィールド面が所定の傾きを有するように基準視点が設定されてもよい。また、視聴者310が立体画像の向きや表示対象の範囲を変えたい場合には、操作部105を介した操作により基準視点を初期値から変更することで、視聴者310は所望の視点に応じた立体画像を視聴できる。
[画像データの生成処理]
図6と図7を参照し、立体表示装置106へ出力するための表示用の画像データの生成処理について説明する。図6は、画像処理装置の動作について説明するためのフローチャートである。
図6に示す処理は、画像処理装置104のCPU211がROM213に格納されたプログラムをRAM212に展開して実行することで実現される。なお、図6に示す処理の少なくとも一部を、CPU211とは異なる1又は複数の専用のハードウェアにより実現してもよい。図6に示す処理は、画像処理装置104と立体表示装置106とが接続され、仮想視点画像の生成に係る処理を行うための指示が画像処理装置104に入力されたタイミングで開始される。ただし、図6に示す処理の開始タイミングはこれに限定されない。なお、図6を用いた以下の説明においては、予めデータベース103に記憶された複数のフレームから構成される動画の複数視点画像に基づいて、動画の立体画像が生成されるものとする。ただし、複数視点画像の取得と並行してリアルタイムで動画の立体画像が生成されてもよい。また、静止画の立体画像が生成されてもよい。
S601では、情報取得部205が、立体表示装置106から設置情報を取得する。S602では、基準視点設定部201が、S601で取得した設置情報に基づき、基準視点の位置及び向きの初期値を決定することで、基準視点を設定する。S603では、従属視点設定部203が、S601で取得した設置情報に含まれる立体表示装置106の構成を示すパラメータに基づき、基準視点を基準として設定される仮想視点の数(従属視点の数)を決定する。S604では、従属視点設定部203が、S601で取得した設置情報とS602で決定された基準視点の位置及び向きとに基づき、従属視点の位置及び向きの初期値を決定する。従属視点の位置及び向きの初期値は、基準視点の位置及び向きの初期値に、各従属視点に対応するオフセットを適用することで決まる。これにより、基準視点を基準とする複数の従属視点が設定される。
S605~S616の処理は、動画フレーム毎に処理を繰り返される。S606では、モデル生成部202が、複数視点画像に基づいて三次元モデルを生成して取得する。S607では、基準視点設定部201が、操作部105から入力された操作情報を受け取る。S608では、基準視点設定部201が、S607で取得した操作情報に基づいて変更(移動又は回転)された基準視点を設定する。
S609~S611の処理は、S604で設定された従属視点ごとに繰り返される。S610では、従属視点設定部203が、S608における基準視点の変更量と従属視点のオフセットに基づいて変更(移動又は回転)された従属視点を設定する。
S612~S614の処理は、全ての仮想視点(基準視点と従属視点)について処理を繰り返される。S613では、画像生成部204が、設定された各仮想視点に応じた仮想視点画像を生成する。S615では、画像出力部206が、S613で生成された複数の仮想視点画像を合成して画像データを生成し、立体表示装置106へ出力する。
なお、本実施形態では、画像処理装置104による画像データの生成において、複数の仮想視点に応じた複数の仮想視点画像を生成した上でそれらの仮想視点画像が合成されるものとする。ただし画像データの生成方法はこれに限定さない。例えば画像処理装置104は、画像データの画素ごとに、複数の仮想視点のうち当該画素に対応する仮想視点を特定し、その仮想視点に基づいて複数視点画像から抽出された画素値を用いて当該画素の値を決定してもよい。
なお、S601の設置情報の取得は、動画フレーム毎に行われてもよい。これにより、立体画像表示中に立体表示装置106の姿勢などが変わった場合に、それに応じて基準視点の向きを変更し、立体画像における表示範囲を変更することができる。
なお、図6のフローチャートは画像処理装置104の動作の一例を示したものであり、画像処理装置104の動作はこれに限定されない。例えば、画像処理装置104は、基準視点及び従属視点の初期値を、予め定められたデフォルトの値やユーザ操作に応じて指定された値に設定してもよい。この場合、画像処理装置104はS601の処理を行わなくてもよい。また例えば、画像処理装置104はS607における操作情報の取得を行わなくてもよい。すなわち、基準視点及び従属視点が、ユーザ操作によらずに、立体表示装置106の設置情報等に応じて設定されてもよい。また例えば、画像処理装置104は、基準視点の位置及び向きを示す視点情報を他の装置から取得してもよい。
[立体画像の表示例]
図7(a)及び図7(b)は、図6に示す処理により出された画像データを用いて立体表示装置106により表示される立体画像の例を示す。図7(a)は、図3(a)に示した表示装置301に立体画像が表示されている様子を示す。図7(b)は、図7(a)をY軸(横)から見たものである。図3を用いて説明した様に、表示装置301において、実際の画像は液晶パネル308に表示されるが、その上に配置されたマイクロレンズアレイ309を介すことによって、視聴者310には透明部材303の空間内に立体が存在しているような立体画像が見える。図7では視聴者310により知覚される立体画像を模式的に表している。
図7(a)において、フィールド701、ボール702、選手703、及び選手704が立体的に表示されている。この表示例では、図5において説明した様に、設置情報の姿勢(傾斜)に応じて基準視点の向きを決定することによって、テーブル300の面とフィールド701の面が平行になる様な立体画像が表示されている。すなわち、基準視点の向きに平行な直線(視線方向)と空間における基準平面であるフィールド701の面とがなす角の大きさが、表示装置301の投影面302の法線と水平面であるテーブル300の面とがなす角の大きさに対応する。フィールド701の上にあるボール702、選手703、及び選手704も同様に、テーブル300と平行な面に立つ様に表示される。この様に表示することによって、例えば、撮影対象をサッカーやラグビー等のフィールドスポーツとした場合に、テーブル300に置かれた表示装置301により見やすい立体画像が表示され、視聴者310はスポーツ観戦をより楽しむことができる。
以上に述べた様に、立体表示装置106の設置情報に応じて、撮影対象の領域120に関連付けられた空間内における仮想視点の位置及び向きを設定し、立体表示装置106の設置状況に応じた立体画像を表示させることができる。また、三軸コントローラなどを使用して仮想視点の位置及び向きを変更可能とすることで、習熟を必要とする繊細な操作を行うことなく、ユーザは立体表示装置106に所望の視点に応じた立体画像を表示させることができる。
[操作の制限]
以下では、立体表示装置106の設置情報に基づき、ユーザ操作による基準視点の変更を制限して、基準視点及び従属視点に応じた画像データを出力する場合の例について説明する。
図7(c)を参照し、ユーザ操作による基準視点の変更を制限するための制限情報を説明する。図7(c)に示す様に制限情報は、図5(c)に示した視点情報の各パラメータに対しての変更を有効(on)とするか、無効(off)とするかを示す。制限情報において無効(off)に設定されているパラメータについては、操作情報に応じた変更が制限される。図7(c)に示す例では、位置(y,z)と、姿勢(roll,pitch,yaw)の項目が無効に設定されており、位置(x)の項目のみ有効に設定されている。この場合、基準視点はユーザ操作に応じてX軸方向にのみ移動することが可能となる。
なお、制限情報における識別子(id)の値は、設置情報における識別子(id)と対応させ、該当する立体表示装置106に対する制限情報として管理される。すなわち、画像処理システム100が複数の立体表示装置106を有する場合には、立体表示装置106ごとに異なる制限情報を設定してもよい。
なお、画像処理装置104は、制限情報に応じた基準視点の変更の制限を行うか否かを、ユーザ操作に応じて切り替え可能としてもよい。この場合、画像処理装置104が切り替え操作に応じた入力を操作部105から受け付け、基準視点設定部201は基準視点の設定において制限を行うか否かを決定する。例えば、基準視点設定部201は、操作部105に対して所定の操作が行われたか否かに基づいて、基準視点の向きのユーザ操作に応じた変化を所定の方向の変化に制限するか否かを決定してもよい。なお、切り替え操作は、立体表示装置106により受付けられてもよい。
図8を用いて、操作の制限がされる場合の画像処理装置104の動作について説明する。以下では、図6を用いて説明した処理との差分を中心に説明する。S801では情報取得部205が設置情報を取得し、S802では基準視点設定部201が設置情報に基づいて基準視点を設定する。
S803では、基準視点設定部201が制限情報を設定する。制限情報の設定方法としては、例えば、立体表示装置106又は操作部105に、視点情報の各パラメータに対する制限の有無を設定するためのボタン等の入力部を設けてもよい。そして、基準視点設定部201がその入力部に対するユーザ操作に応じた入力を受け付けて制限情報を設定してもよい。また例えば、基準視点設定部201が、基準視点の位置及び向きの初期値等に応じて制限情報を設定してもよい。S804では、S603及びS604と同様に、基準視点及び立体表示装置106の構成に応じて従属視点が設定される。
S805~S815の処理は、動画フレーム毎に繰り返される。S806ではモデル生成部202が三次元モデルを取得し、S807では基準視点設定部201が操作情報を受け取る。S808では、基準視点設定部201が、視点情報の各パラメータについて、制限情報による制限が設定されているかを判定する。この判定はパラメータごとに行われ、制限が設定されているパラメータ(変更が無効のパラメータ)についてはS809へ進み、基準視点設定部201は操作情報のうち該当パラメータに対応する情報を無効にする。一方、制限が設定されていないパラメータ(変更が有効のパラメータ)については、操作情報が変更されることなくS810へ進む。各従属視点は基準視点に対するオフセットに応じて設定されるため、基準視点の変更が無効となった項目と同じ項目に関して従属視点の変更も無効となる。図7(c)の例では、基準視点と従属視点のいずれもX軸方向の位置に関してのみユーザ操作に応じて変化し、その他の位置及び向きに関してはユーザ操作に応じて変化しない。
S810では、基準視点設定部201が、S807で取得され又はS809で変更された操作情報に基づき、基準視点を移動・回転させる。S811では、S609からS611の処理と同様に、全ての従属視点について操作情報に応じた変更がなされる。S812では、S612~S614の処理と同様に、基準視点と従属視点に応じた仮想視点画像が生成される。S814では、画像出力部206が複数の仮想視点画像を合成して生成された画像データを立体表示装置106へ出力する。
図7(c)に示す制限情報の例では、基準視点及び従属視点がユーザ操作に応じてX軸方向(図7(c)の方向751)にのみ移動可能となる。つまり、基準視点の初期値に応じた立体画像においてフィールド701がテーブル300と平行になる状態であれば、ユーザ操作に応じて、フィールド面の平行を維持したまま仮想視点の位置がX軸方向にのみ移動する。
別の制限情報の例を、図7(f)に示す。図7(f)の例では、位置(z)と姿勢(roll,pitch)の変更が無効に設定されている。この場合、X軸方向又はY軸方向の移動、及び、Z軸周りの回転(yaw回転)のみが有効となる。基準視点の初期値に応じた立体画像においてフィールド701がテーブル300と平行になる状態であれば、ユーザ操作に応じて、図7(g)に示す様にフィールド面の平行及び高さを維持したまま、仮想視点がX軸方向761及びY軸方向762に移動する。また、仮想視点がyaw方向763に回転する。なお、制限情報で無効にできる項目や、その組み合わせは上記の例に限定されない。
上記の様な方法によれば、例えばオブジェクトが位置するフィールド701とテーブル300の面の平行を維持したまま、仮想視点を移動及び回転させることができる。すなわち、ユーザにとっての立体画像の見やすさを維持しつつ、ユーザの意図に応じて仮想視点を変更することができる。これにより、ボールや選手などの被写体がフィールド内を頻繁に動くサッカーやラグビーの様なフィールドスポーツが撮影対象であっても、立体表示装置106を用いた分かりやすいスポーツ観戦を提供することができる。
以上に述べた様に、立体表示装置106の設置情報に基づいて仮想視点の初期値を設定し、かつ、操作情報に応じた仮想視点の特定の変化を制限することができる。これにより、例えば三軸コントローラなどの操作部105を特定の軸方向にのみ操作することが難しい場合であっても、仮想視点がユーザの意図しない方向に変化することを抑制できる。
[複数の立体表示装置による表示]
以下では、画像処理システム100が複数の立体表示装置106を有し、各立体表示装置106にそれぞれ異なる立体画像が表示される場合の例について説明する。画像処理装置104には複数の立体表示装置106が接続され、画像処理装置104はそれぞれの立体表示装置106に表示用の画像データを出力する。
図9(a)に、表示装置301と表示装置901という複数の立体表示装置106をテーブル300に設置した例を示す。図9(a)の例では、図3(d)の例と同じ位置及び姿勢で設置された表示装置301と背中合わせに、別の表示装置901が設置されている。表示装置901の構成は表示装置301と同様である。ただし、それぞれ構成の異なる複数の立体表示装置106が画像処理装置104に接続されてもよい。この場合には、ある立体表示装置106のための画像データの生成に用いられる従属視点の数と、他の立体表示装置106のための画像データの生成に用いられる従属視点の数とが異なっていてもよい。
表示装置301と表示装置901の位置関係910は、表示装置301の位置を基準とした表示装置901の相対位置を示すオフセット値で表現される。図9(a)の例では、原点に置かれX軸方向を向いた表示装置301に対して、背中合わせの位置(X軸方向に異なる位置)に表示装置901が置かれているため、位置関係を示すオフセット値が(x,y,z)=(x12,0,0)の様になる。この様な複数の立体表示装置106の位置関係は、設置情報管理テーブルにおいて管理される。なお、表示装置301と表示装置901の姿勢の関係、すなわち表示装置301の姿勢に対する表示装置901の相対的な姿勢も、位置関係と同様にあらわされてもよい。
図9(c)の設置情報管理テーブルは、縦軸に各立体表示装置106に対応するidが並び、横軸に項目が並ぶ。項目には、図3(f)に示した設置情報が有する識別子(id)、位置、姿勢、及びレンズアレイ情報に加え、位置関係が含まれる。位置関係が(x,y,z)=(0,0,0)となっている立体表示装置106は、位置関係を示すための基準となる。図9(a)の例では、表示装置301が基準となる立体表示装置106である。
なお、複数の立体表示装置106の設置状況を示す設置情報の項目はこれらに限定されない。また、複数の立体表示装置106の設置方法は、2台の背中合わせに限定されず、例えば四角形の各辺に立体表示装置106を置く様な配置でも良いし、楕円の円周上に数十台の立体表示装置106並べるように配置しても良い。配置の方法によらず、各立体表示装置106の設置情報は、基準となる立体表示装置106に対するオフセットで表現される。ただし、各立体表示装置106の設置情報がそれぞれ絶対値で表現されてもよいし、基準となる立体表示装置106が複数存在してもよい。
続いて、設置情報が示す位置関係と姿勢の関係に応じて、各立体表示装置106に対応する基準視点のオフセットを設定する処理を説明する。図9(d)及び図9(e)を参照し、基準視点のオフセットについて説明する。上述した立体表示装置106が1つの場合の例では、1つの操作部105を使用して1つの基準視点を操作し、1台の立体表示装置106で立体画像を表示していた。一方、複数の立体表示装置106を用いる場合においては、1つの操作部105を使用して基準となる1台の立体表示装置106に対応する基準視点(以降、ベースとなる基準視点)が操作される。そして、その他の立体表示装置106における基準視点が、ベースとなる基準視点に対するオフセットに応じて設定される。つまり、仮想視点の位置及び向きの少なくとも何れかを変更するためのユーザ操作に応じて、複数の立体表示装置106それぞれに対応する基準視点が連動して変化する。また、複数の立体表示装置106それぞれに対応する複数の従属視点も、同様に連動して変化する。
図9(c)の設置情報(id=1,2)の例では、表示装置301と表示装置901が背中合わせに並んだ状態を示している。この設置情報から、図9(d)に示す基準視点のオフセットが設定される。図9(d)におけるid=1の行は、ベースとなる基準視点を示すため、全ての値が0に設定される。すなわち、(x,y,z)=(0,0,0)、(roll、pitch、yaw)=(0,0,0)となる。
id=2の行は、表示装置301に対して背中合わせに設置された表示装置901の基準視点のオフセットを示し、(x,y,z)=(x21,0,0)、(roll,pitch、yaw)=(0,0,ya21)となる。なお、オフセット値は、2つの基準視点の視錐体が部分的に重なる様に設定されてもよい。例えば、撮影対象がサッカーやラグビーの様な球技であれば、所定のオブジェクトであるボール422が、表示装置301の表示対象の範囲950と表示装置901の表示対象の範囲960の両方に含まれるようにオフセットが設定されてもよい。なお、範囲950は表示装置301に対応する仮想視点の視野に含まれ、範囲960は表示装置901に対応する仮想視点の視野に含まれる。
図9(e)に示す、フィールドをZ軸方向(上方向)から見た図において、ベースとなる基準視点930aの位置は座標931aに設定され、向きは方向932aに設定されている。また、id=2の基準視点940aの位置は座標941aに設定され、向きは方向942aに設定されている。これは、図9(a)に示すように2つの立体表示装置106が背中合わせに設置された場合の設置情報に応じて、各立体表示装置106に対応する基準視点930aと基準視点940aが向かい合わせとなる様にオフセットが設定された例となる。すなわち、基準視点930aの向きと基準視点940aの向きとの差は、表示装置301と画像表示面の法線方向と表示装置901の画像表示面の法線方向との差に対応する。
例えば、撮影対象をサッカーやラグビー等のフィールドスポーツとすると、ホーム(自陣)とアウェイ(敵陣)に別れゲームが進行することになるが、それぞれの攻撃方向に合わせて基準視点を設定することができる。なお、基準視点のオフセットは向かい合わせに限定されず、複数の立体表示装置106の設置情報に含まれる位置関係に応じて設定される。
図10を用いて、複数台の立体表示装置106を用いて立体画像を表示する場合の画像処理装置104の動作について説明する。以下では、図6を用いて説明した処理との差分を中心に説明する。
S1001では、情報取得部205が、複数の立体表示装置106の設置情報を取得する。S1002では、基準視点設定部201が、S1001で取得した設置情報のうち基準となる立体表示装置106の設置情報とその他の立体表示装置106の設置情報とを判別する。基準となる立体表示装置106の設置情報については特に処理を行わずS1004に進む。その他の立体表示装置106の設置情報についてはS1003の処理を行う。S1003において、基準視点設定部201が、各立体表示装置106の設置情報が示す位置関係及び姿勢の関係に応じて、該立体表示装置106に対応する基準視点のオフセットを設定する。
S1004では、基準視点設定部201が、設置情報及び基準視点のオフセットに基づいて各立体表示装置106に対応する基準視点を設定し、各立体表示装置106のための表示用の画像データを生成して出力する。具体的には、基準視点設定部201はベースとなる基準視点を示す視点情報と、その他の基準視点を示す視点情報とを生成する。従属視点設定部203はそれらの視点情報を取得し、ベースとなる基準視点を基準とした仮想視点群(従属視点群)の位置及び向きを設定し、且つ、その他の基準視点を基準とした従属視点群の位置及び向きを設定する。そして画像生成部204は、一方の従属視点群の位置及び向きに基づいて基準となる立体表示装置106のための表示用の画像データを生成し、且つ、他方の従属視点群の位置及び向きに基づいて他の立体表示装置106のための表示用の画像データを生成する。
図10に示す処理を、図9(c)の設置情報、及び図9(d)の基準視点のオフセットを用いて実行した場合の、表示される立体画像の例を図9(b)に示す。図9(b)の例では、範囲950を表示対象とする基準視点930aに応じた立体画像が表示装置301により表示され、範囲960を表示対象とする基準視点940aに応じた立体画像が表示装置901により表示された様子を表す。表示装置301に表示される立体画像は、フィールドのX軸正方向に攻めるチームの視点に応じた画像となり、表示装置901に表示される立体画像は、X軸負方向に攻めるチームの視点に応じた画像となる。このような方法によれば、視聴者310が移動していずれの立体表示装置106をいずれの方向から見るかを変えることで、視聴者310は領域120の様子を所望の方向から観察することができる。
なお、上記では1台の画像処理装置104が複数の立体表示装置106のための画像データを生成する場合を中心に説明したが、これに限定されない。画像処理システム100が複数の画像処理装置104を有し、各画像処理装置104が自装置に対応する立体表示装置106のための画像データを生成してもよい。これにより、画像データを生成する処理の負荷分散を図ることができる。
この場合、基準となる立体表示装置106とは別の立体表示装置106のための画像データを生成する画像処理装置104は、基準となる立体表示装置に表示される画像に対応する基準視点の位置及び向きを特定する。そして画像処理装置104は、自装置に対応する立体表示装置106の姿勢と基準となる立体表示装置の姿勢の関係を示す設置情報と、ベースとなる基準視点の位置及び向きとに基づいて、自装置に対応する立体表示装置106のための基準視点を設定する。ベースとなる基準視点の情報は、例えば複数の画像処理装置104間の通信によりやり取りされる。
なお、ベースとなる基準視点は、操作情報と設置情報に応じて設定されるものに限定されず、撮影対象の領域120内の所定のオブジェクトの位置に基づいて設定されてもよい。例えば、フィールド上にあるボール422に位置測位装置が装着され、画像処理装置104は、位置測位装置によるボール422の位置の検出結果を示すオブジェクト情報を取得してもよい。そして基準視点設定部201は、ベースとなる基準視点930aをボール422の位置情報に応じて設定してもよい。また基準視点設定部201は、他の基準視点940aを、ベースとなる基準視点930aに対するオフセットに応じて設定するため、基準視点940aもボール422の位置情報に応じて決まることになる。
このように、図9(b)及び図9(e)に示したように視点が向かい合わせとなる2つの立体画像を、ボール422の位置情報に応じてオフセットを維持したまま変化させることによって、ボール422が両方の立体画像に表示させ続けることができる。なお、基準視点設定部201は、ボール422の位置に応じて決まった基準視点940aを維持し続けてもよいし、上述した実施形態と同様にユーザ操作に応じた操作情報に基づいて基準視点940aを変更してもよい。
なお、基準視点の設定に用いられる情報は所定のオブジェクトの位置に限定されず、所定のオブジェクトの向きが用いられてもよい。例えば、画像処理装置104が、ユーザ操作により指定されたフィールド内の特定の人物の位置及び向きを示すオブジェクト情報を取得し、その人物の位置及び向きに基づいてベースとなる基準視点の視点情報を生成してもよい。これにより、フィールド内の人物の視点や人物の背後を見るような視点の立体画像を表示できる。なお、立体表示装置106が1台の場合にもこのようなオブジェクト情報を用いた仮想視点設定を適用できる。
以上に述べた様に、複数の立体表示装置106の位置関係等を含む設置情報に基づき、その位置関係を反映させた複数の立体画像を、それぞれの立体表示装置106へ出力することができる。例えば、サッカーやラグビー等のフィールドスポーツにおいて、自陣と敵陣の攻撃方向に合わせた視点の向きでボールを追従するような立体画像を、それぞれの立体表示装置106へ表示することによって、新しい態様でスポーツ観戦することが出来るようになる。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステムまたは装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、特定用途向け集積回路)によっても実現可能である。また、そのプログラムをコンピュータにより読み取り可能な記録媒体に記録して提供してもよい。
100 画像処理システム
101 センサシステム
104 画像処理装置
105 操作部
106 立体表示装置

Claims (20)

  1. 配列された複数のレンズ素子を有するレンズアレイに画像表示面から入射する光を前記複数のレンズ素子により屈折させることで、前記画像表示面に対するユーザの目の位置に応じて異なる立体画像を当該ユーザに対して表示する立体表示装置のための、表示用の画像データを生成する画像処理装置であって、
    対象領域をそれぞれ異なる方向から撮影する複数の撮影装置による撮影に基づく複数の画像を取得する画像取得手段と、
    前記立体表示装置が設置された設置面に対する前記立体表示装置の姿勢を特定する特定手段と、
    前記対象領域に関連付けられた空間における仮想視点の位置及び前記仮想視点からの視線方向であって、前記立体表示装置の姿勢に基づいて前記仮想視点の位置及び前記仮想視点からの視線方向を設定する第1設定手段と、
    前記第1設定手段により設定された仮想視点の位置及び前記仮想視点からの視線方向を基準として、前記立体表示装置の構成に応じた数の仮想視点の位置及び前記仮想視点からの視線方向を設定する第2設定手段と、
    前記画像取得手段により取得された前記複数の画像と、前記第1設定手段及び前記第2設定手段により設定された複数の仮想視点の位置及び前記仮想視点からの視線方向とに基づいて、前記表示用の画像データを生成する生成手段と、を有することを特徴とする画像処理装置。
  2. 前記生成手段は、前記複数の仮想視点の位置及び前記仮想視点からの視線方向にそれぞれ対応する複数の仮想視点画像を、前記画像取得手段により取得された前記複数の画像に基づいて生成し、前記複数の仮想視点画像を合成して前記表示用の画像データを生成することを特徴とする請求項1に記載の画像処理装置。
  3. 前記生成手段は、前記画像取得手段により取得された画像に基づいて前記対象領域に位置するオブジェクトの3次元形状を表す形状データを生成し、前記形状データと前記複数の仮想視点の位置及び前記仮想視点からの視線方向とに基づいて前記複数の仮想視点画像を生成することを特徴とする請求項2に記載の画像処理装置。
  4. 仮想視点の位置及び前記仮想視点からの視線方向の少なくとも何れかを指定するためのユーザ操作に応じた入力を受け付ける受付手段を有し、
    前記第1設定手段は、前記受付手段により受け付けられた入力に基づいて仮想視点の位置及び前記仮想視点からの視線方向を設定することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
  5. 前記第1設定手段により設定される仮想視点の向きの前記ユーザ操作に応じた変化を所定の方向の変化に制限するか否かを決定する決定手段を有し、
    前記第1設定手段は、前記受付手段により受け付けられた入力と前記決定手段による決定とに基づいて仮想視点の位置及び前記仮想視点からの視線方向を設定することを特徴とする請求項4に記載の画像処理装置。
  6. 前記対象領域に位置する所定のオブジェクトの位置及び向きの少なくとも何れかを示すオブジェクト情報を取得する情報取得手段を有し、
    前記第1設定手段は、前記情報取得手段により取得された前記オブジェクト情報に基づいて仮想視点の位置及び前記仮想視点からの視線方向を設定することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
  7. 前記第1設定手段により設定される仮想視点の向きに平行な直線と前記空間における基準平面とがなす角の大きさは、前記立体表示装置の前記画像表示面の法線と前記設置面とがなす角の大きさに対応することを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。
  8. 前記特定手段は、他の立体表示装置により表示される画像に対応する仮想視点の位置及び前記仮想視点からの視線方向を特定し、
    前記第1設定手段は、前記立体表示装置の姿勢と前記他の立体表示装置の姿勢の関係と、前記特定手段により特定された仮想視点の位置及び前記仮想視点からの視線方向と、に基づいて仮想視点の位置及び前記仮想視点からの視線方向を設定することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
  9. 前記第1設定手段は、前記空間における第1の仮想視点の位置及び前記仮想視点からの視線方向と第2の仮想視点の位置及び前記仮想視点からの視線方向とを設定し、
    前記第2設定手段は、前記第1の仮想視点の位置及び前記仮想視点からの視線方向を基準として、第1の立体表示装置の構成に応じた数の仮想視点を含む第1仮想視点群の位置及び向きを設定し、且つ、前記第2の仮想視点の位置及び前記仮想視点からの視線方向を基準として、第2の立体表示装置の構成に応じた数の仮想視点を含む第2仮想視点群の位置及び向きを設定し、
    前記生成手段は、前記複数の画像と前記第1仮想視点群の位置及び向きとに基づいて前記第1の立体表示装置のための表示用の画像データを生成し、且つ、前記複数の画像と前記第2仮想視点群の位置及び向きとに基づいて前記第2の立体表示装置のための表示用の画像データを生成することを特徴とする請求項1乃至の何れか1項に記載の画像処理装置。
  10. 前記第1の仮想視点の向きと前記第2の仮想視点の向きとの差は、前記第1の立体表示装置の画像表示面の法線方向と前記第2の立体表示装置の画像表示面の法線方向との差に対応することを特徴とする請求項に記載の画像処理装置。
  11. 仮想視点の位置及び前記仮想視点からの視線方向の少なくとも何れかを変更するためのユーザ操作に応じた入力を受け付ける受付手段を有し、
    前記第1仮想視点群の位置及び向きと前記第2仮想視点群の位置及び向きは、前記受付手段により受け付けられた入力に応じて連動して変化することを特徴とする請求項又は10に記載の画像処理装置。
  12. 前記第1仮想視点群に含まれる仮想視点に応じた視野と、前記第2仮想視点群に含まれる仮想視点に応じた視野との両方に、前記対象領域に位置する所定のオブジェクトが含まれることを特徴とする請求項乃至11の何れか1項に記載の画像処理装置。
  13. 前記第2設定手段は、前記第1設定手段により設定された仮想視点の位置及び前記仮想視点からの視線方向と、前記立体表示装置の構成に応じた数の複数の仮想視点それぞれについて予め定められた調整量とに基づいて、前記複数の仮想視点の位置及び前記仮想視点からの視線方向を設定することを特徴とする請求項1乃至12の何れか1項に記載の画像処理装置。
  14. 前記第2設定手段は、前記立体表示装置が有する前記レンズ素子の数に応じた数の仮想視点の位置及び前記仮想視点からの視線方向を設定し、
    前記第1設定手段及び前記第2設定手段により設定される前記複数の仮想視点は、少なくとも位置及び向きの何れかが異なることを特徴とする請求項1乃至13の何れか1項に記載の画像処理装置。
  15. 請求項1乃至14の何れか1項に記載の画像処理装置と前記立体表示装置とを有することを特徴とする画像処理システム。
  16. 配列された複数のレンズ素子を有するレンズアレイに画像表示面から入射する光を前記複数のレンズ素子により屈折させることで、前記画像表示面に対するユーザの目の位置に応じて異なる立体画像を当該ユーザに対して表示する立体表示装置のための、表示用の画像データを生成する画像処理方法であって、
    対象領域をそれぞれ異なる方向から撮影する複数の撮影装置による撮影に基づく複数の画像を取得する画像取得工程と、
    前記立体表示装置が設置された設置面に対する前記立体表示装置の姿勢を特定する特定工程と、
    前記対象領域に関連付けられた空間における仮想視点の位置及び前記仮想視点からの視線方向であって、前記立体表示装置の姿勢に基づいて前記仮想視点の位置及び前記仮想視点からの視線方向を設定する第1設定工程と、
    前記第1設定工程において設定された仮想視点の位置及び前記仮想視点からの視線方向を基準として、前記立体表示装置の構成に応じた数の仮想視点の位置及び前記仮想視点からの視線方向を設定する第2設定工程と、
    前記画像取得工程において取得された前記複数の画像と、前記1設定工程及び前記第2設定工程において設定された複数の仮想視点の位置及び前記仮想視点からの視線方向とに基づいて、前記表示用の画像データを生成する生成工程と、を有することを特徴とする画像処理方法。
  17. 前記生成工程は、前記複数の仮想視点の位置及び前記仮想視点からの視線方向にそれぞれ対応する複数の仮想視点画像を、前記画像取得工程において取得された前記複数の画像に基づいて生成し、前記複数の仮想視点画像を合成して前記表示用の画像データを生成することを特徴とする請求項16に記載の画像処理方法。
  18. 仮想視点の位置及び前記仮想視点からの視線方向の少なくとも何れかを指定するためのユーザ操作に応じた入力を受け付ける受付工程を有し、
    前記第1設定工程は、前記受付工程において受け付けられた入力に基づいて仮想視点の位置及び前記仮想視点からの視線方向を設定することを特徴とする請求項16又は17に記載の画像処理方法。
  19. 前記第1設定工程により設定される仮想視点の向きに平行な直線と前記空間における基準平面とがなす角の大きさは、前記立体表示装置の前記画像表示面の法線と前記設置面とがなす角の大きさに対応することを特徴とする請求項16乃至18の何れか1項に記載の画像処理方法。
  20. コンピュータを、請求項1乃至14の何れか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2019168860A 2019-09-17 2019-09-17 画像処理装置、画像処理方法、及びプログラム Active JP7395296B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019168860A JP7395296B2 (ja) 2019-09-17 2019-09-17 画像処理装置、画像処理方法、及びプログラム
US17/021,790 US11587283B2 (en) 2019-09-17 2020-09-15 Image processing apparatus, image processing method, and storage medium for improved visibility in 3D display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019168860A JP7395296B2 (ja) 2019-09-17 2019-09-17 画像処理装置、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2021048459A JP2021048459A (ja) 2021-03-25
JP7395296B2 true JP7395296B2 (ja) 2023-12-11

Family

ID=74868247

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019168860A Active JP7395296B2 (ja) 2019-09-17 2019-09-17 画像処理装置、画像処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US11587283B2 (ja)
JP (1) JP7395296B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022170264A (ja) * 2021-04-28 2022-11-10 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007195091A (ja) 2006-01-23 2007-08-02 Sharp Corp 合成映像生成システム
JP2009063879A (ja) 2007-09-07 2009-03-26 National Institute Of Information & Communication Technology 立体ディスプレイ
JP2009175866A (ja) 2008-01-22 2009-08-06 Nippon Hoso Kyokai <Nhk> 立体像生成装置、その方法およびそのプログラム
JP2010277372A (ja) 2009-05-28 2010-12-09 National Institute Of Information & Communication Technology 映像表示システムおよび映像表示方法
JP2014045474A (ja) 2012-07-31 2014-03-13 Nlt Technologies Ltd 立体画像表示装置、画像処理装置及び立体画像処理方法
JP2019096996A (ja) 2017-11-21 2019-06-20 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP2019114147A (ja) 2017-12-25 2019-07-11 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
JP2019125303A (ja) 2018-01-19 2019-07-25 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP2019152980A (ja) 2018-03-01 2019-09-12 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2019152903A5 (ja) 2018-02-28 2021-04-15 情報処理装置および情報処理方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5452801B2 (ja) * 2010-04-28 2014-03-26 日本放送協会 立体像生成装置およびそのプログラム
US20130335405A1 (en) * 2012-06-18 2013-12-19 Michael J. Scavezze Virtual object generation within a virtual environment
JP6126820B2 (ja) * 2012-11-09 2017-05-10 任天堂株式会社 画像生成方法、画像表示方法、画像生成プログラム、画像生成システム、および画像表示装置
US10962780B2 (en) * 2015-10-26 2021-03-30 Microsoft Technology Licensing, Llc Remote rendering for virtual images
JP6511386B2 (ja) * 2015-11-20 2019-05-15 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および画像生成方法
JP7045218B2 (ja) * 2018-02-28 2022-03-31 キヤノン株式会社 情報処理装置および情報処理方法、プログラム
JP7182920B2 (ja) * 2018-07-02 2022-12-05 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP7193938B2 (ja) * 2018-07-04 2022-12-21 キヤノン株式会社 情報処理装置及びその制御方法、プログラム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007195091A (ja) 2006-01-23 2007-08-02 Sharp Corp 合成映像生成システム
JP2009063879A (ja) 2007-09-07 2009-03-26 National Institute Of Information & Communication Technology 立体ディスプレイ
JP2009175866A (ja) 2008-01-22 2009-08-06 Nippon Hoso Kyokai <Nhk> 立体像生成装置、その方法およびそのプログラム
JP2010277372A (ja) 2009-05-28 2010-12-09 National Institute Of Information & Communication Technology 映像表示システムおよび映像表示方法
JP2014045474A (ja) 2012-07-31 2014-03-13 Nlt Technologies Ltd 立体画像表示装置、画像処理装置及び立体画像処理方法
JP2019096996A (ja) 2017-11-21 2019-06-20 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP2019114147A (ja) 2017-12-25 2019-07-11 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
JP2019125303A (ja) 2018-01-19 2019-07-25 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP2019152903A5 (ja) 2018-02-28 2021-04-15 情報処理装置および情報処理方法
JP2019152980A (ja) 2018-03-01 2019-09-12 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
US20210082174A1 (en) 2021-03-18
US11587283B2 (en) 2023-02-21
JP2021048459A (ja) 2021-03-25

Similar Documents

Publication Publication Date Title
EP2569951B1 (en) System and method for multi-viewpoint video capture
US11184597B2 (en) Information processing device, image generation method, and head-mounted display
US10681276B2 (en) Virtual reality video processing to compensate for movement of a camera during capture
US20210235014A1 (en) Image processing apparatus and control method thereof, computer-readable storage medium
JP2017505565A (ja) 多面映像の生成方法及びシステム
US11303823B2 (en) Camera array for a mediated-reality system
JP7378243B2 (ja) 画像生成装置、画像表示装置および画像処理方法
KR20040031619A (ko) 표시 장치, 화상 처리 장치 및 화상 처리 방법, 촬상장치, 및 프로그램
JP7182920B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2014095809A (ja) 画像生成方法、画像表示方法、画像生成プログラム、画像生成システム、および画像表示装置
JP7395296B2 (ja) 画像処理装置、画像処理方法、及びプログラム
CN114953463A (zh) 信息处理设备、信息处理方法和存储介质
JP2012129768A (ja) 書画カメラ、書画カメラの制御方法、プログラムおよび表示処理システム
CN108450031A (zh) 图像捕获装置
JP6518645B2 (ja) 情報処理装置および画像生成方法
EP4054186A1 (en) Information processing apparatus, information processing method, and program
KR20230017745A (ko) 화상 처리장치, 화상 처리방법, 및 기억매체
JP7006912B2 (ja) 画像処理装置、画像表示装置及び画像処理プログラム
JP7341674B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6916896B2 (ja) 情報処理装置および画像生成方法
JP6921204B2 (ja) 情報処理装置および画像出力方法
JP2006129472A (ja) 画像処理装置および画像処理方法、並びにプログラム
JP2023003765A (ja) 画像生成装置およびその制御方法、画像生成システム、ならびにプログラム
Ouchi et al. Development of 128-directional 3D display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231129

R151 Written notification of patent or utility model registration

Ref document number: 7395296

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213