JP7086522B2 - 画像処理装置、情報処理方法及びプログラム - Google Patents

画像処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP7086522B2
JP7086522B2 JP2017035930A JP2017035930A JP7086522B2 JP 7086522 B2 JP7086522 B2 JP 7086522B2 JP 2017035930 A JP2017035930 A JP 2017035930A JP 2017035930 A JP2017035930 A JP 2017035930A JP 7086522 B2 JP7086522 B2 JP 7086522B2
Authority
JP
Japan
Prior art keywords
virtual
virtual object
virtual viewpoint
image
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017035930A
Other languages
English (en)
Other versions
JP2018142164A (ja
JP2018142164A5 (ja
Inventor
一菜 丸山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017035930A priority Critical patent/JP7086522B2/ja
Priority to US15/902,790 priority patent/US10705678B2/en
Priority to KR1020180023411A priority patent/KR102271527B1/ko
Priority to EP18158852.6A priority patent/EP3367666B1/en
Priority to CN201810165870.2A priority patent/CN108510595B/zh
Publication of JP2018142164A publication Critical patent/JP2018142164A/ja
Publication of JP2018142164A5 publication Critical patent/JP2018142164A5/ja
Application granted granted Critical
Publication of JP7086522B2 publication Critical patent/JP7086522B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • H04N5/2723Insertion of virtual advertisement; Replacing advertisements physical present in the scene by virtual advertisement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Description

本発明は、仮想視点画像を生成する技術に関するものである。
従来、異なる位置に設置された複数のカメラにより複数の方向から被写体を撮影し、当該撮影により得られた複数の撮影画像(複数視点画像)を用いて仮想視点画像を生成する技術が提案されている。このように複数視点画像から仮想視点画像を生成する技術によれば、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することが可能になり、通常の撮影画像よりも視聴者に高臨場感を与えることが出来る。
特許文献1には、複数視点画像には含まれない仮想オブジェクトとしての広告を、複数視点画像に含まれる現実の対象物に貼り付けるように、仮想視点画像に挿入して表示させることが記載されている。
特開2012-48639号公報
しかしながら、従来の技術では、仮想視点画像の生成に係る仮想視点が移動する場合に、仮想視点画像の適切な領域に仮想オブジェクトが表示されない場合が考えられる。例えば、仮想視点画像に含まれるべき仮想オブジェクトが仮想視点の移動に伴って仮想視点画像に含まれなくなってしまう虞がある。また例えば、仮想視点画像に含まれる重要度の高い被写体が、仮想視点の移動に伴って仮想オブジェクトにより遮蔽されてしまう虞がある。
本発明は上記の課題に鑑みてなされたものであり、仮想視点画像の生成に係る仮想視点が移動する場合において、仮想視点画像のより適切な領域に仮想オブジェクトを表示させることを目的とする。
上記の課題を解決するため、本発明に係る画像処理装置は、例えば以下の構成を有する。すなわち、複数の撮影装置によりそれぞれ異なる位置から撮影することで得られる複数の撮影画像に基づいて生成される仮想視点画像に対応する仮想視点の移動経路及び前記移動経路上の仮想視点からの視線方向を示す視点情報を取得する取得手段と、前記仮想視点画像に表示される仮想オブジェクトであって前記複数の撮影画像に含まれない仮想オブジェクトの3次元空間における位置として、前記取得手段により取得された視点情報により特定される前記移動経路上の複数の仮想視点の視界のうち所定の数よりも多い数の仮想視点の視界に含まれる位置を決定手段と、を有する。
本発明によれば、仮想視点画像の生成に係る仮想視点が移動する場合において、仮想視点画像のより適切な領域に仮想オブジェクトを表示させることができる。
画像処理システム10の構成を説明するための図である。 画像処理装置2のハードウェア構成について説明するための図である。 仮想オブジェクトの配置及び仮想視点の移動経路について説明するための図である。 制御装置3による仮想視点画像の生成に係る処理について説明するためのフローチャートである。 画像処理装置2による仮想オブジェクトの挿入に係る処理について説明するためのフローチャートである。 画像処理装置2による仮想オブジェクトの位置決定に係る処理について説明するためのフローチャートである。 仮想オブジェクトの位置の決定方法について説明するための図である。 仮想オブジェクトの向き及び形状の決定方法について説明するための図である。 仮想視点画像における仮想オブジェクトの表示例について説明するための図である。 仮想オブジェクトを複数配置する場合における、仮想オブジェクトの位置の決定方法について説明するための図である。 画像処理装置2による仮想オブジェクトの調整に係る処理について説明するためのフローチャートである。 仮想オブジェクトの調整方法について説明するための図である。
[システム構成]
図1は、本実施形態に係る画像処理システム10の全体構成の例を表す図である。画像処理システム10は、複数視点画像保持部1(以降、保持部1)、画像処理装置2、制御装置3及び仮想視点画像保持部4(以降、保持部4)を有する。
なお、本実施形態における仮想視点画像は、仮想的な視点から被写体を撮影した場合に得られる画像である。言い換えると、仮想視点画像は、指定された視点における見えを表す画像である。仮想的な視点(仮想視点)は、ユーザにより指定されても良いし、画像解析の結果等に基づいて自動的に指定されても良い。すなわち仮想視点画像には、ユーザが任意に指定した視点に対応する任意視点画像(自由視点画像)が含まれる。また、複数の候補からユーザが指定した視点に対応する画像や、装置が自動で指定した視点に対応する画像も、仮想視点画像に含まれる。なお、本実施形態において仮想視点画像は、画像処理システム10において生成される動画の各フレームに対応する。すなわち画像処理システム10は、時間的に連続する複数の仮想視点画像から構成される動画を生成する。また、本実施形態におけるユーザは、制御装置3を操作して仮想視点画像の生成を制御する操作者であり、画像処理システム10から配信される仮想視点画像を見る視聴者とは区別されるものとする。ただし、操作者と視聴者が同一のユーザであってもよい。
保持部1は、複数のカメラによりそれぞれ異なる方向から被写体が撮影されることで得られる複数の撮影画像(複数視点画像)を保持し、画像処理装置2に送信する。複数のカメラは、例えば競技場のフィールドやライブステージなどを取り囲むように設置され、同期して撮影を行う。ただし、複数のカメラはフィールドやステージなどの被写体を複数の方向から撮影できるように設置されていればよく、被写体の周囲全体にわたって設置されていなくてもよい。本実施形態では、複数のカメラそれぞれから保持部1に撮影画像が送信され、保持部1がそれらの撮影画像を画像処理装置2に送信するものとする。ただしこれに限らず、複数のカメラから画像処理装置2へ撮影画像が直接送信されてもよい。また、保持部1が保持する画像や画像処理装置2へ送信される画像が、撮影画像そのものではなく、例えば複数の撮影画像の差分に基づいて生成された画像などであってもよい。
画像処理装置2は、仮想視点画像生成部201(以降、画像生成部201)、仮想オブジェクト配置決定部202(以降、配置決定部202)及び仮想オブジェクトモデル化部203(以降、モデル化部203)を有する。
画像生成部201は、保持部1から取得した複数視点画像から、被写体の形状を表す3次元モデルを生成する。そして画像生成部201は、制御装置3の仮想カメラパス生成部302(以降、パス生成部302)から取得した仮想カメラパスに応じて、被写体の3次元モデルに色や質感を表すテクスチャをマッピングし、仮想視点画像を生成する。なお、画像処理装置2が仮想視点画像を生成する方法はこれに限らず、例えば、画像処理装置2は3次元モデルを生成せず撮影画像を変形したり合成したりすることで仮想視点画像を生成してもよい。
仮想カメラパスとは、仮想視点画像の生成に係る仮想視点の移動経路を特定するための視点情報であり、ユーザによる仮想視点の指定に応じて制御装置3により生成される。なお、本実施形態の仮想カメラパスには、視点の位置を特定するための情報と視線の方向を特定するための情報が含まれるものとする。ただしこれに限らず、仮想カメラパスには視線の方向に関する情報が含まれなくてもよい。この場合には例えば、仮想カメラパスから特定される視点の位置と、予め定められた注視点の位置とに基づいて、仮想視点に係る視線の方向が決定されてもよい。また仮想カメラパスには、画角などその他のパラメータが含まれていてもよい。
また、画像生成部201は、モデル化部203から取得した仮想オブジェクトのモデルを被写体の3次元モデルと合成し、仮想オブジェクトのテクスチャをモデルにマッピングすることで、仮想オブジェクトを含む仮想視点画像を生成する。そして画像生成部201は、生成した仮想視点画像を制御装置3の仮想視点画像編集部301(編集部301)に出力する。仮想オブジェクトとは、複数視点画像には含まれず仮想視点画像に含まれる仮想的なオブジェクトである。なお本実施形態では、仮想オブジェクトが、仮想視点画像に広告を表示させるための面状のオブジェクトである場合を中心に説明する。ただし、仮想オブジェクトの形状や使用目的はこれに限らない。例えば仮想オブジェクトには、試合の途中経過に関する情報が表示されてもよいし、人物などの被写体を説明する文字や画像が表示されてもよい。また、仮想オブジェクトは例えば直方体や球体など立体形状のオブジェクトであってもよい。
配置決定部202は、パス生成部302から取得した仮想カメラパスと制御装置3の仮想オブジェクト情報保持部303(以降、情報保持部303)から取得した配置候補情報から、仮想オブジェクトの配置情報を生成する。そして配置決定部202は、生成した配置情報をモデル化部203に出力する。ここで、配置候補情報とは、被写体が存在する3次元空間(例えばスタジアム内)における仮想オブジェクトを配置する候補となる領域を示す情報である。また、仮想オブジェクトの配置情報とは、仮想オブジェクトの位置、大きさ、形状及び向きの少なくとも何れかに関する情報である。なお、仮想オブジェクトの位置、大きさ、形状及び向きのすべてが配置情報により特定されてもよいし、仮想オブジェクトの位置、大きさ、形状及び向きの少なくとも何れかが配置情報に依らない既定の値として設定されていてもよい。配置決定部202が仮想オブジェクトの配置を決定する方法の詳細については後述する。
ここで図3を用いて、仮想オブジェクトの配置候補について説明する。図3に示す例では、サッカー用のフィールドの周囲に仮想オブジェクトの配置候補領域5が存在する。配置候補領域5は領域5aから領域5eの複数の領域により構成されており、領域5aはさらにサブ領域51aからサブ領域51nの複数の領域に分割されている。配置候補領域5は、領域5aや領域5bのようにフィールドの側面全体にわたって配置されていてもよいし、領域5cや領域5dで示したようにサッカーゴールなどの所定の被写体の近傍を避けて配置されていてもよい。なお、領域5aから領域5dは3次元領域であり、領域5eはフィールド面に垂直な2次元領域である。なお、配置候補領域5は図3に示すものに限らず、例えばフィール内や上空であってもよい。
モデル化部203は、配置決定部202から取得した仮想オブジェクトの配置情報と情報保持部303から取得した仮想オブジェクト情報から、仮想オブジェクトの3次元モデルを生成する。仮想オブジェクト情報には、仮想オブジェクトの形状やテクスチャに関する情報などが含まれる。また仮想オブジェクト情報には、当該仮想オブジェクトにより表示される広告を識別するための識別子などが含まれてもよい。そしてモデル化部203は、生成した仮想オブジェクトのモデルと、そのモデルにマッピングするためのテクスチャとを、画像生成部201に出力する。
制御装置3は、編集部301、パス生成部302及び情報保持部303を有する。編集部301は、ユーザによる操作を受け付け、受け付けた操作に応じて画像処理装置2に対する指示を行う。例えば、編集部301はジョイスティック、ジョグダイヤル、タッチパネル、キーボード、及びマウスなどの操作部を有し、当該操作部によりユーザの操作を受け付ける。また編集部301は表示部を有し、ユーザに対してGUI(Graphical User Interface)や画像処理装置2により生成された仮想視点画像などを表示する。
編集部301は具体的には、仮想視点画像を生成する画像処理装置2に対して、どのシーン(撮影時点)の複数視点画像に基づく仮想視点画像を生成するかを指示したり、生成される動画の再生速度の調整や一時停止を指示したりする。また編集部301は、ユーザによる仮想視点の指定に基づいてパス生成部302に仮想カメラパスの生成を指示し、仮想視点画像への仮想オブジェクトの挿入を配置決定部202に指示する。また編集部301は、指示に基づいて画像生成部201が生成した仮想視点画像を取得し、ユーザに対してプレビューを行う。また、編集部301は、プレビューした仮想視点画像をユーザの指示に応じて破棄したり保持部4へ出力したりする。
パス生成部302は、編集部301から仮想カメラパス生成指示を受けると、指示に基づいて仮想視点の移動経路上における視点の位置や視線の向きを決定し、時間的に連続する複数の仮想カメラパラメータからなる仮想カメラパスを生成する。各仮想カメラパラメータは、仮想視点の位置や向きを表すパラメータであり、フレーム番号やタイムコードなど、どのシーンに対応するパラメータであるかを特定するための情報に関連づけられている。また、パス生成部302は、生成した仮想カメラパスを配置決定部202に渡す。なお、仮想カメラパスの情報の形式はこれに限らない。
ここで図3を用いて、仮想視点の移動経路の例を示す。図3に示す例では、ゴールに向かって軌跡8に沿って移動するボール等の注目オブジェクトを後方から追うように、仮想視点の移動経路7が設定されている。パス生成部302により生成される仮想カメラパスは、例えばこの移動経路7を特定する情報である。仮想カメラパスには、移動経路7上の仮想視点6aから仮想視点6fまでのそれぞれに対応する仮想カメラパラメータが含まれる。すなわちこの例では、6フレーム分の仮想視点を特定する仮想カメラパスが生成される。ユーザが編集部301を介して移動経路7を指定する際には、移動経路7を示す線を指定してもよいし、移動経路上のいくつかの仮想視点(例えば仮想視点6a、仮想視点6d及び仮想視点6f)を点として指定してもよい。点が指定された場合には、パス生成部302は、例えばスプライン補間などの方法により残りの仮想視点(仮想視点6b、仮想視点6c及び仮想視点6e)を算出してもよい。スプライン補間とは、指定された点またはその近傍を通る曲線を生成する方法である。
情報保持部303は、仮想オブジェクトの配置候補情報および仮想オブジェクト情報を保持する。そして情報保持部303は、配置決定部202からの要求に従い、保持している配置候補情報を配置決定部202に出力する。また情報保持部303は、モデル化部203からの要求に従い、保持している仮想オブジェクト情報をモデル化部203に出力する。
保持部4は、画像処理装置2により生成された仮想視点画像を、編集部301を介して取得し保持する。そして保持部4により保持された仮想視点画像は、視聴者が有する再生装置などに対して出力される。なお、保持部4により保持された仮想視点画像はさらなる編集処理が行われてから視聴者に配信されてもよい。また、画像処理システム10により生成された仮想視点画像はリアルタイムに配信されてもよい。
なお、本実施形態では、仮想オブジェクトの配置を決定する配置決定部202と、配置決定部202による決定に応じて仮想視点画像を生成する画像生成部201とがいずれも画像処理装置2に含まれるものとする。ただしこれに限らず、例えば画像生成部201が画像処理装置2とは異なる画像生成装置の内部に存在してもよい。そしてこの場合、配置決定部202は仮想オブジェクトの位置、大きさ、形状及び向きの少なくとも何れかに関する情報をその画像生成装置へ出力することで、仮想視点画像における仮想オブジェクトを表示させる領域を制御してもよい。また、配置決定部202やモデル化部203などが制御装置3の内部に存在してもよい。
[ハードウェア構成]
続いて、画像処理装置2のハードウェア構成について、図2を用いて説明する。なお、制御装置3のハードウェア構成も画像処理装置2と同様である。画像処理装置2は、CPU211、ROM212、RAM213、補助記憶装置214、表示部215、操作部216、通信部217、及びバス218を有する。CPU211は、ROM212やRAM213に格納されているコンピュータプログラムやデータを用いて画像処理装置2の全体を制御する。なお、画像処理装置2がGPU(Graphics Processing Unit)を有し、CPU211による処理の少なくとも一部をGPUが行ってもよい。ROM212は、変更を必要としないプログラムやパラメータを格納する。RAM213は、補助記憶装置214から供給されるプログラムやデータ、及び通信部217を介して外部から供給されるデータなどを一時記憶する。補助記憶装置214は、例えばハードディスクドライブ等で構成され、静止画や動画などのコンテンツデータを記憶する。
表示部215は、例えば液晶ディスプレイ等で構成され、ユーザが画像処理装置2を操作するためのGUIなどを表示する。操作部216は、例えばキーボードやマウス等で構成され、ユーザによる操作を受けて各種の指示をCPU211に入力する。通信部217は、保持部1や制御装置3などの外部の装置と通信を行う。例えば、画像処理装置2が外部の装置と有線で接続される場合には、LANケーブル等が通信部217に接続される。なお、画像処理装置2が外部の装置と無線通信する機能を有する場合、通信部217はアンテナを備える。バス218は、画像処理装置2の各部を繋いで情報を伝達する。
なお、本実施形態では表示部215と操作部216は画像処理装置2の内部に存在するが、画像処理装置2は表示部215及び操作部216の少なくとも一方を備えていなくてもよい。また、表示部215及び操作部216の少なくとも一方が画像処理装置2の外部に別の装置として存在していて、CPU211が、表示部215を制御する表示制御部、及び操作部216を制御する操作制御部として動作してもよい。
[動作フロー]
次に図4を用いて、制御装置3による仮想視点画像の生成に係る処理について説明する。図4に示す処理は、仮想視点画像の生成を開始するためのユーザによる操作を編集部301が受け付けたタイミングで開始される。ユーザによる操作は、例えば、競技中に撮影された撮影画像からリプレイ画像としての仮想視点画像を生成する際に行われる。ユーザは制御装置3の表示部215を見ながら操作部216を介して操作を行う。ただし、図4に示す処理の開始タイミングは上記タイミングに限定されない。図4に示す処理は、制御装置3のCPU211がROM212に格納されたプログラムをRAM213に展開して実行することで実現される。なお、図4に示す処理の少なくとも一部を、CPU211とは異なる専用のハードウェアにより実現してもよい。
S1において、編集部301は、ユーザによるシーン決定操作に応じて、生成対象となる仮想視点画像の動画の開始フレームと終了フレームを決める。S2において、編集部301は、ユーザによる仮想視点の指定に基づいてパス生成部302を制御し、仮想カメラパスを生成して画像処理装置2へ出力する。なお編集部301は、動画の再生速度の指定をユーザから受け付け、再生速度に関する情報を仮想カメラパスに含めてもよい。
S3において、編集部301は、ユーザによる操作に基づいて、仮想視点画像に仮想オブジェクトを挿入するか否かを判断する。例えばユーザは、仮想オブジェクトとしての広告を仮想視点画像に挿入する場合、制御装置3により表示されるGUI上の広告挿入項目にチェックを入れてから仮想視点画像を生成するボタンをクリックする。一方、仮想視点画像に広告を挿入しない場合、ユーザは、広告挿入項目にチェックを入れずに仮想視点画像を生成するボタンをクリックする。
仮想オブジェクトを挿入すると判断された場合(S3のYES)、編集部301はS4において、画像処理装置2に仮想オブジェクトの挿入を指示し、情報保持部303を制御して仮想オブジェクト情報と配置候補情報を画像処理装置2へ出力する。そして編集部301は、S5において、画像処理装置2により生成された仮想オブジェクトを含む仮想視点画像を取得する。画像処理装置2による仮想オブジェクトの挿入処理については、図5を用いて後述する。一方、仮想オブジェクトを挿入しないと判断された場合(S3のNO)、編集部301はS5において、画像処理装置2により生成された仮想オブジェクトを含まない仮想視点画像を取得する。
S6において、編集部301は、画像処理装置2から取得した仮想視点画像を、ユーザが確認できるようにプレビューする。ユーザはプレビューを確認して、必要に応じて仮想カメラパスの修正などの調整を行うことができる。S7において、編集部301は、ユーザが所望する仮想視点画像の生成に成功したか否かを、ユーザによる操作に基づいて判断する。生成に成功したと判断された場合(S7のYES)、編集部301はS10において、生成された仮想視点画像の動画を保持部4に出力して記憶させ、処理を終了する。
一方、生成に失敗したと判断された場合(S7のNO)、編集部301はS8において、仮想カメラパスの修正を行うか否かをユーザ操作に基づいて判断する。仮想カメラパスを修正すると判断された場合(S8のYES)、S2に戻って新たな仮想カメラパスを生成し、仮想視点画像の生成指示をやり直す。また仮想カメラパスを修正しないと判断された場合(S8のNO)、編集部301はS9において仮想視点画像を破棄し、処理を終了する。
次に図5を用いて、画像処理装置2による仮想オブジェクトの挿入に係る処理について説明する。図5に示す処理は、配置決定部202が制御装置3から仮想オブジェクトの挿入指示を受け付けたタイミングで開始される。ただし、図5に示す処理の開始タイミングは上記タイミングに限定されない。図5に示す処理は、画像処理装置2のCPU211がROM212に格納されたプログラムをRAM213に展開して実行することで実現される。なお、図5に示す処理の少なくとも一部を、CPU211とは異なる専用のハードウェアにより実現してもよい。
S41において、モデル化部203は、情報保持部303から仮想オブジェクト情報を取得する。S42において、配置決定部202は、情報保持部303から仮想オブジェクトの配置候補情報を取得する。なお、図4のS8における判断に基づいて仮想視点画像の生成がやり直されている場合などには、S41およびS42の処理が省略されてもよい。S43において、画像生成部201および配置決定部202は、パス生成部302から仮想カメラパスを取得する。なお、S41、S42およびS43の処理は実行される順番が図5に示すものと異なっていてもよいし、これらの処理が並行して行われてもよい。
S44において、配置決定部202は、取得した配置候補情報及び仮想カメラパスに基づいて仮想オブジェクトの配置を決定し、決定結果に応じて配置情報を生成する。仮想オブジェクトの配置決定方法の詳細については、図6等を用いて後述する。配置決定部202により生成される配置情報は、モデル化部203に出力される。S45において、モデル化部203は、取得した仮想オブジェクト情報および配置情報に基づいて、仮想視点画像に挿入する仮想オブジェクトの3次元モデルを生成し画像生成部201へ出力する。S46において、モデル化部203は、取得した仮想オブジェクト情報に基づくテクスチャを画像生成部201に出力する。なお、S45の処理とS46の処理の順番は逆であってもよいし、これらの処理が並行して行われてもよい。S47において、画像生成部201は、仮想オブジェクトのモデル及びテクスチャを用いて仮想視点画像を生成し、生成した仮想視点画像を制御装置3へ出力して処理を終了する。
以上のように、配置決定部202により生成される配置情報に基づいて仮想オブジェクトのモデルが生成され、画像生成部201において仮想視点画像に仮想オブジェクトが合成される。すなわち配置決定部202は、取得した仮想カメラパスに基づいて仮想オブジェクトの位置に関する配置情報を生成し出力することで、仮想視点画像における仮想オブジェクトを表示させる表示領域を、仮想視点の移動経路に応じて制御することができる。
[処理の詳細]
図6を用いて、画像処理装置2による仮想オブジェクトの位置決定に係る処理について説明する。図6(a)は、図5のS44における処理の詳細を表している。S441において、配置決定部202は、配置候補情報が示す複数の候補領域のうち、仮想カメラパスに応じて移動する仮想視点の視界に長く映る領域(仮想視点画像の動画に長い期間表示される領域)を、仮想オブジェクトを配置する領域として特定する。
すなわち配置決定部202は、仮想カメラパスから特定される移動経路上の複数の仮想視点それぞれに対応する複数の仮想視点画像のうち所定数以上の仮想視点画像に仮想オブジェクトが含まれるように、配置を決定する。この所定数は、仮想カメラパスに含まれる仮想カメラパラメータの数などに基づいて決まる値であってもよいし、ユーザにより指定された値であってもよい。また所定値は、各候補領域が上記複数の仮想視点画像のうちいくつの仮想視点画像に含まれるかに基づいて決まる値であってもよい。本実施形態では、最も多くの仮想視点画像に含まれる候補領域が、仮想オブジェクトが配置される領域として特定される場合を中心に説明する。なお、上記複数の仮想視点画像のすべてに仮想オブジェクトが表示されるような候補領域が存在する場合には、その候補領域を仮想オブジェクトの配置領域として特定する。本実施形態において、このようにして決定される仮想オブジェクトの位置は、3次元空間における固定位置であり、仮想視点の移動に伴って変化しない。
S442において、配置決定部202は、特定された領域に配置される仮想オブジェクトの向きや形状などを、仮想視点の移動経路に基づいて決定する。なお、仮想オブジェクトの向きや形状は、仮想視点に依らず予め設定されていてもよい。また、図3の領域5eのように候補領域が2次元領域である場合などには、仮想オブジェクトの向きは一意に決まる。
次に、仮想オブジェクトを配置する領域を特定する処理について、図6(b)および図7を用いて説明する。図6(b)は、図6(a)のS441における処理の詳細を表している。S4411において、配置決定部202は、仮想カメラパスの先頭の仮想カメラパラメータを解析して、動画の開始フレームにおける仮想視点6aの視界を特定する。S4412において、配置決定部202は、仮想オブジェクトの配置候補領域5に含まれるサブ領域51のそれぞれが、仮想視点6aの視界に含まれるか否かを判定する。
S4413において、配置決定部202は、サブ領域51それぞれについて、当該サブ領域が仮想視点6の視界内となったフレーム数を示すカウンタの値を更新する。開始フレームにおける仮想視点6aが図7(a)に示す視界61aを有する場合、領域5aのうち太枠で囲まれた部分に含まれるサブ領域51が仮想視点6aの視界内となるので、これらのサブ領域51のカウンタの値が0から1に更新される。S4414において、配置決定部202は、未処理の仮想カメラパラメータがあるか否かを判定する。未処理の仮想カメラパラメータがあると判定されると(S4414のYES)、配置決定部202は次の仮想カメラパラメータを解析対象とし(S4415)、S4411に戻る。
仮想視点6が図7(b)に示すように仮想視点6bに移動した場合、太枠で囲まれた部分に含まれるサブ領域51が仮想視点6bの視界61b内となるので、これらのサブ領域51のそれぞれについてカウンタの値が更新される。図7(b)の例では、視界内から視界外に変化したサブ領域51のカウンタの値は1のままであり、視界内のままのサブ領域51のカウンタの値は1から2に更新される。同様に、図7(c)、図7(d)、図7(e)及び図7(f)に示すように仮想視点6が移動し、仮想視点6fが動画の終了フレームにおける仮想視点である場合、全仮想カメラパラメータを解析した時点でのカウンタは、図7(f)に示すような値となる。S4414において未処理の仮想カメラパラメータがないと判定されると(S4414のNO)、S4416へ進む。
S4416において、配置決定部202は、カウンタの値が最大となったサブ領域51を特定する。図7(f)の例では、カウンタの値が6となったサブ領域51f、サブ領域51g及びサブ領域51hが特定される。S4417において、配置決定部202は、特定されたサブ領域51のうち隣接するサブ領域51の数から、仮想オブジェクトを配置する領域として十分なサイズの領域が特定されているか否かを判定する。この判定は具体的には、特定された隣接するサブ領域51の数が、仮想オブジェクトの既定の大きさに対応する閾値以上であるか否かの判定である。なおこれに限らず、例えば特定された隣接するサブ領域51の数の、サブ領域51の総数に対する割合が閾値と比べられてもよい。
特定されたサブ領域51の数と比較される閾値を5とした場合、図7(f)の例では、特定されたサブ領域51の数が3となるので、仮想オブジェクトを配置する領域として十分なサイズの領域が特定されていないと判定される(S4417のYES)。この場合、S4418において、配置決定部202は、特定されたサブ領域51に隣接するサブ領域51のうちカウンタの値が大きいサブ領域51を追加で特定する。図7(f)の例では、サブ領域51eおよび51iが特定されたサブ領域51に隣接しており、どちらもカウンタの値が5であるので、新たに特定されたサブ領域は51eから51iまでの5つとなる。
サブ領域51が追加で特定されることにより、図7(f)の例では特定されたサブ領域51の数が5となるので、仮想オブジェクトを配置する領域として十分なサイズの領域が特定されていると判定される(S4417のNO)。この場合、S4419において、配置決定部202は、特定されたサブ領域51を仮想オブジェクトの配置領域52として決定し、配置情報を生成する。仮想視点の移動経路7に基づいて決定された配置領域52を図7(g)に示す。配置決定部202が生成した配置情報には、競技場など被写体が存在する3次元空間における仮想オブジェクトの位置(配置領域52)を特定するための情報が含まれる。例えば、配置領域52を表す矩形の頂点や中央の座標、当該矩形の縦や横の長さなどが配置情報に含まれる。
次に、仮想オブジェクトの形状を決定する処理について、図6(c)および図8を用いて説明する。図6(c)は、図6(a)のS442における処理の詳細を表している。S4421において、配置決定部202は、仮想カメラパスの先頭の仮想カメラパラメータを解析し、仮想視点6と配置領域52との位置関係に対応する仮想オブジェクトの形状53を特定する。開始フレームにおける仮想視点6aが図8(a)に示す位置および向きである場合、仮想視点6aの視線に垂直となるような仮想オブジェクト形状53aが特定される。S4422において、配置決定部202は、未処理の仮想カメラパラメータがあるか否かを判定する。未処理の仮想カメラパラメータがあると判定されると(S4422のYES)、配置決定部202は次の仮想カメラパラメータを解析対象とし(S4423)、S4421に戻る。
仮想視点6が図8(b)に示すように仮想視点6bに移動した場合、仮想視点6bの視線に垂直な仮想オブジェクト形状53bが特定される。同様に、仮想視点6が図8(c)および図8(d)に示す仮想視点6cおよび仮想視点6dに移動した場合、それぞれ、仮想視点6cの視線および仮想視点6dの視線に垂直な仮想オブジェクト形状53cおよび仮想オブジェクト形状53dが特定される。一方、仮想視点6が図8(e)および図8(f)に示す仮想視点6eおよび仮想視点6fに移動した場合、配置領域52内に仮想オブジェクトが収まるようにすると、仮想視点6の視線に垂直な仮想オブジェクト形状53はサイズが小さくなってしまう。そこで、仮想オブジェクトのサイズが小さくなり過ぎないように、仮想視点6eの視線および仮想視点6fの視線に垂直ではない仮想オブジェクト形状53eおよび仮想オブジェクト形状53fが特定される。S4422において未処理の仮想カメラパラメータがないと判定されると(S4422のYES)、S4424へ進む。
S4424において、配置決定部202は、S4421において特定された仮想オブジェクト形状53の変化に基づいて、実際に配置される仮想オブジェクトの形状53を決定する。例えば、仮想オブジェクト形状53aから仮想オブジェクト形状53fまでのように特定された仮想オブジェクト形状53が大きく変化する場合に、実際に配置される形状53を図8(g)の仮想オブジェクト形状53gのような円弧状に決定してもよい。また、形状53aから形状53cまでのように特定された仮想オブジェクト形状53が大きく変化しない場合に、実際に配置される形状53を図8(b)の仮想オブジェクト形状53bのように中間となる形状53に決定してもよい。あるいは、形状53eおよび形状53fのように複数の仮想カメラパラメータに対して同じ形状53が特定された場合に、実際に配置される仮想オブジェクト形状53を図8(h)の仮想オブジェクト形状53hのように決定してもよい。すなわち、最も多くの仮想カメラパラメータに対して特定された形状53が実際に配置される形状53として決定されてもよい。このように決定された実際のオブジェクト形状53に基づいて仮想視点画像が生成され、3次元空間における仮想オブジェクトの形状は仮想視点の移動に伴って変化しない。 図9は、配置決定部202が決定した仮想オブジェクト形状53が図8(g)の仮想オブジェクト形状53gであった場合における、仮想視点画像における仮想オブジェクトの表示例を表している。図9(a)、図9(b)および図9(c)はそれぞれ、仮想視点6a、仮想視点6cおよび仮想視点6fに対応する表示例である。
以上のように配置決定部202は、取得した仮想カメラパスに基づいて仮想オブジェクトの位置や向き、形状などを制御することで、仮想視点画像における仮想オブジェクトを表示させる表示領域を制御する。特に本実施形態では、仮想カメラパスから特定される移動経路上の第1時点の仮想視点に対応する仮想視点画像における仮想オブジェクトを表示させる表示領域が、第1時点の仮想視点と、当該移動経路上の第2時点の仮想視点とに基づいて決定される。
図7や図8の例では、3次元空間における第1時点(仮想視点6が仮想視点6fに位置する時点)の仮想オブジェクトの位置が、第1時点の仮想視点(仮想視点6f)と第2時点の仮想視点(仮想視点6aなど)とに基づいて決定される。そして、当該決定された位置に基づいて、仮想視点画像における仮想オブジェクトを表示させる領域が決定される。ここで、3次元空間における第1時点の仮想オブジェクトの位置と第2時点の仮想オブジェクトの位置とは同一である。このような配置決定処理により、第1時点の仮想視点に対応する仮想視点画像の適切な領域に仮想オブジェクトを表示させ、且つ、第2時点の仮想視点に対応する仮想視点画像の適切な領域に仮想オブジェクトを表示させることができる。
なお、仮想オブジェクトの位置や形状、向きの決定方法は上述したものに限らない。例えば、仮想オブジェクトの一方の面に広告が表示され、他方の面には広告が表示されない場合を考える。この場合、広告が表示される面が、仮想カメラパスに応じて移動する仮想視点の視界に長く映ることが望ましい。そのため、配置決定部202は、仮想カメラパスから特定される移動経路上の仮想視点に対応する仮想視点画像に、仮想オブジェクトの面のうち広告が表示される面が含まれるように、仮想オブジェクトの向きを決定してもよい。この所定数は、仮想カメラパスに含まれる仮想カメラパラメータの数などに基づいて決まる値であってもよいし、ユーザにより指定された値であってもよい。
また、本実施形態では、仮想視点の移動経路に応じて仮想オブジェクトの位置、形状及び向きが配置決定部202により決定される場合を中心に説明した。ただしこれに限らず、仮想オブジェクトの位置、大きさ、形状及び向きの少なくとも何れかが仮想視点の移動経路に応じて決定されればよい。また、仮想オブジェクトにより表示される広告の内容などが仮想視点の移動経路に応じて決定されてもよい。
[仮想オブジェクトの複数配置]
次に図10を用いて、仮想オブジェクトを複数配置する場合における、仮想オブジェクトの位置の決定方法について説明する。仮想視点6が仮想視点6aから仮想視点6fまで移動する場合の移動経路7に応じて仮想オブジェクトを2つ配置する場合、配置決定部202は、移動経路7の前半と後半のそれぞれに対応する2つの配置領域52を特定する。図10の例では、仮想視点6a、仮想視点6b及び仮想視点6cが移動経路7の前半に対応し、仮想視点6d、仮想視点6e及び仮想視点6fが移動経路7の後半に対応する。
移動経路7の前半において、図10(a)、図10(b)および図10(c)に示すように、サブ領域51のそれぞれについてカウンタの値が決まる。また移動経路7の後半において、図10(d)、図10(e)および図10(f)に示すように、サブ領域51のそれぞれについて、前半のカウンタとは独立してカウンタの値が決まる。その結果、移動経路7の前半のカウンタ値に対応する配置領域52としては図9(g)に示す配置領域52aが特定され、移動経路7の後半のカウンタ値に対応する配置領域52としては図9(h)に示す配置領域52dが特定される。配置決定部202は、特定した2つの配置領域52が重複するサブ領域51については、2つの仮想オブジェクトそれぞれのサイズが均等に近づくよう割り振る。その結果、仮想オブジェクトの実際の配置としては、図9(i)に示すように、配置領域52a’に一方の仮想オブジェクトが配置され配置領域52d’に他方の仮想オブジェクトが配置されるように決定される。このように決定された仮想オブジェクトの実際の配置に基づいて仮想視点画像が生成され、3次元空間における複数の仮想オブジェクトの配置は仮想視点の移動に伴って変化しない。
[仮想オブジェクトの配置調整]
以上の説明では、仮想視点の移動経路に基づいて仮想オブジェクトの配置が自動で決定されるものとしたが、決定された仮想オブジェクトの配置をユーザがさらに調整できるようにしてもよい。以下ではこの場合の画像処理システム10について説明する。
編集部301によりプレビューされた仮想視点画像に対して、仮想オブジェクトを調整するための操作がユーザにより行われると、編集部301は、配置決定部202に対して仮想オブジェクトの調整指示を行う。そして配置決定部202は、編集部301から仮想オブジェクトの調整指示を受け付けると、生成済みの配置情報と調整指示に基づいて、仮想オブジェクトの配置を調整して配置情報を更新する。ここで調整指示には、例えばサイズの調整や位置の調整といった調整種別を示す情報と、1.1倍の拡大や1メートルの移動といった調整量を示す情報が含まれる。更新された配置情報は画像生成部201に出力され、仮想オブジェクトの配置が調整された仮想視点画像が生成される。
次に、仮想オブジェクトの調整に係る処理フローについて説明する。仮想オブジェクトの調整を行う場合のフローは、上述した図4の処理フローを一部修正したフローになる。具体的には、図4のS7において編集部301は、ユーザの所望する仮想視点画像の生成に失敗したと判断すると、仮想オブジェクトの調整を行うか否かを選択するための画像を表示部に表示し、ユーザによる操作を受け付ける。調整のためのユーザ操作が行われたと判断された場合には、編集部301は画像処理装置2に対して、調整種別や調整量を指定するユーザ操作に応じた調整指示を行い、S5に戻る。一方、調整のためのユーザ操作が行われないと判断された場合には、S8に進み、上述した図4の処理フローを実行する。
編集部301により調整指示が行われた場合、画像処理装置2は、図11に示す処理を実行して配置情報を更新したのち、図5のS45からS47の処理を行う。これにより、調整された仮想オブジェクトを含む仮想視点画像が出力される。ここで図11及び図12を用いて、画像処理装置2による仮想オブジェクトの調整処理について説明する。図11に示す処理は、画像処理装置2が制御装置3からの調整指示を受け付けたタイミングで開始される。ただし、図11に示す処理の開始タイミングは上記タイミングに限定されない。図11に示す処理は、画像処理装置2のCPU211がROM212に格納されたプログラムをRAM213に展開して実行することで実現される。なお、図11に示す処理の少なくとも一部を、CPU211とは異なる専用のハードウェアにより実現してもよい。
S401において、配置決定部202は、編集部301から受け付けた調整指示の調整種別を特定する。S402において、配置決定部202は、特定された調整種別が仮想オブジェクトのサイズ調整であるか否かを判定する。調整種別がサイズ調整である場合(S402のYES)、配置決定部202は、S403において調整量を特定し、S404において仮想オブジェクトのサイズを調整する。サイズの調整としては、例えば、仮想オブジェクトの幅及び高さを10%増加させるような調整であってもよいし、仮想視点画像の仮想オブジェクトが占める領域の割合の最大値や最小値を指定するような調整であってもよい。
調整種別がサイズ調整でない場合(S402のNO)、S405において配置決定部202は、調整種別が仮想オブジェクトの位置調整であるか否かを判定する。調整種別が位置調整であれば(S405のYES)、配置決定部202は、S406において調整量を特定し、S407において仮想オブジェクトの位置を調整する。位置の調整としては、例えば、配置領域52を仮想視点6から1メートル遠ざけるような調整であってもよいし、仮想視点画像の仮想オブジェクトが占める領域の割合が閾値以下となるように配置領域52を仮想視点6から遠ざけるような調整であってもよい。S405において調整種別が位置調整でないと判定された場合(S405のNO)又はS407の位置調整処理が終了した場合、配置決定部202は、S408において仮想オブジェクトの配置情報を更新し、図11の処理を終了する。
ここで、例えば図12(a)のように、仮想視点6gから仮想視点6hに移動するような移動経路7が指定され、それに応じて配置領域52hおよび仮想オブジェクト形状53hが決定されたとする。図12(b)はこの場合の仮想視点6hに対応する仮想視点画像を表している。このように仮想視点6と仮想オブジェクトとの距離が遠い場合、仮想視点画像における仮想オブジェクトが占める領域の割合が小さくなってしまう。そこで、例えば仮想オブジェクトにより広告が表示される場合には、視聴者が広告を視認しやすくなるように、仮想オブジェクトのサイズを調整することが有効である。
ユーザは、仮想視点画像のプレビューを確認して、仮想視点画像の仮想オブジェクトが占める領域の割合が小さすぎると判断した場合、制御装置3が表示するGUI等を介して、仮想オブジェクトのサイズを拡大する操作を行う。図12(a)の例において、仮想オブジェクトの幅を仮想視点6から見て左側に20%増やす操作が行われた場合、配置決定部202による調整により配置領域52hが配置領域52h’のように変更される。これに伴い、仮想オブジェクト形状53hは仮想オブジェクト形状53h’のように変更される。そして、仮想視点6hに対応する調整後の仮想視点画像は図12(c)のようになり、視聴者による仮想オブジェクトの視認性が向上する。
また別の例として、図12(d)のように、仮想視点6iから仮想視点6jに移動するような移動経路7が指定され、それに応じて配置領域52jおよび仮想オブジェクト形状53jが決定されたとする。図12(e)はこの場合の仮想視点6jに対応する仮想視点画像を表している。このように仮想視点6と仮想オブジェクトとの距離が近すぎる場合、仮想視点画像における仮想オブジェクトが占める領域の割合が大きくなりすぎてしまう。そこで、仮想オブジェクトが必要以上に目立ってしまい視聴者が現実の被写体に集中できなくなる虞を低減するために、仮想オブジェクトの位置を調整することが有効である。
ユーザは、仮想視点画像のプレビューを確認して、仮想視点画像の仮想オブジェクトが占める領域の割合が大きすぎると判断した場合、制御装置3が表示するGUI等を介して、仮想オブジェクトの位置を変更する操作を行う。図12(d)の例において、仮想オブジェクトの位置を仮想視点6から見て奥に10メートル動かす操作が行われた場合、配置決定部202による調整により配置領域52jが配置領域52j’のように変更される。そして、仮想視点6jに対応する調整後の仮想視点画像は図12(f)のようになり、仮想オブジェクトが必要以上に目立つことが抑制される。
以上のように、画像処理装置2は、仮想視点の移動経路に基づいて配置された仮想オブジェクトが仮想視点画像において小さすぎたり大きすぎたりした場合に、仮想オブジェクトのサイズや位置をユーザ操作に応じて調整する。これにより画像処理装置2は、視聴者に対して適切な視認性の仮想オブジェクトを含む仮想視点画像を提供することができる。
なお本実施形態では、配置決定部202が、被写体が存在する3次元空間における固定位置を仮想オブジェクトの位置として決定する場合について説明した。また仮想オブジェクトの3次元空間における形状や向きも、仮想視点の移動に伴って変化しないものとした。このように仮想オブジェクトを固定的に配置することにより、仮想視点画像に仮想オブジェクトが自然に溶け込むため、生成される仮想視点画像のユーザにとっての見やすさを向上することができる。ただしこれに限らず、仮想オブジェクトの3次元空間上における位置や大きさ、形状、向きなどが、時間の経過や仮想視点の移動に伴って変化してもよい。また、配置決定部202は、3次元空間における仮想オブジェクトの位置や大きさ、形状、向きなどを決定せず、2次元画像である仮想視点画像における仮想オブジェクトの位置や大きさ、形状、向きなどを、仮想視点の移動経路に応じて直接制御してもよい。
また本実施形態では、仮想視点画像の動画において仮想オブジェクトができるだけ長い時間表示されるように、仮想オブジェクトの配置が決定される場合を中心に説明した。このような配置決定方法によれば、例えば仮想オブジェクトが広告である場合には、視聴者に対する広告効果を高くすることができる。ただし、仮想オブジェクトの配置決定方法はこれに限らない。例えば、配置決定部202は、仮想カメラパスに対応する移動経路上の仮想視点に対応する仮想視点画像の仮想オブジェクト非表示領域に仮想オブジェクトが含まれないように、仮想オブジェクトの配置を決定してもよい。仮想オブジェクト非表示領域は例えば、仮想視点画像の中心部などユーザが指定できる領域であってもよいし、仮想視点画像における所定の被写体が表示されるべき領域であってもよい。これにより、仮想視点画像において視聴者にとって注目すべき被写体が見づらくなってしまう虞を低減することができる。
以上説明したように、本実施形態に係る画像処理システム10は、複数のカメラによりそれぞれ異なる方向から被写体が撮影されることで得られる複数の撮影画像と、仮想視点の指定に応じた情報とに基づいて、仮想視点画像を生成する。そして、画像処理システム10に含まれる画像処理装置2は、仮想視点画像の生成に係る仮想視点の移動経路を特定するための視点情報を取得する。また画像処理装置2は、該移動経路上の第1時点の仮想視点に対応する仮想視点画像における仮想オブジェクトを表示させる領域を、第1時点の仮想視点と、該移動経路上の仮想視点であって第1時点とは異なる第2時点の仮想視点に応じて異ならせる制御を行う。
このような構成によれば、例えば、仮想視点画像に含まれるべき仮想オブジェクトが仮想視点の移動に伴って仮想視点画像に含まれなくなってしまう虞が低減するように、仮想オブジェクトの配置を制御することができる。また例えば、仮想視点画像に含まれる重要度の高い被写体が、仮想視点の移動に伴って仮想オブジェクトにより遮蔽されてしまう虞が低減するように、仮想オブジェクトの配置を制御することもできる。すなわち、本実施形態に係る画像処理装置2によれば、仮想視点画像の生成に係る仮想視点が移動する場合において、仮想視点画像のより適切な領域に仮想オブジェクトを表示させることができる。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC等)によっても実現可能である。また、そのプログラムをコンピュータにより読み取り可能な記録媒体に記録して提供してもよい。
2 画像処理装置
3 制御装置
10 画像処理システム
201 仮想視点画像生成部
202 仮想オブジェクト配置決定部
302 仮想カメラパス生成部

Claims (15)

  1. 複数の撮影装置によりそれぞれ異なる位置から撮影することで得られる複数の撮影画像に基づいて生成される仮想視点画像に対応する仮想視点の移動経路及び前記移動経路上の仮想視点からの視線方向を示す視点情報を取得する取得手段と、
    前記仮想視点画像に表示される仮想オブジェクトであって前記複数の撮影画像に含まれない仮想オブジェクトの3次元空間における位置として、前記取得手段により取得された視点情報により特定される前記移動経路上の複数の仮想視点の視界のうち所定の数よりも多い数の仮想視点の視界に含まれる位置を決定する決定手段と、
    を有することを特徴とする画像処理装置。
  2. 前記決定手段は、さらに、前記仮想オブジェクトの大きさ、形状及び向きの少なくとも何れかを、前記移動経路上の仮想視点の位置及び仮想視点からの視線方向に基づいて決定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記3次元空間における前記仮想オブジェクトの位置は、前記仮想視点の移動に伴って変化しないことを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記仮想視点画像内の前記仮想オブジェクトの表示位置は、前記3次元空間における前記仮想オブジェクトの位置と前記仮想視点の位置及び前記仮想視点からの視線方向とに応じて決まることを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
  5. 前記決定手段は、前記移動経路上の複数の仮想視点それぞれの視界のすべてに前記仮想オブジェクトが含まれるように、前記3次元空間における前記仮想オブジェクトの位置を決定することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
  6. 前記決定手段は、前記仮想オブジェクトの位置に関する複数の候補位置のうち、前記移動経路上の所定の数よりも多い数の仮想視点の視界に含まれる候補位置を、前記仮想オブジェクトの位置として決定することを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。
  7. 前記決定手段は、前記複数の候補位置のうち、前記移動経路上の最も多くの仮想視点の視界に含まれる候補位置を、前記仮想オブジェクトの位置として決定することを特徴とする請求項6に記載の画像処理装置。
  8. 前記仮想オブジェクトは、前記仮想視点画像に広告を表示させるためのオブジェクトであることを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。
  9. 前記決定手段は、前記移動経路上の複数の仮想視点に対応する複数の仮想視点画像に、前記仮想オブジェクトの面であって広告が含まれる面が表示されるように、前記3次元空間における前記仮想オブジェクトの向きを決定することを特徴とする請求項8に記載の画像処理装置。
  10. 前記複数の撮影画像と、前記取得手段により取得された視点情報と、前記決定手段により決定された前記仮想オブジェクトの位置とに基づいて、前記仮想オブジェクトを含む前記仮想視点画像を生成する生成手段を有することを特徴とする請求項1乃至9の何れか1項に記載の画像処理装置。
  11. 前記決定手段により決定された前記仮想オブジェクトの位置を示す情報を、前記仮想視点画像を生成する画像生成装置へ出力する出力手段を有することを特徴とする請求項1乃至9の何れか1項に記載の画像処理装置。
  12. 複数の撮影装置によりそれぞれ異なる位置から撮影することで得られる複数の撮影画像に基づいて生成される仮想視点画像に対応する仮想視点の移動経路及び前記移動経路上の仮想視点からの視線方向を示す視点情報を取得する取得工程と、
    前記仮想視点画像に表示される仮想オブジェクトであって前記複数の撮影画像に含まれない仮想オブジェクトの3次元空間における位置として、前記取得工程において取得された視点情報により特定される前記移動経路上の複数の仮想視点の視界のうち所定の数よりも多い数の仮想視点の視界に含まれる位置を決定する決定工程と、を有することを特徴とする情報処理方法。
  13. 前記3次元空間における前記仮想オブジェクトの位置は、前記仮想視点の移動に伴って変化しないことを特徴とする請求項12に記載の情報処理方法。
  14. 前記決定工程は、前記仮想オブジェクトの位置に関する複数の候補位置のうち、前記移動経路上の所定の数よりも多い数の仮想視点の視界に含まれる候補領域を、前記仮想オブジェクトの位置として決定することを特徴とする請求項12又は13に記載の情報処理方法。
  15. コンピュータを、請求項1乃至11の何れか1項に記載の画像処理装置として機能させるためのプログラム。
JP2017035930A 2017-02-28 2017-02-28 画像処理装置、情報処理方法及びプログラム Active JP7086522B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2017035930A JP7086522B2 (ja) 2017-02-28 2017-02-28 画像処理装置、情報処理方法及びプログラム
US15/902,790 US10705678B2 (en) 2017-02-28 2018-02-22 Image processing apparatus, image processing method, and storage medium for generating a virtual viewpoint image
KR1020180023411A KR102271527B1 (ko) 2017-02-28 2018-02-27 화상처리장치, 화상처리방법 및 기억매체
EP18158852.6A EP3367666B1 (en) 2017-02-28 2018-02-27 Image processing apparatus, image processing method, and program for inserting a virtual object in a virtual viewpoint image
CN201810165870.2A CN108510595B (zh) 2017-02-28 2018-02-28 图像处理装置、图像处理方法和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017035930A JP7086522B2 (ja) 2017-02-28 2017-02-28 画像処理装置、情報処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2018142164A JP2018142164A (ja) 2018-09-13
JP2018142164A5 JP2018142164A5 (ja) 2020-03-26
JP7086522B2 true JP7086522B2 (ja) 2022-06-20

Family

ID=61616748

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017035930A Active JP7086522B2 (ja) 2017-02-28 2017-02-28 画像処理装置、情報処理方法及びプログラム

Country Status (5)

Country Link
US (1) US10705678B2 (ja)
EP (1) EP3367666B1 (ja)
JP (1) JP7086522B2 (ja)
KR (1) KR102271527B1 (ja)
CN (1) CN108510595B (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11025921B1 (en) 2016-09-22 2021-06-01 Apple Inc. Providing a virtual view by streaming serialized data
EP3336805A1 (en) 2016-12-15 2018-06-20 Thomson Licensing Method and device for a placement of a virtual object of an augmented or mixed reality application in a real-world 3d environment
CN112292852A (zh) * 2018-09-28 2021-01-29 英特尔公司 相机路径的自动生成
US11204677B2 (en) * 2018-10-22 2021-12-21 Acclarent, Inc. Method for real time update of fly-through camera placement
JP7237538B2 (ja) * 2018-11-14 2023-03-13 キヤノン株式会社 情報処理装置、それを含むシステム、情報処理方法、およびプログラム
JP2020101845A (ja) * 2018-12-19 2020-07-02 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、およびプログラム
US10740960B2 (en) * 2019-01-11 2020-08-11 Microsoft Technology Licensing, Llc Virtual object placement for augmented reality
JP2022051972A (ja) * 2019-02-06 2022-04-04 ソニーグループ株式会社 情報処理装置および方法、並びにプログラム
US11057609B2 (en) * 2019-02-27 2021-07-06 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and computer readable storage medium for determining a moving path of virtual viewpoint
JP7403956B2 (ja) * 2019-02-27 2023-12-25 キヤノン株式会社 情報処理装置、制御方法、及びプログラム
JP7418101B2 (ja) * 2019-07-26 2024-01-19 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
US20220253198A1 (en) * 2019-07-30 2022-08-11 Sony Corporation Image processing device, image processing method, and recording medium
WO2021070650A1 (ja) * 2019-10-10 2021-04-15 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
JP7423251B2 (ja) * 2019-10-25 2024-01-29 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP7427468B2 (ja) * 2020-02-18 2024-02-05 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP2022090786A (ja) * 2020-12-08 2022-06-20 キヤノン株式会社 情報処理装置、画像生成装置、画像処理システム、情報処理方法、画像生成方法及びプログラム
EP4300428A1 (en) 2021-02-26 2024-01-03 FUJIFILM Corporation Image processing device, image processing method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010033367A (ja) 2008-07-29 2010-02-12 Canon Inc 情報処理装置及び情報処理方法
JP2011151446A (ja) 2010-01-19 2011-08-04 Fujitsu Ten Ltd 画像処理装置、画像処理システム、および、画像処理方法
JP2011151773A (ja) 2009-12-21 2011-08-04 Canon Inc 映像処理装置及び制御方法
JP2012048639A (ja) 2010-08-30 2012-03-08 Kddi Corp 自由視点映像生成装置、自由視点映像システムにおいて広告を表示する方法及びプログラム
JP2016123069A (ja) 2014-12-25 2016-07-07 パナソニックIpマネジメント株式会社 映像配信方法、映像受信方法、サーバ及び端末装置

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2400513B (en) * 2003-03-14 2005-10-05 British Broadcasting Corp Video processing
US7116342B2 (en) 2003-07-03 2006-10-03 Sportsmedia Technology Corporation System and method for inserting content into an image sequence
JP4039676B2 (ja) * 2004-03-31 2008-01-30 株式会社コナミデジタルエンタテインメント 画像処理装置、画像処理方法及びプログラム
JP5013773B2 (ja) * 2006-08-18 2012-08-29 パナソニック株式会社 車載画像処理装置及びその視点変換情報生成方法
WO2008083500A1 (en) * 2007-01-11 2008-07-17 360 Replays Ltd. Method and system for generating a replay video
US8451380B2 (en) 2007-03-22 2013-05-28 Sony Computer Entertainment America Llc Scheme for determining the locations and timing of advertisements and other insertions in media
US8416247B2 (en) 2007-10-09 2013-04-09 Sony Computer Entertaiment America Inc. Increasing the number of advertising impressions in an interactive environment
GB0809631D0 (en) 2008-05-28 2008-07-02 Mirriad Ltd Zonesense
US8786596B2 (en) * 2008-07-23 2014-07-22 Disney Enterprises, Inc. View point representation for 3-D scenes
GB2462095A (en) 2008-07-23 2010-01-27 Snell & Wilcox Ltd Processing of images to represent a transition in viewpoint
WO2011052064A1 (ja) * 2009-10-30 2011-05-05 キヤノン株式会社 情報処理装置および方法
US8885023B2 (en) * 2010-09-01 2014-11-11 Disney Enterprises, Inc. System and method for virtual camera control using motion control systems for augmented three dimensional reality
US20120180084A1 (en) 2011-01-12 2012-07-12 Futurewei Technologies, Inc. Method and Apparatus for Video Insertion
JP5672109B2 (ja) * 2011-03-29 2015-02-18 カシオ計算機株式会社 撮像装置及び撮像方法、並びにプログラム
US9846960B2 (en) * 2012-05-31 2017-12-19 Microsoft Technology Licensing, Llc Automated camera array calibration
US8826325B2 (en) 2012-12-08 2014-09-02 Joao Redol Automated unobtrusive ancilliary information insertion into a video
US10140765B2 (en) * 2013-02-25 2018-11-27 Google Llc Staged camera traversal for three dimensional environment
US20140278847A1 (en) * 2013-03-14 2014-09-18 Fabio Gallo Systems and methods for virtualized advertising
JP6319952B2 (ja) * 2013-05-31 2018-05-09 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
WO2015047246A1 (en) 2013-09-25 2015-04-02 Intel Corporation Dynamic product placement in media content
US10332159B2 (en) * 2014-01-21 2019-06-25 Eleven Street Co., Ltd. Apparatus and method for providing virtual advertisement
JP6548900B2 (ja) * 2015-01-20 2019-07-24 株式会社デンソーテン 画像生成装置、画像生成方法及びプログラム
KR101975553B1 (ko) * 2015-01-30 2019-05-07 전자부품연구원 로봇의 관측 시점 제어 장치
US10725631B2 (en) * 2015-04-30 2020-07-28 Pixia Corp. Systems and methods of selecting a view from a plurality of cameras
ES2596534B1 (es) * 2015-07-06 2017-04-21 Market Sp'94, S.L. Procedimiento para inclusión de motivos publicitarios mediante un procesador de imágenes
US9858683B2 (en) 2015-08-05 2018-01-02 Intel Corporation Method and system of planar surface detection objects in 3d space generated from captured images for image processing

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010033367A (ja) 2008-07-29 2010-02-12 Canon Inc 情報処理装置及び情報処理方法
JP2011151773A (ja) 2009-12-21 2011-08-04 Canon Inc 映像処理装置及び制御方法
JP2011151446A (ja) 2010-01-19 2011-08-04 Fujitsu Ten Ltd 画像処理装置、画像処理システム、および、画像処理方法
JP2012048639A (ja) 2010-08-30 2012-03-08 Kddi Corp 自由視点映像生成装置、自由視点映像システムにおいて広告を表示する方法及びプログラム
JP2016123069A (ja) 2014-12-25 2016-07-07 パナソニックIpマネジメント株式会社 映像配信方法、映像受信方法、サーバ及び端末装置

Also Published As

Publication number Publication date
EP3367666B1 (en) 2023-04-05
KR20180099534A (ko) 2018-09-05
CN108510595A (zh) 2018-09-07
KR102271527B1 (ko) 2021-07-01
US10705678B2 (en) 2020-07-07
JP2018142164A (ja) 2018-09-13
EP3367666A1 (en) 2018-08-29
US20180246631A1 (en) 2018-08-30
CN108510595B (zh) 2023-11-28

Similar Documents

Publication Publication Date Title
JP7086522B2 (ja) 画像処理装置、情報処理方法及びプログラム
US9747870B2 (en) Method, apparatus, and computer-readable medium for superimposing a graphic on a first image generated from cut-out of a second image
KR100812905B1 (ko) 입체 화상 처리 방법, 장치 및 컴퓨터 판독가능 기록 매체
KR102364052B1 (ko) 화상 처리 시스템, 화상 처리 방법 및 기억 매체
JP5861499B2 (ja) 動画提示装置
US9747714B2 (en) Method, device and computer software
JP3857988B2 (ja) 立体画像処理方法および装置
JP2013504938A (ja) 3dビデオへの仮想インサート
WO2022002181A1 (zh) 自由视点视频重建方法及播放处理方法、设备及存储介质
JP2003284093A (ja) 立体画像処理方法および装置
US20230209031A1 (en) Methods, systems, and media for generating and rendering immersive video content
JP4118146B2 (ja) 立体画像処理装置
JP2003284095A (ja) 立体画像処理方法および装置
JP4189339B2 (ja) 3次元モデル生成方法と生成装置およびプログラムと記録媒体
WO2022176720A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6887824B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP3702243B2 (ja) 立体画像処理方法および装置
US11287658B2 (en) Picture processing device, picture distribution system, and picture processing method
JP6672417B2 (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
US6633291B1 (en) Method and apparatus for displaying an image
JP2019145894A (ja) 画像処理装置、画像処理方法及びプログラム
EP4333420A1 (en) Information processing device, information processing method, and program
JP2023003765A (ja) 画像生成装置およびその制御方法、画像生成システム、ならびにプログラム
JP2024017779A (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
JP2022060815A (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220608

R151 Written notification of patent or utility model registration

Ref document number: 7086522

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151