JP2019152980A - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP2019152980A
JP2019152980A JP2018036651A JP2018036651A JP2019152980A JP 2019152980 A JP2019152980 A JP 2019152980A JP 2018036651 A JP2018036651 A JP 2018036651A JP 2018036651 A JP2018036651 A JP 2018036651A JP 2019152980 A JP2019152980 A JP 2019152980A
Authority
JP
Japan
Prior art keywords
video
sickness
virtual camera
virtual
virtual viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018036651A
Other languages
English (en)
Inventor
飯田 祥子
Sachiko Iida
祥子 飯田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018036651A priority Critical patent/JP2019152980A/ja
Priority to US16/285,682 priority patent/US11141557B2/en
Publication of JP2019152980A publication Critical patent/JP2019152980A/ja
Priority to US17/470,452 priority patent/US11839721B2/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M21/02Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis for inducing sleep or relaxation, e.g. by direct nerve stimulation, hypnosis, analgesia
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0044Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense
    • A61M2021/005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense images, e.g. video
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/50General characteristics of the apparatus with microprocessors or computers
    • A61M2205/502User interfaces, e.g. screens or keyboards
    • A61M2205/507Head Mounted Displays [HMD]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Abstract

【課題】仮想視点映像における映像酔いを高精度に評価すること。【解決手段】画像処理装置は、仮想視点映像を取得する第一の取得手段と、前記仮想視点映像の生成に用いられた仮想カメラパラメータを取得する第二の取得手段と、前記仮想視点映像におけるオブジェクトまたは背景の動きと、前記仮想カメラパラメータとに基づいて前記仮想視点映像の映像酔いを評価する評価手段と、を備える。【選択図】図3

Description

本発明は、仮想視点映像の映像酔いを評価する技術に関する。
複数台のカメラで撮像した映像を用いて、3次元空間内に仮想的に配置した、実際には存在しないカメラ(以下、仮想カメラという)からの映像を再現する技術として、仮想視点映像技術がある。仮想視点映像の生成に際して、ユーザは、仮想カメラ経路(時間軸に沿った仮想カメラの位置移動)の設定を任意に行うことが可能である。仮想カメラ経路の設定によっては映像酔いが生じることがある。
特許文献1には、映像の画面動揺に対する不快度を推定することで映像酔いを評価する技術が知られている。特許文献1に記載の技術は、画面を複数に分割した領域ごとに動きベクトルを検出することで画面動揺を算出し、画面動揺に対する不快度を推定するものである。
特開2013−21455号公報
しかしながら、特許文献1に記載の技術は、映像中のオブジェクト(前景)と背景を分離しないため、画面動揺が、オブジェクトの動きによるものか、背景の動きによるものかを判定することができない。この結果、映像酔い評価の精度が低下してしまう。
本発明は、仮想視点映像における映像酔いを高精度に評価することを目的とする。
本発明の一態様に係る画像処理装置は、仮想視点映像を取得する第一の取得手段と、前記仮想視点映像の生成に用いられた仮想カメラパラメータを取得する第二の取得手段と、前記仮想視点映像におけるオブジェクトまたは背景の動きと、前記仮想カメラパラメータとに基づいて前記仮想視点映像の映像酔いを評価する評価手段と、を備えることを特徴とする。
本発明によれば、仮想視点映像における映像酔いを高精度に評価することができる。
画像処理装置の構成の一例を示す図である。 カメラ配置の一例を示す図である。 画像処理装置の論理構成の一例を示す図である。 画像処理装置の処理の流れを示すフローチャートである。 画像処理装置の処理の流れを示すフローチャートである。 画像処理装置の処理の流れを示すフローチャートである。 オブジェクトと仮想カメラ経路との関係を示す図である。 映像酔いを評価する評価条件を示す図である。 画像処理装置のGUI画面の一例を示す図である。 画像処理装置の論理構成の一例を示す図である。 画像処理装置の処理の流れを示すフローチャートである。 仮想カメラ座標を示すUI画面の一例を示す図である。 仮想カメラ座標の変更領域に制限を設定する例を示す図である。 補正可能範囲を示すUI画面の一例を示す図である。
以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。
<<実施形態1>>
<画像処理装置の構成>
図1は、本実施形態における画像処理装置の構成の一例を示す図である。図1に示す画像処理装置100は、CPU101、メインメモリ102、記憶部103、表示部104、および外部I/F105を備え、各部がバス108を介して接続されている。CPU101は、画像処理装置100を統括的に制御する演算処理装置であり、記憶部103等に格納された各種プログラムを実行して様々な処理を行う。メインメモリ102は、各種処理で用いられるデータおよびパラメータなどを一時的に格納するほか、CPU101に作業領域を提供する。記憶部103は、各種プログラムおよびGUI(グラフィカル・ユーザ・インターフェイス)表示に必要な各種データを記憶する大容量記憶装置である。記憶部103としては、例えばハードディスクまたはシリコンディスク等の不揮発性メモリが用いられる。表示部104は、液晶パネルなどで構成され、仮想視点映像生成時の仮想カメラの経路設定のためのGUI表示などを行う。
外部I/F部105は、キーボードやマウス、電子ペン、タッチパネル等の入力部106、および、カメラなどの撮像部107をバス108に接続し、映像データおよび制御信号データの送受信を行う。
なお、図1に示す画像処理装置100は一例に過ぎず、これに限られるものではない。例えば、表示部104および撮像部107が、画像処理装置100に備えられていなくてもよい。例えば画像処理装置100は、表示制御部(不図示)を備え、表示部104に相当する表示装置(不図示)の表示制御を行う形態でもよい。また、画像処理装置100は、撮像部107に相当する撮像装置(不図示)との間で映像データおよび制御信号データの送受信を行う形態でもよい。
図2は、本実施形態における撮像部107の一例を示す図である。図2は、サッカー等を行う競技場に8台の撮像部107を配置した例を示している。カメラ視点A〜Hが、円の中心に位置する注視点に対して向いている。撮像部107は、隣接する撮像部のカメラ視点が成す角が均等になるように配置されている。
図3は、画像処理装置100の論理構成の一例を示す図である。画像処理装置100は、仮想視点映像生成部300と、仮想カメラパラメータ格納部310と、仮想視点映像格納部320と、映像酔い評価部330と、警告映像設定部340とを備える。
仮想視点映像生成部300は、撮像部107で撮像された複数視点に対応する映像(フレーム画像)を用いて、ユーザから指定された仮想カメラ経路に従った仮想視点映像データを生成する。生成された仮想視点映像データは、仮想視点映像格納部320に格納される。また、仮想視点映像データの生成に用いられた仮想カメラ経路を示す仮想カメラパラメータが、仮想カメラパラメータ格納部310に格納される。以下では、説明の簡略化のため、生成されたり格納されたりする仮想視点映像データのことを、単に仮想視点映像という。
映像酔い評価部330は、仮想視点映像格納部320に格納されている仮想視点映像と、仮想カメラパラメータ格納部310に格納されている、その仮想視点映像の生成に用いられた仮想カメラ経路とを用いて仮想視点映像の映像酔いを評価する。映像酔い評価部330は、仮想カメラ経路と仮想視点映像とに基づいて、映像シーンを特定する。そして、特定した映像シーンに対応する評価条件を用いて映像酔いを評価する。
似たような映像であっても映像酔いが生じやすい映像と映像酔いが生じにくい映像とがある。仮想視点映像の場合、オブジェクトと仮想カメラの動きとの関係に応じて、酔いやすい映像になるかが変わることがある。例えば、オブジェクトを固定して仮想カメラが周回するシーンと、オブジェクトを追従してカメラが並行移動するシーンとでは、仮想視点映像として生成される映像は似ている。しかしながら、前者は映像酔いが生じやすいのに対して後者は映像酔いが生じにくい。映像酔い評価部330は、映像シーンを特定し、その特定した映像シーンに対応した評価条件を用いて映像酔い評価を行うことで、高精度に映像酔い評価を行うことができる。即ち、映像酔いが生じやすいシーンでは、酔いやすい映像であるとの評価をされやすい評価条件を用いた処理を行う。映像酔いが生じにくいシーンでは、酔いにくい映像であるとの評価をされやすい評価条件を用いた処理を行う。詳細は後述する。
警告映像設定部340は、映像酔い評価部330における映像酔い評価の結果に応じて、表示部104に表示する警告映像を設定する。設定された警告映像は、表示部104において表示される。
仮想視点映像生成部300は、入力映像格納部301、前景背景分離処理部302、マスクデータ格納部303、オブジェクト形状推定部304、および仮想視点映像生成処理部305を有する。映像酔い評価部330は、前景背景解析部331、映像解析部332、映像評価部333、観察条件格納部334、および映像評価条件格納部335を有する。
図3の論理構成のうち、各種のデータや映像を格納する格納部は、例えばメインメモリ102または記憶部103に実装される。その他の論理構成は、CPU101が、記憶部103などに格納されているプログラムを実行することによって図3の各部として機能する。なお、図3の例において、例えば画像処理装置100を、映像酔い評価部330を実現する装置として構成し、他の構成については別個の装置で実現してもよい。即ち、図3に示す論理構成は、処理が分散するように複数の画像処理装置によって実現される構成でもよい。
<仮想視点映像生成処理>
図4は、仮想視点映像生成部300において仮想視点映像が生成される処理のフローチャートの一例を示す図である。図4に示す処理は、CPU101が、所定のプログラムを記憶部103から読み込んでメインメモリ102に展開し、これをCPU101が実行することで実現される。あるいはまた、図4におけるステップの一部または全部の機能をASICや電子回路等のハードウェアで実現してもよい。なお、各処理の説明における記号「S」は、当該フローチャートにおけるステップであることを意味する(本明細書において同様である)。
S401において、図2の複数視点(カメラ視点A〜H)に対応する撮像部107は、各視点で同期をとりながら撮像を行い、各カメラ視点の映像データ(各フレーム画像データ)を入力映像格納部301に格納する。
S402において前景背景分離処理部302は、各カメラ視点の各フレーム画像において、オブジェクトとなる画素領域を前景として抽出し、それ以外の画素領域を背景として抽出することで、前景と背景とを分離する処理を実行する。さらに、前景として抽出された画素領域によって構成されるマスクデータを生成する。マスクデータにおいては、背景がマスクされ、前景が抽出されている画像となる。
前景と背景とを分離する技術には、フレーム画像間を比較し、各画素の変位量に基づいて前景であるオブジェクトを抽出する処理などの既存技術があるが、本ステップでは画像から前景と背景とを分離する処理であればいずれの方法を採用してもよい。
S403において前景背景分離処理部302は、S402で生成したマスクデータをマスクデータ格納部303に格納する。
S404においてオブジェクト形状推定部304は、各カメラ視点のフレーム画像、各撮像部107の位置姿勢等を示すパラメータ、およびマスクデータを用いて、オブジェクトの3次元形状の推定処理を実行する。推定手法としては、オブジェクトの輪郭情報を用いるVisual−hullや、三角測量を用いたMulti−view stereoなどの公知の方法を適用すればよい。また、オブジェクト形状推定部304においては、仮想視点映像を生成するための仮想空間内におけるオブジェクトの座標位置も推定される。
S405において仮想視点映像生成部300は、仮想視点映像における仮想カメラパラメータを設定し、仮想カメラパラメータ格納部310に格納する。仮想カメラパラメータには、仮想視点映像を生成するための仮想空間内における、時間軸に沿った映像フレーム(フレーム画像)毎のカメラ座標値、カメラの向き、および焦点距離などが含まれる。即ち、仮想カメラパラメータによって、仮想カメラの速度、加速、減速、方向、位置、向きの変化のうち少なくとも一つが特定可能である。仮想カメラパラメータは、例えば入力部106を通じてユーザによって入力される。
S406において仮想視点映像生成処理部305は、設定された仮想カメラパラメータに従って仮想視点映像を生成する。仮想視点映像は、推定されたオブジェクト形状およびその位置に対して、設定された仮想カメラから見た映像を、コンピュータグラフィックスの技術を用いることで生成される。
S407において仮想視点映像生成処理部305は、生成した仮想視点映像を仮想視点映像格納部320に格納する。このようにして、仮想視点映像生成部300による仮想視点映像の生成が行われる。なお、仮想視点映像の生成処理は、映像酔い評価を行う画像処理装置100とは別個の装置で実施されてもよい。以上が、仮想視点映像が生成されるまでの大まかな流れである。
<映像酔い評価の全体処理>
図5は、映像酔い評価部330で行われる映像酔い評価処理のフローチャートの一例を示す図である。図5は、映像酔い評価部330が、取得した仮想視点映像の映像酔いを評価し、映像酔いが発生する可能性の高いフレーム範囲を警告表示するまでの全体の流れを示すフローチャートである。
S501において映像酔い評価部330は、仮想視点映像格納部320に格納されている仮想視点映像を取得する。例えば、仮想視点映像格納部320には、複数の仮想視点映像が格納可能である。映像酔い評価部330は、仮想視点映像格納部320に格納されている仮想視点映像の中から、評価対象映像として格納されている仮想視点映像を取得する。
S502において映像酔い評価部330は、仮想カメラパラメータ格納部310に格納されている、評価対象の仮想視点映像に用いられた仮想カメラパラメータを取得する。
S503において映像酔い評価部330は、S501で取得した仮想視点映像において評価対象とするフレーム画像(以下、評価対象フレームともいう)を設定する。例えばユーザからの指定に基づいて評価対象フレームを設定してもよいし、予め設定された時間単位で評価対象フレームを設定してもよい。所定の場面ごとに評価対象フレームが設定されてもよい。
S504において映像酔い評価部330は、S503で設定された評価対象フレームにおける映像酔い評価条件を参照する。そして映像酔い評価条件に基づいて映像酔いが発生する可能性を判定する。詳細については後述する。
S505において警告映像設定部340は、S502で設定された評価対象フレームが、映像酔いを発生する可能性の高いフレーム画像であると映像酔い評価部330によって判定された場合、評価対象フレームに対して警告フラグを設定する。
S506において警告映像設定部340は、映像酔いが発生する可能性が高いと判定されたフレーム画像内において、映像酔いを発生する要因となる画像領域を抽出し、警告表示領域として設定する。
S507において映像酔い評価部330は、評価対象の仮想視点映像の全フレーム画像に対して評価が実施されたかを判定する。評価が未実施のフレーム画像があれば、S509において評価対象フレームを更新し、S504以降の処理を繰り返す。
全フレーム画像の評価が完了した場合、S508において映像酔い評価部330は、表示部104に仮想視点映像の映像酔い評価結果を表示し、本フローチャートの処理を終了する。なお、S508において、映像酔いが発生すると評価されたフレームに警告を表示することにしたが、すべてのフレームに関して映像酔い評価結果を数値または他の情報として表示してもよい。また、映像酔いが発生しないと評価されたフレームに対してその評価結果を示す情報を表示するようにしてもよい。
なお、図5に示す処理は、画像処理装置100内の仮想視点映像生成部300で生成された仮想視点映像についての映像酔い評価を行う例を示しているが、これに限られない。他の装置で生成されている仮想視点映像を受信してその映像酔いを評価してもよいし、不図示の記憶媒体に記憶されている仮想視点映像を読み出してその映像酔いを評価してもよい。
<映像酔い評価の詳細>
図6は、図5のS504に示す映像酔い評価処理の詳細を示すフローチャートである。以下、図3の構成図と図6のフローチャートとを用いて映像酔い評価の詳細を説明する。
S601において前景背景解析部331は、評価対象フレーム(仮想視点映像)における前景および背景の画像領域の解析処理を行い、評価対象フレームを前景および背景に分離する。例えば、前景背景解析部331は、前後のフレーム画像の画素の差分に基づいて前景と背景とを分離してもよい。あるいは、マスクデータ格納部303に格納されている前景のマスクデータを用いて、仮想視点映像生成部300で行われた処理と同等の処理で前景のマスクデータの仮想視点映像を生成し、そのマスクデータを用いて前景および背景の画像領域に分離してもよい。あるいは、仮想視点映像生成部300で仮想視点映像を生成した際に、前景領域をマスクデータに変換して格納しておき、その格納されているマスクデータを用いて前景および背景の画像領域に分離してもよい。
前景背景解析部331は、このように分離した前景および背景の画像領域のフレーム間の変位量を検出する。例えば、一般的に知られている動きベクトルの検出処理によって前景および背景の各画像領域のフレーム間の変位量を検出する。この変位量は、映像サイズ(ピクセル)における動き量(ピクセル換算した動き量)である。また、前景背景解析部331は、分離した前景のフレーム画像中の位置情報も取得する。
なお、S601の処理は、映像酔い評価部330が評価対象の仮想視点映像を取得した時点で、全評価対象フレームに対して実行されてもよい。この場合、S601の処理は、解析され格納されているデータを取得する処理に変えてもよい。すなわち、評価対象フレームごとに、前景と背景とを分離する処理を、都度行わなくてもよく、評価対象の仮想視点映像に対してまとめて分離処理が行われてもよい。また、分離処理のみを先に実施し、S601は、単に前景および背景の画像領域のフレーム間の変位量を検出する処理としてもよい。
S602において映像解析部332は、仮想カメラパラメータの解析処理を行う。映像解析部332は、仮想視点映像の評価対象フレーム画像に用いられた仮想カメラパラメータを取得し、仮想カメラの座標変化量やカメラ向きの変化量を取得する。
S603において映像解析部332は、観察条件格納部334に格納されている観察条件を取得する。観察条件は、仮想視点映像がユーザによって観察される際の条件である。観察条件は、ユーザにより設定される。観察条件には、少なくとも表示条件と環境条件とが含まれる。表示条件は、例えば仮想視点映像の表示サイズである。環境条件は、例えば仮想視点映像を観察するユーザと表示される映像との距離に関する情報である。その他の観察条件として、表示デバイスの種類、輝度、ダイナミックレンジ、観察環境における周辺環境の条件(照明など)が含まれもよい。また、観察条件には、仮想視点映像を観察するユーザの年齢、性別、および、酔いやすい体質であるかといったユーザ特性に関するプロフィール情報などが含まれていてもよい。映像酔いは、実際にユーザが仮想視点映像を観察する観察環境に依存する場合がある。一例として、同一の映像を、劇場などの大画面で観察した場合と、タブレット端末や家庭用のテレビなどで観察した場合とにおいては、前者では酔いが発生しやすいのに対し、後者では酔いが発生しにくい場合がある。このため、映像酔いの評価においては、観察条件を考慮した評価が行われることになる。
S604において映像解析部332は、評価対象フレームの映像シーンを解析する。映像解析部332は、評価対象フレームにおいて主オブジェクトとなる前景を決定する。そして、その主オブジェクトとなる前景と仮想カメラ経路との変化量を取得する。
S605において映像解析部332は、S603で取得した観察条件を用いて、視聴者が観察する前景および背景の見た目の映像の動き量を決定する。例えば、S601の解析処理で得られた前景および背景の変位量と、ユーザが仮想視点映像を観察する際の映像表示サイズと、ユーザと表示映像との距離と、を参照して、見た目の映像の動き量を決定する。動き量としては、動きベクトルとして、視聴者からみた動き方向ベクトルと角速度とが決定される。なお、背景領域を分割し、分割した各領域における見た目の動き量を決定してもよい。角速度以外の速度値を用いてもよい。
S606において映像評価部333は、映像評価条件格納部335に格納されている映像酔い評価条件から、S604における解析結果およびS605で取得した見た目の動き量に合致する映像酔い評価条件を取得する。このように、本実施形態では、映像シーンに応じて映像酔いを評価するための評価条件(評価パラメータ)を異ならせる。以下、具体例を用いて説明する。
図7は、映像シーンを説明する図である。図7(a)〜(d)を用いて、仮想視点映像における前景である主オブジェクトと仮想カメラ経路との関係を説明する。図7(a)は、仮想視点映像の任意のフレーム画像700における動きベクトルを模式的に示す図である。図7(a)の映像シーンでは、オブジェクト701が、仮想視点映像の画面上中央に静止して見えている。一方、背景は、右から左に移動して見えている。
図7(b)〜(d)は、仮想視点映像における仮想空間内のオブジェクト701の位置変化と、仮想カメラ703の位置及び仮想カメラの向きの変化との関係を示す図である。
図7(b)は、移動するオブジェクト701に対して、仮想カメラ703が、向きを変えずに任意の一定範囲内の距離を保って追従する仮想カメラ経路である。
図7(c)は、移動するオブジェクト701に対して、仮想カメラ703の位置は大きく変化せず、仮想カメラの向きを変化させてオブジェクトの動きに追従する仮想カメラ経路である。
図7(d)は、ほとんど位置の変化のないオブジェクト701の周囲を、仮想カメラ703が任意の一定範囲内の距離を保って回転する仮想カメラ経路である。
図7(b)〜(d)のオブジェクト701と仮想カメラ経路との関係は、それぞれ異なる。しかしながら、各カメラ経路により生成される仮想視点映像は、いずれも図7(a)に示されるオブジェクトおよび背景の動きと同様の動きになる。換言すれば、フレーム画像700の見た目の動きがほぼ同等となる映像シーンであっても、オブジェクトおよび背景の動きと、仮想カメラ経路とが、それぞれ異なる場合がある。そして、映像の見た目の動きから、映像を観察する視聴者が受ける映像酔いの強度(映像酔いやすさ)も異なる。具体的には、図7(a)に示される仮想視点映像における映像の見た目の動きから、映像を観察する視聴者が受ける映像酔いの強度は、図7(d)がもっとも強く酔いやすい。そして、図7(c)、図7(b)の順に映像酔いの強度が下がり、酔いにくい映像となる。
このように、オブジェクトや背景の動き量が同じであっても、オブジェクトと仮想カメラ経路との関係によって、その動き量に対する映像酔い強度が異なる。そこで、映像酔いを発生するかを評価する際の評価条件を、映像シーンに応じて変更することが好ましい。即ち、オブジェクトおよび背景の動きと、仮想カメラ経路とに応じて映像酔いを評価する際の評価条件を変更することが好ましい。オブジェクトおよび背景の動きとは、オブジェクトおよび背景の速度、加速、減速、方向、位置の変化のうち少なくとも一つを含むものとすることができる。
本実施形態では、評価対象フレームの映像シーンに基づいて評価条件を決定する。即ち、評価対象フレームのオブジェクトおよび背景の動きと、仮想カメラ経路とに応じて映像酔いを評価する評価条件を決定する。そして、決定された評価条件に基づいて映像酔いの評価が行われる。
図8は、映像酔いを評価する評価条件を説明する図である。図8では、主オブジェクトとなる前景の変位量と仮想カメラ軌跡の動きの種類とに応じて映像酔いの強度を異ならせた評価条件が規定されている。評価条件800は、映像評価条件格納部335に予め格納されている。
映像解析部332は、映像シーンを解析して、評価対象フレーム内に存在する複数の前景の中から、主オブジェクトとなる前景を、条件803を参照して決定する。本実施形態では、仮想カメラ視点を中心として所定の角度範囲内にある前景を主オブジェクトとして決定するための条件が設定されている。
条件804〜条件806には、仮想カメラ位置の変化と、仮想カメラの向きと、観察条件下における背景の見た目の動き方向との組み合わせによる評価条件が設定されている。なお、背景の動き量方向は、観察条件によっては(例えば横向きで見るなど)方向が変わることがあり得るので、S603で取得された観察条件を考慮している。条件801には、仮想視点映像内における主オブジェクトの見た目の動き量に対する条件が格納されている。以上の条件の組み合わせによって、映像シーンに応じた評価条件が決定される。
ここで、図8の評価条件は、図7に示す仮想視点映像の映像シーンに対応する評価条件を含んでいる。即ち、ユーザから見る仮想視点映像において、画面内の主オブジェクトの位置の変化が小さく、かつ、背景の変化が大きい(背景が動く)シーンの評価条件を含んでいる。条件801では、主オブジェクトの位置の変化が所定の閾値より小さい条件を含んでいる。条件802では、背景の変化が所定の閾値より大きい条件を含んでいる。この場合において、映像酔いの評価は、条件802で示す背景の見た目の動き量によって行われる。即ち、図8に示される評価条件を用いる場合、条件801、条件804〜条件806によって映像シーンが決定される。そして、その映像シーンに対応する評価条件が、条件802を参照して決定される。
なお、ここでは前景の動き量と、仮想カメラ位置の変化および仮想カメラ向きの組み合わせと、に基づいて、映像シーンを決定し、その映像シーンに対応する背景の動き量を評価条件として用いる例を示したが、これに限られない。背景の動き量と、仮想カメラ位置の変化および仮想カメラ向きの組み合わせと、に基づいて、映像シーンを決定し、その映像シーンに対応する前景の動き量を評価条件として用いてもよい。あるいは、前景および背景の動き量と、仮想カメラ位置の変化および仮想カメラ向きの組み合わせと、に基づいて、映像シーンを決定し、その映像シーンに対応する前景および背景の動き量を評価条件として用いてもよい。
また、映像酔いの強度が異なるシーンを決定する際の条件や映像酔い評価する評価条件は、次のものでもよい。すなわち、前景または背景の動きの速度、加速、減速、方向、位置の変化のいずれかに対する条件と、仮想カメラの速度、加速、減速、方向、位置、向きの変化のいずれかに対する条件であっても良い。
また、観察条件として、ユーザが仮想視点映像を観察する際の映像表示サイズと、ユーザと表示映像との距離とを参照する例を説明したが、その他の観察条件を考慮してもよい。その他の観察条件として、表示デバイスの種類、輝度、ダイナミックレンジ、観察環境における周辺環境の条件(照明など)が含まれてよい。また、仮想視点映像を観察するユーザの年齢や性別、または酔いやすい体質であるかといったユーザ特性に関するプロフィール情報などが含まれてよい。これらの観察条件の各要素に対応して、異なる映像酔いの評価条件が映像評価条件格納部335に格納されてよく、観察条件に応じて適切な評価条件が選択されてもよい。
図6に戻り説明を続ける。S607において映像評価部333は、S606で取得した映像酔い評価条件に基づいて、映像酔いが発生する映像であるかを評価する。図7の映像シーンの例では、図7(b)〜図7(d)のいずれの映像シーンであるかが決定され、その映像シーンに対応する評価条件がS606で取得されている。評価条件としては、具体的には、見た目の映像の背景の動き量の閾値が取得されている。S607で映像評価部333は、見た目の映像の背景の動き量が、S606で取得した閾値を超えている場合、その評価対象フレームは、映像酔いが発生するフレーム画像であると判定する。判定結果には、評価条件を超えた(即ち、映像酔いが発生すると判定された)フレーム画像のフレーム番号が含まれる。また、評価条件を超えた(即ち、映像酔いが発生すると判定された)前景の画像領域または背景の画像領域が含まれる。
<映像酔い警告表示>
図9は、仮想視点映像の映像酔い評価結果を表示するUI画面900の一例を示す。UI画面900は、表示部104に表示される。
映像酔い評価結果のUI画面900においては、タイムライン905がフレーム範囲を示している。ポインタ908によって、フレーム画像表示領域901に表示するフレーム画面が指定される。また、設定された観察条件下における映像酔い警告対象のフレームがフレーム警告表示906、907のように、タイムライン905上に識別可能な態様で示されている。映像酔い評価値表示領域904は、フレーム毎に算出された映像酔い評価要素を示している。映像酔い評価値表示領域904には、たとえば、映像の見た目の速度値または動きベクトル変化量などが表示される。映像酔い評価結果の酔いやすさを数値化しておき、映像酔い評価値表示領域904には、その数値化された結果が表示されてもよい。
警告画像表示領域902は、フレーム画像表示領域901に表示されるフレーム画面と連動する。警告画像表示領域902には、フレーム画像表示領域901に表示されたフレーム画面内において、設定された観察条件下における映像酔いを発生する要因となる画像領域903を強調表示する。映像再生操作ボタン909から913は、フレーム画像表示領域901に表示する仮想視点映像の動画再生開始および停止等の再生操作をするためのボタンである。
なお、説明のため、設定される観察条件は1つである場合を例に挙げて説明したが、複数の観察条件が設定され、それぞれに対して、映像酔い評価が行われてもよい。そして、UI画面900上には、各観察条件に対応した警告画像表示領域902、映像酔い評価値表示領域904、およびタイムライン905が、条件ごとに並列に表示されてもよい。あるいは、観察条件を切り替えるボタンが用意されてもよい。そして、ユーザによるボタン操作に応じて、UI画面900が切り替わってもよい。
本実施形態における映像酔い評価では、映像酔い評価条件を超えるかどうかによって映像酔いする映像であるかを判定する例を示している。しかしながら、映像シーンの種類と、前景もしくは背景の動き量とによって生じる映像酔いの強度を、段階的な数値に換算した評価値を出力するような構成であっても良い。例えば、動き量が閾値を超えると映像酔いが生じるので、動き量が閾値を超えるまでの段階を数値化した評価値を出力してもよい。ここでは、評価値が高いほど、映像酔いが生じやすいものとする。動き量が閾値を超えた後において、さらに動き量が増えると、逆に酔いが生じにくい傾向がある。このため、動き量が閾値を超えたあとは、動き量が増えるに従い、評価値が低くなってもよい。また、動きの種類(縦方向、横方向、回転など)に応じて映像酔いが発生する傾向が変わるので、その傾向に応じた評価値を出力してもよい。
以上説明したように、本実施形態においては、仮想視点映像の評価対象フレームにおける前景の画像領域および背景の画像領域の動き量を取得する処理が行われる。また、評価対象フレームにおける仮想カメラ経路が取得される。そして、これらの情報に対応する評価条件が決定される。例えば、映像酔い評価部330は、評価対象フレームの映像シーンを決定し、その映像シーンに適合する評価条件を決定する。そして、その決定された評価条件を用いて、評価対象フレームの映像酔いを評価する。このような処理を行うことで、映像シーンに適合した高精度な映像酔い評価を行うことができる。仮想視点映像の場合、前景と背景との動きが同様な場面であっても、仮想カメラ経路が全く異なる映像シーンが生じ得る。本実施形態によれば、前景または背景の動きと、仮想カメラ経路とを用いることで、例えば映像シーンが図7(b)〜図7(d)のいずれのシーンであるかを決定することができる。そして、その映像シーンに適した評価条件を用いて映像酔いを高精度に評価することができる。
<<実施形態2>>
実施形態1では、入力された仮想視点映像の映像酔いを評価し、仮想視点映像中の映像酔い量が所定の閾値を超えるフレーム範囲や画像領域について警告を表示する画像処理装置について説明した。本実施形態においては、映像酔いを低減させるように、ユーザが、仮想カメラパラメータを容易に補正することが可能な形態を説明する。
<画像処理装置の構成>
図10は、実施形態2における画像処理装置100の論理構成の一例を示す図である。実施形態1で説明した構成に、さらに仮想カメラパラメータ補正部1000が備えられている。その他の構成は、実施形態1と同様である。仮想カメラパラメータ補正部1000は、映像酔い評価部330での評価結果を用いて、映像酔いが生じない範囲の仮想カメラパラメータを決定する。例えば仮想カメラパラメータ補正部1000は、仮想カメラパラメータを段階的に変更する。映像酔い評価部330は、変更された仮想カメラパラメータを用いて生成される仮想視点映像の映像酔いを評価する。仮想カメラパラメータ補正部1000は、その評価結果を用いて、映像酔いが生じない範囲の仮想カメラパラメータを決定する。ユーザは、決定した範囲内において仮想カメラパラメータを設定することができる。仮想カメラパラメータ補正部1000は、設定された仮想カメラパラメータに置き換えることで、仮想カメラパラメータを補正する。そして、補正された仮想カメラパラメータを用いた仮想視点映像が生成される。以下、仮想カメラパラメータ補正部1000の構成を説明する。
仮想カメラパラメータ補正部1000は、補正範囲決定部1001と、補正範囲格納部1002と、補正パラメータ設定部1003とを有する。補正範囲決定部1001は、映像酔いが発生すると判定された仮想視点映像に用いられた仮想カメラパラメータから、映像酔いを発生しない仮想カメラパラメータの補正可能範囲を決定する。決定した補正可能範囲は、補正範囲格納部1002に格納される。仮想カメラパラメータの補正可能範囲は、表示部104によって、ユーザに提示される。補正パラメータ設定部1003は、補正可能範囲内においてユーザが指定した仮想カメラパラメータの補正値を設定する。即ち、補正パラメータ設定部1003は、その補正値(補正された仮想カメラパラメータ)を仮想カメラパラメータ格納部310に格納する。仮想視点映像生成部300は、補正された仮想カメラパラメータを用いて映像酔いが低減された仮想視点映像を生成する。本実施形態では仮想カメラパラメータの補正として、仮想カメラ座標を補正する処理を例に挙げて説明する。
図11は、画像処理装置100において、仮想視点映像の映像酔い評価を実行した後に、映像酔いを発生すると判定されたフレーム範囲における仮想カメラパラメータを補正する一連の流れを示すフローチャートである。
S1101では、仮想カメラパラメータ補正部1000は、仮想視点映像において用いられた仮想カメラパラメータを取得する。仮想カメラパラメータには、仮想視点映像を生成するための仮想空間内における、時間軸に沿った映像フレーム(フレーム画像)毎のカメラ座標値、カメラの向き、および焦点距離などが含まれる。
図12(a)、(b)は、取得した仮想カメラパラメータに含まれる仮想カメラの座標(以下、仮想カメラ座標という)を示すUIの一例である。本実施形態では、仮想視点映像生成において3次元の仮想空間が使用される。UI画面1200には、仮想空間における平面座標がXY平面として表示されている。UI画面1201には、仮想空間における高さをZ軸とし、仮想空間におけるYZ平面が表示されている。仮想視点映像における仮想カメラ経路は、始点1204および終点1205と、それらの途中の仮想カメラの座標の変化を示す軌跡1206とによって示されている。
S1102において仮想カメラパラメータ補正部1000は、仮想視点映像データの映像酔い評価結果から、映像酔いが発生すると評価されたフレーム範囲を取得する。
S1103において補正範囲決定部1001は、映像酔いが発生すると評価されたフレーム範囲における未処理の第一のフレーム画像の仮想カメラ座標を、任意の座標データの刻みで変更する。なお、本実施形態では仮想カメラ座標の変更領域にはあらかじめ制限が設けられており、座標データの刻みは制限内の値に設定されているものとする。本実施形態では、以降でも説明するように、仮想カメラ座標を、S1101で取得した第一座標から、別の座標である第二座標に変更し、その変更後の第二座標を用いた仮想視点映像の映像酔いが評価される。そして、映像酔いが発生しない場合に、その第二座標が補正範囲として決定される。その後、第二座標とは異なる第三座標に仮想カメラ座標を変更し、同様の処理を繰り返すことで、第一のフレーム画像の補正範囲が決定されることになる。このような処理が、フレーム範囲におけるすべてのフレーム画像に対して行われる。
図13は、仮想カメラ座標の変更領域に制限を設定する例を説明する図である。図13(a)は、仮想視点映像の仮想空間におけるXY平面座標1300を示す。XY平面座標1300には、入力された仮想カメラ経路1306上の仮想カメラ座標1304が示されている。図13(b)は、この仮想カメラ座標1304に対応する仮想視点映像のフレーム画像1301である。フレーム画像1301における仮想カメラ視点領域1302は、XY平面座標1300上の仮想カメラ視点領域1302と同じ領域を表している。仮想カメラ視点領域1302は、注視点を含む所定範囲の領域である。この仮想カメラ座標1304を、別の座標に変更することで仮想カメラパラメータを補正することを想定する。この場合、仮想カメラ視点領域1302から変更先である仮想カメラ視点領域1303への移動量に所定の制限を設定する。即ち、変更先である仮想カメラ視点領域1303を、所定の制限内の領域に設定する。これにより、仮想カメラ視点によるフレーム画像1301を大きく変化させない範囲で、仮想カメラ座標の変更に制限を設定することができる。
S1104において補正範囲決定部1001は、補正した仮想カメラ座標を用いた仮想視点映像を生成する。補正範囲決定部1001は、仮想視点映像生成部300で行われている処理と同様の処理で仮想視点映像を生成することができる。あるいは、補正範囲決定部1001は、仮想視点映像生成部300に仮想視点映像を生成させてもよい。
S1105において補正範囲決定部1001は、変更した仮想カメラ座標を用いて生成された仮想視点映像に対する映像酔い評価を実行する。補正範囲決定部1001は、映像酔い評価部330で行われている処理と同様の処理で映像酔い評価を行うことができる。あるいは、補正範囲決定部1001は、映像酔い評価部330に映像酔いの評価を行わせてもよい。
S1106において補正範囲決定部1001は、S1105における映像酔い評価結果が所定の閾値を超えたかどうかを判定する。評価結果が所定の閾値を超えていた場合はS1103の処理に戻り、仮想カメラ座標を任意の刻みでさらに変更し、S1103からS1105の処理を繰り返す。
評価結果が所定の閾値を超えなかった場合は、S1107において補正範囲決定部1001は、S1104で変更した仮想カメラ座標を、映像酔いを発生しない仮想カメラ座標として、補正範囲格納部1002に格納する。
S1108において補正範囲決定部1001は、S1103で変更された仮想カメラ座標が所定の制限内にあるかを判定し、制限内であればS1103以降の処理を繰り返す。制限外であれば、S1109において補正範囲決定部1001は、映像酔いが発生すると評価されたフレーム範囲における全フレームに対してS1103〜S1108の処理を実行したかを判定する。
全フレームの処理が未完了であった場合は、補正範囲決定部1001は、S1113において、対象フレームを更新し、S1103以降の処理を繰り返す。全フレームの処理を完了した場合は、S1110において仮想カメラパラメータ補正部1000は、補正範囲格納部1002に格納されている仮想カメラ座標の補正可能範囲をユーザに表示する。
S1111において補正パラメータ設定部1003は、補正可能範囲内において、映像酔いが発生すると評価されたフレーム範囲における仮想カメラパラメータを、ユーザからの指定に基づいて設定する。なお、映像酔いが発生すると評価されたフレーム範囲における仮想カメラパラメータをユーザの指定により決定したが、これを省略してもよい。即ち、画像処理装置100は、映像酔いが発生すると評価されたフレーム範囲における仮想カメラパラメータをユーザの指定を受け付けることなく自動で映像酔いが発生しないと評価される仮想カメラパラメータに変更してもよい。これにより、仮想カメラパラメータが補正される。S1112において補正パラメータ設定部1003は、補正後の仮想カメラパラメータを仮想カメラパラメータ格納部310に格納する。以上で、本フローチャートの処理を終了する。
図14は、補正可能範囲を表示するUI画面の例を示す図である。図14(a)に示すUI画面1400は、図12(a)に示した仮想カメラ座標の補正可能範囲を表示するUI画面である。UI画面1400において、仮想空間におけるYZ平面上の仮想カメラ座標の軌跡1206に対する補正可能範囲1407が、点線によって囲まれる範囲としてUI画面1400上に示されている。
ユーザは、UI画面1400上で、補正可能範囲1407内に収まるように軌跡1206を変更することで、仮想カメラ座標を補正することが可能である。補正された仮想カメラ座標は、仮想カメラパラメータ格納部310に格納される。
なお、本実施形態では仮想カメラパラメータの補正において、仮想カメラ位置を補正する処理について説明した。しかしながら、他の仮想カメラパラメータの補正においても同様の処理によって仮想カメラパラメータの補正処理が可能である。
図14(b)は、他の仮想カメラパラメータの補正の一例として、仮想視点映像の再生速度を補正するUI画面1401を示している。図14(b)に示すUI画面1401は、図12(b)に示した仮想カメラ座標を示している。UI画面1401では、再生速度の補正可能範囲を示している。UI画面1401においては、仮想視点映像における仮想カメラ座標の軌跡1206上においてフレーム毎のカメラ座標が白丸1408により示されている。仮想視点映像の再生速度は、入力映像データのフレーム速度を最大とする。ここで、再生時に仮想視点映像の所定のフレームに対して同一フレームを連続して割り当てることによって再生速度を遅くすることが可能である。したがって、仮想視点映像の任意の仮想カメラ座標において再生される同一フレームの数を設定することにより、仮想視点映像において仮想カメラ座標を変化させつつ再生速度を制御することが可能である。UI画面1401上では、フレーム毎のカメラ座標における同一フレームの数を白丸1409の大きさで示している。このように、UI画面1401では、映像酔い判定の結果に基づいて、白丸1409の大きさを変えることによって、映像酔いをしない再生速度の補正可能範囲(上限のフレーム速度)を示している。
なお、図11のフローチャートにおけるS1106からS1110の処理においては、映像酔い評価結果に対する閾値を複数設定することが可能であり、複数の閾値に応じた補正可能範囲を求める構成であってもよい。そしてUI画面1400、1401では、複数の閾値に応じた補正可能範囲を示すことが可能である。
なお、仮想カメラパラメータ補正部1000は、ユーザが仮想カメラパラメータを補正する際に、あらかじめユーザ特性に関するプロフィール情報を取得し、ユーザのプロフィールに適した補正処理をする構成であっても良い。例えば、ユーザが映像制作編集のプロフェッショナルである場合は、補正する仮想カメラパラメータの項目数や補正可能範囲を、軽度の映像酔いが発生する範囲を含めるような広範囲の設定にするなどして補正の自由度を高くするようにすることができる。即ち、補正可能範囲を制限する際に、その制限を、第一の制限よりも緩く(補正可能範囲を広げる)ようにしてもよい。
一方で、映像制作の技能や映像酔いに関する知識を持たない一般のユーザの場合には、補正する仮想カメラパラメータの項目数や補正可能範囲を、映像酔いを発生する確率が低い範囲に限定することで、映像酔いを低減した仮想視点映像を生成することができる。即ち、補正可能範囲を制限する際に、その制限を、第一の制限よりも厳しく(補正可能範囲を狭める)ようにしてもよい。
以上説明したように、本実施形態によれば、仮想視点映像における映像酔い評価結果を用いて、映像酔いが発生しない範囲を示す補正可能範囲をユーザに提示することができる。そして、ユーザは、提示された補正可能範囲において仮想カメラパラメータを補正することができる。このような処理によれば、ユーザは、映像酔いが発生しない範囲内で仮想カメラパラメータを補正することができるので、仮想視点映像の仮想カメラパラメータの設定におけるやり直し作業を抑制することができる。
<<その他の実施形態>>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
映像酔い評価部330
前景背景解析部331
映像解析部332
映像評価部333
観察条件格納部334
映像評価条件格納部335

Claims (16)

  1. 仮想視点映像を取得する第一の取得手段と、
    前記仮想視点映像の生成に用いられた仮想カメラパラメータを取得する第二の取得手段と、
    前記仮想視点映像におけるオブジェクトまたは背景の動きと、前記仮想カメラパラメータとに基づいて前記仮想視点映像の映像酔いを評価する評価手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記評価手段は、前記オブジェクトまたは背景の動きと前記仮想カメラパラメータとに対応する閾値を、前記仮想視点映像の前記オブジェクトまたは背景の動き量が超えている場合、前記仮想視点映像に映像酔いが発生すると評価することを特徴とする請求項1に記載の画像処理装置。
  3. 前記動き量は、前記仮想視点映像をユーザが観察する環境における動き量であることを特徴とする請求項1または2に記載の画像処理装置。
  4. 仮想視点映像のうち、映像酔いが発生すると前記評価手段によって評価されたフレームを識別可能な態様で表示手段に表示させる表示制御手段をさらに備えることを特徴とする請求項1から3のいずれか一項に記載の画像処理装置。
  5. 前記表示制御手段は、前記映像酔いが発生すると前記評価手段によって評価されたフレームの画像内において、映像酔いが生じると評価された領域を識別可能な態様で前記表示手段に表示させることを特徴とする請求項4に記載の画像処理装置。
  6. 前記表示制御手段は、前記映像酔いの評価結果を示す評価値を前記フレームのタイムラインに沿って識別可能に前記表示手段に表示させることを特徴とする請求項4または5に記載の画像処理装置。
  7. 前記評価手段によって映像酔いが発生すると評価されたフレームに関して映像酔いを発生させない仮想カメラパラメータの範囲を決定し、前記範囲内で前記仮想カメラパラメータを補正する補正手段をさらに備えることを特徴とする請求項1から6のいずれか一項に記載の画像処理装置。
  8. 前記補正手段は、前記フレームに用いられている仮想カメラパラメータを変更し、変更後の仮想カメラパラメータを用いて生成された仮想視点映像の映像酔いの評価結果を用いて前記範囲を決定することを特徴とする請求項7に記載の画像処理装置。
  9. 前記補正手段は、前記フレームにおける再生速度を変更し、変更後の再生速度で再生される仮想視点映像の映像酔いの評価結果を用いて前記範囲を決定する請求項7に記載の画像処理装置。
  10. 前記範囲を表示手段に表示させる第二の表示制御手段をさらに備えることを特徴とする請求項7から9のいずれか一項に記載の画像処理装置。
  11. 前記表示手段に表示された前記範囲においてユーザによって指定された値を、当該フレームの仮想カメラパラメータに設定する設定手段と、
    前記設定手段で設定された仮想カメラパラメータを用いて前記仮想視点映像を生成する生成手段と、
    をさらに備えることを特徴とする請求項10に記載の画像処理装置。
  12. 前記補正手段は、ユーザのプロフィール情報を取得し、前記プロフィール情報を参照して補正する仮想カメラパラメータの項目を決定することを特徴とする請求項7から11のいずれか一項に記載の画像処理装置。
  13. 前記補正手段は、ユーザのプロフィール情報を取得し、前記プロフィール情報を参照して前記範囲の大きさを変更することを特徴とする請求項7から11のいずれか一項に記載の画像処理装置。
  14. 仮想視点映像の生成に用いられた仮想カメラの経路と、前記仮想カメラの経路を補正可能な範囲とを表示手段に表示させる表示制御手段を備え、
    前記補正可能な範囲は、前記仮想視点映像におけるオブジェクトまたは背景の動きと、前記仮想カメラの経路を示すパラメータとに基づいて映像酔いが発生しないと判定された範囲であることを特徴とする画像処理装置。
  15. 仮想視点映像を取得するステップと、
    前記仮想視点映像の生成に用いられた仮想カメラパラメータを取得するステップと、
    前記仮想視点映像におけるオブジェクトまたは背景の動きと、前記仮想カメラパラメータとに基づいて前記仮想視点映像の映像酔いを評価するステップと、
    を有することを特徴とする画像処理方法。
  16. コンピュータを、請求項1から14のいずれか一項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2018036651A 2018-03-01 2018-03-01 画像処理装置、画像処理方法、及びプログラム Pending JP2019152980A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018036651A JP2019152980A (ja) 2018-03-01 2018-03-01 画像処理装置、画像処理方法、及びプログラム
US16/285,682 US11141557B2 (en) 2018-03-01 2019-02-26 Information processing apparatus, information processing method, and storage medium
US17/470,452 US11839721B2 (en) 2018-03-01 2021-09-09 Information processing apparatus, information processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018036651A JP2019152980A (ja) 2018-03-01 2018-03-01 画像処理装置、画像処理方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2019152980A true JP2019152980A (ja) 2019-09-12

Family

ID=67767535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018036651A Pending JP2019152980A (ja) 2018-03-01 2018-03-01 画像処理装置、画像処理方法、及びプログラム

Country Status (2)

Country Link
US (2) US11141557B2 (ja)
JP (1) JP2019152980A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021048459A (ja) * 2019-09-17 2021-03-25 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7467094B2 (ja) 2019-12-09 2024-04-15 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10600245B1 (en) * 2014-05-28 2020-03-24 Lucasfilm Entertainment Company Ltd. Navigating a virtual environment of a media content item
WO2021070650A1 (ja) * 2019-10-10 2021-04-15 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
US20230118515A1 (en) * 2020-03-30 2023-04-20 Sony Group Corporation Method for changing viewpoint in virtual space
US20230237730A1 (en) * 2022-01-21 2023-07-27 Meta Platforms Technologies, Llc Memory structures to support changing view direction

Family Cites Families (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5574511A (en) * 1995-10-18 1996-11-12 Polaroid Corporation Background replacement for an image
US8300042B2 (en) * 2001-06-05 2012-10-30 Microsoft Corporation Interactive video display system using strobed light
US7113618B2 (en) * 2001-09-18 2006-09-26 Intel Corporation Portable virtual reality
US6623428B2 (en) * 2001-10-11 2003-09-23 Eastman Kodak Company Digital image sequence display system and method
US7624023B2 (en) * 2002-06-04 2009-11-24 International Business Machines Corporation Client opportunity modeling tool
US7128705B2 (en) * 2002-11-26 2006-10-31 Artis Llc Motion-coupled visual environment for prevention or reduction of motion sickness and simulator/virtual environment sickness
US20160267720A1 (en) * 2004-01-30 2016-09-15 Electronic Scripting Products, Inc. Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience
US7722526B2 (en) * 2004-07-16 2010-05-25 Samuel Kim System, method and apparatus for preventing motion sickness
JP2006092156A (ja) * 2004-09-22 2006-04-06 Namco Ltd プログラム、情報記憶媒体及び画像生成装置
CN101228555A (zh) * 2005-07-07 2008-07-23 独创目标实验室公司 用于目标的运动行为的三维监控和分析的系统
EP1862969A1 (en) * 2006-06-02 2007-12-05 Eidgenössische Technische Hochschule Zürich Method and system for generating a representation of a dynamically changing 3D scene
GB0615433D0 (en) * 2006-08-04 2006-09-13 Univ York Display systems
US7999862B2 (en) * 2007-10-24 2011-08-16 Lightcraft Technology, Llc Method and apparatus for an automated background lighting compensation system
US9253416B2 (en) * 2008-06-19 2016-02-02 Motorola Solutions, Inc. Modulation of background substitution based on camera attitude and motion
US8788977B2 (en) * 2008-11-20 2014-07-22 Amazon Technologies, Inc. Movement recognition as input mechanism
US20130278631A1 (en) * 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
US9628722B2 (en) * 2010-03-30 2017-04-18 Personify, Inc. Systems and methods for embedding a foreground video into a background feed based on a control input
US9994228B2 (en) * 2010-05-14 2018-06-12 Iarmourholdings, Inc. Systems and methods for controlling a vehicle or device in response to a measured human response to a provocative environment
WO2011149558A2 (en) * 2010-05-28 2011-12-01 Abelow Daniel H Reality alternate
KR101007947B1 (ko) * 2010-08-24 2011-01-14 윤상범 네트워크를 이용한 가상현실 무도 대련시스템 및 그 방법
US20140037213A1 (en) * 2011-04-11 2014-02-06 Liberovision Ag Image processing
JP5727886B2 (ja) 2011-07-08 2015-06-03 日本放送協会 不快度推定装置及び不快度推定プログラム
US20140176296A1 (en) * 2012-12-19 2014-06-26 HeadsUp Technologies, Inc. Methods and systems for managing motion sickness
US9645395B2 (en) * 2013-03-15 2017-05-09 Mark Bolas Dynamic field of view throttling as a means of improving user experience in head mounted virtual environments
JP6090786B2 (ja) * 2013-05-09 2017-03-08 国立大学法人 東京大学 背景差分抽出装置及び背景差分抽出方法
US10099030B2 (en) * 2013-09-06 2018-10-16 Iarmourholdings, Inc. Mechanical and fluid system and method for the prevention and control of motion sickness, motion-induced vision sickness, and other variants of spatial disorientation and vertigo
KR102077108B1 (ko) * 2013-09-13 2020-02-14 한국전자통신연구원 콘텐츠 체험 서비스 제공 장치 및 그 방법
US9536353B2 (en) * 2013-10-03 2017-01-03 Honda Motor Co., Ltd. System and method for dynamic in-vehicle virtual reality
US20150104757A1 (en) * 2013-10-15 2015-04-16 Mbfarr, Llc Driving assessment and training method and apparatus
JP2015087581A (ja) * 2013-10-31 2015-05-07 株式会社東芝 表示装置
JP2016031439A (ja) * 2014-07-28 2016-03-07 ソニー株式会社 情報処理装置及び情報処理方法、コンピューター・プログラム、並びに画像表示システム
US9990774B2 (en) * 2014-08-08 2018-06-05 Sony Interactive Entertainment Inc. Sensory stimulus management in head mounted display
US9699436B2 (en) * 2014-09-16 2017-07-04 Microsoft Technology Licensing, Llc Display with eye-discomfort reduction
US9999835B2 (en) * 2015-02-05 2018-06-19 Sony Interactive Entertainment Inc. Motion sickness monitoring and application of supplemental sound to counteract sickness
JP6732883B2 (ja) * 2015-04-10 2020-07-29 ヴァーズーム,インコーポレイテッド バーチャル・リアリティ・エクササイズ・ゲーム
US9704298B2 (en) * 2015-06-23 2017-07-11 Paofit Holdings Pte Ltd. Systems and methods for generating 360 degree mixed reality environments
US10274737B2 (en) * 2016-02-29 2019-04-30 Microsoft Technology Licensing, Llc Selecting portions of vehicle-captured video to use for display
JP2017182130A (ja) * 2016-03-28 2017-10-05 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
WO2017200760A1 (en) * 2016-05-19 2017-11-23 Yudofsky Stuart Methods and devices for behavior modification
GB2551480A (en) * 2016-06-08 2017-12-27 Nokia Technologies Oy An apparatus, method and computer program for obtaining images from an image capturing device
JP6714791B2 (ja) * 2016-07-13 2020-07-01 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム
US10643391B2 (en) * 2016-09-23 2020-05-05 Apple Inc. Immersive virtual display
US11752295B2 (en) * 2016-09-30 2023-09-12 Sony Interactive Entertainment Inc. Method and system for classifying virtual reality (VR) content based on modeled discomfort of a user
US10565777B2 (en) * 2016-09-30 2020-02-18 Sony Interactive Entertainment Inc. Field of view (FOV) throttling of virtual reality (VR) content in a head mounted display
US10235788B2 (en) * 2017-01-17 2019-03-19 Opentv, Inc. Overlay contrast control in augmented reality displays
WO2018212617A1 (en) * 2017-05-18 2018-11-22 Samsung Electronics Co., Ltd. Method for providing 360-degree video and device for supporting the same
US20180370461A1 (en) * 2017-06-23 2018-12-27 Magna Electronics Inc. Vehicle system for reducing motion sickness
US10803642B2 (en) * 2017-08-18 2020-10-13 Adobe Inc. Collaborative virtual reality anti-nausea and video streaming techniques
US20190061655A1 (en) * 2017-08-23 2019-02-28 Alpine Electronics, Inc. Method and apparatus for motion sickness prevention
EP3687648B1 (en) * 2017-09-25 2023-09-13 Ballast Technologies, Inc. Coordination of water-related experiences with virtual reality content
DE102017217592A1 (de) * 2017-10-04 2019-04-04 Audi Ag Kinetosefreies Betrachten eines digitalen Inhalts in einem Fahrzeug
US10832483B2 (en) * 2017-12-05 2020-11-10 Electronics And Telecommunications Research Institute Apparatus and method of monitoring VR sickness prediction model for virtual reality content
KR102233099B1 (ko) * 2017-12-05 2021-03-29 한국전자통신연구원 기계학습에 기반한 가상 현실 콘텐츠의 사이버 멀미도 예측 모델 생성 및 정량화 조절 장치 및 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021048459A (ja) * 2019-09-17 2021-03-25 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7395296B2 (ja) 2019-09-17 2023-12-11 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7467094B2 (ja) 2019-12-09 2024-04-15 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
US11141557B2 (en) 2021-10-12
US11839721B2 (en) 2023-12-12
US20190269881A1 (en) 2019-09-05
US20210402134A1 (en) 2021-12-30

Similar Documents

Publication Publication Date Title
JP2019152980A (ja) 画像処理装置、画像処理方法、及びプログラム
US10674142B2 (en) Optimized object scanning using sensor fusion
JP7051457B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US11086395B2 (en) Image processing apparatus, image processing method, and storage medium
JP5917017B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
JP6742869B2 (ja) 画像処理装置および画像処理方法
JP6256840B2 (ja) 画像処理装置及び画像処理方法
JP2015018296A (ja) 表示制御装置、プログラム及び記録媒体
EP3058451B1 (en) Techniques for navigation among multiple images
JP2018106496A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2012248001A (ja) 画像処理装置および画像処理方法、プログラム
JP7392105B2 (ja) 没入型ビデオコンテンツをフォービエイテッドメッシュを用いてレンダリングするための方法、システム、および媒体
KR20150097987A (ko) 이미지를 처리하기 위한 전자 장치 및 방법
US20230005220A1 (en) Shooting method, shooting instruction method, shooting device, and shooting instruction device
JP2016063248A (ja) 画像処理装置および画像処理方法
JP6021489B2 (ja) 撮像装置、画像処理装置およびその方法
CN108140401A (zh) 访问视频片段
JP6621565B2 (ja) 表示制御装置、表示制御方法、及びプログラム
JP6320165B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
JP6443505B2 (ja) プログラム、表示制御装置及び表示制御方法
JP2009258862A (ja) 映像表示装置及び映像表示方法
JP5281720B1 (ja) 立体映像処理装置及び立体映像処理方法
JP6089549B2 (ja) 情報処理装置、情報処理システム、およびプログラム
JP2018129787A (ja) 決定装置、画像処理装置、決定方法及び決定プログラム
JP2021010102A (ja) 情報処理装置、情報処理方法及びプログラム