JP2020017061A - 画像処理装置、画像表示装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像表示装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP2020017061A
JP2020017061A JP2018139350A JP2018139350A JP2020017061A JP 2020017061 A JP2020017061 A JP 2020017061A JP 2018139350 A JP2018139350 A JP 2018139350A JP 2018139350 A JP2018139350 A JP 2018139350A JP 2020017061 A JP2020017061 A JP 2020017061A
Authority
JP
Japan
Prior art keywords
image
virtual
image processing
objects
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018139350A
Other languages
English (en)
Other versions
JP7210180B2 (ja
JP2020017061A5 (ja
Inventor
大地 阿達
Taichi Adachi
大地 阿達
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018139350A priority Critical patent/JP7210180B2/ja
Priority to EP19185279.7A priority patent/EP3599589A1/en
Priority to US16/509,922 priority patent/US11328494B2/en
Publication of JP2020017061A publication Critical patent/JP2020017061A/ja
Publication of JP2020017061A5 publication Critical patent/JP2020017061A5/ja
Application granted granted Critical
Publication of JP7210180B2 publication Critical patent/JP7210180B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2024Style variation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Architecture (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】画像内の所定のオブジェクトの視認性が低下することを抑制しつつ、ユーザの映像酔いを軽減する。【解決手段】本発明の一実施形態における画像処理装置は、仮想空間に設定された仮想カメラの視点に応じた仮想画像を出力する画像処理装置であって、仮想空間に位置する1または複数のオブジェクトのうち1以上のオブジェクトを特定する特定手段と、特定手段により特定された1以上のオブジェクト以外の領域の少なくとも一部の画質が仮想カメラの動きに応じて変更された仮想画像を出力する出力手段とを有する。【選択図】図1

Description

本発明は、画像処理装置、画像表示装置、画像処理方法、及びプログラムに関する。
コンピュータグラフィックスの分野では、三次元の仮想空間内に配置された人や建物のオブジェクトを、当該仮想空間内を移動可能な仮想カメラに投影することによって、当該仮想カメラから見た画像を仮想画像として生成し、表示することが行われている。
この仮想画像を映像としてディスプレイに表示して視聴する場合に、仮想カメラの動きが速いと、視聴者に映像酔いが生じやすくなる。これに対し、特許文献1は、仮想カメラの動きに応じて、画像全体または画像の周辺部の解像度やコントラストを低下させた過渡期画像を生成し、表示することによって、映像酔いを軽減する方法を開示している。
特開第2017−58493号公報
しかしながら、特許文献1に開示された方法では、表示画像内の注目すべきオブジェクトの解像度やコントラストが低下し、そのオブジェクトの視認性が低下してしまう虞があった。
本発明はこのような問題に鑑みてなされたものであり、画像内の所定のオブジェクトの視認性が低下することを抑制しつつ、ユーザの映像酔いを軽減することを目的とする。
本発明の一実施形態における画像処理装置は、仮想空間に設定された仮想カメラの視点に応じた仮想画像を出力する画像処理装置であって、前記仮想空間に位置する1または複数のオブジェクトのうち1以上のオブジェクトを特定する特定手段と、前記特定手段により特定された前記1以上のオブジェクト以外の領域の少なくとも一部の画質が前記仮想カメラの動きに応じて変更された仮想画像を出力する出力手段とを有する。
本発明によれば、画像内の所定のオブジェクトの視認性が低下することを抑制しつつ、ユーザの映像酔いを軽減することができる。
第1の実施形態における画像処理システムの構成図である。 第1の実施形態における画像処理装置のハードウェア構成図である。 第1の実施形態における画像処理のフローチャートを示す図である。 第1の実施形態における仮想空間内のオブジェクトおよび仮想カメラの位置を示す図である。 第1の実施形態における仮想画像を示す図である。 第1の実施形態におけるぼかし処理前後の仮想画像を示す図である。 第2の実施形態における画像処理のフローチャートを示す図である。 第2の実施形態における解像度低減処理を説明する図である。 第2の実施形態における解像度低減処理前後の仮想画像を示す図である。 第3の実施形態における画像処理のフローチャートを示す図である。 第3の実施形態における明度変更処理前後の仮想画像を示す図である。 第4の実施形態における仮想空間内のオブジェクトおよび仮想カメラの位置を示す図である。 第4の実施形態におけるぼかし処理前後の仮想画像を示す図である。
以下、図面を参照して、本発明の実施形態について詳細に説明する。
(第1の実施形態)
本実施形態では、三次元の仮想空間内に存在する人や建物などのオブジェクトが仮想空間内に設定された仮想カメラに投影された仮想画像(仮想カメラの視点に応じた仮想画像)において、動きの大きなオブジェクトにぼかし処理(画質変更処理)を行う。本実施形態では、そうすることで、映像酔いを軽減する方法について説明する。なお、以下の実施形態における仮想画像は、全体としてコンピュータグラフィックスで生成された画像であってもよいし、撮影装置による撮影画像に基づいて生成される画像であってもよい。例えば仮想画像は、それぞれ異なる位置に設置された複数の撮影装置により複数の方向から撮影対象領域を撮影することで得られる画像と、仮想視点を示す視点情報とに基づいて生成される、仮想視点画像(自由視点映像)であってもよい。
図1は、本実施形態における画像処理システムの構成を示す。画像処理装置200は、仮想カメラ移動情報取得部210、オブジェクト位置情報取得部220、仮想画像取得部230、及び画像処理部240を有する。また、画像処理装置200は、仮想カメラ移動情報140、オブジェクト位置情報110、及び仮想画像130の各データを記憶した不図示の記憶装置、並びに表示装置300(液晶ディスプレイなど)と、ネットワークを介して接続される。仮想カメラ移動情報取得部210、オブジェクト位置情報取得部220、及び仮想画像取得部230は、それぞれ仮想カメラ移動情報140、オブジェクト位置情報110、及び仮想画像130のデータを、ネットワークを介して取得する。なお、画像処理装置200により処理される仮想画像が撮影画像に基づく仮想視点画像である場合、オブジェクト位置情報110は、撮影画像に基づいて撮影対象領域内のオブジェクトの位置を特定することで取得されたデータであってもよい。取得したデータは、画像処理装置200内の不図示の記録部に記録される。画像処理部240は、仮想カメラ移動情報140及びオブジェクト位置情報110を用いて、仮想画像130に対して後述する画像処理を行う。画像処理が行われた仮想画像130は、表示装置300にネットワークを介して送信される。表示装置300は、受信した仮想画像130を表示する。すなわち、表示装置300は、画像表示装置である。なお、画像処理部240により仮想画像130が出力される出力先は表示装置300に限らず、仮想画像130を記憶する記憶装置などであってもよい。
図2は、本実施形態における画像処理装置のハードウェア構成図である。画像処理装置200は、CPU201、ROM202、RAM203、記憶装置204、及び通信部205を有する。
CPU201は、画像処理装置200の全体を制御する中央演算ユニットであり、画像処理装置200の処理シーケンスを統括的に制御する。ROM202及び記憶装置204は、後述するフローチャートに示す処理を実現するためのプログラムやデータを格納する。RAM203は、データの一時保存やプログラムのロードに使用される。通信部205は、ネットワーク206を介した外部装置とのデータ送受信を行う。通信部205は、例えば、画像処理装置200によって画像処理を行った仮想画像130を、ネットワーク206を介して表示装置300に送信する。画像処理装置200の各構成要素は、バス207を介して相互に接続される。
図3は、画像処理装置200による画像処理のフローチャートを示す。フローチャートに示される一連の処理は、画像処理装置200のCPU201がROM202または記憶装置204に記憶された制御プログラムをRAM203に展開し、実行することにより実施される。あるいはまた、フローチャートにおけるステップの一部または全部の機能をASICや電子回路等のハードウェアで実現してもよい。各処理の説明における記号「S」は、当該フローチャートにおけるステップを意味する。その他のフローチャートについても同様である。
S301において、仮想カメラ移動情報取得部210は、仮想カメラ移動情報140を取得する。仮想カメラ移動情報140は、仮想カメラの時刻tにおける位置T(t)=(tx,ty,tz)、及び向きr(t)=(rx,ry,rz)を含む。また、仮想カメラ移動情報140は、仮想カメラの時刻tにおける速度V(t)=(vtx,vty,vtz,vrx,vry,vrz)を含んでもよい。速度V(t)は、単位時刻を映像のフレーム間隔とした、仮想カメラの位置と向きの微分値である。また、仮想カメラ移動情報140は、時刻tの1フレーム前の時刻t−1における仮想カメラの位置T(t−1)及び向きr(t−1)を含んでもよい。図4は、仮想空間内のオブジェクトおよび仮想カメラの位置を示す。オブジェクト及び仮想カメラの各位置は、XYZ座標で表される。また、図4では、Z軸方向から見たオブジェクト及び仮想カメラの位置が示されている。時刻tにおける仮想カメラ1300、及びその1フレーム前の時刻t−1における仮想カメラ1310が、軌跡1400上に示されている。図示した例では、仮想カメラ1300は、オブジェクト1100を中心として、オブジェクト1100の方向を向いて移動する。そのため、仮想カメラの映像は終始、仮想画像の中央にオブジェクト1100が写るものとなる。なお、仮想カメラは、不図示の入力装置を介して受信するユーザの指示に応じて動いてもよいし、予め定められたように動いてもよい。オブジェクト1100は、人のオブジェクトであって、前景オブジェクトの一例である。また、オブジェクト1210、1220は、建物のオブジェクトであって、背景の一例である。また、仮想空間内のオブジェクトの数は限定されるものではなく、1または複数のオブジェクトを配置することができる。
次いで、S302において、オブジェクト位置情報取得部220は、オブジェクト位置情報110を取得する。オブジェクト位置情報110は、仮想空間内に存在するオブジェクト1100、1210、1220のそれぞれの重心の三次元座標(以下、重心座標とも呼ぶ)を含む。図4において、オブジェクト1100の重心座標は(1840,4525,950)、オブジェクト1210の重心座標は(1810,5082,2850)、オブジェクト1220の重心座標は(1900,5200,3300)である。なお、オブジェクト位置情報110は、オブジェクトの重心に限定されるものではなく、オブジェクトの代表点や、オブジェクトを構成する複数の要素の三次元座標の集合(メッシュポリゴンの頂点群など)でもよい。
次いで、S303において、画像処理部240は、オブジェクト位置情報110を仮想カメラに投影した画像座標のオプティカルフローの大きさを算出する。具体的には、画像処理部240は、オブジェクト位置情報110(ここでは、オブジェクトの重心の三次元座標)が投影された画素が、1フレームで何画素(px)移動するかを算出する。三次元座標(X,Y,Z)から画像座標u(t)=(u,v)への座標系変換は、以下の式(1)による一般的な透視投影の射影変換を用いて行われる。
ここで、記号「〜」は、その両辺が定数倍の違いを許して等しいことを示す。また、A(3×3行列)は、仮想カメラの焦点距離と解像度によって決まる内部パラメータ行列であり、R(3×3行列)は、仮想カメラの向きr(t)からロドリゲスの回転公式によって得られる回転行列である。T(3×1行列)は、仮想カメラの位置T(t)から得られる並進ベクトルを表す行列である。
このように、画像処理部240は、時刻tにおける画像座標u(t)を算出する。同様に、画像処理部240は、時刻t−1における画像座標u(t−1)を算出する。画像座標u(t−1)は、時刻t−1における仮想カメラ移動情報140を使用して算出することができる。なお、時刻t−1における仮想カメラ移動情報140は、時刻tにおける仮想カメラの速度V(t)を使用して、時刻tにおける仮想カメラ移動情報140から算出するようにしてもよい。図5は、時刻tにおける仮想カメラ1300に、オブジェクト1100、1210、1220を投影した仮想画像を示す。仮想画像501は、オブジェクト1100、1210、1220のそれぞれが投影された像2100、2210、2220を含む。また、オブジェクト1100の重心を、時刻tにおける仮想カメラ1300およびその1フレーム前の時刻t−1における仮想カメラ1310にそれぞれ投影した点をu1(t)、u1(t−1)として示す。同様に、オブジェクト1210の重心を投影した点をu2(t)、u2(t−1)として示し、オブジェクト1220の重心を投影した点をu3(t)、u3(t−1)として示す。この場合、オブジェクト1100の重心の時刻t−1からtまでのオプティカルフローは、ベクトル3110で表される。また、ベクトル3110の大きさは、式(1)により算出された画像座標u1(t)=(1032,980)、u1(t−1)=(1038,978)より、6.3pxとなる。すなわち、ベクトル3110の大きさは、画像座標u1(t)とu1(t−1)との間の距離である。同様に、オブジェクト1210の重心のオプティカルフロー(すなわち、ベクトル3210)の大きさは、式(1)により算出された画像座標u2(t)=(400,430)、u2(t−1)=(440,434)より、40.2pxとなる。また、オブジェクト1220の重心のオプティカルフロー(すなわち、ベクトル3220)の大きさは、式(1)により算出された画像座標u3(t)=(1680,355)、u3(t−1)=(1780,365)より、100.5pxとなる。このように、画像処理部240は、仮想カメラの動きに応じたオブジェクトの像の動きの大きさを導出する動き導出手段として機能する。
S304において、仮想画像取得部230は、仮想画像130を取得する。仮想画像130は、画像処理装置200の外部でレンダリング処理された図5に示す仮想画像501とすることができる。
S305において、画像処理部240は、S303で算出された各オブジェクトのオプティカルフローの大きさ(すなわち、導出結果)が、所定の値、例えば、20pxより大きいかどうかを判定する。各オブジェクトのオプティカルフローの大きさが20px以下の場合は処理を終了する。一方、オプティカルフローの大きさが20pxより大きいオブジェクトが存在する場合は、S306に進む。図5の仮想画像501では、オブジェクト1210、1220のオプティカルフロー(すなわち、ベクトル3210、3220)の大きさがともに、20pxより大きいため、S306に進む。
S306において、画像処理部240は、オプティカルフローが所定の値よりも大きいと判定されたオブジェクト1210、1220の像2210、2220に対してぼかし処理を行う。ぼかし処理に用いる画像フィルタには、ガウシアンフィルタを用いることができる。ガウシアンフィルタのフィルタサイズは、オプティカルフローの大きさに係数a(=0.1)を乗算して決定する。図6は、本実施形態におけるぼかし処理前後の仮想画像を示す。図6(a)は、ぼかし処理前の仮想画像601を示し、図6(b)は、ぼかし処理後の仮想画像602を示す。図6(b)では、像2210及び2220が、ぼかし処理によって不鮮明になっている。すなわち、本実施形態では、背景をぼかして、視聴者の視線を前景のオブジェクトに向かせることになる。また、オプティカルフローが大きいほどフィルタサイズが大きなガウシアンフィルタが適用されるため、像2210より像2220の方が、ぼかし量(すなわち、画質の変更の程度)が大きくなる。このように、画像処理部240は、オブジェクトの像の画質を変更する画質変更手段として機能する。
以上のステップを終了すると、画像処理部240は、仮想画像を表示装置300に送信する。表示装置300は、受信した仮想画像を映像として表示する。
このように、本実施形態では、仮想空間に存在するオブジェクトが投影された仮想画像において、動きの大きなオブジェクト(上述した例では、建物のオブジェクト)にぼかし処理をする。すなわち、動きの大きなオブジェクトの画質を変更することで、視聴者の視線が動きの小さなオブジェクト(上述した例では、人のオブジェクト)の像に向きやすくなる。したがって、動きの小さなオブジェクトの画質を維持したまま、映像酔いを軽減することができる。
なお、上記S306のぼかし処理では、オプティカルフローの大きさに応じてフィルタサイズを決定したが、オプティカルフローの大きさによらず、所定のフィルタサイズ(例えば、フィルタサイズ10)で一括処理してもよい。また、ガウシアンフィルタではなく、オプティカルフローの方向に応じてモーションぼかしフィルタを用いてもよい。また、代替として、平均化フィルタを用いてもよい。
また、上記の実施形態では、画像処理装置200がすでに生成された仮想画像を取得し、仮想画像内の各オブジェクトの動きに関する判定を行った結果に基づいて、仮想画像内の特定のオブジェクトに対応する部分に画像処理を行うものとした。ただしこれに限らず、画像処理装置200が仮想カメラ情報や撮像画像などの素材データに基づいて仮想画像を生成してもよい。この場合に画像処理装置200は、上述のように一旦仮想画像を生成してから特定の部分に画像処理を行ってもよいし、もしくは素材データに基づいて仮想画像のレンダリングを行う際に特定のオブジェクトに対応する部分の画質を制御してもよい。
(第2の実施形態)
第1の実施形態では、画質の変更処理としてぼかし処理を行ったが、本実施形態では解像度低減処理を行って、映像酔いを軽減する方法について説明する。
以下、第1の実施形態と同様の構成、処理フローについては説明を省略する。
図7は、本実施形態における画像処理の処理フローを示す。S301からS305の処理は、第1の実施形態における図3のフローチャートと同様である。
S701において、画像処理装置200は、オプティカルフローが所定の値よりも大きいと判断された像2210および2220に対して、解像度低減処理を行う。
図8は、本実施形態における解像度低減処理を説明する図である。図8(a)は、解像度低減処理前の、像2210中の領域の画素および画素値を表す。本実施形態では、1画素に1つの画素値をもつ1チャンネルのグレースケール画像を前提として説明するが、これに限定されず、多チャンネルRGB画像などでもよい。本実施形態における解像度低減処理では、所定の解像度低減率(例えば、縦、横それぞれ50%)になるように画素をサブサンプリングし、単純拡大することで解像度を低減する。つまり、サブサンプリングされた画素値を右、下、右下の計3pxの領域にコピーする。こうしてコピーされた結果を、図8(b)に示す。すなわち、図8(b)は、解像度低減処理後の、像2210中の領域の画素および画素値を表す。
図9は、本実施形態における解像度低減処理前後の仮想画像を示す。図9(a)は、解像度低減処理前の仮想画像901を示し、図9(b)は、解像度低減処理後の仮想画像902を示す。図9(b)では、解像度低減処理により、対象像(すなわち、像2210、2220)の解像度が低くなっている。
以上説明したように、本実施形態では、画質の変更処理として、動きの大きなオブジェクト(上述した例では、建物のオブジェクト)の像に解像度低減処理をする。そうすることで、動きの小さなオブジェクト(上述した例では、人のオブジェクト)の像は比較的高い解像度のまま維持されるので、仮想画像内で際立つ。これにより、視聴者の視線が動きの小さなオブジェクトの像に向きやすくなるとともに、動きの小さなオブジェクトの画質を維持したまま、映像酔いを軽減することができる。
なお、解像度低減率は、所定の値(50%)に限らず、オプティカルフローの大きさに応じて決定してもよい。
(第3の実施形態)
本実施形態では、画質の変更処理として明度変更処理を行って、映像酔いを軽減する方法について説明する。
以下、第1の実施形態と同様の構成、処理フローについては説明を省略する。
図10は、本実施形態における画像処理の処理フローを示す。S301からS305の処理は、第1の実施形態における図3のフローチャートと同様である。
S1001において、画像処理装置200は、オプティカルフローが所定の値よりも大きいと判断された像2210および2220に対して、明度変更処理を行う。明度変更処理では、対象像の各画素の輝度値に、予め定められた所定の明度変更係数を乗算することで、対象像を明るくまたは暗くする。
図11は、本実施形態における明度変更処理前後の仮想画像を示す。図11(a)は、明度変更処理前の仮想画像1101を示す。図11(b)は、明度変更係数を1.5として、対象像が明るくなるように処理を行った仮想画像1102を示す。図11(c)は、明度変更係数を0.5として、対象像が暗くなるように処理を行った仮想画像1103を示す。図11(b)では、明度変更処理により、像2210、及び2220の明度が高くなり、明るくなっている。また、図11(c)では、像2210、及び2220の明度が低くなり、暗くなっている。
以上説明したように、本実施形態では、画質の変更処理として、動きの大きなオブジェクト(上述した例では、建物のオブジェクト)の像に明度変更処理をする。そうすることで、動きの小さなオブジェクト(上述した例では、人のオブジェクト)の像は、明度が適切な状態で維持されるので、仮想画像内で際立つ。これにより、視聴者の視線が動きの小さなオブジェクトに向きやすくなるとともに、動きの小さなオブジェクトの画質を維持したまま、映像酔いを軽減することができる。
なお、上記処理では明度を変更したが、彩度やコントラストを変更してもよい。すなわち、本実施形態では、明度や彩度、またはコントラストを含む、対象像の色調を変更してもよい。また、明度変更係数には所定の値を用いたが、オプティカルフローの大きさに応じて決定してもよい。
(第4の実施形態)
第1の実施形態では、仮想カメラが、人のオブジェクト1100を中心として移動する例について説明したが、本実施形態では、仮想カメラが第1の実施形態とは異なる動きをする例について説明する。
以下、第1の実施形態と同様の構成、処理フローについては説明を省略する。
図12は、本実施形態における仮想空間内のオブジェクトおよび仮想カメラの位置を示す。時刻tにおける仮想カメラ1350、及びその1フレーム前の時刻t−1における仮想カメラ1360が、軌跡1410上に示されている。図示した例では、仮想カメラは、オブジェクト1210、1220の近傍にある回転中心1201を中心として回転し、往復するように、回転中心1201を向いて移動する。そのため、映像は、仮想画像上をオブジェクト1100が左右に往復するものとなる。
この場合、図3のS303において算出されるオプティカルフローの大きさは、オブジェクト1100のオプティカルフローの大きさが50.3pxとなる。また、オブジェクト1210、1220のオプティカルフローの大きさがそれぞれ19.5px、15.7pxとなる。したがって、オプティカルフローの大きさが20pxより大きいオブジェクト1100の像に対してS306のぼかし処理が行われる。
S306において、画像処理部240は、オブジェクト1100のオプティカルフローの大きさに所定の係数a(=0.1)を乗算して決定したフィルタサイズ5でぼかし処理を行う。
図13は、本実施形態におけるぼかし処理前後の仮想画像を示す。図13(a)は、ぼかし処理前の仮想画像1301を示し、図13(b)は、ぼかし処理後の仮想画像1302を示す。図13(b)では、像2100が、ぼかし処理によって不鮮明になっている。すなわち、本実施形態では、前景のオブジェクトをぼかして、視聴者の視線を背景に向かせることになる。
以上説明したように、本実施形態では、仮想カメラの動きによって異なるオブジェクトの像にぼかし処理をする。そうすることで、視聴者の視線が動きの小さなオブジェクトの像に向きやすくなるとともに、動きの小さなオブジェクトの画質を維持したまま、映像酔いを軽減することができる。なお、上述した実施形態ではそれぞれ、ぼかし処理、解像度低減処理、及び明度変更処理(すなわち、色調変更処理)について説明したが、それらを組み合わせて実施してもよい。
また、上述の実施形態では、仮想画像における各オブジェクトの動きの大きさに基づいて特定されたオブジェクトの画質を制御するものとした。ただし、画質の変更の対象の決定方法はこれに限定されない。例えば画像処理装置200は、移動する仮想カメラに応じた仮想画像を生成する場合に、ユーザ操作などに応じて予め指定されたオブジェクト以外の領域のボケ量が大きくなるように画像処理を行ってもよい。また例えば、画像処理装置200は、所定の種別のオブジェクト(例えば人物など)以外の領域のボケ量が大きくなるように画像処理を行ってもよい。また例えば、画像処理装置200は、仮想カメラからの距離が所定値未満であるオブジェクト以外の領域のボケ量が大きくなるように画像処理を行ってもよい。
また、画像処理装置200が撮像画像に基づく仮想画像を生成する場合に、撮像画像に基づいて撮影対象領域内の所定のオブジェクトが特定され、仮想画像におけるその所定のオブジェクト以外の領域のボケ量が大きくなるように画像処理が行われてもよい。撮像画像に基づいて特定されるオブジェクトは、例えば移動するオブジェクトや、特定の期間にのみ撮影対象領域に存在するオブジェクトであってもよい。
なお、仮想画像内においてボケ量などの画質の変更対象となる領域は、上記のような方法で特定されたオブジェクト以外の領域全体であってもよいし、特定されたオブジェクトの周囲の所定範囲の領域については画質変更が行われなくてもよい。また、仮想画像に含まれるオブジェクトのうち、上記のような方法で特定されたオブジェクト以外のオブジェクトの領域が画質の変更対象となってもよい。すなわち、オブジェクトが存在しない領域については画質変更が行われなくてもよい。また、画像処理装置200は、上述したぼかし処理や解像度低下処理、及び明度変更処理などの程度を、仮想カメラの移動速度や仮想カメラの画角などに基づいて決定してもよい。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
110 オブジェクト位置情報
130 仮想画像
140 仮想カメラ移動情報
200 画像処理装置
210 仮想カメラ移動情報取得部
220 オブジェクト位置情報取得部
230 仮想画像取得部
240 画像処理部
300 表示装置

Claims (20)

  1. 仮想空間に設定された仮想カメラの視点に応じた仮想画像を出力する画像処理装置であって、
    前記仮想空間に位置する1または複数のオブジェクトのうち1以上のオブジェクトを特定する特定手段と、
    前記特定手段により特定された前記1以上のオブジェクト以外の領域の少なくとも一部の画質が前記仮想カメラの動きに応じて変更された仮想画像を出力する出力手段と
    を有することを特徴とする画像処理装置。
  2. 前記仮想カメラの移動情報を取得する第1の取得手段と、
    前記仮想空間における前記1または複数のオブジェクトの位置情報を取得する第2の取得手段とを更に備え、
    前記特定手段は、前記移動情報及び前記位置情報に基づいて、前記1以上のオブジェクトを特定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記移動情報は、前記仮想カメラの位置、向き、および速度を含むことを特徴とする請求項2に記載の画像処理装置。
  4. 前記位置情報は、前記オブジェクトが位置する前記仮想空間の三次元座標で表されることを特徴とする請求項2または3に記載の画像処理装置。
  5. 前記1または複数のオブジェクトを含む仮想画像を取得する第3の取得手段を更に備え、
    前記出力手段は、前記第3の取得手段により取得された仮想画像に対して画像処理を行うことで前記少なくとも一部の画質が変更された仮想画像を出力することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 前記出力手段は、ぼかし処理を行うことで前記少なくとも一部の画質が変更された仮想画像を出力することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 前記ぼかし処理は、ガウシアンフィルタ、平均化フィルタ、または、前記動きの方向に応じたモーションぼかしフィルタを用いて行われることを特徴とする請求項6に記載の画像処理装置。
  8. 前記出力手段は、解像度を低減する処理を行うことで前記少なくとも一部の画質が変更された仮想画像を出力することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  9. 前記出力手段は、色調を変更する処理を行うことで前記少なくとも一部の画質が変更された仮想画像を出力することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  10. 前記色調は、明度、彩度、またはコントラストを含むことを特徴とする請求項9に記載の画像処理装置。
  11. 前記出力手段は、明度を高くする、または低くする処理を行うことで前記少なくとも一部の画質が変更された仮想画像を出力することを特徴とする請求項9に記載の画像処理装置。
  12. 前記出力手段は、仮想画像における動きの大きさが第1オブジェクトよりも大きい第2オブジェクトの領域の画質の変更の程度が、前記第1オブジェクトの領域の画質の変更の程度よりも大きい仮想画像を出力することを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。
  13. 前記1または複数のオブジェクトのそれぞれの重心の位置、代表点、または当該オブジェクトを構成する複数の要素の三次元座標の集合を用いて、前記1または複数のオブジェクトのそれぞれの像の動きの大きさを導出する動き導出手段を有し、
    前記特定手段は、前記動き導出手段による導出結果に基づいて前記1以上のオブジェクトを特定することを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。
  14. 前記1または複数のオブジェクトの像のオプティカルフローの大きさを導出する動き導出手段を有し、
    前記特定手段は、前記動き導出手段による導出結果に基づいて前記1以上のオブジェクトを特定することを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。
  15. コンピュータを、請求項1乃至14のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
  16. 仮想空間に設定された仮想カメラの視点に応じた仮想画像を出力する画像処理方法であって、
    前記仮想空間に位置する1または複数のオブジェクトのうち1以上のオブジェクトを特定する特定工程と、
    前記特定工程により特定された前記1以上のオブジェクト以外の領域の少なくとも一部の画質が前記仮想カメラの動きに応じて変更された仮想画像を出力する出力工程と
    を含むことを特徴とする画像処理方法。
  17. 仮想空間を移動する仮想カメラに1または複数のオブジェクトが投影された画像を表示する画像表示装置であって、
    前記1または複数のオブジェクトの像のうち、前記仮想カメラの移動に伴う動きの大きさが所定の値より大きいオブジェクトの像が、その他のオブジェクトの像とは異なる画質で表示されることを特徴とする画像表示装置。
  18. 前記仮想カメラの移動に伴う動きの大きさが所定の値より大きいオブジェクトの像は、ボケ量、解像度、及び色調の少なくとも何れかがその他のオブジェクトの像とは異なることを特徴とする請求項17に記載の画像表示装置。
  19. 前記色調は、明度、彩度、またはコントラストを含むことを特徴とする請求項18に記載の画像表示装置。
  20. 前記仮想カメラの移動に伴う動きの大きさが所定の値より大きいオブジェクトの像は、前記動きの大きさが大きいほど、前記画質の変更の程度が大きいことを特徴とする請求項17乃至19のいずれか1項に記載の画像表示装置。
JP2018139350A 2018-07-25 2018-07-25 画像処理装置、画像表示装置、画像処理方法、及びプログラム Active JP7210180B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018139350A JP7210180B2 (ja) 2018-07-25 2018-07-25 画像処理装置、画像表示装置、画像処理方法、及びプログラム
EP19185279.7A EP3599589A1 (en) 2018-07-25 2019-07-09 Image processing apparatus, image processing method, and program
US16/509,922 US11328494B2 (en) 2018-07-25 2019-07-12 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018139350A JP7210180B2 (ja) 2018-07-25 2018-07-25 画像処理装置、画像表示装置、画像処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2020017061A true JP2020017061A (ja) 2020-01-30
JP2020017061A5 JP2020017061A5 (ja) 2021-09-02
JP7210180B2 JP7210180B2 (ja) 2023-01-23

Family

ID=67253678

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018139350A Active JP7210180B2 (ja) 2018-07-25 2018-07-25 画像処理装置、画像表示装置、画像処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US11328494B2 (ja)
EP (1) EP3599589A1 (ja)
JP (1) JP7210180B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11721063B1 (en) * 2023-01-26 2023-08-08 Illuscio, Inc. Systems and methods for dynamic image rendering using a depth map

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006155063A (ja) * 2004-11-26 2006-06-15 Seiko Epson Corp 画像補正装置、画像補正方法およびコンピュータプログラム
JP2014153893A (ja) * 2013-02-07 2014-08-25 Sony Computer Entertainment Inc 描画処理装置および描画処理方法
JP2015521322A (ja) * 2012-05-18 2015-07-27 トムソン ライセンシングThomson Licensing パノラマピクチャの処理
JP2018049614A (ja) * 2016-09-15 2018-03-29 トムソン ライセンシングThomson Licensing ビデオにおける仮想オブジェクトをボカす方法及びデバイス
WO2018062538A1 (ja) * 2016-09-30 2018-04-05 株式会社ニコン 表示装置およびプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007116309A (ja) * 2005-10-19 2007-05-10 Seiko Epson Corp 画像情報再生装置
JP5968107B2 (ja) * 2011-09-01 2016-08-10 キヤノン株式会社 画像処理方法、画像処理装置およびプログラム
RU2621633C2 (ru) * 2011-10-28 2017-06-06 Мэджик Лип, Инк. Система и способ для дополненной и виртуальной реальности
US10139902B2 (en) * 2015-09-16 2018-11-27 Colopl, Inc. Method and apparatus for changing a field of view without synchronization with movement of a head-mounted display
JP5869177B1 (ja) 2015-09-16 2016-02-24 株式会社コロプラ 仮想現実空間映像表示方法、及び、プログラム
US10026212B2 (en) * 2015-11-20 2018-07-17 Google Llc Electronic display stabilization using pixel velocities
JP6714791B2 (ja) * 2016-07-13 2020-07-01 株式会社バンダイナムコエンターテインメント シミュレーションシステム及びプログラム
KR20180028796A (ko) * 2016-09-09 2018-03-19 삼성전자주식회사 이미지 표시 방법, 저장 매체 및 전자 장치
US10565777B2 (en) * 2016-09-30 2020-02-18 Sony Interactive Entertainment Inc. Field of view (FOV) throttling of virtual reality (VR) content in a head mounted display
US10754529B2 (en) * 2016-10-28 2020-08-25 Adobe Inc. Facilitating editing of virtual-reality content using a virtual-reality headset

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006155063A (ja) * 2004-11-26 2006-06-15 Seiko Epson Corp 画像補正装置、画像補正方法およびコンピュータプログラム
JP2015521322A (ja) * 2012-05-18 2015-07-27 トムソン ライセンシングThomson Licensing パノラマピクチャの処理
JP2014153893A (ja) * 2013-02-07 2014-08-25 Sony Computer Entertainment Inc 描画処理装置および描画処理方法
JP2018049614A (ja) * 2016-09-15 2018-03-29 トムソン ライセンシングThomson Licensing ビデオにおける仮想オブジェクトをボカす方法及びデバイス
WO2018062538A1 (ja) * 2016-09-30 2018-04-05 株式会社ニコン 表示装置およびプログラム

Also Published As

Publication number Publication date
JP7210180B2 (ja) 2023-01-23
EP3599589A1 (en) 2020-01-29
US20200035039A1 (en) 2020-01-30
US11328494B2 (en) 2022-05-10

Similar Documents

Publication Publication Date Title
JP7395577B2 (ja) 再投影フレームのモーションスムージング
JP6514826B2 (ja) ピクセル速度を用いた電子ディスプレイ安定化
JP7051457B2 (ja) 画像処理装置、画像処理方法、及びプログラム
EP3590091B1 (en) Antialiasing in inpainted images
WO2020143191A1 (en) Image frame prediction method, image frame prediction apparatus and head display apparatus
KR102316061B1 (ko) 화상 처리장치, 방법 및 컴퓨터 프로그램
US9824429B2 (en) Image processing apparatus and method, and program
CN115088254A (zh) 分布式系统中的运动平滑
JP5645450B2 (ja) 画像処理装置および方法
CN110460835B (zh) 图像处理装置及其控制方法和计算机可读存储介质
WO2019198570A1 (ja) 映像生成装置、映像生成方法、プログラム、およびデータ構造
CN113286138A (zh) 一种全景视频显示方法及显示设备
EP4083993A1 (en) Systems and methods employing multiple graphics processing units for producing images
JP7293208B2 (ja) マルチ・ビュー・コンテンツを観察するユーザに情報を提示する方法及び機器
US10417789B2 (en) Motion blur using cached texture space blur
JP7210180B2 (ja) 画像処理装置、画像表示装置、画像処理方法、及びプログラム
CN111263951A (zh) 用于对全景视图中的重叠区进行快速图像融合的方法和系统
KR102517104B1 (ko) 가상 현실 시스템에서 이미지 처리 방법 및 장치
JP2022064148A (ja) 画像処理装置、画像処理方法
CN114788251A (zh) 在静态图像中编码立体闪屏
EP3800619A1 (en) Variable rendering system and method
Sakakibara et al. Seeing temporal modulation of lights from standard cameras
JP7161865B2 (ja) 映像解析装置及びそのプログラム
US11423516B2 (en) Gaze enhanced natural motion blur
JP2024085780A (ja) 画像処理装置、画像処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210721

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210721

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230111

R151 Written notification of patent or utility model registration

Ref document number: 7210180

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151