JP6305942B2 - 画像質感操作方法、画像質感操作装置、およびプログラム - Google Patents

画像質感操作方法、画像質感操作装置、およびプログラム Download PDF

Info

Publication number
JP6305942B2
JP6305942B2 JP2015001402A JP2015001402A JP6305942B2 JP 6305942 B2 JP6305942 B2 JP 6305942B2 JP 2015001402 A JP2015001402 A JP 2015001402A JP 2015001402 A JP2015001402 A JP 2015001402A JP 6305942 B2 JP6305942 B2 JP 6305942B2
Authority
JP
Japan
Prior art keywords
image
region
image area
moving
vicinity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015001402A
Other languages
English (en)
Other versions
JP2016126641A (ja
Inventor
隆寛 河邉
隆寛 河邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015001402A priority Critical patent/JP6305942B2/ja
Publication of JP2016126641A publication Critical patent/JP2016126641A/ja
Application granted granted Critical
Publication of JP6305942B2 publication Critical patent/JP6305942B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像の質感を操作する技術に関する。
空気層側からそれと屈折率の異なる透明層の向こう側にあるシーンを見ると、そのシーンの画像情報は透明層表面での屈折によって変形して見える。従来の研究により、人間は低空間周波数の変形情報によって透明層(例えば透明液体)の質感(以下「透明層質感」)を知覚することが知られている(例えば、非特許文献1参照)。このような変形情報を持つように画像を人工的に変形させることで、透明層質感を錯覚的に知覚させることもできる(例えば、非特許文献2参照)。
Kawabe, T., Maruya, K., Nishida, S., "Seeing transparent liquids from dynamic image distortion," Abstract for poster presentation at the 12nd Vision Science Society, Journal of Vision, 13(9):208, 2013. 河邉隆寛,"動きから素材を見抜く〜映像中の動き成分に基づく液体の知覚〜",NTTコミュニケーション科学基礎研究所,オープンハウス2014,[平成26年11月6日検索],インターネット<http://www.kecl.ntt.co.jp/openhouse/2014/exhibition/26/poster.pdf>
しかしながら、非特許文献2に記載された技術では変形情報を前もって定めておかなければならず、透明層質感を与える画像領域を動的に操作できない。
本発明の課題は、透明層質感を与える画像領域を動的に操作することである。
第1画像領域の動き情報が表す動きに基づいて第1画像領域に対応する形状の第2画像領域および第2画像領域の近傍を歪ませる。
これにより、透明層質感を与える画像領域を動的に操作できる。
図1は実施形態の構成を例示するためのブロック図である。 図2Aから図2Cは変形部の処理を例示するための図である。 図3Aから図3Cは変形部の処理を例示するための図である。 図4Aおよび図4Bは変形部の処理を例示するための図である。 図5Aおよび図5Bは変形された画像を例示した図である。 図6Aおよび図6Bは変形された画像を例示した図である。
以下、本発明の実施形態を説明する。
[概要]
各実施形態では、第1画像領域の動き情報が表す動きに基づいて第1画像領域に対応する形状の第2画像領域および第2画像領域の近傍を歪ませる。これにより、透明層質感(例えば、透明液体の質感)を与える画像領域を動的に操作できる。この手法では、透明層質感を与えるための変形情報を前もって定めておく必要がない。さらに画像の背景領域を事前に検出しておく必要もなく、リアルタイムで背景領域が変動する場合でも効果が得られる。
「第1画像領域」は、リアルタイムに撮影または配信される動画像の「動きを持つ画像領域」であってもよいし、事前に得られた動画像の「動きを持つ画像領域」であってもよいし、仮想的な「動きを持つ画像領域」であってもよい。「動きを持つ画像領域」とは、連続するフレーム間で空間変化が生じる画像領域を意味する。「第1画像領域の動き情報」は、「第1画像領域」の動きを表す情報であり、例えば「第1画像領域」に含まれる各画素(ピクセル)の動きの大きさおよび向きを表す情報である。例えば「第1画像領域の動き情報」は、「第1画像領域」に含まれる各画素の移動速度成分(単位時間当たりの各画素の移動量)を表すパラメータ(例えばベクトル)の集合であり、その例はオプティカルフロー(フレーム間の画素の動きの方向と量)である。「第1画像領域の動き情報」は、動画像から計算によって得られてもよいし、仮想的な画像領域のシミュレーションによって得られてもよい。通常、「動き情報」はすべての画像領域について得られ、それに基づいて「第1画像領域」(動きを持つ画像領域)およびそれに対応する「第2画像領域」が決まる。
「第2画像領域」は画像の領域である。「画像」の概念は「動画像」および「静止画像」を含む。「第1画像領域」および「第2画像領域」は、同一の動画像に含まれるフレームの画像領域であってもよいし、互いに異なる動画像に含まれるフレームの画像領域であってもよい。あるいは、「第1画像領域」が動画像に含まれるフレームの画像領域であり、「第2画像領域」が別の静止画像に含まれる画像領域であってもよい。「第1画像領域」が仮想的な画像領域である場合には、「第2画像領域」が任意の画像に含まれる領域であってもよい。「第2画像領域」は「第1画像領域に対応する形状」を持つ。言い換えると、「第2画像領域」は「第1画像領域の形状」に基づいて定まる形状を持つ。例えば、「第1画像領域」の形状と「第2画像領域」の形状とが相似もしくは略相似であるか、または「第1画像領域」の反転形状と「第2画像領域」の形状とが相似もしくは略相似である。「相似」の概念は合同(同一)をも含む。
画像内(フレーム内)の「第2画像領域」の位置は、例えば「第1画像領域」の位置に対応する。例えば、「第2画像領域」は「第1画像領域」の動きに応じて移動する。例えば、「第1画像領域」の各画素の座標と「第2画像領域」の各画素の座標とは同一である。あるいは、「第1画像領域」の各画素の座標を反転(水平方向の反転、垂直方向の反転、またはそれら両方)、回転、シフトの少なくとも何れか行ったものを「第2画像領域」の各画素の座標としてもよい。画素の「シフト」は、それらの画素を含む「画像領域」を拡大するものであってもよいし、縮小するものであってもよいし、拡大も縮小も伴わないものであってもよい。また、「第1画像領域の動き情報」が表す動きに基づいて「第2画像領域」を移動させてもよい。これにより、「第1画像領域」の動きに応じて、透明層質感を与える画像領域を移動させつつ、透明層質感の印象を操作できる。
「第2画像領域」および「第2画像領域」の近傍を歪ませる方法(変形方法)に限定はなく、どのように画像を歪ませてもよい。例えば、「動き情報」が表す動きに倣う向きに「第2画像領域」および「第2画像領域」の近傍の画素値を移動させることで、「第2画像領域」および「第2画像領域」の近傍を歪ませることができる。「αの近傍」は、αに隣接する領域であり、例えばαからの距離が所定値を超えない範囲に含まれる領域である。また「動きに倣う向き」は、「動き」の方向成分を含む向きであり、例えば「動き」の方向に沿った向きや「動き」の方向と同一の向きである。例えば、「第1画像領域」の第1座標(X’,Y’)の「動き情報」が表す動きに倣う向きに、当該第1座標(X’,Y’)に対応する「第2画像領域」の第2座標(X”,Y”)へ画素値を移動させる(方法1)。あるいは、例えば「第1画像領域」の第3座標(x’,y’)の「動き情報」が表す動きに倣う向きに、当該第3座標(x’,y’)に対応する「第2画像領域」の第4座標(x”,y”)の画素値を移動させる(方法2)。なお、他の座標から画素値が移動してこない限り、画素値の移動元の座標の画素値は維持される。方法1の場合、動きを持つ第1座標(X’,Y’)に対応する第2座標(X”,Y”)は必ず画素値の移動先となり、「第2画像領域」の全領域およびその近傍が変形する。一方、方法2の場合、「第2画像領域」の全領域が画素値の移動先となるとは限らず、「第2画像領域」の一部の領域が変形しない場合もある。そのため、方法2よりも方法1のほうが望ましい。ただし、方法2であっても「第2画像領域」の少なくとも一部の空間変位を鈍らせる(平滑化する)ことで、画素値の移動先ではない領域を変形させることができる。この処理には、例えばガウシアンフィルタを用いることができる。
また「第1画像領域の動き情報」が表す動きの大きさが第1値aのときの「第2画像領域」および「第2画像領域」の近傍の歪みの大きさdが、「第1画像領域の動き情報」が表す動きの大きさが第2値aのときの歪みの大きさdよりも小さくなる(d<d)ように歪ませることが望ましい。なお、第1値aは第2値aよりも小さい(a<a)。例えば、「歪みの大きさ」が「動きの大きさ」に対して広義単調増加(非減少)する関係となるように歪ませる。その一例は、「動きの大きさ」が大きいほど「歪みの大きさ」が大きくなるようにすることである。なお、「歪みの大きさ」の例は、単位時間あたりの画素値の移動量である。
ただし、「動きの大きさ」が大きすぎると「歪みの大きさ」も大きくなり、適切な透明層質感を与えることが困難となる場合もある。そのため、「動きの大きさ」の増加に伴う「歪みの大きさ」の増加が抑制されてもよい。例えば、「動きの大きさ」が第2区間γで所定量Δa変化するときの「歪みの大きさ」の変化量Δdが、「動きの大きさ」が第1区間γで所定量Δa変化するときの「歪みの大きさ」の変化量Δdよりも小さくてもよい(Δd<Δd)。ただし、第2区間γは第1区間γよりも大きな値が属する区間である。例えば、「動きの大きさ」が閾値以下の範囲では「動きの大きさ」が大きいほど「歪みの大きさ」を大きくするが、「動きの大きさ」が閾値以上の範囲では「歪みの大きさ」を一定(「動きの大きさ」が閾値のときの「歪みの大きさ」)に保ってもよい。また「動きの大きさ」の単位変化あたりの「歪みの大きさ」の変化量が、「動きの大きさ」が大きくなるにつれて小さくなってもよい。例えば、「動きの大きさ」の増加に伴って「動きの大きさ」が所定の極限値に近づいてもよい。
一方、「動き情報」が微小振動等のノイズ成分を含む場合がある。このようなノイズ成分に応じて画像を変形させたのでは、画像の透明層質感に悪影響を及ぼすこともある。そのため、「動き情報」が表す動きの大きさがある程度以上(例えば、閾値以上)の場合にのみ、「第2画像領域」および「第2画像領域」の近傍を歪ませてもよい。
「動き情報が表す動き」の空間変化が大きいと、「歪みの大きさ」の空間変化も大きくなり、適切な透明層質感を与えることが困難となる場合がある。そのため、「動き情報が表す動き」の空間変化を鈍らせた動きに基づいて「第2画像領域」および「第2画像領域」の近傍を歪ませてもよい。また「第2画像領域」および「第2画像領域」の近傍の歪みの空間変化を鈍らせてもよい。これらの処理には、例えばガウシアンフィルタを用いることができる。
また、「動き情報」が表す動きに基づいて、さらに「第2画像領域」または「第2画像領域」の近傍の少なくとも一方の色属性(少なくとも、色相、彩度、明度の何れか)を変更してもよい。これにより、より多彩な表現が可能となる。
[第1実施形態]
第1実施形態では、リアルタイムに取得した動画像のオプティカルフローを計算し、そのオプティカルフローに基づいて動画像中の画像領域を局所的に変形させる。これにより、対象の形状に合わせた透明層質感をインタラクティブに与える。
<構成>
図1に例示するように、本形態のシステムは、動画像取得装置12、画像質感操作装置11、および表示装置13を有する。画像質感操作装置11は、動き情報抽出部111および変形部112を有する。動画像取得装置12は、例えば、デジタルビデオカメラやスマートフォン端末装置等の動画像を撮影する装置である。画像質感操作装置11は、例えば、CPU(central processing unit)等のプロセッサ(ハードウェア・プロセッサ)やRAM(random-access memory)・ROM(read-only memory)等のメモリ等を備える汎用または専用のコンピュータが所定のプログラムを実行することで構成される装置である。このコンピュータは1個のプロセッサやメモリを備えていてもよいし、複数個のプロセッサやメモリを備えていてもよい。このプログラムはコンピュータにインストールされてもよいし、予めROM等に記録されていてもよい。また、CPUのようにプログラムが読み込まれることで機能構成を実現する電子回路(circuitry)ではなく、プログラムを用いることなく処理機能を実現する電子回路を用いて一部またはすべての処理部が構成されてもよい。また、1個の装置を構成する電子回路が複数のCPUを含んでいてもよい。表示装置13は、例えば、モニター、ヘッドマウントディスプレイ、プロジェクター、電子ペーパーなど画像を表示する汎用装置である。
<処理>
動画像取得装置12で動対象を撮影することで得られた動画像Minは、動き情報抽出部111および変形部112に入力される(図1)。動画像Minは、3つの色チャネル(RGBの光の三原色のチャネル)で構成され、それぞれのチャンネルの情報は時空間の3次元配列として表現できる。ここではMinを式(1)のように定義する。

ただし、xは水平位置を表す座標値であり、yは垂直位置を表す座標値であり、tは時間位置を表すフレーム番号である。x,yおよびtは、それぞれxmin≦x≦xmax、ymin≦y≦ymax、およびtmin≦t≦tmaxの関係を満たす。ただし、xminおよびxmaxは水平位置を表す座標値の最小値および最大値であり(xmin<xmax)、yminおよびymaxは垂直位置を表す座標値の最小値および最大値であり(ymin<ymax)、tminおよびtmaxはフレーム番号の最小値および最大値である(tmin<tmax)。R(x,y,t),G(x,y,t),B(x,y,t)は、それぞれR,G,Bチャネルのフレーム番号tの座標(x,y)の画素値を表す。{R(x,y,t)},{G(x,y,t)},{B(x,y,t)}は、それぞれR(x,y,t),G(x,y,t),B(x,y,t)を要素とする時空間の3次元配列を表す(ただし、xmin≦x≦xmax、ymin≦y≦ymax、およびtmin≦t≦tmax)。
動き情報抽出部111は、入力された動画像Minのオプティカルフロー(動き情報)をリアルタイムに計算して出力する。例えば、動き情報抽出部111は、動画像Minから静止画像を2フレームずつ(例えば、連続する2フレームずつ)抽出し、これら2フレームごとに各座標のオプティカルフローを計算する。オプティカルフローの計算方法はどのようなものでも構わない。ただし、その計算に時間がかかると最終的に表示する動画像Moutのフレームレートが小さくなってしまい本技術の効果が弱くなる。そのため、可能な限り高速なオプティカルフロー計算アルゴリズムを用いることが望ましい。例えば、動き情報抽出部111は、まず動画像Minをグレースケール動画像GMinに変換する。グレースケール動画像GMin(x,y,t)は、輝度値E(x,y,t)(ただし、xmin≦x≦xmax、ymin≦y≦ymax、およびtmin≦t≦tmax)を要素とする時空間の3次元配列{E(x,y,t)}のみからなる。オプティカルフロー検出の基本的な拘束条件として、画素の移動中にはその輝度が変化しないというものがある(輝度一定の拘束)。この拘束条件のもとで輝度値E(x,y,t)が微小時間δt後に座標(x+δx,y+δy)に移動したとすると、式(2)が成立する。
E(x+δx,y+δy,t+δt)=E(x,y,t) (2)
式(2)の左辺を(x,y,t)のまわりでテーラー展開すると式(3)が得られる。
E(x+δx,y+δy,t+δt)
=E(x,y,t)+Eδ+Eδ+Eδ+ε (3)
ただし、E,E,Eは、それぞれ、添え字x,y,tに関する偏微分値の一次項である。εはδ,δ,δに関する2次以上の項である。
式(3)を式(2)の左辺に代入してδtで割る。δt→0の極限ではεを無視することができ、式(4)が成立する。
uE+vE+E=0 (4)
ただし、

である。式(4)における速度成分uおよびvを求めるのがオプティカルフロー計算アルゴリズムである。式(4)のみではuおよびvを求めることができないので、「輝度一定の拘束」以外の拘束条件も用いつつ、uおよびvを求める。オプティカルフローは、1フレームあたりの水平方向のピクセル移動量u(x,y)および垂直方向のピクセル移動量v(x,y)として算出される。以下では、便宜上、フレーム番号t−1およびtの静止画像から抽出されたオプティカルフローを(u(x,y,t),v(x,y,t))と表現する。フレームtが先頭フレームの場合には、例えばオプティカルフロー(u(x,y,t),v(x,y,t))を定数(例えば、零ベクトル)としてもよい。オプティカルフロー(u(x,y,t),v(x,y,t))(ただし、xmin≦x≦xmax、ymin≦y≦ymax、およびtmin≦t≦tmax)は変形部112に送られる。
変形部112は、入力されたオプティカルフロー(u(x,y,t),v(x,y,t))に基づいて、入力された動画像Minの画素値を移動させて動画像Moutを得る。すなわち、動画像Minの「第1画像領域」のオプティカルフロー(u(x,y,t),v(x,y,t))(動き情報)が表す動きに基づいて、「第1画像領域」に対応する形状の動画像Minの「第2画像領域」および「第2画像領域」の近傍を歪ませた動画像Moutを得て出力する。オプティカルフローおよび動画像Moutの生成は所定の時間区間ごと(例えばフレームごと)に行われ、得られた動画像Moutが順次出力される。以下にこの具体例を示す。
オプティカルフロー(u(x,y,t),v(x,y,t))に基づく空間変換関数T(u(x,y,t),v(x,y,t))を定義する。空間変換関数T(u(x,y,t),v(x,y,t))は、オプティカルフロー(u(x,y,t),v(x,y,t))に応じ、座標(x,y,t)の画素値I(x,y,t)を座標(x,y,t)に移動し、それを座標(x,y,t)の画素値O(x,y,t)とする。ただし、xmin≦x,x≦xmax、ymin≦y,y≦ymax、およびtmin≦t,t≦tmaxである。t=tであってもよいし、t≠tであってもよい。別の座標の画素値が座標(x,y,t)に移動してこない限り、座標(x,y,t)の画素値I(x,y,t)は維持される。以上のような、座標(x,y,t)の画素値I(x,y,t)と、オプティカルフロー(u(x,y,t),v(x,y,t))と、それによって変形される座標(x,y,t)の画素値O(x,y,t)との関係を式(6)のように表記する。
O(x2,y2,t2)=T(u(x,y,t),v(x,y,t))I(x1,y1,t1) (6)
T(u(x,y,t),v(x,y,t))の具体例は、座標(x,y,t)の画素値I(x,y,t)を、x=x+u(x,y,t),y=y+v(x,y,t)を満たす座標(x,y,t)に移動する空間変換関数である(具体例1)。あるいは、T(u(x,y,t),v(x,y,t))が、座標(x,y,t)の画素値I(x,y,t)を、x=x+f(u(x,y,t)),y=y+f(v(x,y,t))を満たす座標(x,y,t)へ移動するものであってもよい。ただし、fおよびfは関数(例えば、広義単調増加関数または広義単調減少関数)である(具体例2)。その他、T(u(x,y,t),v(x,y,t))が、座標(x,y,t)の画素値I(x,y,t)を、x=x+f(v(x,y,t)),y=y+f(u(x,y,t))満たす座標(x,y,t)(具体例3)、または、x=x+f(u(x,y,t),v(x,y,t)),y=y+f(u(x,y,t),v(x,y,t))を満たす座標(x,y,t)(具体例4)へ移動するものであってもよい。T(u(x,y,t),v(x,y,t))は、「第1画像領域」のオプティカルフロー(u(x,y,t),v(x,y,t))の大きさ(例えば、u(x,y,t)およびv(x,y,t)の2乗和)が第1値aのときの「第2画像領域」および「第2画像領域」の近傍の歪みの大きさdが、「第1画像領域」のオプティカルフロー(u(x,y,t),v(x,y,t))の大きさが第2値aのときの歪みの大きさdよりも小さくなる(d<d)ように歪ませるものであることが望ましい。
《方法1の例》
前述した「方法1」の場合、動画像Minの「第1画像領域」の座標(X’,Y’,t)のオプティカルフロー(u(X’,Y’,t),v(X’,Y’,t))が表す動きに倣う向きに、式(7)の画素値I(x”,x”,t1)を、座標(X’,Y’,t)に対応する「第2画像領域」の座標(X”,Y”,t)へ移動させ、動画像Moutを得る。
I(x”,x”,t1)=T-1(u(X’,Y’,t),v(X’,Y’,t))O(X”,Y”,t2) (7)
ただし、T−1(u(X’,Y’,t),v(X’,Y’,t))はT(u(X’,Y’,t),v(X’,Y’,t))の逆空間変換関数である。すなわち、T−1(u(X’,Y’,t),v(X’,Y’,t))は、座標(X”,Y”,t)の画素値O(X”,Y”,t)を座標(x”,y”,t)に移動する。例えば、T(u(X’,Y’,t),v(X’,Y’,t))が座標(x”,y”,t)の画素値I(x”,y”,t)を、X”=x”+u(X’,Y’,t),Y”=y”+v(X’,Y’,t)を満たす座標(X”,Y”,t)に移動する空間変換関数である場合(前述の具体例1)、T−1(u(X’,Y’,t)は、座標(X”,Y”,t)の画素値I(X”,Y”,t)を、x”=X”−u(X’,Y’,t),y”=Y”−v(X’,Y’,t)を満たす座標(x”,y”,t)に移動する逆空間変換関数である。なお、座標(X”,Y”,t)は座標(X’,Y’,t)に応じて移動する。
図2A〜図2Cを用いて《方法1の例》を具体的に説明する。図2A,2B,2Cは、それぞれ、フレーム番号n,n+1,n+2の画像100,100n+1,100n+2を例示する。例えば、画像100,100n+1から、第1画像領域101,101n+1内の座標(X’,Y’,n),(X’,Y’,n+1)に対応するオプティカルフロー(u(X’,Y’,n+1),v(X’,Y’,n+1))が得られたと仮定する(図2A,図2B)。この場合、例えばフレーム番号n+2の画像100n+2において、式(8)の画素値I(x”,y”,n+2)を、第1画像領域101n+2の座標(X’,Y’,n+2)に対応する第2画像領域102n+2の座標(X”,Y”,n+2)へ移動させる(図2C)。
I(x”,y”,n+2)=T-1(u(X’,Y’,n+1),v(X’,Y’,n+1))O(X”,Y”,n+2) (8)
この例の場合、動きを持つ第1画像領域101,101n+1に対応する第2画像領域102n+2の内の各座標は必ず何れかの画素値の移動先となる。そのため、動きを持つ第1画像領域101,101n+1に対応する第2画像領域102n+2の全領域およびその近傍は必ず変形する。なお、式(8)の画素値I(x”,y”,n+2)の座標値x”,y”が小数となり、画素値I(x”,y”,n+2)が実在しない場合には、(x”,y”,n+2)近傍の実在する座標の座標値を用いて画素値I(x”,y”,n+2)を内挿(補完)する。
《方法2の例》
前述した「方法2」の場合、動画像Minの「第1画像領域」の座標(x’,y’,t)のオプティカルフロー(u(x’,y’,t),v(x’,y’,t))が表す動きに倣う向きに、座標(x’,y’,t1)に対応する「第2画像領域」の座標(x”,y”,t1)の画素値を、式(9)の画素値O(X”,Y”,t)として移動させ、動画像Moutを得る。
O(X”,Y”,t2)=T(u(x’,y’,t),v(x’,y’,t))I(x”,x”,t1) (9)
座標(x”,y”,t1)は座標(x’,y’,t)に応じて移動する。
図3A〜図3Cを用いて《方法2の例》を具体的に説明する。この例では、画像100,100n+1から、第1画像領域101,101n+1内の座標(x’,y’,n),(x’,y’,n+1)に対応するオプティカルフロー(u(x’,y’,n+1),v(x’,y’,n+1))が得られたと仮定する(図3A,図3B)。この場合、例えばフレーム番号n+2の画像100n+2において、第1画像領域101n+2の座標(x’,y’,n+2)に対応する第2画像領域102n+2の座標(x”,y”,n+2)の画素値I(x”,y”,n+2)を、式(9)の座標(X”,Y”,n+2)へ移動させる(図2C)。
O(X”,Y”,n+2)=T(u(X’,Y’,n+1),v(X’,Y’,n+1))I(x”,y”,n+2) (9)
この例の場合、座標(x’,y’,n+2)が存在しなかったり(例えば、x’またはy’が小数となったり、座標の上限または下限を超えたり)、座標(x’,y’,n+2)が第2画像領域102n+2の外側となったりすることもある。この場合、動きを持つ第1画像領域101,101n+1に対応する第2画像領域102n+2の内のすべての座標が何れかの画素値の移動先となるとは限らない。例えば、図4Aの第2画像領域102n+2の領域1021n+2のように、画素値の移動先とはならず、画素値が変化しない領域も生じ得る。このような場合であっても、図4Bのようなガウシアンフィルタ1022n+2を用い、領域1021n+2を含む領域の空間変位を鈍らせることで、このような領域1021n+2を変形させることができる。
変形部112から順次出力された動画像Moutは表示装置13に入力される。表示装置13は、入力された動画像Moutを順次画面上に表示する。本形態では、オプティカルフローが検出されなかった(すなわち、u(x,y,t)およびv(x,y,t)が0であった、もしくは0に近かった)領域に対応する画像領域ではピクセルが移動しない、つまり変形(歪み)が生じない。このように、変形する領域と変形しない領域とをオプティカルフローの大きさで制御することにより、運動する対象の形状に応じた変形(歪み)を画像に加えることができる。変形の加えられた画像領域は、非特許文献1および非特許文献2の原理により透明の液体のように見える。このようにして、対象の動きと形状に応じた透明液体領域(透明層質感を与える画像領域)を表示できる。なお、透明の液体のような印象を十分に与えるためには動画像のフレームレートを20Hz以上に保つことが望ましいが(例えば非特許文献2参照)、それ以下であってもかまわない。
[第2実施形態]
対象の動きの量が大きいと、得られるu(x,y,t)やv(x,y,t)も大きくなる。u(x,y,t)やv(x,y,t)が大きすぎると画像も過剰に変形し、透明層質感を知覚させるように画像を変形させることが難しくなる。そのため、u(x,y,t)およびv(x,y,t)に関する閾値を設け、u(x,y,t)またはv(x,y,t)が閾値以上になった場合に、閾値の値をu(x,y,t)またはv(x,y,t)としてもよい。これにより、変形後の画像の質を保つことができる。また、動画像取得装置12自体の揺れやオートフォーカスなどによる微細なオプティカルフローの影響を排除するために、u(x,y,t)およびv(x,y,t)に関する他の閾値を設け、u(x,y,t)またはv(x,y,t)がこの閾値以下になった場合に、閾値以下となったu(x,y,t)またはv(x,y,t)を0にしてもよい。以下では第1実施形態との相違点を中心に説明し、説明済みの事項については同じ参照番号を引用して説明を省略する。
<構成>
図1に例示するように、本形態のシステムは、動画像取得装置12、画像質感操作装置21、および表示装置13を有する。画像質感操作装置21は、第1実施形態の画像質感操作装置11に制限部213を追加したものである。
<処理>
第1実施形態の処理との相違点は制限部213の処理のみである。以下では制限部213の処理のみを例示する。動き情報抽出部111から出力されたオプティカルフロー(u(x,y,t),v(x,y,t))は制限部213に入力される。制限部213は、u(x,y,t)およびv(x,y,t)と閾値THおよびTH(ただし、TH>TH>0)とを比較する。TH>u(x,y,t)>THである場合、制限部213は、u(x,y,t)をそのまま出力する。u(x,y,t)≧THである場合、制限部213は、u(x,y,t)=THを出力する。u(x,y,t)≦THである場合、制限部213は、u(x,y,t)=0を出力する。同様に、TH>v(x,y,t)>THである場合、制限部213は、v(x,y,t)をそのまま出力する。v(x,y,t)≧THである場合、制限部213は、v(x,y,t)=THを出力する。v(x,y,t)≦THである場合、制限部213は、v(x,y,t)=0を出力する。出力されたu(x,y,t)およびv(x,y,t)は変形部112に入力される。その他は第1実施形態と同じである。なお、本形態では閾値を用いてu(x,y,t)やv(x,y,t)の上限を制限したが、前述のようにu(x,y,t)やv(x,y,t)(動きの大きさ)の増加に伴う「歪みの大きさ」の増加を抑制する方法であれば、どのような方法が用いられてもよい。
[第3実施形態]
ガウシアンフィルタをu(x,y,t)およびv(x,y,t)に適用することで、u(x,y,t)およびv(x,y,t)の空間変化を滑らかにする(鈍らせる)ことができる。u(x,y,t)およびv(x,y,t)の空間変化を滑らかにすることで、「第2画像領域」およびその近傍の空間変換が滑らになり、結果的に変形も滑らかになる。これにより、滑らかな波面をもった透明液体の質感を表示できる。
<構成>
図1に例示するように、本形態のシステムは、動画像取得装置12、画像質感操作装置31、および表示装置13を有する。画像質感操作装置31は、画像質感操作装置11に平滑化部313を追加したものである。
<処理>
第1実施形態の処理との相違点は平滑化部313の処理のみである。平滑化部313は、オプティカルフロー(u(x,y,t),v(x,y,t))を入力とし、その空間変位をガウシアンフィルタによって鈍らせたオプティカルフロー(u’(x,y,t),v’(x,y,t))を出力する。オプティカルフロー(u’(x,y,t),v’(x,y,t))は変形部112に入力される。その後の処理は(u(x,y,t),v(x,y,t))が(u’(x,y,t),v’(x,y,t))に置換される以外、第1実施形態と同じである。
なお、本形態ではガウシアンフィルタを用いてオプティカルフローの空間変位を鈍らせたが、移動平均フィルタ等のその他のフィルタが用いられてもよい。すなわち、オプティカルフロー(動き情報)が表す動きの空間変化を鈍らせた動きに基づいて「第2画像領域」および「第2画像領域」の近傍を歪ませるのであれば、どのような手段が用いられてもよい。また、オプティカルフローの空間変位を鈍らせることに加え、またはそれに代えて、「第2画像領域」および「第2画像領域」の近傍の歪みの空間変化を鈍らせてもよい。
また、第2実施形態の画像質感操作装置21に平滑化部313を加え、制限部213から出力されたオプティカルフローの空間変位を鈍らせ、空間変位を鈍らせたオプティカルフローを変形部112に入力してもよい。あるいは、平滑化部313が、動き情報抽出部111から出力されたオプティカルフローの空間変位を鈍らせ、空間変位を鈍らせたオプティカルフローを制限部213に入力してもよい。
[第4実施形態]
オプティカルフローに応じて「第2画像領域」および「第2画像領域」の近傍を変形させることに加え、オプティカルフローに応じて「第2画像領域」または「第2画像領域」の近傍の少なくとも一方の色属性を変更してもよい。
<構成>
図1に例示するように、本形態のシステムは、動画像取得装置12、画像質感操作装置41、および表示装置13を有する。画像質感操作装置41は、画像質感操作装置11に色属性変更部413を追加したものである。
<処理>
第1実施形態の処理との相違点は色属性変更部413の処理のみである。色属性変更部413は、変形部112に入力されたオプティカルフローおよび変形部112から出力された動画像を入力とし、オプティカルフローに応じて「第2画像領域」または「第2画像領域」の近傍の少なくとも一方の色属性を変更する。例えば、オプティカルフローが表す動きの大きさや変化量に応じて色相、彩度、明度の何れかを変更する。色属性変更部413から出力された動画像は表示装置13から出力される。これにより、より多様な表現が可能となる。また、第2実施形態または第3実施形態の画像質感操作装置21,31に色属性変更部413を加え、同様な処理が行われてもよい。
[第5実施形態]
第1〜4実施形態では、動画像Minからオプティカルフローを取得し、このオプティカルフローに応じてこの動画像Minの「第2画像領域」およびその近傍を変形させた。しかしながら、動画像Minからオプティカルフローを取得し、このオプティカルフローに応じて動画像Minとは別の画像Min2の「第2画像領域」およびその近傍を変形させてもよい。また、第1〜4実施形態では、リアルタイムに取得したオプティカルフローによって画像を変形させたが、事前に取得した対象のオプティカルフローを用いて事後的に画像を変形させても構わない。この場合、実対象のオプティカルフローだけではなく、シミュレーションによって生成したオプティカルフローでもかまわない(Bex, P. (2010). (In) Sensitivity to spatial distortion in natural scenes. Journal of Vision, 10(2): 23, 1-15.)。
[表示画像の例示]
動画像Moutの表示画像を例示する。図5Aおよび図5Bは、第1実施形態のように動画像Minから取得したオプティカルフローに対し、第2実施形態のように上限と下限との制限を加え、第3実施形態のように空間的に鈍らせた後、そのオプティカルフローに応じて当該動画像Minの「第2画像領域」およびその近傍を変形させた動画像Moutの表示画像を例示している。図6Aおよび図6Bは、第1実施形態のように動画像Minから取得したオプティカルフローに対し、第2実施形態のように上限と下限とに制限を加え、第3実施形態のように空間的に鈍らせた後、そのオプティカルフローに応じて当該動画像Minとは別の画像Min2(静止画像)の「第2画像領域」およびその近傍を変形させた動画像Moutの表示画像を例示している。これらの例からも分かるように、対象の動きや形状に基づき、動画像中の透明液体印象領域をインタラクティブに制御できる。例えば、「透明人間」の動画像を容易に生成することができる。このために背景領域の検出を事前に行う必要がなく、動画像取得装置12を移動させながらでも効果が得られる。
[その他の変形例]
なお、本発明は上述の実施の形態に限定されるものではない。例えば、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。
上述の構成をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。このプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体の例は、非一時的な(non-transitory)記録媒体である。このような記録媒体の例は、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等である。
このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。処理の実行時、このコンピュータは、自己の記録装置に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。
上記実施形態では、コンピュータ上で所定のプログラムを実行させて本装置の処理機能が実現されたが、これらの処理機能の少なくとも一部がハードウェアで実現されてもよい。
11,21,31,41 画像質感操作装置

Claims (8)

  1. 第1画像領域に対応する形状の第2画像領域および前記第2画像領域の近傍を歪ませる画像質感操作方法であって、
    動画像から所定の時間区間ごとに連続するnフレーム(nは2以上の整数)の静止画像を抽出し、抽出した前記nフレームの静止画像から順次計算された、画像中の各画素の移動方向および移動量速度成分を表すオプティカルフローを、それぞれ第1の動き情報として得るステップと、
    前記第1の動き情報それぞれにガウシアンフィルタリングまたは平滑化フィルタリングを適用することで得られる第2の動き情報の通りに、動画像中の連続するフレームの静止画像中の画素値を移動させることで、前記第2画像領域および前記第2画像領域の近傍を歪ませるステップと、
    を有し、
    前記第1画像領域は、前記第1の動き情報に基づいて定まる前記動画像中の動きを持つ画像領域であり、
    前記第2画像領域および前記第2画像領域の近傍の領域は、前記第1画像領域の形状と相似もしくは略相似であるか、前記第1画像領域の形状の反転形状と相似もしくは略相似である、画像質感操作方法。
  2. 第1画像領域に対応する形状の第2画像領域および前記第2画像領域の近傍を歪ませる画像質感操作方法であって、
    動画像から所定の時間区間ごとに連続するnフレーム(nは2以上の整数)の静止画像を抽出し、抽出した前記nフレームの静止画像から順次計算された、画像中の各画素の移動方向および移動量速度成分を表すオプティカルフローを、それぞれ第1の動き情報として得るステップと、
    前記第1の動き情報に基づいて定まる前記第1画像領域の各画素の座標を、回転または反転、および/または、前記第1画像領域を空間的に拡大または縮小することで得られる第3の動き情報のそれぞれにガウシアンフィルタリングまたは平滑化フィルタリングを適用することで得られる第4の動き情報の通りに、動画像中の連続するフレームの静止画像中の画素値を移動させることで、前記第2画像領域および前記第2画像領域の近傍を歪ませるステップと、
    を有し、
    前記第1画像領域は、前記第1の動き情報に基づいて定まる前記動画像中の動きを持つ画像領域であり、
    前記第2画像領域および前記第2画像領域の近傍の領域は、前記第1画像領域の形状と相似もしくは略相似であるか、前記第1画像領域の形状の反転形状と相似もしくは略相似である、画像質感操作方法。
  3. 請求項1または2の画像質感操作方法であって、
    前記第1画像領域の動きの大きさが第1値のときの前記第2画像領域および前記第2画像領域の近傍の歪みの大きさは、前記動きの大きさが第2値のときの前記歪みの大きさよりも小さく、前記第1値は前記第2値よりも小さい、画像質感操作方法。
  4. 請求項1から3の何れかの画像質感操作方法であって、
    前記第1画像領域の動きの大きさが第2区間で所定量変化するときの前記第2画像領域および前記第2画像領域の近傍の歪みの大きさの変化量は、前記動きの大きさが第1区間で前記所定量変化するときの前記歪みの大きさの変化量よりも小さく、前記第2区間は前記第1区間よりも大きな値が属する区間である、画像質感操作方法。
  5. 請求項1からの何れかの画像質感操作方法であって、
    前記第1画像領域の動き情報が表す動きに基づいて、さらに前記第2画像領域または前記第2画像領域の近傍の少なくとも一方の色属性を変更する、画像質感操作方法。
  6. 第1画像領域に対応する形状の第2画像領域および前記第2画像領域の近傍を歪ませる画像質感操作装置であって、
    動画像から所定の時間区間ごとに連続するnフレーム(nは2以上の整数)の静止画像を抽出し、抽出した前記nフレームの静止画像から順次計算された、画像中の各画素の移動方向および移動量速度成分を表すオプティカルフローを、それぞれ第1の動き情報として得る動き情報抽出部と、
    前記第1の動き情報それぞれにガウシアンフィルタリングまたは平滑化フィルタリングを適用することで得られる第2の動き情報の通りに、動画像中の連続するフレームの静止画像中の画素値を移動させることで、前記第2画像領域および前記第2画像領域の近傍を歪ませる変形部と、
    を有し、
    前記第1画像領域は、前記第1の動き情報に基づいて定まる前記動画像中の動きを持つ画像領域であり、
    前記第2画像領域および前記第2画像領域の近傍の領域は、前記第1画像領域の形状と相似もしくは略相似であるか、前記第1画像領域の形状の反転形状と相似もしくは略相似である、画像質感操作装置。
  7. 第1画像領域に対応する形状の第2画像領域および前記第2画像領域の近傍を歪ませる画像質感操作装置であって、
    動画像から所定の時間区間ごとに連続するnフレーム(nは2以上の整数)の静止画像を抽出し、抽出した前記nフレームの静止画像から順次計算された、画像中の各画素の移動方向および移動量速度成分を表すオプティカルフローを、それぞれ第1の動き情報として得る動き情報抽出部と、
    前記第1の動き情報に基づいて定まる前記第1画像領域の各画素の座標を、回転または反転、および/または、前記第1画像領域を空間的に拡大または縮小することで得られる第3の動き情報のそれぞれにガウシアンフィルタリングまたは平滑化フィルタリングを適用することで得られる第4の動き情報の通りに、動画像中の連続するフレームの静止画像中の画素値を移動させることで、前記第2画像領域および前記第2画像領域の近傍を歪ませる変形部と、
    を有し、
    前記第1画像領域は、前記第1の動き情報に基づいて定まる前記動画像中の動きを持つ画像領域であり、
    前記第2画像領域および前記第2画像領域の近傍の領域は、前記第1画像領域の形状と相似もしくは略相似であるか、前記第1画像領域の形状の反転形状と相似もしくは略相似である、画像質感操作装置。
  8. 請求項1からの何れかの画像質感操作方法の処理をコンピュータに実行させるためのプログラム。
JP2015001402A 2015-01-07 2015-01-07 画像質感操作方法、画像質感操作装置、およびプログラム Active JP6305942B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015001402A JP6305942B2 (ja) 2015-01-07 2015-01-07 画像質感操作方法、画像質感操作装置、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015001402A JP6305942B2 (ja) 2015-01-07 2015-01-07 画像質感操作方法、画像質感操作装置、およびプログラム

Publications (2)

Publication Number Publication Date
JP2016126641A JP2016126641A (ja) 2016-07-11
JP6305942B2 true JP6305942B2 (ja) 2018-04-04

Family

ID=56359451

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015001402A Active JP6305942B2 (ja) 2015-01-07 2015-01-07 画像質感操作方法、画像質感操作装置、およびプログラム

Country Status (1)

Country Link
JP (1) JP6305942B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6615818B2 (ja) * 2017-04-03 2019-12-04 日本電信電話株式会社 映像生成装置、映像生成方法、およびプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000149041A (ja) * 1998-11-10 2000-05-30 Toshiba Corp 動画像加工装置および方法および記憶媒体

Also Published As

Publication number Publication date
JP2016126641A (ja) 2016-07-11

Similar Documents

Publication Publication Date Title
JP7002056B2 (ja) 三次元モデル生成装置及び三次元モデル生成方法
EP2790126B1 (en) Method for gaze tracking
US8705867B2 (en) Devices and methods for processing images using scale space
KR20210071015A (ko) 재투영된 프레임을 위한 모션 스무딩
KR101685888B1 (ko) 상세를 유지하는 이미지 블러
KR20190092279A (ko) 화상 처리 장치, 화상 처리 방법 및 기억 매체
WO2015149611A1 (en) Image presentation control methods and image presentation control apparatuses
WO2018076172A1 (zh) 一种图像显示方法及终端
EP3236306A1 (en) A method for rendering a 3d virtual reality and a virtual reality equipment for implementing the method
US9959672B2 (en) Color-based dynamic sub-division to generate 3D mesh
JP6305942B2 (ja) 画像質感操作方法、画像質感操作装置、およびプログラム
JP2019121053A (ja) 画像処理装置及び画像処理方法
EP4042683A1 (en) System and method for motion adaptive filtering as pre-process to video encoding
CN110728631A (zh) 基于增强现实的图像动态对比度增强方法及增强现实眼镜
CN109785418A (zh) 基于视觉感知模型的注视点渲染优化算法
US20210304417A1 (en) Observation device and observation method
EP3901899A1 (en) Imaging system and method incorporating selective denoising
JP6351364B2 (ja) 情報処理装置、情報処理方法およびプログラム
Lee Novel video stabilization for real-time optical character recognition applications
JP6854629B2 (ja) 画像処理装置、画像処理方法
KR102340942B1 (ko) 영상 처리 방법 및 이를 이용한 표시장치
WO2018189961A1 (ja) 画像処理装置、端末装置、および画像処理プログラム
WO2017212804A1 (ja) 映像表示装置、映像表示装置の制御方法、および映像表示装置の制御プログラム
JP2018182353A (ja) 映像生成装置、映像生成方法、およびプログラム
KR101626679B1 (ko) 2d 영상으로부터 입체 영상을 생성하는 방법 및 이를 기록한 기록 매체

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180307

R150 Certificate of patent or registration of utility model

Ref document number: 6305942

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150