JP6305942B2 - 画像質感操作方法、画像質感操作装置、およびプログラム - Google Patents
画像質感操作方法、画像質感操作装置、およびプログラム Download PDFInfo
- Publication number
- JP6305942B2 JP6305942B2 JP2015001402A JP2015001402A JP6305942B2 JP 6305942 B2 JP6305942 B2 JP 6305942B2 JP 2015001402 A JP2015001402 A JP 2015001402A JP 2015001402 A JP2015001402 A JP 2015001402A JP 6305942 B2 JP6305942 B2 JP 6305942B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- image area
- moving
- vicinity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 43
- 230000003287 optical effect Effects 0.000 claims description 61
- 238000012545 processing Methods 0.000 claims description 24
- 230000008859 change Effects 0.000 claims description 19
- 238000009499 grossing Methods 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 9
- 238000001914 filtration Methods 0.000 claims 8
- 230000006870 function Effects 0.000 description 12
- 230000008569 process Effects 0.000 description 12
- 230000014509 gene expression Effects 0.000 description 9
- 238000006073 displacement reaction Methods 0.000 description 8
- 239000007788 liquid Substances 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000009466 transformation Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
[概要]
各実施形態では、第1画像領域の動き情報が表す動きに基づいて第1画像領域に対応する形状の第2画像領域および第2画像領域の近傍を歪ませる。これにより、透明層質感(例えば、透明液体の質感)を与える画像領域を動的に操作できる。この手法では、透明層質感を与えるための変形情報を前もって定めておく必要がない。さらに画像の背景領域を事前に検出しておく必要もなく、リアルタイムで背景領域が変動する場合でも効果が得られる。
第1実施形態では、リアルタイムに取得した動画像のオプティカルフローを計算し、そのオプティカルフローに基づいて動画像中の画像領域を局所的に変形させる。これにより、対象の形状に合わせた透明層質感をインタラクティブに与える。
図1に例示するように、本形態のシステムは、動画像取得装置12、画像質感操作装置11、および表示装置13を有する。画像質感操作装置11は、動き情報抽出部111および変形部112を有する。動画像取得装置12は、例えば、デジタルビデオカメラやスマートフォン端末装置等の動画像を撮影する装置である。画像質感操作装置11は、例えば、CPU(central processing unit)等のプロセッサ(ハードウェア・プロセッサ)やRAM(random-access memory)・ROM(read-only memory)等のメモリ等を備える汎用または専用のコンピュータが所定のプログラムを実行することで構成される装置である。このコンピュータは1個のプロセッサやメモリを備えていてもよいし、複数個のプロセッサやメモリを備えていてもよい。このプログラムはコンピュータにインストールされてもよいし、予めROM等に記録されていてもよい。また、CPUのようにプログラムが読み込まれることで機能構成を実現する電子回路(circuitry)ではなく、プログラムを用いることなく処理機能を実現する電子回路を用いて一部またはすべての処理部が構成されてもよい。また、1個の装置を構成する電子回路が複数のCPUを含んでいてもよい。表示装置13は、例えば、モニター、ヘッドマウントディスプレイ、プロジェクター、電子ペーパーなど画像を表示する汎用装置である。
動画像取得装置12で動対象を撮影することで得られた動画像Minは、動き情報抽出部111および変形部112に入力される(図1)。動画像Minは、3つの色チャネル(RGBの光の三原色のチャネル)で構成され、それぞれのチャンネルの情報は時空間の3次元配列として表現できる。ここではMinを式(1)のように定義する。
ただし、xは水平位置を表す座標値であり、yは垂直位置を表す座標値であり、tは時間位置を表すフレーム番号である。x,yおよびtは、それぞれxmin≦x≦xmax、ymin≦y≦ymax、およびtmin≦t≦tmaxの関係を満たす。ただし、xminおよびxmaxは水平位置を表す座標値の最小値および最大値であり(xmin<xmax)、yminおよびymaxは垂直位置を表す座標値の最小値および最大値であり(ymin<ymax)、tminおよびtmaxはフレーム番号の最小値および最大値である(tmin<tmax)。R(x,y,t),G(x,y,t),B(x,y,t)は、それぞれR,G,Bチャネルのフレーム番号tの座標(x,y)の画素値を表す。{R(x,y,t)},{G(x,y,t)},{B(x,y,t)}は、それぞれR(x,y,t),G(x,y,t),B(x,y,t)を要素とする時空間の3次元配列を表す(ただし、xmin≦x≦xmax、ymin≦y≦ymax、およびtmin≦t≦tmax)。
E(x+δx,y+δy,t+δt)=E(x,y,t) (2)
式(2)の左辺を(x,y,t)のまわりでテーラー展開すると式(3)が得られる。
E(x+δx,y+δy,t+δt)
=E(x,y,t)+Exδx+Eyδy+Etδt+ε (3)
ただし、Ex,Ey,Etは、それぞれ、添え字x,y,tに関する偏微分値の一次項である。εはδx,δy,δtに関する2次以上の項である。
式(3)を式(2)の左辺に代入してδtで割る。δt→0の極限ではεを無視することができ、式(4)が成立する。
uEx+vEy+Et=0 (4)
ただし、
である。式(4)における速度成分uおよびvを求めるのがオプティカルフロー計算アルゴリズムである。式(4)のみではuおよびvを求めることができないので、「輝度一定の拘束」以外の拘束条件も用いつつ、uおよびvを求める。オプティカルフローは、1フレームあたりの水平方向のピクセル移動量u(x,y)および垂直方向のピクセル移動量v(x,y)として算出される。以下では、便宜上、フレーム番号t−1およびtの静止画像から抽出されたオプティカルフローを(u(x,y,t),v(x,y,t))と表現する。フレームtが先頭フレームの場合には、例えばオプティカルフロー(u(x,y,t),v(x,y,t))を定数(例えば、零ベクトル)としてもよい。オプティカルフロー(u(x,y,t),v(x,y,t))(ただし、xmin≦x≦xmax、ymin≦y≦ymax、およびtmin≦t≦tmax)は変形部112に送られる。
O(x2,y2,t2)=T(u(x,y,t),v(x,y,t))I(x1,y1,t1) (6)
T(u(x,y,t),v(x,y,t))の具体例は、座標(x1,y1,t1)の画素値I(x1,y1,t1)を、x2=x1+u(x,y,t),y2=y1+v(x,y,t)を満たす座標(x2,y2,t2)に移動する空間変換関数である(具体例1)。あるいは、T(u(x,y,t),v(x,y,t))が、座標(x1,y1,t1)の画素値I(x1,y1,t1)を、x2=x1+fx(u(x,y,t)),y2=y1+fy(v(x,y,t))を満たす座標(x2,y2,t2)へ移動するものであってもよい。ただし、fxおよびfyは関数(例えば、広義単調増加関数または広義単調減少関数)である(具体例2)。その他、T(u(x,y,t),v(x,y,t))が、座標(x1,y1,t1)の画素値I(x1,y1,t1)を、x2=x1+fx(v(x,y,t)),y2=y1+fy(u(x,y,t))満たす座標(x2,y2,t2)(具体例3)、または、x2=x1+fx(u(x,y,t),v(x,y,t)),y2=y1+fy(u(x,y,t),v(x,y,t))を満たす座標(x2,y2,t2)(具体例4)へ移動するものであってもよい。T(u(x,y,t),v(x,y,t))は、「第1画像領域」のオプティカルフロー(u(x,y,t),v(x,y,t))の大きさ(例えば、u(x,y,t)およびv(x,y,t)の2乗和)が第1値a1のときの「第2画像領域」および「第2画像領域」の近傍の歪みの大きさd1が、「第1画像領域」のオプティカルフロー(u(x,y,t),v(x,y,t))の大きさが第2値a2のときの歪みの大きさd2よりも小さくなる(d1<d2)ように歪ませるものであることが望ましい。
前述した「方法1」の場合、動画像Minの「第1画像領域」の座標(X’,Y’,t)のオプティカルフロー(u(X’,Y’,t),v(X’,Y’,t))が表す動きに倣う向きに、式(7)の画素値I(x”,x”,t1)を、座標(X’,Y’,t)に対応する「第2画像領域」の座標(X”,Y”,t2)へ移動させ、動画像Moutを得る。
I(x”,x”,t1)=T-1(u(X’,Y’,t),v(X’,Y’,t))O(X”,Y”,t2) (7)
ただし、T−1(u(X’,Y’,t),v(X’,Y’,t))はT(u(X’,Y’,t),v(X’,Y’,t))の逆空間変換関数である。すなわち、T−1(u(X’,Y’,t),v(X’,Y’,t))は、座標(X”,Y”,t2)の画素値O(X”,Y”,t2)を座標(x”,y”,t1)に移動する。例えば、T(u(X’,Y’,t),v(X’,Y’,t))が座標(x”,y”,t1)の画素値I(x”,y”,t1)を、X”=x”+u(X’,Y’,t),Y”=y”+v(X’,Y’,t)を満たす座標(X”,Y”,t2)に移動する空間変換関数である場合(前述の具体例1)、T−1(u(X’,Y’,t)は、座標(X”,Y”,t2)の画素値I(X”,Y”,t2)を、x”=X”−u(X’,Y’,t),y”=Y”−v(X’,Y’,t)を満たす座標(x”,y”,t1)に移動する逆空間変換関数である。なお、座標(X”,Y”,t2)は座標(X’,Y’,t)に応じて移動する。
I(x”,y”,n+2)=T-1(u(X’,Y’,n+1),v(X’,Y’,n+1))O(X”,Y”,n+2) (8)
この例の場合、動きを持つ第1画像領域101n,101n+1に対応する第2画像領域102n+2の内の各座標は必ず何れかの画素値の移動先となる。そのため、動きを持つ第1画像領域101n,101n+1に対応する第2画像領域102n+2の全領域およびその近傍は必ず変形する。なお、式(8)の画素値I(x”,y”,n+2)の座標値x”,y”が小数となり、画素値I(x”,y”,n+2)が実在しない場合には、(x”,y”,n+2)近傍の実在する座標の座標値を用いて画素値I(x”,y”,n+2)を内挿(補完)する。
前述した「方法2」の場合、動画像Minの「第1画像領域」の座標(x’,y’,t)のオプティカルフロー(u(x’,y’,t),v(x’,y’,t))が表す動きに倣う向きに、座標(x’,y’,t1)に対応する「第2画像領域」の座標(x”,y”,t1)の画素値を、式(9)の画素値O(X”,Y”,t2)として移動させ、動画像Moutを得る。
O(X”,Y”,t2)=T(u(x’,y’,t),v(x’,y’,t))I(x”,x”,t1) (9)
座標(x”,y”,t1)は座標(x’,y’,t)に応じて移動する。
O(X”,Y”,n+2)=T(u(X’,Y’,n+1),v(X’,Y’,n+1))I(x”,y”,n+2) (9)
この例の場合、座標(x’,y’,n+2)が存在しなかったり(例えば、x’またはy’が小数となったり、座標の上限または下限を超えたり)、座標(x’,y’,n+2)が第2画像領域102n+2の外側となったりすることもある。この場合、動きを持つ第1画像領域101n,101n+1に対応する第2画像領域102n+2の内のすべての座標が何れかの画素値の移動先となるとは限らない。例えば、図4Aの第2画像領域102n+2の領域1021n+2のように、画素値の移動先とはならず、画素値が変化しない領域も生じ得る。このような場合であっても、図4Bのようなガウシアンフィルタ1022n+2を用い、領域1021n+2を含む領域の空間変位を鈍らせることで、このような領域1021n+2を変形させることができる。
対象の動きの量が大きいと、得られるu(x,y,t)やv(x,y,t)も大きくなる。u(x,y,t)やv(x,y,t)が大きすぎると画像も過剰に変形し、透明層質感を知覚させるように画像を変形させることが難しくなる。そのため、u(x,y,t)およびv(x,y,t)に関する閾値を設け、u(x,y,t)またはv(x,y,t)が閾値以上になった場合に、閾値の値をu(x,y,t)またはv(x,y,t)としてもよい。これにより、変形後の画像の質を保つことができる。また、動画像取得装置12自体の揺れやオートフォーカスなどによる微細なオプティカルフローの影響を排除するために、u(x,y,t)およびv(x,y,t)に関する他の閾値を設け、u(x,y,t)またはv(x,y,t)がこの閾値以下になった場合に、閾値以下となったu(x,y,t)またはv(x,y,t)を0にしてもよい。以下では第1実施形態との相違点を中心に説明し、説明済みの事項については同じ参照番号を引用して説明を省略する。
図1に例示するように、本形態のシステムは、動画像取得装置12、画像質感操作装置21、および表示装置13を有する。画像質感操作装置21は、第1実施形態の画像質感操作装置11に制限部213を追加したものである。
第1実施形態の処理との相違点は制限部213の処理のみである。以下では制限部213の処理のみを例示する。動き情報抽出部111から出力されたオプティカルフロー(u(x,y,t),v(x,y,t))は制限部213に入力される。制限部213は、u(x,y,t)およびv(x,y,t)と閾値THUおよびTHL(ただし、THU>THL>0)とを比較する。THU>u(x,y,t)>THLである場合、制限部213は、u(x,y,t)をそのまま出力する。u(x,y,t)≧THUである場合、制限部213は、u(x,y,t)=THUを出力する。u(x,y,t)≦THLである場合、制限部213は、u(x,y,t)=0を出力する。同様に、THU>v(x,y,t)>THLである場合、制限部213は、v(x,y,t)をそのまま出力する。v(x,y,t)≧THUである場合、制限部213は、v(x,y,t)=THUを出力する。v(x,y,t)≦THLである場合、制限部213は、v(x,y,t)=0を出力する。出力されたu(x,y,t)およびv(x,y,t)は変形部112に入力される。その他は第1実施形態と同じである。なお、本形態では閾値を用いてu(x,y,t)やv(x,y,t)の上限を制限したが、前述のようにu(x,y,t)やv(x,y,t)(動きの大きさ)の増加に伴う「歪みの大きさ」の増加を抑制する方法であれば、どのような方法が用いられてもよい。
ガウシアンフィルタをu(x,y,t)およびv(x,y,t)に適用することで、u(x,y,t)およびv(x,y,t)の空間変化を滑らかにする(鈍らせる)ことができる。u(x,y,t)およびv(x,y,t)の空間変化を滑らかにすることで、「第2画像領域」およびその近傍の空間変換が滑らになり、結果的に変形も滑らかになる。これにより、滑らかな波面をもった透明液体の質感を表示できる。
図1に例示するように、本形態のシステムは、動画像取得装置12、画像質感操作装置31、および表示装置13を有する。画像質感操作装置31は、画像質感操作装置11に平滑化部313を追加したものである。
第1実施形態の処理との相違点は平滑化部313の処理のみである。平滑化部313は、オプティカルフロー(u(x,y,t),v(x,y,t))を入力とし、その空間変位をガウシアンフィルタによって鈍らせたオプティカルフロー(u’(x,y,t),v’(x,y,t))を出力する。オプティカルフロー(u’(x,y,t),v’(x,y,t))は変形部112に入力される。その後の処理は(u(x,y,t),v(x,y,t))が(u’(x,y,t),v’(x,y,t))に置換される以外、第1実施形態と同じである。
オプティカルフローに応じて「第2画像領域」および「第2画像領域」の近傍を変形させることに加え、オプティカルフローに応じて「第2画像領域」または「第2画像領域」の近傍の少なくとも一方の色属性を変更してもよい。
図1に例示するように、本形態のシステムは、動画像取得装置12、画像質感操作装置41、および表示装置13を有する。画像質感操作装置41は、画像質感操作装置11に色属性変更部413を追加したものである。
第1実施形態の処理との相違点は色属性変更部413の処理のみである。色属性変更部413は、変形部112に入力されたオプティカルフローおよび変形部112から出力された動画像を入力とし、オプティカルフローに応じて「第2画像領域」または「第2画像領域」の近傍の少なくとも一方の色属性を変更する。例えば、オプティカルフローが表す動きの大きさや変化量に応じて色相、彩度、明度の何れかを変更する。色属性変更部413から出力された動画像は表示装置13から出力される。これにより、より多様な表現が可能となる。また、第2実施形態または第3実施形態の画像質感操作装置21,31に色属性変更部413を加え、同様な処理が行われてもよい。
第1〜4実施形態では、動画像Minからオプティカルフローを取得し、このオプティカルフローに応じてこの動画像Minの「第2画像領域」およびその近傍を変形させた。しかしながら、動画像Minからオプティカルフローを取得し、このオプティカルフローに応じて動画像Minとは別の画像Min2の「第2画像領域」およびその近傍を変形させてもよい。また、第1〜4実施形態では、リアルタイムに取得したオプティカルフローによって画像を変形させたが、事前に取得した対象のオプティカルフローを用いて事後的に画像を変形させても構わない。この場合、実対象のオプティカルフローだけではなく、シミュレーションによって生成したオプティカルフローでもかまわない(Bex, P. (2010). (In) Sensitivity to spatial distortion in natural scenes. Journal of Vision, 10(2): 23, 1-15.)。
動画像Moutの表示画像を例示する。図5Aおよび図5Bは、第1実施形態のように動画像Minから取得したオプティカルフローに対し、第2実施形態のように上限と下限との制限を加え、第3実施形態のように空間的に鈍らせた後、そのオプティカルフローに応じて当該動画像Minの「第2画像領域」およびその近傍を変形させた動画像Moutの表示画像を例示している。図6Aおよび図6Bは、第1実施形態のように動画像Minから取得したオプティカルフローに対し、第2実施形態のように上限と下限とに制限を加え、第3実施形態のように空間的に鈍らせた後、そのオプティカルフローに応じて当該動画像Minとは別の画像Min2(静止画像)の「第2画像領域」およびその近傍を変形させた動画像Moutの表示画像を例示している。これらの例からも分かるように、対象の動きや形状に基づき、動画像中の透明液体印象領域をインタラクティブに制御できる。例えば、「透明人間」の動画像を容易に生成することができる。このために背景領域の検出を事前に行う必要がなく、動画像取得装置12を移動させながらでも効果が得られる。
なお、本発明は上述の実施の形態に限定されるものではない。例えば、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。
Claims (8)
- 第1画像領域に対応する形状の第2画像領域および前記第2画像領域の近傍を歪ませる画像質感操作方法であって、
動画像から所定の時間区間ごとに連続するnフレーム(nは2以上の整数)の静止画像を抽出し、抽出した前記nフレームの静止画像から順次計算された、画像中の各画素の移動方向および移動量速度成分を表すオプティカルフローを、それぞれ第1の動き情報として得るステップと、
前記第1の動き情報それぞれにガウシアンフィルタリングまたは平滑化フィルタリングを適用することで得られる第2の動き情報の通りに、動画像中の連続するフレームの静止画像中の画素値を移動させることで、前記第2画像領域および前記第2画像領域の近傍を歪ませるステップと、
を有し、
前記第1画像領域は、前記第1の動き情報に基づいて定まる前記動画像中の動きを持つ画像領域であり、
前記第2画像領域および前記第2画像領域の近傍の領域は、前記第1画像領域の形状と相似もしくは略相似であるか、前記第1画像領域の形状の反転形状と相似もしくは略相似である、画像質感操作方法。 - 第1画像領域に対応する形状の第2画像領域および前記第2画像領域の近傍を歪ませる画像質感操作方法であって、
動画像から所定の時間区間ごとに連続するnフレーム(nは2以上の整数)の静止画像を抽出し、抽出した前記nフレームの静止画像から順次計算された、画像中の各画素の移動方向および移動量速度成分を表すオプティカルフローを、それぞれ第1の動き情報として得るステップと、
前記第1の動き情報に基づいて定まる前記第1画像領域の各画素の座標を、回転または反転、および/または、前記第1画像領域を空間的に拡大または縮小することで得られる第3の動き情報のそれぞれにガウシアンフィルタリングまたは平滑化フィルタリングを適用することで得られる第4の動き情報の通りに、動画像中の連続するフレームの静止画像中の画素値を移動させることで、前記第2画像領域および前記第2画像領域の近傍を歪ませるステップと、
を有し、
前記第1画像領域は、前記第1の動き情報に基づいて定まる前記動画像中の動きを持つ画像領域であり、
前記第2画像領域および前記第2画像領域の近傍の領域は、前記第1画像領域の形状と相似もしくは略相似であるか、前記第1画像領域の形状の反転形状と相似もしくは略相似である、画像質感操作方法。 - 請求項1または2の画像質感操作方法であって、
前記第1画像領域の動きの大きさが第1値のときの前記第2画像領域および前記第2画像領域の近傍の歪みの大きさは、前記動きの大きさが第2値のときの前記歪みの大きさよりも小さく、前記第1値は前記第2値よりも小さい、画像質感操作方法。 - 請求項1から3の何れかの画像質感操作方法であって、
前記第1画像領域の動きの大きさが第2区間で所定量変化するときの前記第2画像領域および前記第2画像領域の近傍の歪みの大きさの変化量は、前記動きの大きさが第1区間で前記所定量変化するときの前記歪みの大きさの変化量よりも小さく、前記第2区間は前記第1区間よりも大きな値が属する区間である、画像質感操作方法。 - 請求項1から4の何れかの画像質感操作方法であって、
前記第1画像領域の動き情報が表す動きに基づいて、さらに前記第2画像領域または前記第2画像領域の近傍の少なくとも一方の色属性を変更する、画像質感操作方法。 - 第1画像領域に対応する形状の第2画像領域および前記第2画像領域の近傍を歪ませる画像質感操作装置であって、
動画像から所定の時間区間ごとに連続するnフレーム(nは2以上の整数)の静止画像を抽出し、抽出した前記nフレームの静止画像から順次計算された、画像中の各画素の移動方向および移動量速度成分を表すオプティカルフローを、それぞれ第1の動き情報として得る動き情報抽出部と、
前記第1の動き情報それぞれにガウシアンフィルタリングまたは平滑化フィルタリングを適用することで得られる第2の動き情報の通りに、動画像中の連続するフレームの静止画像中の画素値を移動させることで、前記第2画像領域および前記第2画像領域の近傍を歪ませる変形部と、
を有し、
前記第1画像領域は、前記第1の動き情報に基づいて定まる前記動画像中の動きを持つ画像領域であり、
前記第2画像領域および前記第2画像領域の近傍の領域は、前記第1画像領域の形状と相似もしくは略相似であるか、前記第1画像領域の形状の反転形状と相似もしくは略相似である、画像質感操作装置。 - 第1画像領域に対応する形状の第2画像領域および前記第2画像領域の近傍を歪ませる画像質感操作装置であって、
動画像から所定の時間区間ごとに連続するnフレーム(nは2以上の整数)の静止画像を抽出し、抽出した前記nフレームの静止画像から順次計算された、画像中の各画素の移動方向および移動量速度成分を表すオプティカルフローを、それぞれ第1の動き情報として得る動き情報抽出部と、
前記第1の動き情報に基づいて定まる前記第1画像領域の各画素の座標を、回転または反転、および/または、前記第1画像領域を空間的に拡大または縮小することで得られる第3の動き情報のそれぞれにガウシアンフィルタリングまたは平滑化フィルタリングを適用することで得られる第4の動き情報の通りに、動画像中の連続するフレームの静止画像中の画素値を移動させることで、前記第2画像領域および前記第2画像領域の近傍を歪ませる変形部と、
を有し、
前記第1画像領域は、前記第1の動き情報に基づいて定まる前記動画像中の動きを持つ画像領域であり、
前記第2画像領域および前記第2画像領域の近傍の領域は、前記第1画像領域の形状と相似もしくは略相似であるか、前記第1画像領域の形状の反転形状と相似もしくは略相似である、画像質感操作装置。 - 請求項1から5の何れかの画像質感操作方法の処理をコンピュータに実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015001402A JP6305942B2 (ja) | 2015-01-07 | 2015-01-07 | 画像質感操作方法、画像質感操作装置、およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015001402A JP6305942B2 (ja) | 2015-01-07 | 2015-01-07 | 画像質感操作方法、画像質感操作装置、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016126641A JP2016126641A (ja) | 2016-07-11 |
JP6305942B2 true JP6305942B2 (ja) | 2018-04-04 |
Family
ID=56359451
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015001402A Active JP6305942B2 (ja) | 2015-01-07 | 2015-01-07 | 画像質感操作方法、画像質感操作装置、およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6305942B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6615818B2 (ja) * | 2017-04-03 | 2019-12-04 | 日本電信電話株式会社 | 映像生成装置、映像生成方法、およびプログラム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000149041A (ja) * | 1998-11-10 | 2000-05-30 | Toshiba Corp | 動画像加工装置および方法および記憶媒体 |
-
2015
- 2015-01-07 JP JP2015001402A patent/JP6305942B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016126641A (ja) | 2016-07-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7002056B2 (ja) | 三次元モデル生成装置及び三次元モデル生成方法 | |
EP2790126B1 (en) | Method for gaze tracking | |
US8705867B2 (en) | Devices and methods for processing images using scale space | |
KR20210071015A (ko) | 재투영된 프레임을 위한 모션 스무딩 | |
KR101685888B1 (ko) | 상세를 유지하는 이미지 블러 | |
KR20190092279A (ko) | 화상 처리 장치, 화상 처리 방법 및 기억 매체 | |
WO2015149611A1 (en) | Image presentation control methods and image presentation control apparatuses | |
WO2018076172A1 (zh) | 一种图像显示方法及终端 | |
EP3236306A1 (en) | A method for rendering a 3d virtual reality and a virtual reality equipment for implementing the method | |
US9959672B2 (en) | Color-based dynamic sub-division to generate 3D mesh | |
JP6305942B2 (ja) | 画像質感操作方法、画像質感操作装置、およびプログラム | |
JP2019121053A (ja) | 画像処理装置及び画像処理方法 | |
EP4042683A1 (en) | System and method for motion adaptive filtering as pre-process to video encoding | |
CN110728631A (zh) | 基于增强现实的图像动态对比度增强方法及增强现实眼镜 | |
CN109785418A (zh) | 基于视觉感知模型的注视点渲染优化算法 | |
US20210304417A1 (en) | Observation device and observation method | |
EP3901899A1 (en) | Imaging system and method incorporating selective denoising | |
JP6351364B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
Lee | Novel video stabilization for real-time optical character recognition applications | |
JP6854629B2 (ja) | 画像処理装置、画像処理方法 | |
KR102340942B1 (ko) | 영상 처리 방법 및 이를 이용한 표시장치 | |
WO2018189961A1 (ja) | 画像処理装置、端末装置、および画像処理プログラム | |
WO2017212804A1 (ja) | 映像表示装置、映像表示装置の制御方法、および映像表示装置の制御プログラム | |
JP2018182353A (ja) | 映像生成装置、映像生成方法、およびプログラム | |
KR101626679B1 (ko) | 2d 영상으로부터 입체 영상을 생성하는 방법 및 이를 기록한 기록 매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170915 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171120 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180306 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180307 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6305942 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |