JPWO2015186284A1 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JPWO2015186284A1
JPWO2015186284A1 JP2016525671A JP2016525671A JPWO2015186284A1 JP WO2015186284 A1 JPWO2015186284 A1 JP WO2015186284A1 JP 2016525671 A JP2016525671 A JP 2016525671A JP 2016525671 A JP2016525671 A JP 2016525671A JP WO2015186284 A1 JPWO2015186284 A1 JP WO2015186284A1
Authority
JP
Japan
Prior art keywords
image
unit
processing apparatus
control amount
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016525671A
Other languages
English (en)
Other versions
JP6558365B2 (ja
Inventor
高橋 修一
修一 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2015186284A1 publication Critical patent/JPWO2015186284A1/ja
Application granted granted Critical
Publication of JP6558365B2 publication Critical patent/JP6558365B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/536Depth or shape recovery from perspective effects, e.g. by using vanishing points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)

Abstract

入力画像の処理単位毎に適切な動きを感じさせる出力画像群を生成することが可能な画像処理装置、画像処理方法及びプログラムを提供する。本技術の一形態に係る画像処理装置は、制御量規定部と、フィルタ生成部とを具備する上記制御量規定部は、複数の処理単位を含む入力画像の画像情報に基づいて、処理単位毎に知覚させる動きの制御量を規定する。上記フィルタ生成部は、上記処理単位毎に、上記規定された制御量に基づいて、上記入力画像から上記動きを知覚させる出力画像群を生成することが可能な複数の空間フィルタを生成する。

Description

本技術は、動きの錯視を利用した画像を生成することが可能な画像処理装置、画像処理方法及びプログラムに関する。
静止画像から、連続再生した際に動いているような印象が得られる複数の静止画像を生成することが可能な技術が知られている(非特許文献1)。より具体的には、静止画像に対し、位相パラメータを含む関数を空間フィルタとして適用し、この位相パラメータを変化させた複数の空間フィルタにより処理を実行することで、複数の静止画像を生成する。生成された静止画像を連続的に再生することで、被写体が動いているような印象を与えることが可能となる。
W.T. Freeman et.al, ''Motion Without Movement,'' Computers & Graphics, Elsevier, Vol. 25(4), pp.27-30, 1991
しかしながら、非特許文献1に記載の技術は、画像全体で同一の大きさ及び向きの動きしか表現できなかった。
以上のような事情に鑑み、本技術の目的は、入力画像の処理単位毎に適切な動きを感じさせる出力画像群を生成することが可能な画像処理装置、画像処理方法及びプログラムを提供することにある。
上記目的を達成するため、本技術の一形態に係る画像処理装置は、制御量規定部と、フィルタ生成部とを具備する。
上記制御量規定部は、複数の処理単位を含む入力画像の画像情報に基づいて、処理単位毎に知覚させる動きの制御量を規定する。
上記フィルタ生成部は、上記処理単位毎に、上記規定された制御量に基づいて、上記入力画像から上記動きを知覚させる出力画像群を生成することが可能な複数の空間フィルタを生成する。
上記構成によれば、画像情報に基づいて処理単位毎に知覚させる動きを決定し、その動きを実現させることが可能な空間フィルタを生成することが可能となる。これにより、処理単位毎に適切な動きを感じさせる出力画像群を生成することが可能となる。
また、上記制御量は、上記知覚させる動きの大きさ及び向きの少なくとも一方を規定する量であってもよい。
これにより、知覚させる動きを的確に規定することが可能となる。
上記画像情報は、上記入力画像から抽出された特徴量を含んでもよい。
これにより、知覚される動きを、入力画像中の奥行き情報や被写体や構図等に即したものとすることができ、より実物感の感じられる出力画像を生成することが可能となる。
また、上記特徴量は、上記入力画像の奥行き情報を含み、
上記制御量規定部は、上記奥行き情報に基づいて、奥行きが浅い位置処理単位の方が、奥行きが深い処理単位よりも上記動きを大きく知覚させるように上記制御量を規定してもよい。
これにより、より奥行き感の感じられる出力画像群を生成することが可能となる。
上記特徴量は、上記入力画像から推定されるシーンについてのシーン情報を含み、
上記制御量規定部は、上記シーン情報に基づいて処理単位毎の制御量を規定してもよい。
これにより、入力画像のシーンに応じてより自然に感じられる出力画像群を生成することが可能となる。
例えば、上記シーン情報は、上記入力画像中の空間の構造についての情報を含んでもよい。
あるいは、上記シーン情報は、上記入力画像の被写体の種類についての情報を含んでもよい。
また、上記特徴量は、上記入力画像の消失点及び消失線の少なくとも一方の位置についての情報を含み、
上記制御量規定部は、消失点及び消失線の少なくとも一方に向かっていくような動き、又は離れていくような動きを知覚させるように制御量を規定してもよい。
これにより、より奥行き感、立体感を感じさせる出力画像を生成することが可能となる。
また、上記入力画像は、同一の被写体をそれぞれ含み時間的に連続して再生され得る複数の画像のうちの一つの画像であり、
上記特徴量は、上記複数の画像から推定される、上記被写体の上記入力画像における動きベクトルについての情報を含み、
上記制御量規定部は、上記動きベクトルに基づいて、上記動きの大きさ及び向きを制御量として規定してもよい。
これにより、実際の被写体の動きと同様の動きを知覚させる出力画像を生成することができ、より実物感を感じさせることが可能となる。
また、上記特徴量は、上記入力画像のうち注視されると推定される注視領域についての情報を含み、
上記制御量規定部は、上記注視領域と上記注視領域以外の領域とで異なる上記制御量を規定してもよい。
これにより、注視領域をより自然に表現し得る出力画像群を生成することが可能となる。
さらに、上記画像処理装置は、
上記入力画像を取得する画像取得部と、
上記入力画像から上記画像情報を解析する画像情報解析部とをさらに具備してもよい。
これにより、画像処理装置において画像情報を解析することが可能となる。
また、上記複数の空間フィルタ各々は、位相パラメータの値がそれぞれ異なり三角関数により表現された関数を含んでもよい。
これにより、位相パラメータの値を調整し、知覚させる動きを調整することが可能となる。
上記複数の空間フィルタ各々は、位相パラメータの値がそれぞれ異なるガボールフィルタをそれぞれ含んでもよい。
これにより、比較的少ない演算量となる空間フィルタを生成することができ、処理コストを低減することが可能となる。また、ガボールフィルタの各パラメータは、フィルタの形状から直感的に理解しやすいものが多いため、各パラメータの値の設定が容易になる。
また、上記複数の空間フィルタとして適用されることが可能な複数の配列群を含むルックアップテーブルを記憶する記憶部を具備し、
上記フィルタ生成部は、上記処理単位毎に、上記ルックアップテーブルから上記制御量に基づいて配列群を選択してもよい。
これにより、処理のたびに複数の空間フィルタを生成する手間を省き、より処理コストを低減することができる。
また、上記画像処理装置は、
上記入力画像の各処理単位に対して上記複数の空間フィルタを適用して出力画像群を生成する処理実行部をさらに具備してもよい。
本技術の一形態に係る画像処理方法は、複数の処理単位を含む入力画像の画像情報に基づいて、処理単位毎に知覚させる動きの制御量を規定するステップを含む。
上記処理単位毎に、上記規定された制御量に基づいて、上記入力画像から上記動きを知覚させる出力画像群を生成することが可能な複数の空間フィルタが生成される。
また、本技術の一形態に係るプログラムは、情報処理装置に、
複数の処理単位を含む入力画像の画像情報に基づいて、処理単位毎に知覚させる動きの制御量を規定するステップと、
上記処理単位毎に、上記規定された制御量に基づいて、上記入力画像から上記動きを知覚させる出力画像群を生成することが可能な複数の空間フィルタを生成するステップと
を実行させる。
以上のように、本技術によれば、入力画像の処理単位毎に適切な動きを感じさせる出力画像群を生成することが可能な画像処理装置、画像処理方法及びプログラムを提供することができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術の第1の実施形態に係る画像処理装置のハードウェア構成を示すブロック図である。 上記画像処理装置の機能的構成を示すブロック図である。 ガボールフィルタの具体的な形状の例を示す図である。 空間フィルタに用いられる、ガウス関数を用いた関数を説明する図である。 異なる時刻tにおける上記関数の形状例を示すグラフである。 上記画像処理装置の動作を示すフローチャートである。 本技術の第2の実施形態に係る画像処理システムのハードウェア構成を示すブロック図である。 上記画像処理システムの機能的構成を示すブロック図である。 本技術の第3の実施形態に係る画像処理システムの概略構成を示すブロック図である。 上記画像処理システムの機能的構成を示すブロック図である。 本技術の第4の実施形態に係る画像処理システムの概略構成を示すブロック図である。 上記画像処理システムの機能的構成を示すブロック図である。 上記画像処理システムの変形例の機能的構成を示すブロック図である。
以下、本技術に係る実施形態を、図面を参照しながら説明する。
<第1の実施形態>
[画像処理装置のハードウェア構成]
図1は、本技術の第1の実施形態に係る画像処理装置100のハードウェア構成を示すブロック図である。画像処理装置100は、本実施形態において、情報処理装置として構成され得る。画像処理装置100は、具体的には、PC(Personal Computer)、タブレットPC、スマートフォン、タブレット端末等の情報処理装置であってもよい。
同図において、画像処理装置100は、コントローラ11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、入出力インタフェース15、及び、これらを互いに接続するバス14を備える。
コントローラ11は、必要に応じてRAM13等に適宜アクセスし、各種演算処理を行いながら画像処理装置100の各ブロック全体を統括的に制御する。コントローラ11は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等であってもよい。ROM12は、コントローラ11に実行させるOS、プログラムや各種パラメータなどのファームウェアが固定的に記憶されている不揮発性のメモリである。RAM13は、コントローラ11の作業用領域等として用いられ、OS、実行中の各種アプリケーション、処理中の各種データを一時的に保持する。
入出力インタフェース15には、ディスプレイ16、操作受付部17、記憶部18、通信部19等が接続される。なお、入出力インタフェース15は、これらの各要素の他、USB(Universal Serial Bas)端子やIEEE端子等を介して外部周辺機器と接続可能に構成されてもよい。また、入出力インタフェース15には、これら各要素の他、図示しない撮像部等が接続されていてもよい。
ディスプレイ16は、例えばLCD(Liquid Crystal Display)、OLED(Organic Light Emitting Diode)、CRT(Cathode Ray Tube)等を用いた表示デバイスである。
操作受付部17は、例えばマウス等のポインティングデバイス、キーボード、タッチパネル、その他の入力装置である。操作受付部17がタッチパネルである場合、そのタッチパネルはディスプレイ16と一体となり得る。
記憶部18は、例えばHDD(Hard Disk Drive)や、フラッシュメモリ(SSD;Solid State Drive)、その他の固体メモリ等の不揮発性メモリである。当該記憶部18には、上記OSや各種アプリケーション、各種データが記憶される。記憶部18は、また、後述する入力画像や、画像情報、生成した空間フィルタ、生成した出力画像群等を記憶することが可能に構成される。
通信部19は、例えばEthernet(登録商標)用のNIC(Network Interface Card)であり、ネットワークを介した通信処理を担う。
以上のようなハードウェア構成の画像処理装置100は、以下のような機能的構成を有する。
[画像処理装置の機能的構成]
図2は、画像処理装置100の機能的構成を示すブロック図である。同図に示すように、画像処理装置100は、画像取得部101と、画像情報解析部102と、制御量規定部103と、フィルタ生成部104と、処理実行部105と、表示部106とを備える。画像処理装置100は、以下に説明するように、1つの入力画像から解析された画像情報に基づいて、連続再生時に当該入力画像中の被写体が動いているような印象を与えることが可能な出力画像群を生成することが可能となる。なお、本実施形態において「入力画像」とは、典型的には静止画像であるが、動画の1フレームであってもよい。
画像取得部101は、処理対象の入力画像を取得する。画像取得部101は、例えば、コントローラ11によって実現される。画像取得部101は、例えば、入出力インタフェース15を介して記憶部18に記憶された画像を入力画像として取得する。この入力画像は、例えば、画像処理装置100の図示しない撮像部によって撮像された画像であってもよく、外部の撮像装置等により撮像され画像処理装置100に入力された画像であってもよい。あるいは、入力画像は、ネットワークを介して取得された画像であってもよい。
画像情報解析部102は、取得された入力画像から画像情報を解析する。画像情報解析部102は、例えば、コントローラ11によって実現される。画像情報は、例えば、入力画像から抽出された特徴量であってもよい。特徴量は、入力画像から抽出され得る入力画像の特徴を示す要素であり、例えば、後述する入力画像の奥行き情報や、入力画像から推定されるシーンについてのシーン情報、入力画像の消失点及び消失線の少なくとも一方の位置についての情報、被写体の上記入力画像における動きベクトルについての情報、及び入力画像のうち注視されると推定される注視領域の情報等を含んでもよい。画像情報解析部102により、知覚させる動きを決定するための画像情報を取得することが可能となる。
画像情報解析部102は、例えば、奥行き情報解析部102aと、シーン情報推定部102bと、消失点・消失線推定部102cと、動きベクトル推定部102dと、注視領域推定部102eとを有する。
奥行き情報解析部102aは、奥行き情報を解析する。奥行き情報とは、各被写体の相対的又は絶対的な遠近関係(奥行き位置)を示す情報をいうものとする。奥行き位置の解析方法は特に限定されず、例えば、入力画像が3次元入力画像であれば、右眼用・左眼用入力画像を用いて推定した視差を用いることも可能であるし、被写体に所定パターンのレーザ光を照射し、反射光のパターンの歪みを取得する方法でもよい。また、解析された奥行き情報は、例えば被写体の奥行き位置を所定の階調の濃淡で示したデプス(depth)画像として表現されてもよいし、入力画像の領域毎の数値情報として表現されていてもよい。
なお、奥行き情報解析部102aは、後述する消失線・消失点の位置についての情報を用いることで、被写体の奥行き位置を推定することも可能である。
シーン情報推定部102bは、入力画像から推定されるシーンについてのシーン情報を推定する。シーン情報は、より具体的には、入力画像の構図についての情報や、被写体の種類についての情報等を含む。すなわち、シーン情報推定部102bは、例えば構図推定部102fと、被写体推定部102gとを有する。
構図推定部102fは、入力画像中の空間の構造を構図として推定し、例えば、室内、近景、遠景等の分類を行う。空間の構造の推定方法は特に限定されない。
被写体推定部102gは、入力画像の被写体の種類を推定し、例えば、人物、自然風景、都市風景等の分類を行う。被写体の種類の推定方法は特に限定されない。
消失点・消失線推定部102cは、入力画像の消失点及び消失線の少なくとも一方の位置について推定する。消失点・消失線推定部102cは、具体的には、入力画像における空間の構造を推定し、地平線や水平線等の消失線や、消失点の位置を入力画像から推定する。これらの推定方法は特に限定されない。また、推定された消失線・消失点の位置情報は、入力画像に割り当てられたXY座標と対応付けて記憶部18に記憶され得る。
動きベクトル推定部102dは、入力画像が、同一の被写体をそれぞれ含み時間的に連続して再生され得る複数の画像のうちの一つの画像である場合に、これら複数の画像から推定される、被写体の当該画像における動きベクトルを推定する。動きベクトルは、動きの大きさと向きを示すものとする。すなわち、動きベクトル推定部102dは、当該入力画像を含む動画の複数フレームに基づいて、被写体の動きの大きさと向きを推定する。動きベクトルの推定方法は、特に限定されない。
注視領域推定部102eは、入力画像のうち注視されると推定される注視領域を推定する。注視領域の推定方法は特に限定されず、例えば、画像認識技術により特徴的な被写体を抽出し、複数の被写体のうち、人が視線を向けると思われる被写体が占める領域を推定することができる。
制御量規定部103は、複数の処理単位を含む入力画像の画像情報に基づいて、処理単位毎に知覚させる動きの制御量を規定する。制御量規定部103は、例えばコントローラ11によって実現される。ここでいう「動きを知覚させる」とは、画像上における実際の被写体の位置は変化していないものの、輝度値が経時的に変化することにより、画像を見た人に対して動いているように知覚させることをいう。
制御量は、例えば、感じさせようとする動きの大きさ及び向きの少なくとも一方を規定する量であり、具体的には、動きの大きさを規定する値と、動きの向きを規定する値との少なくとも一方として表されてもよい。動きの向きを規定する値は、例えば、x、yの値の組で表されてもよいし、ある方向を基準とした回転角の値で表現されてもよい。あるいは、制御量は、動きの大きさ及び向きを示す動きベクトルで表されてもよい。
なお、入力画像の処理単位としては、一画素、複数の画素を含むブロック、又は一つの被写体等を挙げることができる。また、処理単位は、入力画像の全画素について規定されていてもよいし、一部のみに規定されていてもよい。また、一つの入力画像に異なる画素数や形状の処理単位が混在していてもよい。画像情報は、画像情報解析部102により解析された情報を用いることができる。
ここで、入力画像から実物感を感じさせる一つの方法として、立体感、奥行き感を与える方法が挙げられる。立体感や奥行き感を覚える手掛かり、すなわち奥行き手掛かりは、片眼だけでも奥行きを知覚する単眼奥行き手掛かり(単眼立体情報)と、両眼を用いる両眼奥行き手掛かり(両眼立体情報)とに大別される。前者の例として、遮蔽(オクルージョン)、物の動き、空気遠近が挙げられ、後者の例としては、両眼視差が挙げられる。本技術では、単眼奥行き手掛かりのうち、速く動くものほど近くに、遅く動くものほど遠くにあるように知覚されるという被写体の動きを用いて、立体感、奥行き感を与えることができる。
フィルタ生成部104は、処理単位毎に、規定された制御量に基づいて、入力画像から動きを知覚させる出力画像群を生成することが可能な複数の空間フィルタを生成する。フィルタ生成部104は、例えばコントローラ11によって実現される。ここでいう「動きを知覚させる出力画像群」とは、連続して再生した際に、実際の画像中における被写体の位置は変化しないが、輝度値の変化等によって被写体の輪郭が変化したように感じられ、動いている印象を与えることができる複数の画像を含む画像群をいう。本実施形態によれば、この輝度値の変化を、各処理単位毎に適用される空間フィルタによって実現することが可能となる。なお、処理単位が複数の画素を含む場合、フィルタ生成部104は、一つの処理単位内の各画素に対して一つの空間フィルタを生成することができる。
空間フィルタとは、一般に、空間フィルタリング処理に用い、所定の関数や行列により生成されるフィルタをいう。また、空間フィルタリング処理は、一般に、処理対象の画素(中心画素)を含む1又は複数の画素の輝度値等に重み付けを行い、所定の演算によって求めた値をその中心画素の値とする処理をいう。以下、ある中心画素に対して適用される空間フィルタの演算がなされる1又は複数の画素を、演算対象画素群とも称することとする。
本実施形態に係る複数の空間フィルタ各々は、位相パラメータの値がそれぞれ異なり三角関数により表現された関数をそれぞれ含んでいてもよく、より具体的には、複数の空間フィルタ各々は、位相パラメータの値がそれぞれ異なるガボール(Gabor)フィルタをそれぞれ含んでもよい。ここで、三角関数により表現された関数は、例えば、三角関数(sin関数及び/又はcos関数であって、係数が付加されたものを含む)若しくはこれらの和や、三角関数と他の関数の積若しくはこれらの和、又は三角関数及び三角関数と他の関数の積の和等で表現された関数等が挙げられる。位相パラメータの値が異なるこのような空間フィルタを入力画像に適用することで、位相パラメータの値に応じて各処理単位の輝度値を周期的に変化させることができ、出力画像群として再生した際に被写体が動いている印象を与えることが可能となる。
フィルタ生成部104は、例えば、制御量に対応する各パラメータの値を代入した上記関数を算出することで、複数の空間フィルタを生成することができる。これらのパラメータの値は、制御量に対応付けられて記憶部18に記憶されていてもよいし、パラメータの値を代入した関数が、制御量に対応付けて記憶されていてもよい。さらに、本実施形態において、フィルタ生成部104は、制御量のみならず、画像情報に基づいて、上記関数の一部の値を規定することも可能である。これにより、知覚させる動きだけでなく、各処理単位におけるエッジの強さ等を調整することも可能となる。
フィルタ生成部104による空間フィルタの作成タイミングについては、特に限定されない。例えば、各処理単位に対して空間フィルタをそれぞれ生成し、後述する処理実行部105で1つの出力画像を生成し、さらにこれらの処理を繰り返すことで処理単位毎に複数の空間フィルタを生成してもよい。あるいは、フィルタ生成部104が、処理単位毎に複数の空間フィルタを生成し、処理実行部105が、入力画像に当該複数の空間フィルタを適用し、出力画像群を生成してもよい。
処理実行部105は、入力画像の各処理単位に対してフィルタ生成部104により生成された複数の空間フィルタを適用し、出力画像群を生成する。すなわち、処理実行部105は、入力画像の各処理単位に対して複数の空間フィルタのうちの一つの空間フィルタをそれぞれ適用して一つの出力画像を生成し、この処理を各処理単位における複数の空間フィルタについて繰り返し行い、複数の出力画像を生成する。ここで、「出力画像群」とは、1つの入力画像から生成される複数の画像であって、所定の順序で連続的に再生された際に、所定の動きを知覚させることができる複数の画像をいう。
また、「各処理単位に対して空間フィルタを適用する」とは、具体的には、処理単位が一画素の場合は当該画素の輝度値に対し、あるいは処理単位に複数の画素が含まれる場合は当該複数の画素各々の輝度値に対し、生成された空間フィルタの畳み込み演算を実行することをいう。輝度値は、入力画像の色空間に応じて適切な輝度成分を選択することができる。例えば、入力画像がYUV形式の場合には、その輝度成分Yであってもよく、その他、CIE−L空間の明度成分Lや、HSV空間のV成分であってもよい。
表示部106は、処理実行部105によって生成された出力画像群を、所定の順序で連続的に表示する。表示部106は、例えば、ディスプレイ16によって実現される。
[空間フィルタ]
本実施形態においては、空間フィルタとして、ガボールフィルタを用いることができる。ガボールフィルタは、以下の数1から数3で記述される関数f(x,y,λ,ψ,γ,σ)で生成される2次元フィルタであり、数1に示すように、三角関数により表現された関数である。



図3A,Bは、ガボールフィルタの具体的な形状の例を示す。同図中の平面S1,S2は、それぞれ、xy平面を示し、xy平面の法線方向はフィルタの強度を示す。ガボールフィルタの形状は、これらの図に示すように、包絡線を有する、いわゆるメキシカンハット形状を示す。すなわち、図3Aのガボールフィルタは、強度の高いピークP11と強度の低いボトムB11とを有し,図3Bのガボールフィルタは、同様に、ピークP21と、ボトムB21,B22を有する。
図3Bは、例えば、中央部に強いピークP21があり、その両脇にボトムB21,B22が存在する。一方、図3Aは、ピークP11の位置が中央からずれており、ボトムB11も一箇所である。このような形状は、以下に説明するパラメータx,y,λ,ψ,γ,σ及び係数Aによって規定される。
数1において、x、yは、入力画像上の座標値を示し、より詳しくは、演算対象画素群の各画素の位置が(x、y)の値によって規定される。また、x,yの値の範囲は、フィルタサイズとして規定され得る。フィルタサイズは、ここではx、yの2次元のフィルタサイズをいい、演算対象画素群の範囲を定めるパラメータである。パラメータとしてのフィルタサイズ(filter_size)は、例えば、中心画素を含むp×p画素に適用可能なサイズの場合、p=2×(filter_size)+1 を満たす値としてもよい。フィルタサイズは、例えば、1×1〜9×9程度とすることができる。
図3A,Bのようなガボールフィルタをある画素(中心画素)に対して適用した場合、強度が高いピーク等の座標(x、y)に対応する演算対象画素群中の画素の重みは大きくなり、強度が低いボトム等の座標(x、y)に対応する演算対象画素群中の画素の重みは小さくなる。すなわち、形状が異なるガボールフィルタをある画素にそれぞれ適用すると、演算対象画素群の重み付けの分布が異なり、当該画素の輝度値も異なることとなる。
数1におけるλは、ガボールフィルタの波形のトップからトップ、又はボトムからボトムまでの周期を既定するパラメータである。λの値が大きいと、周期が短くなるため、ピークとボトムが多数存在するようになり、いわゆる高域フィルタとして振る舞うことなる。一方、λを小さくすると、周期が長くなってピークとボトムが少なくなるため、いわゆる低域フィルタとして振る舞うこととなる。
数1におけるγは、ガボールフィルタの形状のxy対称性を規定するパラメータであり、γが1より小さい値になると、楕円運動のように歪んだ動きが知覚される傾向となる。
数1におけるσは、ガボールフィルタの包絡線(envelope)の勾配を規定するパラメータである。σの値は特に限定されないが、σの値が大きくなるとボケが大きくなる傾向となり、σの値が小さくなるとエッジが強調される傾向となり得る。σの値は、本実施形態において、フィルタサイズ(上記のp)の1/3程度の値とすることができる。
数2,3におけるθは、xy平面上におけるガボールフィルタの回転角を示す値であり、感じさせようとする動きの向きを規定するパラメータである。図3Aに示すフィルタと図3Bに示すフィルタとは、それぞれ異なる値のθを有するフィルタである。これらの図に示すように、図3Bに示す形状は、図3Aに示す形状から見て、xy平面の法線成分を中心に回転している。
数1におけるAは、ガボールフィルタ関数の係数であって、画像情報に基づいて規定され得る。例えば、Aの数値が小さいほど入力画像の画質に近い印象となり、Aの数値が大きいとフィルタが強調され、ボケが大きくなる傾向となり得る。
数1におけるψは、ガボールフィルタの位相パラメータであり、動きの大きさや画像の変化の見え方等を規定するパラメータである。より具体的には、ψは、メキシカンハット形状のピークとボトムの高さ(強度)と位置を決定する(図3A,B参照)。すなわち、ψの値を変化させることで、ピークとボトムの位置を変化させることができる。
本実施形態において、フィルタ生成部104は、処理単位毎に、上記各パラメータのうちの少なくとも一部の値を制御量に基づいて設定し、ガボールフィルタの関数を生成することができる。具体的には、例えば、動きの大きさをψ及びfilter_sizeの値、動きの向きをθの値により規定することができる。また、ψ、filter_size、θ以外のパラメータについては、画像情報に基づいて規定することも可能であるし、予め設定されていてもよい。例えば、シーン情報に基づいてσの値を設定することで、構図の種類に応じてエッジの鋭敏さを調整することが可能となる。
また、フィルタ生成部104は、相互に異なる複数のψの値を設定することができる。より具体的には、フィルタ生成部104は、これら複数のψの値を値が小さい順に並べた一つの数列と見た場合、制御量により規定された動きの大きさが大きいほど、隣り合う2項の値の差を大きく設定することができる。例えば、複数のψの値は、等差数列となっていてもよい。また、三角関数の位相パラメータであるψは、一般に、2πの周期性を持つため、上記複数のψの値は、2π以下の数値で設定されていてもよい。これにより、各処理単位に対し、ピークとボトムの位置を所定の間隔で変化させたガボールフィルタを適用することができ、出力画像群を再生すると、当該フィルタを適用した画素の輝度値が連続的に変化したように感じられる。したがって、画像全体で見ると、被写体が動いているように感じられることとなり得る。
一方、本技術は、ガボールフィルタの他にも、ガウス関数を用いた空間フィルタを適用することもできる(非特許文献1参照)。このような空間フィルタは、例えば、ガウス関数G(x)の2次微分関数G"(x)とG"(x)の直交関数H(x)を組み合わせた関数F(x,t)を用いるものである。具体的には、数4に示すように、G"(x)とH(x)の加重平均により算出され、位相パラメータとして、時刻tを有する。

図4Aは、G(x)(符号G0)と、G'(x)(符号G1)、G"(x)(符号G2)の形状例を示すグラフであり、図4Bは、G"(x)(符号G2)とH(x)(符号H)、空間フィルタとして用いるF(x,t)(符号F)の形状例を示すグラフである。ここでH(x)は、G"(x)のヒルベルト(Hilbert)変換から導かれる。ヒルベルト変換では、離散フーリエ変換で実数部と虚数部のフーリエ係数を導出し、その係数を変換した後に、フーリエ逆変換を行う。さらに、数4に示すように、G"(x)とH(x)に重み付けとして三角関数を用いることで、時刻tに対し周期的な特性を持つ位相フィルタが作成できる。
図5は、異なる時刻tにおけるF(x,t)の形状例を示すグラフである。このように、数4に示す関数を用いた空間フィルタを適用した場合も、位相パラメータであるtを変化させることにより、時刻によって異なる複数の出力画像が得られ、これらを連続的に再生することで動いている印象を与えることができる出力画像群が生成できる。
なお、数4及び図4,5では、説明のため1次元フィルタを示しているが、実際の入力画像には、さらにパラメータyを含む2次元フィルタを用いることとなる。
本実施形態においては、ガボールフィルタを用いることができる。これにより、ヒルベルト変換を必要とするガウス関数を用いた空間フィルタよりも演算コストを大きく低減することができる。また、ガボールフィルタによれば、上述のように、生成したいフィルタの形状から設定すべきパラメータの値を直感的に決定しやすく、空間フィルタの生成も容易になる。
[画像処理装置の動作例]
図6は、画像処理装置100の動作を示すフローチャートである。
まず、画像取得部101が、入出力インタフェース15を介して処理対象の入力画像を取得する(ST61)。処理対象の入力画像は、例えば、図示しない撮像装置等により撮像された1枚の静止画像とするが、動画の1フレームとしてもよい。
続いて、画像情報解析部102が、取得された入力画像から画像情報を解析する(ST62)。
具体的には、例えば、奥行き情報解析部102aが、奥行き情報を解析する。ここでは、解析された奥行き情報を、デプス画像として記憶部18が記憶するものとする。
また、シーン情報推定部102bの構図推定部102fが、入力画像に写された空間の構造を推定し、例えば、室内、近景、遠景等の分類を行う。同じくシーン情報推定部102bの被写体推定部102gが、入力画像の被写体の種類を推定し、例えば、人物、自然風景、都市風景等の分類を行う。
また、消失点・消失線推定部102cが、入力画像の消失点及び消失線の少なくとも一方について推定し、入力画像に割り当てられたXY座標と対応付けて消失点・消失線の情報を記憶させる。
また、動きベクトル推定部102dは、入力画像が同一の被写体をそれぞれ含み時間的に連続して再生され得る複数の画像のうちの一つの入力画像である場合に、これら複数の画像から推定される、被写体の当該入力画像における動きベクトルを推定する。
さらに、注視領域推定部102eが、入力画像のうち注視されると推定される注視領域を推定する。
続いて、制御量規定部103が、これらの画像情報に基づいて、処理単位毎に知覚させる動きの制御量を規定する(ST63)。制御量規定部103は、具体的には、処理単位毎に、制御量として、動きの大きさを規定する奥行き量と、動きの向きを規定するxy座標値とを規定する。以下、画像情報に基づく制御量の規定例について説明する。
制御量規定部103は、例えば、奥行き情報解析部102aにより解析された奥行き情報に基づいて、奥行きが浅い処理単位の方が、奥行きが深い処理単位よりも動きを大きく知覚させるように制御量を規定することができる。これにより、奥行き感(立体感)を感じさせることが可能となる。あるいは、制御量規定部103は、例えば、奥行き情報解析部102aにより解析された奥行きが浅い被写体と深い被写体とで動きを感じさせる方向を異なる方向に規定することもできる。
制御量規定部103は、例えば、シーン情報推定部102bによりシーン情報が推定された場合、当該シーン情報に基づいて処理単位毎の制御量を規定することができる。
より具体的に、制御量規定部103は、例えば、構図推定部102fにより、入力画像のシーンが室内や近景であると分類された場合、被写体の動きを大きくするように制御量を規定することができる。これにより、より被写体が近い印象を与え、自然な実物感を与えることができる。あるいは、入力画像のシーンが室内や近景であると分類された場合、奥行き情報解析部102aにより近くにあると解析された被写体と遠くにあると解析された被写体とで動きの大きさの差を大きくすることも可能である。これにより、より立体感を強調することができる。
また、制御量規定部103は、例えば、被写体推定部102gにより人物であると推定された被写体に対しては、動きを与えないように制御量を規定することができる。これにより、人物である被写体を自然に見せることが可能となる。
制御量規定部103は、例えば、消失点・消失線推定部102cにより、消失点及び消失線の少なくとも一方の位置が推定された場合には、消失点及び消失線の少なくとも一方に向かっていくような動き、又は離れていくような動きを知覚させるように制御量を規定することができる。例えば、制御量規定部103は、消失点の位置が推定された場合には、消失点を中心とする方向に動きを感じさせるように制御量を規定することができる。これにより、より奥行き感、立体感を感じさせることが可能となる。
制御量規定部103は、例えば、動きベクトル推定部102dにより動きベクトルが推定された場合、当該動きベクトルに基づいて、動きの大きさ及び向きを制御量として規定することができる。より具体的には、制御量規定部103は、当該動きベクトルにより表現される被写体の動きの大きさや向きに基づいて動きを感じさせるように、制御量を規定することができる。これにより、被写体がより自然に動いているように感じさせることができる。
制御量規定部103は、例えば、注視領域推定部102eにより注視領域が推定された場合、注視領域と注視領域以外の領域とで異なる制御量を規定することができる。より具体的には、制御量規定部103は、注視領域を他の領域よりも被写体の動きをより大きく感じさせるように制御量を規定することができる。あるいは、注視領域の被写体の動きを、周辺の領域の動きとわずかに変化させるように制御量を規定することもできる。
続いて、フィルタ生成部104が、処理単位毎に、規定された制御量に基づいて、入力画像から動きを知覚させる出力画像群を生成することが可能な複数の空間フィルタを生成する(ST64)。フィルタ生成部104は、例えば、処理単位毎の制御量のうち、動きの大きさに対応する位相ψ及びfilter_sizeの値と、動きの向きに対応するθの値とを規定する。フィルタ生成部104は、各処理単位にこれらのパラメータの値を代入したガボールフィルタの関数(数1参照)をそれぞれ算出する。
この場合、フィルタ生成部104は、上述のように複数のψの値を設定することができ、これら複数のψの値を小さい値から順に並べて数列を構成した場合、隣り合う2つの項の差を制御量に基づいて設定することができる。また、動きが大きいほど、隣り合う2つの項のψの値の差を大きく設定することができるし、上記複数のψの値の範囲を、ψの2π周期性に鑑み[0,2π]の範囲で設定してもよい。これにより、処理単位毎にψの値が異なる複数の空間フィルタが生成される。
続いて、処理実行部105が、入力画像の各処理単位に対して複数の空間フィルタを適用し、出力画像群を生成する(ST65)。処理実行部105は、まず、入力画像の各処理単位に対して複数の空間フィルタのうちの一つの空間フィルタをそれぞれ適用して一つの出力画像を生成し、この処理を各処理単位における複数の空間フィルタについて繰り返し行い、複数の出力画像を生成する。
最後に、表示部106は、生成された出力画像群を、所定のタイミングで順次表示する。
以上のように、本実施形態によれば、1つの入力画像から動いている印象を与えることができる出力画像群を生成することができ、当該動きを画像情報に基づいて規定することが可能となる。これにより、より奥行き感、立体感及び実物感が感じられる出力画像群を生成することが可能となる。
さらに、本実施形態によれば、空間フィルタとしてガボールフィルタを用いるため、比較的演算コストを低減することができる。また、生成したいフィルタの形状から設定すべきパラメータの値を直感的に設定しやすいため、空間フィルタの生成を容易に行うことができる。
[変形例1−1]
上述の実施形態においては、フィルタ生成部104が制御量に対応する各パラメータの値を代入した関数を算出し、複数の空間フィルタを生成することができると説明したが、これに限定されない。例えば、記憶部18が、複数の空間フィルタとして適用されることが可能な複数の配列群を含むルックアップテーブルを記憶しており、フィルタ生成部104は、処理単位毎に、記憶されたルックアップテーブルから制御量に基づいて配列群を選択してもよい。ここでいう一つの配列群は、一つの画素(中心画素)に適用し得る空間フィルタを構成する配列群であり、例えば、演算対象画素群の各画素に割り当てられる重み付けの値を規定するものである。一つの配列群に含まれる配列数は、filter_sizeによって規定され得る。
フィルタ生成部104が関数を用いた空間フィルタを適用する場合、一つの配列群は、演算対象画素群の各画素に対応する座標パラメータ(x、y)の値がそれぞれ代入された複数の配列を含んでもよい。また、処理単位毎に配列群を選択する場合には、フィルタ生成部104は、制御量に基づいてパラメータの値が代入された関数に対応する複数の配列群であって、位相パラメータの値が異なる複数の配列群を選択することができる。
これにより、空間フィルタを処理毎に生成する上記実施形態と同様の作用効果が得られるとともに、空間フィルタを繰り返し生成する手間を省き、処理コストを大幅に低減することが可能となる。
なお、記憶部18は、制御量に直接対応付けて各配列群を記憶していてもよい。これにより、フィルタ生成部104が、ルックアップテーブル中の配列群から制御量に基づいて円滑に配列群を選択することが可能となり、より処理コストを低減することができる。あるいは、記憶部18は、空間フィルタに用いる関数に対応付けて各配列群を記憶していてもよい。
[変形例1−2]
上述の実施形態においては、特徴量として、奥行き情報、シーン情報、消失点・消失線の情報、動きベクトルの情報、及び注視領域についての情報の全てを用いると説明したが、これらのうちの少なくとも一つを用いてもよい。
あるいは、特徴量として、上記以外の要素を用いることもできる。
さらに、画像情報は、特徴量に限定されない。例えば、画像情報として、入力画像のメタデータを用いることが可能である。当該メタデータとしては、例えば、レンズの焦点距離や、撮影場所等の情報を挙げることができる。
[変形例1−3]
上述の実施形態においては、空間フィルタとして、ガボールフィルタを用いると説明したが、これに限定されない。例えば、空間フィルタの一例として挙げたガウス関数を用いた空間フィルタでもよいし(数4、図4,5参照)、三角関数により表現されたその他の関数を用いてもよい。また例えば、空間フィルタとして、ガボールフィルタと他の関数とを組み合わせたフィルタを用いることもできる。また、入力画像から動きを知覚させる出力画像群を生成することが可能な複数の空間フィルタを生成可能な関数であれば、三角関数により表現された関数にも限定されない。
[変形例1−4]
上述の実施形態においては、制御量は、動きの大きさを規定する値及び動きの向きを規定するxy座標や、動きの大きさ及び向きを示す動きベクトルであってもよいと説明したが、これに限定されない。例えば、制御量は、空間フィルタに用いられる関数のパラメータの値として規定されてもよい。また、制御量は、感じさせようとする動きの大きさ及び向きの少なくとも一方を規定する量に限定されず、当該動きの速さや加速度を規定する量等であってもよい。あるいは、当該動きが回転運動である場合は、当該動きの回転量や回転速度であってもよい。
[変形例1−5]
以上の実施形態では、空間フィルタについて、制御量に対応するパラメータ以外のパラメータの値は予め設定されていてもよいと説明したが、これに限定されない。例えば、フィルタ生成部104が画像情報に基づいて制御量に対応するパラメータ以外の値を設定してもよい。例えば、シーン情報から被写体が自然風景であると推定された場合、例えばσの値を大きめに設定することができる。これにより、被写体のエッジを強調しすぎることなく、自然風景らしいより実物感のある出力画像群を提供することが可能となる。また、被写体が都市風景であると推定された場合は、例えば、σの値を小さめに設定することができる。これにより、被写体のエッジを強調し、人工物の多い都市の雰囲気をより演出することができる。
したがって、本変形例により、画像情報を有効活用して、より実物感のある出力画像を提供することが可能となる。
[変形例1−6]
あるいは、制御量に対応するパラメータ以外の値は、ユーザが設定可能に構成されてもよい。この場合は、例えば、予め数種類のパターンのパラメータの値を設定しておき、ユーザの入力に基づいて、これらのパターンが選択されることが可能に構成されてもよい。上記パターンは、例えば、エッジを強調するモードやエッジを強調しないモード、高画質に見えるモードなど、ユーザの好みに応じて選択可能に決定されてもよい。ガボールフィルタを適用する場合、例えば、エッジを強調するモードでは、σの値を小さめに設定することができ、エッジを強調しないモードでは、σの値を大きめに設定することができる。また、高画質に見えるモードでは、Aの値を小さめに設定したり、γの値を大きめに設定することができる。
これにより、ユーザが自分の好みに応じて出力画像群を制御することができ、よりユーザの満足度を高めることができる。
<第2の実施形態>
[画像処理システムのハードウェア構成]
図7は、本技術の第2の実施形態に係る画像処理システム2のハードウェア構成を示すブロック図である。同図において、画像処理システム2は、クラウドシステムであり、画像処理装置200と、表示装置260とを備える。画像処理装置200及び表示装置260は、ネットワークNを介して相互に接続されている。表示装置260は、例えばPC、タブレットPC、スマートフォン、タブレット端末等のユーザ端末として構成され、画像処理装置200は、例えばネットワークN上のサーバ装置(情報処理装置)として構成される。
画像処理システム2は、以下のような動作が可能に構成される。すなわち、表示装置260から送信された入力画像に対し、画像処理装置200が画像情報を抽出し、空間フィルタを生成して出力画像群を生成し、当該出力画像群を表示装置260へ送信する。そして、表示装置260が、受信した出力画像群を表示する。
表示装置260は、コントローラ261、ROM262、RAM263、入出力インタフェース265、及び、これらを互いに接続するバス264を備える。さらに、入出力インタフェース265には、ディスプレイ266、操作受付部267、記憶部268、通信部269等が接続される。コントローラ261、ROM262、RAM263、バス264、入出力インタフェース265、ディスプレイ266、操作受付部267、記憶部268、及び通信部269は、それぞれ、コントローラ11、ROM12、RAM13、バス14、入出力インタフェース15、ディスプレイ16、操作受付部17、記憶部18、及び通信部19と同様の構成であるため、その説明を省略する。なお、表示装置260の入出力インタフェース265には、図示しない撮像部等が接続されていてもよい。
画像処理装置200は、コントローラ21、ROM22、RAM23、入出力インタフェース25、及び、これらを互いに接続するバス24を備える。さらに、入出力インタフェース25には、操作受付部27、記憶部28、通信部29等が接続される。コントローラ21、ROM22、RAM23、バス24、入出力インタフェース25、ディスプレイ26、操作受付部27、記憶部28、及び通信部29は、それぞれ、コントローラ11、ROM12、RAM13、バス14、入出力インタフェース15、操作受付部17、記憶部18、及び通信部19と同様の構成であるため、その説明を省略する。
[画像処理システムの機能的構成]
図8は、画像処理システム2の機能的構成を示すブロック図である。同図に示すように、画像処理システム2は、画像取得部201と、画像情報解析部202と、制御量規定部203と、フィルタ生成部204と、処理実行部205と、表示部206とを備える。このうち画像処理装置200は、画像取得部201と、画像情報解析部202と、制御量規定部203と、フィルタ生成部204と、処理実行部205とを備える。表示装置260は、表示部206を備える。
上記各要素は、画像処理装置100の画像取得部101と、画像情報解析部102と、制御量規定部103と、フィルタ生成部104と、処理実行部105と、表示部106と同様の構成を有する。すなわち、画像取得部201は、処理対象の入力画像を取得する。画像情報解析部202は、取得された入力画像から画像情報を解析し、奥行き情報解析部202aと、シーン推定部202bと、消失点・消失線推定部202cと、動きベクトル推定部202dと、注視領域推定部202eとを有する。フィルタ生成部204は、処理単位毎に、規定された制御量に基づいて、入力画像から動きを知覚させる出力画像群を生成することが可能な複数の空間フィルタを生成する。処理実行部205は、入力画像の各処理単位に対してフィルタ生成部204により生成された複数の空間フィルタを適用し、出力画像群を生成する。表示部206は、処理実行部205により生成された出力画像群を所定の順序で連続的に表示する。これら各要素の詳細な説明は省略する。
なお、画像取得部201は、例えば、表示装置260から通信部269,29を介して送信され、記憶部28に記憶された画像を入力画像として取得してもよい。あるいは、ユーザによる表示装置260の操作に基づき、ネットワーク上のデータベース等に記憶された画像を入力画像として取得してもよい。
処理実行部205によって生成された出力画像群は、通信部29,269を介して表示装置260へ送信され、表示部206により表示される。表示部206は、例えば、表示装置260のディスプレイ266によって実現される。
以上のような構成の画像処理装置200であっても、画像処理装置100と同様に、画像情報に基づいて奥行き感、立体感及び実物感が感じられる出力画像群を生成することが可能となる。
さらに本実施形態によれば、クラウドシステムを利用して、動きを知覚できる出力画像群を生成することが可能となる。これにより、画像処理による表示装置260等のユーザ端末の負荷を軽減しつつ、ユーザに対し出力画像群を表示させることが可能となる。
<第3の実施形態>
[画像処理システムの概略構成]
図9は、本技術の第3の実施形態に係る画像処理システム3の概略構成を示すブロック図である。同図において、画像処理システム3は、クラウドシステムであり、画像処理装置300と、表示装置360とを備える。画像処理装置300及び表示装置360は、ネットワークNを介して相互に接続されている。表示装置360は、ユーザ端末として構成され、画像処理装置300は、例えばネットワークN上のサーバ装置(情報処理装置)として構成される。なお、画像処理装置300及び表示装置360のハードウェア構成は、それぞれ画像処理装置200及び表示装置260のハードウェア構成と同様であるため、説明を省略する。
画像処理システム3は、以下のような動作が可能に構成される。すなわち、表示装置360から送信された入力画像に対し、画像処理装置300が画像情報を抽出し、空間フィルタを生成してこれを表示装置360に送信する。表示装置360は、画像処理装置300から受信した空間フィルタを入力画像に適用することで出力画像群を生成し、これを表示する。
[画像処理システムの機能的構成]
図10は、画像処理システム3の機能的構成を示すブロック図である。同図に示すように、画像処理システム3は、画像取得部301と、画像情報解析部302と、制御量規定部303と、フィルタ生成部304と、処理実行部305と、表示部306とを備える。このうち画像処理装置300は、画像取得部301と、画像情報解析部302と、制御量規定部303と、フィルタ生成部304とを備える。表示装置360は、処理実行部305と、表示部306とを備える。
上記各要素は、画像処理装置100の画像取得部101と、画像情報解析部102と、制御量規定部103と、フィルタ生成部104と、処理実行部105と、表示部106と同様の構成を有する。すなわち、画像取得部301は、処理対象の入力画像を取得する。画像情報解析部302は、取得された入力画像から画像情報を解析し、奥行き情報解析部302aと、シーン推定部302bと、消失点・消失線推定部302cと、動きベクトル推定部302dと、注視領域推定部302eとを有する。フィルタ生成部304は、処理単位毎に、規定された制御量に基づいて、入力画像から動きを知覚させる出力画像群を生成することが可能な複数の空間フィルタを生成する。処理実行部305は、入力画像の各処理単位に対してフィルタ生成部204により生成された複数の空間フィルタを適用し、出力画像群を生成する。表示部306は、処理実行部305によって生成された出力画像群を、所定の順序で連続的に表示する。これら各要素の詳細な説明は省略する。
画像処理装置300のフィルタ生成部304により生成された複数の空間フィルタは、通信部(図示せず)を介して表示装置360に送信される。この際、入力画像もともに送信されてもよいし、表示装置360の記憶部(図示せず)に入力画像が記憶されている場合は、空間フィルタのみ送信されてもよい。送信される各空間フィルタには、それぞれ、適用される入力画像の画素の位置情報や、当該画素に適用される複数の空間フィルタの中での再生順序等の情報が対応付けられている。
処理実行部305は、例えば、表示装置360のコントローラ(図示せず)により実現される。処理実行部305は、各空間フィルタに対応付けられた情報に基づいて、入力画像の各処理単位に対し、送信された空間フィルタを適用し、出力画像群を生成する。
表示部306は、例えば、表示装置360のディスプレイ(図示せず)により実現される。表示部306により、表示装置360から出力画像群が所定の間隔で順次表示される。
以上のような構成の画像処理装置300であっても、画像処理装置100と同様に、奥行き感、立体感及び実物感が感じられる出力画像群を生成することが可能となる。さらに本実施形態によれば、第2の実施形態と同様に、クラウドシステムを利用して、動きを知覚できる出力画像群を生成することが可能となる。
<第4の実施形態>
[画像処理システムの概略構成]
図11は、本技術の第4の実施形態に係る画像処理システム4の概略構成を示すブロック図である。同図において、画像処理システム4は、クラウドシステムであり、画像処理装置400と、表示装置460とを備える。画像処理システム4の画像処理装置400と表示装置460とは、ネットワークNを介して相互に接続されている。表示装置460は、ユーザ端末として構成され、画像処理装置400は、例えばネットワークN上のサーバ装置(情報処理装置)として構成される。なお、画像処理装置400及び表示装置460のハードウェア構成は、画像処理装置200及び表示装置260のハードウェア構成と同様であるため、説明を省略する。
画像処理システム4は、以下のような動作が可能に構成される。すなわち、表示装置460が、入力画像から画像情報を解析し、入力画像とともに画像処理装置400に送信する。画像処理装置400は、画像情報に基づいて空間フィルタを生成して出力画像群を生成し、表示装置460に送信する。さらに表示装置460は、この空間フィルタを入力画像に適用することで、出力画像群を生成し、再生する。
[画像処理システムの機能的構成]
図12は、画像処理システム4の機能的構成を示すブロック図である。同図に示すように、画像処理システム4は、画像取得部401と、画像情報解析部402と、制御量規定部403と、フィルタ生成部404と、処理実行部405と、表示部406とを備える。このうち画像処理装置400は、制御量規定部403と、フィルタ生成部404と、処理実行部405とを備える。表示装置460は、画像取得部401と、画像情報解析部402と、表示部406とを備える。
上記各要素は、画像処理装置100の画像取得部101と、画像情報解析部102と、制御量規定部103と、フィルタ生成部104と、処理実行部105と同様の構成を有する。すなわち、画像取得部401は、処理対象の入力画像を取得する。画像情報解析部402は、取得された入力画像から画像情報を解析し、奥行き情報解析部402aと、シーン推定部402bと、消失点・消失線推定部402cと、動きベクトル推定部402dと、注視領域推定部402eとを有する。フィルタ生成部404は、処理単位毎に、規定された制御量に基づいて、入力画像から動きを知覚させる出力画像群を生成することが可能な複数の空間フィルタを生成する。処理実行部405は、入力画像の各処理単位に対してフィルタ生成部204により生成された複数の空間フィルタを適用し、出力画像群を生成する。表示部406は、処理実行部405によって生成された出力画像群を、所定の順序で連続的に表示する。これら各要素の詳細な説明は省略する。
画像取得部401と、画像情報解析部402とは、例えば表示装置460のコントローラ(図示せず)により実現される。入力画像を表示装置460により解析された画像情報は、表示装置460及び画像処理装置400各々の通信部(図示せず)を介して画像処理装置400に送信される。なお、この際、入力画像は、画像情報とともに送信されてもよいし、送信されなくてもよい。
表示部406は、例えば、表示装置460のディスプレイ(図示せず)により実現される。表示部406は、表示部206と同様に、ユーザの操作等に基づいて、出力画像群を所定の順序で連続的に表示する。これにより、表示装置460から出力画像群が順次表示される。
以上のような構成の画像処理装置400であっても、画像処理装置100と同様に、奥行き感、立体感及び実物感が感じられる出力画像群を生成することが可能となる。さらに本実施形態によれば、第2の実施形態と同様に、クラウドシステムを利用して、動きを知覚できる出力画像群を生成することが可能となる。
[変形例4−1]
上述の第4の実施形態では、画像処理装置400が、制御量規定部403と、フィルタ生成部404と、処理実行部405とを備えると説明したが、これに限定されない。例えば、画像処理装置400が処理実行部405を備えず、表示装置460が処理実行部405を備える構成としてもよい。この場合は、第3の実施形態と同様に、画像処理装置400のフィルタ生成部404により生成された複数の空間フィルタが、図示しない通信部を介して表示装置460に送信され、表示装置460側で出力画像群が生成される。このような構成によっても、上述の実施形態と同様の作用効果を得ることができる。
[変形例4−2]
上述の第4の実施形態では、表示装置460が画像情報解析部402を備えると説明したが、これに限定されず、例えば図13に示すように、画像処理装置400が画像情報解析部402と、制御量規定部403と、フィルタ生成部404と、処理実行部405とを備えていてもよい。すなわち、表示装置460の画像取得部401により取得された入力画像が、表示装置460及び画像処理装置400各々の通信部(図示せず)を介して画像処理装置400に送信される。画像処理装置400は、当該入力画像を用いて処理を行い、表示装置460からの要求等に応じて表示装置460へ出力画像群を送信する。このような構成によっても、上述の実施形態と同様の作用効果を得ることができる。
さらに、本発明は上述の実施形態にのみ限定されるものではなく、本開示の要旨を逸脱しない範囲内において種々変更され得る。また、上述の第1〜第4の各実施形態及び各実施例は、矛盾が生じない限り如何様にも組み合わされて実行され得る。
なお、本技術は以下のような構成もとることができる。
(1)複数の処理単位を含む入力画像の画像情報に基づいて、処理単位毎に知覚させる動きの制御量を規定する制御量規定部と、
上記処理単位毎に、上記規定された制御量に基づいて、上記入力画像から上記動きを知覚させる出力画像群を生成することが可能な複数の空間フィルタを生成するフィルタ生成部と
を具備する画像処理装置。
(2)上記(1)に記載の画像処理装置であって、
上記制御量は、上記知覚させる動きの大きさ及び向きの少なくとも一方を規定する量である
画像処理装置。
(3)上記(1)又は(2)に記載の画像処理装置であって、
上記画像情報は、上記入力画像から抽出された特徴量を含む
画像処理装置。
(4)上記(3)に記載の画像処理装置であって、
上記特徴量は、上記入力画像の奥行き情報を含み、
上記制御量規定部は、上記奥行き情報に基づいて、奥行きが浅い位置処理単位の方が、奥行きが深い処理単位よりも上記動きを大きく知覚させるように上記制御量を規定する
画像処理装置。
(5)上記(3)又は(4)に記載の画像処理装置であって、
上記特徴量は、上記入力画像から推定されるシーンについてのシーン情報を含み、
上記制御量規定部は、上記シーン情報に基づいて処理単位毎の制御量を規定する
画像処理装置。
(6)上記(5)に記載の画像処理装置であって、
上記シーン情報は、上記入力画像中の空間の構造についての情報を含む
画像処理装置。
(7)上記(5)又は(6)に記載の画像処理装置であって、
上記シーン情報は、上記入力画像の被写体の種類についての情報を含む
画像処理装置。
(8)上記(3)から(7)のいずれか1つに記載の画像処理装置であって、
上記特徴量は、上記入力画像の消失点及び消失線の少なくとも一方の位置についての情報を含み、
上記制御量規定部は、消失点及び消失線の少なくとも一方に向かっていくような動き、又は離れていくような動きを知覚させるように制御量を規定する
画像処理装置。
(9)上記(3)から(8)のいずれか1つに記載の画像処理装置であって、
上記入力画像は、同一の被写体をそれぞれ含み時間的に連続して再生され得る複数の画像のうちの一つの画像であり、
上記特徴量は、上記複数の画像から推定される、上記被写体の上記入力画像における動きベクトルについての情報を含み、
上記制御量規定部は、上記動きベクトルに基づいて、上記動きの大きさ及び向きを制御量として規定する
画像処理装置。
(10)上記(3)から(9)のいずれか1つに記載の画像処理装置であって、
上記特徴量は、上記入力画像のうち注視されると推定される注視領域についての情報を含み、
上記制御量規定部は、上記注視領域と上記注視領域以外の領域とで異なる上記制御量を規定する
画像処理装置。
(11)上記(1)から(10)のいずれか1つに記載の画像処理装置であって、
上記入力画像を取得する画像取得部と、
上記入力画像から上記画像情報を解析する画像情報解析部とをさらに具備する
画像処理装置。
(12)上記(1)から(11)のいずれか1つに記載の画像処理装置であって、
上記複数の空間フィルタ各々は、位相パラメータの値がそれぞれ異なり三角関数により表現された関数を含む
画像処理装置。
(13)上記(12)に記載の画像処理装置であって、
上記複数の空間フィルタ各々は、位相パラメータの値がそれぞれ異なるガボールフィルタをそれぞれ含む
画像処理装置。
(14)上記(1)から(13)のいずれか1つに記載の画像処理装置であって、
上記複数の空間フィルタとして適用されることが可能な複数の配列群を含むルックアップテーブルを記憶する記憶部を具備し、
上記フィルタ生成部は、上記処理単位毎に、上記ルックアップテーブルから上記制御量に基づいて配列群を選択する
画像処理装置。
(15)上記(1)から(14)のいずれか1つに記載の画像処理装置であって、
上記入力画像の各処理単位に対して上記複数の空間フィルタを適用して出力画像群を生成する処理実行部をさらに具備する
画像処理装置。
(16)複数の処理単位を含む入力画像の画像情報に基づいて、処理単位毎に知覚させる動きの制御量を規定し、
上記処理単位毎に、上記規定された制御量に基づいて、上記入力画像から上記動きを知覚させる出力画像群を生成することが可能な複数の空間フィルタを生成する
画像処理方法。
(17)情報処理装置に、
複数の処理単位を含む入力画像の画像情報に基づいて、処理単位毎に知覚させる動きの制御量を規定するステップと、
上記処理単位毎に、上記規定された制御量に基づいて、上記入力画像から上記動きを知覚させる出力画像群を生成することが可能な複数の空間フィルタを生成するステップと
を実行させるプログラム。
101,201,301,401…画像取得部
102,202,302,402…画像情報解析部
103,203,303,403…制御量規定部
104,204,304,404…フィルタ生成部
105,205,305,405…処理実行部
100,200,300,400…画像処理装置

Claims (17)

  1. 複数の処理単位を含む入力画像の画像情報に基づいて、処理単位毎に知覚させる動きの制御量を規定する制御量規定部と、
    前記処理単位毎に、前記規定された制御量に基づいて、前記入力画像から前記動きを知覚させる出力画像群を生成することが可能な複数の空間フィルタを生成するフィルタ生成部と
    を具備する画像処理装置。
  2. 請求項1に記載の画像処理装置であって、
    前記制御量は、前記知覚させる動きの大きさ及び向きの少なくとも一方を規定する量である
    画像処理装置。
  3. 請求項1に記載の画像処理装置であって、
    前記画像情報は、前記入力画像から抽出された特徴量を含む
    画像処理装置。
  4. 請求項3に記載の画像処理装置であって、
    前記特徴量は、前記入力画像の奥行き情報を含み、
    前記制御量規定部は、前記奥行き情報に基づいて、奥行きが浅い位置処理単位の方が、奥行きが深い処理単位よりも前記動きを大きく知覚させるように前記制御量を規定する
    画像処理装置。
  5. 請求項3に記載の画像処理装置であって、
    前記特徴量は、前記入力画像から推定されるシーンについてのシーン情報を含み、
    前記制御量規定部は、前記シーン情報に基づいて処理単位毎の制御量を規定する
    画像処理装置。
  6. 請求項5に記載の画像処理装置であって、
    前記シーン情報は、前記入力画像中の空間の構造についての情報を含む
    画像処理装置。
  7. 請求項5に記載の画像処理装置であって、
    前記シーン情報は、前記入力画像の被写体の種類についての情報を含む
    画像処理装置。
  8. 請求項3に記載の画像処理装置であって、
    前記特徴量は、前記入力画像の消失点及び消失線の少なくとも一方の位置についての情報を含み、
    前記制御量規定部は、消失点及び消失線の少なくとも一方に向かっていくような動き、又は離れていくような動きを知覚させるように制御量を規定する
    画像処理装置。
  9. 請求項3に記載の画像処理装置であって、
    前記入力画像は、同一の被写体をそれぞれ含み時間的に連続して再生され得る複数の画像のうちの一つの画像であり、
    前記特徴量は、前記複数の画像から推定される、前記被写体の前記入力画像における動きベクトルについての情報を含み、
    前記制御量規定部は、前記動きベクトルに基づいて、前記動きの大きさ及び向きを制御量として規定する
    画像処理装置。
  10. 請求項3に記載の画像処理装置であって、
    前記特徴量は、前記入力画像のうち注視されると推定される注視領域についての情報を含み、
    前記制御量規定部は、前記注視領域と前記注視領域以外の領域とで異なる前記制御量を規定する
    画像処理装置。
  11. 請求項1に記載の画像処理装置であって、
    前記入力画像を取得する画像取得部と、
    前記入力画像から前記画像情報を解析する画像情報解析部とをさらに具備する
    画像処理装置。
  12. 請求項1に記載の画像処理装置であって、
    前記複数の空間フィルタ各々は、位相パラメータの値がそれぞれ異なり三角関数により表現された関数を含む
    画像処理装置。
  13. 請求項12に記載の画像処理装置であって、
    前記複数の空間フィルタ各々は、位相パラメータの値がそれぞれ異なるガボールフィルタをそれぞれ含む
    画像処理装置。
  14. 請求項1に記載の画像処理装置であって、
    前記複数の空間フィルタとして適用されることが可能な複数の配列群を含むルックアップテーブルを記憶する記憶部を具備し、
    前記フィルタ生成部は、前記処理単位毎に、前記ルックアップテーブルから前記制御量に基づいて配列群を選択する
    画像処理装置。
  15. 請求項1に記載の画像処理装置であって、
    前記入力画像の各処理単位に対して前記複数の空間フィルタを適用して出力画像群を生成する処理実行部をさらに具備する
    画像処理装置。
  16. 複数の処理単位を含む入力画像の画像情報に基づいて、処理単位毎に知覚させる動きの制御量を規定し、
    前記処理単位毎に、前記規定された制御量に基づいて、前記入力画像から前記動きを知覚させる出力画像群を生成することが可能な複数の空間フィルタを生成する
    画像処理方法。
  17. 情報処理装置に、
    複数の処理単位を含む入力画像の画像情報に基づいて、処理単位毎に知覚させる動きの制御量を規定するステップと、
    前記処理単位毎に、前記規定された制御量に基づいて、前記入力画像から前記動きを知覚させる出力画像群を生成することが可能な複数の空間フィルタを生成するステップと
    を実行させるプログラム。
JP2016525671A 2014-06-03 2015-03-31 画像処理装置、画像処理方法及びプログラム Expired - Fee Related JP6558365B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014114545 2014-06-03
JP2014114545 2014-06-03
PCT/JP2015/001856 WO2015186284A1 (ja) 2014-06-03 2015-03-31 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2015186284A1 true JPWO2015186284A1 (ja) 2017-04-20
JP6558365B2 JP6558365B2 (ja) 2019-08-14

Family

ID=54766371

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016525671A Expired - Fee Related JP6558365B2 (ja) 2014-06-03 2015-03-31 画像処理装置、画像処理方法及びプログラム

Country Status (3)

Country Link
US (1) US20170148177A1 (ja)
JP (1) JP6558365B2 (ja)
WO (1) WO2015186284A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102423295B1 (ko) * 2017-08-18 2022-07-21 삼성전자주식회사 심도 맵을 이용하여 객체를 합성하기 위한 장치 및 그에 관한 방법
KR102423175B1 (ko) * 2017-08-18 2022-07-21 삼성전자주식회사 심도 맵을 이용하여 이미지를 편집하기 위한 장치 및 그에 관한 방법
JP7190842B2 (ja) * 2017-11-02 2022-12-16 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
JP2020191564A (ja) 2019-05-22 2020-11-26 ソニーセミコンダクタソリューションズ株式会社 受光デバイス、固体撮像装置、電子機器及び情報処理システム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012067254A1 (ja) * 2010-11-15 2012-05-24 独立行政法人科学技術振興機構 錯視画像生成装置、媒体、画像データ、錯視画像生成方法、印刷媒体製造方法、および、プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9030469B2 (en) * 2009-11-18 2015-05-12 Industrial Technology Research Institute Method for generating depth maps from monocular images and systems using the same
US8406510B2 (en) * 2010-03-10 2013-03-26 Industrial Technology Research Institute Methods for evaluating distances in a scene and apparatus and machine readable medium using the same
JP6214183B2 (ja) * 2012-05-11 2017-10-18 キヤノン株式会社 距離計測装置、撮像装置、距離計測方法、およびプログラム
KR20140033858A (ko) * 2012-09-11 2014-03-19 삼성전자주식회사 사용자 단말의 상태 변화에 기초한 측위 서비스 제공 방법 및 그 사용자 단말

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012067254A1 (ja) * 2010-11-15 2012-05-24 独立行政法人科学技術振興機構 錯視画像生成装置、媒体、画像データ、錯視画像生成方法、印刷媒体製造方法、および、プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
WILLIAM T. FREEMAN ET AL.: "Motion Without Movement", PROCEEDINGS OF THE 18TH ANNUAL CONFERENCE ON COMPUTER GRAPHICS AND INTERACTIVE TECHNIQUES SIGGRAPH ', vol. 25, no. 4, JPN7015001241, 2 July 1991 (1991-07-02), US, pages 27 - 30 *

Also Published As

Publication number Publication date
JP6558365B2 (ja) 2019-08-14
US20170148177A1 (en) 2017-05-25
WO2015186284A1 (ja) 2015-12-10

Similar Documents

Publication Publication Date Title
CN109660783B (zh) 虚拟现实视差校正
JP4966431B2 (ja) 画像処理装置
US10957063B2 (en) Dynamically modifying virtual and augmented reality content to reduce depth conflict between user interface elements and video content
US8094148B2 (en) Texture processing apparatus, method and program
JP6558365B2 (ja) 画像処理装置、画像処理方法及びプログラム
US10885651B2 (en) Information processing method, wearable electronic device, and processing apparatus and system
US11398007B2 (en) Video generation device, video generation method, program, and data structure
BR112019027867A2 (pt) aparelho e método para gerar uma imagem e produto de programa de computador
CN102480626A (zh) 图像处理装置、显示装置以及图像处理方法
CN105611267B (zh) 现实世界和虚拟世界图像基于深度和色度信息的合并
US20200177868A1 (en) Apparatus and method for generating a tiled three-dimensional image representation of a scene
EP3236306A1 (en) A method for rendering a 3d virtual reality and a virtual reality equipment for implementing the method
CN108305280A (zh) 一种双目图像基于最小生成树的立体匹配方法及系统
JP2015050482A (ja) 画像処理装置、立体画像表示装置、画像処理方法およびプログラム
US11543655B1 (en) Rendering for multi-focus display systems
US11120606B1 (en) Systems and methods for image texture uniformization for multiview object capture
JP2013156955A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP6615818B2 (ja) 映像生成装置、映像生成方法、およびプログラム
CN108257169A (zh) 一种双目图像立体匹配方法、系统及其滤波方法、系统
US20240169496A1 (en) Extended depth-of-field correction using reconstructed image
KR20130085143A (ko) 시청자의 시점 정보에 기초하여 3차원 객체 영상 모델을 생성하는 장치 및 방법
CN111028357B (zh) 增强现实设备的软阴影处理方法和装置
WO2019208143A1 (ja) 映像生成装置、映像生成方法、およびプログラム
JP2023113484A (ja) 画像処理装置、画像処理方法およびプログラム
CN115619916A (zh) 一种渲染方法、装置和设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190618

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190701

R151 Written notification of patent or utility model registration

Ref document number: 6558365

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees