JPWO2018096775A1 - 画像処理装置、画像処理方法、プログラム - Google Patents

画像処理装置、画像処理方法、プログラム Download PDF

Info

Publication number
JPWO2018096775A1
JPWO2018096775A1 JP2018552431A JP2018552431A JPWO2018096775A1 JP WO2018096775 A1 JPWO2018096775 A1 JP WO2018096775A1 JP 2018552431 A JP2018552431 A JP 2018552431A JP 2018552431 A JP2018552431 A JP 2018552431A JP WO2018096775 A1 JPWO2018096775 A1 JP WO2018096775A1
Authority
JP
Japan
Prior art keywords
image
depth
pixel
subject
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018552431A
Other languages
English (en)
Inventor
高橋 正宏
正宏 高橋
隆弘 柘植
隆弘 柘植
唐澤 英了
英了 唐澤
裕美 飯塚
裕美 飯塚
諒 三宅
諒 三宅
中山 寛
寛 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2018096775A1 publication Critical patent/JPWO2018096775A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32128Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title attached to the image data, e.g. file header, transmitted message header, information on the same page or in the same computer file as the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/22Cropping
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3245Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document of image modifying data, e.g. handwritten addenda, highlights or augmented reality information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3252Image capture parameters, e.g. resolution, illumination conditions, orientation of the image capture device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3253Position information, e.g. geographical position at time of capture, GPS data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3273Display

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

多様かつ自然な感じが得られる編集画像を容易に生成できるようにする。このために処理対象とした画像について画素の深度情報を用いる。また画像処理において画素の深度情報に対する比較基準となる基準深度情報を設定する。そして基準深度情報と、処理対象とした画像の画素の深度情報を用いて画像編集処理を行う。

Description

本技術は処理対象とする1又は複数の画像の画像編集を行うための画像処理装置、画像処理方法、プログラムに関する。
各種の画像編集を行う画像処理技術が知られている。
特許文献1には、複数の画像を配置して合成する際に位置関係を考慮してレイアウトを決める処理を行うことが記載されている。
特開2010−79570号公報
近年、ソーシャルメディアの普及により一般ユーザが写真や動画をシェアすることが日常に行われている。このために画像にエフェクトを加えるアプリケーションプログラムが普及する一方で、表現が画一化されユーザの個性が発揮しにくい状況が生まれている。
一方で、画像の合成や画像エフェクト等として、より高度で独創的な編集を行おうとすると、専用のツールを用いて画像を直接加工する必要があり、特殊な技能を必要とするだけでなく多くの手間や時間が掛かった。また、編集画像の完成度はユーザのスキルを反映し、自然な仕上がりとは言い難い作品も少なくない。このため一般ユーザが簡易に実行できるものではなかった。
そこで本技術は、一般ユーザが容易に、多様かつ高度な画像編集を行うことができるようにすることを目的とする。
本技術に係る画像処理装置は、処理対象とした画像における画素の深度情報に対する比較基準となる基準深度情報を設定する基準深度設定部と、前記基準深度情報と、処理対象とした画像の画素の深度情報を用いて画像編集処理を行う画像編集処理部とを備える。
この場合、画素について被写体までの距離(奥行き)の値となる深度情報を有する画像データを処理対象とする。なお、深度情報は、画像データを構成する1画素毎に付加されていても良いし、カラー画素としての画素ブロック毎(例えばR画素、G画素、B画素の3画素の単位)などでもよいに付加されていても良い。或いは4画素、9画素など、画素ブロック毎に深度情報が付加されていても良い。
基準深度情報は、比較基準となる深度の閾値や、処理基準となる或る深度、挿入深度、深度の範囲を示す値などである。
画像処理装置は、このような画素(画素ブロック)毎に、深度情報を基準深度情報と比較し、その比較結果に応じた画像処理を行う。
上記した本技術に係る画像処理装置においては、前記基準深度設定部は、操作入力に応じて前記基準深度情報を設定することが考えられる。
すなわちユーザが画像処理の際に用いる基準深度情報を任意に設定できるようにする。
上記した本技術に係る画像処理装置においては、前記基準深度設定部は前記基準深度情報として深度閾値を設定し、前記画像編集処理部は、処理対象とした画像の各画素の深度情報と深度閾値の比較結果に基づいて抽出した被写体のトリミング画像を生成する画像編集処理を行うことが考えられる。
すなわち被写体の深度方向で閾値を設定し、その閾値を基準深度として、処理対象の画像の中で表示する画素を抽出する。
上記した本技術に係る画像処理装置においては、前記基準深度設定部は処理対象とした画像の全画素と比較する共通の深度閾値を設定することが考えられる。
深度閾値として1つの値を設定し、その閾値を処理対象の画像の全画素と比較して、その比較結果により表示する画素を抽出する。
上記した本技術に係る画像処理装置においては、前記基準深度設定部は、複数の深度閾値を設定し、前記画像編集処理部は、画素毎に、画素の深度情報と該画素に対応された深度閾値を比較することが考えられる。
深度閾値として複数値を設定する。例えば画像の領域毎に異なる深度閾値を設定したり、画素毎に対応する深度閾値を設定する。そして各画素を対応する深度閾値と比較して表示する画素を抽出する。
上記した本技術に係る画像処理装置においては、前記画像編集処理部は、トリミングの対象となる被写体の情報を取得し、処理対象の画像の各画素について、深度閾値との比較結果と、トリミングの対象となる被写体の画素であるか否かの判定結果を用いてトリミング画像を生成する画像編集処理を行うことが考えられる。
この場合、深度の比較結果だけでなく、画像解析による被写体認識を用いて判定した被写体の画素であるか否かの判定も行って、それらの結果で表示する画素を抽出する。
上記した本技術に係る画像処理装置においては、前記基準深度設定部は前記基準深度情報として深度閾値を設定し、前記画像編集処理部は、処理対象とした画像の各画素の深度情報と深度閾値の比較結果により、深度閾値より手前側もしくは奥側のうちの一方側と判定された画素を表示する画素とし、他方側と判定された画素の値を他の値に置換する処理を行うことが考えられる。
すなわち被写体の深度方向で閾値を設定し、その閾値を基準深度として、手前側と奥側で、そのまま表示する画素と、画素値を置換する画素とを分ける。
上記した本技術に係る画像処理装置においては、前記画像編集処理部は、前記他方側と判定された画素の全てについて、画素値を、被写体を非表示とする値もしくは表示効果を付与する値に置換する画像編集処理を行うことが考えられる。
例えば深度閾値で分けた他方側の被写体の画素を、その被写体を非表示とする値に置換して、元々の被写体とは無関係な画素値とすることで、他方側の被写体を非表示とし、一方側の被写体のみを表示させるトリミング画像を生成できる。
また例えば深度閾値で分けた他方側の被写体の画素を、その被写体に画像エフェクトを与えた場合の値に置換すれば、一方側の被写体が元のまま表示され他方側の被写体には画像効果が付与された画像を生成できる。
上記した本技術に係る画像処理装置においては、前記画像編集処理部は、前記他方側と判定された画素について、他の画像の画素値に置換する画像編集処理を行うことが考えられる。
例えば深度閾値で分けた他方側の被写体の画素を、別の画像の画素の画素値に置換すれば、一方側の被写体が元のまま表示され他方側は他の画像の被写体が合成された画像を生成できる。
上記した本技術に係る画像処理装置においては、前記基準深度設定部は前記基準深度情報として挿入深度を設定し、前記画像編集処理部は、第1画像に第2画像を合成する処理として、前記第1画像の各画素の深度情報と挿入深度の比較結果に基づいて、前記第2画像の画素と前記第1画像に対する画素との前後関係を判定し、該判定結果に基づいて合成画像を生成する画像編集処理を行うことが考えられる。
第1画像は例えば写真画像などとして被写体が深度情報を持っている。一方、第2画像は深度情報を持っていない場合を想定する。例えば第2画像は、文字の画像や二次元的に生成したグラフィック等の元々平面上の画像とする。このような第2画像を第1画像に挿入する深度を挿入深度として設定する。その深度の位置に第2画像が存在するような合成を行う。
上記した本技術に係る画像処理装置においては、前記画像編集処理部は、前記第2画像に対して、挿入深度に応じた画像エフェクト処理を行うことが考えられる。
第2画像は設定した挿入深度の奥行き位置で第1画像に挿入するように合成される。この第2画像に対して、その挿入深度に応じた画像効果を与える。
また複数の第2画像をそれぞれ異なる挿入深度で合成する場合、各第2画像は、それぞれの挿入深度に応じた画像エフェクトを施すようにする。
上記した本技術に係る画像処理装置においては、前記基準深度設定部は前記基準深度情報として深度基準値を設定し、前記画像編集処理部は、処理対象とした画像の各画素について深度情報と深度基準値の比較結果に基づいて画像エフェクトレベルを設定し、処理対象とした画像に画像エフェクト処理を施す画像編集処理を行うことが考えられる。
すなわち処理対象の画像に画像エフェクトを施す場合に、その被写体の深度に応じたエフェクトレベル(効果の強さ)を設定する。例えばその設定は、深度基準値と画素の深度情報の差に応じたものとする。
上記した本技術に係る画像処理装置においては、前記基準深度設定部は前記基準深度情報として挿入深度を設定し、前記画像編集処理部は、第1画像と第2画像を合成する処理として、前記第1画像の被写体と前記第2画像の被写体の一方又は両方のサイズを変更し、前記第1画像の画素の深度情報と挿入深度の比較結果に基づいて、前記第2画像の画素と前記第1画像に対する画素との前後関係を判定し、該判定結果に基づいて合成画像を生成する画像編集処理を行うことが考えられる。
例えば第1画像、第2画像としてスケールや時刻が異なる画像を合成することを想定する。この場合に第2画像を第1画像に挿入する深度を挿入深度として設定する。その深度の位置において第2画像の被写体のサイズを変更して挿入するような合成を行う。
上記した本技術に係る画像処理装置においては、前記画像編集処理部は、前記第2画像からトリミングした被写体画像を、前記第1画像に合成する処理を行うことが考えられる。
例えば第2の画像の一部の被写体をトリミングで取りだし、第1画像の被写体と第2画像の被写体の一方又は両方のサイズを変更したうえで、トリミングした第2画像の被写体を第1画像に組み込むような合成処理を行う。
上記した本技術に係る画像処理装置においては、前記画像編集処理部は、前記第2画像からトリミングした被写体画像に対して、挿入深度に応じた画像エフェクト処理を行うことが考えられる。
例えば第1画像とのサイズ関係が変更された第2画像は設定した挿入深度の奥行き位置で第1画像に挿入するように合成される。この第2画像に対して、その挿入深度に応じた画像効果を与える。
また複数の第2画像をそれぞれ異なる挿入深度で合成する場合、各第2画像は、それぞれの挿入深度に応じた画像エフェクトを施すようにする。
上記した本技術に係る画像処理装置においては、前記基準深度設定部は前記基準深度情報として複数の深度閾値を設定し、前記画像編集処理部は、処理対象とした画像において各深度閾値を用いて抽出した画素を平面化した画像を合成する画像編集処理を行うことが考えられる。
すなわちいくつかの深度閾値で被写体を切り出して平面化する。これらを平面化して例えば元の位置状態で重ねるように合成する。
上記した本技術に係る画像処理装置においては、前記画像編集処理部は、処理対象の画像の各画素の深度情報として、最小値から最大値の範囲内で、複数の深度閾値を設定することが考えられる。
これにより被写体が適切に切り出されるようにする。
上記した本技術に係る画像処理装置においては、前記基準深度設定部は前記基準深度情報として深度閾値を1又は複数設定し、前記画像編集処理部は、1又は複数の画像から、設定した1又は複数の深度閾値を用いて抽出して被写体画像を抽出し、抽出した被写体画像を合成する画像編集処理を行うことが考えられる。
この場合、深度情報を用いて被写体画像を切り出し、切り出した複数の被写体画像を合成する。
本技術に係る画像処理方法は、処理対象とした画像における画素の深度情報に対する比較基準となる基準深度情報を設定する基準深度設定手順と、前記基準深度情報と、処理対象とした画像の画素の深度情報を用いて画像編集処理を行う画像編集処理手順とを情報処理装置が実行するものである。
本技術に係るプログラムは、これらの各手順に相当する処理ステップを情報処理装置に実行させるプログラムである。
これらの方法又はプログラムにより、多様な画像編集を容易に実現できる画像処理装置を実現できる。
本技術によれば画像合成や画像エフェクトを施す等の多様な画像編集であって、より高度な画像処理を、高度なスキルを要求せずに一般ユーザが容易に実現できる環境を提供できる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術の実施の形態の画像処理装置のブロック図である。 実施の形態の画像処理のための操作態様の説明図である。 実施の形態の処理対象の画像の深度情報の説明図である。 実施の形態の画像処理装置を実現する情報処理装置のブロック図である。 第1の実施の形態のトリミング画像の説明図である。 第1の実施の形態のトリミング画像の切り出し処理の説明図である。 第1の実施の形態の画像編集処理のフローチャートである。 第1の実施の形態の画像編集処理の他の例のフローチャートである。 実施の形態の基準深度情報である閾値を画素毎に設定する場合の説明図である。 実施の形態の基準深度情報である閾値を画素毎に設定する場合の説明図である。第1 第1の実施の形態のトリミング画像と他の画像の合成の説明図である。 第1の実施の形態の画像編集処理のさらに他の例のフローチャートである。 第2の実施の形態の合成画像の説明図である。 第2の実施の形態の合成画像の説明図である。 第2の実施の形態の画像編集処理のフローチャートである。 第2の実施の形態の変形例の合成画像の説明図である。 第2の実施の形態の変形例の画像編集処理のフローチャートである。 第3の実施の形態のエフェクト画像の説明図である。 第3の実施の形態の画像編集処理のフローチャートである。 第3の実施の形態のエフェクト処理の説明図である。 第4の実施の形態の合成画像の説明図である。 第4の実施の形態の合成画像の説明図である。 第4の実施の形態の画像編集処理のフローチャートである。 第5の実施の形態の編集画像の説明図である。 第5の実施の形態の画像編集処理のフローチャートである。 第5の実施の形態の深度閾値の説明図である。 第5の実施の形態の他の例の編集画像の説明図である。 第5の実施の形態の他の例の画像編集処理のフローチャートである。
以下、実施の形態を次の順序で説明する。
<1.画像処理装置の構成>
<2.第1の実施の形態>
<3.第2の実施の形態>
<4.第3の実施の形態>
<5.第4の実施の形態>
<6.第5の実施の形態>
<7.まとめ及び変形例>
<1.画像処理装置の構成>

図1は本開示の画像処理装置1の機能構成と画像処理装置1の周辺構成を示している。画像処理装置1は、画像取得部2、深度取得部3、基準深度設定部4、画像編集処理部5、画像出力部6を有している。
また画像処理装置1の周辺構成の一例として、操作部10、表示部11、通信部12、記憶部13、画像ソース14を示している。
操作部10、表示部11、通信部12、記憶部13、画像ソース14のそれぞれは画像処理装置1と一体の機器内に設けられてもよいし、別体の機器とされて画像処理装置1と有線又は無線通信により接続されるものであっても良い。
まず画像処理装置1の周辺構成について説明する。
操作部10は画像編集のためのユーザの各種操作を検知する。この操作部10は、実際のキー、スイッチ等の操作子の操作を検知する構成でもよいし、コンピュータ装置におけるマウスやキーボード、音声入力、ジェスチャ入力、非接触入力等の操作を検知する構成でもよい。
また操作部10は、例えば図2Aに例示するスマートフォン等の携帯端末101においてタッチ操作、タップ操作等を検知する構成でもよい。図2Aは、例えば画像処理装置1が搭載された携帯端末101において、編集処理対象の画像を画面102に表示している状態を示している。図2Bはさらに画面102にタッチ操作のための操作ボタン111やスライドレバー110を表示した状態を示している。ユーザは操作ボタン111やスライドレバー110を用いて画像編集のための各種操作を行うことができる。
表示部11は、ユーザ(撮像者等)に対して各種表示を行う表示部であり、例えば画像処理装置1を含む装置の筐体に設けられたLCD(Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイ等のディスプレイデバイスとされる。例えばこの表示部11は図2Aの携帯端末101等の画面102を形成するLCD等である。或いは表示部11は画像処理装置1を有する装置とは別体の表示デバイスとされてもよい。
この表示部11ではユーザインターフェースのための各種表示を行う。例えば画像処理装置1が編集処理により生成した画像(静止画や動画)の表示、編集前の画像(静止画や動画)の表示、上記の操作ボタン111やスライドレバー110等の操作子画像の表示、その他必要な表示を行う。
通信部12は他の機器との間での有線又は無線接続による通信を行う。例えばWIFI(Wireless Fidelity:登録商標)やブルートゥース(登録商標)等の無線通信規格等の通信方式による通信を行う。或いは通信部12は、外部の表示装置、記録装置、再生装置等の間で画像データ(静止画ファイルや動画ファイル)の通信を行うようにしたり、ネットワーク通信部として、例えばインターネット、ホームネットワーク、LAN(Local Area Network)等の各種のネットワークによる通信を行い、ネットワーク上のサーバ、端末等との間で各種データ送受信を行うものでもよい。
この通信部12は、例えば画像処理装置1が編集処理により生成した画像(静止画や動画)を外部機器に送信する。また通信部12が、編集処理に用いる画像データを外部から受信するようにしてもよい。
記憶部13は例えば不揮発性メモリからなり、静止画データや動画データ等の画像ファイルとして編集画像データを記憶する。記憶部5の実際の形態は多様に考えられる。例えば記憶部13は、装置筐体に内蔵されるフラッシュメモリ等の固体メモリでもよいし、装置に着脱できるメモリカード(例えば可搬型のフラッシュメモリ)と該メモリカードに対して記録再生アクセスを行うカード記録再生部による形態でもよい。またHDD(Hard Disk Drive)、光ディスク及びディスクドライブなどとして実現されることもある。
この記憶部13は画像処理装置1が生成した編集画像データを記憶する。また画像処理装置1が編集処理に用いる画像データを記憶部13から読み出すようにしてもよい。
なお、記憶部13には、画像処理装置1としての処理をコンピュータ装置に実行させるためのプログラムが記憶されてもよい。
画像ソース14は、画像処理装置1が編集処理に用いる画像データの供給元という意味で示している。処理対象の静止画や動画としての画像データが画像ソース14から画像処理装置1に供給される。
例えば通信部12や記憶部13が画像ソース14に相当する場合もある。
続いて画像処理装置1の機能構成を説明する。
画像処理装置1における画像取得部2は編集処理の対象とする画像データを画像ソース14から取得する。例えばユーザが操作により選択した静止画データ等を処理対象とする。
深度取得部3は、処理対象とした画像について画素の深度情報を検出する。本実施の形態では、画像処理装置1が編集処理の対象とする画像データには、画素毎に深度情報DPが付加されている。この深度情報DPは、画像の撮像時の被写体の奥行き位置の情報である。
例えば画像データ(静止画データ)が図3のように、0行〜n行、0列〜m列の画素(ピクセル)配置で構成され、{(m+1)×(n+1)}個の画素PX0−0、PX0−1・・・PXn−mで形成されているとする。
各画素PX0−0、PX0−1・・・PXn−mには、深度情報DP0−0、DP0−1・・・DPn−mが付加されている。それぞれ、その画素の被写体の撮像時の奥行き情報である。深度取得部3は、処理対象とした画像から深度情報DP0−0、DP0−1・・・DPn−mを検出する。
なお、この図3に示す各画素PX0−0〜PXn−mは、それぞれがR画素、G画素、B画素のような色別の1つの画素と考えても良いし、R画素、G画素、B画素をまとめた1つのカラー画素と考えてもよい。つまり深度情報DP(DP0−0〜DPn−m)は、個々の画素単位で付されても良いし、カラー画素ユニット単位で付加されていても良い。さらに、図示しないが、複数の画素(又は複数のカラー画素)をまとめた画素ブロック毎に深度情報DPが付加されていても良い。
撮像画像に被写体の深度情報が付加されるようにする技術は既知であるため詳細は省略する。
なお、深度取得部3は、処理対象の画像データについて他の機器やセンサで検出された深度情報や、あらかじめ登録された深度情報などを受信取得してもよい。また深度取得部3はユーザが任意に設定した深度情報を検出するものでもよい。
基準深度設定部4は、画像処理の際に画素の深度情報に対する比較基準となる基準深度情報を設定する処理を行う。
後述の第1〜第5の実施の形態の処理で説明するが、この基準深度設定部4は基準深度情報として、画像の切り出し等のための深度閾値th(単に「閾値th」とも表記する)、画像等の挿入のための挿入深度(挿入深度に相当する閾値thI)、基準としての奥行き位置を決める深度基準値DPref等を設定する。
画像編集処理部5は、基準深度設定部4が設定した基準深度情報と、画像取得部2が処理対象として取り込んだ画像の画素の深度情報DP0−0〜DPn−mを用いて画像編集処理を行う。画像編集処理の例として、トリミング、各種の画像合成、画像エフェクト付加等についてそれぞれ後述する。
画像出力部6は、画像編集処理部5が作成した編集画像としての画像データを出力する。すなわち画像出力部6は、編集処理により作成された編集画像データを表示部11に出力して編集結果を表示させる。
また画像出力部6は、作成された編集画像データを通信部12に出力して外部機器に送信させることもできる。
また画像出力部6は、作成された編集画像データを記憶部13に出力して記憶媒体に記憶させることもできる。
例えば以上の図1のような機能構成を備えることで、実施の形態の画像処理装置1は、後述する各種の画像編集を行い、編集画像を生成することができる。
このような画像処理装置1は、例えば図4のようなハードウエア構成の情報処理装置100で実現される。
図4に示すように情報処理装置100は、CPU(Central Processing Unit)51、ROM(Read Only Memory)52、RAM(Random Access Memory)53を有して構成される。
CPU51は、ROM52に記憶されているプログラム、または記憶部59からRAM53にロードされたプログラムに従って各種の処理を実行する。RAM53にはまた、CPU51が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU51、ROM52、およびRAM53は、バス54を介して相互に接続されている。このバス54にはまた、入出力インターフェース55も接続されている。
入出力インターフェース55には、液晶パネル或いは有機ELパネルなどよりなるディスプレイ56、キーボード、マウスなどよりなる入力部57、スピーカ58、HDDなどより構成される記憶部59、通信部60などが接続可能である。
図1の表示部11が情報処理装置100と一体機器の場合、ディスプレイ56は表示部11を意味する。もちろん表示部11は情報処理装置100とは別体機器とされてもよく、その場合、ディスプレイ56は入出力インターフェース55に接続される別体機器とされればよい。
図4の入力部57は、情報処理装置100を使用するユーザが用いる入力デバイスを意味するが、例えば図1の操作部10としての機能も含む。
通信部60は、インターネットを含むネットワークを介しての通信処理や、周辺各部の機器との間の通信を行うもので、例えば図1の通信部12としての機能も含む。
入出力インターフェース55にはまた、必要に応じてドライブ61が接続され、メモリカード62が装着され、メモリカード62から読み出されたコンピュータプログラムが、必要に応じて記憶部59にインストールされたり、CPU51で処理したデータが記憶される。もちろんドライブ61は、磁気ディスク、光ディスク、光磁気ディスク等のリムーバブル記憶媒体に対する記録再生ドライブとされてもよい。
ドライブ61及びメモリカード62は図1の記憶部13としての機能も持つ。
このようなハードウエア構成において実施の形態の画像処理装置1としての処理、即ち図1の画像取得部2、深度取得部3、基準深度設定部4、画像編集処理部5、画像出力部6としての処理を行うことができる。即ちこれらの処理はCPU51で起動されるソフトウエアにより実現される。そのソフトウエアを構成するプログラムは、ネットワークからダウンロードされたり、リムーバブル記憶媒体から読み出されたりして図4の情報処理装置100にインストールされる。或いはそのプログラムが記憶部59としてのHDD等に予め記憶されていてもよい。
そしてCPU51において当該プログラムが起動されることで、詳しくは後述するように各種の画像編集処理を行うことができるようにされる。
なお、実施の形態の画像処理装置1は、図4のようなハードウエア構成の情報処理装置(コンピュータ装置)100が単一で構成されることに限らず、複数のコンピュータ装置がシステム化されて構成されてもよい。複数のコンピュータ装置は、LAN等によりシステム化されていてもよいし、インターネット等を利用したVPN(Virtual Private Network)等により遠隔地に配置されたものでもよい。複数のコンピュータ装置には、クラウドコンピューティングサービスによって利用可能なコンピュータ装置が含まれてもよい。
またこの図4の情報処理装置100は、据え置き型、ノート型等のパーソナルコンピュータ、タブレット端末やスマートフォン等の携帯端末として実現できる。さらには情報処理装置100としての機能を有するテレビジョン装置、モニタ装置、画像編集機器、撮像装置等の電子機器でも、本実施の形態の画像処理装置1を搭載することができる。
<2.第1の実施の形態>

第1の実施の形態として、画像処理装置1が深度情報を活用して任意の深度の被写体をトリミングする編集処理例を説明する。
ここでは深度情報を用いた被写体の抽出として、
・仮想垂直面による被写体の切り出し
・仮想水平面/仮想傾斜面による被写体の切り出し
・仮想面による抽出と画像認識を組み合わせた被写体の切り出し
を説明する。
まず仮想垂直面による被写体の切り出しの例を説明する。
図5Aは、処理対象とする元の画像データの画像であるとする。これは正面を向いた3人の人物が被写体H1,H2,H3として撮像された静止画である。
この3人の被写体H1,H2,H3の各人物は、撮像時の奥行き方向の立ち位置が異なっている。図6Aには、撮像時の被写体H1,H2,H3の位置状況を斜め上方から見た様子を示している。被写体H1が撮像したカメラに向かって最も手前側に立っており、被写体H2は少し奥に居る。そして一番奥側に立っているのが被写体H3となっている。
図5Aの画像ではこの奥行き方向の位置関係はわかりにくいが、その画像データには、各画素毎に深度情報DPが付加されていることで、画像処理装置1は各被写体H1,H2,H3の奥行き方向の位置(深度)を認識できる。
ここで、基準深度情報としてトリミングのための閾値thを設定する。この閾値thにより図6Bの仮想垂直面VP1を想定し、この仮想垂直面VP1の前後(手前側/奥側)によって被写体切り出しを行う。
図6Bでは、閾値thとして設定された深度の値が、被写体H1の深度の値より大きく被写体H2の深度の値より小さい場合の仮想垂直面VP1を示している。
この場合、被写体H1,H2,H3のうち、仮想垂直面VP1より手前側となるのは被写体H1のみである。従って、仮想垂直面VP1より手前側の被写体をトリミングすると、図5Bのように被写体H1のみが現れた編集画像を生成できる。
画像処理装置1は具体的には、閾値thを設定して、各画素の深度情報DPを閾値thと比較し、その比較結果により表示する画素とするか否かを決定することで、閾値thで設定した深度の仮想垂直面VP1の手前側(又は奥側)の被写体をトリミングできる。
図7に画像処理装置1の処理例を示す。なお図7の処理は図1に示した画像処理装置1の各機能(主には基準深度設定部4、画像編集処理部5としての機能)を持つ図4のCPU51によって実行される処理である。
なお画像処理装置1の各機能による処理を示すものであることは、後述する図8、図12、図15、図17、図19、図23、図25、図28の各フローチャートについても同様である。
またこれらの各図のフローチャートでは既説明のフローチャートと同一の処理については同じステップ番号を付し、重複説明は避ける。
画像処理装置1は図7のステップS101で処理対象の画像を特定する。例えば画像取得部2が取得した画像データとして、図5Aのような画像データを処理対象とする。
ステップS102で画像処理装置1(基準深度設定部4)は、基準深度情報として閾値thを設定する。つまり或る深度の値を閾値thとする。この場合、画像処理装置1は、操作部10から入力された操作情報に応じて閾値thの値を設定することが想定される。
例えば図2Bのスライダ110が閾値thを設定するための操作子であるとする。ユーザはタッチ操作によりスライダ110を任意の位置に移動させる。スライダ110の位置が深度を表すようにすることで、ユーザが任意の深度を入力できることになる。
なおもちろん閾値thを指定するための操作態様は多様に考えられる。ユーザが画面102上で被写体をタッチすることで、その被写体より手前の深度が閾値thになるようにしたり、深度としての数値をユーザが入力できるようにしたりすることも想定される。
閾値thを設定したら、画像処理装置1はステップS103以降で、編集処理対象の画像データの各画素PXを順次処理対象に選択し、閾値thと比較していく。
すなわち画像処理装置1(画像編集処理部5)はステップS103で、1つの画素PXを特定し、ステップS104でその画素PXの深度情報DPを特定する。
なお画像取得部2が取得した処理対象の画像データの各画素PX0−0〜PXn−mの深度情報DP0-0〜DPn−mは、深度取得部3が例えば画像データから検出している。画像編集処理部5は、該当の画素PXの深度情報DPを深度取得部3から取得する。
また、深度情報DPがカラー画素や画素ブロック単位で深度情報DPが付加されている場合、ステップS103では1つのカラー画素、画素ブロックを特定すればよい。
ステップS105で画像処理装置1(画像編集処理部5)は、対象としている画素PXの深度情報DPと閾値thを比較する。
DP<thであれば、当該画素PXは、閾値thの値である深度よりも手前側の被写体の画素である。そこでこの場合、画像処理装置1はステップS107に進んで、当該画素PXを編集後の画像データでもそのまま表示する画素に設定する。
DP<thでなければ、当該画素PXは、閾値thの値である深度以降の奥側の被写体の画素である。そこでこの場合、画像処理装置1はステップS106に進んで、編集画像データ上で、当該画素PXの画像データ値を他の画素データ値に置換する。例えばマスクデータとして用いる特定の画素値に置換する。
ステップS108で画像処理装置1は、処理対象の画像データの全画素PX0−0〜PXn−mについて以上の処理を終えたか否かを確認する。終えていなければステップS103に戻り、次に処理対象とする画素PXを特定して、同様にステップS104〜S107の処理を行う。
ステップS108で全画素についてステップS103〜S107の処理を終了したと判断された時点で、仮想垂直面VP1より手前側の被写体をトリミングした、図5Bのような編集画像データが生成されたことになる。すなわち深度情報DPを用いることで、撮像時の被写体位置に応じたトリミング画像が実現される。
このように生成された編集画像データは、画像出力部6が出力することで、表示部11に表示されたり、通信部12により外部機器に転送されたり、記憶部13で記憶媒体に記憶される。
図5Bの例は、被写体H1の全身が切り出された画像としているが、例えば元の画像データの被写体H1の人物の姿勢や閾値thの設定次第で、多様な表現が可能である。
例えば被写体H1の前面側のみが抽出された画像や、元の画像で被写体H1が前屈みの姿勢であったときに、上半身のみが壁から抜け出ているような画像などを生成することもできる。
なお、ステップS105で、DP>thであればステップS107に進み、DP>thでなければステップS106に進むようにすれば、仮想垂直面VP1より奥側の被写体が抽出されるトリミング画像となる。
またステップS106でマスクデータとして用いる画素値は各種考えられる。マスクデータは、トリミングした被写体の背景の画素の輝度/色となるが、所定の輝度/色を表現する固定値とすることが考えられる。もちろん、その輝度や色(マスクデータ値)をユーザが操作により選択できるようにしてもよい。
また固定値でなくて、画素位置に応じて徐々に変化させ、グラデーション的な背景となるようにしたり、ランダムな値を用いたりすることも考えられる。
つまりマスクデータ値によっても多様な画像表現が可能となる。
次にトリミングとして仮想水平面/仮想傾斜面による被写体の切り出しを行う例を説明する。
上記の仮想垂直面は、閾値thの値により或る深度に仮想垂直面VP1が存在するかのようなトリミングを行ったが、そのトリミング基準となる面は、垂直面に限らず空間に対し自由に定義することができる。
例えば図6Cは被写体H1,H2,H3が居る空間に仮想水平面VP2を想定した様子を示している。なお図では、仮想水平面VP2の前方の垂直面VP2Fは深度0の面、後方の垂直面VP2Rは深度が最大値の面として示している。
また図6Dは被写体H1,H2,H3が居る空間に仮想傾斜面VP3を想定した様子を示している。
図5Aの画像について図6Cのように仮想水平面VP2を基準にしてトリミングを行うと、例えば図5Cのような仮想水平面VP2より上方の画像がトリミングされた編集画像データを生成することができる。もちろん処理によっては仮想水平面VP2より下方の画像がトリミングされた編集画像データを生成することもできる。
また図5Aの画像について図6Dのように仮想傾斜面VP3を基準にしてトリミングを行うと、例えば図5Dのような仮想傾斜面VP3より上方の画像がトリミングされた編集画像データを生成することができる。もちろん処理によっては仮想傾斜面VP3より下方の画像がトリミングされた編集画像データを生成することもできる。
このような編集画像としては、切り出した被写体とトリミング部分以外の背景色や背景画像の関係などにより、被写体が水面に浮かぶような画像、被写体が壁面から飛び出すような画像、被写体が地面に埋まった画像、被写体が水中に沈んだ画像などの画像表現を行うことができる。
これらの仮想水平面VP2、仮想傾斜面VP3を基準としたトリミングは閾値thの設定により実現できる。
先に図7で閾値thとして或る1つの値を設定する例を述べたが、全画素PX0−0〜PXn−mと比較する処理を行うと、それは仮想垂直面VP1を想定したトリミングとなる。それに対し、画素毎や領域毎に閾値thを設定することで、仮想水平面VP2や仮想傾斜面VP3を想定したトリミングが可能となる。
図8、図9で具体的な処理例を説明する。
画像処理装置1は図8のステップS101で処理対象の画像を特定したら、続いてステップS102Aで、基準深度情報となる閾値thを設定する。この場合、画像処理装置1は、閾値thとしては画素PX0−0〜PXn−mにそれぞれ対応するように、複数の閾値th0−0〜th(n−m)を設定する。
図9Aには、画素PX0−0〜PXn−mにそれぞれ対応した閾値th0−0〜th(n−m)を設定する例を示している。
後述するが、このような画素PX0−0〜PXn−mにそれぞれ対応した閾値th0−0〜th(n−m)の設定次第で、各種の仮想面を想定できる。
閾値th(この場合、閾値th0−0〜th(n−m))を設定したら、画像処理装置1はステップS103で、1つの画素PXを特定し、ステップS110Aでは、その画素PXに対応する閾値thを特定する。例えば最初に画素PX0−0を処理対象に特定した際には、ステップS102Aで設定した閾値th0−0〜th(n−m)のうちの閾値th0−0を特定することになる。
ステップS104で画像処理装置1は特定した画素PXの深度情報DPを特定する。そしてステップS105Aで画像処理装置1は、その画素PXの深度情報DPと、対応する閾値th(例えば画素PX0−0の深度情報DPと閾値th0−0)を比較する。
DP<thであれば、当該画素PXは、閾値thの値である深度よりも手前側の被写体の画素である。そこでこの場合、画像処理装置1はステップS107に進んで、当該画素PXを編集後の画像データでもそのまま表示する画素に設定する。
DP<thでなければ、当該画素PXは、閾値thの値である深度以降の奥側の被写体の画素である。そこでこの場合、画像処理装置1はステップS106に進んで、編集画像データ上で、当該画素PXの画素データ値を他の画素データ値に置換する。例えばマスクデータとして用いる特定の画素値に置換する。
ステップS108で画像処理装置1は、処理対象の画像データの全画素PX0−0〜PXn−mについて以上の処理を終えたか否かを確認し、終えていなければステップS103に戻り、次に処理対象とする画素PXを特定して、同様にステップS110A〜S107の処理を行う。
ステップS108で全画素についてステップS103〜S107の処理を終了したと判断された時点で、仮想水平面VP2より上側や仮想傾斜面VP3より手前側の被写体をトリミングした、図5C、図5Dのような編集画像データが生成されたことになる。
このように生成された編集画像データは、画像出力部6が出力することで、表示部11に表示されたり、通信部12により外部機器に転送されたり、記憶部13で記憶媒体に記憶される。
この処理例では、閾値th0−0〜th(n−m)の設定次第で、各種の仮想面を想定したトリミングを行うことができる。
例えば仮想水平面VP2を設定する場合は、図9Bのように、画像の上半分である0行〜k行までの画素PX0−0〜PXk−mに対応する閾値th0−0〜thk−mを、全て同じ値thUとする。また画像の例えば下半分であるk+1行〜n行までの画素PXk+1−0〜PXn−mに対応する閾値thk+1−0〜thn−mを、全て同じ値thLとする。
この場合に、thU=深度最大値、thL=0とすると、図6Cの仮想水平面VP2が設定できることになる。
つまり画像の上部は、閾値thより手前側の画素であるため編集画像データ上の画素として残され、画像の下部は閾値thより奥側の画素であるためマスクされる。この結果、仮想水平面VP2で切り取られたような編集画像が生成される。
図9Bにおけるk行の「k」の値の設定により、仮想水平面VP2を配置する高さ位置も任意に設定できる。
例えば仮想水平面VP2の設定の際に、画像処理装置1は、操作部10から入力された操作情報に応じてk値を設定することが想定される。
例えば図2Bのスライダ110がk値を設定するための操作子であるとする。ユーザがスライダ110を任意の位置に移動させることで、画像内のどの高さ位置に仮想水平面VP2を配置するかを指定できるようにする。
もちろんk値を指定するための操作態様は多様に考えられる。ユーザが画面102上で、或る位置をタッチすることで、その高さ位置が仮想水平面VP2となるようにしたり、高さ位置としての数値をユーザが入力できるようにしてもよい。
また、仮想傾斜面VP3を設定する場合は、図10Aのように同じ行内の画素では閾値thが同じ値となるようにする。
例えば第1行目の画素PX0−0〜PX0−mに対応する閾値th0−0〜th0−mを同じ値thR0とする。第2行目の画素PX1−0〜PX1−mに対応する閾値th1−0〜th1−mを同じ値thR1とする。最終行の画素PXn−0〜PXn−mに対応する閾値thn−0〜thn−mを同じ値thRnとする。
この場合に、値thR0を最も深度の深い値とし、値thR1から値thRnまで徐々に深度が浅い値となるように設定していくことで、図6Dの仮想傾斜面VP3が設定できることになる。この場合、上記図8の処理で図5Dの編集画像データが生成できる。
なお、逆にthR0を最も深度の浅い値とし、値thR1から値thRnまで徐々に深度が深くなるように設定していくことで、図6Dとは傾斜方向が逆の仮想傾斜面を設定できることになる。その場合は図8の処理で、手前側の被写体ほどマスク部分が多くなる編集画像が生成される。
これらの仮想傾斜面VP3の設定の際には、ユーザが傾斜角度を設定できるようにするとよい。
例えば仮想傾斜面VP3の設定の際に、画像処理装置1は、操作部10から入力された操作情報に応じて傾斜角度が設定されるように、値thR0から値thRnの各行毎の深度値の差分を可変設定することで、傾斜角度を変更できる。また各行の深度値の差分を正負の値で入力可能とすることで、傾斜方向もユーザが設定できる。
これらの場合も画像処理装置1は、ユーザのスライダ110の操作やタッチ操作、傾斜角度数値の入力操作などに対応するようにすればよい。
さらに仮想傾斜面としては、画像空間の左右に傾斜する仮想面を考えることもできる。例えば図10Bのように同じ列内の画素では閾値thが同じ値となるようにする。
例えば第1列目の画素PX0−0〜PXn−0対応する閾値th0−0〜thn−0を同じ値thC0とする。第2列目の画素PX0−1〜PXn−1に対応する閾値th0−1〜thn−1を同じ値thC1とする。最終列の画素PX0−m〜PXn−mに対応する閾値th0−m〜thn−mを同じ値thCmとする。
この場合に、値thC0を最も深度の深い値とし、値thC1から値thCnまで徐々に深度が浅い値となるように設定していくことで、画面の左奥から右手前に存在するような仮想傾斜面が設定できることになる。その場合は図8の処理で、右側の被写体ほどマスク部分が多くなる編集画像が生成される。
また値thC0を最も深度の浅い値とし、値thC1から値thCnまで徐々に深度が深い値となるように設定していくことで、画面の左手前から右奥に存在するような仮想傾斜面が設定できる。その場合は図8の処理で、左側の被写体ほどマスク部分が多くなる編集画像が生成される。
これらの仮想傾斜面VP3の設定の際にも、画像処理装置1がユーザのスライダ110の操作やタッチ操作、傾斜角度数値の入力操作などに対応してthC0〜thCmの値を設定することで、ユーザによって左右方向の傾斜角度を設定できるようにするとよい。
なお図8の処理で、ステップS105Aで、DP>thであればステップS107に進み、DP>thでなければステップS106に進むようにすれば、仮想水平面VP2、仮想傾斜面VP3に対する切り出し側の関係を逆にしたトリミング画像が生成できる。
またステップS106でマスクデータとして用いる画素値は各種考えられることは、仮想垂直面VP1の場合と同様である。
次に、仮想面による抽出と画像認識を組み合わせた被写体の切り出しについて説明する。
図11Aは処理対象とする元の画像であるとする。これは正面を向いた3人の人物が被写体H1,H2,H3として撮像され、また各人物の前後に周囲の風景が写っている静止画である。
ここで上述の図7の処理で、仮想垂直面VP1を想定して、最も手前側の人物である被写体H1のトリミングを行うことを考える。ところが画像内には、被写体H1よりさらに手前の被写体H4が存在しているとする。するとトリミング画像には、この被写体H4も含まれてしまう。この場合に、例えば画像解析により人物の画像領域を認識する処理などを行い、その認識結果を用いることで、例えば図11Bのように人物である被写体H3のみを切り出したようなトリミング画像を生成できる。
図12に画像処理装置1の処理例を示す。
画像処理装置1は図12のステップS101で処理対象の画像を特定したら、続いてステップS120で被写体指定情報を取得する。
例えば図11Aのような画像が処理対象の画像とされた場合、その画像を図2Bの画面102に表示させ、ユーザが画面102上で触れた位置の被写体を被写体指定情報として取得する。
仮にユーザが被写体H1の領域に触れたとする。画像処理装置1(画像編集処理部5)は、この操作情報(タッチ位置の情報)を取得する。
画像編集処理部5は、処理対象の画像について画像解析を行うことができる。例えば人物認識、顔認識など、特定の被写体認識を行い、その被写体の画素領域を判定することができる。画像編集処理部5が解析により特定の被写体(例えば人物)を判定したら、その判定された被写体を提示する。例えば画面102で、判定した被写体を提示する表示(人物の部分を囲う枠表示など)を行う。ユーザはタッチ操作により、認識された被写体のいずれかを指定できるようにする。そして画像編集処理部5は、例えばタッチ位置の情報を取得したら、その位置が、人物認識等で判定された人物の領域範囲内であれば、当該人物が指定されたと認識する。
或いは画像編集処理部5は、処理対象の画像を表示させている際にタッチ位置の情報を取得したら、その位置の画素の被写体の画像内での輪郭を判定して、その輪郭内の領域を指定された被写体の領域と認識するようにしてもよい。
いずれにしても、ユーザ操作等によって、特定の被写体が指定された状態となるようにする。又は、ユーザの操作にかかわらず、人物等の特定の被写体が自動的に指定されるようにしてもよい。
画像処理装置1は、ステップS102で仮想垂直面VP1を想定する閾値thを例えばユーザの操作に応じて設定する。
そしてステップS103、S104、S105の処理を図7と同様に行う。
この図12では、ステップS105で画素PXの深度情報DPと閾値thを比較し、DP<thであった場合、ステップS122で、その画素PXがステップS120で指定された被写体の画素であるか否かを確認する。そして指定された被写体の画素であればステップS107に進んで、当該画素PXを編集後の画像データでもそのまま表示する画素に設定する。一方、指定された被写体の画素でなければステップS121に進む。
またステップS105でDP<thではないと判定された場合もステップS121に進む。
ステップS121で画像処理装置1は、画素PXの画素データについて置換やエフェクト処理を行う。例えば図7と同様にマスクデータに置換する。
このような処理をステップS108で全画素について終了と判定されるまで繰り返す。これにより、より正確なトリミングが可能となる。
例えば図11Aの画像から仮想垂直面VP1で被写体H1のみをトリミングしたい場合を考える。単に仮想垂直面VP1より手前側の画素を抽出した編集画像では、被写体H1、H4が残った画像となるところ、ステップS122の処理で、被写体H4の画素についてはステップS121に進むことになり、マスクデータに置換される。これにより図11Bのように被写体H1のみを切り出したトリミング画像が生成できる。つまりトリミングする対象のみを正確に切り出すような画像編集が可能となる。
ステップS121では、マスクデータへの置換だけでなくエフェクト処理を行うようにしてもよい。
例えばモノクロ化する処理を行う。すると、図11Dのように、切り出し対象である最も手前側の人物の被写体H1のみがそのままカラー画像で残され、他の被写体はモノクロ画像となったような編集画像が生成できる(図11Dのグレー部分はモノクロであるとしている)。
つまり形状認識、物体認識、色の認識などと組み合わせることで、特定の被写体のみカラー画像で残し、他の被写体は、トリミング対象となる位置にあったとしても、その被写体の色が混ざらないような処理ができる。これにより特定の被写体と他の被写体を正確に区別したトリミングやエフェクト処理が可能である。
もちろんステップS121ではモノクロ化に限らず、色味の変更、輝度の変更、ぼかし処理、モザイク化処理、多重露光化処理なども考えられる。つまり、深度情報による切り出しで特定の被写体のみを残して、他の被写体は表現を変化させるような編集が可能である。
また、ステップS121では、全く別の画像の、対応する画素位置の画素値に置き換えるような処理を行ってもよい。
すると、切り出した被写体H1が、他の背景内に写されているような編集画像を得ることができる。例えば図11Aの画像から被写体H1を切り出して、図11Cのように異なる背景内に置いたような編集画像が生成できる。
なお、図12のような被写体の指定を併用したトリミング処理は、仮想水平面VP2や仮想傾斜面VP3を用いる場合も当然適用できる。さらにステップS121の画像エフェクト処理や他の画像の画素値への置換も、仮想水平面VP2や仮想傾斜面VP3を用いる場合に適用することで、より多様な画像表現が可能となる。
<3.第2の実施の形態>

第2の実施の形態として、画像処理装置1が深度情報を活用してグラフィカルな効果を空間に自然になじませる編集処理例を説明する。
ここでは、奥行きのある画像に、奥行きのない文字やグラフィックを合成する場合を想定する。即ち、撮像した画像に文字やグラフィックを追加する際に、深度情報を用いて被写体との重なりなどを調整することでより自然な表現を実現することができるようにする。
図13Aに処理対象(第1画像)とする撮像画像の例を示す。これは図5Aと同様の画像とする。
図13Bは第2画像として第1画像に挿入する文字/グラフィックの例として、例えば或る書体での「ABCDE」を例示している。
この図13Aの画像に図13Bの文字/グラフィックを合成するのであるが、この場合、基準深度情報として、挿入深度を示す閾値thIを設定する。挿入深度としての閾値thIは、図13Aの画像に文字/グラフィックを挿入する深度の値となる。
例えば閾値thIを、被写体H1よりは奥側で被写体H2よりは手前側の深度の値とする。図13Cに示すようにこの挿入深度において、挿入領域IAを決める。
そして「ABCDE」の文字/グラフィックが、挿入領域IAに挿入されるように合成する。
結果として図13Dのような合成画像が生成される。挿入領域IAは、挿入深度として閾値thIの位置であり、被写体H1よりも奥側であるため、「ABCDE」の一部は被写体H1の背後に隠れるような状態となる。
また図14Aは、図13Aと同様に処理対象とする撮像画像の例を示している。
図14Bは挿入する文字/グラフィックの例として、例えば5つのハートマークを例示している。例えばCG(computer graphics)で作成したグラフィックの例である。
この図14Aの画像に図14Bの文字/グラフィックを合成するのであるが、この場合、基準深度情報として、5つの各ハートマークのそれぞれの挿入深度を示す閾値thI1〜thI5を設定する。また図14Cのように、各ハートマークのそれぞれの挿入領域IA1〜IA5を設定する。挿入領域IA1〜IA5はそれぞれ閾値thI1〜thI5で示される深度の領域とする。
この場合、閾値thI1は、被写体H1より手前の深度、閾値thI2は、被写体H1より奥側で被写体H2より手前の深度、閾値thI3は被写体H2より奥側で被写体H3より手前の深度、閾値thI4,thI5は被写体H3より奥側の深度としている。
そして5つのハートマークの文字/グラフィックが、それぞれ挿入領域IA1〜IA5に挿入されるように合成する。
結果として図14Dのような合成画像を生成する。各ハートマークは、閾値thI1〜thI5で設定された深度の位置に存在するように、被写体H1、H2、H3との前後関係に応じて見えたり見えなかったりする画像となっている。
図15にこのような編集処理を実現する処理例を示す。
画像処理装置1は図15のステップS131で処理対象の第1画像を特定する。例えば画像取得部2が取得した画像データとして、図13Aや図14Aのような画像データを処理対象とする。
ステップS132で画像処理装置1は、第1画像に挿入する第2画像(挿入画像)を特定する。例えば図13B、図14Bのような文字/グラフィックである。
以上の第1,第2画像の特定はユーザの画像指定操作に応じて行う。
ステップS133で画像処理装置1は、第1画像上で第2画像(挿入画像)を挿入する挿入領域IAを設定し、また基準深度情報として閾値thIを設定する。
例えば図13Cのように1つの挿入領域IAとその挿入深度としての閾値thIを設定する。或いは図14Cのように複数の挿入領域IA1〜IA5とそれぞれの挿入深度としての閾値thI1〜thI5を設定する。
この設定は、例えばユーザが第1画像上で指定した位置に応じて決定すればよい。
例えばユーザが第1画像上で指定した位置の被写体の直前に、文字/グラフィックが挿入されるように設定する。
例えば図13Aの第1画像に対してユーザが被写体H2上の位置を指定したら、その被写体H2の手前側に図13Bの第2画像の挿入領域IAが配置されるようにする。
図14Bの場合、第1画像に対してユーザが被写体H1上の位置を指定したら、その被写体H1手前側の深度(閾値thI1)で先頭の1つのハートマークの挿入領域IA1が設定されるようにし、他の4つの挿入領域IA2〜IA5については、そのサイズに応じた深度(例えば徐々に奥側となるような深度)となる閾値thI2〜thI5を設定する。
なお、これらの挿入領域IA及び閾値thIは、ユーザの指定によらずに画像処理装置1が自動的に設定するようにしてもよい。
画像処理装置1はステップS134以降で、第1画像の画像データ上で、挿入領域IAに含まれる各画素PXを順次閾値thIと比較していく。
すなわち画像処理装置1はステップS134で、第1画像において或る挿入領域IAとされた領域内の1つの画素PXを特定し、ステップS135でその画素PXの深度情報DPを特定する。
なお、ここでは、設定された挿入領域IAが1つであれば、当然、その挿入領域IA内の画素の1つを処理対象として特定する。
設定された挿入領域IAが複数(例えば挿入領域IA1〜IA5)であれば、例えば最初の挿入領域IA1内の画素の1つを処理対象として特定する。
ステップS136で画像処理装置1は、対象としている画素PXの深度情報DPと、その画素PXが含まれる挿入領域IAについて設定した閾値thIを比較する。
DP<thIであれば、第1画像における当該画素PXは、閾値thIの値である深度よりも手前側の被写体の画素である。そこで画像処理装置1はステップS138に進んで、当該画素PXを編集後の画像データ上でそのまま表示する画素に設定する。
DP<thIでなければ、第1画像における当該画素PXは、閾値thIの値である深度以降の奥側の被写体の画素である。そこでこの場合、画像処理装置1はステップS137に進んで、編集画像データ上で、当該画像PXの画素データ値を第2画像(挿入画像)における、その画素位置に対応する画素データ値に置換する。つまり第2画像の画素データを表示する画素とする。
ステップS139で画像処理装置1は、挿入位置IAとされた領域内の全ての第1画像の画素について、以上の処理を終えたか否かを確認する。終えていなければステップS134に戻り、次に現在処理している挿入領域IA内で処理対象とする画素PXを特定して、同様にステップS135〜S138の処理を行う。
ステップS139で、1つの挿入領域IAの全画素についてステップS134〜S138の処理を終了したと判断したら、画像処理装置1はステップS140で、他に設定された挿入領域IAがあるか否かを確認する。
図13Cのように挿入領域IAが1つ設定されている場合は、以上で処理を終える。
図14Cのように複数の挿入領域IA1〜IA5が設定されている場合であって、未処理の挿入領域IAがある場合は、ステップS141で次の挿入領域IA(例えば挿入領域IA2)を選択し、その挿入領域IAについてステップS134〜S139の処理を行う。ステップS140で全ての挿入領域IAについて処理が終了したことを確認した時点で、図15の処理を終える。
図15の処理を終えた時点で、例えば図13D、図14Dのような編集画像データが生成されていることになる。
このように生成された編集画像データは、画像出力部6が出力することで、表示部11に表示されたり、通信部12により外部機器に転送されたり、記憶部13で記憶媒体に記憶される。
この図15の処理例では、第1画像に対して、所定の深度に第2画像としての文字/グラフィックが挿入されたものとなり、実際にその文字/グラフィックが被写体空間に存在したかのような合成画像が実現されることになる。
つまり深度情報を活用し重なりを調整することで、グラフィカルな効果を被写体空間に自然になじませるような画像表現ができる。
ところで、単に前後関係だけではなく、画像エフェクトを深度に応じて付加することで、より自然になじんだ画像表現ができる。
図16Aの画像を、3人の被写体H1、H2、H3が写された第1画像とする。
ここに、図16Bのような深度関係でそれぞれ「ABCD」という文字の第2画像G1,G2を挿入することを考える。
第2画像G1の深度は被写体H1、H2の間、もう1つの第2画像G2の深度は被写体H2、H3の間とする。
この奥行き方向の配置状態で第2画像G1,G2が挿入されるようにした上で、さらに奥行き方向のボケ感を表現するような画像処理を加えた編集画像が図16Cである。
このように第1画像の自然のボケ感と同様に、第2画像G1,G2にもボケ感を付加することで、文字/グラフィックとしての元もと奥行きのない画像も、第1画像に自然になじむような合成画像とすることができる。
図17に処理例を示す。この図17は上記図15の処理例のステップS137をステップS142,S143に変更した例である。ステップS131〜S136の処理は図15と同様である。
画像処理装置1はステップS136で、対象としている画素PXの深度情報DPと、その画素PXが含まれる挿入領域IAについて設定した閾値thIを比較する。
DP<thIであれば、第1画像における当該画素PXは、閾値thIの値である深度よりも手前側の被写体の画素であるため、ステップS138に進んで、当該画素PXを編集後の画像データ上でそのまま表示する画素に設定する。
DP<thIでなければ、第1画像における当該画素PXは、閾値thIの値である深度以降の奥側の被写体の画素である。そこでこの場合、画像処理装置1はステップS142に進んで、編集画像データ上で、当該画像PXの画素データ値を第2画像(挿入画像)における、その画素位置に対応する画素データ値に置換する。つまり第2画像の画素データを選択する。
そしてステップS143で、その第2画像の画素データについて、深度(つまり閾値thIの設定値)に応じた画像エフェクトを施す。例えば奥行き位置に合うように輝度値を低下させたり、ボケ感を与えることができるような処理を施す。
ステップS139,S140,S141は図15と同様である。
なおステップS143の画像エフェクト処理は、画像エフェクトの種類によっては、挿入領域IAについて第2画像の画素配置を終えたステップS139の後の時点で、その第2画像の範囲について実行することが好適な場合もある。
このような処理により、第2画像として奥行きのない文字/グラフィックを、第1画像への挿入位置に応じた画像エフェクトを与えた状態で合成でき、非常に第1画像になじんだ合成画像、即ち現実に第1画像の撮像時に存在したかのような文字/グラフィックに見えるような合成画像を生成できる。
ここでは、文字/グラフィックの合成の例を挙げたが、例えば霧や雲、フレアなどの自然現象を画像に合成する場合にも、深度情報を用いて第1画像の被写体との重なりに加え濃淡なども含めた自然な表現を実現することができる。
例えば雪や雨粒などの浮遊物の画像を第2画像として用いることで、その浮遊物も挿入位置と第1画像の画素の深度情報DPに応じて反映させる。またその深度に応じた濃淡を設定する。これにより、より自然な光景として合成画像が作成できる。
また仮想的な照明光による陰影、光線、被写体の影などを第2画像として合成する場合も、その深度に応じて適切に表現できる。
<4.第3の実施の形態>

第3の実施の形態として、画像処理装置1が深度情報を活用して画像エフェクトを加える編集処理例を説明する。
即ち処理対象とする画像の被写体について、深度に応じた光学的な効果などの画像エフェクトを加える。
元々の処理対象の画像は、先に図5Aに示したような画像であるとする。
図18Aは、処理対象の画像の撮像時における被写体H1,H2,H3の配置関係を示している。手前側から順番に被写体H1,H2,H3となる。
この場合に、図18Bのように多数の薄膜Eが存在するかのような状態を想定し、多数の薄膜Eにより奥側に行くほどあいまいな画像となる図18Cのような編集画像を生成する。換言すれば被写体H1,H2,H3が霧の中に立っているような画像である。
例えば画像エフェクトの際に、被写体の深度に応じてエフェクトレベルを設定することで、この例のように、被写体の奥行き位置に応じた画像効果表現を実現できる。
一例として霧や雨のような効果を加える画像エフェクトを施す場合に、その密度や濃度を被写体の深度に応じて変えることで、光学気象現象エミュレーションといえるような画像を生成することもできる。
図19に処理例を示す。
画像処理装置1は図19のステップS150で処理対象の画像を特定する。例えば画像取得部2が取得した画像データとして、図5Aのような画像データを処理対象とする。
ステップS151で画像処理装置1は、処理対象の画像に施す画像効果設定を行う。即ちどのような種類の画像エフェクトを施すかを設定する。実際にはユーザの操作に応じて画像エフェクトの種類が選択されるようにすればよい。
ステップS152で画像処理装置1は、基準深度情報として深度基準値DPrefを設定する。
深度基準値DPrefは、画像エフェクトレベル(効果の強さ)の基準となる深度を示す。
例えば図20には、処理対象の画像の撮像時のカメラのレンズ面を位置LPとし、或る深度位置を深度基準値DPrefとしていることを示している。
この深度基準値DPrefの深度は、例えばカメラの焦点距離などとしてもよいし、ユーザ操作で選択される深度としてもよい。或る深度を、画像エフェクトレベルの基準深度とするものである。
画像処理装置1はステップS153以降で、処理対象の画像データの各画素PXについて順次処理を行っていく。
すなわち画像処理装置1はステップS153で、1つの画素PXを特定し、ステップS154でその画素PXの深度情報DPを特定する。
ステップS155で画像処理装置1は、対象としている画素PXの深度情報DPと、深度基準値DPrefの差分(DP−DPref)を求める。
差分(DP−DPref)=0でなければ、画像処理装置1は、ステップS156で差分に応じた画像エフェクトレベルEPを設定する。
例えば画像エフェクトレベルの初期値EPdに、差分(DP−DPref)を乗算して画像エフェクトレベルEPを求める。
そしてステップS157で、画像エフェクトレベルEPを用いて画像エフェクト処理を行う。例えば画像に霧がかかったような効果を与える場合、霧の濃度を画像エフェクトレベルEPで設定する。
そしてステップS158で、画像エフェクト処理を施した画素値を、編集画像に用いる画素データとする。
ステップS155で差分(DP−DPref)=0であれば、画像処理装置1はステップS158に進んで、当該画素PXを編集後の画像データ上でそのまま表示する画素に設定する。つまりその画素には画像エフェクトを施さない。
但しこれは、深度基準値DPrefに相当する画素が、画像エフェクトレベルゼロに設定される種類の画像エフェクト処理が選択されている場合である。
深度基準値DPrefに相当する画素が、画像エフェクトレベルがゼロ以外の初期値EPdとされて処理される種類の画像エフェクト処理が選択されている場合は、差分(DP−DPref)=0であれば、図19中に破線で示すようにステップS157に進んで、初期値EPdを用いて画像エフェクト処理が施されるようにする。そしてステップS158で、画像エフェクト処理を施した画素値を、編集画像に用いる画素データとする。
図20の例の場合、レンズ面LPからの深度として、被写体OB1,OB2,OB3を示しているが、これらの深度は、それぞれDP1,DP2,DP3となっている。そして深度基準値DPref=DP1の例としている。
この場合、例えば被写体OB1の画素については、画像エフェクト処理が施されないか、初期値で画像エフェクト処理が施される。
被写体OB2は、初期値EPd×差分(DP2−DPref)のレベルで画像エフェクト処理が施される。
被写体OB3は、初期値EPd×差分(DP3−DPref)のレベルで画像エフェクト処理が施される。
この被写体OB1,OB2,OB3の深度がそれぞれ図18Aの被写体H1,H2,H3に相当するとすると、例えば図18Cのように、被写体H1は明瞭だが、奥側の被写体H2、H3は、その深度に応じて不明瞭になるような画像エフェクトが施された編集画像が実現される。
図19のステップS159で画像処理装置1は、処理対象の画像の全ての画素について、以上の処理を終えたか否かを確認する。終えていなければステップS153に戻り、次に処理対象とする画素PXを特定して、同様にステップS154〜S158の処理を行う。
ステップS159で、全画素についてステップS153〜S158の処理を終了したと判断した時点で、図19の処理を終える。
図19の処理を終えた時点で、例えば図18Cのような編集画像データが生成されていることになる。このように生成された編集画像データは、画像出力部6が出力することで、表示部11に表示されたり、通信部12により外部機器に転送されたり、記憶部13で記憶媒体に記憶される。
この図19の処理例により、例えば点光源に代表される背景のボケを被写体の深度情報に基づき自在に変化させたり、色や形状などを変化させる編集画像を生成できる。
また深度だけでなく例えば壁や床の形状、材質を加味して、光の量、強さ、角度、色などを変化させ、適切な光の表現を行うこともできる。
また画像内の空間に仮想的に光源を配置したような画像エフェクトを考えた場合、ライティングの位置や強弱を変化させることでハイライトや影を変化させる画像も生成できる。例えば処理対象の画像を、深度DPを用いて3次元空間としてシミューレートし、その空間内に仮想的なライティングを行うための光源の3次元位置を設定する。この場合に、光源の奥行き位置を深度基準値DPrefとすることで、各被写体に対する光源からのライティングの影響を(輝度や影)を算出できる。つまりライティング効果を各画素の深度情報と深度基準値DPrefとの比較に応じて設定できる。これにより仮想的な光源からのライティングを実際に行っているかのような画像エフェクトを施した編集画像を生成できる。またこの場合、ユーザが光源の位置を任意に設定することで、多様なライティング状況を表現する編集画像を生成できるようにもなる。
以上のように、処理対象の画像について、その被写体の深度に応じた画像効果を与えることで、多様な画像表現を可能にしている。
<5.第4の実施の形態>

第4の実施の形態として、画像処理装置1が深度情報を持った異なる画像を重ね合わせる編集処理例を説明する。
これは奥行きのある複数の画像について、被写体の深度に応じた自然な重ね合わせや画像エフェクトを施す例である。
処理対象として、第1画像と第2画像を考える。いずれも例えば撮像画像であるとする。
第1画像は挿入される側の画像、第2画像は挿入する被写体の画像とする。
図21Aを第1画像とする。多数の人物の集合写真である。斜線を付して示す或る人物を被写体H10とする。
図21Bを第2画像とする。一人の人物(被写体H20)の写真である。
被写体H10,H20は、互いに画像としてのサイズ(画素領域の面積)が異なっている。
ここで第1画像において被写体H10の斜め後方に、スケールを調整して被写体H20を合成することを考える。
図21Cのように、第1画像の被写体H10の斜め後方となる挿入領域IAを設定する。さらに第2画像の被写体H20のサイズを縮小し、図21Dのように、被写体H10と同等のスケール感が得られるようにする。また位置関係は、被写体H10の斜め後方に設定された挿入領域IAに被写体H20が存在するようにする。
図21Eは合成した編集画像である。被写体H20は、被写体H10との前後関係が表現されるとともにサイズ調整が施されて第1画像に挿入されたものとなる。
また図22Aは或る画像からトリミングされた被写体H40としての第2画像(装入する画像)を示している。図22Bは、被写体H30が含まれた第1画像(挿入される側の画像)である。
この場合に、第1画像をサイズ変更して、第1画像内に第2画像の被写体H40が配置されるような合成を行ったものが図22Cの編集画像である。
図22Cの編集画像では、座った姿勢の人物である第2画像の被写体H40が、拡大された第1画像である容器の被写体H30の段差部分に腰掛けているような画像表現が行われている。つまり被写体H30の実物の立体形状による各画素の深度と、被写体H40の人物の座った姿勢での各画素の深度情報に応じて、合成位置が設定された画像を生成する。
図23にこのような編集処理を実現する処理例を示す。
画像処理装置1は図23のステップS170で処理対象の第1画像を特定する。またステップS171で画像処理装置1は、同じく処理対象の第2画像を特定する。第1画像、第2画像のいずれも例えばユーザの画像指定操作等に応じて画像取得部2が取得した画像データである。
ステップS172で画像処理装置1は、第1画像と第2画像の合成のための挿入領域IAと、基準深度情報(挿入深度)として閾値thIを設定する。
例えば図21Cのように第1画像内で、挿入領域IAとその挿入深度としての閾値thIを設定する。これらは例えばユーザが第1画像上で指定した位置に応じて決定すればよい。或いは、画像処理装置1が自動で挿入領域IA及び挿入深度を設定してもよい。例えば図21Cで、被写体H20が挿入できる位置及び深度を自動判定して設定してもよい。
また図22Cで示す例の場合は、ユーザが第1画像内で挿入領域IAや挿入深度としての閾値thIを設定するようにしてもよいし、画像処理装置1は、被写体H30、H40の各画素の深度から挿入領域IAと挿入深度を自動設定してもよい。
画像処理装置1はステップS173で、第1画像と第2画像について、一方又は両方のサイズ調整をした上で仮に重ね合わせる。
例えば図21Bの被写体H20が、第1画像の挿入領域IAに配置できるように被写体H20のサイズ変更を行う。そして、第1画像の挿入領域IAに第2画像の被写体H20を重ね合わせた状態とする。
画像処理装置1はステップS174以降で、被写体が挿入される側の第1画像の画像データの全画素について、第2画像との重なり関係に応じた処理を行う。
すなわち画像処理装置1はステップS174で、第1画像の1つの画素PXを特定し、ステップS175でその画素PXが第2画像の挿入被写体(例えば被写体H20)との重なり画素であるか否かを判断する。
重なり画素でなければ、ステップS178を介してステップS174に戻り、次の画素の処理に進む。
或る画素PXが第2画像の被写体との重なり画素であった場合、画像処理装置1はステップS175からS176に進み、前後関係を判定する。第2画像は、閾値thIで示される挿入深度で挿入される。
従って、ステップS176で画像処理装置1は、当該画素PXの深度情報を取得し、その深度DPと閾値thIを比較すればよい。
DP>thIであれば、第1画像の画素が手前側となる。
DP>thIでなければ、第2画像の画素が手前側と判定する。
但し、第2画像としての被写体H20の全画素が、同一の深度というわけでは必ずしもない。より正確には被写体H20を構成する画素毎に深度の値は異なる。そこで、挿入深度としての閾値thIは、例えば被写体H20における最も手前の位置などとし、被写体H20の構成画素のうち最も手前側となっている画素の深度の値DPsが、挿入深度(閾値thI)となるようにすることがより好適である。
例えば第2画像の被写体H20の各画素に付加されている深度情報DPの値を「DPx」とすると、その画素の深度DPxに応じて比較を行う。即ち、
DP>thI+(DPx−DPs)であれば、第1画像の画素が手前側となる。
DP>thI+(DPx−DPs)でなければ、第2画像の画素が手前側と判定する。
このように、挿入深度である閾値thIに、第2画像の各画素の実際の深度情報を反映させて第1画像の画素と第2画像の画素の前後関係を確認する。
そして画像処理装置1はステップS177で、手前側の画素を表示する画素として選択する。
これにより、第1画像と第2画像を重ね合わせたときに、手前側となる部分が表示されるように、いずれかの画素が選択される。
ステップS178で画像処理装置1は、第1画像の各画素について、以上の処理を終えたか否かを確認する。終えていなければステップS174に戻り、次に処理対象とする画素PXを特定して、同様にステップS175〜S177の処理を行う。
ステップS178で、第1画像の全画素についてステップS174〜S177の処理を終了したと判断したら、画像処理装置1はステップS178からS179に進む。
ステップS179は、必ずしも行わなくてもよいが、ここでは画像処理装置1は合成した画像の深度に応じた画像エフェクト処理を行う例としている。
例えば第2画像としての被写体を第1画像に挿入したことで生まれる影を付加したり、第2画像について、その挿入深度に応じたボケを施すなどである。
図22Cでは、第2画像の被写体H40の影SDWが第1画像上に現れるような画像エフェクト処理を施した例を示している。
以上の図23の処理を終えた時点で、例えば図21E、図22Cのような編集画像データが生成されていることになる。
このように生成された編集画像データは、画像出力部6が出力することで、表示部11に表示されたり、通信部12により外部機器に転送されたり、記憶部13で記憶媒体に記憶される。
この図15の処理例では、第1画像に対して、所定の深度に第2画像としての被写体が挿入されたものとなる。また挿入の際の被写体のサイズ調整も行われる。これにより実際に第1画像の撮像時に、第2画像の被写体が第1画像の空間に存在したような合成画像が実現されることになる。
また、第2画像の挿入深度に応じた画像エフェクト処理を施せば、より自然な合成が可能となる。
サイズ調整は、例えば図21Eのように現実になじむようなサイズ関係にしてもよいし、図22Cのように現実にはあり得ないようなサイズ関係としてもよい。例えば通常の背景画像(第1画像)に対して人物画像(第2画像)を、背景との比率からみて実際とは異なるサイズに変更した合成画像を生成することも可能である。
これらにより、より自由な画像表現を可能としている。
また図22Aのように第2画像を元の画像からトリミングした被写体H40とすれば、第1画像との重ね合わせる領域の自由度が増したり、ステップS175で重なり画素と判定される画素PXが少なくなるため、図23の処理負担が軽減されるという効果も得られる。
なお、第1画像、第2画像の一方をサイズ調整する例を述べたが、当然、第1画像と第2画像の両方についてサイズ調整を行うようにしてもよい。
また第1画像、第2画像は深度情報を有する画像としたが、実際に撮像した画像に限られない。例えば第1画像、第2画像一方又は両方が、被写体や画素の深度情報を有する3Dグラフィック画像であってもよい。例えば図22Aが実際に撮像した画像、図22Bが3Dグラフィックス画像とした場合に、それぞれの深度情報を用いて図22Cのような合成画像を生成することも想定される。
<6.第5の実施の形態>

第5の実施の形態として、画像処理装置1が深度情報を用いて奥行表現を変化させる編集処理例を説明する。
図24は、画素をいくつかの深度で切り出して平面化した上で再合成することで、等高線を表現するような画像、シャドーボックス的な画像を生成する例である。
図24Aは、被写体H50を含む処理対象の画像について、仮想垂直面VP11でトリミングをする様子を示している。
図24B、図24C、図24D、図24Eは、それぞれ処理対象の画像について、仮想垂直面VP12,VP13,VP14,VP15でトリミングをする様子を示している。
これら仮想垂直面VP11〜VP15は、異なる深度に設定されている。
1つの処理対象の画像について、このように異なる深度で切り出した複数のトリミング画像を生成し、それらのトリミング画像を平面化したものが、図24F、図24G、図24H、図24I、図24Jである。平面化とは、切り出した画素の深度を均一化することである。
そして平面化した各画像を重ね合わせるように合成する。これにより図24Kの被写体H50’のようにシャドーボックス的な編集画像が生成できる。
図25に処理例を示す。
画像処理装置1はステップS190で処理対象の画像を特定する。
ステップS191で画像処理装置1は、基準深度情報として閾値th1〜th(p)を設定する。
閾値th1〜th(p)は、それぞれ上記の仮想垂直面VP11〜VP15のようにそれぞれのトリミングする深度を設定する値となる。
閾値thの設定例を図26Aに示す。例えば深度0から最大深度(∞)までについて、いくつかの閾値th1〜th7を設定している。各閾値th1〜th7で区切られる深度の幅は、それぞれ等しい幅でもよいし不等幅でもよい。
図26Bは、深度0から最大深度(∞)までのうちで、或る程度代表的な被写体深度の範囲内で、いくつかの閾値th1〜th6を設定した例である。
例えばこの図26A、図26Bのような固定的な閾値th1〜th(p)を設定することが考えられる。
また、処理対象とする画像に応じて閾値th1〜th(p)を設定することもできる。図26Cは、処理対象の画像の全画素の中で、最も深度が浅い値(DPmin)と最も深度が深い値(DPmax)を求め、その範囲内をいくつかの閾値th1〜th5で区切るようにした例である。
このように設定することで、処理対象の画像に適したトリミング深度設定ができる。
p個の閾値th1〜th(p)を設定したら、画像処理装置1は図25のステップS192で、変数q=1とし、ステップS193の処理に進む。
ステップS193で画像処理装置1は、閾値th(q)で画素を抽出する。つまり深度が閾値th(q)より手前側となっている画素を抽出する。
そしてステップS194で画像処理装置1は、抽出した画素を平面化した第(q)画像を生成する。
画像処理装置1はステップS195で変数q=pであるか否かを確認し、変数qがp値に至っていなければステップS196で変数qをインクリメントしてステップS193に戻る。
つまり、ステップS192〜S196の処理として、閾値th1〜th(p)のそれぞれについてトリミングを行い、平面化した第1画像〜第(p)画像を生成する。
以上を終えて変数q=pとなったら、画像処理装置1はステップS197に進み、第1画像〜第(p)画像を、それぞれの代表の深度で合成する。代表の深度としては閾値th1〜th(p)の深度を用いればよい。
以上により、図24Kのような編集画像が生成される。
つまり、深度情報を段階的に処理することで被写体形状がシンプルなものに変化されたような編集画像を生成することができる。
次にコラージュ的な合成画像を生成する例を説明する。
図27Aの画像から被写体H61を抽出する。また図27Bの画像から、被写体H62,H63を抽出する。
これらは例えば第1の実施の形態で説明したように深度の閾値thを用いて抽出すればよい。また図11、図12で説明したように閾値thと画像解析による被写体認識を併用して抽出すると、各被写体をより正確に切り出すことができる。
図27C、図27Dは、それぞれ切り出した被写体H61、H62を変形して被写体H61’、H62’とした例としている。図27Dが被写体H63を平面化した被写体H63’を示している。
これらの被写体H61’、H62’、H63’をそれぞれ所定の深度関係で合成したものが図27Fの合成画像である。コラージュ的な合成画像が生成されている。
図28に処理例を示す。
画像処理装置1はステップS201で変数q=1とし、ステップS202でユーザ操作に応じて処理対象の画像を特定する。
ステップS203で画像処理装置1は、基準深度情報として被写体抽出のための閾値thをユーザ操作に応じて設定する。
ステップS204で画像処理装置1は、処理対象とした画像から閾値thで画素を抽出する。つまり深度が閾値thより手前側となっている画素を抽出する。
ステップS205で画像処理装置1は、抽出した画素について、変形や平面化等の処理を施した第(q)画像を生成する。
ステップS206で、合成素材を他にも選択するか否かをユーザの意思を確認する。ユーザが他に画像素材を選択することを示す操作を行った場合は、ステップS207で変数qをインクリメントしてステップS202に戻る。そしてステップS202〜S205の処理により、他の合成素材としての第(q)画像が生成される。
ユーザは、合成素材として第1画像〜第(q)画像が生成されたと判断したら、合成処理を指示する操作を行う。画像処理装置1はそれに応じてステップS206からS208に進み、第1画像〜第(q)画像を、それぞれの所定の深度で合成する。この場合、各画像については、トリミングされた際の閾値thの深度を用いて、前後関係を設定すればよい。
以上により、図27Fのような多数の被写体画像をコラージュしたような編集画像が生成される。即ち多様な画像表現が可能となる。
なお、ステップS208での合成の際に各画素の深度情報DPを利用することもできる。例えば、元の画像での画素の深度情報DPで前後関係を設定することができる。
或いは画素の深度情報DPは無視して、ユーザ操作等により前後関係を設定してもよい。
また切り出した画像素材の変形処理としては、サイズ変更も考えられる。
<7.まとめ及び変形例>

以上の実施の形態では、次のような効果が得られる。
第1〜第5の実施の形態の画像処理装置1は、処理対象とした画像における画素の深度情報DPに対する比較基準となる基準深度情報(閾値th、thI、深度基準値DPref等)を設定する基準深度設定部4を備える。また基準深度情報と、処理対象とした画像の画素の深度情報DPを用いて画像編集処理を行う画像編集処理部5を備える。
即ち画像処理装置1は、画素の深度情報DPを基準深度情報と比較し、その比較結果に応じた画像処理を行う。これにより被写体の深度に応じた各種の画像編集処理、例えば被写体の重ね合わせ、トリミング、グラフィックスや文字等の合成、光学的効果の付与等の処理を行うことができる。特にはこれらの画像編集において、奥行きのある被写体画像の空間に自然になじむような画像表現が可能になる。
またユーザにとって多様かつ高度な画像処理を容易かつ気軽に実行できるものとなる。特にユーザに高度なスキルを要求せずに、より自然な編集画像を生成できる。
これによりユーザにとっては画像表現の拡大がもたらされる。
通常、画像表現はユーザのスキルやツールの機能や性能に制約を大きく受けていたが、本実施の形態の技術により表現の幅が大幅に広がることが期待される。ユーザはより容易に自らのイメージに近い表現をすることができるし、一般的なエフェクトと異なり組み合わせで使うことによる効果が期待できるため表現のバリエーションも大きく広がる。
また本実施の形態は、ソーシャルメディアの発展にも寄与できる。
実施の形態の技術は、表現の多彩さ、容易さにより広いユーザ層に受け入れられることが想定される。これによりソーシャルメディアでの表現が多彩となり、おもしろみのあるコミュニケーション環境を提供できる。
また画像解析技術にも寄与できる。これまでコントラストや顔、パースなどの画像解析により被写体や境界線の識別、奥行きの判定を自動で行うツールはあったが、いずれの技術も画像から判別を行うために精度の点では限界があった。実施の形態の場合、深度情報を用いることで、より正確な被写体画像の判定が可能となる。これによってより精度の高い編集画像を得ることも可能となる。
第1〜第5の実施の形態では、基準深度設定部4は、ユーザの操作入力に応じて基準深度情報(閾値th、thI、深度基準値DPref等)を設定するようにしている。
すなわちユーザが画像処理の際に用いる基準深度情報を任意に設定できる。
これにより二次元の画像上で奥行きの或る空間を仮定した画像処理を、ユーザの望む深度(奥行き距離)を基準として実行されるようにすることができる。そしてユーザに対して簡易に多様な奥行きを考慮した画像表現を行うことのできる環境を提供できる。
例えば図2Bのようにスライダ操作で深度を入力できるようにすることで、わかりやすい操作も実現できる。
なお、ユーザの操作入力はスライダ等の操作子を用いた態様に限らない。例えばスマートフォンやカメラなどに搭載される角速度センサ、傾斜センサ、振動センサ等を利用する操作態様も考えられる。例えばユーザが携帯機器を傾けることにより、トリミングのための閾値thの深度や仮想面の傾斜角度が選択されるなどである。
第1の実施の形態では、基準深度情報として深度の閾値thを設定し、処理対象とした画像の各画素の深度情報DPと深度の閾値thの比較結果に基づいて抽出した被写体のトリミング画像を生成するようにしている(図5〜図12参照)。
これにより画像を奥行きの或る空間とし、或る深度より手前側(もしくは奥側)の被写体を抽出するようなトリミング画像を生成することができる。
第1の実施の形態では、処理対象とした画像の全画素と比較する共通の閾値thを設定するようにした例を述べた(図5A、図6A、図6B、図7参照)
即ち1つの閾値thを設定し、その閾値thを処理対象の画像の全画素の深度情報DPと比較して、その比較結果により表示する画素を抽出する。
これにより深度閾値thで決まる或る奥行き位置に仮想垂直面VP1を設け、仮想垂直面VP1より手前側(又は奥側)の被写体をトリミングした画像を生成することができる。従って撮像時の被写体の深度に応じて切り出した画像を生成できる。
第1の実施の形態では、複数の深度閾値th0−0〜th(n−m)を設定し、画素毎に、画素の深度情報DPと該画素に対応された深度閾値thを比較する例を述べた(図5C、図5D、図6C、図6D、図8、図9、図10参照)。
例えば画像の領域毎に異なる深度閾値thを設定したり、画素毎に対応する深度閾値thを設定する。そして各画素の深度情報DPを対応する深度閾値thと比較して表示する画素を抽出する。
これにより処理対象の画像について想定される仮想的な三次元空間内で、仮想水平面VP2や仮想傾斜面VP3等を基準として切り取ったようにトリミングした画像を生成することができる。例えば被写体の一部が水没した状態、壁から飛び出した状態、水に浮かぶ状態など、多様な表現の画像を生成できる。
第1の実施の形態では、トリミングの対象となる被写体の情報を取得し、処理対象の画像の各画素について、深度閾値thとの比較結果と、トリミングの対象となる被写体の画素であるか否かの判定結果を用いてトリミング画像を生成する画像編集処理を行う例を述べた(図11,図12参照)。
この場合、深度の比較結果だけでなく、画像解析による被写体認識を用いて判定した被写体の画素であるか否かの判定も行って、それらの結果で表示する画素を抽出する。
これにより単に深度によって抽出されるだけでなく被写体種別も考慮したトリミングが可能となる。例えば或る深度の被写体人物をトリミングしたい場合に、同じ深度に他の物体等が写っていたとしても、その被写体人物だけをトリミングした画像を生成できる。従って深度を反映した上でより多様なトリミング編集が可能となる。
また特定の被写体のみを正確にトリミングしたい場合にも有用である。
つまり、トリミング対象となる位置にある他の被写体の色が混ざらないような工夫として、形状認識、物体認識、色の認識などと組み合わせることで、特定の被写体の正確にトリミングが可能である。
なお深度比較結果と被写体判定結果の利用は、図12の例のようにアンド条件とするほか、オア条件としたり、被写体判定結果を優先条件とすることが考えられる
アンド条件とすることで、特定の深度より手前側又は奥側の画素であって、トリミング対象に指定された被写体の画素が表示対象となる。従って或る深度の被写体のみを正確に切り取った画像を生成したい場合に好適である。或いは当該被写体の深度が深度閾値thをまたがっている場合、当該被写体の一部(特定の深度より手前側又は奥側の画素)のみが表示されるような画像を生成できる。
オア条件とすることで、特定の深度より手前側又は奥側の画素と、トリミング対象に指定された被写体の画素がともに表示対象となる。従って或る深度より手前側又は奥側の全ての被写体と、指定した被写体を合わせたトリミング画像を生成でき、多様なトリミング編集が可能となる。
被写体判定結果を優先条件とすることで、例えばトリミング対象に指定した被写体の一部が、深度情報DPからは非抽出とされる深度であっても、その一部も表示される。つまり指定された被写体は全て表示され、それ以外は閾値thとの深度比較結果で抽出された被写体が表示される画像を生成することができ、これも多様な画像編集を提供できることになる。
また第1の実施の形態では、基準深度情報として深度閾値thを設定し、処理対象とした画像の各画素の深度情報DPと深度閾値thの比較結果により、深度閾値thより手前側もしくは奥側のうちの一方側と判定された画素を表示する画素とし、他方側と判定された画素の値を他の値に置換する処理を行う(図7、図8のS106、図12のS121参照)。
すなわち閾値thを基準として、手前側と奥側で、そのまま表示する画素と、画素値を置換する画素とを分ける。
これにより画像を奥行きの或る空間とし、或る深度より手前側(もしくは奥側)の被写体を抽出するとともに奥側(もしくは手前側)を元の画像とは異なる状態にする画像、例えばトリミング画像や合成画像等を生成することができる。
例えば第1の実施の形態では、閾値thの深度より手前側と奥側の一方に対する他方側と判定された画素の全てについて、画素値を被写体を非表示とする値もしくは表示効果を付与する値に置換する画像編集処理を行う例を述べた((図7、図8のS106、図12のS121参照)。
例えば深度閾値thで分けた他方側の被写体の画素を、その被写体を非表示とする値(マスクデータ)に置換して、元々の被写体とは無関係な画素値とすることで、他方側の被写体をマスクし(非表示とし)、一方側の被写体のみを表示させるトリミング画像を生成できる(図5,図6参照)。
この場合、他方側の画素値(輝度値)を全て同一の値に置換すれば、背景がモノトーンとされたトリミング画像が生成できる。または画素ブロックで考えて他方側の画素値を同一の色となる画素値に置換することで、特定の色を背景としたトリミング画像が生成できる。
なお、マスクの色をユーザが選択できるようにしてもよいし、マスクの輝度/色は常に固定の状態としてもよい。
またマスクの色や輝度を領域によって変化させることで、トリミング画像の背景に模様を描いたりグラデーションを施す等の多様な編集画像を実現することもできる。
また例えば深度閾値thで分けた他方側の被写体の画素を、その被写体に画像エフェクトを与えた場合の値に置換すれば、一方側の被写体が元のまま表示され他方側の被写体には画像効果が付与された画像を生成できる。例えば元のまま抽出された被写体以外がモノクロ化、低輝度化、ぼかし、モザイク化等の処理が施された画像とすることができる。(図10C、図10D、図12のS121参照)。
第1の実施の形態では、トリミングする側とは他方側と判定された画素について、他の画像の画素値に置換する画像編集処理を行う例を述べた(図10C、図12参照)
例えば深度閾値thで分けた他方側の被写体の画素を、別の画像の画素の画素値に置換すれば、一方側の被写体が元のまま表示され他方側は他の画像の被写体が合成された画像を生成できる。これにより多様な画像編集環境を提供できる。例えば合成画像、多重露光のような画像が実現できる。
第2の実施の形態では、基準深度情報として挿入深度(閾値thI)を設定し、第1画像に第2画像を合成する処理として、第1画像の各画素の深度情報DPと挿入深度(閾値thI)の比較結果に基づいて、第2画像の画素と第1画像に対する画素との前後関係を判定し、該判定結果に基づいて合成画像を生成する画像編集処理を行う例を述べた(図13,図14,図15参照)。
この場合、第1画像における深度の或る位置に、第2画像を合成して配置するが、その際に、第1画像の被写体と挿入深度(閾値thI)の前後関係が判断される。これにより、実際に第1画像の被写体の三次元空間内に二次元的に生成した文字やグラフィックとしてのオブジェクトが存在するかのような合成画像を得ることができる。つまり文字/グラフィックを自然な感じで、奥行きのある写真画像である第1画像に合成できる。
また第2の実施の形態では、第2画像に対して、挿入深度に応じた画像エフェクト処理を行うことを述べた(図16,図17参照)
第2画像は設定した挿入深度の奥行き位置で第1画像に挿入するように合成される。この第2画像に対して、その挿入深度に応じた画像効果を与える。
また複数の第2画像をそれぞれ異なる挿入深度で合成する場合、各第2画像は、それぞれの挿入深度に応じた画像エフェクトを施すようにする。
これにより、第2画像としての文字やグラフィックが、実際に第1画像を撮像した被写体空間内に存在しているかのような合成画像を生成することができる。
第3の実施の形態では、基準深度情報として深度基準値DPrefを設定し、処理対象とした画像の各画素について深度情報DPと深度基準値DPrefの比較結果に基づいて画像エフェクトレベルEPを設定し、処理対象とした画像に画像エフェクト処理を施す画像編集処理を説明した(図18,図19参照)。
これにより自然な感じの画像エフェクトを与えた画像を生成することができる。例えば霧や雲、フレアの表現を与えるような画像エフェクトを、実際の霧や雲の状態に極めて近い画像効果状態とすることができる。
また仮想的な光源からの照明が行われているように光学的効果を与えたような表現などの可能である。
第4の実施の形態では、基準深度情報として挿入深度(閾値thI)を設定し、第1画像と第2画像を合成する処理として、第1画像の被写体と第2画像の被写体の一方又は両方のサイズを変更し、第1画像の画素の深度情報DPと挿入深度(閾値thI)の比較結果に基づいて、第2画像の画素と第1画像に対する画素との前後関係を判定し、該判定結果に基づいて合成画像を生成する画像編集処理を述べた(図21,図22,図23参照)。
この場合、異なる画像間でサイズ関係を揃えたり、あるいは通常あり得ないサイズ関係に変更したような状態の合成画像が得られる。この合成画像は被写体の前後関係が反映されたものとなり、自然な感じの画像であるが実際にはあり得ない画像などを生成することができる。これにより画像表現の幅を広げることができる。
またサイズ情報を反映した重ね合わせを行うことで、タイムラプスやカタログ、集合写真などで付加価値の生まれるような用途に適用できる。
タイムラプス表現は、例えば被写体までの距離や画像中の被写体サイズなどと深度情報を利用して、被写体の絶対的な大きさを統一して、大きさに変化のあるもの(植物や動物の成長など)の各大きさの状態を同時に表すような表現である。第4の実施の形態の手法により、例えば背景上で、植物や動物などの或る被写体についてサイズを変えたものが並ぶように合成することで、時系列上で大きさが変化していく様子を表す画像を生成できる。
第4の実施の形態では、第2画像からトリミングした被写体画像を、第1画像に合成する例を述べた。
例えば第2の画像の一部の被写体をトリミングで取りだし、第1画像の被写体と第2画像の被写体の一方又は両方のサイズを変更したうえで、トリミングした第2画像の被写体を第1画像に組み込むような合成処理を行う(図21,図22,図23参照)。
これにより、第2画像における被写体がサイズ変更された被写体が、実際に第1画像を撮像した被写体空間内に存在しているかのような合成画像を得ることができる。
またトリミングした画像を用いることで、処理の効率化が実現できる。
第4の実施の形態では、第2画像からトリミングした被写体画像に対して、挿入深度に応じた画像エフェクト処理を行うことを述べた(図23のS179)。
例えば第1画像とのサイズ関係が変更された第2画像は設定した挿入深度の奥行き位置で第1画像に挿入するように合成される。この第2画像に対して、その挿入深度に応じた画像効果を与える。
また複数の第2画像をそれぞれ異なる挿入深度で合成する場合、各第2画像は、それぞれの挿入深度に応じた画像エフェクトを施すようにする。
これによりサイズ変更された第2画像の被写体が、実際に第1画像を撮像した被写体空間内に存在しているかのような合成画像を得ることができる。例えば背景ボケ、影、光源からの光を想定した明暗、フレア、霧、雲などを加える画像エフェクトにより、より自然な感じ、つまり第2画像の被写体が実際の被写体として第1画像内に存在していたかのような画像を得ることができる。
第5の実施の形態では、基準深度情報として複数の深度閾値th1〜th(p)を設定し、処理対象とした画像において各深度閾値th1〜th(p)を用いて抽出した画素を平面化した画像を合成する画像編集処理例を述べた(図24,図25,図26)。
これにより深度によってシンプル化した画像、例えばシャドーボックス的な画像、等高線を表現するような画像等が得られる。これにより画像表現の幅を広げることができる。
また第5の実施の形態では、処理対象の画像の各画素の深度情報として、最小値から最大値の範囲内で、複数の深度閾値を設定する例を述べた(図26C参照)。
これにより、画像内容に応じて、被写体を適切に切り出すことができるように複数の深度閾値th1〜th(p)が設定され、シャドーボックス的な画像を、より効果的に生成することができる。
第5の実施の形態では、基準深度情報として深度閾値thを1又は複数設定し、1又は複数の画像から、設定した1又は複数の深度閾値thを用いて抽出して被写体画像を抽出し、抽出した被写体画像を合成する画像編集処理を行う例を述べた(図27,図28参照)。
深度情報を用いて被写体画像を切り出し、切り出した複数の被写体画像を合成することにより、例えば各種被写体のコラージュのような画像が得られ、これも画像表現の幅を広げることが可能となる。
なお、各実施の形態では静止画を処理対象の画像として説明したが、動画の場合も本技術は適用できる。各フレームについて実施の形態の処理を適用して、トリミング動画、文字/グラフィック挿入動画、深度に応じた画像エフェクトを施した動画、シャドーボックス的な被写体の動画等を生成することもできる。また動画の各フレームに他の画像の被写体を挿入することもできる。
本発明の実施の形態のプログラムは、情報処理装置に、処理対象とした画像における画素の深度情報に対する比較基準となる基準深度情報を設定する基準深度設定ステップと、基準深度情報と処理対象とした画像の画素の深度情報を用いて画像編集処理を行う画像編集処理ステップとを実行させるプログラムである。
即ち図7、図8、図12、図15、図17、図19、図23、図25、図28の処理を情報処理装置に実行させるプログラムである。
このようなプログラムにより本実施の形態の画像処理装置1の実現が容易となる。
そしてこのようなプログラムはコンピュータ装置等の機器に内蔵されている記録媒体や、CPUを有するマイクロコンピュータ内のROM等に予め記憶しておくことができる。あるいはまた、半導体メモリ、メモリカード、光ディスク、光磁気ディスク、磁気ディスクなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記憶)しておくことができる。またこのようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
また、このようなプログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN、インターネットなどのネットワークを介してダウンロードすることもできる。
なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
なお本技術は以下のような構成も採ることができる。
(1)処理対象とした画像における画素の深度情報に対する比較基準となる基準深度情報を設定する基準深度設定部と、
前記基準深度情報と、処理対象とした画像の画素の深度情報を用いて画像編集処理を行う画像編集処理部と、を備えた
画像処理装置。
(2)前記基準深度設定部は、操作入力に応じて前記基準深度情報を設定する
上記(1)に記載の画像処理装置。
(3)前記基準深度設定部は前記基準深度情報として深度閾値を設定し、
前記画像編集処理部は、処理対象とした画像の各画素の深度情報と深度閾値の比較結果に基づいて抽出した被写体のトリミング画像を生成する画像編集処理を行う
上記(1)又は(2)に記載の画像処理装置。
(4)前記基準深度設定部は処理対象とした画像の全画素と比較する共通の深度閾値を設定する
上記(3)に記載の画像処理装置。
(5)前記基準深度設定部は、複数の深度閾値を設定し、
前記画像編集処理部は、画素毎に、画素の深度情報と該画素に対応された深度閾値を比較する
上記(3)に記載の画像処理装置。
(6)前記画像編集処理部は、トリミングの対象となる被写体の情報を取得し、
処理対象の画像の各画素について、深度閾値との比較結果と、トリミングの対象となる被写体の画素であるか否かの判定結果を用いてトリミング画像を生成する画像編集処理を行う
上記(3)乃至(5)のいずれかに記載の画像処理装置。
(7)前記基準深度設定部は前記基準深度情報として深度閾値を設定し、
前記画像編集処理部は、処理対象とした画像の各画素の深度情報と深度閾値の比較結果により、深度閾値より手前側もしくは奥側のうちの一方側と判定された画素を表示する画素とし、他方側と判定された画素の値を他の値に置換する処理を行う
上記(1)又は(2)のいずれかに記載の画像処理装置。
(8)前記画像編集処理部は、前記他方側と判定された画素の全てについて、画素値を、被写体を非表示とする値もしくは表示効果を付与する値に置換する画像編集処理を行う
上記(7)に記載の画像処理装置。
(9)前記画像編集処理部は、前記他方側と判定された画素について、他の画像の画素値に置換する画像編集処理を行う
上記(7)に記載の画像処理装置。
(10)前記基準深度設定部は前記基準深度情報として挿入深度を設定し、
前記画像編集処理部は、第1画像に第2画像を合成する処理として、前記第1画像の各画素の深度情報と挿入深度の比較結果に基づいて、前記第2画像の画素と前記第1画像に対する画素との前後関係を判定し、該判定結果に基づいて合成画像を生成する画像編集処理を行う
上記(1)又は(2)に記載の画像処理装置。
(11)前記画像編集処理部は、前記第2画像に対して、挿入深度に応じた画像エフェクト処理を行う
上記(10)に記載の画像処理装置。
(12)前記基準深度設定部は前記基準深度情報として深度基準値を設定し、
前記画像編集処理部は、処理対象とした画像の各画素について深度情報と深度基準値の比較結果に基づいて画像エフェクトレベルを設定し、処理対象とした画像に画像エフェクト処理を施す画像編集処理を行う
上記(1)又は(2)に記載の画像処理装置。
(13)前記基準深度設定部は前記基準深度情報として挿入深度を設定し、
前記画像編集処理部は、第1画像と第2画像を合成する処理として、前記第1画像の被写体と前記第2画像の被写体の一方又は両方のサイズを変更し、前記第1画像の画素の深度情報と挿入深度の比較結果に基づいて、前記第2画像の画素と前記第1画像に対する画素との前後関係を判定し、該判定結果に基づいて合成画像を生成する画像編集処理を行う
上記(1)又は(2)に記載の画像処理装置。
(14)前記画像編集処理部は、前記第2画像からトリミングした被写体画像を、前記第1画像に合成する処理を行う
上記(13)に記載の画像処理装置。
(15)前記画像編集処理部は、前記第2画像からトリミングした被写体画像に対して、挿入深度に応じた画像エフェクト処理を行う
上記(13)又は(14)に記載の画像処理装置。
(16)前記基準深度設定部は前記基準深度情報として複数の深度閾値を設定し、
前記画像編集処理部は、処理対象とした画像において各深度閾値を用いて抽出した画素を平面化した画像を合成する画像編集処理を行う
上記(1)又は(2)に記載の画像処理装置。
(17)前記画像編集処理部は、処理対象の画像の各画素の深度情報として、最小値から最大値の範囲内で、複数の深度閾値を設定する
上記(16)に記載の画像処理装置。
(18)前記基準深度設定部は前記基準深度情報として深度閾値を1又は複数設定し、
前記画像編集処理部は、1又は複数の画像から、設定した1又は複数の深度閾値を用いて抽出して被写体画像を抽出し、抽出した被写体画像を合成する画像編集処理を行う
上記(16)に記載の画像処理装置。
(19)処理対象とした画像における画素の深度情報に対する比較基準となる基準深度情報を設定する基準深度設定手順と、
前記基準深度情報と、処理対象とした画像の画素の深度情報を用いて画像編集処理を行う画像編集処理手順と、
を情報処理装置が実行する画像処理方法。
(20)処理対象とした画像における画素の深度情報に対する比較基準となる基準深度情報を設定する基準深度設定ステップと、
前記基準深度情報と、処理対象とした画像の画素の深度情報を用いて画像編集処理を行う画像編集処理ステップと、
を情報処理装置に実行させるプログラム。
1…画像処理装置、2…画像取得部、3…深度取得部、4…基準深度設定部、5…画像編集処理部、6…画像出力部、10…操作部、11…表示部、12…通信部、13…記憶部、14…画像ソース、100…情報処理装置、101…携帯端末、102…画面、110…スライダ、111…操作ボタン

Claims (20)

  1. 処理対象とした画像における画素の深度情報に対する比較基準となる基準深度情報を設定する基準深度設定部と、
    前記基準深度情報と、処理対象とした画像の画素の深度情報を用いて画像編集処理を行う画像編集処理部と、を備えた
    画像処理装置。
  2. 前記基準深度設定部は、操作入力に応じて前記基準深度情報を設定する
    請求項1に記載の画像処理装置。
  3. 前記基準深度設定部は前記基準深度情報として深度閾値を設定し、
    前記画像編集処理部は、処理対象とした画像の各画素の深度情報と深度閾値の比較結果に基づいて抽出した被写体のトリミング画像を生成する画像編集処理を行う
    請求項1に記載の画像処理装置。
  4. 前記基準深度設定部は処理対象とした画像の全画素と比較する共通の深度閾値を設定する
    請求項3に記載の画像処理装置。
  5. 前記基準深度設定部は、複数の深度閾値を設定し、
    前記画像編集処理部は、画素毎に、画素の深度情報と該画素に対応された深度閾値を比較する
    請求項3に記載の画像処理装置。
  6. 前記画像編集処理部は、トリミングの対象となる被写体の情報を取得し、
    処理対象の画像の各画素について、深度閾値との比較結果と、トリミングの対象となる被写体の画素であるか否かの判定結果を用いてトリミング画像を生成する画像編集処理を行う
    請求項3に記載の画像処理装置。
  7. 前記基準深度設定部は前記基準深度情報として深度閾値を設定し、
    前記画像編集処理部は、処理対象とした画像の各画素の深度情報と深度閾値の比較結果により、深度閾値より手前側もしくは奥側のうちの一方側と判定された画素を表示する画素とし、他方側と判定された画素の値を他の値に置換する処理を行う
    請求項1に記載の画像処理装置。
  8. 前記画像編集処理部は、前記他方側と判定された画素の全てについて、画素値を、被写体を非表示とする値もしくは表示効果を付与する値に置換する画像編集処理を行う
    請求項7に記載の画像処理装置。
  9. 前記画像編集処理部は、前記他方側と判定された画素について、他の画像の画素値に置換する画像編集処理を行う
    請求項7に記載の画像処理装置。
  10. 前記基準深度設定部は前記基準深度情報として挿入深度を設定し、
    前記画像編集処理部は、第1画像に第2画像を合成する処理として、前記第1画像の各画素の深度情報と挿入深度の比較結果に基づいて、前記第2画像の画素と前記第1画像に対する画素との前後関係を判定し、該判定結果に基づいて合成画像を生成する画像編集処理を行う
    請求項1に記載の画像処理装置。
  11. 前記画像編集処理部は、前記第2画像に対して、挿入深度に応じた画像エフェクト処理を行う
    請求項10に記載の画像処理装置。
  12. 前記基準深度設定部は前記基準深度情報として深度基準値を設定し、
    前記画像編集処理部は、処理対象とした画像の各画素について深度情報と深度基準値の比較結果に基づいて画像エフェクトレベルを設定し、処理対象とした画像に画像エフェクト処理を施す画像編集処理を行う
    請求項1に記載の画像処理装置。
  13. 前記基準深度設定部は前記基準深度情報として挿入深度を設定し、
    前記画像編集処理部は、第1画像と第2画像を合成する処理として、前記第1画像の被写体と前記第2画像の被写体の一方又は両方のサイズを変更し、前記第1画像の画素の深度情報と挿入深度の比較結果に基づいて、前記第2画像の画素と前記第1画像に対する画素との前後関係を判定し、該判定結果に基づいて合成画像を生成する画像編集処理を行う
    請求項1に記載の画像処理装置。
  14. 前記画像編集処理部は、前記第2画像からトリミングした被写体画像を、前記第1画像に合成する処理を行う
    請求項13に記載の画像処理装置。
  15. 前記画像編集処理部は、前記第2画像からトリミングした被写体画像に対して、挿入深度に応じた画像エフェクト処理を行う
    請求項13に記載の画像処理装置。
  16. 前記基準深度設定部は前記基準深度情報として複数の深度閾値を設定し、
    前記画像編集処理部は、処理対象とした画像において各深度閾値を用いて抽出した画素を平面化した画像を合成する画像編集処理を行う
    請求項1に記載の画像処理装置。
  17. 前記画像編集処理部は、処理対象の画像の各画素の深度情報として、最小値から最大値の範囲内で、複数の深度閾値を設定する
    請求項16に記載の画像処理装置。
  18. 前記基準深度設定部は前記基準深度情報として深度閾値を1又は複数設定し、
    前記画像編集処理部は、1又は複数の画像から、設定した1又は複数の深度閾値を用いて抽出して被写体画像を抽出し、抽出した被写体画像を合成する画像編集処理を行う
    請求項16に記載の画像処理装置。
  19. 処理対象とした画像における画素の深度情報に対する比較基準となる基準深度情報を設定する基準深度設定手順と、
    前記基準深度情報と、処理対象とした画像の画素の深度情報を用いて画像編集処理を行う画像編集処理手順と、
    を情報処理装置が実行する画像処理方法。
  20. 処理対象とした画像における画素の深度情報に対する比較基準となる基準深度情報を設定する基準深度設定ステップと、
    前記基準深度情報と、処理対象とした画像の画素の深度情報を用いて画像編集処理を行う画像編集処理ステップと、
    を情報処理装置に実行させるプログラム。
JP2018552431A 2016-11-28 2017-09-25 画像処理装置、画像処理方法、プログラム Pending JPWO2018096775A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016229860 2016-11-28
JP2016229860 2016-11-28
PCT/JP2017/034525 WO2018096775A1 (ja) 2016-11-28 2017-09-25 画像処理装置、画像処理方法、プログラム

Publications (1)

Publication Number Publication Date
JPWO2018096775A1 true JPWO2018096775A1 (ja) 2019-10-17

Family

ID=62195779

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018552431A Pending JPWO2018096775A1 (ja) 2016-11-28 2017-09-25 画像処理装置、画像処理方法、プログラム

Country Status (5)

Country Link
US (1) US10810776B2 (ja)
EP (1) EP3547661A4 (ja)
JP (1) JPWO2018096775A1 (ja)
CN (1) CN109983753A (ja)
WO (1) WO2018096775A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112154658A (zh) 2018-05-29 2020-12-29 索尼公司 图像处理装置、图像处理方法和程序
CN113163133A (zh) * 2018-10-15 2021-07-23 华为技术有限公司 一种图像处理方法、装置与设备
US10902265B2 (en) * 2019-03-27 2021-01-26 Lenovo (Singapore) Pte. Ltd. Imaging effect based on object depth information
JP2021077260A (ja) * 2019-11-13 2021-05-20 株式会社カシカ プログラム及び情報処理装置
WO2021220804A1 (ja) * 2020-04-27 2021-11-04 ソニーグループ株式会社 情報処理装置、合成映像の生成方法およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012094111A (ja) * 2010-09-29 2012-05-17 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2014146162A (ja) * 2013-01-29 2014-08-14 Sammy Corp 画像合成処理方法及び遊技機
JP2015103960A (ja) * 2013-11-25 2015-06-04 カシオ計算機株式会社 画像奥行き指定方法、プログラム、および装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10228547A (ja) * 1997-02-14 1998-08-25 Canon Inc 画像編集方法及び装置並びに記憶媒体
JP5084682B2 (ja) 2008-09-25 2012-11-28 キヤノン株式会社 画像処理装置、制御方法、プログラム及び記録媒体
KR101281961B1 (ko) * 2009-12-21 2013-07-03 한국전자통신연구원 깊이 영상 편집 방법 및 장치
US8503801B2 (en) * 2010-09-21 2013-08-06 Adobe Systems Incorporated System and method for classifying the blur state of digital image pixels
US8890936B2 (en) * 2010-10-12 2014-11-18 Texas Instruments Incorporated Utilizing depth information to create 3D tripwires in video
US8885941B2 (en) * 2011-09-16 2014-11-11 Adobe Systems Incorporated System and method for estimating spatially varying defocus blur in a digital image
CN104281397B (zh) * 2013-07-10 2018-08-14 华为技术有限公司 多深度区间的重聚焦方法、装置及电子设备
WO2016017987A1 (en) * 2014-07-31 2016-02-04 Samsung Electronics Co., Ltd. Method and device for providing image
KR102155093B1 (ko) * 2014-08-05 2020-09-11 엘지전자 주식회사 이동단말기 및 그 제어방법
US10334221B2 (en) * 2014-09-15 2019-06-25 Mantisvision Ltd. Methods circuits devices systems and associated computer executable code for rendering a hybrid image frame

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012094111A (ja) * 2010-09-29 2012-05-17 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2014146162A (ja) * 2013-01-29 2014-08-14 Sammy Corp 画像合成処理方法及び遊技機
JP2015103960A (ja) * 2013-11-25 2015-06-04 カシオ計算機株式会社 画像奥行き指定方法、プログラム、および装置

Also Published As

Publication number Publication date
US10810776B2 (en) 2020-10-20
EP3547661A1 (en) 2019-10-02
EP3547661A4 (en) 2019-12-04
WO2018096775A1 (ja) 2018-05-31
US20190272658A1 (en) 2019-09-05
CN109983753A (zh) 2019-07-05

Similar Documents

Publication Publication Date Title
WO2018096775A1 (ja) 画像処理装置、画像処理方法、プログラム
US11961189B2 (en) Providing 3D data for messages in a messaging system
CN110517355B (zh) 用于照明混合现实对象的环境合成
KR102638526B1 (ko) 파라미터를 갖는 마커를 사용한 증강 현실의 장면 수정
CN112215934B (zh) 游戏模型的渲染方法、装置、存储介质及电子装置
US20110273466A1 (en) View-dependent rendering system with intuitive mixed reality
US9330500B2 (en) Inserting objects into content
US9508190B2 (en) Method and system for color correction using three-dimensional information
US20110273369A1 (en) Adjustment of imaging property in view-dependent rendering
ES2675513T3 (es) Dispositivo de procesamiento de imágenes en movimiento, método de procesamiento de imágenes en movimiento, y medio de registro de información
JP5299173B2 (ja) 画像処理装置および画像処理方法、並びにプログラム
US20210067756A1 (en) Effects for 3d data in a messaging system
US11995781B2 (en) Messaging system with neural hair rendering
Zhang et al. Personal photograph enhancement using internet photo collections
JP7387434B2 (ja) 画像生成方法および画像生成装置
US11663467B2 (en) Methods and systems for geometry-aware image contrast adjustments via image-based ambient occlusion estimation
US8619071B2 (en) Image view synthesis using a three-dimensional reference model
US11496661B2 (en) Image processing apparatus and image processing method
CN106447756B (zh) 用于生成用户定制的计算机生成动画的方法和系统
US9471967B2 (en) Relighting fragments for insertion into content
US20130278602A1 (en) Animatable graphics lighting analysis reporting
CN114820292A (zh) 图像合成方法、装置、设备及存储介质
JP7387029B2 (ja) ソフトレイヤ化および深度認識インペインティングを用いた単画像3d写真技術
CN115359169A (zh) 图像处理方法、装置和存储介质
JP6687946B2 (ja) 画像処理方法及び画像処理プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200707

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210713

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220125