JP2013197980A - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP2013197980A JP2013197980A JP2012064037A JP2012064037A JP2013197980A JP 2013197980 A JP2013197980 A JP 2013197980A JP 2012064037 A JP2012064037 A JP 2012064037A JP 2012064037 A JP2012064037 A JP 2012064037A JP 2013197980 A JP2013197980 A JP 2013197980A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- image
- composition
- background
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
この発明は、画像処理装置、画像処理方法、及び、プログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program.
従来、写真や絵画といった画像に適した種々の構図が知られている。しかしながら、撮像装置による撮影時に適切な構図で撮影するのは、必ずしも容易ではない。そこで、近年、撮像装置による撮像の際に、スルー画像に基づいて構図を評価する技術が開示されている(特許文献1)。また、複数の画像やオブジェクトを構図に基づいて配置して合成し、一枚の画像データを生成する技術が開示されている(特許文献2)。 Conventionally, various compositions suitable for images such as photographs and paintings are known. However, it is not always easy to photograph with an appropriate composition when photographing with the imaging device. Therefore, in recent years, a technique for evaluating a composition based on a through image at the time of imaging by an imaging apparatus has been disclosed (Patent Document 1). In addition, a technique is disclosed in which a plurality of images and objects are arranged and combined based on a composition to generate one piece of image data (Patent Document 2).
また、一方、本願発明に関連する技術として、近年、画像の欠損部分をその周囲の画像データに基づいて推測し、再現修復を行う技術がある(非特許文献1)。 On the other hand, as a technique related to the invention of the present application, in recent years, there is a technique for estimating a defective portion of an image based on surrounding image data and performing a reproduction restoration (Non-Patent Document 1).
しかしながら、一度撮影、描画された画像における被写体などの構成要素の配置が適切な構図から外れている場合には、被写体が一つだけであれば、トリミングなどでも対応できるが、複数の被写体間の位置関係や、被写体と背景との相対位置に問題があった場合には、修正することができないという課題があった。 However, if the arrangement of components such as the subject in the image once taken and drawn is out of the proper composition, if there is only one subject, it can be handled by trimming etc. If there is a problem in the positional relationship or the relative position between the subject and the background, there is a problem that it cannot be corrected.
この発明の目的は、画像の構成要素を構図に従って各々適切に配置変換可能な画像処理装置、画像処理方法、及び、プログラムを提供することにある。 An object of the present invention is to provide an image processing apparatus, an image processing method, and a program capable of appropriately arranging and converting the constituent elements of an image according to the composition.
本発明は、上記目的を達成するため、
画像データから一又は複数の被写体領域と、背景における特徴部分とを抽出する被写体抽出手段と、
この被写体抽出手段により抽出された被写体領域及び背景の特徴部分に基づき、前記画像データに係る画像表示領域内の構図を設定する構図設定手段と、
この構図設定手段により設定された構図に基づいて、前記被写体領域及び前記背景のうちの少なくとも一方を前記画像表示領域に配置させる被写体配置制御手段と、
この被写体配置制御手段の制御により前記被写体領域及び前記背景が配置された画像データを出力する画像出力手段と、
を備えることを特徴とする画像処理装置である。
In order to achieve the above object, the present invention
Subject extraction means for extracting one or a plurality of subject areas and feature portions in the background from the image data;
Composition setting means for setting the composition in the image display area related to the image data based on the subject area and the background feature portion extracted by the subject extraction means;
Subject placement control means for placing at least one of the subject area and the background in the image display area based on the composition set by the composition setting means;
Image output means for outputting image data in which the subject area and the background are arranged under the control of the subject placement control means;
An image processing apparatus comprising:
本発明に従うと、画像の構成要素を構図に従って各々適切に配置変換することができるという効果がある。 According to the present invention, there is an effect that the components of the image can be appropriately rearranged according to the composition.
以下、本発明の実施の形態を図面に基づいて説明する。
図1は、本発明の画像処理装置である撮像装置の内部構成を示すブロック図である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing an internal configuration of an imaging apparatus which is an image processing apparatus of the present invention.
この撮像装置100は、デジタルカメラといったデジタル撮像装置である。撮像装置100は、レンズ部11と、電子撮像部12と、撮像制御部13と、画像データ生成部14と、画像メモリ15と、画像処理部16と、表示制御部17と、画像出力手段としての表示部18と、操作手段としての操作部19と、記録媒体制御部20と、中央制御部21などを備えている。これらのうち、撮像制御部13、画像処理部16、及び、中央制御部21は、一枚のカスタムLSIチップ100a上に配置することが出来る。
The
レンズ部11は、複数のレンズを備え、ズームやフォーカス等の動作が可能に構成されている。これらのズーム動作やフォーカス動作は、レンズを保持する筐体をユーザが手動で動作させることで行っても良いし、ズーム駆動部やフォーカス駆動部を備え、自動、又はユーザの操作入力に基づいて動作可能としても良い。
The
電子撮像部12は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサを備える。この電子撮像部12は、レンズ部11の各レンズを通過した光学像に係る光量を二次元マトリクス状に配置された画素毎に計測し、画像信号に変換して出力する。
The
撮像制御部13は、図示略のタイミング発生器、ドライバなどを備えている。撮像制御部13は、レンズ部11のズーム駆動部やフォーカス駆動部に制御信号を送って動作させ、焦点距離やフォーカス位置の調整を行う。また、この撮像制御部13は、タイミング発生器、及び、ドライバにより電子撮像部12を駆動して電子撮像部12に設定されたシャッター速度(露出時間)に対応する時間の光量データを取得させ、画像信号を画像データ生成部14に出力させる。
The
画像データ生成部14は、電子撮像部12から出力された各画素の光量データをアナログ/デジタル変換してデジタル画像データを生成、出力する。このとき、画像データ生成部14は、予め設定されたRGB各色の発色調整、バランス調整、γ補正などを行うことが可能である。出力された画像データは、図示略のDMA(Direct Memory Access)コントローラを介して画像メモリ15にDMA転送される。
The image
画像メモリ15は、例えば、DRAM(Dynamic Random Access Memory)であり、画像データ生成部14から転送されたデジタル画像データを一時的に記憶する。また、画像メモリ15は、後述する種々の画像処理の際に、画像処理部16や中央制御部21よる処理データを一時的に記憶する。
The
画像処理部16は、生成されたデジタル画像データに対し、本発明に係る種々の画像処理を行う。画像処理部16は、特徴領域検出部16a(被写体抽出手段)と、配置設定部16b(構図設定手段、被写体配置制御手段)と、画像修復部16c(画像修復手段)とを備えている。
The
特徴領域検出部16aは、画像表示領域に含まれる被写体、及び、背景における特徴領域を識別する。ここでいう被写体は、前景として撮影されるものであり、例えば、ヒトの顔、上半身、全身が挙げられるが、ヒト以外の生物、植物や、種々の構造物など、他のものであっても良い。この被写体は、一つである必要は無く、複数個設定可能である。また、背景の特徴領域としては、山、海岸線、地平線、及び、遠くの建物などが挙げられる。また、山や建物であっても、風景写真などの場合には、適宜被写体として設定可能に構成される。特徴領域検出部16aは、これらの被写体及び特徴領域を検出するための特徴パターンに係る情報を保持する。この特徴パターンに係る情報には、例えば、具体的なコントラスト情報や色分布などが含まれる。特徴領域検出部16aは、これらの情報との一致度を所定の重み付けで加算した値を所定の基準値と比較することで特徴的なパターンとの一致判別を行う。
The feature
配置設定部16bは、特徴領域検出部16aにより検出された被写体及び背景の特徴領域のサイズ、形状及び配置に基づいてこれに類似した適切な構図を選択し、また、各被写体及び背景の適切な位置を当該構図に基づいて同定する。配置設定部16bは、中央制御部21のROMなどに保持された構図の選択に用いられる種々の構図の設定に係る構図設定テーブル21bを必要に応じて参照する。
The
画像修復部16cは、各被写体及び背景が相対的に移動された結果として画像データが欠損した画素位置の画像を修復する。画像データ欠損領域の修復には、画像修復(Image Inpainting)に係る公知の種々の手法を用いることが出来る。ここで、これらの公知の画像修復技術では、計算量や使用するメモリ量がしばしば大きくなる。そこで、この画像修復部16cは、外部のサーバと通信する通信部を備え、画像データ及び画像修復領域に係る情報を外部のサーバに送信して修復処理を行わせ、修復後の画像データを当該サーバから受信する構成であっても良い。
これらの画像処理部16の動作については、後に詳述する。
The
The operation of these
表示制御部17は、中央制御部21からの制御信号に基づき、画像メモリ15に記憶されている画像データを読み出して表示部18に表示させる制御を行う。表示制御部17は、ユーザ操作に基づいて撮影、取得が行われた画像データ、及び、各種編集がなされた画像データに係る画像を表示させる。また、表示制御部17は、所定のサンプリング周期で取得されたスルー画像(ライブビュー画像)や、撮影直後に自動的に当該撮影に係るレックビュー画像を表示部18に表示させることが出来る。
The
表示部18は、例えば、液晶表示部(LCD)である。表示部18は、表示制御部17から入力された制御信号に基づいて液晶表示画面の駆動ドライバが動作し、撮影画像、編集画像、スルー画像、レックビュー画像などを表示画面に表示する。
The
記録媒体制御部20は、記録媒体20aが着脱可能に構成され、装着された記録媒体20aと画像メモリ15との間でのデータのやり取りを制御する。記録媒体制御部20は、画像処理部16を介して画像メモリ15に記憶された画像データ(RAWデータ)や、符号化圧縮処理(例えば、JPEG)がなされた画像データを記録媒体20aに書き込むことが出来る。
The recording
記録媒体20aは、不揮発性メモリを備えた可搬型記録媒体であり、例えば、フラッシュメモリやEEPROM(Electrically Erasable and Programmable Read Only Memory)である。
The
操作部19は、一又は複数の操作スイッチを備える。この操作スイッチとしては、例えば、押しボタンスイッチ、回転スイッチ、表示部18を用いたタッチパネルが用いられる。ユーザがこれらの操作スイッチを操作すると、操作部19は、操作入力を電気信号に変換して中央制御部21に出力する。具体的には、操作部19は、被写体の撮影指示に係るシャッタボタン、表示部18に表示させたメニュー画面に応じて撮像モードや機能などの選択を指示する指示ボタン、ズーム量の調整指示に係るズームボタンなどを備える。
The
中央制御部21は、各種演算処理を行い、撮像装置100の各部を統括制御する。中央制御部21は、CPU(Central Processing Unit)、RAM、ROM(Read Only Memory)を備え、必要に応じてROMに記憶された各種処理プログラム21aを呼び出して実行し、当該プログラム21aに基づいて撮像装置100の各部を制御する。またROMには、後述する構図設定テーブル21b(構図記憶手段)が含まれている。
The
次に、本実施形態の撮像装置100における撮影画像の処理について説明する。
Next, the process of the picked-up image in the
本実施形態の撮像装置100は、撮影動作により取得された一枚の画像データを所定の構図に合致するように修正を行う機能を有する。
The
図2は、本実施形態の撮像装置100における画像編集処理のCPUによる制御手順を示すフローチャートである。
先ず、画像編集処理が開始されると、CPUは、画像メモリ15から画像データを取得する(ステップS11)。CPUは、ユーザ操作など基づいて編集対象に選択されたデジタル画像データを同定する。
FIG. 2 is a flowchart illustrating a control procedure by the CPU for image editing processing in the
First, when the image editing process is started, the CPU acquires image data from the image memory 15 (step S11). The CPU identifies digital image data selected as an editing target based on a user operation or the like.
次に、CPUは、取得された画像データから被写体を抽出する処理を特徴領域検出部16aに行わせる(ステップS12)。特徴領域検出部16aは、記憶されている種々の特徴パターンを呼び出して、画像中にこれらの特徴パターンと所定の基準レベル以上一致する部分の検出を行う。ここで、特徴領域検出部16aは、例えば、ヒトの顔を検出し、検出された顔を基準としてこの顔に繋がった体の他の部位を特定することで、ヒトの様々な体型、姿勢などに対応する。同様に、花の形状に基づく植物全体の検出などが可能である。また、ユーザが予め被写体の種別を設定しておくことで、不要な特徴パターンに係る検出処理を省略可能としても良い。特徴領域検出部16aは、画像中の全てのエリアについて検出された全ての被写体を抽出し、これらの被写体の位置情報や種別などを画像メモリ15に記憶させる。
Next, the CPU causes the feature
続いて、CPUは、特徴領域検出部16aに背景部分の特徴部分を抽出させる(ステップS13)。特徴領域検出部16aは、画像データから被写体として設定された領域を除いた残りの部分を背景画像として設定し、当該背景画像から特徴部分を検出する。この特徴部分としては、建物、構造物や一の山の頂といった遠景の被写体としても検出され得るもの、又は、地平線、水平線、道路、線路、或いは、柱や塀といった境界をなすものが好ましく選択される。
なお、ステップS12の処理で、当初、被写体として設定されたものであっても、他の被写体との相対位置関係などから背景部分であると認識された場合には、設定情報を変更し、同定された背景部分の特徴領域として用いることができる。また、遠景部分を被写体として設定するか、又は、背景画像の特徴部分として設定するかについては、例えば、画像データに係るメタ情報からフォーカス情報などを取得して判断材料に加えることも可能である。
Subsequently, the CPU causes the feature
In the process of step S12, even if it is initially set as a subject, if it is recognized as a background part due to a relative positional relationship with other subjects, the setting information is changed and identified. It can be used as a feature region of the background portion. In addition, regarding whether to set a distant view part as a subject or a feature part of a background image, for example, it is possible to acquire focus information from meta information related to image data and add it to the determination material. .
CPUは、抽出された全ての被写体及び背景の特徴部分の情報、即ち、配置や形状、サイズなどに基づいて、配置設定部16bに適切な構図を選択させる(ステップS14)。配置設定部16bに記憶され、選択可能とされる構図としては、例えば、水平線構図、垂直線構図、斜線構図、対角線構図、放射線構図、曲線構図、S字構図、三角形構図、逆三角形構図、対比・対称構図、トンネル構図、パターン構図といった周知の代表的な構図の他、他の各種の構図も含むことが出来る。また、これらの構図に係る情報は、予め配置設定部16bに記憶されるものに限られない。例えば、他の構図情報を記録媒体20aに記憶させて記録媒体制御部20に装着させることで、撮像装置100の外部から取得可能とすることができる。また、例えば、水平線構図と対比・対称構図とを組み合わせた構図というように、組み合わせ可能な複数の構図を選択することも可能である。CPUは、例えば、これらの構図情報と検出された各被写体や背景の特徴部分とのマッチングを取り、全体として類似度の高い構図を選択することが出来る。また、CPUは、部分的に類似度の高いものを組み合わせ選択したり、一部で類似度が高い部分を有する構図に他の類似度が低い部分の被写体や背景の特徴部分を適合させることが可能か否かを判別して当該構図を選択したりすることができる。
或いは、CPUは、マッチングの結果、類似度が全体として、又は、部分的に、所定のレベル以上というような条件を満たす構図や構図の組み合わせを複数抽出して表示部18に表示させ、ユーザに操作部19への操作入力を介して選択させることとしても良い。
The CPU causes the
Alternatively, as a result of the matching, the CPU extracts a plurality of compositions or combinations of compositions that satisfy a condition that the degree of similarity as a whole or partially exceeds a predetermined level and causes the
また、CPUは、これらの構図選択と共に、画面構成に係る情報についての選択も行う。ここでいう画面構成には、例えば、画面の分割方法(分割比率)や被写体の配置対称性に係る情報が含まれる。具体的な分割比率としては、三分割、黄金分割、ルート比での分割(例えば、白銀比1:√2)などがある。CPUは、画面構成に係るその他の情報として、面積比率情報、フラクタル次元情報、色彩分布情報、色彩冗長度情報、及び、色相情報などを更に記憶、選択することとしても良い。 In addition to the composition selection, the CPU also selects information related to the screen configuration. The screen configuration here includes, for example, information related to a screen division method (division ratio) and subject arrangement symmetry. As specific division ratios, there are three divisions, golden divisions, divisions by root ratio (for example, silver ratio 1: √2), and the like. The CPU may further store and select area ratio information, fractal dimension information, color distribution information, color redundancy information, hue information, and the like as other information related to the screen configuration.
一又は複数の構図が選択されると、CPUは、当該選択された構図設定に基づき、被写体及び背景の配置を当該構図に合わせて設定する処理を配置設定部16bに行わせる(ステップS15)。この配置を設定する処理では、配置設定部16bは、各被写体及び背景の平行移動、回転、及び、拡大/縮小の各処理を行わせることが出来る。なお、背景を拡大させることでトリミングと同一の効果が得られる。最終的な画像サイズ自体の変更もこの編集処理の中で実行可能としても良いし、別途行わせることとしても良い。
When one or more compositions are selected, the CPU causes the
このとき、全ての被写体及び背景が最適な位置に設定可能とは限らない。例えば、元の画像における複数の被写体の重複(接触)箇所を分離することが出来ない場合や、逆に各々の被写体を最適な位置に配置すると不都合な重複が生じる場合などが想定される。また、画像修復技術に係る制約上、周囲の画素データから推測が困難な画像修復が出来る限り行われないような範囲で各被写体及び背景の移動が行われる必要がある。そこで、配置設定部16bは、選択された構図に係る最適な位置からのずれに係る評価値を算出し、配置後の各被写体及び背景の評価値が全て、或いは、重要度の高い順に所定数/所定の割合で予め設定された所定の基準値を満たすことが可能な配置を探索して配置を行う。
At this time, not all subjects and backgrounds can be set to optimal positions. For example, a case where the overlapping (contact) portions of a plurality of subjects in the original image cannot be separated, or a case where inconvenient duplication occurs when each subject is placed at an optimal position, is conceivable. In addition, due to restrictions related to the image restoration technique, it is necessary to move each subject and background within a range in which image restoration that is difficult to estimate from surrounding pixel data is not performed as much as possible. Therefore, the
また、構図又は構図の組み合わせが複数選択可能な場合には、配置設定部16bは、各々の構図又は構図の組み合わせについてそれぞれ可能な再配置を行い、評価値のより高い方を最終的に選択された構図及び配置としてもよい。
In addition, when a plurality of compositions or composition combinations can be selected, the
各被写体及び背景の配置が構図に合わせて設定されると、CPUは、これらの被写体及び背景のうちの少なくとも一方を当該設定させた位置に移動させる(ステップS16)。それから、CPUは、この移動の結果として画像が欠損する画像欠損部分を特定する(ステップS17)。 When the arrangement of each subject and background is set according to the composition, the CPU moves at least one of the subject and background to the set position (step S16). Then, the CPU specifies an image defect portion where an image is missing as a result of this movement (step S17).
CPUは、画像修復部16cに指令を送り、特定された欠損部分を修復する欠損部分修復処理を行わせる(ステップS18)。上記のように、画像修復部16cは、通信手段を用いて被写体及び背景の移動がなされた画像データと欠損部分に係る情報とを外部サーバに送信し、外部サーバで修復に係る各種演算処理を行わせることとしても良い。
ここで、画像修復(Image Inpainting)に係る修復技術では、欠損部分の周囲の画素データに基づき、様々な重み付けや補間方法を用いて内部補間または外挿による欠損部分の修復を行う。例えば、各画素データを輝度(明度)に基づく数値データとして取り扱い、連続性を考慮、即ち、上記数値変化を最小に抑える(数値の勾配の極小を求める)ことで最適な修復データを取得することができる。或いは、近隣画素データとの類似度を評価し、修復対象の画素データから周辺の各画素までの距離と当該画素の輝度データとによる重み付け平均等で修復対象画素データを推定、取得することができる。
The CPU sends a command to the
Here, in the restoration technique related to image restoration (Image Inpainting), the defective portion is repaired by internal interpolation or extrapolation using various weighting and interpolation methods based on pixel data around the defective portion. For example, each pixel data is handled as numerical data based on luminance (brightness), and continuity is taken into account, that is, optimal restoration data is obtained by minimizing the numerical change (finding the minimum of the numerical gradient). Can do. Alternatively, the degree of similarity with the neighboring pixel data can be evaluated, and the restoration target pixel data can be estimated and obtained by weighted averaging or the like based on the distance from the restoration target pixel data to each of the surrounding pixels and the luminance data of the pixel. .
このような画像修復において、相対的に移動された背景部分と被写体部分との間に生じた欠損部分をそのまま修復しようとすると、被写体と背景との間で不自然に連続的な修復画像が得られることになる。そこで、画像修復部16cは、各被写体部分の画像データを切り抜いて移動後の位置データと共に一時保存し、背景画像のみに基づいて切り抜かれた被写体部分を含む欠損部分の修復を行った後に被写体部分の画像データを上書きするように処理を進めることが出来る。
In such image restoration, if an attempt is made to repair a missing portion between a relatively moved background portion and a subject portion as it is, an unnatural continuous restoration image is obtained between the subject and the background. Will be. Accordingly, the
画像の修正及び修復が終了すると、CPUは、画像データを画像メモリ15に書き出し、また、必要に応じて表示制御部17に制御を行わせて編集画像データとして表示部18に表示させる(ステップS19)。そして、CPUは、画像編集処理を終了する。編集画像データとして表示部18に表示出力させる代わりに、編集画像データに基づく編集画像を印刷部から印刷出力させてもよい。
When the correction and restoration of the image is completed, the CPU writes the image data into the
次に、画像編集の具体的な例を示しながら動作内容について説明する。
図3〜図5は、この画像編集処理による画像の編集例その1を示す図である。
Next, the operation content will be described with reference to a specific example of image editing.
3 to 5 are views showing an image editing example 1 by this image editing process.
先ず、図3(a)に示す画像が取得される(ステップS11)。続いて、被写体O11〜O13としてそれぞれヨットが抽出される(ステップS12)。また、図3(b)に示すように、湖岸と地平線が背景の特徴部分B11として抽出される(ステップS13)。 First, the image shown in FIG. 3A is acquired (step S11). Subsequently, yachts are extracted as the subjects O11 to O13, respectively (step S12). Further, as shown in FIG. 3B, the lake shore and the horizon are extracted as the background feature portion B11 (step S13).
次に、これら同定された被写体であるヨット、及び、背景の特徴部分である湖岸、地平線の配置を確認し、最適な構図を選択する(ステップS14)。ここでは、図4(a)に示すように、地平線で水平分割を行うと共に、中央の垂直線に対し、左側の被写体O11と右側の被写体O12、O13を各々ルート比1:√2(白銀比)の位置に配置するように設定されている。 Next, the yacht as the identified subject and the layout of the lake shore and the horizon as the characteristic features of the background are confirmed, and an optimum composition is selected (step S14). Here, as shown in FIG. 4A, the horizontal division is performed on the horizon, and the left subject O11 and the right subjects O12 and O13 are each set to a root ratio of 1: √2 (white silver ratio) with respect to the central vertical line. ) Position.
背景及び被写体の配置が決定されると、次に、これらの画像部分の移動方向及び移動距離をそれぞれ算出する(ステップS15)。ここでは、図4(b)に示すように、左側の被写体O11を右上に移動させ(矢印M11)、右側の被写体O12、O13をほぼ左に移動させ(矢印M12)、また、背景の特徴部分B11を左下に移動させる(矢印M13)(ステップS16)。それから、これらの相対移動が行われた場合の画像欠損部分を特定する(ステップS17)。図5(a)に示すように、先ず、画像エリア内部における相対移動に基づき、部分的な欠損I11が生じる。また、背景の移動により、カットされた画像部分R11に対応して外枠部分に欠損E11が生じる。そして、これらの欠損I11、及び、E11は、それぞれ周囲の背景画像データに基づいて修復される(ステップS18)。この場合には、周囲の画素データが存在する欠損部分I11については内部補間での修復が行われ、外枠部分に当たる欠損部分E11については、外挿で補間が行われる。 Once the background and subject arrangement are determined, the moving direction and moving distance of these image portions are then calculated (step S15). Here, as shown in FIG. 4B, the left subject O11 is moved to the upper right (arrow M11), the right subjects O12 and O13 are moved substantially to the left (arrow M12), and the background features B11 is moved to the lower left (arrow M13) (step S16). Then, an image defect portion when these relative movements are performed is specified (step S17). As shown in FIG. 5A, first, a partial defect I11 occurs based on the relative movement within the image area. Further, due to the movement of the background, a defect E11 occurs in the outer frame portion corresponding to the cut image portion R11. These defects I11 and E11 are repaired based on the surrounding background image data (step S18). In this case, the missing portion I11 in which surrounding pixel data exists is repaired by internal interpolation, and the missing portion E11 corresponding to the outer frame portion is interpolated by extrapolation.
最後に、修復された背景画像の上に、移動された各被写体が上書き配置される。これにより、図5(b)に示すように、選択された構図に基づいて修正され、相対移動に伴う欠損部分が修復された画像が出来上がって出力される(ステップS19)。 Finally, each moved subject is overwritten on the restored background image. As a result, as shown in FIG. 5B, an image corrected based on the selected composition and repaired with the missing portion due to relative movement is completed and output (step S19).
図6、図7は、画像編集処理による画像の編集例その2を示す図である。 6 and 7 are diagrams showing an image editing example 2 by image editing processing.
先ず、図6(a)に示す画像データが取得され(ステップS11)、図6(b)に示すように、この画像の中から被写体O21〜O25、及び、背景の特徴部分B21、B22が抽出される(ステップS12、S13)。 First, the image data shown in FIG. 6A is acquired (step S11). As shown in FIG. 6B, subjects O21 to O25 and background feature portions B21 and B22 are extracted from the image. (Steps S12 and S13).
それから、これらの被写体及び背景に基づいて構図が選択される(ステップS14)。ここでは、中央の道路について放射線構図になっており、背景の特徴部分B22が中央に位置して適切な垂直分割線を成しているので、背景を移動させる必要はない。 Then, a composition is selected based on these subjects and the background (step S14). Here, the composition of the central road is a radiation composition, and the background feature portion B22 is located in the center and forms an appropriate vertical dividing line, so there is no need to move the background.
次に、被写体O21〜O25を構図に基づいて移動させる(ステップS15、S16)。被写体O21、O22の人物は、それぞれ別個に同定されているが、これらの被写体は繋がっているので、分割して移動させることが出来ない。従って、O21、O22を全体として最適な配置に最も近い位置へと移動させることになる。また、この垂直分割線に対して右側の被写体O21、O22が中央に寄り過ぎているのに対し、左側の被写体O23〜O25が全体として左端に寄り過ぎており、バランスの悪い配置となっている。そこで、図7(a)に示すように、被写体O21〜O24がそれぞれルート比1:√2の構図に適合するように右に平行移動させる(矢印M20)。 Next, the subjects O21 to O25 are moved based on the composition (steps S15 and S16). The persons of the subjects O21 and O22 are separately identified, but these subjects are connected and cannot be divided and moved. Therefore, O21 and O22 are moved to a position closest to the optimal arrangement as a whole. Further, the right subjects O21 and O22 are too close to the center with respect to the vertical dividing line, whereas the left subjects O23 to O25 are too close to the left end as a whole, resulting in an unbalanced arrangement. . Therefore, as shown in FIG. 7A, the subjects O21 to O24 are translated to the right so as to conform to the composition of the route ratio 1: √2 (arrow M20).
なお、これらの被写体O21〜25は、垂直方向には適切に配置されているので垂直方向には移動させないが、例えば、被写体O21、O22の位置が理想的な位置よりも下であった場合でも、これらの被写体を上部に平行移動させることは好ましくない。この被写体O21、O22は、もとの画像データにおいて脚部の途中までしか撮影されておらず、これを上向きに平行移動させても新たに出現する脚部先端を復元するのは困難である。従って、例えば、脚部の下端位置を固定したまま被写体O21、O22を拡大するなどの処理を行う。 These subjects O21 to 25 are appropriately arranged in the vertical direction and are not moved in the vertical direction. For example, even if the positions of the subjects O21 and O22 are below the ideal position. It is not preferable to translate these subjects upward. The subjects O21 and O22 are photographed only halfway through the legs in the original image data, and it is difficult to restore the newly appearing leg tips even if they are translated upward. Therefore, for example, processing such as enlarging the subjects O21 and O22 while the lower end position of the leg is fixed is performed.
被写体の移動先が設定されると、移動に伴う欠損部分I20が特定されるので(ステップS17)、これらの欠損部分を内部補間により修復する(ステップS18)。そして、被写体O21〜O25を設定位置に上書き配置することで、図7(b)に示す修正画像が得られる(ステップS19)。 When the movement destination of the subject is set, the missing portion I20 accompanying the movement is specified (step S17), and these missing portions are repaired by internal interpolation (step S18). Then, the corrected images shown in FIG. 7B are obtained by overwriting the subjects O21 to O25 at the set positions (step S19).
図8、図9は、画像編集処理による画像の編集例その3を示す図である。 8 and 9 are diagrams showing an image editing example 3 by image editing processing.
先ず、図8(a)に示す画像データが取得され(ステップS11)、次いで、図8(b)に示すように、被写体O31と背景の特徴部分B31、B32とが抽出される(ステップS12、S13)。 First, the image data shown in FIG. 8A is acquired (step S11), and then the subject O31 and the background feature portions B31 and B32 are extracted as shown in FIG. 8B (step S12, S13).
次に、検出された被写体O31及び背景の特徴部分B31、B32に基づいて構図が選択される(ステップS14)。ここでは、背景の特徴部分B31である山の麓の水平線により水平線が構成され、また、被写体O31の人物により垂直線が構成され、これらを三分割構図で配置する。即ち、図9(a)に示すように、水平線を示す背景の特徴部分B31は、上側の水平三分割線と一致するように配置され、当該線上に被写体O31の顔部が配置される。また、この被写体O31は、左側の垂直三分割線上に配置され、背景の特徴部分B32に係る山の頂上は、右側の垂直分割線上に配置される。 Next, a composition is selected based on the detected subject O31 and background feature portions B31 and B32 (step S14). Here, a horizontal line is formed by the horizontal line of the mountain foot that is the background characteristic portion B31, and a vertical line is formed by the person of the subject O31, and these are arranged in a three-part composition. That is, as shown in FIG. 9A, the background feature portion B31 indicating a horizontal line is arranged so as to coincide with the upper horizontal dividing line, and the face portion of the subject O31 is arranged on the line. The subject O31 is arranged on the left vertical dividing line, and the top of the mountain related to the background feature B32 is arranged on the right vertical dividing line.
次に、これら設定された背景の特徴部分及び被写体の位置に基づいてこれらの移動量を同定する(ステップS15)。先ず、矢印M31に示すように、背景を右上に移動させることで、上部の領域R31が画像のフレーム内からはみ出させることで、水平線をなす背景の特徴部分B31及び背景の特徴部分B32に係る山頂の位置が移動される。次いで、被写体O31の変化量が設定される。ここで、被写体O31の人物を単純に左下方向に移動させてしまうと撮影されていた下半身が途切れてしまい、被写体バランスが悪くなるので、被写体O31の下端を固定したまま顔部が設定位置に来るように縮小する(矢印M32)(ステップS16)。 Next, the amount of movement is identified based on the set background feature and the position of the subject (step S15). First, as shown by an arrow M31, by moving the background to the upper right so that the upper region R31 protrudes from the frame of the image, the tops of the background feature portion B31 and the background feature portion B32 that form a horizontal line. The position of is moved. Next, a change amount of the subject O31 is set. Here, if the person of the subject O31 is simply moved in the lower left direction, the lower half of the photographed body is interrupted and the subject balance is deteriorated. (Arrow M32) (step S16).
これらの移動により、画像欠損部分E30及びI30が生じる(ステップS17)。従って、欠損部分E30を外挿により修復し、また、欠損部分I30を内部補間により修復する(ステップS18)。そして、被写体O31を設定された位置に縮小配置することで、修正画像が形成され、出力される(図9(b)、ステップS19)。 Due to these movements, image defect portions E30 and I30 are generated (step S17). Accordingly, the missing portion E30 is repaired by extrapolation, and the missing portion I30 is repaired by internal interpolation (step S18). Then, the corrected image is formed and output by reducing and arranging the subject O31 at the set position (FIG. 9B, step S19).
以上のように、本実施形態の撮像装置100は、画像処理部16を備え、特徴領域検出部16aにより画像データから一又は複数の被写体領域と、背景における特徴部分とが同定され、同定されたこれらの被写体領域及び特徴部分の配置、サイズ、形状に基づいて適切な構図が選択され、選択された構図に合わせて配置設定部16bにより被写体領域及び背景の適切な配置が決定されて、再配置された画像が出力される。従って、被写体領域や背景の一部または全てが構図上の適切な配置から外れていても、撮影された画像データを容易に適切な構図で再配置した画像に変換することが出来る。
As described above, the
また、各被写体領域及び特徴部分の再配置の結果、それぞれの部分が相対移動して画像の欠損部分が生じた場合には、周囲の画素情報に基づいて当該欠損部分の推測修復を行うので、自然に構図変換の行われた画像データを生成することができる。 In addition, as a result of the rearrangement of each subject area and feature portion, when each portion is relatively moved and a missing portion of the image is generated, the missing portion is estimated and repaired based on surrounding pixel information. It is possible to generate image data that has been naturally subjected to composition conversion.
また、被写体領域や背景の再配置の際に、平行移動、回転移動、及び/又は、拡大縮小変形を適宜組み合わせて行うことが出来るので、撮影時に撮像装置100が傾いてしまっていた場合や、被写体サイズのバランスが悪いような場合でも適切に調整を行うことが出来る。
Further, when rearranging the subject area and the background, parallel movement, rotational movement, and / or enlargement / reduction deformation can be performed in an appropriate combination, so that the
また、構図の選択に用いられる種々の構図設定は、ROMの構図設定テーブル21bに予め設定されており、このROMを参照しながら配置設定部16bにより容易に適切な構図又は構図の組み合わせを選択することができる。
Various composition settings used for composition selection are preset in the ROM composition setting table 21b, and an appropriate composition or composition combination is easily selected by the
また、構図設定の際には、配置設定部16bにより抽出された複数の中からユーザが操作部19への操作入力により好みのものを選ぶことが出来るので、被写体とするつもりが無くても被写体と同等な重みで写り込んでしまった部位などをユーザの設定により調整したり、撮影意図によって何れに重きを置くかが異なる複数の背景部分(例えば、海と空)に分割されているような場合に、意図する構図を選択したりすることが出来る。
Further, when setting the composition, the user can select a favorite one from among a plurality extracted by the
また、複数の被写体が接触しているなどで分離移動が不可能な場合を検出判断し、一括して再配置可能とすることで、不自然な画像にならないように編集することができる。 Further, it is possible to perform editing so as not to produce an unnatural image by detecting and judging a case where separation movement is impossible because a plurality of subjects are in contact with each other, and enabling rearrangement collectively.
また、画像の周縁を跨いで切れている被写体の一部などは、周縁の外で撮影されていない部分を自然に修復することが困難なので、このような部分が新たに付け加わらないように被写体の再配置の際の条件を追加することで、不自然な被写体画像にならないように編集することが出来る。 In addition, some of the subjects that are cut across the periphery of the image are difficult to repair naturally because the part not photographed outside the periphery, so the subject should not be added newly. By adding a condition for rearrangement of the image, editing can be performed so that an unnatural subject image does not occur.
また、被写体及び背景が選択された構図に対して所定の基準レベルを満たす範囲内で配置されるように設定することで、撮影された画像データが構図に完全に適合した配置とすることが困難な場合であっても好ましい配置に自然に移動させることが出来る。 In addition, by setting the subject and the background to be arranged within a range that satisfies a predetermined reference level with respect to the selected composition, it is difficult to make the arrangement in which the captured image data perfectly fits the composition. Even in such a case, it can be moved naturally to a preferred arrangement.
また、画像修復の際には、背景画像のみに基づいて修復処理を行った後に各被写体を修復された背景画像上に構図に従って配置する。このように修復を行うことで、背景と被写体との間で無理な内部補間による不自然な修復が行われることを避けることが出来る。 In the image restoration, after performing the restoration process based only on the background image, each subject is arranged on the restored background image according to the composition. By performing the restoration in this way, it is possible to avoid an unnatural restoration by an internal interpolation between the background and the subject.
なお、本発明は、上記実施の形態に限られるものではなく、様々な変更が可能である。
例えば、上記実施形態では、撮像装置による撮影画像について説明したが、コンピュータ上で描画されたりキャプチャされたりしたデジタル画像データについても本発明に係る画像編集処理を適用することが出来る。
The present invention is not limited to the above-described embodiment, and various modifications can be made.
For example, in the above-described embodiment, the captured image by the imaging apparatus has been described. However, the image editing process according to the present invention can also be applied to digital image data drawn or captured on a computer.
また、上記実施の形態では、撮像装置100で画像編集に係る処理を行わせたり、通信手段を用いて外部サーバに送って処理を行わせたりする例について示したが、このような被写体及び背景の再配置や、画像修復に係る処理を撮像装置とは切り離して行うことも可能である。記録媒体20aなどにより外部のコンピュータにコピーされた画像データに対する上記編集処理を他のコンピュータを用いて行うことで、ユーザは、キーボード等の入力デバイスを用いてこれらの処理命令を快適に行ったり、編集された画像を大型のディスプレイに出力させて鑑賞したりすることが出来る。また、当該コンピュータのメモリやCPUの能力を生かして高速且つ快適に処理を行わせることが出来る。
In the above-described embodiment, an example in which the
また、上記の実施の形態では、欠損部分の画像の修復処理を行ったが、例えば、学習用途などで配置の変更履歴が分かるように、修復を行わない画像を出力可能に構成しても良い。 Further, in the above-described embodiment, the image of the defective portion is repaired. However, for example, an image that is not repaired may be output so that the change history of the arrangement can be understood for learning purposes. .
また、上記実施の形態では、表示部18への画像出力を例に上げて説明したが、ケーブルなどを用いてプリンタなどに出力することも可能であるし、可搬型記録媒体やネットワークケーブルを用いて外部機器にデータを出力させることも出来る。
In the above embodiment, image output to the
また、以上の説明では、本発明に係るプログラム21aのコンピュータ読み取り可能な媒体としてROMを使用した例を開示したが、これに限定されない。その他のコンピュータ読み取り可能な媒体として、フラッシュメモリやEEPROM(Electrically Erasable and Programmable Read Only Memory)などの不揮発性メモリ、CD−ROMなどの可搬型記録媒体を適用することが可能である。また、本発明に係るプログラムのデータを通信回線を介して提供する媒体として、キャリアウェーブ(搬送波)も本発明に適用される。
その他、上記実施の形態の説明で示した具体的な構成や順序、数値などの細部は、本発明の趣旨を逸脱しない範囲において適宜変更可能である。
In the above description, an example in which a ROM is used as a computer-readable medium of the
In addition, details such as the specific configuration, order, and numerical values shown in the description of the above embodiments can be changed as appropriate without departing from the spirit of the present invention.
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[付記]
<請求項1>
画像データから一又は複数の被写体領域と、背景における特徴部分とを抽出する被写体抽出手段と、
この被写体抽出手段により抽出された被写体領域及び背景の特徴部分に基づき、前記画像データに係る画像表示領域内の構図を設定する構図設定手段と、
この構図設定手段により設定された構図に基づいて、前記被写体領域及び前記背景のうちの少なくとも一方を前記画像表示領域に配置させる被写体配置制御手段と、
この被写体配置制御手段の制御により前記被写体領域及び前記背景が配置された画像データを出力する画像出力手段と、
を備えることを特徴とする画像処理装置。
<請求項2>
前記被写体配置制御手段による前記被写体領域及び/又は前記背景の移動により前記画像表示領域内に生じた画像データ欠損領域をこの画像データ欠損領域の周囲の画像データに基づいて推定することで修復を行う画像修復手段を備えることを特徴とする請求項1記載の画像処理装置。
<請求項3>
前記被写体配置制御手段は、前記被写体領域及び/又は前記背景に対し、平行移動、回転移動、拡大縮小変形のうち少なくとも一つを各々行わせることを特徴とする請求項1又は2記載の画像処理装置。
<請求項4>
複数の構図に係る情報を記憶する構図記憶手段を備え、
前記構図設定手段は、この構図記憶手段に記憶された構図と、前記画像表示領域内に当初配置された前記被写体及び前記背景の特徴部分とのマッチングに基づいて構図を選択することを特徴とする請求項1〜3の何れか一項に記載の画像処理装置。
<請求項5>
ユーザの操作入力を検出して取得する操作手段を備え、
前記構図設定手段は、前記構図記憶手段から前記マッチングに係る類似度が所定の条件を満たす構図及び/又は構図の組み合わせを複数抽出し、前記操作手段により取得された操作入力情報に基づいて前記抽出された構図及び/又は構図の組み合わせの中の一つを選択することを特徴とする請求項4記載の画像処理装置。
<請求項6>
前記被写体配置制御手段は、抽出された複数の被写体を分離して別個に配置することが不可能であるか否かを判別し、分離不可能な場合には、当該複数の被写体をまとめて前記画像表示領域内に配置することを特徴とする請求項1〜5の何れか一項に記載の画像処理装置。
<請求項7>
前記被写体配置制御手段は、前記一又は複数の被写体領域の境界が前記画像表示領域の境界と重なっている場合には、前記被写体領域の境界のうち、前記画像表示領域の境界と重なっている部分が当該画像表示領域の内側に移動しないようにこの被写体領域を配置することを特徴とする請求項1〜6の何れか一項に記載の画像処理装置。
<請求項8>
前記被写体配置制御手段は、全ての前記被写体及び前記背景が設定された前記構図に基づく最適な配置からそれぞれ所定の基準範囲内のずれとなるように配置の設定を行うことを特徴とする請求項1〜7の何れか一項に記載の画像処理装置。
<請求項9>
前記画像修復手段は、前記背景の画像データに基づいて前記修復を行った後に、前記被写体領域の画像データを前記修復された背景の画像データ上に上書き更新することを特徴とする請求項2〜8の何れか一項に記載の画像処理装置。
<請求項10>
画像データの編集処理を行う画像処理方法であって、
この画像データから一又は複数の被写体領域と、背景における特徴部分とを抽出する被写体抽出ステップ、
この被写体抽出ステップで抽出された被写体及び背景の特徴部分に基づき、前記画像データに係る画像表示領域内の構図を設定する構図設定ステップ、
この構図設定ステップで設定された構図に基づいて、前記被写体領域及び前記背景のうちの少なくとも一方を前記画像表示領域に配置させる被写体配置制御ステップ、
及び、
この被写体配置制御ステップで前記被写体領域及び前記背景が配置された画像データを出力する画像出力ステップ、
を含むことを特徴とする画像処理方法。
<請求項11>
コンピュータを、
画像データから一又は複数の被写体領域と、背景における特徴部分とを抽出する被写体抽出手段、
この被写体抽出手段により抽出された被写体領域及び背景の特徴部分に基づき、前記画像データに係る画像表示領域内の構図を選択する構図設定手段、
この構図設定手段により設定された構図に基づいて、前記被写体領域及び前記背景のうちの少なくとも一方を前記画像表示領域に配置させる被写体配置制御手段、
及び、
この被写体配置制御手段の制御により前記被写体領域及び前記背景が配置された画像データを出力する画像出力手段、
として機能させるためのプログラム。
[Appendix]
<Claim 1>
Subject extraction means for extracting one or a plurality of subject areas and feature portions in the background from the image data;
Composition setting means for setting the composition in the image display area related to the image data based on the subject area and the background feature portion extracted by the subject extraction means;
Subject placement control means for placing at least one of the subject area and the background in the image display area based on the composition set by the composition setting means;
Image output means for outputting image data in which the subject area and the background are arranged under the control of the subject placement control means;
An image processing apparatus comprising:
<Claim 2>
Restoration is performed by estimating an image data missing area generated in the image display area due to the movement of the subject area and / or the background by the subject placement control means based on image data around the image data missing area. The image processing apparatus according to
<Claim 3>
3. The image processing according to
<Claim 4>
Comprising composition storage means for storing information relating to a plurality of compositions;
The composition setting unit selects a composition based on matching between the composition stored in the composition storage unit and the subject and the background feature portion initially arranged in the image display area. The image processing apparatus according to
<Claim 5>
Comprising an operation means for detecting and acquiring a user operation input;
The composition setting means extracts a plurality of compositions and / or composition combinations in which the degree of similarity related to the matching satisfies a predetermined condition from the composition storage means, and extracts the composition based on the operation input information acquired by the operation means 5. The image processing apparatus according to claim 4, wherein one of the composition and / or a combination of compositions is selected.
<Claim 6>
The subject placement control means determines whether or not the plurality of extracted subjects cannot be separated and placed separately. If the separation is not possible, the subject placement is collectively performed on the subject. The image processing apparatus according to
<Claim 7>
When the boundary of the one or a plurality of subject areas overlaps with the boundary of the image display area, the subject placement control means is a part of the boundary of the subject area that overlaps with the boundary of the image display area The image processing apparatus according to
<Claim 8>
The subject placement control means sets the placement so that all the subjects and the background are shifted from an optimal placement based on the composition in which the subject is set and within a predetermined reference range. The image processing apparatus according to any one of 1 to 7.
<Claim 9>
3. The image restoration unit, after performing the restoration based on the background image data, overwrites and updates the image data of the subject area on the restored background image data. The image processing apparatus according to claim 8.
<Claim 10>
An image processing method for performing image data editing processing,
A subject extraction step for extracting one or a plurality of subject regions and feature portions in the background from the image data;
A composition setting step for setting a composition in the image display area related to the image data based on the subject and background feature portions extracted in the subject extraction step;
A subject placement control step of placing at least one of the subject region and the background in the image display region based on the composition set in the composition setting step;
as well as,
An image output step for outputting image data in which the subject region and the background are arranged in the subject placement control step;
An image processing method comprising:
<Claim 11>
Computer
Subject extraction means for extracting one or a plurality of subject areas and feature portions in the background from image data;
Composition setting means for selecting a composition in the image display area according to the image data based on the subject area and background feature portion extracted by the subject extraction means;
Subject placement control means for placing at least one of the subject area and the background in the image display area based on the composition set by the composition setting means;
as well as,
Image output means for outputting image data in which the subject area and the background are arranged under the control of the subject placement control means;
Program to function as.
11 レンズ部
12 電子撮像部
13 撮像制御部
14 画像データ生成部
15 画像メモリ
16 画像処理部
16a 特徴領域検出部
16b 配置設定部
16c 画像修復部
17 表示制御部
18 表示部
19 操作部
20 記録媒体制御部
20a 記録媒体
21 中央制御部
21a プログラム
21b 構図設定テーブル
100 撮像装置
100a チップ
DESCRIPTION OF
Claims (11)
この被写体抽出手段により抽出された被写体領域及び背景の特徴部分に基づき、前記画像データに係る画像表示領域内の構図を設定する構図設定手段と、
この構図設定手段により設定された構図に基づいて、前記被写体領域及び前記背景のうちの少なくとも一方を前記画像表示領域に配置させる被写体配置制御手段と、
この被写体配置制御手段の制御により前記被写体領域及び前記背景が配置された画像データを出力する画像出力手段と、
を備えることを特徴とする画像処理装置。 Subject extraction means for extracting one or a plurality of subject areas and feature portions in the background from the image data;
Composition setting means for setting the composition in the image display area related to the image data based on the subject area and the background feature portion extracted by the subject extraction means;
Subject placement control means for placing at least one of the subject area and the background in the image display area based on the composition set by the composition setting means;
Image output means for outputting image data in which the subject area and the background are arranged under the control of the subject placement control means;
An image processing apparatus comprising:
前記構図設定手段は、この構図記憶手段に記憶された構図と、前記画像表示領域内に当初配置された前記被写体及び前記背景の特徴部分とのマッチングに基づいて構図を選択することを特徴とする請求項1〜3の何れか一項に記載の画像処理装置。 Comprising composition storage means for storing information relating to a plurality of compositions;
The composition setting unit selects a composition based on matching between the composition stored in the composition storage unit and the subject and the background feature portion initially arranged in the image display area. The image processing apparatus according to claim 1.
前記構図設定手段は、前記構図記憶手段から前記マッチングに係る類似度が所定の条件を満たす構図及び/又は構図の組み合わせを複数抽出し、前記操作手段により取得された操作入力情報に基づいて前記抽出された構図及び/又は構図の組み合わせの中の一つを選択することを特徴とする請求項4記載の画像処理装置。 Comprising an operation means for detecting and acquiring a user operation input;
The composition setting means extracts a plurality of compositions and / or composition combinations in which the degree of similarity related to the matching satisfies a predetermined condition from the composition storage means, and extracts the composition based on the operation input information acquired by the operation means 5. The image processing apparatus according to claim 4, wherein one of the composition and / or a combination of compositions is selected.
この画像データから一又は複数の被写体領域と、背景における特徴部分とを抽出する被写体抽出ステップ、
この被写体抽出ステップで抽出された被写体及び背景の特徴部分に基づき、前記画像データに係る画像表示領域内の構図を設定する構図設定ステップ、
この構図設定ステップで設定された構図に基づいて、前記被写体領域及び前記背景のうちの少なくとも一方を前記画像表示領域に配置させる被写体配置制御ステップ、
及び、
この被写体配置制御ステップで前記被写体領域及び前記背景が配置された画像データを出力する画像出力ステップ、
を含むことを特徴とする画像処理方法。 An image processing method for performing image data editing processing,
A subject extraction step for extracting one or a plurality of subject regions and feature portions in the background from the image data;
A composition setting step for setting a composition in the image display area related to the image data based on the subject and background feature portions extracted in the subject extraction step;
A subject placement control step of placing at least one of the subject region and the background in the image display region based on the composition set in the composition setting step;
as well as,
An image output step for outputting image data in which the subject region and the background are arranged in the subject placement control step;
An image processing method comprising:
画像データから一又は複数の被写体領域と、背景における特徴部分とを抽出する被写体抽出手段、
この被写体抽出手段により抽出された被写体領域及び背景の特徴部分に基づき、前記画像データに係る画像表示領域内の構図を選択する構図設定手段、
この構図設定手段により設定された構図に基づいて、前記被写体領域及び前記背景のうちの少なくとも一方を前記画像表示領域に配置させる被写体配置制御手段、
及び、
この被写体配置制御手段の制御により前記被写体領域及び前記背景が配置された画像データを出力する画像出力手段、
として機能させるためのプログラム。 Computer
Subject extraction means for extracting one or a plurality of subject areas and feature portions in the background from image data;
Composition setting means for selecting a composition in the image display area according to the image data based on the subject area and background feature portion extracted by the subject extraction means;
Subject placement control means for placing at least one of the subject area and the background in the image display area based on the composition set by the composition setting means;
as well as,
Image output means for outputting image data in which the subject area and the background are arranged under the control of the subject placement control means;
Program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012064037A JP5906860B2 (en) | 2012-03-21 | 2012-03-21 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012064037A JP5906860B2 (en) | 2012-03-21 | 2012-03-21 | Image processing apparatus, image processing method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013197980A true JP2013197980A (en) | 2013-09-30 |
JP2013197980A5 JP2013197980A5 (en) | 2015-04-02 |
JP5906860B2 JP5906860B2 (en) | 2016-04-20 |
Family
ID=49396377
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012064037A Active JP5906860B2 (en) | 2012-03-21 | 2012-03-21 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5906860B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016152634A1 (en) * | 2015-03-26 | 2016-09-29 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1032755A (en) * | 1996-07-17 | 1998-02-03 | Nippon Hoso Kyokai <Nhk> | Large-screen image composing processor |
JP2007228224A (en) * | 2006-02-23 | 2007-09-06 | Seiko Epson Corp | Image generating device, image extracting device, control method of image generating device, image extracting method and program, and recording medium with image extracting program recorded thereon |
JP2008219451A (en) * | 2007-03-05 | 2008-09-18 | Fujifilm Corp | Imaging device and control method thereof |
JP2011035633A (en) * | 2009-07-31 | 2011-02-17 | Casio Computer Co Ltd | Image processor and method |
JP2011188372A (en) * | 2010-03-10 | 2011-09-22 | Canon Inc | Device and method for generating video, and program |
-
2012
- 2012-03-21 JP JP2012064037A patent/JP5906860B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1032755A (en) * | 1996-07-17 | 1998-02-03 | Nippon Hoso Kyokai <Nhk> | Large-screen image composing processor |
JP2007228224A (en) * | 2006-02-23 | 2007-09-06 | Seiko Epson Corp | Image generating device, image extracting device, control method of image generating device, image extracting method and program, and recording medium with image extracting program recorded thereon |
JP2008219451A (en) * | 2007-03-05 | 2008-09-18 | Fujifilm Corp | Imaging device and control method thereof |
JP2011035633A (en) * | 2009-07-31 | 2011-02-17 | Casio Computer Co Ltd | Image processor and method |
JP2011188372A (en) * | 2010-03-10 | 2011-09-22 | Canon Inc | Device and method for generating video, and program |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016152634A1 (en) * | 2015-03-26 | 2016-09-29 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
JPWO2016152634A1 (en) * | 2015-03-26 | 2018-01-18 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
EP3276943A4 (en) * | 2015-03-26 | 2018-11-21 | Sony Corporation | Information processing apparatus, information processing method, and program |
US10264194B2 (en) | 2015-03-26 | 2019-04-16 | Sony Corporation | Information processing device, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP5906860B2 (en) | 2016-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101371766B1 (en) | Image processing device that synthesizes images | |
JP4760973B2 (en) | Imaging apparatus and image processing method | |
JP5281878B2 (en) | IMAGING DEVICE, LIGHTING PROCESSING DEVICE, LIGHTING PROCESSING METHOD, AND LIGHTING PROCESSING PROGRAM | |
TWI444041B (en) | Image processing apparatus, image processing method, and storage medium thereof | |
US8111946B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP5051156B2 (en) | Image processing apparatus and program | |
JP5930245B1 (en) | Image processing apparatus, image processing method, and program | |
WO2006072671A1 (en) | Automatic white balancing of colour gain values | |
JP2008294762A (en) | Image editing apparatus | |
JP2015060495A (en) | Image processor, image processing method and program | |
JP5009204B2 (en) | Image capturing apparatus and image composition method in image capturing apparatus | |
JP5906860B2 (en) | Image processing apparatus, image processing method, and program | |
JP2009177508A (en) | Imaging apparatus, and image-effect adding program | |
JP2009253925A (en) | Imaging apparatus and imaging method, and imaging control program | |
JP2014021782A (en) | Image processor, control method thereof and program | |
JP5951988B2 (en) | Image composition apparatus and image composition method | |
JP2006186931A (en) | Camera device and white balance bracketing photographing method | |
JP2011151454A (en) | Image processor, imaging apparatus and image processing method | |
JP2015041869A (en) | Imaging apparatus, information processing method, and program | |
JP2010226485A (en) | Image processing apparatus and digital camera | |
JP5494537B2 (en) | Image processing apparatus and program | |
JP2011182255A (en) | Imaging apparatus with fish print photographing function | |
JP6211139B2 (en) | Image synthesizer | |
JP2009077223A (en) | Image display device, and image display program | |
JP5354059B2 (en) | Imaging apparatus, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150217 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160112 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160223 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160307 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5906860 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |