JP2013197980A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2013197980A
JP2013197980A JP2012064037A JP2012064037A JP2013197980A JP 2013197980 A JP2013197980 A JP 2013197980A JP 2012064037 A JP2012064037 A JP 2012064037A JP 2012064037 A JP2012064037 A JP 2012064037A JP 2013197980 A JP2013197980 A JP 2013197980A
Authority
JP
Japan
Prior art keywords
subject
image
composition
background
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012064037A
Other languages
Japanese (ja)
Other versions
JP2013197980A5 (en
JP5906860B2 (en
Inventor
Kazunori Kita
一記 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012064037A priority Critical patent/JP5906860B2/en
Publication of JP2013197980A publication Critical patent/JP2013197980A/en
Publication of JP2013197980A5 publication Critical patent/JP2013197980A5/ja
Application granted granted Critical
Publication of JP5906860B2 publication Critical patent/JP5906860B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide: an image processing apparatus, an image processing method and a program with which components of an image can be suitably arranged and converted according to a composition.SOLUTION: An image processing method comprises: extracting from image data one or a plurality of object regions and a characteristic portion in a background (steps S11-S13); setting a composition in an image display region according to the image data on the basis of the extracted object and characteristic portion in the background (step S14); arranging at least one of the object region and the background in the image display region on the basis of the set composition (steps S15-S18); and outputting image data in which the object region and the background are arranged (step S19).

Description

この発明は、画像処理装置、画像処理方法、及び、プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

従来、写真や絵画といった画像に適した種々の構図が知られている。しかしながら、撮像装置による撮影時に適切な構図で撮影するのは、必ずしも容易ではない。そこで、近年、撮像装置による撮像の際に、スルー画像に基づいて構図を評価する技術が開示されている(特許文献1)。また、複数の画像やオブジェクトを構図に基づいて配置して合成し、一枚の画像データを生成する技術が開示されている(特許文献2)。   Conventionally, various compositions suitable for images such as photographs and paintings are known. However, it is not always easy to photograph with an appropriate composition when photographing with the imaging device. Therefore, in recent years, a technique for evaluating a composition based on a through image at the time of imaging by an imaging apparatus has been disclosed (Patent Document 1). In addition, a technique is disclosed in which a plurality of images and objects are arranged and combined based on a composition to generate one piece of image data (Patent Document 2).

また、一方、本願発明に関連する技術として、近年、画像の欠損部分をその周囲の画像データに基づいて推測し、再現修復を行う技術がある(非特許文献1)。   On the other hand, as a technique related to the invention of the present application, in recent years, there is a technique for estimating a defective portion of an image based on surrounding image data and performing a reproduction restoration (Non-Patent Document 1).

特開2011−135527号公報JP 2011-135527 A 特開2011−2875号公報JP 2011-2875 A

M. Bertalmio et al., “Image Inpainting”, Proc. ACM SIGGRAPH2000, p.417-424, 2000.M. Bertalmio et al., “Image Inpainting”, Proc. ACM SIGGRAPH2000, p.417-424, 2000.

しかしながら、一度撮影、描画された画像における被写体などの構成要素の配置が適切な構図から外れている場合には、被写体が一つだけであれば、トリミングなどでも対応できるが、複数の被写体間の位置関係や、被写体と背景との相対位置に問題があった場合には、修正することができないという課題があった。   However, if the arrangement of components such as the subject in the image once taken and drawn is out of the proper composition, if there is only one subject, it can be handled by trimming etc. If there is a problem in the positional relationship or the relative position between the subject and the background, there is a problem that it cannot be corrected.

この発明の目的は、画像の構成要素を構図に従って各々適切に配置変換可能な画像処理装置、画像処理方法、及び、プログラムを提供することにある。   An object of the present invention is to provide an image processing apparatus, an image processing method, and a program capable of appropriately arranging and converting the constituent elements of an image according to the composition.

本発明は、上記目的を達成するため、
画像データから一又は複数の被写体領域と、背景における特徴部分とを抽出する被写体抽出手段と、
この被写体抽出手段により抽出された被写体領域及び背景の特徴部分に基づき、前記画像データに係る画像表示領域内の構図を設定する構図設定手段と、
この構図設定手段により設定された構図に基づいて、前記被写体領域及び前記背景のうちの少なくとも一方を前記画像表示領域に配置させる被写体配置制御手段と、
この被写体配置制御手段の制御により前記被写体領域及び前記背景が配置された画像データを出力する画像出力手段と、
を備えることを特徴とする画像処理装置である。
In order to achieve the above object, the present invention
Subject extraction means for extracting one or a plurality of subject areas and feature portions in the background from the image data;
Composition setting means for setting the composition in the image display area related to the image data based on the subject area and the background feature portion extracted by the subject extraction means;
Subject placement control means for placing at least one of the subject area and the background in the image display area based on the composition set by the composition setting means;
Image output means for outputting image data in which the subject area and the background are arranged under the control of the subject placement control means;
An image processing apparatus comprising:

本発明に従うと、画像の構成要素を構図に従って各々適切に配置変換することができるという効果がある。   According to the present invention, there is an effect that the components of the image can be appropriately rearranged according to the composition.

本発明の実施形態の撮像装置の内部構成を示すブロック図である。1 is a block diagram illustrating an internal configuration of an imaging apparatus according to an embodiment of the present invention. 撮像装置における画像編集処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the image edit process in an imaging device. 撮像データの編集例を示す図その1である。FIG. 3 is a first diagram illustrating an example of editing imaging data. 撮像データの編集例を示す図その1である。FIG. 3 is a first diagram illustrating an example of editing imaging data. 撮像データの編集例を示す図その1である。FIG. 3 is a first diagram illustrating an example of editing imaging data. 撮像データの編集例を示す図その2である。FIG. 2 is a second diagram illustrating an example of editing imaging data. 撮像データの編集例を示す図その2である。FIG. 2 is a second diagram illustrating an example of editing imaging data. 撮像データの編集例を示す図その3である。FIG. 3 is a third diagram illustrating an example of editing imaging data. 撮像データの編集例を示す図その3である。FIG. 3 is a third diagram illustrating an example of editing imaging data.

以下、本発明の実施の形態を図面に基づいて説明する。
図1は、本発明の画像処理装置である撮像装置の内部構成を示すブロック図である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing an internal configuration of an imaging apparatus which is an image processing apparatus of the present invention.

この撮像装置100は、デジタルカメラといったデジタル撮像装置である。撮像装置100は、レンズ部11と、電子撮像部12と、撮像制御部13と、画像データ生成部14と、画像メモリ15と、画像処理部16と、表示制御部17と、画像出力手段としての表示部18と、操作手段としての操作部19と、記録媒体制御部20と、中央制御部21などを備えている。これらのうち、撮像制御部13、画像処理部16、及び、中央制御部21は、一枚のカスタムLSIチップ100a上に配置することが出来る。   The imaging device 100 is a digital imaging device such as a digital camera. The imaging apparatus 100 includes a lens unit 11, an electronic imaging unit 12, an imaging control unit 13, an image data generation unit 14, an image memory 15, an image processing unit 16, a display control unit 17, and an image output unit. Display unit 18, an operation unit 19 as an operation means, a recording medium control unit 20, a central control unit 21, and the like. Among these, the imaging control unit 13, the image processing unit 16, and the central control unit 21 can be arranged on one custom LSI chip 100a.

レンズ部11は、複数のレンズを備え、ズームやフォーカス等の動作が可能に構成されている。これらのズーム動作やフォーカス動作は、レンズを保持する筐体をユーザが手動で動作させることで行っても良いし、ズーム駆動部やフォーカス駆動部を備え、自動、又はユーザの操作入力に基づいて動作可能としても良い。   The lens unit 11 includes a plurality of lenses and is configured to be able to perform operations such as zooming and focusing. These zoom operations and focus operations may be performed by the user manually operating a housing that holds the lens, or provided with a zoom drive unit and a focus drive unit, either automatically or based on user operation input It may be operable.

電子撮像部12は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサを備える。この電子撮像部12は、レンズ部11の各レンズを通過した光学像に係る光量を二次元マトリクス状に配置された画素毎に計測し、画像信号に変換して出力する。   The electronic imaging unit 12 includes, for example, an image sensor such as a charge coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS). The electronic imaging unit 12 measures the amount of light related to the optical image that has passed through each lens of the lens unit 11 for each pixel arranged in a two-dimensional matrix, converts it into an image signal, and outputs it.

撮像制御部13は、図示略のタイミング発生器、ドライバなどを備えている。撮像制御部13は、レンズ部11のズーム駆動部やフォーカス駆動部に制御信号を送って動作させ、焦点距離やフォーカス位置の調整を行う。また、この撮像制御部13は、タイミング発生器、及び、ドライバにより電子撮像部12を駆動して電子撮像部12に設定されたシャッター速度(露出時間)に対応する時間の光量データを取得させ、画像信号を画像データ生成部14に出力させる。   The imaging control unit 13 includes a timing generator (not shown), a driver, and the like. The imaging control unit 13 sends a control signal to the zoom driving unit and the focus driving unit of the lens unit 11 to operate, thereby adjusting the focal length and the focus position. In addition, the imaging control unit 13 drives the electronic imaging unit 12 with a timing generator and a driver to acquire light amount data of a time corresponding to the shutter speed (exposure time) set in the electronic imaging unit 12, The image signal is output to the image data generation unit 14.

画像データ生成部14は、電子撮像部12から出力された各画素の光量データをアナログ/デジタル変換してデジタル画像データを生成、出力する。このとき、画像データ生成部14は、予め設定されたRGB各色の発色調整、バランス調整、γ補正などを行うことが可能である。出力された画像データは、図示略のDMA(Direct Memory Access)コントローラを介して画像メモリ15にDMA転送される。   The image data generation unit 14 performs analog / digital conversion on the light amount data of each pixel output from the electronic imaging unit 12 to generate and output digital image data. At this time, the image data generation unit 14 can perform color development adjustment, balance adjustment, γ correction, and the like set in advance for each of the RGB colors. The output image data is DMA-transferred to the image memory 15 via a DMA (Direct Memory Access) controller (not shown).

画像メモリ15は、例えば、DRAM(Dynamic Random Access Memory)であり、画像データ生成部14から転送されたデジタル画像データを一時的に記憶する。また、画像メモリ15は、後述する種々の画像処理の際に、画像処理部16や中央制御部21よる処理データを一時的に記憶する。   The image memory 15 is, for example, a DRAM (Dynamic Random Access Memory), and temporarily stores the digital image data transferred from the image data generation unit 14. The image memory 15 temporarily stores processing data from the image processing unit 16 and the central control unit 21 during various image processing described later.

画像処理部16は、生成されたデジタル画像データに対し、本発明に係る種々の画像処理を行う。画像処理部16は、特徴領域検出部16a(被写体抽出手段)と、配置設定部16b(構図設定手段、被写体配置制御手段)と、画像修復部16c(画像修復手段)とを備えている。   The image processing unit 16 performs various image processing according to the present invention on the generated digital image data. The image processing unit 16 includes a feature region detection unit 16a (subject extraction unit), an arrangement setting unit 16b (composition setting unit, subject arrangement control unit), and an image restoration unit 16c (image restoration unit).

特徴領域検出部16aは、画像表示領域に含まれる被写体、及び、背景における特徴領域を識別する。ここでいう被写体は、前景として撮影されるものであり、例えば、ヒトの顔、上半身、全身が挙げられるが、ヒト以外の生物、植物や、種々の構造物など、他のものであっても良い。この被写体は、一つである必要は無く、複数個設定可能である。また、背景の特徴領域としては、山、海岸線、地平線、及び、遠くの建物などが挙げられる。また、山や建物であっても、風景写真などの場合には、適宜被写体として設定可能に構成される。特徴領域検出部16aは、これらの被写体及び特徴領域を検出するための特徴パターンに係る情報を保持する。この特徴パターンに係る情報には、例えば、具体的なコントラスト情報や色分布などが含まれる。特徴領域検出部16aは、これらの情報との一致度を所定の重み付けで加算した値を所定の基準値と比較することで特徴的なパターンとの一致判別を行う。   The feature area detection unit 16a identifies a subject included in the image display area and a feature area in the background. The subject here is taken as a foreground, and includes, for example, the human face, upper body, and whole body, but other things such as non-human organisms, plants, and various structures may also be used. good. There is no need for one subject, and a plurality of subjects can be set. In addition, examples of the background feature area include mountains, coastlines, horizons, and distant buildings. Even in the case of a landscape photograph or the like, a mountain or a building can be appropriately set as a subject. The feature area detection unit 16a holds information related to the feature pattern for detecting these subjects and feature areas. The information related to the feature pattern includes, for example, specific contrast information and color distribution. The feature area detection unit 16a performs a match determination with a characteristic pattern by comparing a value obtained by adding the degree of match with these pieces of information with a predetermined weight with a predetermined reference value.

配置設定部16bは、特徴領域検出部16aにより検出された被写体及び背景の特徴領域のサイズ、形状及び配置に基づいてこれに類似した適切な構図を選択し、また、各被写体及び背景の適切な位置を当該構図に基づいて同定する。配置設定部16bは、中央制御部21のROMなどに保持された構図の選択に用いられる種々の構図の設定に係る構図設定テーブル21bを必要に応じて参照する。   The arrangement setting unit 16b selects an appropriate composition similar to this based on the size, shape, and arrangement of the feature area of the subject and background detected by the feature area detection unit 16a, and the appropriate setting of each subject and background. The position is identified based on the composition. The arrangement setting unit 16b refers to the composition setting table 21b related to the setting of various compositions used for selection of the composition held in the ROM or the like of the central control unit 21 as necessary.

画像修復部16cは、各被写体及び背景が相対的に移動された結果として画像データが欠損した画素位置の画像を修復する。画像データ欠損領域の修復には、画像修復(Image Inpainting)に係る公知の種々の手法を用いることが出来る。ここで、これらの公知の画像修復技術では、計算量や使用するメモリ量がしばしば大きくなる。そこで、この画像修復部16cは、外部のサーバと通信する通信部を備え、画像データ及び画像修復領域に係る情報を外部のサーバに送信して修復処理を行わせ、修復後の画像データを当該サーバから受信する構成であっても良い。
これらの画像処理部16の動作については、後に詳述する。
The image restoration unit 16c restores the image at the pixel position where the image data is lost as a result of the relative movement of each subject and the background. Various known techniques relating to image restoration (Image Inpainting) can be used to repair the image data deficient area. Here, in these known image restoration techniques, the amount of calculation and the amount of memory used often increase. Therefore, the image restoration unit 16c includes a communication unit that communicates with an external server, and transmits the image data and information related to the image restoration area to the external server to perform restoration processing. It may be configured to receive from a server.
The operation of these image processing units 16 will be described in detail later.

表示制御部17は、中央制御部21からの制御信号に基づき、画像メモリ15に記憶されている画像データを読み出して表示部18に表示させる制御を行う。表示制御部17は、ユーザ操作に基づいて撮影、取得が行われた画像データ、及び、各種編集がなされた画像データに係る画像を表示させる。また、表示制御部17は、所定のサンプリング周期で取得されたスルー画像(ライブビュー画像)や、撮影直後に自動的に当該撮影に係るレックビュー画像を表示部18に表示させることが出来る。   The display control unit 17 performs control to read out the image data stored in the image memory 15 and display it on the display unit 18 based on a control signal from the central control unit 21. The display control unit 17 displays image data that has been captured and acquired based on a user operation and an image related to image data that has been subjected to various edits. Further, the display control unit 17 can cause the display unit 18 to display a through image (live view image) acquired at a predetermined sampling period and a REC view image related to the shooting automatically immediately after shooting.

表示部18は、例えば、液晶表示部(LCD)である。表示部18は、表示制御部17から入力された制御信号に基づいて液晶表示画面の駆動ドライバが動作し、撮影画像、編集画像、スルー画像、レックビュー画像などを表示画面に表示する。   The display unit 18 is, for example, a liquid crystal display unit (LCD). In the display unit 18, the drive driver of the liquid crystal display screen operates based on the control signal input from the display control unit 17, and displays a captured image, an edited image, a through image, a rec view image, and the like on the display screen.

記録媒体制御部20は、記録媒体20aが着脱可能に構成され、装着された記録媒体20aと画像メモリ15との間でのデータのやり取りを制御する。記録媒体制御部20は、画像処理部16を介して画像メモリ15に記憶された画像データ(RAWデータ)や、符号化圧縮処理(例えば、JPEG)がなされた画像データを記録媒体20aに書き込むことが出来る。   The recording medium control unit 20 is configured such that the recording medium 20 a is detachable, and controls data exchange between the loaded recording medium 20 a and the image memory 15. The recording medium control unit 20 writes the image data (RAW data) stored in the image memory 15 via the image processing unit 16 and the image data subjected to the encoding / compression processing (for example, JPEG) to the recording medium 20a. I can do it.

記録媒体20aは、不揮発性メモリを備えた可搬型記録媒体であり、例えば、フラッシュメモリやEEPROM(Electrically Erasable and Programmable Read Only Memory)である。   The recording medium 20a is a portable recording medium including a nonvolatile memory, and is, for example, a flash memory or an EEPROM (Electrically Erasable and Programmable Read Only Memory).

操作部19は、一又は複数の操作スイッチを備える。この操作スイッチとしては、例えば、押しボタンスイッチ、回転スイッチ、表示部18を用いたタッチパネルが用いられる。ユーザがこれらの操作スイッチを操作すると、操作部19は、操作入力を電気信号に変換して中央制御部21に出力する。具体的には、操作部19は、被写体の撮影指示に係るシャッタボタン、表示部18に表示させたメニュー画面に応じて撮像モードや機能などの選択を指示する指示ボタン、ズーム量の調整指示に係るズームボタンなどを備える。   The operation unit 19 includes one or a plurality of operation switches. As the operation switch, for example, a push button switch, a rotation switch, or a touch panel using the display unit 18 is used. When the user operates these operation switches, the operation unit 19 converts the operation input into an electric signal and outputs it to the central control unit 21. Specifically, the operation unit 19 receives an instruction button for instructing selection of an imaging mode or a function according to a menu screen displayed on the display unit 18 and an instruction for adjusting the zoom amount. Such a zoom button is provided.

中央制御部21は、各種演算処理を行い、撮像装置100の各部を統括制御する。中央制御部21は、CPU(Central Processing Unit)、RAM、ROM(Read Only Memory)を備え、必要に応じてROMに記憶された各種処理プログラム21aを呼び出して実行し、当該プログラム21aに基づいて撮像装置100の各部を制御する。またROMには、後述する構図設定テーブル21b(構図記憶手段)が含まれている。   The central control unit 21 performs various arithmetic processes and controls each unit of the imaging apparatus 100 in an integrated manner. The central control unit 21 includes a CPU (Central Processing Unit), a RAM, and a ROM (Read Only Memory), and calls and executes various processing programs 21a stored in the ROM as necessary, and performs imaging based on the programs 21a. Each part of the apparatus 100 is controlled. The ROM also includes a composition setting table 21b (composition storage means) described later.

次に、本実施形態の撮像装置100における撮影画像の処理について説明する。   Next, the process of the picked-up image in the imaging device 100 of this embodiment is demonstrated.

本実施形態の撮像装置100は、撮影動作により取得された一枚の画像データを所定の構図に合致するように修正を行う機能を有する。   The imaging apparatus 100 according to the present embodiment has a function of correcting one piece of image data acquired by a shooting operation so as to match a predetermined composition.

図2は、本実施形態の撮像装置100における画像編集処理のCPUによる制御手順を示すフローチャートである。
先ず、画像編集処理が開始されると、CPUは、画像メモリ15から画像データを取得する(ステップS11)。CPUは、ユーザ操作など基づいて編集対象に選択されたデジタル画像データを同定する。
FIG. 2 is a flowchart illustrating a control procedure by the CPU for image editing processing in the imaging apparatus 100 according to the present embodiment.
First, when the image editing process is started, the CPU acquires image data from the image memory 15 (step S11). The CPU identifies digital image data selected as an editing target based on a user operation or the like.

次に、CPUは、取得された画像データから被写体を抽出する処理を特徴領域検出部16aに行わせる(ステップS12)。特徴領域検出部16aは、記憶されている種々の特徴パターンを呼び出して、画像中にこれらの特徴パターンと所定の基準レベル以上一致する部分の検出を行う。ここで、特徴領域検出部16aは、例えば、ヒトの顔を検出し、検出された顔を基準としてこの顔に繋がった体の他の部位を特定することで、ヒトの様々な体型、姿勢などに対応する。同様に、花の形状に基づく植物全体の検出などが可能である。また、ユーザが予め被写体の種別を設定しておくことで、不要な特徴パターンに係る検出処理を省略可能としても良い。特徴領域検出部16aは、画像中の全てのエリアについて検出された全ての被写体を抽出し、これらの被写体の位置情報や種別などを画像メモリ15に記憶させる。   Next, the CPU causes the feature region detection unit 16a to perform a process of extracting a subject from the acquired image data (step S12). The feature area detection unit 16a calls various stored feature patterns and detects portions in the image that match these feature patterns by a predetermined reference level or more. Here, the feature region detection unit 16a detects, for example, a human face, and specifies other parts of the body connected to the face based on the detected face, so that various human body shapes, postures, etc. Corresponding to Similarly, it is possible to detect the entire plant based on the shape of the flower. Further, the detection process related to the unnecessary feature pattern may be omitted by setting the type of the subject in advance by the user. The feature area detection unit 16a extracts all subjects detected for all areas in the image, and stores the position information, type, and the like of these subjects in the image memory 15.

続いて、CPUは、特徴領域検出部16aに背景部分の特徴部分を抽出させる(ステップS13)。特徴領域検出部16aは、画像データから被写体として設定された領域を除いた残りの部分を背景画像として設定し、当該背景画像から特徴部分を検出する。この特徴部分としては、建物、構造物や一の山の頂といった遠景の被写体としても検出され得るもの、又は、地平線、水平線、道路、線路、或いは、柱や塀といった境界をなすものが好ましく選択される。
なお、ステップS12の処理で、当初、被写体として設定されたものであっても、他の被写体との相対位置関係などから背景部分であると認識された場合には、設定情報を変更し、同定された背景部分の特徴領域として用いることができる。また、遠景部分を被写体として設定するか、又は、背景画像の特徴部分として設定するかについては、例えば、画像データに係るメタ情報からフォーカス情報などを取得して判断材料に加えることも可能である。
Subsequently, the CPU causes the feature region detection unit 16a to extract the feature portion of the background portion (step S13). The feature area detection unit 16a sets the remaining part of the image data excluding the area set as the subject as a background image, and detects the feature part from the background image. As this characteristic part, a thing that can be detected as a subject in a distant view such as a building, a structure, or the top of a mountain, or a thing that forms a boundary such as a horizon, a horizon, a road, a railway, or a pillar or a fence is preferably selected. Is done.
In the process of step S12, even if it is initially set as a subject, if it is recognized as a background part due to a relative positional relationship with other subjects, the setting information is changed and identified. It can be used as a feature region of the background portion. In addition, regarding whether to set a distant view part as a subject or a feature part of a background image, for example, it is possible to acquire focus information from meta information related to image data and add it to the determination material. .

CPUは、抽出された全ての被写体及び背景の特徴部分の情報、即ち、配置や形状、サイズなどに基づいて、配置設定部16bに適切な構図を選択させる(ステップS14)。配置設定部16bに記憶され、選択可能とされる構図としては、例えば、水平線構図、垂直線構図、斜線構図、対角線構図、放射線構図、曲線構図、S字構図、三角形構図、逆三角形構図、対比・対称構図、トンネル構図、パターン構図といった周知の代表的な構図の他、他の各種の構図も含むことが出来る。また、これらの構図に係る情報は、予め配置設定部16bに記憶されるものに限られない。例えば、他の構図情報を記録媒体20aに記憶させて記録媒体制御部20に装着させることで、撮像装置100の外部から取得可能とすることができる。また、例えば、水平線構図と対比・対称構図とを組み合わせた構図というように、組み合わせ可能な複数の構図を選択することも可能である。CPUは、例えば、これらの構図情報と検出された各被写体や背景の特徴部分とのマッチングを取り、全体として類似度の高い構図を選択することが出来る。また、CPUは、部分的に類似度の高いものを組み合わせ選択したり、一部で類似度が高い部分を有する構図に他の類似度が低い部分の被写体や背景の特徴部分を適合させることが可能か否かを判別して当該構図を選択したりすることができる。
或いは、CPUは、マッチングの結果、類似度が全体として、又は、部分的に、所定のレベル以上というような条件を満たす構図や構図の組み合わせを複数抽出して表示部18に表示させ、ユーザに操作部19への操作入力を介して選択させることとしても良い。
The CPU causes the arrangement setting unit 16b to select an appropriate composition based on the information of all the extracted subject and background feature portions, that is, the arrangement, shape, size, and the like (step S14). The composition stored in the arrangement setting unit 16b and made selectable includes, for example, a horizontal composition, a vertical composition, a diagonal composition, a diagonal composition, a radiation composition, a curved composition, an S composition, a triangular composition, an inverted triangular composition, and a contrast. In addition to well-known representative compositions such as a symmetric composition, a tunnel composition, and a pattern composition, various other compositions can also be included. Further, the information related to these compositions is not limited to information stored in advance in the arrangement setting unit 16b. For example, by storing other composition information in the recording medium 20 a and attaching it to the recording medium control unit 20, it can be acquired from the outside of the imaging apparatus 100. In addition, for example, it is possible to select a plurality of combinations that can be combined, such as a combination of a horizontal line composition and a contrast / symmetric composition. For example, the CPU can match the composition information with each detected subject and the background feature and select a composition having a high similarity as a whole. In addition, the CPU may select a combination of parts having a high degree of similarity, or may adapt a subject having a low degree of similarity or a characteristic part of the background to a composition having a part having a high degree of similarity. The composition can be selected by determining whether it is possible.
Alternatively, as a result of the matching, the CPU extracts a plurality of compositions or combinations of compositions that satisfy a condition that the degree of similarity as a whole or partially exceeds a predetermined level and causes the display unit 18 to display the composition and the combination. The selection may be made through an operation input to the operation unit 19.

また、CPUは、これらの構図選択と共に、画面構成に係る情報についての選択も行う。ここでいう画面構成には、例えば、画面の分割方法(分割比率)や被写体の配置対称性に係る情報が含まれる。具体的な分割比率としては、三分割、黄金分割、ルート比での分割(例えば、白銀比1:√2)などがある。CPUは、画面構成に係るその他の情報として、面積比率情報、フラクタル次元情報、色彩分布情報、色彩冗長度情報、及び、色相情報などを更に記憶、選択することとしても良い。   In addition to the composition selection, the CPU also selects information related to the screen configuration. The screen configuration here includes, for example, information related to a screen division method (division ratio) and subject arrangement symmetry. As specific division ratios, there are three divisions, golden divisions, divisions by root ratio (for example, silver ratio 1: √2), and the like. The CPU may further store and select area ratio information, fractal dimension information, color distribution information, color redundancy information, hue information, and the like as other information related to the screen configuration.

一又は複数の構図が選択されると、CPUは、当該選択された構図設定に基づき、被写体及び背景の配置を当該構図に合わせて設定する処理を配置設定部16bに行わせる(ステップS15)。この配置を設定する処理では、配置設定部16bは、各被写体及び背景の平行移動、回転、及び、拡大/縮小の各処理を行わせることが出来る。なお、背景を拡大させることでトリミングと同一の効果が得られる。最終的な画像サイズ自体の変更もこの編集処理の中で実行可能としても良いし、別途行わせることとしても良い。   When one or more compositions are selected, the CPU causes the arrangement setting unit 16b to perform processing for setting the arrangement of the subject and the background according to the composition based on the selected composition settings (step S15). In the process of setting the arrangement, the arrangement setting unit 16b can perform each process of translation, rotation, and enlargement / reduction of each subject and background. The same effect as trimming can be obtained by enlarging the background. The final change of the image size itself may be executed during the editing process, or may be performed separately.

このとき、全ての被写体及び背景が最適な位置に設定可能とは限らない。例えば、元の画像における複数の被写体の重複(接触)箇所を分離することが出来ない場合や、逆に各々の被写体を最適な位置に配置すると不都合な重複が生じる場合などが想定される。また、画像修復技術に係る制約上、周囲の画素データから推測が困難な画像修復が出来る限り行われないような範囲で各被写体及び背景の移動が行われる必要がある。そこで、配置設定部16bは、選択された構図に係る最適な位置からのずれに係る評価値を算出し、配置後の各被写体及び背景の評価値が全て、或いは、重要度の高い順に所定数/所定の割合で予め設定された所定の基準値を満たすことが可能な配置を探索して配置を行う。   At this time, not all subjects and backgrounds can be set to optimal positions. For example, a case where the overlapping (contact) portions of a plurality of subjects in the original image cannot be separated, or a case where inconvenient duplication occurs when each subject is placed at an optimal position, is conceivable. In addition, due to restrictions related to the image restoration technique, it is necessary to move each subject and background within a range in which image restoration that is difficult to estimate from surrounding pixel data is not performed as much as possible. Therefore, the arrangement setting unit 16b calculates an evaluation value related to the deviation from the optimum position related to the selected composition, and the evaluation values of each subject and background after arrangement are all or a predetermined number in descending order of importance. / Search for an arrangement that can satisfy a predetermined reference value set in advance at a predetermined ratio, and perform the arrangement.

また、構図又は構図の組み合わせが複数選択可能な場合には、配置設定部16bは、各々の構図又は構図の組み合わせについてそれぞれ可能な再配置を行い、評価値のより高い方を最終的に選択された構図及び配置としてもよい。   In addition, when a plurality of compositions or composition combinations can be selected, the arrangement setting unit 16b performs possible rearrangement for each composition or composition combination, and the higher evaluation value is finally selected. It is good also as composition and arrangement.

各被写体及び背景の配置が構図に合わせて設定されると、CPUは、これらの被写体及び背景のうちの少なくとも一方を当該設定させた位置に移動させる(ステップS16)。それから、CPUは、この移動の結果として画像が欠損する画像欠損部分を特定する(ステップS17)。   When the arrangement of each subject and background is set according to the composition, the CPU moves at least one of the subject and background to the set position (step S16). Then, the CPU specifies an image defect portion where an image is missing as a result of this movement (step S17).

CPUは、画像修復部16cに指令を送り、特定された欠損部分を修復する欠損部分修復処理を行わせる(ステップS18)。上記のように、画像修復部16cは、通信手段を用いて被写体及び背景の移動がなされた画像データと欠損部分に係る情報とを外部サーバに送信し、外部サーバで修復に係る各種演算処理を行わせることとしても良い。
ここで、画像修復(Image Inpainting)に係る修復技術では、欠損部分の周囲の画素データに基づき、様々な重み付けや補間方法を用いて内部補間または外挿による欠損部分の修復を行う。例えば、各画素データを輝度(明度)に基づく数値データとして取り扱い、連続性を考慮、即ち、上記数値変化を最小に抑える(数値の勾配の極小を求める)ことで最適な修復データを取得することができる。或いは、近隣画素データとの類似度を評価し、修復対象の画素データから周辺の各画素までの距離と当該画素の輝度データとによる重み付け平均等で修復対象画素データを推定、取得することができる。
The CPU sends a command to the image restoration unit 16c to perform a defective portion repair process for repairing the identified defective portion (step S18). As described above, the image restoration unit 16c transmits, to the external server, the image data in which the subject and the background have been moved using the communication unit and the information related to the missing portion, and performs various arithmetic processes related to the restoration by the external server. It is good to make it happen.
Here, in the restoration technique related to image restoration (Image Inpainting), the defective portion is repaired by internal interpolation or extrapolation using various weighting and interpolation methods based on pixel data around the defective portion. For example, each pixel data is handled as numerical data based on luminance (brightness), and continuity is taken into account, that is, optimal restoration data is obtained by minimizing the numerical change (finding the minimum of the numerical gradient). Can do. Alternatively, the degree of similarity with the neighboring pixel data can be evaluated, and the restoration target pixel data can be estimated and obtained by weighted averaging or the like based on the distance from the restoration target pixel data to each of the surrounding pixels and the luminance data of the pixel. .

このような画像修復において、相対的に移動された背景部分と被写体部分との間に生じた欠損部分をそのまま修復しようとすると、被写体と背景との間で不自然に連続的な修復画像が得られることになる。そこで、画像修復部16cは、各被写体部分の画像データを切り抜いて移動後の位置データと共に一時保存し、背景画像のみに基づいて切り抜かれた被写体部分を含む欠損部分の修復を行った後に被写体部分の画像データを上書きするように処理を進めることが出来る。   In such image restoration, if an attempt is made to repair a missing portion between a relatively moved background portion and a subject portion as it is, an unnatural continuous restoration image is obtained between the subject and the background. Will be. Accordingly, the image restoration unit 16c cuts out the image data of each subject portion and temporarily stores it together with the moved position data, and after repairing the missing portion including the subject portion cut out based only on the background image, the subject portion The process can be advanced to overwrite the image data.

画像の修正及び修復が終了すると、CPUは、画像データを画像メモリ15に書き出し、また、必要に応じて表示制御部17に制御を行わせて編集画像データとして表示部18に表示させる(ステップS19)。そして、CPUは、画像編集処理を終了する。編集画像データとして表示部18に表示出力させる代わりに、編集画像データに基づく編集画像を印刷部から印刷出力させてもよい。   When the correction and restoration of the image is completed, the CPU writes the image data into the image memory 15, and controls the display control unit 17 as necessary to display it as the edited image data on the display unit 18 (step S19). ). Then, the CPU ends the image editing process. Instead of being displayed on the display unit 18 as edited image data, an edited image based on the edited image data may be printed out from the printing unit.

次に、画像編集の具体的な例を示しながら動作内容について説明する。
図3〜図5は、この画像編集処理による画像の編集例その1を示す図である。
Next, the operation content will be described with reference to a specific example of image editing.
3 to 5 are views showing an image editing example 1 by this image editing process.

先ず、図3(a)に示す画像が取得される(ステップS11)。続いて、被写体O11〜O13としてそれぞれヨットが抽出される(ステップS12)。また、図3(b)に示すように、湖岸と地平線が背景の特徴部分B11として抽出される(ステップS13)。   First, the image shown in FIG. 3A is acquired (step S11). Subsequently, yachts are extracted as the subjects O11 to O13, respectively (step S12). Further, as shown in FIG. 3B, the lake shore and the horizon are extracted as the background feature portion B11 (step S13).

次に、これら同定された被写体であるヨット、及び、背景の特徴部分である湖岸、地平線の配置を確認し、最適な構図を選択する(ステップS14)。ここでは、図4(a)に示すように、地平線で水平分割を行うと共に、中央の垂直線に対し、左側の被写体O11と右側の被写体O12、O13を各々ルート比1:√2(白銀比)の位置に配置するように設定されている。   Next, the yacht as the identified subject and the layout of the lake shore and the horizon as the characteristic features of the background are confirmed, and an optimum composition is selected (step S14). Here, as shown in FIG. 4A, the horizontal division is performed on the horizon, and the left subject O11 and the right subjects O12 and O13 are each set to a root ratio of 1: √2 (white silver ratio) with respect to the central vertical line. ) Position.

背景及び被写体の配置が決定されると、次に、これらの画像部分の移動方向及び移動距離をそれぞれ算出する(ステップS15)。ここでは、図4(b)に示すように、左側の被写体O11を右上に移動させ(矢印M11)、右側の被写体O12、O13をほぼ左に移動させ(矢印M12)、また、背景の特徴部分B11を左下に移動させる(矢印M13)(ステップS16)。それから、これらの相対移動が行われた場合の画像欠損部分を特定する(ステップS17)。図5(a)に示すように、先ず、画像エリア内部における相対移動に基づき、部分的な欠損I11が生じる。また、背景の移動により、カットされた画像部分R11に対応して外枠部分に欠損E11が生じる。そして、これらの欠損I11、及び、E11は、それぞれ周囲の背景画像データに基づいて修復される(ステップS18)。この場合には、周囲の画素データが存在する欠損部分I11については内部補間での修復が行われ、外枠部分に当たる欠損部分E11については、外挿で補間が行われる。   Once the background and subject arrangement are determined, the moving direction and moving distance of these image portions are then calculated (step S15). Here, as shown in FIG. 4B, the left subject O11 is moved to the upper right (arrow M11), the right subjects O12 and O13 are moved substantially to the left (arrow M12), and the background features B11 is moved to the lower left (arrow M13) (step S16). Then, an image defect portion when these relative movements are performed is specified (step S17). As shown in FIG. 5A, first, a partial defect I11 occurs based on the relative movement within the image area. Further, due to the movement of the background, a defect E11 occurs in the outer frame portion corresponding to the cut image portion R11. These defects I11 and E11 are repaired based on the surrounding background image data (step S18). In this case, the missing portion I11 in which surrounding pixel data exists is repaired by internal interpolation, and the missing portion E11 corresponding to the outer frame portion is interpolated by extrapolation.

最後に、修復された背景画像の上に、移動された各被写体が上書き配置される。これにより、図5(b)に示すように、選択された構図に基づいて修正され、相対移動に伴う欠損部分が修復された画像が出来上がって出力される(ステップS19)。   Finally, each moved subject is overwritten on the restored background image. As a result, as shown in FIG. 5B, an image corrected based on the selected composition and repaired with the missing portion due to relative movement is completed and output (step S19).

図6、図7は、画像編集処理による画像の編集例その2を示す図である。   6 and 7 are diagrams showing an image editing example 2 by image editing processing.

先ず、図6(a)に示す画像データが取得され(ステップS11)、図6(b)に示すように、この画像の中から被写体O21〜O25、及び、背景の特徴部分B21、B22が抽出される(ステップS12、S13)。   First, the image data shown in FIG. 6A is acquired (step S11). As shown in FIG. 6B, subjects O21 to O25 and background feature portions B21 and B22 are extracted from the image. (Steps S12 and S13).

それから、これらの被写体及び背景に基づいて構図が選択される(ステップS14)。ここでは、中央の道路について放射線構図になっており、背景の特徴部分B22が中央に位置して適切な垂直分割線を成しているので、背景を移動させる必要はない。   Then, a composition is selected based on these subjects and the background (step S14). Here, the composition of the central road is a radiation composition, and the background feature portion B22 is located in the center and forms an appropriate vertical dividing line, so there is no need to move the background.

次に、被写体O21〜O25を構図に基づいて移動させる(ステップS15、S16)。被写体O21、O22の人物は、それぞれ別個に同定されているが、これらの被写体は繋がっているので、分割して移動させることが出来ない。従って、O21、O22を全体として最適な配置に最も近い位置へと移動させることになる。また、この垂直分割線に対して右側の被写体O21、O22が中央に寄り過ぎているのに対し、左側の被写体O23〜O25が全体として左端に寄り過ぎており、バランスの悪い配置となっている。そこで、図7(a)に示すように、被写体O21〜O24がそれぞれルート比1:√2の構図に適合するように右に平行移動させる(矢印M20)。   Next, the subjects O21 to O25 are moved based on the composition (steps S15 and S16). The persons of the subjects O21 and O22 are separately identified, but these subjects are connected and cannot be divided and moved. Therefore, O21 and O22 are moved to a position closest to the optimal arrangement as a whole. Further, the right subjects O21 and O22 are too close to the center with respect to the vertical dividing line, whereas the left subjects O23 to O25 are too close to the left end as a whole, resulting in an unbalanced arrangement. . Therefore, as shown in FIG. 7A, the subjects O21 to O24 are translated to the right so as to conform to the composition of the route ratio 1: √2 (arrow M20).

なお、これらの被写体O21〜25は、垂直方向には適切に配置されているので垂直方向には移動させないが、例えば、被写体O21、O22の位置が理想的な位置よりも下であった場合でも、これらの被写体を上部に平行移動させることは好ましくない。この被写体O21、O22は、もとの画像データにおいて脚部の途中までしか撮影されておらず、これを上向きに平行移動させても新たに出現する脚部先端を復元するのは困難である。従って、例えば、脚部の下端位置を固定したまま被写体O21、O22を拡大するなどの処理を行う。   These subjects O21 to 25 are appropriately arranged in the vertical direction and are not moved in the vertical direction. For example, even if the positions of the subjects O21 and O22 are below the ideal position. It is not preferable to translate these subjects upward. The subjects O21 and O22 are photographed only halfway through the legs in the original image data, and it is difficult to restore the newly appearing leg tips even if they are translated upward. Therefore, for example, processing such as enlarging the subjects O21 and O22 while the lower end position of the leg is fixed is performed.

被写体の移動先が設定されると、移動に伴う欠損部分I20が特定されるので(ステップS17)、これらの欠損部分を内部補間により修復する(ステップS18)。そして、被写体O21〜O25を設定位置に上書き配置することで、図7(b)に示す修正画像が得られる(ステップS19)。   When the movement destination of the subject is set, the missing portion I20 accompanying the movement is specified (step S17), and these missing portions are repaired by internal interpolation (step S18). Then, the corrected images shown in FIG. 7B are obtained by overwriting the subjects O21 to O25 at the set positions (step S19).

図8、図9は、画像編集処理による画像の編集例その3を示す図である。   8 and 9 are diagrams showing an image editing example 3 by image editing processing.

先ず、図8(a)に示す画像データが取得され(ステップS11)、次いで、図8(b)に示すように、被写体O31と背景の特徴部分B31、B32とが抽出される(ステップS12、S13)。   First, the image data shown in FIG. 8A is acquired (step S11), and then the subject O31 and the background feature portions B31 and B32 are extracted as shown in FIG. 8B (step S12, S13).

次に、検出された被写体O31及び背景の特徴部分B31、B32に基づいて構図が選択される(ステップS14)。ここでは、背景の特徴部分B31である山の麓の水平線により水平線が構成され、また、被写体O31の人物により垂直線が構成され、これらを三分割構図で配置する。即ち、図9(a)に示すように、水平線を示す背景の特徴部分B31は、上側の水平三分割線と一致するように配置され、当該線上に被写体O31の顔部が配置される。また、この被写体O31は、左側の垂直三分割線上に配置され、背景の特徴部分B32に係る山の頂上は、右側の垂直分割線上に配置される。   Next, a composition is selected based on the detected subject O31 and background feature portions B31 and B32 (step S14). Here, a horizontal line is formed by the horizontal line of the mountain foot that is the background characteristic portion B31, and a vertical line is formed by the person of the subject O31, and these are arranged in a three-part composition. That is, as shown in FIG. 9A, the background feature portion B31 indicating a horizontal line is arranged so as to coincide with the upper horizontal dividing line, and the face portion of the subject O31 is arranged on the line. The subject O31 is arranged on the left vertical dividing line, and the top of the mountain related to the background feature B32 is arranged on the right vertical dividing line.

次に、これら設定された背景の特徴部分及び被写体の位置に基づいてこれらの移動量を同定する(ステップS15)。先ず、矢印M31に示すように、背景を右上に移動させることで、上部の領域R31が画像のフレーム内からはみ出させることで、水平線をなす背景の特徴部分B31及び背景の特徴部分B32に係る山頂の位置が移動される。次いで、被写体O31の変化量が設定される。ここで、被写体O31の人物を単純に左下方向に移動させてしまうと撮影されていた下半身が途切れてしまい、被写体バランスが悪くなるので、被写体O31の下端を固定したまま顔部が設定位置に来るように縮小する(矢印M32)(ステップS16)。   Next, the amount of movement is identified based on the set background feature and the position of the subject (step S15). First, as shown by an arrow M31, by moving the background to the upper right so that the upper region R31 protrudes from the frame of the image, the tops of the background feature portion B31 and the background feature portion B32 that form a horizontal line. The position of is moved. Next, a change amount of the subject O31 is set. Here, if the person of the subject O31 is simply moved in the lower left direction, the lower half of the photographed body is interrupted and the subject balance is deteriorated. (Arrow M32) (step S16).

これらの移動により、画像欠損部分E30及びI30が生じる(ステップS17)。従って、欠損部分E30を外挿により修復し、また、欠損部分I30を内部補間により修復する(ステップS18)。そして、被写体O31を設定された位置に縮小配置することで、修正画像が形成され、出力される(図9(b)、ステップS19)。   Due to these movements, image defect portions E30 and I30 are generated (step S17). Accordingly, the missing portion E30 is repaired by extrapolation, and the missing portion I30 is repaired by internal interpolation (step S18). Then, the corrected image is formed and output by reducing and arranging the subject O31 at the set position (FIG. 9B, step S19).

以上のように、本実施形態の撮像装置100は、画像処理部16を備え、特徴領域検出部16aにより画像データから一又は複数の被写体領域と、背景における特徴部分とが同定され、同定されたこれらの被写体領域及び特徴部分の配置、サイズ、形状に基づいて適切な構図が選択され、選択された構図に合わせて配置設定部16bにより被写体領域及び背景の適切な配置が決定されて、再配置された画像が出力される。従って、被写体領域や背景の一部または全てが構図上の適切な配置から外れていても、撮影された画像データを容易に適切な構図で再配置した画像に変換することが出来る。   As described above, the imaging apparatus 100 according to the present embodiment includes the image processing unit 16, and one or a plurality of subject regions and a feature portion in the background are identified and identified from the image data by the feature region detection unit 16a. An appropriate composition is selected based on the arrangement, size, and shape of the subject area and the characteristic part, and an appropriate arrangement of the subject area and the background is determined by the arrangement setting unit 16b according to the selected composition, and rearrangement is performed. The output image is output. Therefore, even if part or all of the subject area and the background are out of the proper arrangement in the composition, the captured image data can be easily converted into an image rearranged in the appropriate composition.

また、各被写体領域及び特徴部分の再配置の結果、それぞれの部分が相対移動して画像の欠損部分が生じた場合には、周囲の画素情報に基づいて当該欠損部分の推測修復を行うので、自然に構図変換の行われた画像データを生成することができる。   In addition, as a result of the rearrangement of each subject area and feature portion, when each portion is relatively moved and a missing portion of the image is generated, the missing portion is estimated and repaired based on surrounding pixel information. It is possible to generate image data that has been naturally subjected to composition conversion.

また、被写体領域や背景の再配置の際に、平行移動、回転移動、及び/又は、拡大縮小変形を適宜組み合わせて行うことが出来るので、撮影時に撮像装置100が傾いてしまっていた場合や、被写体サイズのバランスが悪いような場合でも適切に調整を行うことが出来る。   Further, when rearranging the subject area and the background, parallel movement, rotational movement, and / or enlargement / reduction deformation can be performed in an appropriate combination, so that the imaging apparatus 100 is inclined at the time of shooting, Appropriate adjustment can be performed even when the subject size is not well balanced.

また、構図の選択に用いられる種々の構図設定は、ROMの構図設定テーブル21bに予め設定されており、このROMを参照しながら配置設定部16bにより容易に適切な構図又は構図の組み合わせを選択することができる。   Various composition settings used for composition selection are preset in the ROM composition setting table 21b, and an appropriate composition or composition combination is easily selected by the arrangement setting unit 16b while referring to the ROM. be able to.

また、構図設定の際には、配置設定部16bにより抽出された複数の中からユーザが操作部19への操作入力により好みのものを選ぶことが出来るので、被写体とするつもりが無くても被写体と同等な重みで写り込んでしまった部位などをユーザの設定により調整したり、撮影意図によって何れに重きを置くかが異なる複数の背景部分(例えば、海と空)に分割されているような場合に、意図する構図を選択したりすることが出来る。   Further, when setting the composition, the user can select a favorite one from among a plurality extracted by the arrangement setting unit 16b by an operation input to the operation unit 19. It is divided into multiple background parts (for example, the sea and the sky) where the part that has been captured with the same weight as is adjusted by the user's settings, or which is to be weighted differently depending on the shooting intention In some cases, the intended composition can be selected.

また、複数の被写体が接触しているなどで分離移動が不可能な場合を検出判断し、一括して再配置可能とすることで、不自然な画像にならないように編集することができる。   Further, it is possible to perform editing so as not to produce an unnatural image by detecting and judging a case where separation movement is impossible because a plurality of subjects are in contact with each other, and enabling rearrangement collectively.

また、画像の周縁を跨いで切れている被写体の一部などは、周縁の外で撮影されていない部分を自然に修復することが困難なので、このような部分が新たに付け加わらないように被写体の再配置の際の条件を追加することで、不自然な被写体画像にならないように編集することが出来る。   In addition, some of the subjects that are cut across the periphery of the image are difficult to repair naturally because the part not photographed outside the periphery, so the subject should not be added newly. By adding a condition for rearrangement of the image, editing can be performed so that an unnatural subject image does not occur.

また、被写体及び背景が選択された構図に対して所定の基準レベルを満たす範囲内で配置されるように設定することで、撮影された画像データが構図に完全に適合した配置とすることが困難な場合であっても好ましい配置に自然に移動させることが出来る。   In addition, by setting the subject and the background to be arranged within a range that satisfies a predetermined reference level with respect to the selected composition, it is difficult to make the arrangement in which the captured image data perfectly fits the composition. Even in such a case, it can be moved naturally to a preferred arrangement.

また、画像修復の際には、背景画像のみに基づいて修復処理を行った後に各被写体を修復された背景画像上に構図に従って配置する。このように修復を行うことで、背景と被写体との間で無理な内部補間による不自然な修復が行われることを避けることが出来る。   In the image restoration, after performing the restoration process based only on the background image, each subject is arranged on the restored background image according to the composition. By performing the restoration in this way, it is possible to avoid an unnatural restoration by an internal interpolation between the background and the subject.

なお、本発明は、上記実施の形態に限られるものではなく、様々な変更が可能である。
例えば、上記実施形態では、撮像装置による撮影画像について説明したが、コンピュータ上で描画されたりキャプチャされたりしたデジタル画像データについても本発明に係る画像編集処理を適用することが出来る。
The present invention is not limited to the above-described embodiment, and various modifications can be made.
For example, in the above-described embodiment, the captured image by the imaging apparatus has been described. However, the image editing process according to the present invention can also be applied to digital image data drawn or captured on a computer.

また、上記実施の形態では、撮像装置100で画像編集に係る処理を行わせたり、通信手段を用いて外部サーバに送って処理を行わせたりする例について示したが、このような被写体及び背景の再配置や、画像修復に係る処理を撮像装置とは切り離して行うことも可能である。記録媒体20aなどにより外部のコンピュータにコピーされた画像データに対する上記編集処理を他のコンピュータを用いて行うことで、ユーザは、キーボード等の入力デバイスを用いてこれらの処理命令を快適に行ったり、編集された画像を大型のディスプレイに出力させて鑑賞したりすることが出来る。また、当該コンピュータのメモリやCPUの能力を生かして高速且つ快適に処理を行わせることが出来る。   In the above-described embodiment, an example in which the imaging apparatus 100 performs processing related to image editing, or transmission to an external server using a communication unit to perform processing has been described. It is also possible to perform processing relating to the rearrangement and image restoration separately from the imaging device. By performing the editing process on the image data copied to an external computer using the recording medium 20a or the like using another computer, the user can comfortably execute these processing instructions using an input device such as a keyboard. You can view the edited image on a large display. In addition, it is possible to perform processing at high speed and comfortably by utilizing the capabilities of the memory and CPU of the computer.

また、上記の実施の形態では、欠損部分の画像の修復処理を行ったが、例えば、学習用途などで配置の変更履歴が分かるように、修復を行わない画像を出力可能に構成しても良い。   Further, in the above-described embodiment, the image of the defective portion is repaired. However, for example, an image that is not repaired may be output so that the change history of the arrangement can be understood for learning purposes. .

また、上記実施の形態では、表示部18への画像出力を例に上げて説明したが、ケーブルなどを用いてプリンタなどに出力することも可能であるし、可搬型記録媒体やネットワークケーブルを用いて外部機器にデータを出力させることも出来る。   In the above embodiment, image output to the display unit 18 has been described as an example. However, output to a printer or the like using a cable or the like is possible, and a portable recording medium or a network cable is used. You can also output data to an external device.

また、以上の説明では、本発明に係るプログラム21aのコンピュータ読み取り可能な媒体としてROMを使用した例を開示したが、これに限定されない。その他のコンピュータ読み取り可能な媒体として、フラッシュメモリやEEPROM(Electrically Erasable and Programmable Read Only Memory)などの不揮発性メモリ、CD−ROMなどの可搬型記録媒体を適用することが可能である。また、本発明に係るプログラムのデータを通信回線を介して提供する媒体として、キャリアウェーブ(搬送波)も本発明に適用される。
その他、上記実施の形態の説明で示した具体的な構成や順序、数値などの細部は、本発明の趣旨を逸脱しない範囲において適宜変更可能である。
In the above description, an example in which a ROM is used as a computer-readable medium of the program 21a according to the present invention is disclosed, but the present invention is not limited to this. As other computer-readable media, non-volatile memories such as flash memory and EEPROM (Electrically Erasable and Programmable Read Only Memory), and portable recording media such as CD-ROM can be applied. A carrier wave is also applied to the present invention as a medium for providing program data according to the present invention via a communication line.
In addition, details such as the specific configuration, order, and numerical values shown in the description of the above embodiments can be changed as appropriate without departing from the spirit of the present invention.

本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.

[付記]
<請求項1>
画像データから一又は複数の被写体領域と、背景における特徴部分とを抽出する被写体抽出手段と、
この被写体抽出手段により抽出された被写体領域及び背景の特徴部分に基づき、前記画像データに係る画像表示領域内の構図を設定する構図設定手段と、
この構図設定手段により設定された構図に基づいて、前記被写体領域及び前記背景のうちの少なくとも一方を前記画像表示領域に配置させる被写体配置制御手段と、
この被写体配置制御手段の制御により前記被写体領域及び前記背景が配置された画像データを出力する画像出力手段と、
を備えることを特徴とする画像処理装置。
<請求項2>
前記被写体配置制御手段による前記被写体領域及び/又は前記背景の移動により前記画像表示領域内に生じた画像データ欠損領域をこの画像データ欠損領域の周囲の画像データに基づいて推定することで修復を行う画像修復手段を備えることを特徴とする請求項1記載の画像処理装置。
<請求項3>
前記被写体配置制御手段は、前記被写体領域及び/又は前記背景に対し、平行移動、回転移動、拡大縮小変形のうち少なくとも一つを各々行わせることを特徴とする請求項1又は2記載の画像処理装置。
<請求項4>
複数の構図に係る情報を記憶する構図記憶手段を備え、
前記構図設定手段は、この構図記憶手段に記憶された構図と、前記画像表示領域内に当初配置された前記被写体及び前記背景の特徴部分とのマッチングに基づいて構図を選択することを特徴とする請求項1〜3の何れか一項に記載の画像処理装置。
<請求項5>
ユーザの操作入力を検出して取得する操作手段を備え、
前記構図設定手段は、前記構図記憶手段から前記マッチングに係る類似度が所定の条件を満たす構図及び/又は構図の組み合わせを複数抽出し、前記操作手段により取得された操作入力情報に基づいて前記抽出された構図及び/又は構図の組み合わせの中の一つを選択することを特徴とする請求項4記載の画像処理装置。
<請求項6>
前記被写体配置制御手段は、抽出された複数の被写体を分離して別個に配置することが不可能であるか否かを判別し、分離不可能な場合には、当該複数の被写体をまとめて前記画像表示領域内に配置することを特徴とする請求項1〜5の何れか一項に記載の画像処理装置。
<請求項7>
前記被写体配置制御手段は、前記一又は複数の被写体領域の境界が前記画像表示領域の境界と重なっている場合には、前記被写体領域の境界のうち、前記画像表示領域の境界と重なっている部分が当該画像表示領域の内側に移動しないようにこの被写体領域を配置することを特徴とする請求項1〜6の何れか一項に記載の画像処理装置。
<請求項8>
前記被写体配置制御手段は、全ての前記被写体及び前記背景が設定された前記構図に基づく最適な配置からそれぞれ所定の基準範囲内のずれとなるように配置の設定を行うことを特徴とする請求項1〜7の何れか一項に記載の画像処理装置。
<請求項9>
前記画像修復手段は、前記背景の画像データに基づいて前記修復を行った後に、前記被写体領域の画像データを前記修復された背景の画像データ上に上書き更新することを特徴とする請求項2〜8の何れか一項に記載の画像処理装置。
<請求項10>
画像データの編集処理を行う画像処理方法であって、
この画像データから一又は複数の被写体領域と、背景における特徴部分とを抽出する被写体抽出ステップ、
この被写体抽出ステップで抽出された被写体及び背景の特徴部分に基づき、前記画像データに係る画像表示領域内の構図を設定する構図設定ステップ、
この構図設定ステップで設定された構図に基づいて、前記被写体領域及び前記背景のうちの少なくとも一方を前記画像表示領域に配置させる被写体配置制御ステップ、
及び、
この被写体配置制御ステップで前記被写体領域及び前記背景が配置された画像データを出力する画像出力ステップ、
を含むことを特徴とする画像処理方法。
<請求項11>
コンピュータを、
画像データから一又は複数の被写体領域と、背景における特徴部分とを抽出する被写体抽出手段、
この被写体抽出手段により抽出された被写体領域及び背景の特徴部分に基づき、前記画像データに係る画像表示領域内の構図を選択する構図設定手段、
この構図設定手段により設定された構図に基づいて、前記被写体領域及び前記背景のうちの少なくとも一方を前記画像表示領域に配置させる被写体配置制御手段、
及び、
この被写体配置制御手段の制御により前記被写体領域及び前記背景が配置された画像データを出力する画像出力手段、
として機能させるためのプログラム。
[Appendix]
<Claim 1>
Subject extraction means for extracting one or a plurality of subject areas and feature portions in the background from the image data;
Composition setting means for setting the composition in the image display area related to the image data based on the subject area and the background feature portion extracted by the subject extraction means;
Subject placement control means for placing at least one of the subject area and the background in the image display area based on the composition set by the composition setting means;
Image output means for outputting image data in which the subject area and the background are arranged under the control of the subject placement control means;
An image processing apparatus comprising:
<Claim 2>
Restoration is performed by estimating an image data missing area generated in the image display area due to the movement of the subject area and / or the background by the subject placement control means based on image data around the image data missing area. The image processing apparatus according to claim 1, further comprising an image restoration unit.
<Claim 3>
3. The image processing according to claim 1, wherein the subject arrangement control unit causes each of the subject region and / or the background to perform at least one of parallel movement, rotational movement, and enlargement / reduction deformation. apparatus.
<Claim 4>
Comprising composition storage means for storing information relating to a plurality of compositions;
The composition setting unit selects a composition based on matching between the composition stored in the composition storage unit and the subject and the background feature portion initially arranged in the image display area. The image processing apparatus according to claim 1.
<Claim 5>
Comprising an operation means for detecting and acquiring a user operation input;
The composition setting means extracts a plurality of compositions and / or composition combinations in which the degree of similarity related to the matching satisfies a predetermined condition from the composition storage means, and extracts the composition based on the operation input information acquired by the operation means 5. The image processing apparatus according to claim 4, wherein one of the composition and / or a combination of compositions is selected.
<Claim 6>
The subject placement control means determines whether or not the plurality of extracted subjects cannot be separated and placed separately. If the separation is not possible, the subject placement is collectively performed on the subject. The image processing apparatus according to claim 1, wherein the image processing apparatus is arranged in an image display area.
<Claim 7>
When the boundary of the one or a plurality of subject areas overlaps with the boundary of the image display area, the subject placement control means is a part of the boundary of the subject area that overlaps with the boundary of the image display area The image processing apparatus according to claim 1, wherein the subject area is arranged so as not to move inside the image display area.
<Claim 8>
The subject placement control means sets the placement so that all the subjects and the background are shifted from an optimal placement based on the composition in which the subject is set and within a predetermined reference range. The image processing apparatus according to any one of 1 to 7.
<Claim 9>
3. The image restoration unit, after performing the restoration based on the background image data, overwrites and updates the image data of the subject area on the restored background image data. The image processing apparatus according to claim 8.
<Claim 10>
An image processing method for performing image data editing processing,
A subject extraction step for extracting one or a plurality of subject regions and feature portions in the background from the image data;
A composition setting step for setting a composition in the image display area related to the image data based on the subject and background feature portions extracted in the subject extraction step;
A subject placement control step of placing at least one of the subject region and the background in the image display region based on the composition set in the composition setting step;
as well as,
An image output step for outputting image data in which the subject region and the background are arranged in the subject placement control step;
An image processing method comprising:
<Claim 11>
Computer
Subject extraction means for extracting one or a plurality of subject areas and feature portions in the background from image data;
Composition setting means for selecting a composition in the image display area according to the image data based on the subject area and background feature portion extracted by the subject extraction means;
Subject placement control means for placing at least one of the subject area and the background in the image display area based on the composition set by the composition setting means;
as well as,
Image output means for outputting image data in which the subject area and the background are arranged under the control of the subject placement control means;
Program to function as.

11 レンズ部
12 電子撮像部
13 撮像制御部
14 画像データ生成部
15 画像メモリ
16 画像処理部
16a 特徴領域検出部
16b 配置設定部
16c 画像修復部
17 表示制御部
18 表示部
19 操作部
20 記録媒体制御部
20a 記録媒体
21 中央制御部
21a プログラム
21b 構図設定テーブル
100 撮像装置
100a チップ
DESCRIPTION OF SYMBOLS 11 Lens part 12 Electronic imaging part 13 Imaging control part 14 Image data generation part 15 Image memory 16 Image processing part 16a Feature area detection part 16b Arrangement setting part 16c Image restoration part 17 Display control part 18 Display part 19 Operation part 20 Recording medium control Unit 20a recording medium 21 central control unit 21a program 21b composition setting table 100 imaging device 100a chip

Claims (11)

画像データから一又は複数の被写体領域と、背景における特徴部分とを抽出する被写体抽出手段と、
この被写体抽出手段により抽出された被写体領域及び背景の特徴部分に基づき、前記画像データに係る画像表示領域内の構図を設定する構図設定手段と、
この構図設定手段により設定された構図に基づいて、前記被写体領域及び前記背景のうちの少なくとも一方を前記画像表示領域に配置させる被写体配置制御手段と、
この被写体配置制御手段の制御により前記被写体領域及び前記背景が配置された画像データを出力する画像出力手段と、
を備えることを特徴とする画像処理装置。
Subject extraction means for extracting one or a plurality of subject areas and feature portions in the background from the image data;
Composition setting means for setting the composition in the image display area related to the image data based on the subject area and the background feature portion extracted by the subject extraction means;
Subject placement control means for placing at least one of the subject area and the background in the image display area based on the composition set by the composition setting means;
Image output means for outputting image data in which the subject area and the background are arranged under the control of the subject placement control means;
An image processing apparatus comprising:
前記被写体配置制御手段による前記被写体領域及び/又は前記背景の移動により前記画像表示領域内に生じた画像データ欠損領域をこの画像データ欠損領域の周囲の画像データに基づいて推定することで修復を行う画像修復手段を備えることを特徴とする請求項1記載の画像処理装置。   Restoration is performed by estimating an image data missing area generated in the image display area due to the movement of the subject area and / or the background by the subject placement control means based on image data around the image data missing area. The image processing apparatus according to claim 1, further comprising an image restoration unit. 前記被写体配置制御手段は、前記被写体領域及び/又は前記背景に対し、平行移動、回転移動、拡大縮小変形のうち少なくとも一つを各々行わせることを特徴とする請求項1又は2記載の画像処理装置。   3. The image processing according to claim 1, wherein the subject arrangement control unit causes each of the subject region and / or the background to perform at least one of parallel movement, rotational movement, and enlargement / reduction deformation. apparatus. 複数の構図に係る情報を記憶する構図記憶手段を備え、
前記構図設定手段は、この構図記憶手段に記憶された構図と、前記画像表示領域内に当初配置された前記被写体及び前記背景の特徴部分とのマッチングに基づいて構図を選択することを特徴とする請求項1〜3の何れか一項に記載の画像処理装置。
Comprising composition storage means for storing information relating to a plurality of compositions;
The composition setting unit selects a composition based on matching between the composition stored in the composition storage unit and the subject and the background feature portion initially arranged in the image display area. The image processing apparatus according to claim 1.
ユーザの操作入力を検出して取得する操作手段を備え、
前記構図設定手段は、前記構図記憶手段から前記マッチングに係る類似度が所定の条件を満たす構図及び/又は構図の組み合わせを複数抽出し、前記操作手段により取得された操作入力情報に基づいて前記抽出された構図及び/又は構図の組み合わせの中の一つを選択することを特徴とする請求項4記載の画像処理装置。
Comprising an operation means for detecting and acquiring a user operation input;
The composition setting means extracts a plurality of compositions and / or composition combinations in which the degree of similarity related to the matching satisfies a predetermined condition from the composition storage means, and extracts the composition based on the operation input information acquired by the operation means 5. The image processing apparatus according to claim 4, wherein one of the composition and / or a combination of compositions is selected.
前記被写体配置制御手段は、抽出された複数の被写体を分離して別個に配置することが不可能であるか否かを判別し、分離不可能な場合には、当該複数の被写体をまとめて前記画像表示領域内に配置することを特徴とする請求項1〜5の何れか一項に記載の画像処理装置。   The subject placement control means determines whether or not the plurality of extracted subjects cannot be separated and placed separately. If the separation is not possible, the subject placement is collectively performed on the subject. The image processing apparatus according to claim 1, wherein the image processing apparatus is arranged in an image display area. 前記被写体配置制御手段は、前記一又は複数の被写体領域の境界が前記画像表示領域の境界と重なっている場合には、前記被写体領域の境界のうち、前記画像表示領域の境界と重なっている部分が当該画像表示領域の内側に移動しないようにこの被写体領域を配置することを特徴とする請求項1〜6の何れか一項に記載の画像処理装置。   When the boundary of the one or a plurality of subject areas overlaps with the boundary of the image display area, the subject placement control means is a part of the boundary of the subject area that overlaps with the boundary of the image display area The image processing apparatus according to claim 1, wherein the subject area is arranged so as not to move inside the image display area. 前記被写体配置制御手段は、全ての前記被写体及び前記背景が設定された前記構図に基づく最適な配置からそれぞれ所定の基準範囲内のずれとなるように配置の設定を行うことを特徴とする請求項1〜7の何れか一項に記載の画像処理装置。   The subject placement control means sets the placement so that all the subjects and the background are shifted from an optimal placement based on the composition in which the subject is set and within a predetermined reference range. The image processing apparatus according to any one of 1 to 7. 前記画像修復手段は、前記背景の画像データに基づいて前記修復を行った後に、前記被写体領域の画像データを前記修復された背景の画像データ上に上書き更新することを特徴とする請求項2〜8の何れか一項に記載の画像処理装置。   3. The image restoration unit, after performing the restoration based on the background image data, overwrites and updates the image data of the subject area on the restored background image data. The image processing apparatus according to claim 8. 画像データの編集処理を行う画像処理方法であって、
この画像データから一又は複数の被写体領域と、背景における特徴部分とを抽出する被写体抽出ステップ、
この被写体抽出ステップで抽出された被写体及び背景の特徴部分に基づき、前記画像データに係る画像表示領域内の構図を設定する構図設定ステップ、
この構図設定ステップで設定された構図に基づいて、前記被写体領域及び前記背景のうちの少なくとも一方を前記画像表示領域に配置させる被写体配置制御ステップ、
及び、
この被写体配置制御ステップで前記被写体領域及び前記背景が配置された画像データを出力する画像出力ステップ、
を含むことを特徴とする画像処理方法。
An image processing method for performing image data editing processing,
A subject extraction step for extracting one or a plurality of subject regions and feature portions in the background from the image data;
A composition setting step for setting a composition in the image display area related to the image data based on the subject and background feature portions extracted in the subject extraction step;
A subject placement control step of placing at least one of the subject region and the background in the image display region based on the composition set in the composition setting step;
as well as,
An image output step for outputting image data in which the subject region and the background are arranged in the subject placement control step;
An image processing method comprising:
コンピュータを、
画像データから一又は複数の被写体領域と、背景における特徴部分とを抽出する被写体抽出手段、
この被写体抽出手段により抽出された被写体領域及び背景の特徴部分に基づき、前記画像データに係る画像表示領域内の構図を選択する構図設定手段、
この構図設定手段により設定された構図に基づいて、前記被写体領域及び前記背景のうちの少なくとも一方を前記画像表示領域に配置させる被写体配置制御手段、
及び、
この被写体配置制御手段の制御により前記被写体領域及び前記背景が配置された画像データを出力する画像出力手段、
として機能させるためのプログラム。
Computer
Subject extraction means for extracting one or a plurality of subject areas and feature portions in the background from image data;
Composition setting means for selecting a composition in the image display area according to the image data based on the subject area and background feature portion extracted by the subject extraction means;
Subject placement control means for placing at least one of the subject area and the background in the image display area based on the composition set by the composition setting means;
as well as,
Image output means for outputting image data in which the subject area and the background are arranged under the control of the subject placement control means;
Program to function as.
JP2012064037A 2012-03-21 2012-03-21 Image processing apparatus, image processing method, and program Active JP5906860B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012064037A JP5906860B2 (en) 2012-03-21 2012-03-21 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012064037A JP5906860B2 (en) 2012-03-21 2012-03-21 Image processing apparatus, image processing method, and program

Publications (3)

Publication Number Publication Date
JP2013197980A true JP2013197980A (en) 2013-09-30
JP2013197980A5 JP2013197980A5 (en) 2015-04-02
JP5906860B2 JP5906860B2 (en) 2016-04-20

Family

ID=49396377

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012064037A Active JP5906860B2 (en) 2012-03-21 2012-03-21 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5906860B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016152634A1 (en) * 2015-03-26 2016-09-29 ソニー株式会社 Information processing apparatus, information processing method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1032755A (en) * 1996-07-17 1998-02-03 Nippon Hoso Kyokai <Nhk> Large-screen image composing processor
JP2007228224A (en) * 2006-02-23 2007-09-06 Seiko Epson Corp Image generating device, image extracting device, control method of image generating device, image extracting method and program, and recording medium with image extracting program recorded thereon
JP2008219451A (en) * 2007-03-05 2008-09-18 Fujifilm Corp Imaging device and control method thereof
JP2011035633A (en) * 2009-07-31 2011-02-17 Casio Computer Co Ltd Image processor and method
JP2011188372A (en) * 2010-03-10 2011-09-22 Canon Inc Device and method for generating video, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1032755A (en) * 1996-07-17 1998-02-03 Nippon Hoso Kyokai <Nhk> Large-screen image composing processor
JP2007228224A (en) * 2006-02-23 2007-09-06 Seiko Epson Corp Image generating device, image extracting device, control method of image generating device, image extracting method and program, and recording medium with image extracting program recorded thereon
JP2008219451A (en) * 2007-03-05 2008-09-18 Fujifilm Corp Imaging device and control method thereof
JP2011035633A (en) * 2009-07-31 2011-02-17 Casio Computer Co Ltd Image processor and method
JP2011188372A (en) * 2010-03-10 2011-09-22 Canon Inc Device and method for generating video, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016152634A1 (en) * 2015-03-26 2016-09-29 ソニー株式会社 Information processing apparatus, information processing method, and program
JPWO2016152634A1 (en) * 2015-03-26 2018-01-18 ソニー株式会社 Information processing apparatus, information processing method, and program
EP3276943A4 (en) * 2015-03-26 2018-11-21 Sony Corporation Information processing apparatus, information processing method, and program
US10264194B2 (en) 2015-03-26 2019-04-16 Sony Corporation Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP5906860B2 (en) 2016-04-20

Similar Documents

Publication Publication Date Title
KR101371766B1 (en) Image processing device that synthesizes images
JP4760973B2 (en) Imaging apparatus and image processing method
JP5281878B2 (en) IMAGING DEVICE, LIGHTING PROCESSING DEVICE, LIGHTING PROCESSING METHOD, AND LIGHTING PROCESSING PROGRAM
TWI444041B (en) Image processing apparatus, image processing method, and storage medium thereof
US8111946B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP5051156B2 (en) Image processing apparatus and program
JP5930245B1 (en) Image processing apparatus, image processing method, and program
WO2006072671A1 (en) Automatic white balancing of colour gain values
JP2008294762A (en) Image editing apparatus
JP2015060495A (en) Image processor, image processing method and program
JP5009204B2 (en) Image capturing apparatus and image composition method in image capturing apparatus
JP5906860B2 (en) Image processing apparatus, image processing method, and program
JP2009177508A (en) Imaging apparatus, and image-effect adding program
JP2009253925A (en) Imaging apparatus and imaging method, and imaging control program
JP2014021782A (en) Image processor, control method thereof and program
JP5951988B2 (en) Image composition apparatus and image composition method
JP2006186931A (en) Camera device and white balance bracketing photographing method
JP2011151454A (en) Image processor, imaging apparatus and image processing method
JP2015041869A (en) Imaging apparatus, information processing method, and program
JP2010226485A (en) Image processing apparatus and digital camera
JP5494537B2 (en) Image processing apparatus and program
JP2011182255A (en) Imaging apparatus with fish print photographing function
JP6211139B2 (en) Image synthesizer
JP2009077223A (en) Image display device, and image display program
JP5354059B2 (en) Imaging apparatus, image processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150217

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160223

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160307

R150 Certificate of patent or registration of utility model

Ref document number: 5906860

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150