JP2010011189A - Image processing apparatus, and image processing program - Google Patents

Image processing apparatus, and image processing program Download PDF

Info

Publication number
JP2010011189A
JP2010011189A JP2008169131A JP2008169131A JP2010011189A JP 2010011189 A JP2010011189 A JP 2010011189A JP 2008169131 A JP2008169131 A JP 2008169131A JP 2008169131 A JP2008169131 A JP 2008169131A JP 2010011189 A JP2010011189 A JP 2010011189A
Authority
JP
Japan
Prior art keywords
image
unit
person
subject
shooting state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008169131A
Other languages
Japanese (ja)
Other versions
JP5108654B2 (en
Inventor
Emi Kurokawa
恵美 黒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Olympus Imaging Corp
Original Assignee
Olympus Corp
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp, Olympus Imaging Corp filed Critical Olympus Corp
Priority to JP2008169131A priority Critical patent/JP5108654B2/en
Publication of JP2010011189A publication Critical patent/JP2010011189A/en
Application granted granted Critical
Publication of JP5108654B2 publication Critical patent/JP5108654B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus which can effectively use even an image with any defect without correction for removing the defect, and to provide an image processing program. <P>SOLUTION: The image processing apparatus 1 detects an object included in an image on the basis of an image pattern in a picture signal, and it determines the photographing condition of the detected object based on the picture signal. When the photographing condition of the determined object is defective, an image item corresponding to the defect is pasted to the specified attachment area of the image. The image item preferably has a content reflecting the defect of the personal photographing condition. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像に対して所定の画像処理を施す画像処理装置および画像処理プログラムに関する。   The present invention relates to an image processing apparatus and an image processing program for performing predetermined image processing on an image.

被写体を撮影してデジタルの画像データを生成するデジタルカメラ等の撮像装置では、フィルムカメラとは異なり、撮影した画像に対して画像処理を施すことができる。例えば、デジタルカメラによって撮影された画像に対し、所定の判定基準に基づいた画像解析処理を行うことによって画像の良否を判定する技術が知られている(例えば、特許文献1を参照)。この技術では、判定基準として画像の合焦の度合いや明るさなどを採用し、画像中の被写体にピンぼけ、黒つぶれ、白飛び等の不具合が発生しているか否かを検出することにより、その画像の良否を判定している。このような技術によれば、撮影した画像のプリントを一括して大量に注文する場合、不良と判定された画像を除いて注文することができ、資源の節約とプリント代の低減を実現することができる。   Unlike a film camera, an imaging device such as a digital camera that captures a subject and generates digital image data can perform image processing on the captured image. For example, there is known a technique for determining the quality of an image by performing image analysis processing based on a predetermined determination criterion for an image captured by a digital camera (see, for example, Patent Document 1). In this technology, the degree of focus or brightness of the image is adopted as a criterion, and it is detected by detecting whether a problem such as defocusing, blackout, or overexposure has occurred in the subject in the image. The quality of the image is judged. According to such a technique, when a large number of prints of captured images are ordered in a lump, it is possible to order except for images judged to be defective, thereby realizing resource saving and a reduction in print cost. Can do.

特開2001−256498号公報JP 2001-256498 A

上述した従来技術では、不良判定された画像をユーザが追加注文するような場合も想定し、不良判定された画像の保存期間を良判定された画像の保存期間より長く設定することができる。しかしながら、実際にはユーザが不良判定された画像を改めてチェックする可能性は低く、不良判定された画像がその判定の後で有効に活用されることは少なかった。   In the above-described conventional technology, it is assumed that the user additionally orders an image determined to be defective, and the storage period of the image determined to be defective can be set longer than the storage period of the image determined to be good. However, in reality, it is unlikely that the user checks the image determined to be defective again, and the image determined to be defective is rarely used effectively after the determination.

この問題を解決するために、不良判定された画像に対して不具合を解消する補正を施すことも考えられる。しかしながら、そのような補正によってユーザが所望するような画像が常に得られるとは限らないため、不良判定された画像が有効に活用されているとは言い難かった。   In order to solve this problem, it is conceivable to perform correction for eliminating the defect on the image determined to be defective. However, it is difficult to say that an image determined as defective is effectively used because an image desired by the user is not always obtained by such correction.

本発明は、上記に鑑みてなされたものであって、不具合を有する画像であってもその不具合を解消する補正を行うことなく有効に活用することができる画像処理装置および画像処理プログラムを提供することを目的とする。   The present invention has been made in view of the above, and provides an image processing apparatus and an image processing program that can be effectively used even if an image has a defect without correcting the defect. For the purpose.

上述した課題を解決し、目的を達成するために、本発明に係る画像処理装置は、処理対象の画像に対応する画像信号中の画像パターンに基づいて前記画像に含まれる被写体を検出する被写体検出部と、前記被写体検出部が検出した被写体の撮影状態を前記画像信号に基づいて判定する撮影状態判定部と、前記撮影状態判定部が判定した前記被写体の撮影状態に不具合がある場合、この不具合に対応し、絵、模様、文字、数字および記号の少なくともいずれか一つからなる画像アイテムを前記画像の所定の貼付領域へ貼付する画像合成部と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, an image processing apparatus according to the present invention detects a subject included in an image based on an image pattern in an image signal corresponding to the image to be processed. And a shooting state determination unit that determines a shooting state of the subject detected by the subject detection unit based on the image signal, and a shooting state of the subject that is determined by the shooting state determination unit. And an image composition unit for pasting an image item composed of at least one of a picture, a pattern, a character, a number, and a symbol to a predetermined pasting area of the image.

また、本発明に係る画像処理装置は、上記発明において、前記画像アイテムは、前記被写体の撮影状態の不具合を反映する内容を有することを特徴とする。   The image processing apparatus according to the present invention is characterized in that, in the above-mentioned invention, the image item has contents reflecting a defect in a shooting state of the subject.

また、本発明に係る画像処理装置は、上記発明において、複数の前記画像アイテムを記憶するとともに、前記撮影状態判定部の判定結果と前記画像に貼付する前記画像アイテムの種類および貼付領域との対応関係を記憶する記憶部をさらに備えたことを特徴とする。   In the image processing apparatus according to the present invention, in the above invention, a plurality of the image items are stored, and the determination result of the shooting state determination unit corresponds to the type and the pasting area of the image item to be pasted on the image. A storage unit for storing the relationship is further provided.

また、本発明に係る画像処理装置は、上記発明において、前記被写体検出部は人物の顔を検出可能であり、前記撮影状態判定部は、前記人物に焦点が合っているか否かを判定する合焦判定部と、前記人物の画像に画像ブレが発生しているか否かを判定する画像ブレ判定部と、前記人物の画像に黒つぶれまたは白飛びが発生しているか否かを判定する明暗判定部と、前記人物が目をつぶっているか否かを判定する目つぶり判定部と、を有することを特徴とする。   In the image processing apparatus according to the present invention, in the above invention, the subject detection unit can detect a person's face, and the shooting state determination unit determines whether or not the person is in focus. A focus determination unit, an image blur determination unit that determines whether image blur has occurred in the person image, and a light / dark determination to determine whether blackout or whiteout has occurred in the person image And a blinking determination unit for determining whether or not the person has closed his / her eyes.

また、本発明に係る画像処理装置は、上記発明において、前記撮影状態判定部は、前記人物の年齢および性別を判定する年齢・性別判定部をさらに有することを特徴とする。   In the image processing apparatus according to the present invention as set forth in the invention described above, the photographing state determination unit further includes an age / gender determination unit that determines the age and sex of the person.

また、本発明に係る画像処理装置は、上記発明において、所定の視野領域内の被写体を撮像して画像信号を生成する撮像部と、前記撮像部が撮像した画像をもとに前記画像合成部が合成した画像を表示する表示部と、をさらに備えたことを特徴とする。   The image processing apparatus according to the present invention is the image processing apparatus according to the above-described invention, wherein the imaging unit that captures an image of a subject within a predetermined field of view and generates an image signal, and the image composition unit based on the image captured by the imaging unit. And a display unit for displaying an image synthesized.

また、本発明に係る画像処理プログラムは、各々が絵、模様、文字、数字および記号の少なくともいずれか一つからなる複数の画像アイテムを記憶する記憶部を備えた画像処理装置に、処理対象の画像に対応する画像信号中の画像パターンに基づいて前記画像に含まれる被写体を検出する被写体検出ステップ、前記被写体検出ステップで検出した被写体の撮影状態を前記画像信号に基づいて判定する撮影状態判定ステップ、前記撮影状態判定ステップで判定した前記被写体の撮影状態に不具合がある場合、この不具合に対応した前記画像アイテムを前記記憶部から読み出して前記画像の所定の貼付領域へ貼付する画像合成ステップ、を実行させることを特徴とする。   In addition, an image processing program according to the present invention includes an image processing apparatus including a storage unit that stores a plurality of image items each including at least one of a picture, a pattern, characters, numbers, and symbols. A subject detection step of detecting a subject included in the image based on an image pattern in an image signal corresponding to the image; a shooting state determination step of determining a shooting state of the subject detected in the subject detection step based on the image signal When there is a problem in the shooting state of the subject determined in the shooting state determination step, an image composition step of reading out the image item corresponding to the defect from the storage unit and pasting it on a predetermined pasting area of the image, It is made to perform.

本発明によれば、処理対象の画像の画像信号中の画像パターンに基づいて検出した被写体の撮影状態を画像信号に基づいて判定し、被写体の撮影状態に不具合がある場合、この不具合に対応した画像アイテムをもとの画像の所定の貼付領域へ貼付するため、被写体の撮影状態に不具合がある画像に対して付加価値を生じさせることができる。したがって、不具合を有する画像であってもその不具合を解消する補正を行うことなく有効活用することが可能となる。   According to the present invention, the shooting state of the subject detected based on the image pattern in the image signal of the image to be processed is determined based on the image signal. Since the image item is affixed to a predetermined affixing area of the original image, it is possible to add value to an image having a problem in the shooting state of the subject. Therefore, even an image having a defect can be effectively used without performing correction for eliminating the defect.

以下、添付図面を参照して、本発明を実施するための最良の形態(以後、「実施の形態」と称する)を説明する。   The best mode for carrying out the present invention (hereinafter referred to as “embodiment”) will be described below with reference to the accompanying drawings.

(実施の形態1)
図1は、本発明の実施の形態1に係る画像処理装置の構成を模式的に示す図である。同図に示す画像処理装置1はデジタルカメラであり、所定の視野領域を撮像して画像データを生成する撮像部2、撮像部2の視野領域の状態を検出するセンサ部3、撮像部2が出力した画像データに対して画像処理を施す画像処理部4、画像処理部4が出力する画像データを含む情報を表示する表示部5、表示部5の表示を制御する表示制御部6、画像データの圧縮および伸張を行う圧縮伸張部7、画像処理装置1に外部から装着されるメモリカード等の記録媒体100に対して画像データ等の情報を記録する一方、記録媒体100が記録する情報を読み出す記録媒体インターフェース8、画像処理装置1の操作指示信号が入力される入力部9、各種情報の音声出力を行う音声出力部10、撮像領域へ向けて補助光を投射する補助光投射部11、画像処理装置1の動作を制御する制御部12、画像処理装置1の動作に関する各種情報を記憶する記憶部13を備える。
(Embodiment 1)
FIG. 1 is a diagram schematically showing a configuration of an image processing apparatus according to Embodiment 1 of the present invention. An image processing apparatus 1 shown in the figure is a digital camera, and includes an imaging unit 2 that captures a predetermined visual field and generates image data, a sensor unit 3 that detects the state of the visual field of the imaging unit 2, and an imaging unit 2 An image processing unit 4 that performs image processing on the output image data, a display unit 5 that displays information including image data output by the image processing unit 4, a display control unit 6 that controls display of the display unit 5, and image data A compression / decompression unit 7 that compresses and decompresses the image, and records information such as image data on a recording medium 100 such as a memory card that is externally attached to the image processing apparatus 1, while reading information recorded on the recording medium 100 A recording medium interface 8, an input unit 9 to which an operation instruction signal of the image processing apparatus 1 is input, an audio output unit 10 that outputs audio of various information, and an auxiliary light projection unit 1 that projects auxiliary light toward an imaging region , A storage unit 13 for storing control unit 12 for controlling the operation of the image processing apparatus 1, various information related to the operation of the image processing apparatus 1.

撮像部2は、所定の視野領域にある被写体からの光を集光する撮影レンズ21、撮影レンズ21が集光した光の入射量を調整する絞り22、絞り22を通過した入射光を受光して電気信号に変換するCCD等の撮像素子23、撮像素子23から出力されるアナログ信号に対して感度補正やホワイトバランスを含む各種処理を施すアナログ信号処理部24、アナログ信号処理部24が出力した信号からデジタルの画像データを生成するA/D変換部25を有する。このうち、撮影レンズ21は、一または複数のレンズによって構成される光学系であり、レンズ駆動部14によって駆動される。また、絞り22は絞り駆動部15によって駆動される。   The imaging unit 2 receives a photographing lens 21 that collects light from a subject in a predetermined field of view, a diaphragm 22 that adjusts an incident amount of light collected by the photographing lens 21, and incident light that has passed through the diaphragm 22. The image sensor 23 such as a CCD that converts the signal into an electrical signal, the analog signal processor 24 that performs various processes including sensitivity correction and white balance on the analog signal output from the image sensor 23, and the analog signal processor 24 output the signal. An A / D conversion unit 25 that generates digital image data from the signal is included. Among these, the photographing lens 21 is an optical system including one or a plurality of lenses, and is driven by the lens driving unit 14. The diaphragm 22 is driven by the diaphragm driving unit 15.

画像処理部4は、画像信号中の画像パターンに基づいて画像信号に対応する画像に含まれる被写体を検出する被写体検出部41、被写体検出部41が検出した被写体の撮影状態を画像信号に基づいて判定する撮影状態判定部42、撮影状態判定部42が判定した結果、被写体の撮影状態に不具合がある場合、この不具合に対応し、絵、模様(図形などを含む)、文字、数字および記号の少なくともいずれか一つからなる画像アイテムを画像の所定の貼付領域へ貼付する画像合成部43、を有する。   The image processing unit 4 detects the subject included in the image corresponding to the image signal based on the image pattern in the image signal, and the shooting state of the subject detected by the subject detection unit 41 based on the image signal. As a result of the determination by the shooting state determination unit 42 and the shooting state determination unit 42, if there is a defect in the shooting state of the subject, this problem is dealt with, and pictures, patterns (including graphics, etc.), letters, numbers, and symbols An image composition unit 43 for pasting at least one of the image items to a predetermined pasting region of the image.

被写体検出部41は、被写体として人物の顔を検出する機能を有するとともに、検出した人物の顔の目、口、鼻などの位置を顔の特徴情報として抽出する機能を有する。このような被写体検出部41の機能は、例えば矩形特徴による識別法を用いて画像中の被写体検出を行うViola-Jonesの方法(P. Viola and M. Jones, “Rapid object detection using a boosted cascade of simple features”, Proc. of CVPR, (2001).を参照)を適用することによって実現される。   The subject detection unit 41 has a function of detecting a person's face as a subject, and also has a function of extracting positions of the detected person's face such as eyes, mouth, and nose as face feature information. The function of the subject detection unit 41 is, for example, the Viola-Jones method (P. Viola and M. Jones, “Rapid object detection using a boosted cascade of”, which performs subject detection in an image using a discrimination method based on a rectangular feature. simple features ”, Proc. of CVPR, (2001).

撮影状態判定部42は、被写体検出部41が検出した人物の写り具合や顔の表情を含む撮影状態を画像信号に基づいて判定する。具体的には、撮影状態判定部42は、被写体検出部41が検出した人物に焦点が合っているか否かを判定する合焦判定部421、被写体検出部41が検出した人物の画像に画像ブレが発生しているか否かを判定する画像ブレ判定部422、被写体検出部41が検出した人物の画像に黒つぶれまたは白飛びが発生しているか否かを判定する明暗判定部423、被写体検出部41が検出した人物の目つぶりの有無を判定する目つぶり判定部424、を有する。   The shooting state determination unit 42 determines the shooting state including the appearance of the person and facial expression detected by the subject detection unit 41 based on the image signal. Specifically, the shooting state determination unit 42 determines whether the person detected by the subject detection unit 41 is in focus, the focus determination unit 421 that determines whether or not the person is in focus, and the image blur of the person detected by the subject detection unit 41. An image blur determination unit 422 that determines whether or not an image has occurred, a light and dark determination unit 423 that determines whether or not a blackout or a whiteout has occurred in a person image detected by the subject detection unit 41, and a subject detection unit 41 includes a blinking determination unit 424 that determines whether the person detected by the person 41 is blinking.

合焦判定部421は、画像中の所定領域に含まれる高周波成分を抽出し、この抽出した高周波成分の積算値を算出した後、この積算値を所定の閾値と比較することにより、人物に焦点が合っているか否か(ピンぼけの有無)を判定する(合焦判定のより詳細な内容については、例えば上記特許文献1を参照)。   The focus determination unit 421 extracts a high-frequency component included in a predetermined region in the image, calculates an integrated value of the extracted high-frequency component, and then compares the integrated value with a predetermined threshold, thereby focusing on the person. Is determined (whether or not out-of-focus is present) (for details of the focus determination, refer to, for example, Patent Document 1).

画像ブレ判定部422は、被写体検出部41が検出した人物の顔の特徴情報の抽出結果に基づいて、撮影者の手ブレまたは被写体ブレに起因する画像ブレが発生しているか否かを判定する。この判定を行う際、画像ブレ判定部422は、画像ブレを生じている場合の画像パターンとのマッチングを行ってもよい。   The image blur determination unit 422 determines whether or not an image blur due to the camera shake of the photographer or the subject blur has occurred based on the extraction result of the human face feature information detected by the subject detection unit 41. . When performing this determination, the image blur determination unit 422 may perform matching with an image pattern in the case where image blur has occurred.

明暗判定部423は、画像中の所定領域の輝度データを取得し、この取得した輝度データの平均値を計算した後、この平均値が所定の第1の閾値を下回っている場合には黒つぶれの画像と判定する。一方、計算した平均値が第1の閾値よりも高い所定の第2の閾値を上回った場合には白飛びの画像と判定する(明暗判定のより詳細な内容については、例えば上記特許文献1を参照)。   The brightness determination unit 423 acquires luminance data of a predetermined area in the image, calculates an average value of the acquired luminance data, and then blacks out if the average value is below a predetermined first threshold value. It is determined that the image. On the other hand, when the calculated average value exceeds a predetermined second threshold value that is higher than the first threshold value, it is determined that the image is a whiteout image (for more detailed contents of the light / dark determination, see, for example, Patent Document 1 above). reference).

目つぶり判定部424は、被写体検出部41が画像中で抽出した人物の顔の目領域の中にある黒色領域の大きさを目の開度として検出した後、この検出結果を所定の閾値と比較することにより、その人物が目をつぶっているか否かを判定する(目つぶり判定のより詳細な内容については、例えば特開平9−147120号公報を参照)。   The blinking determination unit 424 detects the size of the black region in the eye region of the human face extracted by the subject detection unit 41 in the image as the opening of the eye, and then uses the detection result as a predetermined threshold value. By comparing, it is determined whether or not the person has closed his eyes (for details of the blinking determination, refer to, for example, Japanese Patent Laid-Open No. 9-147120).

入力部9は、画像処理装置1の電源ボタン、撮像指示を与えるシャッターボタン、画像処理装置1が有する各種動作モータの切替を行うモード切替ボタン、画像データの再生や編集の指示を含む制御ボタンなどを有する。入力部9を構成する各種ボタンの少なくとも一部を、十字キーやタッチパネルを用いて実現することも可能である。   The input unit 9 includes a power button of the image processing apparatus 1, a shutter button for giving an imaging instruction, a mode switching button for switching various operation motors of the image processing apparatus 1, a control button including instructions for reproducing and editing image data, etc. Have It is also possible to realize at least a part of various buttons constituting the input unit 9 using a cross key or a touch panel.

制御部12は、撮影日時の判定等を行う時計121を有しており、センサ部3の検知結果や入力部9によって入力された操作指示信号に応じて画像処理装置1の動作を制御する。制御部12はMPU等を用いて実現され、制御対象の各部とバスラインを介して接続されている。   The control unit 12 includes a clock 121 that determines the shooting date and time, and controls the operation of the image processing apparatus 1 according to the detection result of the sensor unit 3 and the operation instruction signal input by the input unit 9. The control unit 12 is realized using an MPU or the like, and is connected to each part to be controlled via a bus line.

記憶部13は、画像処理装置1が実行する各種プログラムを記憶するプログラム記憶部131、被写体検出部41が被写体検出処理を行う際に必要な画像パターン等の情報を記憶する被写体検出情報記憶部132、撮影状態判定部42の判定結果と、この判定結果に応じて画像に貼付する画像アイテムの種類および貼付領域との対応関係を与える対応テーブルを記憶する対応テーブル記憶部133、撮影状態判定部42の判定結果に応じて処理対象の画像に貼付する画像アイテムを複数記憶する画像アイテム記憶部134、を有する。プログラム記憶部131には、本実施の形態1に係る画像処理プログラムが記憶されている。記憶部13は、画像処理装置1の内部に固定的に設けられるフラッシュメモリやRAM等の半導体メモリなどを用いて実現される。   The storage unit 13 includes a program storage unit 131 that stores various programs executed by the image processing apparatus 1, and a subject detection information storage unit 132 that stores information such as an image pattern necessary for the subject detection unit 41 to perform subject detection processing. The correspondence table storage unit 133 stores a correspondence table that gives a correspondence relationship between the determination result of the shooting state determination unit 42 and the type and image area of the image item to be pasted on the image according to the determination result. The shooting state determination unit 42 The image item storage unit 134 stores a plurality of image items to be attached to the processing target image according to the determination result. The program storage unit 131 stores an image processing program according to the first embodiment. The storage unit 13 is realized using a semiconductor memory such as a flash memory or a RAM that is fixedly provided inside the image processing apparatus 1.

図2は、以上の構成を有する画像処理装置1が行う画像処理方法の概要を示すフローチャートである。以下で説明する画像処理方法においては、画像処理装置1が撮影した画像を再生する再生モードに設定されているものとする。   FIG. 2 is a flowchart showing an outline of an image processing method performed by the image processing apparatus 1 having the above configuration. In the image processing method described below, it is assumed that the reproduction mode for reproducing an image taken by the image processing apparatus 1 is set.

画像処理装置1は、まず記録媒体インターフェース8を介して記録媒体100から読み出した再生画像を表示部5で表示する(ステップS1)。このステップS1では、ユーザが入力部9を介して選択した画像を表示することも可能である。   First, the image processing apparatus 1 displays the reproduced image read from the recording medium 100 via the recording medium interface 8 on the display unit 5 (step S1). In step S1, an image selected by the user via the input unit 9 can be displayed.

再生画像を見たユーザによって入力部9から削除指示が入力された場合(ステップS2,Yes)、被写体検出部41は再生画像の画像データに含まれる被写体を検出する(ステップS3)。一方、表示部5で表示した再生画像に対して削除指示が入力されなかった場合(ステップS2,No)、画像処理装置1は一連の処理を終了する。   When a deletion instruction is input from the input unit 9 by the user who has viewed the playback image (step S2, Yes), the subject detection unit 41 detects a subject included in the image data of the playback image (step S3). On the other hand, when a deletion instruction is not input for the reproduced image displayed on the display unit 5 (No in step S2), the image processing apparatus 1 ends a series of processes.

被写体検出部41が被写体として人物の顔を検出した場合(ステップS4,Yes)、撮影状態判定部42は、人物の撮影状態(ピンぼけ、画像ブレ、黒つぶれ、白飛びおよび目つぶりの有無)を、検出した人物ごとに判定する(ステップS5)。一方、被写体検出部41が被写体として人物の顔を検出しなかった場合(ステップS4,No)、画像処理装置1は指定された画像を削除し(ステップS6)、一連の処理を終了する。   When the subject detection unit 41 detects a human face as a subject (step S4, Yes), the shooting state determination unit 42 indicates the shooting state of the person (whether there is blurring, image blurring, blackout, whiteout, and blinking). A determination is made for each detected person (step S5). On the other hand, when the subject detection unit 41 does not detect a person's face as a subject (step S4, No), the image processing apparatus 1 deletes the designated image (step S6), and ends a series of processing.

撮影状態判定部42が判定した人物の撮影状態に何らかの不具合がある場合(ステップS7,Yes)、画像合成部43は記憶部13の対応テーブル記憶部133が記憶する対応テーブルを参照することにより、撮影状態判定部42の判定結果に応じた画像アイテムを画像中の所定の貼付領域へ貼付することによって画像を合成する(ステップS8)。この後、表示部5は、画像合成部43が合成した合成画像を表示する(ステップS9)。   When there is some trouble in the shooting state of the person determined by the shooting state determination unit 42 (step S7, Yes), the image composition unit 43 refers to the correspondence table stored in the correspondence table storage unit 133 of the storage unit 13. An image is synthesized by pasting an image item corresponding to the determination result of the shooting state determination unit 42 to a predetermined pasting area in the image (step S8). Thereafter, the display unit 5 displays the synthesized image synthesized by the image synthesizing unit 43 (step S9).

図3は、対応テーブル記憶部133が記憶する対応テーブルの構成を示す図である。図4は、人物の画像に対する画像アイテムの貼付領域を模式的に示す図である。図4において、人物301の近傍領域には、人物301の顔に対応する貼付領域Aを中心として、この貼付領域Aを取り囲むように6つの貼付領域B〜Gが設けられている。このように、被写体検出部41が検出した人物に対しては、7つの領域からなる画像アイテムの貼付領域を設定することが可能である。   FIG. 3 is a diagram illustrating a configuration of the correspondence table stored in the correspondence table storage unit 133. FIG. 4 is a diagram schematically illustrating a pasting area of an image item with respect to a person image. In FIG. 4, six pasting regions B to G are provided in the vicinity region of the person 301 so as to surround the pasting region A around the pasting region A corresponding to the face of the person 301. As described above, for the person detected by the subject detection unit 41, it is possible to set an image item pasting region including seven regions.

以下、撮影状態判定部42の判定結果に応じた画像合成部43の処理の内容を具体的に説明する。まず、合焦判定部421が再生画像中の人物に焦点が合っていない(ピンぼけあり)と判定した場合を説明する。図5は、合焦判定部421によって「ピンぼけあり」と判定された再生画像の表示例を示す図である。同図に示す再生画像201では、ピンぼけした人物302を破線で記載している。この場合、画像合成部43は、対応テーブルT1を参照することにより、3つの画像アイテムI−1、I−2およびI−3を人物302に対する貼付領域A、BおよびFにそれぞれ貼付する。なお、テーブルT1において、画像アイテムI−1の貼付領域は「A*」と記載されているが、これは画像アイテムI−1が貼付領域Aの面積よりも大きいことを意味している。   Hereinafter, the content of the process of the image composition unit 43 according to the determination result of the shooting state determination unit 42 will be specifically described. First, a case where the in-focus determination unit 421 determines that a person in the reproduced image is out of focus (has out of focus) will be described. FIG. 5 is a diagram illustrating a display example of a reproduced image that has been determined to be “out of focus” by the focus determination unit 421. In the reproduced image 201 shown in the figure, the out-of-focus person 302 is indicated by a broken line. In this case, the image composition unit 43 attaches the three image items I-1, I-2, and I-3 to the pasting areas A, B, and F for the person 302 by referring to the correspondence table T1. In the table T1, the pasting area of the image item I-1 is described as “A *”, which means that the image item I-1 is larger than the area of the pasting area A.

図6は、画像合成部43が再生画像201に基づいて生成した合成画像の表示例を示す図である。同図に示す合成画像202では、画像アイテムI−1が幽霊の輪郭の絵であり、画像アイテムI−2、I−3がこうもりの絵である。このうち、画像アイテムI−1は、幽霊の頭部が人物302の頭部と重なるように配置される。   FIG. 6 is a diagram illustrating a display example of a composite image generated by the image composition unit 43 based on the reproduced image 201. In the composite image 202 shown in the figure, the image item I-1 is a picture of a ghost outline, and the image items I-2 and I-3 are bat pictures. Among these, the image item I-1 is arranged so that the head of the ghost overlaps the head of the person 302.

次に、画像ブレ判定部422が人物の画像に画像ブレが発生していると判定した場合を説明する。図7は、画像ブレ判定部422によって「画像ブレあり」と判定された再生画像の表示例を示す図である。同図に示す再生画像203では、人物303が上下方向に画像ブレを生じている。この場合、画像合成部43は、対応テーブルT1を参照することにより、4つの画像アイテムI−4、I−5、I−6およびI−7を人物303に対する貼付領域A、B、CおよびDへそれぞれ貼付することによって合成画像を生成する。   Next, a case where the image blur determination unit 422 determines that image blur has occurred in a person image will be described. FIG. 7 is a diagram illustrating a display example of a reproduced image determined as “image blurring” by the image blur determination unit 422. In the reproduced image 203 shown in the figure, the person 303 has an image blur in the vertical direction. In this case, the image composition unit 43 refers to the correspondence table T1 to attach the four image items I-4, I-5, I-6, and I-7 to the pasting areas A, B, C, and D for the person 303. A composite image is generated by pasting each of the images.

図8は、画像合成部43が再生画像203に基づいて生成した合成画像の表示例を示す図である。同図に示す合成画像204において、画像アイテムI−4はヘルメットの絵であり、画像アイテムI−5は「ガガガガガガ…」という文字列であり、画像アイテムI−6は工事中の看板の絵であり、画像アイテムI−7は工事作業服の絵である。このうち、画像アイテムI−4は、人物303の頭部に配置される。   FIG. 8 is a diagram illustrating a display example of a composite image generated by the image composition unit 43 based on the reproduced image 203. In the composite image 204 shown in the figure, the image item I-4 is a helmet picture, the image item I-5 is a character string “GAGAGAGAGAGAGA”, and the image item I-6 is a picture of a signboard under construction. Yes, image item I-7 is a picture of construction work clothes. Among these, the image item I-4 is arranged on the head of the person 303.

次に、明暗判定部423が人物の画像に黒つぶれが発生していると判定した場合を説明する。図9は、明暗判定部423によって「黒つぶれあり」と判定された再生画像の表示例を示す図である。同図に示す再生画像205では、人物304が黒つぶれしている。この場合、画像合成部43は、対応テーブルT1を参照することにより、画像アイテムI−8を人物304に対する貼付領域Aに貼付することによって合成画像を生成する。   Next, a case where the light / dark determination unit 423 determines that blackout has occurred in a person's image will be described. FIG. 9 is a diagram illustrating a display example of a reproduced image determined as “blackout” by the light / dark determination unit 423. In the reproduced image 205 shown in the figure, the person 304 is blacked out. In this case, the image composition unit 43 refers to the correspondence table T1 to create a composite image by pasting the image item I-8 on the pasting area A for the person 304.

図10は、画像合成部43が再生画像205に基づいて生成した合成画像の表示例を示す図である。同図に示す合成画像206において、画像アイテムI−8は大仏の頭部の絵である。このような画像アイテムI−8は、人物304の頭部に配置される。   FIG. 10 is a diagram illustrating a display example of a composite image generated by the image composition unit 43 based on the reproduced image 205. In the composite image 206 shown in the figure, the image item I-8 is a picture of the head of the Great Buddha. Such an image item I-8 is arranged on the head of the person 304.

次に、明暗判定部423が人物の画像に白飛びが発生していると判定した場合を説明する。図11は、明暗判定部423によって「白飛びあり」と判定された再生画像の表示例を示す図である。同図に示す再生画像207では、白飛びした人物305を一点鎖線で記載している。この場合、画像合成部43は、対応テーブルT1を参照することにより、画像アイテムI−9を人物305に対する貼付領域Aに貼付する。ただし、画像アイテムI−9は、貼付領域Aの面積よりも大きい面積を有している(テーブルT1では「A*」と表記)。   Next, a case where the light / dark determination unit 423 determines that whiteout has occurred in a person's image will be described. FIG. 11 is a diagram illustrating a display example of a reproduced image that is determined to be “exposed white” by the light / dark determination unit 423. In the reproduced image 207 shown in the figure, a white-out person 305 is indicated by a one-dot chain line. In this case, the image composition unit 43 refers to the correspondence table T1 to paste the image item I-9 on the pasting area A for the person 305. However, the image item I-9 has an area larger than the area of the pasting area A (indicated as “A *” in the table T1).

図12は、画像合成部43が再生画像207に基づいて生成した合成画像の表示例を示す図である。同図に示す合成画像208において、画像アイテムI−9は男性の貴族の装束の絵である。この画像アイテムI−9は、貴族の顔の位置が人物305の顔と一致するように配置される。   FIG. 12 is a diagram illustrating a display example of a composite image generated by the image composition unit 43 based on the reproduced image 207. In the composite image 208 shown in the figure, the image item I-9 is a picture of a male aristocratic costume. This image item I-9 is arranged so that the position of the face of the nobility matches the face of the person 305.

次に、目つぶり判定部424が人物の目つぶりがあると判定した場合を説明する。図13は、目つぶり判定部424によって「目つぶりあり」と判定された再生画像の表示例を示す図である。同図に示す再生画像209では、人物306が目をつぶっている。この場合、画像合成部43は、対応テーブルT1を参照することにより、画像アイテムI−10、I−11を人物306に対する貼付領域A、Gにそれぞれ貼付する。   Next, a case where the blinking determination unit 424 determines that there is a blinking of a person will be described. FIG. 13 is a diagram illustrating a display example of a reproduced image that is determined as “with blinking” by the blinking determination unit 424. In the reproduced image 209 shown in the figure, the person 306 is closed. In this case, the image composition unit 43 attaches the image items I-10 and I-11 to the attachment regions A and G for the person 306 by referring to the correspondence table T1.

図14は、画像合成部43が再生画像209に基づいて生成した合成画像の表示例を示す図である。同図に示す合成画像210において、画像アイテムI−10は鼻風船の絵であり、画像アイテムI−11は文字列「Zzz…」である。このうち、画像アイテムI−10は人物306の鼻の位置と対応するように配置される。   FIG. 14 is a diagram illustrating a display example of a composite image generated by the image composition unit 43 based on the reproduced image 209. In the composite image 210 shown in the figure, the image item I-10 is a picture of a nose balloon, and the image item I-11 is a character string “Zzz. Among these, the image item I-10 is arranged so as to correspond to the position of the nose of the person 306.

以上説明したように、再生画像に貼付する画像アイテムは、撮影状態判定部42が判定した人物の撮影状態の不具合を反映した内容を有している。特に、上述した画像アイテムI−1〜I−10は、もとの画像の不具合の内容をユーモラスに表現するものであるため、合成画像を見たユーザがその合成画像を保存したりプリントしたりする可能性が高い。したがって、不具合が発生している画像であっても、その不具合を反映した内容の画像アイテムを貼付することにより、有効に活用することができる。   As described above, the image item to be attached to the reproduction image has contents reflecting the defect in the shooting state of the person determined by the shooting state determination unit 42. In particular, the above-described image items I-1 to I-10 express the content of the defect of the original image in a humorous manner, so that the user who viewed the composite image saves or prints the composite image. There is a high possibility of doing. Therefore, even an image in which a defect has occurred can be effectively used by pasting an image item having contents reflecting the defect.

ところで、撮影状態判定部42が人物の撮影状態を判定した結果、ピンぼけ、画像ブレ、黒つぶれ、白飛び、目つぶりのうち複数の不具合がある場合には、全ての画像アイテムを貼付するようにしてもよい。ただし、この場合には一つの貼付領域に複数の画像アイテムが貼付されてしまう可能性もあるため、各貼付領域に貼付する画像アイテムの優先順位を予め設定しておけばより好ましい。   By the way, as a result of determining the shooting state of the person by the shooting state determination unit 42, if there are a plurality of problems among blurring, image blurring, blackout, whiteout, and blinking, all image items are pasted. May be. However, in this case, there is a possibility that a plurality of image items may be affixed to one affixing area. Therefore, it is more preferable to set the priority order of image items to be affixed to each affixing area in advance.

表示部5は、以上説明したステップS9において合成画像を表示し始めてから所定時間経過した時、表示中の合成画像を保存するか否かを問い合わせる問い合わせ画像を表示する(ステップS10)。図15は、問い合わせ画像の表示例を示す図である。同図に示す問い合わせ画像211は、表示中の合成画像(図15では、図6に示す合成画像202の場合を示している)に対して「この画像を保存しますか?」というメッセージおよび「Yes」、「No」の選択肢を重ねて表示したものである。図15では、「Yes」の文字が「No」の文字よりも太字で表示されており、「Yes」が選択可能な状態を示している。   The display unit 5 displays an inquiry image for inquiring whether or not to save the displayed composite image when a predetermined time has elapsed since the start of displaying the composite image in step S9 described above (step S10). FIG. 15 is a diagram illustrating a display example of an inquiry image. The inquiry image 211 shown in the figure is a message “Do you want to save this image?” And “Are you sure you want to save this image?” The options “Yes” and “No” are displayed in an overlapping manner. In FIG. 15, the character “Yes” is displayed in bolder than the character “No”, and “Yes” can be selected.

問い合わせ画像211を見たユーザは、入力部9から合成画像を保存するか否かを選択する選択信号を入力する。ユーザが入力部9を介して「Yes」を選択した場合(ステップS11,Yes)、画像処理装置1は合成前の再生画像を削除するか否かを再度問い合わせる再問い合わせ画像を表示部5で表示する(ステップS12)。ここで再生画像を削除するか否かについて再度問い合わせを行うのは、合成画像を見たユーザが再生画像も残しておきたくなる可能性があるからである。   The user who has seen the inquiry image 211 inputs a selection signal for selecting whether or not to save the composite image from the input unit 9. When the user selects “Yes” via the input unit 9 (step S11, Yes), the image processing apparatus 1 displays a re-inquiry image for inquiring again whether or not to delete the reproduction image before synthesis. (Step S12). The reason for inquiring again about whether or not to delete the reproduced image is that the user who viewed the composite image may want to leave the reproduced image.

図16は、再問い合わせ画像の表示例を示す図である。同図に示す再問い合わせ画像212は、ステップS9で表示した合成画像(図16では、図6に示す合成画像202の場合を示している)に対して「合成前の画像を削除しますか?」というメッセージおよび「Yes」、「No」の選択肢を重ねて表示したものである。図16では、「No」の文字が「Yes」の文字よりも太字で表示されており、「No」が選択可能な状態を示している。   FIG. 16 is a diagram illustrating a display example of a re-inquiry image. The re-inquiry image 212 shown in the figure is “Would you like to delete the pre-combination image?” With respect to the composite image displayed in step S9 (FIG. 16 shows the case of the composite image 202 shown in FIG. 6). "And a choice of" Yes "and" No "are displayed in an overlapping manner. In FIG. 16, the character “No” is displayed in bolder than the character “Yes”, and “No” is selectable.

再問い合わせ画像212を見たユーザが入力部9を介して「No」を選択し、再生画像を削除しないで残す場合(ステップS13,No)、画像処理装置1は合成画像を圧縮伸張部7で圧縮し、記録媒体インターフェース8を介して記録媒体100へ書き込んで保存する(ステップS14)。一方、再問い合わせ画像212を見たユーザが入力部9を介して「Yes」を選択して再生画像を削除する場合(ステップS13,Yes)、画像処理装置1は合成画像を上記同様に記録媒体100へ書き込んで保存する一方、その合成画像の合成前の再生画像を記録媒体100から削除する(ステップS15)。   When the user who viewed the re-inquiry image 212 selects “No” via the input unit 9 and leaves the reproduced image without deleting it (step S13, No), the image processing apparatus 1 uses the compression / decompression unit 7 to display the composite image. The compressed data is written and stored in the recording medium 100 via the recording medium interface 8 (step S14). On the other hand, when the user who has seen the re-inquiry image 212 selects “Yes” via the input unit 9 and deletes the reproduced image (step S13, Yes), the image processing apparatus 1 records the composite image in the same manner as described above. While the image is written and stored in 100, the reproduction image before the synthesis image is deleted from the recording medium 100 (step S15).

次に、ステップS11において、問い合わせ画像211を見たユーザが入力部9を介して「No」を選択した場合(ステップS11,No)を説明する。この場合、画像処理装置1は表示部5で表示中の合成画像を削除するとともに、再生画像も記録媒体100から削除する(ステップS16)。なお、ユーザが合成画像を削除する選択をした場合に合成前の再生画像の削除の可否を再度問い合わせるようにしてもよい。   Next, a case where the user who viewed the inquiry image 211 selects “No” via the input unit 9 in step S11 (step S11, No) will be described. In this case, the image processing apparatus 1 deletes the composite image being displayed on the display unit 5 and also deletes the reproduced image from the recording medium 100 (step S16). Note that when the user selects to delete the composite image, it may be inquired again about whether or not to delete the reproduction image before the composite.

以上説明した本発明の実施の形態1によれば、処理対象の画像の画像信号中の画像パターンに基づいて検出した被写体の撮影状態を画像信号に基づいて判定し、被写体の撮影状態に不具合がある場合、この不具合に対応した画像アイテムをもとの画像の所定の貼付領域へ貼付するため、被写体の撮影状態に不具合がある画像に対して付加価値を生じさせることができる。したがって、不具合を有する画像であってもその不具合を解消する補正を行うことなく有効に活用することが可能となる。この結果、撮影した画像の無駄を少なくすることができる。   According to the first embodiment of the present invention described above, the shooting state of the subject detected based on the image pattern in the image signal of the image to be processed is determined based on the image signal, and there is a problem with the shooting state of the subject. In some cases, since an image item corresponding to this defect is affixed to a predetermined affixing area of the original image, an added value can be generated for an image having a defect in the shooting state of the subject. Therefore, even an image having a defect can be effectively used without performing correction for eliminating the defect. As a result, waste of captured images can be reduced.

(実施の形態2)
図17は、本発明の実施の形態2に係る画像処理装置である撮像装置の構成を模式的に示す図である。同図に示す画像処理装置16は、画像処理部17の構成を除いて上記実施の形態1で説明した画像処理装置1と同様の構成を有する。
(Embodiment 2)
FIG. 17 is a diagram schematically illustrating a configuration of an imaging apparatus that is an image processing apparatus according to Embodiment 2 of the present invention. The image processing apparatus 16 shown in the figure has the same configuration as that of the image processing apparatus 1 described in the first embodiment except for the configuration of the image processing unit 17.

画像処理装置16の画像処理部17は、被写体検出部41、撮影状態判定部44および画像合成部43を有する。このうち、撮影状態判定部44は、合焦判定部421、画像ブレ判定部422、明暗判定部423、目つぶり判定部424に加えて、被写体検出部41が検出した人物の顔からその人物の年齢および性別を判定する年齢・性別判定部425を有する。   The image processing unit 17 of the image processing device 16 includes a subject detection unit 41, a shooting state determination unit 44, and an image composition unit 43. Among these, the shooting state determination unit 44 includes the in-focus determination unit 421, the image blur determination unit 422, the light / dark determination unit 423, and the blinking determination unit 424, and the person's face detected by the subject detection unit 41. An age / sex determination unit 425 for determining age and sex is provided.

年齢・性別判定部425は、被写体検出部41が検出した人物の顔に対して抽出した特徴情報を、予め男女別の幅広い年齢層に対して作成しておいた個人顔特徴情報と照合して両者の類似度を算出することにより、その人物の年齢および性別を判定する機能を有している(年齢・性別判定のより詳細な内容については、例えば特開2005−165447号公報を参照)。   The age / gender determination unit 425 collates the feature information extracted for the face of the person detected by the subject detection unit 41 with the personal face feature information previously created for a wide age group for each gender. It has a function of determining the age and sex of the person by calculating the degree of similarity between the two (see, for example, JP-A-2005-165447 for more detailed contents of age / sex determination).

本実施の形態2において、画像処理装置16が再生モードに設定されている場合に行う画像処理方法の概要は、上述した実施の形態1と同様である。ただし、本実施の形態2において、ステップS5で画像中の人物の撮影状態を判定する際、撮影状態判定部44は、年齢・性別判定部425が画像中の人物の年齢と性別を判定する処理をさらに行う。また、本実施の形態2においては、ステップS8において画像合成部43が参照する対応テーブルが上記実施の形態1と異なっている。   In the second embodiment, the outline of the image processing method performed when the image processing device 16 is set to the reproduction mode is the same as that of the first embodiment described above. However, in the second embodiment, when the shooting state of the person in the image is determined in step S5, the shooting state determination unit 44 is a process in which the age / sex determination unit 425 determines the age and gender of the person in the image. Do further. In the second embodiment, the correspondence table referred to by the image composition unit 43 in step S8 is different from that in the first embodiment.

図18は、対応テーブル記憶部133が記憶する対応テーブルの構成を示す図である。同図に示す対応テーブルT2は、不具合の内容(ピンぼけ、画像ブレ、黒つぶれ、白飛び、目つぶり)と人物の年齢および性別との組み合わせに基づいて再生画像に貼付すべき画像アイテムの種類および貼付領域が与えられている。対応テーブルT2では、人物の年齢が、「10歳以下」、「11〜30歳」、「31〜70歳」、「71歳以上」の4つのカテゴリーに分けられている。   FIG. 18 is a diagram illustrating a configuration of a correspondence table stored in the correspondence table storage unit 133. The correspondence table T2 shown in the figure shows the types of image items to be affixed to the reproduction image based on the combination of the content of the defect (out-of-focus, image blurring, blackout, whiteout, blinking) and the age and sex of the person. An affixing area is given. In the correspondence table T2, the age of the person is divided into four categories: “10 years old or younger”, “11-30 years old”, “31-70 years old”, and “71 years old and older”.

撮影状態判定部44の判定結果に応じた画像合成部43の処理の内容を具体的に説明する。対応テーブルT1と対応テーブルT2との比較からも明らかなように、年齢・性別判定部45が画像中の人物を「10歳以下の男性」と判定した場合、撮影状態判定部44の判定結果に応じた画像合成部43の処理は、上述した実施の形態1と同様である。   The content of the processing of the image composition unit 43 according to the determination result of the shooting state determination unit 44 will be specifically described. As is clear from the comparison between the correspondence table T1 and the correspondence table T2, when the age / gender determination unit 45 determines that the person in the image is “male under 10 years old”, the determination result of the shooting state determination unit 44 The processing of the corresponding image composition unit 43 is the same as that in the first embodiment.

以下、年齢・性別判定部45が画像中の人物を「10歳以下の女性」と判定した場合を説明する。まず、合焦判定部421が「ピンぼけあり」と判定した場合を説明する。この場合、画像合成部43は、テーブルT2を参照することにより、画像アイテムK−1、K−2およびK−3を処理対象の人物に対する貼付領域A、BおよびFにそれぞれ貼付する。なお、テーブルT2において、画像アイテムK−1の貼付領域は「A*」と記載されているが、これは画像アイテムK−1が貼付領域Aの面積よりも大きいことを意味している。   Hereinafter, a case will be described in which the age / sex determination unit 45 determines that the person in the image is “female under 10 years old”. First, a case where the in-focus determination unit 421 determines “has a blur” will be described. In this case, the image composition unit 43 attaches the image items K-1, K-2, and K-3 to the attachment regions A, B, and F for the person to be processed by referring to the table T2. In the table T2, the pasting area of the image item K-1 is described as “A *”, which means that the image item K-1 is larger than the area of the pasting area A.

図19は、合焦判定部421によって「ピンぼけあり」と判定された場合に画像合成部43が生成した合成画像の表示例を示す図である。なお、合成前の再生画像は、図5に示す再生画像201と同様であるとする。図19に示す合成画像213では、画像アイテムK−1が女性の幽霊の絵であり、画像アイテムK−2、K−3が人魂の絵である。このうち、画像アイテムK−1は、幽霊の頭部が人物307の頭部と重なるように配置される。   FIG. 19 is a diagram illustrating a display example of a composite image generated by the image composition unit 43 when the focus determination unit 421 determines “defocused”. Note that the reproduced image before synthesis is the same as the reproduced image 201 shown in FIG. In the composite image 213 shown in FIG. 19, the image item K-1 is a picture of a female ghost, and the image items K-2 and K-3 are pictures of a human soul. Among these, the image item K-1 is arranged so that the head of the ghost overlaps the head of the person 307.

次に、画像ブレ判定部422が「画像ブレあり」と判定した場合を説明する。この場合、画像合成部43は、テーブルT2を参照することにより、画像アイテムK−4、K−5およびK−6を処理対象の人物に対する貼付領域A、EおよびFにそれぞれ貼付する。なお、画像アイテムK−4は、画像アイテムK−1と同様、貼付領域Aの面積よりも大きい面積を有している(テーブルT2では「A*」と表記)。   Next, a case where the image blur determination unit 422 determines that “image blur exists” will be described. In this case, the image composition unit 43 refers to the table T2 to paste the image items K-4, K-5, and K-6 on the pasting areas A, E, and F for the person to be processed. In addition, the image item K-4 has an area larger than the area of the pasting area A (denoted as “A *” in the table T2) similarly to the image item K-1.

図20は、画像ブレ判定部422によって「画像ブレあり」と判定された場合に画像合成部43が生成した合成画像の表示例を示す図である。なお、合成前の再生画像は、図7に示す再生画像203と同様であるとする。図20に示す合成画像214では、画像アイテムK−4が携帯電話の絵であり、画像アイテムK−5が音符の絵であり、画像アイテムK−6が音波の伝播を模式的に示す絵(模様)である。このうち、画像アイテムK−4は、携帯電話のディスプレイが人物308の顔の位置にくるように配置される。   FIG. 20 is a diagram illustrating a display example of a composite image generated by the image composition unit 43 when the image blur determination unit 422 determines “image blur is present”. It is assumed that the reproduced image before synthesis is the same as the reproduced image 203 shown in FIG. In the composite image 214 shown in FIG. 20, the image item K-4 is a picture of a mobile phone, the image item K-5 is a picture of a musical note, and the image item K-6 is a picture schematically showing the propagation of sound waves ( Pattern). Among these, the image item K-4 is arranged so that the display of the mobile phone comes to the position of the face of the person 308.

次に、明暗判定部423が「黒つぶれあり」と判定した場合を説明する。この場合、画像合成部43は、テーブルT2を参照することにより、画像アイテムK−7を処理対象の人物に対する貼付領域Aに貼付する。   Next, a case where the light / dark determination unit 423 determines that “blackout is present” will be described. In this case, the image composition unit 43 refers to the table T2, and pastes the image item K-7 on the pasting area A for the person to be processed.

図21は、明暗判定部423によって「黒つぶれあり」と判定された場合に画像合成部43が生成した合成画像の表示例を示す図である。なお、合成前の再生画像は、図9に示す再生画像205と同様であるとする。図21に示す合成画像215では、画像アイテムK−7が天使の輪の絵である。この画像アイテムK−7は、人物309の頭部に配置される。   FIG. 21 is a diagram illustrating a display example of a composite image generated by the image composition unit 43 when the light / dark determination unit 423 determines “blackout is present”. It is assumed that the reproduced image before synthesis is the same as the reproduced image 205 shown in FIG. In the composite image 215 shown in FIG. 21, the image item K-7 is a picture of an angel's circle. This image item K-7 is arranged on the head of the person 309.

次に、明暗判定部423が「白飛びあり」と判定した場合を説明する。この場合、画像合成部43は、テーブルT2を参照することにより、画像アイテムK−8を処理対象の人物に対する貼付領域Aに貼付する。ただし、画像アイテムK−8は、貼付領域Aの面積よりも大きい面積を有している(テーブルT2では「A*」と表記)。   Next, a case where the light / dark determination unit 423 determines that “there is whiteout” will be described. In this case, the image composition unit 43 attaches the image item K-8 to the application region A for the person to be processed by referring to the table T2. However, the image item K-8 has an area larger than the area of the pasting region A (indicated as “A *” in the table T2).

図22は、明暗判定部423によって「白飛びあり」と判定された場合に画像合成部43が生成した合成画像の表示例を示す図である。なお、合成前の再生画像は、図11に示す再生画像207と同様であるとする。図22に示す合成画像216では、画像アイテムK−8が女性の貴族の装束の絵である。画像アイテムK−8は、貴族の装束の顔の位置が人物310の顔の位置と一致するように配置される。   FIG. 22 is a diagram illustrating a display example of a composite image generated by the image composition unit 43 when the light / dark determination unit 423 determines that “there is whiteout”. It is assumed that the reproduced image before synthesis is the same as the reproduced image 207 shown in FIG. In the composite image 216 shown in FIG. 22, the image item K-8 is a picture of a female aristocratic costume. The image item K-8 is arranged so that the position of the face of the nobility's costume matches the position of the face of the person 310.

次に、目つぶり判定部424が「目つぶりあり」と判定した場合を説明する。この場合、画像合成部43は、テーブルT2を参照することにより、画像アイテムK−9を処理対象の人物に対する貼付領域Aに貼付し、画像アイテムK−10を処理対象の人物に対する貼付領域B〜Gの6箇所にそれぞれ貼付する。   Next, a case where the blinking determination unit 424 determines “with blinking” will be described. In this case, the image composition unit 43 refers to the table T2, and pastes the image item K-9 on the pasting area A for the person to be processed, and pastes the image item K-10 on the pasting areas B to B for the person to be processed. Affix to 6 locations in G respectively.

図23は、目つぶり判定部424によって「目つぶりあり」と判定された場合に画像合成部43が生成した合成画像の表示例を示す図である。なお、合成前の再生画像は、図13に示す再生画像209と同様であるとする。図23に示す合成画像217では、画像アイテムK−9が少女マンガ風の目の絵であり、画像アイテムK−10がバラの花の絵である。画像アイテムK−9は、人物311の目の位置にくるように配置される。   FIG. 23 is a diagram illustrating a display example of a composite image generated by the image composition unit 43 when the eye blink determination unit 424 determines that “there is blinking”. Note that the reproduced image before synthesis is the same as the reproduced image 209 shown in FIG. In the composite image 217 shown in FIG. 23, the image item K-9 is a girl-manga style eye picture, and the image item K-10 is a rose flower picture. The image item K-9 is arranged so as to come to the eye position of the person 311.

年齢・性別判定部425の判定によって「10歳以下の女性」と判定された場合の合成画像213〜217には、「10歳以下の男性」と判定された場合の合成画像と全く異なる画像アイテムが貼付される。このように、本実施の形態2においては、人物の撮影状態が同じ不具合を有していても、その人物の年齢や性別に応じて合成後の画像が全く異なったものとなる。   The composite images 213 to 217 when determined to be “female under 10 years old” by the determination of the age / sex determination unit 425 include image items that are completely different from the composite image determined as “male under 10 years old”. Is affixed. As described above, in the second embodiment, even if the shooting state of the person has the same problem, the combined image is completely different depending on the age and sex of the person.

なお、図18では記載を省略しているが、人物の年齢が「11〜30歳」、「31〜71歳」、「71歳以上」である場合にも、性別ごとに異なる画像アイテムの種類および貼付領域がそれぞれ定められている。   Although not shown in FIG. 18, the types of image items that differ for each gender even when the age of the person is “11 to 30 years old”, “31 to 71 years old”, or “71 years old or older”. And an affixing area, respectively.

以上説明した本発明の実施の形態2によれば、処理対象の画像の画像信号中の画像パターンに基づいて検出した被写体の撮影状態を画像信号に基づいて判定し、被写体の撮影状態に不具合がある場合、この不具合に対応した画像アイテムをもとの画像の所定の貼付領域へ貼付するため、被写体の撮影状態に不具合がある画像に対して付加価値を生じさせることができる。したがって、上述した実施の形態1と同様、不具合を有する画像であってもその不具合を解消する補正を行うことなく有効に活用することが可能となり、撮影した画像の無駄を少なくすることができる。   According to the second embodiment of the present invention described above, the shooting state of the subject detected based on the image pattern in the image signal of the image to be processed is determined based on the image signal, and there is a problem with the shooting state of the subject. In some cases, since an image item corresponding to this defect is affixed to a predetermined affixing area of the original image, an added value can be generated for an image having a defect in the shooting state of the subject. Therefore, similarly to the first embodiment described above, even an image having a defect can be used effectively without performing correction for eliminating the defect, and the waste of the captured image can be reduced.

また、本実施の形態2によれば、画像中の人物の撮影状態を判定する際にその人物の年齢や性別の判定も行うため、被写体である人物の個人情報も反映した合成画像を生成することが可能となる。   Further, according to the second embodiment, since the age and sex of a person are also determined when determining the shooting state of the person in the image, a composite image that reflects the personal information of the person who is the subject is generated. It becomes possible.

(その他の実施の形態)
ここまで、本発明を実施するための最良の形態として、実施の形態1および2を詳述してきたが、本発明はそれらの実施の形態によって限定されるべきものではない。例えば、本発明において、画像処理装置のユーザの年齢や性別に関する情報を予め画像処理装置に入力して記憶させておき、ユーザの年齢、性別と被写体である人物の撮影状態の不具合との組み合わせに応じて画像に貼付する画像アイテムの種類および貼付領域を定めてもよい。
(Other embodiments)
Up to this point, the first and second embodiments have been described in detail as the best mode for carrying out the present invention. However, the present invention should not be limited by these embodiments. For example, in the present invention, information related to the age and sex of the user of the image processing apparatus is input and stored in the image processing apparatus in advance, and the combination of the age and sex of the user and the shooting condition of the person who is the subject is combined. Accordingly, the type of image item to be pasted on the image and the pasting area may be determined.

また、本発明において、被写体である人物の年齢・性別情報、画像処理装置のユーザの年齢・性別情報、および人物の撮影状態の不具合の組み合わせに基づいて合成画像を生成するようにしてもよい。   Further, in the present invention, a composite image may be generated based on a combination of age / sex information of a person who is a subject, age / sex information of a user of an image processing apparatus, and a defect in a shooting state of the person.

また、本発明において、画像合成部が一つの画像に対して複数の合成画像を生成し、この生成した複数の合成画像の中からユーザが所望の合成画像を選択することができるようにしてもよい。   In the present invention, the image composition unit may generate a plurality of composite images for one image, and a user can select a desired composite image from the generated composite images. Good.

また、本発明は、人物以外の被写体に対しても適用することができる。ただし、一般の被写体に対して本発明を適用する場合、目つぶり判定および年齢・性別判定の機能は不要である。   The present invention can also be applied to subjects other than people. However, when the present invention is applied to a general subject, the functions of blinking determination and age / sex determination are unnecessary.

また、本発明に係る画像処理装置は、撮像機能を有していなくてもよい。この場合、画像処理装置は、処理対象の画像を撮影するデジタルカメラ等の撮像装置とインターネットを介して画像データの送受信を行うことが可能な機能を有していればより好ましい。   The image processing apparatus according to the present invention may not have an imaging function. In this case, it is more preferable that the image processing apparatus has a function capable of transmitting and receiving image data via the Internet with an imaging apparatus such as a digital camera that captures an image to be processed.

本発明に係る画像処理プログラムは、CD−ROM、DVD−ROM、MOディスク、フレキシブルディスク等のコンピュータ読み取り可能な記録媒体に記録して広く流通させることも可能である。   The image processing program according to the present invention can be widely distributed by being recorded on a computer-readable recording medium such as a CD-ROM, DVD-ROM, MO disk, or flexible disk.

このように、本発明は、ここでは記載していない様々な実施の形態等を含みうるものであり、特許請求の範囲により特定される技術的思想を逸脱しない範囲内において種々の設計変更等を施すことが可能である。   Thus, the present invention can include various embodiments and the like not described herein, and various design changes and the like can be made without departing from the technical idea specified by the claims. It is possible to apply.

本発明の実施の形態1に係る画像処理装置の構成を模式的に示す図である。It is a figure which shows typically the structure of the image processing apparatus which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る画像処理装置が行う画像処理方法の概要を示すフローチャートである。It is a flowchart which shows the outline | summary of the image processing method which the image processing apparatus which concerns on Embodiment 1 of this invention performs. 本発明の実施の形態1に係る画像処理装置の画像合成部が参照する対応テーブルの構成を示す図である。It is a figure which shows the structure of the corresponding | compatible table which the image synthetic | combination part of the image processing apparatus which concerns on Embodiment 1 of this invention refers. 被写体である人物の画像に対する画像アイテムの貼付領域を模式的に示す図である。It is a figure which shows typically the sticking area | region of the image item with respect to the image of the person who is a subject. 被写体である人物の画像にピンぼけが発生している場合の再生画像の表示例を示す図である。It is a figure which shows the example of a display of the reproduction | regeneration image when defocusing has generate | occur | produced in the image of the person who is a subject. 被写体である人物の画像にピンぼけが発生している場合の合成画像の表示例を示す図である。It is a figure which shows the example of a display of a synthesized image when the blur has generate | occur | produced in the image of the person who is a subject. 被写体である人物の画像に画像ブレが発生している場合の再生画像の表示例を示す図である。It is a figure which shows the example of a display of the reproduction | regeneration image when the image blurring has generate | occur | produced in the image of the person who is a subject. 被写体である人物の画像に画像ブレが発生している場合の合成画像の表示例を示す図である。It is a figure which shows the example of a composite image displayed when the image blurring has generate | occur | produced in the image of the person who is a subject. 被写体である人物の画像に黒つぶれが発生している場合の再生画像の表示例を示す図である。It is a figure which shows the example of a display of the reproduction | regeneration image when the blackout has generate | occur | produced in the image of the person who is a subject. 被写体である人物の画像に黒つぶれが発生している場合の合成画像の表示例を示す図である。It is a figure which shows the example of a composite image displayed when the blackening has generate | occur | produced in the image of the person who is a to-be-photographed object. 被写体である人物の画像に白飛びが発生している場合の再生画像の表示例を示す図である。It is a figure which shows the example of a display of the reproduction | regeneration image in case the overexposure has generate | occur | produced in the image of the person who is a subject. 被写体である人物の画像に白飛びが発生している場合の合成画像の表示例を示す図である。It is a figure which shows the example of a display of a synthesized image when the overexposure has generate | occur | produced in the image of the person who is a subject. 被写体である人物が目をつぶっている場合の再生画像の表示例を示す図である。It is a figure which shows the example of a display of the reproduction | regeneration image when the person who is a subject has closed eyes. 被写体である人物が目をつぶっている場合の合成画像の表示例を示す図である。It is a figure which shows the example of a display of a synthesized image when the person who is a subject has closed eyes. 問い合わせ画像の表示例を示す図である。It is a figure which shows the example of a display of an inquiry image. 再問い合わせ画像の表示例を示す図である。It is a figure which shows the example of a display of a re-inquiry image. 本発明の実施の形態2に係る画像処理装置の構成を模式的に示す図である。It is a figure which shows typically the structure of the image processing apparatus which concerns on Embodiment 2 of this invention. 本発明の実施の形態2に係る画像処理装置の画像合成部が参照する対応テーブルの構成を示す図である。It is a figure which shows the structure of the corresponding | compatible table which the image synthetic | combination part of the image processing apparatus which concerns on Embodiment 2 of this invention refers. 被写体である人物が10歳以下の女性であり、かつその人物の画像にピンぼけが発生している場合の合成画像の表示例を示す図である。It is a figure which shows the example of a composite image displayed when the person who is a subject is a woman of 10 years old or less, and the image of the person has defocused. 被写体である人物が10歳以下の女性であり、かつその人物の画像に画像ブレが発生している場合の合成画像の表示例を示す図である。It is a figure which shows the example of a composite image displayed when the person who is a subject is a woman of 10 years old or less, and the image blurring has generate | occur | produced in the image of the person. 被写体である人物が10歳以下の女性であり、かつその人物の画像に黒つぶれが発生している場合の合成画像の表示例を示す図である。It is a figure which shows the example of a composite image displayed when the person who is a subject is a woman of 10 years old or less, and the blackout has generate | occur | produced in the image of the person. 被写体である人物が10歳以下の女性であり、かつその人物の画像に白飛びが発生している場合の合成画像の表示例を示す図である。It is a figure which shows the example of a composite image displayed when the person who is a subject is a woman of 10 years old or less, and the overexposure has occurred in the image of the person. 被写体である人物が10歳以下の女性であり、かつその人物が目をつぶっている場合の合成画像の表示例を示す図である。It is a figure which shows the example of a display of a synthesized image when the person who is a subject is a woman of 10 years old or less and the person has closed eyes.

符号の説明Explanation of symbols

1、16 画像処理装置
2 撮像部
3 センサ部
4、17 画像処理部
5 表示部
6 表示制御部
7 圧縮伸張部
8 記録媒体インターフェース
9 入力部
10 音声出力部
11 補助光投射部
12 制御部
13 記憶部
14 レンズ駆動部
15 絞り駆動部
21 撮影レンズ
22 絞り
23 撮像素子
24 アナログ信号処理部
25 A/D変換部
41 被写体検出部
42、44 撮影状態判定部
43 画像合成部
45 年齢・性別判定部
100 記録媒体
121 時計
131 プログラム記憶部
132 被写体検出情報記憶部
133 対応テーブル記憶部
134 画像アイテム記憶部
201、203、205、207、209 再生画像
202、204、206、208、210、213〜217 合成画像
211 問い合わせ画像
212 再問い合わせ画像
301〜311 人物
421 合焦判定部
422 画像ブレ判定部
423 明暗判定部
424 目つぶり判定部
425 年齢・性別判定部
A〜G 貼付領域
I−1〜I−11、K−1〜K−10 画像アイテム
DESCRIPTION OF SYMBOLS 1,16 Image processing apparatus 2 Imaging part 3 Sensor part 4,17 Image processing part 5 Display part 6 Display control part 7 Compression / decompression part 8 Recording medium interface 9 Input part 10 Audio | voice output part 11 Auxiliary light projection part 12 Control part 13 Memory | storage Unit 14 lens driving unit 15 aperture driving unit 21 photographing lens 22 aperture 23 imaging element 24 analog signal processing unit 25 A / D conversion unit 41 subject detection unit 42, 44 photographing state determination unit 43 image composition unit 45 age / gender determination unit 100 Recording medium 121 Clock 131 Program storage unit 132 Subject detection information storage unit 133 Corresponding table storage unit 134 Image item storage unit 201, 203, 205, 207, 209 Reproduced image 202, 204, 206, 208, 210, 213-217 Composite image 211 Inquiry image 212 Re-inquiry image 3 1-31 Person 421 In-focus determination unit 422 Image blur determination unit 423 Light / dark determination unit 424 Eye blink determination unit 425 Age / gender determination unit A to G Affixed areas I-1 to I-11, K-1 to K-10 Images item

Claims (7)

処理対象の画像に対応する画像信号中の画像パターンに基づいて前記画像に含まれる被写体を検出する被写体検出部と、
前記被写体検出部が検出した被写体の撮影状態を前記画像信号に基づいて判定する撮影状態判定部と、
前記撮影状態判定部が判定した前記被写体の撮影状態に不具合がある場合、この不具合に対応し、絵、模様、文字、数字および記号の少なくともいずれか一つからなる画像アイテムを前記画像の所定の貼付領域へ貼付する画像合成部と、
を備えたことを特徴とする画像処理装置。
A subject detection unit that detects a subject included in the image based on an image pattern in an image signal corresponding to an image to be processed;
A shooting state determination unit that determines a shooting state of the subject detected by the subject detection unit based on the image signal;
When there is a defect in the shooting state of the subject determined by the shooting state determination unit, an image item consisting of at least one of a picture, a pattern, a letter, a number, and a symbol is dealt with in response to the defect. An image composition unit to be pasted to the pasting area;
An image processing apparatus comprising:
前記画像アイテムは、前記被写体の撮影状態の不具合を反映する内容を有することを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image item has contents reflecting a defect in a shooting state of the subject. 複数の前記画像アイテムを記憶するとともに、前記撮影状態判定部の判定結果と前記画像に貼付する前記画像アイテムの種類および貼付領域との対応関係を記憶する記憶部をさらに備えたことを特徴とする請求項1または2記載の画像処理装置。   In addition to storing a plurality of image items, the image processing apparatus further includes a storage unit that stores a correspondence relationship between a determination result of the shooting state determination unit, a type of the image item to be pasted on the image, and a pasting region. The image processing apparatus according to claim 1. 前記被写体検出部は人物の顔を検出可能であり、
前記撮影状態判定部は、
前記人物に焦点が合っているか否かを判定する合焦判定部と、
前記人物の画像に画像ブレが発生しているか否かを判定する画像ブレ判定部と、
前記人物の画像に黒つぶれまたは白飛びが発生しているか否かを判定する明暗判定部と、
前記人物が目をつぶっているか否かを判定する目つぶり判定部と、
を有することを特徴とする請求項1〜3のいずれか一項記載の画像処理装置。
The subject detection unit is capable of detecting a human face,
The shooting state determination unit
A focus determination unit that determines whether or not the person is in focus;
An image blur determination unit that determines whether image blur has occurred in the image of the person;
A light / dark determination unit that determines whether blackout or whiteout occurs in the image of the person;
A blinking determination unit for determining whether or not the person has closed eyes;
The image processing apparatus according to claim 1, further comprising:
前記撮影状態判定部は、
前記人物の年齢および性別を判定する年齢・性別判定部をさらに有することを特徴とする請求項4記載の画像処理装置。
The shooting state determination unit
The image processing apparatus according to claim 4, further comprising an age / gender determination unit that determines the age and sex of the person.
所定の視野領域内の被写体を撮像して画像信号を生成する撮像部と、
前記撮像部が撮像した画像をもとに前記画像合成部が合成した画像を表示する表示部と、
をさらに備えたことを特徴とする請求項1〜5のいずれか一項記載の画像処理装置。
An imaging unit that captures an image of a subject within a predetermined visual field and generates an image signal;
A display unit that displays an image synthesized by the image synthesis unit based on an image captured by the imaging unit;
The image processing apparatus according to claim 1, further comprising:
各々が絵、模様、文字、数字および記号の少なくともいずれか一つからなる複数の画像アイテムを記憶する記憶部を備えた画像処理装置に、
処理対象の画像に対応する画像信号中の画像パターンに基づいて前記画像に含まれる被写体を検出する被写体検出ステップ、
前記被写体検出ステップで検出した被写体の撮影状態を前記画像信号に基づいて判定する撮影状態判定ステップ、
前記撮影状態判定ステップで判定した前記被写体の撮影状態に不具合がある場合、この不具合に対応した前記画像アイテムを前記記憶部から読み出して前記画像の所定の貼付領域へ貼付する画像合成ステップ、
を実行させることを特徴とする画像処理プログラム。
An image processing apparatus including a storage unit that stores a plurality of image items, each of which includes at least one of a picture, a pattern, letters, numbers, and symbols.
A subject detection step of detecting a subject included in the image based on an image pattern in an image signal corresponding to an image to be processed;
A shooting state determination step of determining a shooting state of the subject detected in the subject detection step based on the image signal;
When there is a problem in the shooting state of the subject determined in the shooting state determination step, an image composition step of reading the image item corresponding to the defect from the storage unit and pasting it on a predetermined pasting area of the image,
An image processing program for executing
JP2008169131A 2008-06-27 2008-06-27 Image processing apparatus and image processing program Expired - Fee Related JP5108654B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008169131A JP5108654B2 (en) 2008-06-27 2008-06-27 Image processing apparatus and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008169131A JP5108654B2 (en) 2008-06-27 2008-06-27 Image processing apparatus and image processing program

Publications (2)

Publication Number Publication Date
JP2010011189A true JP2010011189A (en) 2010-01-14
JP5108654B2 JP5108654B2 (en) 2012-12-26

Family

ID=41591121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008169131A Expired - Fee Related JP5108654B2 (en) 2008-06-27 2008-06-27 Image processing apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP5108654B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006217472A (en) * 2005-02-07 2006-08-17 Seiko Epson Corp Image preparation device
JP2006254229A (en) * 2005-03-11 2006-09-21 Fuji Photo Film Co Ltd Imaging apparatus, imaging method and imaging program
JP2007049631A (en) * 2005-08-12 2007-02-22 Fujifilm Holdings Corp Imaging apparatus
JP2008022300A (en) * 2006-07-13 2008-01-31 Sony Corp Image pickup device, control method therefor, and computer program
JP2008131094A (en) * 2006-11-16 2008-06-05 Fujifilm Corp Imaging apparatus and method
JP2008262447A (en) * 2007-04-13 2008-10-30 Fujifilm Corp Image processor, photographing system, blinking state detection method, blinking state detection program and storage medium recording same program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006217472A (en) * 2005-02-07 2006-08-17 Seiko Epson Corp Image preparation device
JP2006254229A (en) * 2005-03-11 2006-09-21 Fuji Photo Film Co Ltd Imaging apparatus, imaging method and imaging program
JP2007049631A (en) * 2005-08-12 2007-02-22 Fujifilm Holdings Corp Imaging apparatus
JP2008022300A (en) * 2006-07-13 2008-01-31 Sony Corp Image pickup device, control method therefor, and computer program
JP2008131094A (en) * 2006-11-16 2008-06-05 Fujifilm Corp Imaging apparatus and method
JP2008262447A (en) * 2007-04-13 2008-10-30 Fujifilm Corp Image processor, photographing system, blinking state detection method, blinking state detection program and storage medium recording same program

Also Published As

Publication number Publication date
JP5108654B2 (en) 2012-12-26

Similar Documents

Publication Publication Date Title
JP4431547B2 (en) Image display control device, control method therefor, and control program therefor
US8712207B2 (en) Digital photographing apparatus, method of controlling the same, and recording medium for the method
WO2007129438A1 (en) Electronic camera
JP2010147808A (en) Imaging apparatus and image processing method in same
JP2009141516A (en) Image display device, camera, image display method, program, image display system
US9253406B2 (en) Image capture apparatus that can display review image, image capture method, and storage medium
KR20120044030A (en) Digital photographing apparatus and control method thereof
JP4891674B2 (en) camera
JP2009081635A (en) Digital camera, and individual information protecting method of digital camera
JP5120716B2 (en) Imaging apparatus, imaging control method, and program
JP2008245093A (en) Digital camera, and control method and control program of digital camera
JP2014049863A (en) Image processing device, control method therefor, control program, and imaging device
JP2019169985A (en) Image processing apparatus
JP5108654B2 (en) Image processing apparatus and image processing program
JP2007028331A (en) Image generating apparatus and program thereof
JP4865631B2 (en) Imaging device
JP2010171849A (en) Image reproducing apparatus and electronic camera
JP4295540B2 (en) Audio recording method and apparatus, digital camera, and image reproduction method and apparatus
JP6357922B2 (en) Image processing apparatus, image processing method, and program
JP2014103644A (en) Imaging apparatus, image processing apparatus and color correcting method
JP6610713B2 (en) Image processing apparatus, image processing method, and program
JP2011197995A (en) Image processor and image processing method
JP2009027462A (en) Imaging apparatus, imaging method and imaging program
JP2006253761A (en) Imaging device and program
JP2010098536A (en) Imaging apparatus and imaging method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110516

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120313

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120508

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120626

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120830

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20120907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120925

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121005

R150 Certificate of patent or registration of utility model

Ref document number: 5108654

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151012

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees