JP2005086516A - Imaging device, printer, image processor and program - Google Patents

Imaging device, printer, image processor and program Download PDF

Info

Publication number
JP2005086516A
JP2005086516A JP2003316938A JP2003316938A JP2005086516A JP 2005086516 A JP2005086516 A JP 2005086516A JP 2003316938 A JP2003316938 A JP 2003316938A JP 2003316938 A JP2003316938 A JP 2003316938A JP 2005086516 A JP2005086516 A JP 2005086516A
Authority
JP
Japan
Prior art keywords
image data
feature point
face
point information
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003316938A
Other languages
Japanese (ja)
Other versions
JP2005086516A5 (en
Inventor
Eiichiro Ikeda
栄一郎 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003316938A priority Critical patent/JP2005086516A/en
Publication of JP2005086516A publication Critical patent/JP2005086516A/en
Publication of JP2005086516A5 publication Critical patent/JP2005086516A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To automatically select only image data including a specific person and to classify and duplicate the image data without displaying the image data as an image on a display device. <P>SOLUTION: A face recognizing means is used to detect a face included in the image data, feature information that can determine an individual is prepared from the detected face, and the feature information is attached to the image data so as to be stored. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、光電変換素子を用いた撮像装置で得られた画像データの処理に関するものである。   The present invention relates to processing of image data obtained by an imaging device using a photoelectric conversion element.

従来、デジタルカメラなどの撮像装置をプリンタ等の印刷装置に接続して、撮像した被写体の画像データを印刷するシステム(以下、ダイレクトプリントシステムという)がある。このシステムで特定の人物が写っている画像データのみを印刷する場合は、デジタルカメラやプリンタに備えられた液晶モニタなどの表示デバイスに画像データを出力して画像を一覧表示させるか、あるいは、操作部材によって画像を順に切り換えるなどして、使用者が各々の画像を確認して印刷対象となる画像データを選択している(特許文献1)。   2. Description of the Related Art Conventionally, there is a system (hereinafter referred to as a direct print system) that connects an imaging device such as a digital camera to a printing device such as a printer and prints image data of a captured subject. If you want to print only image data that shows a specific person in this system, you can either output the image data to a display device such as a liquid crystal monitor equipped with a digital camera or printer to display a list of images, or The user confirms each image by sequentially switching the image depending on the member and selects image data to be printed (Patent Document 1).

また、デジタルカメラやパーソナルコンピュータ(以下、PC)等には記憶した画像データを順次切り換えて画像として表示するスライドショー機能を備えているものがある。この機能では、画像を一覧表示させるか、あるいは、操作部材によって画像を順に切り換えるなどして使用者が対象となる複数の画像データを選択する(特許文献2)。   Some digital cameras, personal computers (hereinafter referred to as PCs) and the like have a slide show function for sequentially switching stored image data and displaying them as images. With this function, the user selects a plurality of image data as a target by displaying a list of images or sequentially switching images with an operation member (Patent Document 2).

他にも、デジタルカメラの撮像素子の出力値をデジタル化したRAW形式の画像データをPC等の情報処理装置でJPEG形式等の画像にデータに圧縮して変換する(以下、現像処理という)場合や、デジタルカメラやPCで画像データをフォルダに分けて分類する場合でも、画像を一覧表示させるか、あるいは操作部材によって画像を順に切り換えるなどして、使用者が対象となる画像データを選択している。
特開平11−282446号公報 特開平11−331739号公報
In addition, when RAW image data obtained by digitizing the output value of an image sensor of a digital camera is compressed and converted into data in JPEG format by an information processing device such as a PC (hereinafter referred to as development processing) Even when image data is divided into folders and classified by a digital camera or PC, the user can select the target image data by displaying a list of images or switching the images in order using an operation member. Yes.
Japanese Patent Laid-Open No. 11-282446 JP 11-331739 A

上記の如く、使用者による画像データの選択が必要となる場合として、例えば複数人で旅行をした際に撮像された画像を配布もしくは印刷する場合が考えられる。複数人で旅行をした場合に撮像される画像には、旅行をした当人達だけが写っているもの、当人達と別の人物も写っているもの、当人達とは別の人物のみが写っているもの、あるいは、風景だけが写っているものと様々なシチュエーションのものが含まれることが考えられる。これらの画像が含まれる画像データの中から、当人達が写っている画像データのみを印刷したり、写っている人物ごとにフォルダに分けたり、携帯可能な記憶媒体に保存したり、あるいは転送したりする際に、使用者が表示デバイスに表示された画像を確認しながら対象となる画像データを選択する方法では、画像データの総数が多い場合は、使用者が選択作業に費やす時間が増加して操作が煩雑になってしまう。   As described above, as a case where selection of image data by the user is necessary, for example, a case where an image captured when traveling by a plurality of people is distributed or printed can be considered. Images taken when traveling with multiple people include only those who have traveled, those that are different from those who have traveled, and only those who are different from those who have traveled. It is conceivable that there are things that only exist, or that only the scenery is reflected, and those in various situations. From the image data that contains these images, print only the image data of the person, divide it into folders for each person, save it to a portable storage medium, or transfer it. When the user selects the target image data while checking the image displayed on the display device, the time that the user spends on the selection work increases if the total number of image data is large. The operation becomes complicated.

さらに、ダイレクトプリントシステムの場合は、同一の画像データを複数印刷したいのであれば、使用者が印刷枚数を指定するという操作が加わる。   Further, in the case of the direct print system, if a plurality of the same image data is to be printed, an operation for the user to designate the number of prints is added.

また、同一の画像データであっても液表モニタで表示された場合とプリンタで印刷された場合とで、出力された画像の色みが異なることがある。これは実際に印刷してみないとわからない場合が多い。   Further, even when the same image data is displayed on the liquid surface monitor, the color of the output image may be different depending on whether it is printed on the printer. This is often not known unless you actually print.

また、RAW形式の画像データをPC等の情報処理装置で現像する際に、意図した人物が最適な色合いや明るさになるよう画像処理を施したい場合は、現像に用いるパラメータを使用者が設定する必要があった。   Also, when developing image data in RAW format with an information processing device such as a PC, if the user wants to perform image processing so that the intended person has the optimum color and brightness, the user sets the parameters used for development. There was a need to do.

本発明はこのような問題点に鑑みてなされたものであり、画像データを信号処理する際に、顔認識手段を用いることによって、画像に含まれる顔の検出結果や、検出された顔に関する各種情報を作成し、信号処理された画像データに付与して記憶する機能を有する撮像装置を提供することを主な目的とする。   The present invention has been made in view of such problems, and by using face recognition means when signal processing image data, the detection results of faces included in images and various types of detected faces are disclosed. It is a main object to provide an imaging apparatus having a function of creating information and adding and storing it on signal-processed image data.

また、この画像データに付与された顔に関する各種情報を基づいて、画像データの信号処理を行う撮像装置、印刷装置、および、画像処理装置を提供することを目的とする。   It is another object of the present invention to provide an imaging device, a printing device, and an image processing device that perform signal processing of image data based on various types of information related to a face added to the image data.

また、これらの処理を実行させるためのプログラムを提供することを目的とする。   Moreover, it aims at providing the program for performing these processes.

上記目的を達成するために、本願請求項1に記載の発明は、入射した光を電気信号に変換する撮像素子の出力をデジタル値に変換して画像データを得る撮像装置において、画像データに含まれる人物の顔を特定するための特徴点情報を抽出し、特徴点情報を付随させて画像データを記憶することを特徴とする。   In order to achieve the above object, the invention described in claim 1 of the present application includes image data in an image pickup apparatus that obtains image data by converting the output of an image pickup element that converts incident light into an electrical signal into a digital value. Feature point information for identifying a person's face to be extracted, and image data is stored with the feature point information.

同様に上記目的を達成するために、本願請求項2に記載の発明は、入射した光を電気信号に変換する撮像素子の出力をデジタル値に変換して画像データを得る撮像装置において、記憶手段に記憶された画像データを読み出し、画像データに含まれる人物の顔を特定するための特徴点情報を抽出し、特徴点情報を前記画像データに付随させることを特徴とする。   Similarly, in order to achieve the above-mentioned object, the invention according to claim 2 of the present application provides a storage means in an imaging apparatus that obtains image data by converting an output of an imaging device that converts incident light into an electrical signal into a digital value. Is read out, feature point information for specifying a human face included in the image data is extracted, and feature point information is attached to the image data.

同様に上記目的を達成するために、本願請求項16に記載の発明は、外部から転送された画像データを印刷する印刷装置において、予め個人別に設けられた比較情報を記憶しており、外部から転送された画像データに含まれる人物の顔を特定するための特徴点情報を抽出し、特徴点情報を付随させて画像データを記憶するとともに、複数の画像データの中から、人物別に設定された比較情報を用いて、同一人物が含まれると判断された画像データのみを選択し、選択された画像データを印刷することを特徴とする。   Similarly, in order to achieve the above object, the invention according to claim 16 of the present invention stores comparison information provided for each individual in advance in a printing apparatus for printing image data transferred from the outside. Feature point information for identifying a person's face included in the transferred image data is extracted, and the image data is stored with the feature point information attached, and a plurality of image data is set for each person. Only the image data determined to contain the same person is selected using the comparison information, and the selected image data is printed.

同様に上記目的を達成するために、本願請求項17に記載の発明は、外部から転送された画像データを印刷する印刷装置において、予め個人別に設けられた比較情報を記憶しており、外部から転送された画像データに含まれる人物の顔を特定するための特徴点情報を抽出し、特徴点情報を付随させて画像データを記憶するとともに、特徴点情報を用いて人物の顔がある顔領域を決定し、顔領域の露出値が適正となるよう画像データに処理を施して印刷することを特徴とする。   Similarly, in order to achieve the above object, the invention described in claim 17 of the present invention stores comparison information provided in advance for each individual in a printing apparatus for printing image data transferred from the outside. Extracts feature point information for identifying a person's face included in the transferred image data, stores the image data with the feature point information attached, and uses the feature point information to find a face area with a person's face The image data is processed and printed so that the exposure value of the face area is appropriate.

同様に上記目的を達成するために、本願請求項18に記載の発明は、上記構成の撮像装置にて得られた画像データを圧縮する画像処理装置であって、複数の画像データの中から、付随された特徴点情報が所定の条件を満たしている画像データを選択して圧縮することを特徴とする。   Similarly, in order to achieve the above object, an invention according to claim 18 of the present application is an image processing apparatus that compresses image data obtained by the imaging apparatus having the above-described configuration. Image data whose attached feature point information satisfies a predetermined condition is selected and compressed.

同様に上記目的を達成するために、本願請求項21に記載の発明は、蒸気構成の撮像装置にて得られた画像データを圧縮する画像処理装置であって、画像データに付随された特徴点情報を用いて人物の顔がある顔領域を決定し、顔領域の露出値が適正となるよう画像データに処理を施してから圧縮することを特徴とする。   Similarly, in order to achieve the above object, an invention according to claim 21 of the present application is an image processing apparatus for compressing image data obtained by an imaging apparatus having a vapor structure, and includes a feature point attached to the image data. A face area where a person's face is located is determined using information, and the image data is processed and compressed so that the exposure value of the face area is appropriate.

同様に上記目的を達成するために、本願請求項25に記載の発明は、記憶手段から画像データを読み出させ、読み出させた画像データに含まれる人物の顔を特定するための特徴点情報を抽出させ、特徴点情報を付随させて前記画像データを記憶させることを特徴とするプログラムである。   Similarly, in order to achieve the above-mentioned object, the invention according to claim 25 of the present application reads out the image data from the storage means and specifies the feature point information for specifying the face of the person included in the read-out image data. Is extracted, and the image data is stored with the feature point information attached thereto.

本発明によれば、画像データを表示デバイスで画像として表示せずとも、その画像に含まれる個人の特定や、人物の表情等を判別することが可能となる。   According to the present invention, it is possible to identify an individual included in the image, determine a person's facial expression, and the like without displaying the image data as an image on a display device.

また、画像データを表示デバイスで画像として表示せずとも、特定の人物が含まれている画像データのみを自動的に選択したり、特定の人物の顔が最適な輝度あるいは色表現となるように画像データを自動的に画像処理したりすることが可能となる。   In addition, without displaying image data as an image on a display device, only image data including a specific person is automatically selected, or a specific person's face is displayed with optimal brightness or color expression. Image data can be automatically processed.

さらに、画像データを表示デバイスで画像として表示せずとも、画像データの分類や複製を行うことも可能になる。   Further, the image data can be classified and duplicated without displaying the image data as an image on the display device.

これらの作用により、使用者の操作が簡便になるだけでなく、処理が自動化されるために時間の短縮にもつながる。   These actions not only simplify the operation of the user, but also lead to a reduction in time because the processing is automated.

以下、図面を参照しながら、本発明の実施例について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は本実施例の撮像装置であるデジタルカメラの構成を簡易に示したブロック図である。   FIG. 1 is a block diagram simply showing the configuration of a digital camera which is an image pickup apparatus of the present embodiment.

11は撮像素子13に被写体像を結像するための撮像レンズであり、12は絞りである。13はCCD等の、入射した光を電気信号に変換する撮像素子である。14はA/D変換部であり、撮像素子13の出力信号をデジタル値に変換して画像データを得る。15はA/D変換部から出力された画像データにガンマ補正等の処理を施す画像信号処理部である。16は画像信号処理部15から出力された画像データを圧縮する圧縮処理部である。17は圧縮処理部16より出力される画像データを参照し、画像に人物の顔が移っているか否かを検出し、検出された顔に関する情報を作成する顔検出処理部である。この顔検出処理部17は画像信号処理15に含まれる構成であってもかまわない。18は圧縮処理部16で得られた画像データと顔検出処理部17で得られた特徴点情報を一時的に保存するメモリである。特徴点情報については後述する。19はメモリ18内の特徴点情報と画像データが記憶される記憶媒体であり、撮像装置に固定されてあっても着脱可能であっても構わない。20は撮像素子13及びA/D変換部14を駆動する駆動部である。21は撮像素子13に対する入射光量を調節する絞り羽根を制御して駆動する絞り制御部である。22は撮像レンズ22を駆動して焦点距離を調節するレンズ制御部である。23は撮像開始を指示するレリーズスイッチである。24はデジタルカメラ全体の動作制御を司るシステム制御部である。   Reference numeral 11 denotes an imaging lens for forming a subject image on the imaging element 13, and 12 denotes a stop. Reference numeral 13 denotes an image sensor such as a CCD that converts incident light into an electrical signal. An A / D converter 14 converts the output signal of the image sensor 13 into a digital value to obtain image data. An image signal processing unit 15 performs processing such as gamma correction on the image data output from the A / D conversion unit. A compression processing unit 16 compresses the image data output from the image signal processing unit 15. Reference numeral 17 denotes a face detection processing unit that refers to the image data output from the compression processing unit 16 to detect whether or not a person's face has moved to the image, and to create information about the detected face. The face detection processing unit 17 may be configured to be included in the image signal processing 15. A memory 18 temporarily stores the image data obtained by the compression processing unit 16 and the feature point information obtained by the face detection processing unit 17. The feature point information will be described later. Reference numeral 19 denotes a storage medium for storing feature point information and image data in the memory 18, which may be fixed to the image pickup apparatus or detachable. Reference numeral 20 denotes a drive unit that drives the image sensor 13 and the A / D conversion unit 14. Reference numeral 21 denotes an aperture control unit that controls and drives aperture blades that adjust the amount of light incident on the image sensor 13. A lens control unit 22 drives the imaging lens 22 to adjust the focal length. A release switch 23 instructs the start of imaging. Reference numeral 24 denotes a system control unit that controls operation of the entire digital camera.

システム制御部24は、例えば、レリーズスイッチ23の操作に応じた制御、焦点距離の調節や露光量の調節、及びメモリ18や記憶媒体19へのデータの書き込み制御及び読み出し制御を行う。このシステム制御部24が所定のプログラムを読み出して実行することで、本実施例における機能を実行する。   The system control unit 24 performs, for example, control according to the operation of the release switch 23, adjustment of the focal length and exposure amount, and control of writing and reading data to and from the memory 18 and the storage medium 19. The system control unit 24 reads out and executes a predetermined program, thereby executing functions in the present embodiment.

顔検出処理部17は、例えば、特開2002−251380号公報に記載されたような顔検出機能を有している。   The face detection processing unit 17 has a face detection function as described in JP-A-2002-251380, for example.

まず、画像データの中から輝度情報を用いてエッジを抽出して両目や口といった顔を構成する器官と思われる形状を検出し、それらを包含する周囲の輪郭線を抽出し、顔領域を決定する。   First, extract the edges from the image data using luminance information, detect shapes that are thought to be organs that make up the face, such as both eyes and mouth, extract the surrounding contour lines that contain them, and determine the face area To do.

決定された顔領域から、輝度情報を用いて更に特徴となる点(以下、特徴点という)を細かく検出する。特徴点からは、両目や鼻などの顔を構成する器官や顔の輪郭などの更に詳細な形状や、座標が求められる。これにより、例えば両目の間隔や、鼻、口、輪郭の形状や、その配置状態といった個人を特定するために有効な情報を得ることができる。個人の特徴点情報を予めデジタルカメラに記憶させておけば、撮像によって得られた画像データが、その個人と同一人物であるか否かを判定することができる。なお、顔領域の形状や座標の情報に加えて、色情報(例えば、瞳や肌の色)を用いることで、より正確に個人を認識することが可能になる。また、画像データに含まれている顔が斜め向きであっても対応できるよう、複数の顔の向きに対応した特徴点情報が予め記憶されている。   From the determined face area, points that become further features (hereinafter referred to as feature points) are detected in detail using luminance information. From the feature points, more detailed shapes and coordinates such as organs constituting the face such as both eyes and nose and the outline of the face are obtained. Thereby, for example, it is possible to obtain effective information for specifying an individual such as the distance between both eyes, the shape of the nose, the mouth, and the contour, and the arrangement state thereof. If individual feature point information is stored in the digital camera in advance, it can be determined whether the image data obtained by imaging is the same person as the individual. Note that it is possible to recognize an individual more accurately by using color information (for example, the color of a pupil or skin) in addition to information on the shape and coordinates of a face region. Further, feature point information corresponding to a plurality of face orientations is stored in advance so that the face included in the image data can be dealt with even when the face is inclined.

また、検出された特徴点情報と予め撮像装置に記憶されている様々な比較用の特徴点情報とを比べて、被写体の具体的な表情(笑っているか否か、目は開いているか否か)を判定することもできる。判定精度が高まれば、性別やおおよその年齢を判定することも可能である。   In addition, the detected feature point information is compared with various comparison feature point information stored in advance in the imaging device, and a specific facial expression of the subject (whether laughing or eyes are open) ) Can also be determined. If the determination accuracy increases, it is possible to determine the gender and approximate age.

ただし、詳細な判定を行うためには、比較基準となるデータを予め揃えておく必要がある。同一人物の顔検出を行う度に検出結果を蓄積することで、比較基準となるデータの精度を高めていくことも可能である。   However, in order to make a detailed determination, it is necessary to prepare data as a comparison reference in advance. By accumulating detection results each time face detection of the same person is performed, it is possible to increase the accuracy of data serving as a comparison reference.

なお、この顔検出機能は撮像素子の出力をデジタル化しただけのRAW形式の画像データであっても、補正等の処理を加えて圧縮したJPEG形式の画像データであっても適用可能である。被写体の形状を判定できる画像データであればかまわない。   Note that this face detection function can be applied to RAW format image data in which the output of the image sensor is simply digitized, or JPEG format image data that has been compressed by performing processing such as correction. Any image data that can determine the shape of the subject may be used.

次に本実施例におけるデジタルカメラのレリーズスイッチが押されてから画像データが記憶されるまでのフローチャートを、図2を用いて説明する。   Next, a flowchart from when the release switch of the digital camera in this embodiment is pressed until image data is stored will be described with reference to FIG.

使用者がレリーズスイッチ23を操作すると、撮像装置がこれを検知し撮像動作を開始する(ステップ101)。   When the user operates the release switch 23, the imaging device detects this and starts an imaging operation (step 101).

撮像レンズ11及び絞り12を通過した被写体からの光束を受光した撮像素子の出力は、A/D変換部14でデジタル信号の画像データ(RAW形式の画像データ)に変換される(ステップ102)。   The output of the image sensor that has received the light flux from the subject that has passed through the imaging lens 11 and the aperture 12 is converted into image data (RAW format image data) of a digital signal by the A / D converter 14 (step 102).

画像信号処理部15は、A/D変換部14の出力データに黒引き処理、ホワイトバランスゲイン値演算、アパーチャ補正等を施して輝度信号Yを作成し、同時に、色補間やマトリクス変換等を施して色差信号U,Vを作成し、YUV形式の信号を形成する(ステップ103)。   The image signal processing unit 15 performs a blackening process, white balance gain value calculation, aperture correction, and the like on the output data of the A / D conversion unit 14 to create a luminance signal Y, and simultaneously performs color interpolation, matrix conversion, and the like. Thus, the color difference signals U and V are created to form a YUV format signal (step 103).

形成されたYUV形式の画像データは圧縮処理部16に出力され、画像圧縮のフォーマットの一つであるJPEG形式の画像データを生成し、メモリ18に記憶する(ステップ104)。圧縮処理せずにRAW形式のままメモリ18に記憶してもかまわない。   The formed YUV image data is output to the compression processing unit 16 to generate JPEG image data, which is one of the image compression formats, and stores it in the memory 18 (step 104). The data may be stored in the memory 18 in the RAW format without being compressed.

また、YUV形式の画像データは顔検出処理部17で参照され、上述した顔検出機能によって画像中に存在する顔を全て検出する(ステップ105)。   Further, the image data in the YUV format is referred to by the face detection processing unit 17, and all the faces existing in the image are detected by the face detection function described above (step 105).

顔が検出されなかった場合は、その旨を示す情報をメモリ18に記憶する(ステップ111)。   If no face is detected, information indicating that fact is stored in the memory 18 (step 111).

顔が検出された場合は特徴点の検出処理に進む(ステップ106)。   If a face is detected, the process proceeds to feature point detection processing (step 106).

顔であると判定された領域の出力は、顔検出処理部17内の特徴点検出ブロックに送られ、特徴点を検出し、これら特徴点の配置状態から、例えばそれぞれの器官の形状や、両目の間隔、鼻や口の形状などを求めメモリ18に記憶する(ステップ107)。   The output of the area determined to be a face is sent to the feature point detection block in the face detection processing unit 17 to detect the feature points, and from the arrangement state of these feature points, for example, the shape of each organ, both eyes And the like and the shape of the nose and mouth are stored in the memory 18 (step 107).

デジタルカメラには、予め登録された個人の特徴点に関する情報と、それに付随する付加情報とが記憶されており、今回検出された特徴点と比較を行う(ステップ108)。   The digital camera stores pre-registered information on individual feature points and additional information associated therewith, and compares it with the feature points detected this time (step 108).

比較した結果、特徴点の情報が近似(あるいは一致)しているのであれば、予めデジタルカメラに記憶されている人物別の付加情報を、メモリ18に記憶する(ステップ109)。この付加情報は、顔の特徴点からは検出できない詳細な情報、例えば氏名や年齢、瞳の色等を示す情報である。瞳の色は顔検出時に画像データから得ることも可能であるが、赤目現象等によって本来の瞳とは異なる色の画像データが得られる場合があるため、付加情報として用意しておくことが好ましい。   As a result of the comparison, if the feature point information is approximated (or matched), additional information for each person stored in advance in the digital camera is stored in the memory 18 (step 109). This additional information is detailed information that cannot be detected from facial feature points, such as information indicating name, age, pupil color, and the like. The color of the pupil can be obtained from the image data at the time of face detection. However, since image data having a color different from that of the original pupil may be obtained due to a red eye phenomenon or the like, it is preferable to prepare it as additional information. .

さらに画像データの特徴点情報は、顔検出処理部17内の表情認識ブロックに送られ、特徴点情報から笑顔であるか否か、両目とも開いているか否か等の表情や、顔の向きを判断し、その結果をメモリ18に記憶する(ステップ110)。   Further, the feature point information of the image data is sent to the expression recognition block in the face detection processing unit 17, and the feature point information is used to determine the expression such as whether the face is smiling or whether both eyes are open, and the orientation of the face. Judgment is made and the result is stored in the memory 18 (step 110).

メモリ18に記憶された特徴点情報、付加情報、および、表情に関する情報を用いてJPEG形式に変換された画像データのヘッダ情報を作成し(ステップ111)、JPEG形式等の画像データにヘッダ情報を付随させて記憶媒体19に記憶させる(ステップ112)。なお、画像でデータに人物が含まれておらず人物が抽出できないときなどは、その旨をヘッダ情報をして作成する。   The header information of the image data converted into the JPEG format is created using the feature point information, the additional information, and the facial expression information stored in the memory 18 (step 111), and the header information is added to the image data in the JPEG format or the like. The data is attached and stored in the storage medium 19 (step 112). In addition, when a person cannot be extracted because the person is not included in the data in the image, the fact is created by using header information to that effect.

なお、上記の付加情報や、表情認識ブロックで得られた情報は必ずしも必要ではない。画像データの特徴点情報があれば、個人を特定することは可能である。   Note that the additional information and information obtained by the facial expression recognition block are not necessarily required. If there is feature point information of image data, it is possible to identify an individual.

また、上記のフローチャートではYUV形式の画像データから特徴点の抽出を行ったが、撮像素子の出力をデジタル化しただけのRAW形式の画像データに対しても適用できることは上述した通りである。   In the above flowchart, the feature points are extracted from the YUV format image data. However, as described above, the feature points can also be applied to the RAW format image data obtained by digitizing the output of the image sensor.

ここで、個人の判別の基準となる特徴点情報や付加情報を登録する方法について説明する。まず、判別の基準となる特徴点情報や付加情報を記憶させておきたい人物の画像データを得る。これはデジタルカメラで実際に撮像しても、外部の記憶媒体から読み出してもよい。   Here, a method of registering feature point information and additional information that are used as a criterion for individual discrimination will be described. First, image data of a person who wants to store feature point information or additional information that is a criterion for discrimination is obtained. This may be actually captured by a digital camera or read from an external storage medium.

次に得た画像データを顔検出処理部17に送り、上述のステップ105と同様にして顔領域を検出し、検出された顔領域を液晶モニタ等で表示する。そして、使用者は液晶モニタ等を見ながら、登録すべき人物の画像を選択する。   Next, the obtained image data is sent to the face detection processing unit 17, the face area is detected in the same manner as in step 105 described above, and the detected face area is displayed on a liquid crystal monitor or the like. Then, the user selects an image of a person to be registered while looking at the liquid crystal monitor or the like.

登録すべき人物が選択されたら、上述のステップ106、107と同様にして特徴点の検出をし、特徴点の配置状態を求める。また、使用者は選択された画像に対して、ユーザーインターフェースを介して、この人物の詳細情報(氏名、年齢、瞳の色等)を入力する。また、このときに顔検出処理部17で得られた特徴点より得られた性別等の情報を表示させ、誤りがあれば訂正を行えるようにする。このような処理を行うことで、デジタルカメラに予め個人の判別の基準となる特徴点情報や、これに付随する付加情報を記憶させておくことができる。同一人物に対して繰り返し登録を行い、特徴点情報を蓄積させていくことで、個人を判定する精度が向上する。   When a person to be registered is selected, feature points are detected in the same manner as in steps 106 and 107 described above, and an arrangement state of the feature points is obtained. Further, the user inputs detailed information (name, age, pupil color, etc.) of the person through the user interface with respect to the selected image. At this time, information such as sex obtained from the feature points obtained by the face detection processing unit 17 is displayed so that correction can be performed if there is an error. By performing such processing, it is possible to store in advance the feature point information that is a criterion for individual discrimination and additional information associated therewith in the digital camera. By repeatedly registering the same person and accumulating feature point information, the accuracy of determining an individual is improved.

次に、上記ヘッダ情報が付随された画像データの利用方法について、ダイレクトプリントシステムにおける例を2つあげて説明する。   Next, how to use the image data accompanied by the header information will be described with two examples in the direct print system.

1つは、上記のデジタルカメラと印刷装置であるプリンタを、PC等の外部の情報処理装置を介さずに直接接続して印刷を行う場合に、画像データに付随したヘッダ情報を用いて、デジタルカメラに予め登録されている特定の人物が写っている画像データを自動的に検索し、液晶モニタなどにプレビュー表示し、印刷を行うものである。   One is that when printing is performed by directly connecting the above digital camera and a printer, which is a printing apparatus, without using an external information processing apparatus such as a PC, digital printing is performed using header information attached to image data. Image data in which a specific person registered in advance in the camera is captured is automatically searched, previewed on a liquid crystal monitor, etc., and printed.

もう1つは、デジタルカメラに予め登録されている特定の人物が写っている画像を印刷する場合に、ヘッダに記憶された情報からその人物に最適なパラメータを自動的に求めて画像データの補正を実施し、印刷を行うものである。   Second, when printing an image of a specific person registered in advance in the digital camera, the optimum parameter for that person is automatically obtained from the information stored in the header to correct the image data. To perform printing.

まずは、特定の人物が写っている画像を自動的に検索して印刷を行う動作について、図3を用いて説明する。   First, an operation for automatically retrieving and printing an image in which a specific person is shown will be described with reference to FIG.

デジタルカメラには、人物を特定する際の比較基準となる特徴点情報及び付加情報が記述されたリストが人物別に記憶されており、液晶モニタにはこのリストが記憶されている人物の一覧が表示される。使用者はこの中から印刷の対象となる人物を選択すると、デジタルカメラは使用者が選択した人物に対応するリストを読み出す(ステップ201)。   The digital camera stores a list of feature point information and additional information that serve as a reference for identifying a person by person, and the LCD monitor displays a list of persons storing the list. Is done. When the user selects a person to be printed from the list, the digital camera reads a list corresponding to the person selected by the user (step 201).

記憶媒体に記憶されている画像データのヘッダに記述された特徴点情報と、リストに記憶された特徴点情報を比較し、特徴点が近似あるいは一致する場合はその画像データには使用者によって選択された人物が写っていると判断し、画像に印刷対象であることを示すフラグをセットする(ステップ202)。選択された人物が写っていないと判断された場合は、次の画像データの処理へと進む。   The feature point information described in the header of the image data stored in the storage medium is compared with the feature point information stored in the list. If the feature points approximate or match, the image data is selected by the user. It is determined that the person has been photographed, and a flag indicating that the image is to be printed is set in the image (step 202). If it is determined that the selected person is not captured, the process proceeds to the next image data processing.

選択された人物が写っていると判断された場合は、その画像データを液晶モニタなどの表示デバイスに表示する(ステップ203)。ここで表示された画像データが印刷不要なものであればフラグを解除することができる。   If it is determined that the selected person is photographed, the image data is displayed on a display device such as a liquid crystal monitor (step 203). If the image data displayed here does not require printing, the flag can be canceled.

次に、選択された人物の顔領域に自動的に適正な画像補正を施すプリント自動補正モードであるかを判断する(ステップ204)。プリント自動補正モードでなければそのまま表示された画像を印刷し(ステップ209)、次の画像データの処理へと進む。   Next, it is determined whether or not it is an automatic print correction mode in which appropriate image correction is automatically performed on the face area of the selected person (step 204). If the print correction mode is not set, the displayed image is printed as it is (step 209), and the process proceeds to the next image data processing.

プリント自動補正モードが設定されているならば、画像データのヘッダに記述された特徴点情報より、選択された人物の顔領域を判定する(ステップ205)。   If the automatic print correction mode is set, the face area of the selected person is determined from the feature point information described in the header of the image data (step 205).

選択された顔領域の輝度値が最適となるように輝度補正を行う(ステップ206)。   Luminance correction is performed so that the luminance value of the selected face area is optimized (step 206).

次に選択された顔領域の肌色が最適となるように色補正を行う(ステップ207)。   Next, color correction is performed so that the skin color of the selected face area is optimized (step 207).

更に選択された顔領域に適度なシャープネス補正を行い、選択された顔領域が引き立つよう処理を行う(ステップ208)。   Further, moderate sharpness correction is performed on the selected face area, and processing is performed so that the selected face area stands out (step 208).

そして、輝度補正、色補正、シャープネス補正が施された画像をプリンタで印刷する(ステップ209)。   Then, an image subjected to luminance correction, color correction, and sharpness correction is printed by a printer (step 209).

記憶媒体に記憶された全ての画像、あるいは、使用者が選択した範囲に含まれる全ての画像(例えば使用者が選択したフォルダ内の全ての画像や、撮像日時によって選択された全ての画像)のヘッダに記述された特徴点情報と、予めデジタルカメラに記憶された個人の特徴点情報が記述されたリストとの比較が終了していないのであれば、次の画像データの処理へと進み、終了しているのであればこのフローを終える(ステップ210)。   All images stored in the storage medium or all images included in the range selected by the user (for example, all images in the folder selected by the user or all images selected according to the shooting date and time) If the comparison between the feature point information described in the header and the list in which the individual feature point information stored in advance in the digital camera has not been completed, the process proceeds to the next image data processing and ends. If so, this flow is finished (step 210).

以下に、ステップ206からステップ208で行った画像補正について簡単に説明する。   Hereinafter, the image correction performed from step 206 to step 208 will be briefly described.

まず、顔領域を最適な輝度値(露出値)とするための補正について説明を行う。これは上述のステップ206で行う処理に該当する。   First, correction for setting the face area to an optimum luminance value (exposure value) will be described. This corresponds to the processing performed in step 206 described above.

画像データのヘッダに記述された特徴点の座標から人物の顔領域を求め、その顔領域内の輝度信号を算出し、その平均値Yaveを算出する。   The face area of the person is obtained from the coordinates of the feature points described in the header of the image data, the luminance signal in the face area is calculated, and the average value Yave is calculated.

予め設定した人物の顔領域の最適輝度値Yrefと平均値Yaveを用いて、次の式により輝度補正係数kを算出する。
k=Yref/Yave
輝度補正係数kが、予め設定された輝度補正係数の下限値よりも小さければ輝度補正係数kをこの下限値に設定する。反対に、輝度補正係数kが、予め設定された輝度補正係数の上限値よりも大きければ輝度補正係数kをこの上限値に設定する。輝度補正係数kの範囲を定めるのは過度補正を抑えるためのであり、輝度補正係数kの下限値は飽和領域の色バランス崩れを起こさせない程度に、上限値はノイズの劣化を防ぐ程度に設定することが好ましい。
The brightness correction coefficient k is calculated by the following formula using the preset optimum brightness value Yref and average value Yave of the human face area.
k = Yref / Yave
If the brightness correction coefficient k is smaller than a preset lower limit value of the brightness correction coefficient, the brightness correction coefficient k is set to this lower limit value. On the contrary, if the luminance correction coefficient k is larger than the preset upper limit value of the luminance correction coefficient, the luminance correction coefficient k is set to this upper limit value. The range of the luminance correction coefficient k is set to suppress overcorrection. The lower limit value of the luminance correction coefficient k is set to such an extent that the color balance in the saturation region is not lost, and the upper limit value is set to an extent that prevents noise deterioration. It is preferable.

得られた輝度補正係数kを、画像データ全体のRGB値にかける。これにより、求められた顔領域の輝度を最適なものにすることができる。このとき、図4に示すように選択された顔領域の面積(大きさ)に応じて輝度補正係数の上限値を変化させることが望ましい。これは顔の面積がある値以下の場合は補正の度合いを小さくし、小さくしか写っていない顔の輝度を調整するためだけに画像全体の輝度バランスが大きく変化させてしまうことを防ぐためである。   The obtained luminance correction coefficient k is applied to the RGB values of the entire image data. Thereby, the brightness | luminance of the calculated | required face area can be optimized. At this time, it is desirable to change the upper limit value of the luminance correction coefficient in accordance with the area (size) of the selected face area as shown in FIG. This is to reduce the degree of correction when the face area is less than a certain value, and to prevent the brightness balance of the entire image from changing greatly just to adjust the brightness of the face that is only small. .

画像中に予め登録した人物が二人以上存在する場合には、それぞれの顔領域にて補正係数を算出し、その平均値を画像データ全体のRGB値にかけるようにしても良い。また、顔領域の重み付けを増して補正を行うようにしても良い。   If there are two or more persons registered in advance in the image, a correction coefficient may be calculated for each face area, and the average value may be applied to the RGB values of the entire image data. Further, the correction may be performed by increasing the weight of the face area.

次に、顔領域を最適な色表現とするための補正について説明を行う。これは上述のステップ207で行う処理に該当する。   Next, correction for making the face area an optimal color expression will be described. This corresponds to the processing performed in step 207 described above.

ます、画像データのヘッダに記述された特徴点の座標から人物の顔領域を求め、顔領域の中から目、口、髪等の肌色でない部分を除外した領域を定め、その領域内のYUV形式の信号値を算出する。   First, the human face area is obtained from the coordinates of the feature points described in the header of the image data, the area excluding non-skin color parts such as eyes, mouth and hair is determined from the face area, and the YUV format in the area is determined. The signal value of is calculated.

予め設定された肌色値となるよう色差信号のゲインを調整する。この調整方法としては、色マトリクスを変更する方法などがあげられる。色マトリクスの変更方法は公知であるため、詳細な説明は省略する。   The gain of the color difference signal is adjusted so as to obtain a preset skin color value. Examples of the adjustment method include a method of changing the color matrix. Since the method for changing the color matrix is known, detailed description thereof is omitted.

次に、顔領域に最適なシャープネスを施すための補正について説明を行う。これは上述のステップ208で行う処理に該当する。   Next, the correction for applying the optimum sharpness to the face area will be described. This corresponds to the processing performed in step 208 described above.

これはヘッダに記述された特徴点情報を基に、顔や目、鼻、口等の器官の輪郭には適度なシャープネスをかけ、顔のその他の部分には弱めのローパスフィルタをかけることで、選択された人物の顔を引き立たせつつ、しわやしみを目立たせなくする画像補正を行うものである。図5を用いてこの処理の動作フローを説明する。   This is based on the feature point information described in the header, applying moderate sharpness to the contours of organs such as the face, eyes, nose and mouth, and applying a weak low-pass filter to the rest of the face. Image correction is performed to make the face of the selected person more attractive while making wrinkles and blotches less noticeable. The operation flow of this process will be described with reference to FIG.

画像データのヘッダに記述された特徴点の座標から、選択された人物の顔、目、鼻、及び、口の領域を取得する(ステップ401)。   The face, eye, nose, and mouth regions of the selected person are acquired from the coordinates of the feature points described in the header of the image data (step 401).

顔、鼻、及び、口の領域にバンドパスフィルタをかけて輪郭を検出し(ステップ402)、ゲイン及びベースクリップ回路を通すことで検出された輪郭を強調する処理を行う(ステップ403)。   A band pass filter is applied to the face, nose, and mouth regions to detect the contour (step 402), and the detected contour is enhanced by passing the gain and base clip circuit (step 403).

また、輪郭を強調する処理と平行して、顔領域全体にローパスフィルタをかける処理を行う(ステップ404)。   In parallel with the process for enhancing the contour, a process for applying a low-pass filter to the entire face region is performed (step 404).

ゲイン及びベースクリップ回路の出力とローパスフィルタの出力を、特徴点情報あるいは付加情報を用いて算出したMIX率xを用いて加算する(ステップ405)。この際、顔、目、鼻、及び、口の輪郭とされた領域では、ゲイン及びベースクリップ回路の出力とローパスフィルタの出力とを加算し、それ以外の領域ではローパスフィルタの出力のみを用いる。この処理により、顔、目、鼻、及び、口の輪郭を引き立たせるとともに、しわやしみを目立たなくさせることができる。また、年齢があがるにつれ顔の目尻のしわなどが目立つことが多いため、図6に示すように、画像データのヘッダに記述された付加情報から得られる年齢に応じて輪郭のゲインを変化させ、エッジ強調をよりソフトなものとして目尻のしわ等を目立ちにくくしている。   The output of the gain and base clip circuit and the output of the low pass filter are added using the MIX rate x calculated using the feature point information or the additional information (step 405). At this time, the gain and the output of the base clip circuit and the output of the low-pass filter are added to the regions defined as the contours of the face, eyes, nose, and mouth, and only the output of the low-pass filter is used in the other regions. By this process, the contours of the face, eyes, nose and mouth can be enhanced, and wrinkles and blotches can be made inconspicuous. Also, as the age increases, wrinkles of the corners of the face often stand out, so as shown in FIG. 6, the contour gain is changed according to the age obtained from the additional information described in the header of the image data, Edge enhancement is made softer to make the wrinkles of the corners of the eyes less noticeable.

以上、特定の人物が写っている画像を自動的に検索して印刷を行う動作について説明した。上記のフローは特定人物を二人以上選んだときにも適用可能であり、複数の特定人物が指定された場合でも同様の処理を行えば、自動的に各人物ごとに印刷処理を行うことができる。つまり、この方法によれば登録された人数分だけ自動的に印刷処理を行うことが可能となる。   The operation for automatically searching for and printing an image in which a specific person is shown has been described above. The above flow can also be applied when two or more specific persons are selected, and even when a plurality of specific persons are designated, if the same process is performed, the printing process can be automatically performed for each person. it can. That is, according to this method, it is possible to automatically perform printing processing for the number of registered persons.

また、上記フローでは1つの画像データに対して特徴点情報の比較をして、画像補正と印刷処理を行ってから次の画像データの処理へと進んでいるが、これに限られるものではない。初めに全画像データに対して特徴点の比較を行い、特定人物が写っていると判断された全ての画像データを抽出してから、まとめて画像補正と印刷処理を行うようにしても構わない。   In the above flow, the feature point information is compared with respect to one image data, the image correction and the printing process are performed, and then the process proceeds to the next image data process. However, the present invention is not limited to this. . First, feature points may be compared with respect to all image data, and all image data determined to contain a specific person may be extracted, and then image correction and print processing may be performed collectively. .

また、上記フローでは画像データのヘッダに記述された特徴点情報を用いて使用者によって選択された特定人物であるか否かの判定を行っているが、例えば、特徴点情報を用いて笑っている人物が写っている画像データのみを印刷したり、写っている全ての人物の目が開いている画像データのみ印刷したり(集合写真で有効)、顔領域のピントが合っている画像データのみを印刷したりすることもできる。   In the above flow, the feature point information described in the header of the image data is used to determine whether or not the user is the specific person selected by the user. For example, the feature point information is used to laugh. Print only the image data of a person, print only the image data of all the people in the eyes that are open (valid for group photos), or only the image data that is in focus on the face area Can also be printed.

他にも、画像データのヘッダに記述された特徴点情報、あるいは、特徴点情報に付随した付加情報から、例えば、年齢による選択、性別による選択、表情による選択、顔の向きによる選択、画角のうち顔が占める面積の割合による選択等の、様々な条件で自動選択を行って画像補正や印刷処理を行うことが可能となる。   In addition, from the feature point information described in the header of the image data or additional information accompanying the feature point information, for example, selection by age, selection by gender, selection by facial expression, selection by face orientation, angle of view It is possible to perform image correction and print processing by performing automatic selection under various conditions such as selection based on the ratio of the area occupied by the face.

また、上述した特徴点情報の抽出は、記憶媒体に既に保存されている画像データや、外部の電子機器から転送されてメモリや記憶媒体に保存された画像データに対して行うことも可能である。   The feature point information extraction described above can also be performed on image data already stored in a storage medium, or image data transferred from an external electronic device and stored in a memory or storage medium. .

また、撮像装置ではRAW形式やJPEG形式の画像データを得るだけとし、上述した特徴点情報の抽出や、特定人物の判別や、あるいは、画像補正は撮像装置から画像データを受け取ったプリンタ等の印刷装置で行うことも可能である。   The imaging device only obtains image data in RAW format or JPEG format, and the above-described feature point information extraction, identification of a specific person, or image correction is performed by a printer or the like that receives image data from the imaging device. It is also possible to carry out with an apparatus.

実施例1では、RAW形式の画像データからJPEG形式の画像データを生成し、その際に画像データの特徴点情報を検出してヘッダに記述し、印刷時にこのヘッダ情報を用いて画像補正および印刷処理を行う構成について説明した。   In the first embodiment, image data in JPEG format is generated from image data in RAW format, and feature point information of the image data is detected and described in the header, and image correction and printing are performed using this header information during printing. The configuration for performing the processing has been described.

本実施例では、RAW形式の画像データからJPEG形式の画像データを生成する際に、画像データの特徴点を検出するとともに画像補正を行い、予め画像補正が施されたJPEG信号を生成する構成について説明する。これはデジタルカメラ等の撮像装置に限定されるものではなく、撮像装置によって得られたRAW形式の画像データが転送されたPC等の情報処理装置や、撮像装置からRAW形式の画像データが転送されたプリンタ等の印刷装置にも適用できる構成である。   In this embodiment, when JPEG image data is generated from RAW image data, a feature point of the image data is detected and image correction is performed, and a JPEG signal that has been subjected to image correction in advance is generated. explain. This is not limited to an imaging apparatus such as a digital camera, but an RAW format image data is transferred from an information processing apparatus such as a PC to which RAW image data obtained by the imaging apparatus has been transferred, or an imaging apparatus. This configuration can also be applied to a printing apparatus such as a printer.

本実施例で行われる画像補正の内容は、人物の顔にあわせた輝度補正、色再現最適化、シャープネス補正であり、詳細な補正方法は実施例1で説明した処理とほぼ同様である。   The contents of the image correction performed in the present embodiment are luminance correction, color reproduction optimization, and sharpness correction in accordance with a person's face, and the detailed correction method is almost the same as the processing described in the first embodiment.

図7は、RAW形式の画像データの現像プロセスにおける最適処理に必要なパラメータ設定フローを示している。以下、本実施例による現像処理を行う場合のフロー図を説明する。   FIG. 7 shows a parameter setting flow necessary for optimal processing in the development process of RAW format image data. Hereinafter, a flow chart in the case of performing development processing according to the present embodiment will be described.

まず、自動補正モードが設定されているか否かを判定する(ステップ501)。自動補正モードとは、RAW形式の画像データをJPEG形式の画像データに変換する際に、その画像データに特定人物の顔が含まれているのであれば、その特定人物の顔が最適な輝度および色表現となるよう画像補正を行うモードである。自動補正モードが設定されていなければ、公知の方法によってRAW形式の画像データの現像処理を行う。   First, it is determined whether or not the automatic correction mode is set (step 501). In the automatic correction mode, when a RAW format image data is converted into JPEG format image data, if the face of a specific person is included in the image data, the specific person's face has the optimum brightness and In this mode, image correction is performed so as to achieve color expression. If the automatic correction mode is not set, the RAW format image data is developed by a known method.

RAW形式の画像データから特徴点の検出を行い、実施例1と同様に、この検出された特徴点情報と情報処理装置に予め記憶された特徴点情報との比較を行うことで、その画像データに特定人物の顔が含まれているか否かを判定する(ステップ502)。特定人物の顔が含まれていない場合は、公知の方法によってRAW形式の画像データの現像処理を行う。   The feature points are detected from the image data in the RAW format, and the detected feature point information is compared with the feature point information stored in advance in the information processing apparatus in the same manner as in the first embodiment. It is determined whether or not the face of a specific person is included in (step 502). If the face of the specific person is not included, the RAW format image data is developed by a known method.

画像データに特定人物の顔が含まれていると判定されると、検出された特徴点情報より特定人物の顔領域を決定する(ステップ503)。   If it is determined that the face of the specific person is included in the image data, the face area of the specific person is determined from the detected feature point information (step 503).

図3のステップ206で行った処理と同様にして、特徴点情報を用いて顔領域の輝度情報が最適となるように輝度補正係数を求める(ステップ504)。   Similar to the processing performed in step 206 in FIG. 3, the luminance correction coefficient is obtained using the feature point information so that the luminance information of the face area is optimized (step 504).

次に特徴点情報を用いて、顔領域の肌色が最適になるように、図3のステップ207で行った処理と同様にして色補正マトリックスを算出する(ステップ505)。このとき、予め情報処理装置に記憶されている付加情報に記述された性別と年齢情報を考慮することで、より細やかな補正値を得ることができる。   Next, using the feature point information, a color correction matrix is calculated in the same manner as the processing performed in step 207 of FIG. 3 so that the skin color of the face region is optimized (step 505). At this time, a finer correction value can be obtained by considering the gender and age information described in the additional information stored in advance in the information processing apparatus.

さらに特徴点情報を用いて、図3のステップ208で行った処理と同様にして、シャープネス補正のためのエッジ強調パラメータを算出する(ステップ506)。実施例1と同様、付加情報に記述された性別と年齢情報を考慮することが好ましい。例えば、年齢が上がるについて、目尻のしわや皮膚のしみが目立つことが多いため輪郭のエッジ強調をソフトにするとともに、顔領域の輪郭以外の領域をよりソフトな画質となるよう処理を行い、しみやくすみを目立たなくさせる。   Further, using the feature point information, an edge enhancement parameter for sharpness correction is calculated in the same manner as the processing performed in step 208 in FIG. 3 (step 506). As in the first embodiment, it is preferable to consider the gender and age information described in the additional information. For example, as the age increases, wrinkles in the corners of the eyes and spots on the skin tend to be noticeable, so the edge enhancement of the contour is softened and the area other than the contour of the face area is processed to have a softer image quality. Make Miyaku dull.

そして得られた輝度補正係数、色補正マトリックス、エッジ強調パラメータを用いて現像処理を行う(ステップ507)。   Then, development processing is performed using the obtained luminance correction coefficient, color correction matrix, and edge enhancement parameter (step 507).

次に、図7で示した画像補正を、デジタルカメラ内にて行う場合の概略フローについて図8を用いて説明する。   Next, a schematic flow when the image correction shown in FIG. 7 is performed in the digital camera will be described with reference to FIG.

撮像指令が与えられるとCCD等の撮像素子は電荷を蓄積し、これを転送する(ステップ601)。この出力は黒引き処理され(ステップ602)、その出力をもとにホワイトバランスゲイン値を演算する(ステップ603)。   When an imaging command is given, an imaging device such as a CCD accumulates charges and transfers them (step 601). This output is subjected to blacking processing (step 602), and a white balance gain value is calculated based on the output (step 603).

デジタルカメラに自動補正モードが設定されていれば、この得られたホワイトバランスゲイン値を、画像データの特徴点情報から得られる顔領域のみに対して乗算してRGB信号に変換し、さらに顔領域とその他の領域とで別々のマトリクスを用いて色変換を行って色差信号(U信号、V信号)が生成される(ステップ604)。   If the automatic correction mode is set in the digital camera, the obtained white balance gain value is multiplied only with the face area obtained from the feature point information of the image data to convert it into an RGB signal, and further the face area Color conversion is performed using separate matrices for the other areas and other areas to generate color difference signals (U signal, V signal) (step 604).

ローパスフィルタによってこのUV信号は帯域が制限され(ステップ605)、色飽和部の色消しが行われる(ステップ606)。   The band of this UV signal is limited by the low-pass filter (step 605), and the color saturation portion is erased (step 606).

また、マトリクス回路の出力信号から輝度信号(Y信号)が生成され(ステップ607)、顔領域と顔以外の領域にて異なるエッジ強調処理が施される(ステップ608)。   Also, a luminance signal (Y signal) is generated from the output signal of the matrix circuit (step 607), and different edge enhancement processing is performed on the face area and the area other than the face (step 608).

この色飽和部の色消し処理やエッジ強調処理の際に、図7を用いて説明した画像補正が行われる。   The image correction described with reference to FIG. 7 is performed during the achromatic processing and edge enhancement processing of the color saturation portion.

その後、生成されたUV信号とY信号を用いてRGB変換を行い、この信号に対してγ補正を行う。γ補正された信号を再度YUV形式の信号に変換し、JPEG形式の画像データを得る。なお、上述の黒引き処理、ホワイトバランスゲイン値の演算、RGB信号への変換、色消し等は公知に画像処理方法であるため、詳細な説明は省略する。   Thereafter, RGB conversion is performed using the generated UV signal and Y signal, and γ correction is performed on this signal. The γ-corrected signal is converted again into a YUV format signal to obtain JPEG format image data. Note that the blackening process, the calculation of the white balance gain value, the conversion to the RGB signal, the achromatization, and the like described above are known image processing methods, and thus detailed description thereof is omitted.

このように、本実施例では、RAW形式の画像データをJPEG形式の画像データに変換する現像処理において、RAW形式の画像データに添付されたヘッダ情報を用いて、予め登録した人物が写されているRAW形式の画像データを自動検索し、更にその人物の顔が最適な輝度レベル、色再現、解像度となるよう自動補正を実施しながら現像することを特徴としている。同一の画像データに予め登録した人物が複数存在した場合は、それぞれの人物に最適になるよう上記処理を繰り返し、登録された人数分だけ現像処理を実施すればよい。   As described above, in this embodiment, in the development processing for converting RAW format image data into JPEG format image data, a pre-registered person is copied using the header information attached to the RAW format image data. The RAW format image data is automatically searched, and further developed while performing automatic correction so that the face of the person has the optimum luminance level, color reproduction, and resolution. If there are a plurality of persons registered in advance in the same image data, the above process may be repeated so as to be optimal for each person, and the developing process may be performed for the number of registered persons.

本実施例では、JPEG形式もしくはRAW形式の画像データのヘッダ情報を用いて、デジタルカメラ等の撮像装置もしくはPC等の情報処理装置上で画像データを自動整理、あるいは、分類することを特徴とする。   The present embodiment is characterized in that image data is automatically organized or classified on an imaging device such as a digital camera or an information processing device such as a PC using header information of image data in JPEG format or RAW format. .

たとえば、まだ分類されていない画像データの特徴点情報あるいは付加情報を読み出し、これに基づいて使用者が作成した複数の任意にフォルダに割り振ったり、画像データを複製したりする。   For example, feature point information or additional information of image data that has not yet been classified is read out, and based on this, it is assigned to a plurality of arbitrary folders created by the user, or image data is duplicated.

図9(A)に例を示す。コンピュータには3つのフォルダが設けられており、フォルダ1にはAさんが写っている画像データが分類され、フォルダ2にはBさんが写っている画像データが分類され、フォルダ3にはCさんが写っている画像データが分類されるよう構成されている。ここでデジタルカメラから新たに6つの画像データ(画像データ1〜6)がPCに転送されると、PCはこれら6つの画像データのヘッダ情報と各フォルダ情報とを比較し、自動的に画像データの振り分けを行う。   An example is shown in FIG. There are three folders on the computer. The folder 1 classifies image data that includes Mr. A, the folder 2 classifies image data that includes Mr. B, and the folder 3 includes Mr. C. The image data in which is shown is configured to be classified. Here, when six new image data (image data 1 to 6) are transferred from the digital camera to the PC, the PC compares the header information of these six image data with each folder information, and automatically acquires the image data. Sort out.

図9の例では、画像データ1にはAさんとBさんが写っており、画像データ2にはAさんのみが写っており、画像データ3には風景のみが写っており、画像データ4にはBさんが写っており、画像データ5にはCさんが写っており、画像データ6にはAさんとBさんが写っている。   In the example of FIG. 9, Mr. A and Mr. B are shown in the image data 1, only Mr. A is shown in the image data 2, and only the landscape is shown in the image data 3. Mr. B is shown, Mr. C is shown in the image data 5, and Mr. A and Mr. B are shown in the image data 6.

画像データ1〜6のヘッダには特徴点情報が記述されており、各フォルダ情報と比較することによって、誰も写っていない画像データ5を除く他の画像データはいずれかのフォルダに分類される。ここで画像データ1,6はAさんとBさんが写っているため、画像データが複製され、両方のフォルダに分類される。   The feature point information is described in the headers of the image data 1 to 6, and by comparing with each folder information, other image data except the image data 5 in which no one is shown is classified into any folder. . Here, since image data 1 and 6 include Mr. A and Mr. B, the image data is duplicated and classified into both folders.

このように画像データに付随したヘッダに記述された特徴点情報を用いることで、短時間で画像の分類が可能となる。   As described above, by using the feature point information described in the header attached to the image data, the images can be classified in a short time.

本実施例では特徴点情報のみを用いて画像データの分類を行ったが、特徴点情報に付随した付加情報を用いて画像データの分類を行っても構わない。例えば、図9(B)は付加情報に記述された性別情報を用いて画像データを分類したものであり、図9(C)は付加情報に記述された年齢情報を用いて画像データを分類したものである。   In this embodiment, the image data is classified using only the feature point information. However, the image data may be classified using additional information attached to the feature point information. For example, FIG. 9B classifies image data using gender information described in the additional information, and FIG. 9C classifies image data using age information described in the additional information. Is.

このように、本実施例によれば、画像データを表示デイバス等で画像として表示せずとも、写された人物別に画像データを分類することが可能となる。   As described above, according to the present embodiment, it is possible to classify the image data according to the photographed person without displaying the image data as an image on a display device or the like.

以上本発明者によってなされた発明を実施例に基づき説明をしたが、本発明は上記実施例に限定されるものではなく、その要旨を逸脱しない範囲で種々の変形が可能である。   Although the invention made by the present inventor has been described based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention.

撮像装置の構成を示すブロック図。1 is a block diagram illustrating a configuration of an imaging device. 撮像装置におけるレリーズスイッチが押されてから画像データが記憶されるまでのフローチャート図。The flowchart figure until image data is memorize | stored after the release switch in an imaging device is pushed. ダイレクトプリントシステムにおける特定の人物が写っている画像を自動的に検索して印刷を行うまでのフローチャート図。The flowchart figure until it searches automatically for the image in which the specific person in the direct print system was reflected, and it prints. 顔領域の面積と輝度補正係数の関係を示す図。The figure which shows the relationship between the area of a face area | region, and a brightness correction coefficient. 顔領域に最適なシャープネス補正を行うためのフローチャート。The flowchart for performing the sharpness correction optimal for a face area. 年齢とシャープネスゲインの関係を示す図。The figure which shows the relationship between age and a sharpness gain. RAW形式の画像データの現像プロセスにおける最適処理に必要なパラメータを設定するフローチャート。6 is a flowchart for setting parameters necessary for optimum processing in a development process of RAW format image data. RAW形式の画像データの現像プロセスを示すフローチャート。7 is a flowchart showing a development process of RAW format image data. 画像データを分類する例を示す図。The figure which shows the example which classifies image data.

符号の説明Explanation of symbols

11 撮像レンズ
12 絞り
13 撮像素子
14 A/D変換部
15 画像信号処理部
16 圧縮処理部
17 顔検出処理部
18 メモリ
19 記憶媒体
20 駆動部
21 絞り制御部
22 レンズ制御部
23 レリーズスイッチ
24 システム制御部
DESCRIPTION OF SYMBOLS 11 Imaging lens 12 Aperture 13 Imaging element 14 A / D conversion part 15 Image signal processing part 16 Compression processing part 17 Face detection processing part 18 Memory 19 Storage medium 20 Drive part 21 Aperture control part 22 Lens control part 23 Release switch 24 System control Part

Claims (30)

入射した光を電気信号に変換する撮像素子の出力をデジタル値に変換して画像データを得る撮像装置において、
前記画像データに含まれる人物の顔を特定するための特徴点情報を抽出し、前記特徴点情報を付随させて前記画像データを記憶することを特徴とする撮像装置。
In an imaging device that obtains image data by converting the output of an imaging device that converts incident light into an electrical signal into a digital value,
An image pickup apparatus that extracts feature point information for specifying a human face included in the image data, and stores the image data with the feature point information.
入射した光を電気信号に変換する撮像素子の出力をデジタル値に変換して画像データを得る撮像装置において、
記憶手段に記憶された画像データを読み出し、前記画像データに含まれる人物の顔を特定するための特徴点情報を抽出し、前記特徴点情報を前記画像データに付随させることを特徴とする撮像装置。
In an imaging device that obtains image data by converting the output of an imaging device that converts incident light into an electrical signal into a digital value,
An image pickup apparatus that reads image data stored in a storage unit, extracts feature point information for specifying a human face included in the image data, and attaches the feature point information to the image data .
前記特徴点情報とは、顔の形状情報であることを特徴とする請求項1または2に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the feature point information is face shape information. 前記特徴点情報とは、顔の形状および座標位置を含む情報であることを特徴とする請求項1または2に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the feature point information is information including a face shape and a coordinate position. 前記特徴点情報とは、さらに顔の色情報を含むことを特徴とする請求項3または4に記載の撮像装置。   5. The imaging apparatus according to claim 3, wherein the feature point information further includes face color information. 人物別に設定された比較情報を記憶しており、前記特徴点情報と前記比較情報を比較することで、前記画像データに含まれる人物と前記比較情報に対応する人物とが同一人物であるか否かを判断することを特徴とする請求項1から5のいずれかに記載の撮像装置。   Comparison information set for each person is stored, and the person included in the image data and the person corresponding to the comparison information are the same person by comparing the feature point information and the comparison information. The imaging apparatus according to claim 1, wherein the imaging device is determined. 複数の画像データの中から、前記比較情報を用いて、同一人物が含まれると判断された画像データのみを選択することを特徴とする請求項6に記載の撮像装置。   The imaging apparatus according to claim 6, wherein only the image data determined to include the same person is selected from the plurality of image data using the comparison information. 前記選択された画像データのみを外部に送信することを特徴とする請求項7に記載の撮像装置。   The imaging apparatus according to claim 7, wherein only the selected image data is transmitted to the outside. 前記選択された画像データのみを圧縮処理することを特徴とする請求項7に記載の撮像装置。   The imaging apparatus according to claim 7, wherein only the selected image data is compressed. 前記特徴点情報を用いて人物の顔がある顔領域を決定し、前記顔領域の露出値が適正となるよう画像データに処理を施すことを特徴とする請求項1から5のいずれかに記載の撮像装置。   6. The face area where a person's face is located is determined using the feature point information, and the image data is processed so that an exposure value of the face area is appropriate. Imaging device. 前記特徴点情報を用いて、さらに顔領域から人物の所定の部位がある領域を決定し、前記所定の部位があるとされた顔領域とそれ以外の顔領域とで、画像データに異なる処理を施すことを特徴とする請求項9に記載の撮像装置。   Using the feature point information, a region having a predetermined part of the person is further determined from the face region, and different processing is performed on the image data between the face region that is determined to have the predetermined part and the other face region. The imaging apparatus according to claim 9, wherein the imaging apparatus is applied. 前記特徴点情報を用いて、さらに顔領域から輪郭を示す領域を決定し、前記領域にのみエッジ強調するための画像処理を施すことを特徴とする請求項10に記載の撮像装置。   The image pickup apparatus according to claim 10, further comprising: determining a region indicating an outline from the face region using the feature point information, and performing image processing for edge enhancement only on the region. 前記画像データの顔領域の大きさ、あるいは、前記画像データに付随された年齢情報に応じて、前記画像処理に施す処理を変化させることを特徴とする請求項10から12のいずれかに記載の撮像装置。   The process performed on the image processing is changed according to the size of the face area of the image data or the age information attached to the image data. Imaging device. 前記画像処理を施された画像データを圧縮処理することを特徴とする請求項10から13のいずれかに記載の撮像装置。   The image pickup apparatus according to claim 10, wherein the image data subjected to the image processing is compressed. 前記特徴点情報を用いて、複数の画像データを分類することを特徴とする請求項1から6のいずれかに記載の撮像装置。   The imaging apparatus according to claim 1, wherein a plurality of pieces of image data are classified using the feature point information. 外部から転送された画像データを印刷する印刷装置において、
予め個人別に設けられた比較情報を記憶しており、外部から転送された画像データに含まれる人物の顔を特定するための特徴点情報を抽出し、前記特徴点情報を付随させて前記画像データを記憶するとともに、複数の画像データの中から、人物別に設定された比較情報を用いて、同一人物が含まれると判断された画像データのみを選択し、前記選択された画像データを印刷することを特徴とする印刷装置。
In a printing device that prints image data transferred from outside,
Comparison information provided for each individual is stored in advance, feature point information for identifying a person's face included in image data transferred from the outside is extracted, and the image data is attached with the feature point information. And selecting only image data determined to contain the same person from the plurality of image data using comparison information set for each person, and printing the selected image data. A printing apparatus characterized by the above.
外部から転送された画像データを印刷する印刷装置において、
予め個人別に設けられた比較情報を記憶しており、外部から転送された画像データに含まれる人物の顔を特定するための特徴点情報を抽出し、前記特徴点情報を付随させて前記画像データを記憶するとともに、前記特徴点情報を用いて人物の顔がある顔領域を決定し、前記顔領域の露出値が適正となるよう画像データに処理を施して印刷することを特徴とする印刷装置。
In a printing device that prints image data transferred from outside,
Comparison information provided for each individual is stored in advance, feature point information for identifying a person's face included in image data transferred from the outside is extracted, and the image data is attached with the feature point information. , A face area where a person's face is located is determined using the feature point information, and image data is processed and printed so that an exposure value of the face area is appropriate. .
請求項1から5のいずれかに記載の撮像装置にて得られた画像データを圧縮する画像処理装置であって、
複数の画像データの中から、付随された前記特徴点情報が所定の条件を満たしている画像データを選択して圧縮することを特徴とする画像処理装置。
An image processing apparatus that compresses image data obtained by the imaging apparatus according to claim 1,
An image processing apparatus that selects and compresses image data in which the attached feature point information satisfies a predetermined condition from a plurality of image data.
人物別に設定された比較情報を記憶しており、前記画像データに付随された特徴点情報と前記比較情報を比較することで、前記画像データに含まれる人物と前記比較情報に対応する人物とが同一人物であるか否かを判断することを特徴とする請求項18に記載の画像処理装置。   Comparison information set for each person is stored, and by comparing the comparison information with the feature point information attached to the image data, a person included in the image data and a person corresponding to the comparison information are obtained. The image processing apparatus according to claim 18, wherein it is determined whether or not they are the same person. 複数の画像データの中から、前記比較情報を用いて、同一人物が含まれると判断された画像データのみを選択することを特徴とする請求項19に記載の画像処理装置。   The image processing apparatus according to claim 19, wherein only the image data determined to include the same person is selected from a plurality of image data using the comparison information. 請求項1から5のいずれかに記載の撮像装置にて得られた画像データを圧縮する画像処理装置であって、
前記画像データに付随された特徴点情報を用いて人物の顔がある顔領域を決定し、前記顔領域の露出値が適正となるよう画像データに処理を施してから圧縮することを特徴とする画像処理装置。
An image processing apparatus that compresses image data obtained by the imaging apparatus according to claim 1,
A face area where a person's face is located is determined using feature point information attached to the image data, and the image data is processed and compressed so that an exposure value of the face area is appropriate. Image processing device.
前記特徴点情報を用いて、さらに顔領域から人物の所定の部位がある領域を決定し、前記所定の部位があるとされた顔領域とそれ以外の顔領域とで、画像データに異なる処理を施すことを特徴とする請求項21に記載の画像処理装置。   Using the feature point information, a region having a predetermined part of the person is further determined from the face region, and different processing is performed on the image data between the face region that is determined to have the predetermined part and the other face region. The image processing apparatus according to claim 21, wherein the image processing apparatus is applied. 前記特徴点情報を用いて、さらに顔領域から輪郭を示す領域を決定し、前記領域にのみエッジ強調するための画像処理を施すことを特徴とする請求項22に記載の画像処理装置。   23. The image processing apparatus according to claim 22, further comprising: determining a region indicating an outline from a face region using the feature point information, and performing image processing for edge enhancement only on the region. 前記画像データの顔領域の大きさ、あるいは、前記画像データに付随された年齢情報に応じて、前記画像処理に施す処理を変化させることを特徴とする請求項21から23のいずれかに記載の画像処理装置。   The process performed on the image processing is changed according to the size of the face area of the image data or age information attached to the image data. Image processing device. 記憶手段から画像データを読み出させ、読み出させた画像データに含まれる人物の顔を特定するための特徴点情報を抽出させ、前記特徴点情報を付随させて前記画像データを記憶させることを特徴とするプログラム。   Reading image data from a storage means, extracting feature point information for specifying a person's face included in the read image data, and storing the image data accompanied with the feature point information. A featured program. 前記特徴点情報とは、顔の形状に関する情報が含まれていることを特徴とする請求項25に記載のプログラム。   The program according to claim 25, wherein the feature point information includes information related to a face shape. 記憶手段から人物別に設定された比較情報を読み出させ、前記特徴点情報と前記比較情報を比較させることで、前記画像データに含まれる人物と前記比較情報に対応する人物とが同一人物であるか否かを判断させることを特徴とする請求項25または26に記載のプログラム。   By reading the comparison information set for each person from the storage means and comparing the feature point information with the comparison information, the person included in the image data and the person corresponding to the comparison information are the same person. 27. The program according to claim 25 or 26, wherein the program is determined. 複数の画像データの中から、前記比較情報を用いて、同一人物が含まれると判断された画像データのみを選択させることを特徴とする請求項27に記載のプログラム。   28. The program according to claim 27, wherein only the image data determined to contain the same person is selected from a plurality of image data using the comparison information. 前記特徴点情報を用いて人物の顔がある顔領域を決定し、前記顔領域の露出値が適正となるよう画像データに処理を施させることを特徴とする請求項25または26に記載のプログラム。   27. The program according to claim 25 or 26, wherein a face area having a human face is determined using the feature point information, and image data is processed so that an exposure value of the face area is appropriate. . 前記特徴点情報を用いて複数の画像データを分類させることを特徴とする請求項25または26に記載のプログラム。   27. The program according to claim 25 or 26, wherein a plurality of pieces of image data are classified using the feature point information.
JP2003316938A 2003-09-09 2003-09-09 Imaging device, printer, image processor and program Pending JP2005086516A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003316938A JP2005086516A (en) 2003-09-09 2003-09-09 Imaging device, printer, image processor and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003316938A JP2005086516A (en) 2003-09-09 2003-09-09 Imaging device, printer, image processor and program

Publications (2)

Publication Number Publication Date
JP2005086516A true JP2005086516A (en) 2005-03-31
JP2005086516A5 JP2005086516A5 (en) 2006-11-02

Family

ID=34416683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003316938A Pending JP2005086516A (en) 2003-09-09 2003-09-09 Imaging device, printer, image processor and program

Country Status (1)

Country Link
JP (1) JP2005086516A (en)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006352369A (en) * 2005-06-14 2006-12-28 Fujifilm Holdings Corp Image file management method and apparatus thereof
JP2007065940A (en) * 2005-08-31 2007-03-15 Seiko Epson Corp Image selection device and image selection means
JP2007066251A (en) * 2005-09-02 2007-03-15 Fujifilm Corp Digital camera and image file management method therefor
JP2007094787A (en) * 2005-09-29 2007-04-12 Fujifilm Corp Portrait image correction device, portrait image correction method and portrait image correction program
JP2007220009A (en) * 2006-02-20 2007-08-30 Seiko Epson Corp Image determination device and image determination method
JP2007264742A (en) * 2006-03-27 2007-10-11 Fujifilm Corp Method for detecting face and imaging device using it
JP2007329520A (en) * 2006-06-06 2007-12-20 Nikon Corp Image reproducing system, digital camera and image reproducing apparatus
EP1988706A2 (en) 2007-05-02 2008-11-05 Casio Computer Co., Ltd. Imaging device, imaging control program, and imaging control method
JP2008283282A (en) * 2007-05-08 2008-11-20 Seiko Epson Corp Development processor for undeveloped image data, development processing method, and computer program for development processing
JP2008300986A (en) * 2007-05-29 2008-12-11 Canon Inc Image processing apparatus, image processing method and image processing program
JP2009017591A (en) * 2008-09-18 2009-01-22 Canon Inc Imaging apparatus and image processing method
GB2452131A (en) * 2007-08-20 2009-02-25 Samsung Techwin Co Ltd Printing images of people
JP2009135616A (en) * 2007-11-28 2009-06-18 Softbank Mobile Corp Communication terminal, information processing method, and program
JP2009207189A (en) * 2009-06-15 2009-09-10 Nikon Corp Digital camera
JP2009206583A (en) * 2008-02-26 2009-09-10 Nikon Corp Imaging apparatus, and image processing program
JP2009239368A (en) * 2008-03-25 2009-10-15 Seiko Epson Corp Image processing method, image processor, image processing program, and printing device
JP2010045770A (en) * 2008-07-16 2010-02-25 Canon Inc Image processor and image processing method
JP2010050501A (en) * 2008-08-19 2010-03-04 Tatsumi Denshi Kogyo Kk Automatic photograph-creating device and automatic photograph creating method
JP2010049312A (en) * 2008-08-19 2010-03-04 Casio Comput Co Ltd Image processing device, image processing method, and program
JP2010062920A (en) * 2008-09-04 2010-03-18 Ricoh Co Ltd Image processor, image processing method, program, and recording medium
JP2010213090A (en) * 2009-03-11 2010-09-24 Casio Computer Co Ltd Imaging apparatus, imaging method, and imaging program
JP2010252352A (en) * 2010-05-24 2010-11-04 Seiko Epson Corp Image processing device, digital camera, image data structure, printer with automatic color correction function, method of producing face object information-attached photographed image, and color correction method
JP2010267278A (en) * 2010-06-22 2010-11-25 Seiko Epson Corp Image processor, digital camera, image data structure, printer with automatic color correction function, method for creating photographic image with face object information, and method for correcting color
JP2011048655A (en) * 2009-08-27 2011-03-10 Canon Inc Image processing apparatus, method for controlling the same, and program
JP2011160292A (en) * 2010-02-02 2011-08-18 Canon Inc Image processing apparatus, and image processing method
US8013906B2 (en) 2005-06-20 2011-09-06 Canon Kabushiki Kaisha Image sensing apparatus and image processing method
US8125533B2 (en) 2007-05-08 2012-02-28 Seiko Epson Corporation Undeveloped image data developing apparatus, method for developing undeveloped image data, and computer program for developing undeveloped image data
US8488847B2 (en) 2005-11-25 2013-07-16 Nikon Corporation Electronic camera and image processing device
KR101478560B1 (en) * 2007-05-28 2015-01-02 삼성전자주식회사 A mobile terminal for photographing image by remote control and a method therefor
JP2017102642A (en) * 2015-12-01 2017-06-08 カシオ計算機株式会社 Image processor, image processing method and program

Cited By (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4552088B2 (en) * 2005-06-14 2010-09-29 富士フイルム株式会社 Image file management method and apparatus
JP2006352369A (en) * 2005-06-14 2006-12-28 Fujifilm Holdings Corp Image file management method and apparatus thereof
US8013906B2 (en) 2005-06-20 2011-09-06 Canon Kabushiki Kaisha Image sensing apparatus and image processing method
US8644613B2 (en) 2005-08-31 2014-02-04 Seiko Epson Corporation Image selection device and image selection method
JP2007065940A (en) * 2005-08-31 2007-03-15 Seiko Epson Corp Image selection device and image selection means
JP2007066251A (en) * 2005-09-02 2007-03-15 Fujifilm Corp Digital camera and image file management method therefor
JP2007094787A (en) * 2005-09-29 2007-04-12 Fujifilm Corp Portrait image correction device, portrait image correction method and portrait image correction program
US8488847B2 (en) 2005-11-25 2013-07-16 Nikon Corporation Electronic camera and image processing device
JP2007220009A (en) * 2006-02-20 2007-08-30 Seiko Epson Corp Image determination device and image determination method
JP4513764B2 (en) * 2006-02-20 2010-07-28 セイコーエプソン株式会社 Image determination apparatus and image determination method
JP2007264742A (en) * 2006-03-27 2007-10-11 Fujifilm Corp Method for detecting face and imaging device using it
JP2007329520A (en) * 2006-06-06 2007-12-20 Nikon Corp Image reproducing system, digital camera and image reproducing apparatus
EP1988706A2 (en) 2007-05-02 2008-11-05 Casio Computer Co., Ltd. Imaging device, imaging control program, and imaging control method
KR100946086B1 (en) * 2007-05-02 2010-03-10 가시오게산키 가부시키가이샤 Imaging device, computer-readable recording medium recorded imaging control program, and imaging control method
EP1988706A3 (en) * 2007-05-02 2012-06-27 Casio Computer Co., Ltd. Imaging device, imaging control program, and imaging control method
CN101409789B (en) * 2007-05-02 2012-10-10 卡西欧计算机株式会社 Imaging device and imaging control method
US8379942B2 (en) 2007-05-02 2013-02-19 Casio Computer Co., Ltd. Imaging device, recording medium having recorded therein imaging control program, and imaging control method
US8125533B2 (en) 2007-05-08 2012-02-28 Seiko Epson Corporation Undeveloped image data developing apparatus, method for developing undeveloped image data, and computer program for developing undeveloped image data
JP2008283282A (en) * 2007-05-08 2008-11-20 Seiko Epson Corp Development processor for undeveloped image data, development processing method, and computer program for development processing
KR101478560B1 (en) * 2007-05-28 2015-01-02 삼성전자주식회사 A mobile terminal for photographing image by remote control and a method therefor
JP2008300986A (en) * 2007-05-29 2008-12-11 Canon Inc Image processing apparatus, image processing method and image processing program
GB2452131A (en) * 2007-08-20 2009-02-25 Samsung Techwin Co Ltd Printing images of people
US8411316B2 (en) 2007-08-20 2013-04-02 Samsung Electronics Co., Ltd. Method and apparatus for printing images comprising individual information corresponding to face recognition information on second side of sheet of printing paper
GB2452131B (en) * 2007-08-20 2012-08-22 Samsung Electronics Co Ltd Method and apparatus for printing images
JP2009135616A (en) * 2007-11-28 2009-06-18 Softbank Mobile Corp Communication terminal, information processing method, and program
JP2009206583A (en) * 2008-02-26 2009-09-10 Nikon Corp Imaging apparatus, and image processing program
JP2009239368A (en) * 2008-03-25 2009-10-15 Seiko Epson Corp Image processing method, image processor, image processing program, and printing device
JP2010045770A (en) * 2008-07-16 2010-02-25 Canon Inc Image processor and image processing method
JP2010049312A (en) * 2008-08-19 2010-03-04 Casio Comput Co Ltd Image processing device, image processing method, and program
JP2010050501A (en) * 2008-08-19 2010-03-04 Tatsumi Denshi Kogyo Kk Automatic photograph-creating device and automatic photograph creating method
JP2010062920A (en) * 2008-09-04 2010-03-18 Ricoh Co Ltd Image processor, image processing method, program, and recording medium
JP4726251B2 (en) * 2008-09-18 2011-07-20 キヤノン株式会社 Imaging apparatus and image processing method
JP2009017591A (en) * 2008-09-18 2009-01-22 Canon Inc Imaging apparatus and image processing method
US8373760B2 (en) 2009-03-11 2013-02-12 Casio Computer Co., Ltd. Image capturing device suitable for photographing a person
JP2010213090A (en) * 2009-03-11 2010-09-24 Casio Computer Co Ltd Imaging apparatus, imaging method, and imaging program
JP2009207189A (en) * 2009-06-15 2009-09-10 Nikon Corp Digital camera
JP2011048655A (en) * 2009-08-27 2011-03-10 Canon Inc Image processing apparatus, method for controlling the same, and program
JP2011160292A (en) * 2010-02-02 2011-08-18 Canon Inc Image processing apparatus, and image processing method
JP2010252352A (en) * 2010-05-24 2010-11-04 Seiko Epson Corp Image processing device, digital camera, image data structure, printer with automatic color correction function, method of producing face object information-attached photographed image, and color correction method
JP2010267278A (en) * 2010-06-22 2010-11-25 Seiko Epson Corp Image processor, digital camera, image data structure, printer with automatic color correction function, method for creating photographic image with face object information, and method for correcting color
JP2017102642A (en) * 2015-12-01 2017-06-08 カシオ計算機株式会社 Image processor, image processing method and program

Similar Documents

Publication Publication Date Title
JP2005086516A (en) Imaging device, printer, image processor and program
JP4218348B2 (en) Imaging device
US8494286B2 (en) Face detection in mid-shot digital images
US7995106B2 (en) Imaging apparatus with human extraction and voice analysis and control method thereof
US8488847B2 (en) Electronic camera and image processing device
JP4898532B2 (en) Image processing apparatus, photographing system, blink state detection method, blink state detection program, and recording medium on which the program is recorded
US7734098B2 (en) Face detecting apparatus and method
US7206022B2 (en) Camera system with eye monitoring
JP4344925B2 (en) Image processing apparatus, image processing method, and printing system
US20150063692A1 (en) Image capture device with contemporaneous reference image capture mechanism
US20100302595A1 (en) Image Reproducing Apparatus And Imaging Apparatus
JP2005303991A (en) Imaging device, imaging method, and imaging program
US7903164B2 (en) Image capturing apparatus, an image capturing method and a machine readable medium storing thereon a computer program for capturing an image of a range wider than an image capture designation range
JP4432886B2 (en) Electronic camera
US8421901B2 (en) Display apparatus and imaging apparatus
JP2012027687A (en) Image processing apparatus and program
TW201102938A (en) Image capturing apparatus, face area detecting method and program recording medium
US20100188520A1 (en) Imaging device and storage medium storing program
JP4364466B2 (en) Imaging device
JP2008245093A (en) Digital camera, and control method and control program of digital camera
JP5272775B2 (en) Electronic still camera
JP5353293B2 (en) Image processing apparatus and electronic still camera
JP5213506B2 (en) Image processing apparatus, image processing apparatus control method, and program
JP6098133B2 (en) Face component extraction device, face component extraction method and program
JP5995610B2 (en) Subject recognition device and control method therefor, imaging device, display device, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060911

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080617

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080808

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080902