JP2010021921A - Electronic camera and image processing program - Google Patents

Electronic camera and image processing program Download PDF

Info

Publication number
JP2010021921A
JP2010021921A JP2008182500A JP2008182500A JP2010021921A JP 2010021921 A JP2010021921 A JP 2010021921A JP 2008182500 A JP2008182500 A JP 2008182500A JP 2008182500 A JP2008182500 A JP 2008182500A JP 2010021921 A JP2010021921 A JP 2010021921A
Authority
JP
Japan
Prior art keywords
image
face
electronic camera
processing
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008182500A
Other languages
Japanese (ja)
Inventor
Masaoki Sano
正興 佐野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008182500A priority Critical patent/JP2010021921A/en
Publication of JP2010021921A publication Critical patent/JP2010021921A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an electronic camera capable of performing image processing on a photographed image without trouble. <P>SOLUTION: The electronic camera includes an imaging device, a display section, a face detection section, a face recognition section, identification information adding section, and an image processing section. The imaging device performs photoelectric conversion on a subject image to produce image data. The display section displays the image on the basis of the image data. The face detection section detects a face of a person from the image displayed on the display section. The face recognition section extracts feature points representing features of the face from the face. The identification information adding section adds, to the image data, identification information for identifying the face on the basis of a user input or the feature points. The image processing section collectively performs prescribed working processing on image data to which the same identification information is added. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、顔検出機能を備える電子カメラおよび画像処理プログラムに関する。   The present invention relates to an electronic camera having a face detection function and an image processing program.

近年、インターネットの普及につれて、ユーザがパーソナルコンピュータ上でブログの作成を気軽に行なえるようになってきている。そのため、個人によるブログサイトが多数存在している。なお、ブログとは、個人や数人のグループで運営され、日々更新される日常的なWeb(World Wide Web)サイトの総称をいう。ユーザは、ブログ上で、日記などの文字情報だけでなく、電子カメラで撮影した画像の公開を行ったりすることもできる。   In recent years, with the spread of the Internet, users can easily create blogs on personal computers. Therefore, there are many personal blog sites. A blog is a general term for a daily Web (World Wide Web) site operated by an individual or a group of several people and updated daily. On the blog, the user can publish not only text information such as a diary but also images taken with an electronic camera.

また、インターネットの普及につれて、ユーザが電子カメラで撮影した画像を公開するための画像保管サービスを提供する企業なども存在している。この場合、通信機能を搭載した電子カメラから、インターネットを介して画像保管用のサーバに画像をアップロードすることもできる(例えば、特許文献1参照)。
特開2006−148326号公報
In addition, with the spread of the Internet, there are companies that provide image storage services for publishing images taken by users with electronic cameras. In this case, an image can be uploaded from an electronic camera equipped with a communication function to an image storage server via the Internet (see, for example, Patent Document 1).
JP 2006-148326 A

従来から、撮影した画像をそのままブログなどに掲載するのではなく、画像処理した上で掲載したい場合がある。この場合、ユーザは、電子カメラで撮影した画像をパーソナルコンピュータに一旦取り込んで、画像処理のソフトなどを用いて画像処理することが一般的に行われている。   Conventionally, there are cases in which a photographed image is not posted on a blog as it is, but is desired to be posted after image processing. In this case, a user generally takes an image taken with an electronic camera once into a personal computer and performs image processing using image processing software or the like.

例えば、プライバシー保護の観点から、人物の撮影された画像に対して、特定の人物の顔をモザイク処理したい場合がある。また、人物の撮影された画像に対して、トリミングをして、クローズアップした顔の画像に画像処理したい場合がある。   For example, from the viewpoint of privacy protection, there is a case where it is desired to mosaic a specific person's face on an image of a person taken. In some cases, it is desired to perform image processing on a close-up face image by trimming a photographed image of a person.

しかしながら、複数の画像に対して画像処理したい場合、ユーザが1枚ずつ画像処理をしていたのでは、手間が掛かるという問題が生じてしまう。   However, when it is desired to perform image processing on a plurality of images, if the user performs image processing one by one, there is a problem that it takes time and effort.

そこで、本発明は、上記事情に鑑み、撮影した画像に対して手間が掛からずに画像処理ができる電子カメラを提供することを目的とする。   In view of the above circumstances, an object of the present invention is to provide an electronic camera that can perform image processing without taking time and effort on a captured image.

本発明の他の目的は、撮影した画像に対して手間が掛からずに画像処理ができる画像処理プログラムを提供することを目的とする。   Another object of the present invention is to provide an image processing program that can perform image processing on a captured image without taking time and effort.

第1の発明に係る電子カメラは、撮像素子と、表示部と、顔検出部と、顔認識部と、識別情報付加部と、画像処理部と、を備える。撮像素子は、被写体像を光電変換して画像データを生成する。表示部は、画像データに基づいて画像を表示する。顔検出部は、表示部に表示された画像から人物の顔を検出する。顔認識部は、顔から顔の特徴を表す特徴点を抽出する。識別情報付加部は、ユーザ入力若しくは特徴点に基づいて、顔を識別する識別情報を画像データに付加する。画像処理部は、同一の識別情報が付加された画像データに対して、所定の画像処理を一括して行う。   An electronic camera according to a first invention includes an imaging device, a display unit, a face detection unit, a face recognition unit, an identification information addition unit, and an image processing unit. The imaging device generates image data by photoelectrically converting the subject image. The display unit displays an image based on the image data. The face detection unit detects a person's face from the image displayed on the display unit. The face recognition unit extracts feature points representing the features of the face from the face. The identification information adding unit adds identification information for identifying a face to image data based on a user input or a feature point. The image processing unit collectively performs predetermined image processing on the image data to which the same identification information is added.

第2の発明は、第1の発明において、所定の画像処理は、顔の領域をモザイク化するモザイク処理である。   In a second aspect based on the first aspect, the predetermined image processing is mosaic processing that mosaics a face area.

第3の発明は、第1の発明において、所定の画像処理は、顔の領域をぼかすデジタルぼかし処理である。   In a third aspect based on the first aspect, the predetermined image processing is digital blurring processing for blurring a face area.

第4の発明は、第1の発明において、所定の画像処理は、顔の領域を含む構図を変更するトリミング処理である。   In a fourth aspect based on the first aspect, the predetermined image processing is trimming processing for changing a composition including a face area.

第5の発明は、第1から第4のいずれか1の発明において、所定の画像処理が施された画像に基づいて生成された縮小画像であるサムネイル画像を、所定の画像処理に応じて一覧表示させる表示制御部をさらに備える。   According to a fifth invention, in any one of the first to fourth inventions, thumbnail images, which are reduced images generated based on an image subjected to predetermined image processing, are listed according to the predetermined image processing. A display control unit for displaying is further provided.

第6の発明は、第5の発明において、通信インターフェースを介して画像データを外部の通信先へ送信する通信処理部をさらに備える。通信処理部は、一覧表示されたサムネイル画像の元画像データ若しくは一覧表示されたサムネイル画像のうち、ユーザ入力により選択されたサムネイル画像の元画像データを通信先に一括して転送する。   In a sixth aspect based on the fifth aspect, the image processing apparatus further includes a communication processing unit that transmits the image data to an external communication destination via the communication interface. The communication processing unit collectively transfers the original image data of the thumbnail images displayed as a list or the original image data of the thumbnail images selected by the user input among the thumbnail images displayed as a list to the communication destination.

第7の発明は、第2の発明において、モザイク処理は、表示部に表示された複数の顔のうち、特定の顔の領域若しくはそれ以外の顔の領域について行われる。   In a seventh aspect based on the second aspect, the mosaic processing is performed for a specific face area or a face area other than the plurality of faces displayed on the display unit.

第8の発明は、第3の発明において、デジタルぼかし処理は、表示部に表示された複数の顔のうち、特定の顔の領域若しくはそれ以外の顔の領域について行われる。   In an eighth aspect based on the third aspect, the digital blurring process is performed for a specific face area or a face area other than the plurality of faces displayed on the display unit.

第9の発明は、第4の発明において、トリミング処理は、表示部に表示された一乃至複数の顔のうち、特定の顔を選択して行われる。   In a ninth aspect based on the fourth aspect, the trimming process is performed by selecting a specific face from one or more faces displayed on the display unit.

第10の発明は、第1の発明において、識別情報が付加された画像データを別名保存若しくは上書き保存して、識別情報別に画像データを登録する識別情報登録部をさらに備える。   According to a tenth aspect, in the first aspect, the image processing apparatus further includes an identification information registration unit that stores the image data to which the identification information is added by another name or overwrites and registers the image data for each identification information.

第11の発明に係る画像処理プログラムは、画像を表示する表示部を有するコンピュータに画像処理を実行させる画像処理プログラムであって、表示部に表示された画像から人物の顔を検出する顔検出ステップと、顔から顔の特徴を表す特徴点を抽出する顔認識ステップと、ユーザ入力若しくは特徴点に基づいて、顔を識別する識別情報を画像データに付加する識別情報付加ステップと、同一の識別情報が付加された画像データに対して、所定の画像処理を一括して行う画像処理ステップとをコンピュータに実行させる。   An image processing program according to an eleventh aspect of the invention is an image processing program for causing a computer having a display unit for displaying an image to execute image processing, and for detecting a face of a person from the image displayed on the display unit And a face recognition step for extracting a feature point representing the feature of the face from the face, an identification information addition step for adding identification information for identifying the face to the image data based on the user input or the feature point, and the same identification information The computer is caused to execute an image processing step for collectively performing predetermined image processing on the image data to which is added.

本発明の電子カメラによれば、撮影した画像に対して手間が掛からずに画像処理をすることができる。また、本発明の画像処理プログラムは、撮影した画像に対して手間が掛からずに画像処理をすることができる。これにより、ユーザの利便性が向上する。   According to the electronic camera of the present invention, it is possible to perform image processing without taking time and effort on a captured image. In addition, the image processing program of the present invention can perform image processing on a captured image without taking time and effort. This improves the convenience for the user.

(第1実施形態)
以下、図面に基づいて本発明の実施の形態を詳細に説明する。
(First embodiment)
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、第1実施形態の電子カメラ1の背面図である。図1に示すようにレリーズボタン2が電子カメラ1の上面に配置されている。また、広角ズームキー3と、望遠ズームキー4と、電源ボタン5と、モードスイッチ6と、メニュー切替・実行キー7とが電子カメラ1の背面に配置されている。広角ズームキー3は、焦点距離を広角側に変更するための操作ボタンである。望遠ズームキー4は、焦点距離を望遠側に変更するための操作ボタンである。モードスイッチ6は、撮影モードを静止画撮影または静止画再生に切り替える操作ボタンである。メニュー切替・実行キー7は、静止画撮影や静止画再生などに使用されるメニューを自在に切り替えて設定条件を選択若しくは実行する操作ボタンである。   FIG. 1 is a rear view of the electronic camera 1 according to the first embodiment. As shown in FIG. 1, a release button 2 is disposed on the upper surface of the electronic camera 1. A wide-angle zoom key 3, a telephoto zoom key 4, a power button 5, a mode switch 6, and a menu switching / execution key 7 are disposed on the back of the electronic camera 1. The wide angle zoom key 3 is an operation button for changing the focal length to the wide angle side. The telephoto zoom key 4 is an operation button for changing the focal length to the telephoto side. The mode switch 6 is an operation button for switching the shooting mode to still image shooting or still image playback. The menu switching / execution key 7 is an operation button for selecting or executing a setting condition by freely switching a menu used for still image shooting or still image reproduction.

図2は、第1実施形態の電子カメラ1の構成を示すブロック図である。図2に示す通り電子カメラ1には、撮影レンズ10と、レンズ駆動部11と、絞り12と、絞り駆動部13と、撮像素子14と、タイミングジェネレータ(TG)15と、アナログフロントエンド部(以下、「AFE」という。)16と、画像信号処理部17と、RAM(Random Access Memory)18と、ROM(Read Only Memory)19と、表示制御部20と、液晶表示モニタ21と、操作部22と、CPU(Central Processing Unit)23と、記録インターフェース(記録I/F)24と、バス25と、記録媒体26と、通信インターフェース(通信I/F)27とが備えられている。このうち画像信号処理部17、RAM18、ROM19、表示制御部20、CPU23、記録インターフェース(記録I/F)24および通信インターフェース(通信I/F)27は、バス25を介して互いに接続されている。また、操作部22はCPU23に接続されている。   FIG. 2 is a block diagram illustrating a configuration of the electronic camera 1 according to the first embodiment. As shown in FIG. 2, the electronic camera 1 includes a photographing lens 10, a lens driving unit 11, a diaphragm 12, a diaphragm driving unit 13, an image sensor 14, a timing generator (TG) 15, and an analog front end unit ( (Hereinafter referred to as “AFE”) 16, an image signal processing unit 17, a RAM (Random Access Memory) 18, a ROM (Read Only Memory) 19, a display control unit 20, a liquid crystal display monitor 21, and an operation unit. 22, a CPU (Central Processing Unit) 23, a recording interface (recording I / F) 24, a bus 25, a recording medium 26, and a communication interface (communication I / F) 27. Among these, the image signal processing unit 17, RAM 18, ROM 19, display control unit 20, CPU 23, recording interface (recording I / F) 24 and communication interface (communication I / F) 27 are connected to each other via a bus 25. . The operation unit 22 is connected to the CPU 23.

撮影レンズ10は、ズームレンズと、フォーカスレンズとを含む複数のレンズ群で構成されている。なお、簡単のため、図2では、撮影レンズ10を1枚のレンズとして図示する。撮影レンズ10を構成する各々のレンズは、レンズ駆動部11によって光軸方向に移動する。なお、レンズ駆動部11の入出力はCPU23と接続されている。   The photographing lens 10 includes a plurality of lens groups including a zoom lens and a focus lens. For the sake of simplicity, FIG. 2 shows the photographing lens 10 as a single lens. Each lens constituting the photographing lens 10 is moved in the optical axis direction by the lens driving unit 11. The input / output of the lens driving unit 11 is connected to the CPU 23.

絞り12は、撮影レンズ10からの入射光量を調整する。絞り12の開口量は、絞り駆動部13によって調整される。なお、絞り駆動部13の入出力はCPU23と接続されている。   The diaphragm 12 adjusts the amount of incident light from the photographing lens 10. The opening amount of the diaphragm 12 is adjusted by the diaphragm driving unit 13. The input / output of the aperture driving unit 13 is connected to the CPU 23.

撮像素子14は、撮影レンズ10からの入射光を光電変換することにより、画像信号(アナログ信号)を生成する。被写体の撮影を行う撮影モードでは、撮像素子14は、撮影時に記録用の画像を出力する。また、撮影待機時には、撮像素子14は、所定時間経過毎に構図確認用のスルー画像を出力する。   The imaging device 14 generates an image signal (analog signal) by photoelectrically converting incident light from the photographing lens 10. In the photographing mode for photographing a subject, the image sensor 14 outputs a recording image at the time of photographing. Further, at the time of shooting standby, the image sensor 14 outputs a through image for composition confirmation every elapse of a predetermined time.

また、タイミングジェネレータ(TG)15は、CPU23からの指示に従い撮像素子14およびAFE16の各々へ向けて駆動信号を送出し、それによって両者の駆動タイミングを制御する。   Further, the timing generator (TG) 15 sends drive signals to each of the image sensor 14 and the AFE 16 according to instructions from the CPU 23, thereby controlling the drive timing of both.

AFE16は、撮像素子14が生成する画像信号に対して信号処理を施すアナログフロントエンド回路である。このAFE16は、画像信号のゲイン調整や、画像信号のA/D変換などを行う。このAFE16が出力する画像信号(デジタル信号)は、画像信号処理部17へ入力される。   The AFE 16 is an analog front-end circuit that performs signal processing on an image signal generated by the image sensor 14. The AFE 16 performs image signal gain adjustment, A / D conversion of the image signal, and the like. The image signal (digital signal) output from the AFE 16 is input to the image signal processing unit 17.

画像信号処理部17は、AFE16が出力するRGB信号の画像データをRAM18のフレームメモリに一時的に記憶させる。また、画像信号処理部17はRGB信号の画像データを輝度(Y)と色(C)とで表されるYC信号の画像データに変換する。   The image signal processing unit 17 temporarily stores the RGB signal image data output from the AFE 16 in the frame memory of the RAM 18. The image signal processing unit 17 converts the RGB signal image data into YC signal image data represented by luminance (Y) and color (C).

また、画像信号処理部17は、フレームメモリに記憶されている画像データに対してホワイトバランス補正処理、ゲインコントロール処理などの画像信号の処理を行う。   The image signal processing unit 17 performs image signal processing such as white balance correction processing and gain control processing on the image data stored in the frame memory.

記録インターフェース(記録I/F)24には、記録媒体26を接続するためのコネクタが形成されている。記録インターフェース(記録I/F)24はCPU23からの指示により、そのコネクタに接続された記録媒体26にアクセスして画像の記録処理を行う。   A connector for connecting the recording medium 26 is formed in the recording interface (recording I / F) 24. The recording interface (recording I / F) 24 accesses the recording medium 26 connected to the connector according to an instruction from the CPU 23 and performs image recording processing.

通信インターフェース(通信I/F)27は、例えば、無線通信でデータのやりとりをする無線LAN(Local Area Network)を実現させるための通信インターフェースである。   The communication interface (communication I / F) 27 is a communication interface for realizing a wireless LAN (Local Area Network) that exchanges data by wireless communication, for example.

操作部22は、既に図1で説明した電子カメラ1の背面および上面に備えられている各操作ボタン(レリーズボタン2、広角ズームキー3、望遠ズームキー4、電源ボタン5、モードスイッチ6およびメニュー切替・実行キー7)の操作を受け付けてCPU23に処理の命令を出す。   The operation unit 22 includes operation buttons (release button 2, wide-angle zoom key 3, telephoto zoom key 4, power button 5, mode switch 6 and menu switch / menu switch provided on the back and top surfaces of the electronic camera 1 already described with reference to FIG. The operation of the execution key 7) is accepted and a processing command is issued to the CPU 23.

CPU23は、電子カメラ1の制御を行うプロセッサである。CPU23は、ROM19に予め格納されたシーケンスプログラムを実行することにより、各処理のパラメータを算出したり、電子カメラ1の各部を制御したりする。また、本実施形態のCPU23は、
顔検出部23aと、顔認識部23bと、識別情報付加部23cと、識別情報登録部23dと、画像処理部23eと、通信処理部23fとしても機能する。
The CPU 23 is a processor that controls the electronic camera 1. The CPU 23 calculates a parameter for each process and controls each part of the electronic camera 1 by executing a sequence program stored in advance in the ROM 19. In addition, the CPU 23 of the present embodiment
It also functions as a face detection unit 23a, a face recognition unit 23b, an identification information adding unit 23c, an identification information registration unit 23d, an image processing unit 23e, and a communication processing unit 23f.

顔検出部23aは、液晶表示モニタ21に表示されたスルー画像や撮影画像から顔を検出する。顔認識部23bは、検出した顔に基づいて顔の器官を構成する特徴点を抽出する。顔検出部23aおよび顔認識部23bは、一例として特開2001−16573号公報に記載された公知の技術によって行われる。この場合、顔認識部23bは、特開2001−16573号公報に記載された特徴点抽出処理によって顔の特徴点を抽出する。特徴点としては、例えば、眉、目、鼻、唇、顔の輪郭などが挙げられる。なお、特徴点抽出処理では、例えば、顔の色彩や明度の分散、強度分布などを特徴量として検出することもできる。   The face detection unit 23 a detects a face from a through image or a captured image displayed on the liquid crystal display monitor 21. The face recognizing unit 23b extracts feature points constituting the facial organ based on the detected face. The face detection unit 23a and the face recognition unit 23b are performed by a known technique described in Japanese Patent Laid-Open No. 2001-16573 as an example. In this case, the face recognition unit 23b extracts facial feature points by a feature point extraction process described in Japanese Patent Laid-Open No. 2001-16573. Examples of feature points include eyebrows, eyes, nose, lips, facial contours, and the like. In the feature point extraction process, for example, the face color, brightness dispersion, intensity distribution, and the like can be detected as the feature amount.

識別情報付加部23cは、人物の名称を識別情報として画像データに付加する。ここでは、画像ファイル(画像データ)として、Exif(Exchangeable Image File Format)形式を採用する。   The identification information adding unit 23c adds the name of the person to the image data as identification information. Here, an Exif (Exchangeable Image File Format) format is adopted as the image file (image data).

図3は、Exifの画像ファイルを模式的に表した図である。第1実施形態では、画像ファイルは、Exif(Exchangeable image file)のファイルフォーマットに準拠している。このExifは、電子カメラの代表的なファイルフォーマットである。Exifには、TIFFファイル(Tagged Image File Format)形式の非圧縮画像ファイルとJPEG(Joint Photographic Experts Group)ファイル形式の圧縮画像ファイルとの2種類のフォーマットが規定されている。図3では、従来から公知のTIFFファイルの構造を表している。   FIG. 3 is a diagram schematically showing an Exif image file. In the first embodiment, the image file conforms to the file format of Exif (Exchangeable image file). This Exif is a typical file format of an electronic camera. Exif defines two types of formats, an uncompressed image file in the TIFF file (Tagged Image File Format) format and a compressed image file in the JPEG (Joint Photographic Experts Group) file format. FIG. 3 shows the structure of a conventionally known TIFF file.

TIFFファイルは、TIFFヘッダで始まる階層的な構造となっている。TIFFファイルでは、TIFFヘッダに続いてイメージファイルディレクトリ(IFD:Image File Directory)が配置されている。また、画像データは、ストリップやタイルと呼ばれるブロック状に分割されて記録される。そして、「Value of IFD領域」には、分割された各画像データに対応するポインタ値がストリップやタイルの数だけ格納されている。   The TIFF file has a hierarchical structure starting with a TIFF header. In the TIFF file, an image file directory (IFD: Image File Directory) is arranged following the TIFF header. The image data is divided and recorded in blocks called strips or tiles. In the “Value of IFD area”, pointer values corresponding to the divided image data are stored for the number of strips and tiles.

IFD領域には、データブロック(IFD Entry)が複数含まれている。ここで、「IFDEntry」の先頭2バイトは、個々の付加情報を表す識別番号が配置されている。そして、この識別番号は、具体的な付加情報(イメージの大きさ、圧縮法の種類、解像度等)に対応付けされている。なお、Exifでは、通常のTIFFでは定義されていない付加情報が定義できる。本実施例では、人物の名称を表す識別番号を追加する。これにより、個々の人物の名称は、識別番号に対応付けて記録することができる。なお、識別情報としては、人物の名称は一例であって、人物の略称であってもよい。   The IFD area includes a plurality of data blocks (IFD Entry). Here, in the first two bytes of “IFDEntry”, an identification number representing each additional information is arranged. This identification number is associated with specific additional information (image size, compression method type, resolution, etc.). In Exif, additional information that is not defined in normal TIFF can be defined. In this embodiment, an identification number representing the name of a person is added. Thereby, the name of each person can be recorded in association with the identification number. In addition, as identification information, the name of a person is an example, Comprising: The abbreviation of a person may be sufficient.

識別情報登録部23dは、人物の名称別にフォルダ(顔認証フォルダ)を作成し、人物の名称が付加された画像データを別名保存若しくは上書き保存して、記録媒体26に登録(記録)する。   The identification information registration unit 23d creates a folder (face authentication folder) for each person's name, saves the image data with the person's name as an alias or overwrites it, and registers (records) it in the recording medium 26.

画像処理部23eは、モザイク処理、デジタルぼかし処理、トリミング処理などを行う(詳細は後述する)。   The image processing unit 23e performs mosaic processing, digital blur processing, trimming processing, and the like (details will be described later).

通信処理部23fは、通信インターフェース(通信I/F)27を介して、例えば、外部のサーバに無線通信で画像データを送信する。   The communication processing unit 23f transmits the image data by wireless communication to, for example, an external server via the communication interface (communication I / F) 27.

表示制御部20は、画像データに基づいて液晶表示モニタ21に画像を表示させる。また、表示制御部20は、画像処理部23eにより所定の画像処理が施された画像を液晶表示モニタ21にさせる。さらに、表示制御部20は、縮小画像であるサムネイル画像を所定の画像処理に応じて液晶表示モニタ21に一覧表示させる。   The display control unit 20 displays an image on the liquid crystal display monitor 21 based on the image data. Further, the display control unit 20 causes the liquid crystal display monitor 21 to display an image on which predetermined image processing has been performed by the image processing unit 23e. Furthermore, the display control unit 20 displays a list of thumbnail images, which are reduced images, on the liquid crystal display monitor 21 according to predetermined image processing.

次に、第1実施形態における電子カメラ1の動作の一例を説明する。   Next, an example of the operation of the electronic camera 1 in the first embodiment will be described.

図4は、電子カメラ1の撮影動作を表すフローチャートである。ここでは、まず、顔検出機能から識別情報登録機能までの処理について説明する。以下の説明では、顔検出機能、顔認識機能をオンにするとともに、識別情報登録機能もオンに設定した場合について説明する。   FIG. 4 is a flowchart showing the photographing operation of the electronic camera 1. Here, processing from the face detection function to the identification information registration function will be described first. In the following description, a case where the face detection function and the face recognition function are turned on and the identification information registration function is also turned on will be described.

ステップS101:CPU23は、タイミングジェネレータ(TG)15を介して撮像素子14を駆動させることによりスルー画像の取得を開始する。このスルー画像は、液晶表示モニタ21に表示される。   Step S101: The CPU 23 starts acquiring a through image by driving the image sensor 14 via the timing generator (TG) 15. This through image is displayed on the liquid crystal display monitor 21.

図5は、顔検出機能を説明する図である。図5(a)では、スルー画像(被写体:人物A)が液晶表示モニタ21に表示されている様子を表している。このスルー画像を用いて、顔検出処理および顔認識処理が行われる。ここでは、説明をわかりやすくするため、1人の人物の顔検出を行うが、複数人の場合についても同様に行うことができる。   FIG. 5 is a diagram for explaining the face detection function. FIG. 5A shows a state in which a through image (subject: person A) is displayed on the liquid crystal display monitor 21. Using this through image, face detection processing and face recognition processing are performed. Here, in order to make the explanation easy to understand, the face detection of one person is performed, but the same can be done for a plurality of persons.

ステップS102:CPU23は、スルー画像が取得開始されたか否かを判定する。スルー画像が取得開始された場合は(ステップS102:Yes)、ステップS103に移行する。一方、レリーズボタンが所定時間経過しても半押しされない場合は(ステップS102:No)、節電モードが機能してこの処理ルーチンは終了する。   Step S102: The CPU 23 determines whether or not acquisition of a through image has started. When acquisition of a through image is started (step S102: Yes), the process proceeds to step S103. On the other hand, if the release button is not half-pressed even after a predetermined time has elapsed (step S102: No), the power saving mode functions and this processing routine ends.

ステップS103:CPU23の顔検出部23aは、スルー画像に上述した顔検出処理を施して撮影画面から顔を検出する。この際、顔検出部23aは、撮像素子14で生成する画像信号に基づいて色の成分や輝度値を取得する。この場合、顔検出部23aは、肌色成分の領域を特定するなどして、顔を検出する。顔検出がなされた場合、CPU23は、撮影画面内の顔の位置を特定するための座標データに基づいて、図5(b)に示すように顔を囲む矩形状のマーク(顔検出枠21a)を液晶表示モニタ21に表示させる。   Step S103: The face detection unit 23a of the CPU 23 performs the face detection process described above on the through image and detects the face from the shooting screen. At this time, the face detection unit 23 a acquires a color component and a luminance value based on an image signal generated by the image sensor 14. In this case, the face detection unit 23a detects the face by specifying a skin color component region or the like. When the face is detected, the CPU 23, based on the coordinate data for specifying the position of the face in the shooting screen, as shown in FIG. 5B, a rectangular mark (face detection frame 21a) surrounding the face. Is displayed on the liquid crystal display monitor 21.

ステップS104:CPU23は、ステップS103の顔検出処理で顔を検出したか否かを判定する。顔検出部23aが顔を検出できた場合には(ステップS104:Yes)、顔認識処理(ステップS105)に移行する。   Step S104: The CPU 23 determines whether or not a face has been detected in the face detection process of step S103. When the face detection unit 23a has detected a face (step S104: Yes), the process proceeds to face recognition processing (step S105).

一方、顔検出部23aが顔を検出できなかった場合には(ステップS104:No)、通常の撮影モードとして、ステップS106に移行する。この場合、全押し操作がなされると(ステップS106:Yes)、本画像取得の処理(ステップS107)へ移行する。ステップS107以降の処理については、後述する。   On the other hand, when the face detection unit 23a cannot detect the face (step S104: No), the process proceeds to step S106 as the normal shooting mode. In this case, when the full-press operation is performed (step S106: Yes), the process proceeds to the main image acquisition process (step S107). The processing after step S107 will be described later.

ステップS105:CPU23の顔認識部23bは、検出した顔に基づいて顔の器官を構成する特徴点を抽出する。   Step S105: The face recognition unit 23b of the CPU 23 extracts feature points constituting the facial organ based on the detected face.

図6は、顔認識機能を説明する図である。図6では、図5(b)に示した顔検出枠の顔の領域に対して、目、鼻、唇、顔の輪郭等の特徴点を抽出する。   FIG. 6 is a diagram illustrating the face recognition function. In FIG. 6, feature points such as eyes, nose, lips, and face outline are extracted from the face area of the face detection frame shown in FIG.

ステップS106:CPU23は、レリーズボタンが全押しされたか否かを判定する。レリーズボタンが全押しされていない場合は(ステップS106:No)、ステップS102に戻る。一方、レリーズボタンが全押しされた場合は(ステップS106:Yes)、ステップS107へ移行する。   Step S106: The CPU 23 determines whether or not the release button has been fully pressed. If the release button has not been fully pressed (step S106: No), the process returns to step S102. On the other hand, when the release button is fully pressed (step S106: Yes), the process proceeds to step S107.

ステップS107:CPU23は、操作部22からの全押し操作を受けて、本画像取得のため、タイミングジェネレータ(TG)15を介して撮像素子14を駆動させる。AFE16では、画像信号のゲイン調整や画像信号のA/D変換が行われる。このAFE16が出力する画像信号(デジタル信号)は、画像信号処理部17へ入力される。画像信号処理部17は、AFE16が出力する本画像データをRAM18のフレームメモリに記憶させる。画像信号処理部17は、フレームメモリに記憶されている本画像データに対してホワイトバランス補正処理、ゲインコントロール処理などの画像信号の処理を行う。   Step S107: Upon receiving the full-press operation from the operation unit 22, the CPU 23 drives the image sensor 14 via the timing generator (TG) 15 for acquiring the main image. The AFE 16 performs gain adjustment of the image signal and A / D conversion of the image signal. The image signal (digital signal) output from the AFE 16 is input to the image signal processing unit 17. The image signal processing unit 17 stores the main image data output from the AFE 16 in the frame memory of the RAM 18. The image signal processing unit 17 performs image signal processing such as white balance correction processing and gain control processing on the main image data stored in the frame memory.

ステップS108:CPU23の識別情報付加部23cは、顔検出された人物の名称を識別情報として画像データに付加する。ここでは、2通りの方法によって識別情報を画像データに付加する。   Step S108: The identification information adding unit 23c of the CPU 23 adds the name of the person whose face is detected as identification information to the image data. Here, identification information is added to image data by two methods.

第1の方法は以下の通りである。まず、表示制御部20は、ステップS107で画像信号の処理が施された後の画像を液晶表示モニタ21に表示させるとともに、図5(b)に示すように顔検出枠21aを表示させる。続いて、CPU23は、ユーザ入力により図1に示すメニュー切替・実行キー7を用いて人物の名称が入力されたのを受けて、識別情報付加部23cは、Exifのヘッダファイルにその人物の名称を書き込む。   The first method is as follows. First, the display control unit 20 displays the image after the image signal processing in step S107 on the liquid crystal display monitor 21, and displays the face detection frame 21a as shown in FIG. 5B. Subsequently, the CPU 23 receives the name of the person input by the user input using the menu switching / execution key 7 shown in FIG. 1, and the identification information adding unit 23c adds the name of the person to the Exif header file. Write.

第2の方法は以下の通りである。CPU23は、顔認識部23bが抽出した特徴点に基づいて、既に保存されている画像データに対して、同様の特徴点を有する人物の画像が存在するか否かについて探索する。同様の特徴点を有する人物の画像が存在した場合には、識別情報付加部23cは、その人物の名称をExifのヘッダファイルにその人物の名称を識別情報として書き込む。   The second method is as follows. Based on the feature points extracted by the face recognition unit 23b, the CPU 23 searches the image data that has already been stored to determine whether or not a person image having the same feature points exists. When there is an image of a person having a similar feature point, the identification information adding unit 23c writes the name of the person in the Exif header file as the identification information.

本実施形態では、上記第1の方法若しくは上記第2の方法により、識別情報付加部23cが、Exifのヘッダファイルに人物の名称を書き込んでもよく、上記第1の方法と上記第2の方法とを組み合わせてもよい。   In the present embodiment, the identification information adding unit 23c may write the person's name in the Exif header file by the first method or the second method, and the first method, the second method, May be combined.

ステップS109:CPU23は、本画像データを圧縮処理して記録媒体26に保存する。ここで、識別情報登録部23dは、人物の名称別にフォルダ(顔認証フォルダ)を作成し、人物の名称が付加された画像データを別名保存若しくは上書き保存して、記録媒体26に登録(記録)する。そして、この処理ルーチンは終了する。   Step S109: The CPU 23 compresses the main image data and stores it in the recording medium 26. Here, the identification information registration unit 23d creates a folder (face authentication folder) for each person's name, and saves or overwrites the image data with the person's name added, and registers (records) it in the recording medium 26. To do. Then, this processing routine ends.

次に、画像処理部23eおよび通信処理部23fの処理について説明する。   Next, processing of the image processing unit 23e and the communication processing unit 23f will be described.

図7は、電子カメラ1における画像データの処理を表すフローチャートである。ここでは、同一の識別情報が付加された画像データに対して、モザイク処理を一括して行う処理と、モザイク処理が施された画像データに対して、外部の画像保管用のサーバに画像をアップロードする処理についてまず説明する。   FIG. 7 is a flowchart showing image data processing in the electronic camera 1. Here, processing that batches mosaic processing for image data with the same identification information added, and uploading images to an external image storage server for image data that has undergone mosaic processing First, the processing to be performed will be described.

図7に示すフローチャートは、ユーザが人物別再生画面のモードを選択すると開始する。この人物別再生画面のモードを選択することにより、画像データの一括画像処理や画像データのアップロードを行うことができる。   The flowchart shown in FIG. 7 starts when the user selects the mode of the reproduction screen for each person. By selecting the mode of the reproduction screen for each person, batch image processing of image data and image data upload can be performed.

ステップS201:CPU23は、ユーザが人物別再生画面のコマンド信号を受け付けると、表示制御部20を介して、液晶表示モニタ21に人物別再生画面のモードのメニュー表示をさせる。   Step S201: When the user receives a command signal for the reproduction screen for each person, the CPU 23 causes the liquid crystal display monitor 21 to display a menu for the mode for the reproduction screen for each person via the display control unit 20.

図8は、人物別再生画面のモードの一例を説明する図である。図8(a)に示すように、液晶表示モニタ21には、人物別再生画面のモードのメニュー表示がなされる。   FIG. 8 is a diagram for explaining an example of the mode of the reproduction screen for each person. As shown in FIG. 8A, the liquid crystal display monitor 21 displays a menu for the mode of the reproduction screen for each person.

ステップS202:CPU23は、ユーザ入力により、人物Aの顔認証フォルダaを選択した旨のコマンド信号を受け付けると、記録媒体26の顔認証フォルダaから、人物Aが映っている画像を読み出す。CPU23は、人物Aが映っている画像のサムネイル画像を生成する。なお、サムネイル画像を予め元画像とは別に記録媒体26の顔認証フォルダaに記録しておいてもよい。   Step S202: Upon receiving a command signal indicating that the face authentication folder a of the person A has been selected by user input, the CPU 23 reads an image showing the person A from the face authentication folder a of the recording medium 26. The CPU 23 generates a thumbnail image of an image showing the person A. Note that thumbnail images may be recorded in advance in the face authentication folder a of the recording medium 26 separately from the original image.

ステップS203:CPU23は、表示制御部20を介して、人物Aが写っているサムネイル画像を液晶表示モニタ21に表示させる。図8(b)は、人物Aが写っているサムネイル画像の一例を示す。   Step S203: The CPU 23 causes the liquid crystal display monitor 21 to display a thumbnail image showing the person A via the display control unit 20. FIG. 8B shows an example of a thumbnail image in which the person A is shown.

ステップS204:CPU23は、ユーザ入力により、画像処理選択のコマンド信号を受け付けると、表示制御部20を介して、画像処理選択のメニューを液晶表示モニタ21に表示させる。   Step S <b> 204: When receiving a command signal for image processing selection by user input, the CPU 23 displays a menu for image processing selection on the liquid crystal display monitor 21 via the display control unit 20.

図9は、画像処理選択のメニューの一例を説明する図である。図9(a)に示すように、液晶表示モニタ21には、画像処理選択のメニュー表示がなされる。例えば、ユーザ入力により一括モザイクが選択されると、図9(b)に示すように、一括モザイクの具体的な処理内容がメニュー表示される。ここで、ユーザ入力により、(1)登録人物Aについてモザイク処理を行うケース、(2)登録人物A以外についてモザイク処理を行うケースの2通りを選択することができる。なお、これは一例であって、例えば、画像に写っている人物すべてであってもよい。さらに、ユーザ入力により、モザイク処理のレベルを設定することができる。例えば、不図示のバー表示によって、レベル設定を行うようにしてもよい。なお、このモザイク処理は公知の技術によって行われる。   FIG. 9 is a diagram illustrating an example of a menu for image processing selection. As shown in FIG. 9A, the liquid crystal display monitor 21 displays an image processing selection menu. For example, when a batch mosaic is selected by a user input, as shown in FIG. 9B, specific processing contents of the batch mosaic are displayed in a menu. Here, it is possible to select two types by user input: (1) a case where the mosaic process is performed for the registered person A, and (2) a case where the mosaic process is performed for other than the registered person A. Note that this is an example, and for example, all the persons shown in the image may be used. Further, the mosaic processing level can be set by user input. For example, the level may be set by a bar display (not shown). This mosaic process is performed by a known technique.

ステップS205:CPU23は、ユーザ入力により一括モザイクの実行のコマンド信号を受け付けると、CPU23の画像処理部23eは、選択された顔の領域のモザイク処理を行う。   Step S205: When the CPU 23 receives a command signal for executing a batch mosaic by a user input, the image processing unit 23e of the CPU 23 performs a mosaic process on the selected face area.

図10は、モザイク処理の一例を説明する図である。図10(a)は、登録人物Aについてモザイク処理を行った場合の一例を表している。図10(b)は、登録人物A以外についてモザイク処理を行った場合の一例を表している。なお、モザイク処理は、顔検出の際に顔の座標を記憶しておくことで、記録媒体26から画像データをRAM18に読み出して、RAM18内でモザイク処理を一括して行ってもよい。この場合、液晶表示モニタ21に画像を表示せずに済むので処理時間が短縮される。   FIG. 10 is a diagram illustrating an example of the mosaic process. FIG. 10A shows an example when a mosaic process is performed on the registered person A. FIG. FIG. 10B shows an example when mosaic processing is performed for persons other than the registered person A. In the mosaic processing, the face coordinates may be stored at the time of face detection so that the image data is read from the recording medium 26 to the RAM 18 and the mosaic processing may be collectively performed in the RAM 18. In this case, since it is not necessary to display an image on the liquid crystal display monitor 21, the processing time is shortened.

ステップS206:CPU23は、例えば、表示制御部20を介して、図10に示す画像を液晶表示モニタ21にプレビュー表示させる。この場合、モザイク処理のパラメータを変えて再度モザイク処理を実行することが可能である。また、CPU23は、表示制御部20を介して、モザイク処理を行った後の画像を液晶表示モニタ21にサムネイル表示させる。   Step S206: For example, the CPU 23 displays a preview of the image shown in FIG. 10 on the liquid crystal display monitor 21 via the display control unit 20. In this case, it is possible to change the mosaic processing parameters and execute the mosaic processing again. Further, the CPU 23 causes the liquid crystal display monitor 21 to display thumbnails on the liquid crystal display monitor 21 through the display control unit 20.

図11は、モザイク処理後のサムネイル表示の一例を説明する図である。ここでは、簡単のため、モザイク処理後の画像2枚をサムネイル画像として表示している。ここで、一覧表示されたサムネイル画像について、ユーザ入力によりアップロードしたい画像を選択することができる。すべてのサムネイル画像の元画像をアップロードしてもよい。   FIG. 11 is a diagram illustrating an example of thumbnail display after mosaic processing. Here, for simplicity, two images after mosaic processing are displayed as thumbnail images. Here, for the thumbnail images displayed as a list, an image to be uploaded can be selected by user input. You may upload the original image of all thumbnail images.

ステップS207:CPU23は、ユーザ入力により、サムネイル画像の選択のコマンド信号を受け付けると、表示制御部20を介して、図12に示すメニュー画面を液晶表示モニタ21に表示させる。   Step S207: When receiving a command signal for selecting a thumbnail image by user input, the CPU 23 causes the liquid crystal display monitor 21 to display the menu screen shown in FIG.

図12は、一括アップロードのメニュー画面の一例を説明する図である。ここで、CPU23は、ユーザ入力により、一括アップロードの選択のコマンド信号を受け付けると、この処理ルーチンは、ステップS208に移行する。   FIG. 12 is a diagram for explaining an example of a batch upload menu screen. Here, when the CPU 23 receives a command signal for selecting batch upload by user input, the processing routine proceeds to step S208.

ステップS208:CPU23は、一括アップロードを開始する。   Step S208: The CPU 23 starts batch upload.

図13は、一括アップロードの概念図である。CPU23の通信処理部23fは、通信インターフェース(通信I/F)27を介して、まず、無線通信で外部の無線LANアクセスポイント100に画像データを送信する。続いて、無線LANアクセスポイント100では、インターネットを介して画像管理サーバ200に画像データを一括アップロードする。   FIG. 13 is a conceptual diagram of batch upload. The communication processing unit 23 f of the CPU 23 first transmits image data to the external wireless LAN access point 100 by wireless communication via the communication interface (communication I / F) 27. Subsequently, the wireless LAN access point 100 uploads image data to the image management server 200 via the Internet.

そして、CPU23の通信処理部23fは、アップロード完了のコマンド信号を受信することにより、この処理ルーチンは終了する。   Then, the communication processing unit 23f of the CPU 23 receives the upload completion command signal, and the processing routine ends.

次に、一括デジタルぼかし処理について説明する。ステップS204にて、一括デジタルぼかし処理が選択されると、ステップS209に進み、CPU23の画像処理部23eは、選択された顔の領域の一括デジタルぼかし処理を行う。   Next, the batch digital blur process will be described. When the batch digital blur processing is selected in step S204, the process proceeds to step S209, and the image processing unit 23e of the CPU 23 performs batch digital blur processing on the selected face area.

図14は、一括デジタルぼかし処理の一例を示す図である。デジタルぼかし処理については公知の技術により行われる。図14(a)は、人物A以外の人物にデジタルぼかし処理を施した場合の一例の図である。図14(b)は、人物Aにデジタルぼかし処理を施した場合の一例の図である。このようにして、CPU23の画像処理部23eは、選択された人物に対して顔の領域のデジタルぼかし処理を一括で行う。この後の処理は、一括モザイク処理と同様であるので説明を省略する。なお、デジタルぼかし処理としては、ポートレートモードのように背景をぼかす処理を一括で行うようにしてもよい。   FIG. 14 is a diagram illustrating an example of batch digital blurring processing. The digital blur processing is performed by a known technique. FIG. 14A is a diagram illustrating an example in which digital blur processing is performed on a person other than the person A. FIG. 14B is an example of a case where the person A is subjected to digital blurring processing. In this way, the image processing unit 23e of the CPU 23 collectively performs digital blur processing of the face area on the selected person. Since the subsequent processing is the same as the batch mosaic processing, description thereof is omitted. Note that, as the digital blurring process, the process of blurring the background as in the portrait mode may be performed at once.

次に、一括トリミング処理について説明する。ステップS204にて、一括トリミング処理が選択されると、ステップS210に進み、CPU23の画像処理部23eは、選択された顔の領域の一括トリミング処理を行う。   Next, the batch trimming process will be described. If batch trimming processing is selected in step S204, the process proceeds to step S210, and the image processing unit 23e of the CPU 23 performs batch trimming processing of the selected face area.

図15は、一括トリミング処理の一例を示す図である。図15(a)は、トリミングしたい顔を選択した図を表しており、顔検出枠21が表示されている。ここでは、人物Aが選択されている。CPU23の画像処理部23eは、選択された人物Aについて、公知のトリミング処理により、例えば、図15(b)に示す画像を生成することができる。トリミング処理については、例えば、以下のようにしてもよい。   FIG. 15 is a diagram illustrating an example of batch trimming processing. FIG. 15A shows a diagram in which a face to be trimmed is selected, and a face detection frame 21 is displayed. Here, the person A is selected. The image processing unit 23e of the CPU 23 can generate, for example, the image shown in FIG. 15B for the selected person A by a known trimming process. The trimming process may be performed as follows, for example.

図16は、一括トリミング処理の一例を示す図である。図16(a)では、縦長撮影をする場合の構図の一例を表している。ここで、顔検出枠21の一辺Lについて、図16(b)に示すように、3倍のLの長さが撮影画面の一辺になるようにトリミングをしてもよい。さらに、トリミングの仕方としては、顔を拡大表示する際には、顔の中心座標が画面中央になるように表示する。顔の位置、拡大倍率により顔の中心座標を画面中央座標に一致出来ない場合には、画面中央に寄せるようにしてもよい。すなわち、CPU23は、構図に応じて自動的にトリミングの構図を決定してもよいし、ユーザがトリミングの構図を指定してもよい。   FIG. 16 is a diagram illustrating an example of batch trimming processing. FIG. 16A shows an example of a composition for portrait shooting. Here, as shown in FIG. 16B, the side L of the face detection frame 21 may be trimmed so that the length of L is three times as long as one side of the shooting screen. Further, as a trimming method, when the face is enlarged and displayed, the center coordinates of the face are displayed at the center of the screen. If the center coordinates of the face cannot be matched with the center coordinates of the screen due to the position of the face and the magnification, it may be brought closer to the center of the screen. In other words, the CPU 23 may automatically determine the trimming composition according to the composition, or the user may specify the trimming composition.

ここで、CPU23の画像処理部23eは、顔認証フォルダに登録されている人物Aの画像データに対して、順次、トリミング処理を一括で行う。この後の処理は、一括モザイク処理と同様であるので説明を省略する。   Here, the image processing unit 23e of the CPU 23 sequentially performs a trimming process collectively on the image data of the person A registered in the face authentication folder. Since the subsequent processing is the same as the batch mosaic processing, description thereof is omitted.

以上、本実施形態の電子カメラ1によれば、撮影した画像に対して手間が掛からずに一括で画像処理をすることができる。これにより、ユーザの利便性が向上する。   As described above, according to the electronic camera 1 of the present embodiment, it is possible to perform image processing in a lump without taking time and effort on the captured image. This improves the convenience for the user.

なお、本実施形態では、一括画像処理された画像データを無線通信により、外部の画像管理サーバ200にアップロードしたが、無線通信に限られず、有線LANを用いた有線通信を行ってもよい。また、電子カメラ1からUSBケーブルを外部のパーソナルコンピュータに接続して、一括画像処理された画像データを転送してもよい。また、電子カメラ1から一括画像処理された画像データが記録されている記録媒体26を取り出して、外部のパーソナルコンピュータに装填してもよい。これにより、ユーザは、パーソナルコンピュータ上で、1枚ずつ所定の画像処理をせずに済む。そして、パーソナルコンピュータから、ユーザ自身のブログに一括処理された画像データを更新するなどしてもよい。また、一括処理された画像データの中から、ブログに掲載する画像を選択するようにしてもよい。また、送信先のメモリの容量に応じてサムネイル画像を一括転送するようにしてもよい。   In this embodiment, the image data subjected to batch image processing is uploaded to the external image management server 200 by wireless communication. However, the present invention is not limited to wireless communication, and wired communication using a wired LAN may be performed. Alternatively, the USB cable may be connected from the electronic camera 1 to an external personal computer to transfer the image data subjected to batch image processing. Further, the recording medium 26 on which the image data subjected to batch image processing is recorded from the electronic camera 1 may be taken out and loaded into an external personal computer. Thus, the user does not have to perform predetermined image processing one by one on the personal computer. Then, the image data that has been batch processed on the user's own blog may be updated from the personal computer. Moreover, you may make it select the image published on a blog from the image data processed collectively. Further, thumbnail images may be transferred in a batch according to the capacity of the destination memory.

また、本実施形態では、一括処理された画像データを外部の画像管理サーバ200にアップロードしたが、例えば、電子カメラ1側から外部のプリンタに対して、無線通信などにより、一括プリント指定を行ってもよい。   In this embodiment, the batch-processed image data is uploaded to the external image management server 200. For example, the electronic camera 1 side performs batch print designation to the external printer by wireless communication or the like. Also good.

本実施形態ではExifファイル形式を用いた。これにより汎用性が得られるが、他の形式のファイルに適用してもよい。
(第2実施形態)
次に、本発明の第2実施形態について説明する。第2実施形態では、図17に示すコンピュータ3に電子カメラ1で撮影された画像(顔検出処理がされていないものとする)を読み出して、顔検出、顔認識、識別情報付加、所定の一括画像処理を行う。この一括画像処理を行うに際し、本発明の一実施形態である画像処理プログラムを用いる。
In this embodiment, the Exif file format is used. This provides versatility, but it may be applied to other types of files.
(Second Embodiment)
Next, a second embodiment of the present invention will be described. In the second embodiment, an image (assuming that face detection processing is not performed) taken by the electronic camera 1 is read out to the computer 3 shown in FIG. Perform image processing. When performing this batch image processing, an image processing program according to an embodiment of the present invention is used.

以下、具体的に説明する。図17は、コンピュータの構成を示すブロック図である。図17に示すコンピュータ3には、コンピュータ用CPU30と、メモリ31と、通信インターフェース(I/F)32と、キーボード33と、表示モニタ34とが備えられている。メモリ31には、本発明の一実施形態である画像処理プログラムも格納されている。   This will be specifically described below. FIG. 17 is a block diagram illustrating a configuration of a computer. The computer 3 shown in FIG. 17 includes a computer CPU 30, a memory 31, a communication interface (I / F) 32, a keyboard 33, and a display monitor 34. The memory 31 also stores an image processing program that is an embodiment of the present invention.

第2実施形態では、図17の点線枠内に示す画像処理プログラムAがコンピュータ用CPU30に組み込まれる。すなわち、コンピュータ用CPU30は、本発明の一実施形態である画像処理プログラムAが組み込まれることによって、顔検出部30aと、顔認識部30bと、識別情報付加部30cと、画像処理部30dとが構築される。なお、顔検出部30a、顔認識部30b、識別情報付加部30cおよび画像処理部30dの処理については、第1実施形態で説明した内容と同様であるため、説明を省略する。   In the second embodiment, the image processing program A shown in the dotted frame in FIG. 17 is incorporated in the computer CPU 30. That is, the computer CPU 30 includes the face detection unit 30a, the face recognition unit 30b, the identification information addition unit 30c, and the image processing unit 30d by incorporating the image processing program A which is an embodiment of the present invention. Built. Note that the processes of the face detection unit 30a, the face recognition unit 30b, the identification information adding unit 30c, and the image processing unit 30d are the same as the contents described in the first embodiment, and thus description thereof is omitted.

次に、本発明の一実施形態である画像処理プログラムAの動作について説明する。ここでは、電子カメラ1で記録された画像は、予め、通信インターフェース(I/F)32を介してメモリ31に記憶されているものとする。ただし、記録された画像には人物の顔が写っているものとし、顔検出処理はされておらず、Exifファイルには識別情報が付加されていないものとする。   Next, the operation of the image processing program A which is an embodiment of the present invention will be described. Here, it is assumed that an image recorded by the electronic camera 1 is stored in advance in the memory 31 via the communication interface (I / F) 32. However, it is assumed that a person's face is shown in the recorded image, face detection processing is not performed, and identification information is not added to the Exif file.

図18は、第2実施形態の画像処理プログラムAの動作を表すフローチャートである。この処理ルーチンは、図17に示すキーボード33から画像処理プログラムAの起動を受け付けると開始する。   FIG. 18 is a flowchart showing the operation of the image processing program A of the second embodiment. This processing routine is started when the activation of the image processing program A is received from the keyboard 33 shown in FIG.

ステップS301:CPU30は、処理対象の画像をメモリ31から読み出して、表示モニタ34に表示させる。   Step S301: The CPU 30 reads an image to be processed from the memory 31 and displays it on the display monitor 34.

ステップS302:CPU30の顔検出部30aは、表示モニタ34に表示された画像に対して顔検出処理を施して顔を検出する。   Step S302: The face detection unit 30a of the CPU 30 performs a face detection process on the image displayed on the display monitor 34 to detect a face.

ステップS303:CPU30の顔認識部30bは、検出した顔に基づいて顔の器官を構成する特徴点を抽出する。   Step S303: The face recognition unit 30b of the CPU 30 extracts feature points constituting a facial organ based on the detected face.

ステップS304:CPU23の識別情報付加部30cは、顔検出された人物の名称を識別情報として画像データに付加する。ここでは、第1実施形態で説明した2通りの方法によって識別情報を画像データに付加する。   Step S304: The identification information adding unit 30c of the CPU 23 adds the name of the person whose face is detected to the image data as identification information. Here, the identification information is added to the image data by the two methods described in the first embodiment.

ステップS305:CPU30は、ユーザ入力により、表示モニタ34に指定された識別情報の人物のサムネイル画像を表示させる。   Step S305: The CPU 30 displays a thumbnail image of a person having identification information designated on the display monitor 34 by a user input.

ステップS305:CPU30の画像処理部30dは、ユーザ入力により、例えば、サムネイル画像の元画像データに対してモザイク処理を一括で行う。一括処理された画像データは、指定された識別情報の人物の顔認証フォルダに別名保存される。   Step S305: The image processing unit 30d of the CPU 30 performs mosaic processing on the original image data of the thumbnail images in a lump in response to user input, for example. The batch-processed image data is stored under a different name in the person face authentication folder of the specified identification information.

そして、この処理ルーチンは終了する。その後、ユーザ入力により、例えば、外部のブログ用サーバ300に、モザイク処理された画像データがアップロードされる。   Then, this processing routine ends. Thereafter, the mosaic-processed image data is uploaded to the external blog server 300 by user input, for example.

以上、本実施形態の画像処理プログラムAによれば、撮影した画像に対して手間が掛からずに一括で画像処理をすることができる。これにより、ユーザの利便性が向上する。
<実施形態の補足事項>
(1)本実施形態では、所定の画像処理として、モザイク処理と、デジタルぼかし処理と、トリミング処理とを取り上げたが、これらは一例であって、3つの処理に限定されるものではない。例えば、赤目を補正する赤目画像処理であってもよい。また、複数の画像処理を組み合わせて行ってもよい。
As described above, according to the image processing program A of the present embodiment, it is possible to perform batch image processing without taking time and effort on the captured image. This improves the convenience for the user.
<Supplementary items of the embodiment>
(1) In the present embodiment, mosaic processing, digital blurring processing, and trimming processing are taken up as predetermined image processing, but these are examples, and are not limited to three processing. For example, red-eye image processing for correcting red eyes may be used. A plurality of image processes may be combined.

(2)本記実施形態では、電子カメラ1の撮影時に、識別情報を付加させる構成としたが、このような構成に限定されず、以下の方式を採用してもよい。電子カメラ1の撮影時に、顔検出機能を行わない場合には、Exifのヘッダファイルに指定した人物の識別情報が付加されない。このような場合には、静止画再生モードにおいて、顔検出機能や顔識別機能のアプリケーションを実行して、顔の特徴に基づいて、記録画像に対して探索することにより、Exifのヘッダファイルに指定した人物の識別情報を付加する構成を加えてもよい。   (2) In the present embodiment, the identification information is added when the electronic camera 1 is photographed. However, the present invention is not limited to such a configuration, and the following method may be adopted. If the face detection function is not performed when the electronic camera 1 is shooting, the identification information of the person specified in the Exif header file is not added. In such a case, in the still image playback mode, the application for the face detection function or the face identification function is executed, and the recorded image is searched based on the facial features, so that it is designated in the Exif header file. A configuration may be added in which identification information of the person is added.

第1実施形態の電子カメラ1の背面図The rear view of the electronic camera 1 of 1st Embodiment 第1実施形態の電子カメラ1の構成を示すブロック図1 is a block diagram illustrating a configuration of an electronic camera 1 according to a first embodiment. Exifの画像ファイルを模式的に表した図Schematic representation of an Exif image file 電子カメラ1の撮影動作を表すフローチャートFlow chart showing photographing operation of electronic camera 1 顔検出機能を説明する図Diagram explaining the face detection function 顔認識機能を説明する図Diagram explaining the face recognition function 電子カメラ1における画像データの処理を表すフローチャートFlowchart representing processing of image data in electronic camera 1 人物別再生画面のモードの一例を説明する図The figure explaining an example of the mode of the reproduction screen according to a person 画像処理選択のメニューの一例を説明する図The figure explaining an example of the menu of image processing selection モザイク処理の一例を説明する図The figure explaining an example of mosaic processing モザイク処理後のサムネイル表示の一例を説明する図The figure explaining an example of the thumbnail display after mosaic processing 一括アップロードのメニュー画面の一例を説明する図Diagram explaining an example of the batch upload menu screen 一括アップロードの概念図Conceptual diagram of bulk upload 一括デジタルぼかし処理の一例を示す図Diagram showing an example of batch digital blur processing 一括トリミング処理の一例を示す図Diagram showing an example of batch trimming processing 一括トリミング処理の一例を示す図Diagram showing an example of batch trimming processing コンピュータの構成を示すブロック図Block diagram showing the configuration of the computer 第2実施形態の画像処理プログラムAの動作を表すフローチャートThe flowchart showing the operation of the image processing program A of the second embodiment.

符号の説明Explanation of symbols

1、2・・・電子カメラ、3・・・コンピュータ、17・・・画像信号処理部、23a、30a・・・顔検出部、23b、30b・・・顔認識部、23c、30c・・・識別情報付加部、23d・・・識別情報登録部、23e、30d・・・画像処理部、23f・・・通信処理部
DESCRIPTION OF SYMBOLS 1, 2 ... Electronic camera, 3 ... Computer, 17 ... Image signal processing part, 23a, 30a ... Face detection part, 23b, 30b ... Face recognition part, 23c, 30c ... Identification information adding unit, 23d ... identification information registering unit, 23e, 30d ... image processing unit, 23f ... communication processing unit

Claims (11)

被写体像を光電変換して画像データを生成する撮像素子と、
前記画像データに基づいて画像を表示する表示部と、
前記表示部に表示された画像から人物の顔を検出する顔検出部と、
前記顔から前記顔の特徴を表す特徴点を抽出する顔認識部と、
ユーザ入力若しくは前記特徴点に基づいて、前記顔を識別する識別情報を前記画像データに付加する識別情報付加部と、
同一の前記識別情報が付加された画像データに対して、所定の画像処理を一括して行う画像処理部と、
を備えることを特徴とする電子カメラ。
An image sensor that photoelectrically converts a subject image to generate image data;
A display unit for displaying an image based on the image data;
A face detection unit for detecting a person's face from the image displayed on the display unit;
A face recognition unit for extracting feature points representing the features of the face from the face;
An identification information adding unit for adding identification information for identifying the face to the image data based on a user input or the feature point;
An image processing unit that collectively performs predetermined image processing on image data to which the same identification information is added;
An electronic camera comprising:
請求項1に記載の電子カメラにおいて、
前記所定の画像処理は、前記顔の領域をモザイク化するモザイク処理であることを特徴とする電子カメラ。
The electronic camera according to claim 1,
The electronic camera according to claim 1, wherein the predetermined image processing is mosaic processing that mosaics the face area.
請求項1に記載の電子カメラにおいて、
前記所定の画像処理は、前記顔の領域をぼかすデジタルぼかし処理であることを特徴とする電子カメラ。
The electronic camera according to claim 1,
The electronic camera according to claim 1, wherein the predetermined image processing is digital blur processing that blurs the face area.
請求項1に記載の電子カメラにおいて、
前記所定の画像処理は、前記顔の領域を含む構図を変更するトリミング処理であることを特徴とする電子カメラ。
The electronic camera according to claim 1,
The electronic camera according to claim 1, wherein the predetermined image processing is trimming processing for changing a composition including the face area.
請求項1から請求項4のいずれか1項に記載の電子カメラにおいて、
前記所定の画像処理が施された画像に基づいて生成された縮小画像であるサムネイル画像を、前記所定の画像処理に応じて一覧表示させる表示制御部をさらに備えることを特徴とする電子カメラ。
The electronic camera according to any one of claims 1 to 4,
An electronic camera, further comprising: a display control unit configured to display a list of thumbnail images, which are reduced images generated based on the image subjected to the predetermined image processing, according to the predetermined image processing.
請求項5に記載の電子カメラにおいて、
通信インターフェースを介して前記画像データを外部の通信先へ送信する通信処理部をさらに備え、
前記通信処理部は、一覧表示された前記サムネイル画像の元画像データ若しくは一覧表示された前記サムネイル画像のうち、ユーザ入力により選択されたサムネイル画像の元画像データを前記通信先に一括して転送することを特徴とする電子カメラ。
The electronic camera according to claim 5,
A communication processing unit for transmitting the image data to an external communication destination via a communication interface;
The communication processing unit collectively transfers the original image data of the thumbnail image displayed in a list or the original image data of a thumbnail image selected by a user input among the thumbnail images displayed in a list to the communication destination. An electronic camera characterized by that.
請求項2に記載の電子カメラにおいて、
前記モザイク処理は、前記表示部に表示された複数の前記顔のうち、特定の顔の領域若しくはそれ以外の顔の領域について行われることを特徴とする電子カメラ。
The electronic camera according to claim 2,
2. The electronic camera according to claim 1, wherein the mosaic process is performed on a specific face area or a face area other than the plurality of faces displayed on the display unit.
請求項3に記載の電子カメラにおいて、
前記デジタルぼかし処理は、前記表示部に表示された複数の前記顔のうち、特定の顔の領域若しくはそれ以外の顔の領域について行われることを特徴とする電子カメラ。
The electronic camera according to claim 3.
The digital camera is characterized in that the digital blur processing is performed on a specific face area or other face area among the plurality of faces displayed on the display unit.
請求項4に記載の電子カメラにおいて、
前記トリミング処理は、前記表示部に表示された一乃至複数の前記顔のうち、特定の顔を選択して行われることを特徴とする電子カメラ。
The electronic camera according to claim 4,
The electronic camera according to claim 1, wherein the trimming process is performed by selecting a specific face from the one or more faces displayed on the display unit.
請求項1に記載の電子カメラにおいて、
前記識別情報が付加された画像データを別名保存若しくは上書き保存して、識別情報別に前記画像データを登録する識別情報登録部をさらに備えることを特徴とする電子カメラ。
The electronic camera according to claim 1,
An electronic camera, further comprising: an identification information registration unit that stores the image data to which the identification information is added by another name or overwrites and registers the image data for each identification information.
画像を表示する表示部を有するコンピュータに画像処理を実行させる画像処理プログラムであって、
前記表示部に表示された画像から人物の顔を検出する顔検出ステップと、
前記顔から前記顔の特徴を表す特徴点を抽出する顔認識ステップと、
ユーザ入力若しくは前記特徴点に基づいて、前記顔を識別する識別情報を前記画像データに付加する識別情報付加ステップと、
同一の前記識別情報が付加された画像データに対して、所定の画像処理を一括して行う画像処理ステップとをコンピュータに実行させることを特徴とする画像処理プログラム。
An image processing program for causing a computer having a display unit to display an image to execute image processing,
A face detecting step of detecting a human face from the image displayed on the display unit;
A face recognition step of extracting feature points representing the features of the face from the face;
An identification information adding step of adding identification information for identifying the face to the image data based on a user input or the feature point;
An image processing program for causing a computer to execute an image processing step for performing predetermined image processing collectively on image data to which the same identification information is added.
JP2008182500A 2008-07-14 2008-07-14 Electronic camera and image processing program Withdrawn JP2010021921A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008182500A JP2010021921A (en) 2008-07-14 2008-07-14 Electronic camera and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008182500A JP2010021921A (en) 2008-07-14 2008-07-14 Electronic camera and image processing program

Publications (1)

Publication Number Publication Date
JP2010021921A true JP2010021921A (en) 2010-01-28

Family

ID=41706355

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008182500A Withdrawn JP2010021921A (en) 2008-07-14 2008-07-14 Electronic camera and image processing program

Country Status (1)

Country Link
JP (1) JP2010021921A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012001947A1 (en) * 2010-06-28 2012-01-05 株式会社ニコン Imaging device, image processing device, image processing program recording medium
JP2012151733A (en) * 2011-01-20 2012-08-09 Olympus Imaging Corp Image reproduction device and image reproduction program
JP2012170024A (en) * 2011-02-16 2012-09-06 Nikon Corp Information processing apparatus
US20130242127A1 (en) * 2012-03-19 2013-09-19 Casio Computer Co., Ltd. Image creating device and image creating method
JPWO2014054342A1 (en) * 2012-10-05 2016-08-25 ソニー株式会社 Content acquisition device, portable device, server, information processing device, and storage medium
JP2017199008A (en) * 2017-06-12 2017-11-02 フリュー株式会社 Photography game device, control method, and program
JP2018061214A (en) * 2016-10-07 2018-04-12 パナソニックIpマネジメント株式会社 Monitor video analysis system and monitor video analysis method
WO2018092378A1 (en) * 2016-11-17 2018-05-24 シャープ株式会社 Information processing device, information processing method, and program
WO2018179555A1 (en) * 2017-03-31 2018-10-04 パナソニックIpマネジメント株式会社 Image capture device

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012001947A1 (en) * 2010-06-28 2012-01-05 株式会社ニコン Imaging device, image processing device, image processing program recording medium
JP5423893B2 (en) * 2010-06-28 2014-02-19 株式会社ニコン Imaging apparatus, image processing apparatus, and image processing program recording medium
JP2012151733A (en) * 2011-01-20 2012-08-09 Olympus Imaging Corp Image reproduction device and image reproduction program
JP2012170024A (en) * 2011-02-16 2012-09-06 Nikon Corp Information processing apparatus
US20130242127A1 (en) * 2012-03-19 2013-09-19 Casio Computer Co., Ltd. Image creating device and image creating method
CN103327231A (en) * 2012-03-19 2013-09-25 卡西欧计算机株式会社 Image creating device and image creating method
JPWO2014054342A1 (en) * 2012-10-05 2016-08-25 ソニー株式会社 Content acquisition device, portable device, server, information processing device, and storage medium
JP2018061214A (en) * 2016-10-07 2018-04-12 パナソニックIpマネジメント株式会社 Monitor video analysis system and monitor video analysis method
US10984230B2 (en) 2016-10-07 2021-04-20 Panasonic I-Pro Sensing Solutions Co., Ltd. Monitoring video analysis system and monitoring video analysis method
WO2018092378A1 (en) * 2016-11-17 2018-05-24 シャープ株式会社 Information processing device, information processing method, and program
WO2018179555A1 (en) * 2017-03-31 2018-10-04 パナソニックIpマネジメント株式会社 Image capture device
US10623631B2 (en) 2017-03-31 2020-04-14 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus
JP2017199008A (en) * 2017-06-12 2017-11-02 フリュー株式会社 Photography game device, control method, and program

Similar Documents

Publication Publication Date Title
US7110026B2 (en) Image tagging for post processing
JP4683340B2 (en) Imaging apparatus and imaging method
US9251765B2 (en) Image processing device, image processing method, and program for generating composite image
JP2010021921A (en) Electronic camera and image processing program
CN101754033B (en) Image sensing device and control method thereof
US8411152B2 (en) File management apparatus and control method thereof
JP2004208317A (en) Image metadata processing system and method as well as computer program product
JP2008022240A (en) Photographing device, image processor, image file generating method, image processing method, and image processing program
JP2003289498A (en) Digital camera and image data processing system
JP2006141005A (en) System and method for correcting image perspective
JP2007081732A (en) Imaging apparatus
JP5402026B2 (en) Electronic camera and image processing program
US20100033582A1 (en) Method and apparatus for controlling thumbnail display and digital photographing apparatus
JP2011077654A (en) Imaging apparatus, control method thereof and program
JP2009290819A (en) Photographing device, photography control program, and image reproducing device and image reproducing program
JP2013135459A (en) Imaging apparatus and control method and program thereof
JP5195317B2 (en) Camera device, photographing method, and photographing control program
JP2014158102A (en) Imaging device and image processing device
JP5181935B2 (en) Image processing apparatus, program, and subject detection method
JP2007124150A (en) Apparatus and method for image processing, and for processing image data file, computer program, and recording medium
JP4812073B2 (en) Image capturing apparatus, image capturing method, program, and recording medium
JP2002305676A (en) Electronic camera
JP2003244507A (en) Digital camera
JP2007288409A (en) Imaging apparatus with image data classifying function and program
JP5111215B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20111004