JP2007020029A - Image processor and method, program and recording medium - Google Patents

Image processor and method, program and recording medium Download PDF

Info

Publication number
JP2007020029A
JP2007020029A JP2005201201A JP2005201201A JP2007020029A JP 2007020029 A JP2007020029 A JP 2007020029A JP 2005201201 A JP2005201201 A JP 2005201201A JP 2005201201 A JP2005201201 A JP 2005201201A JP 2007020029 A JP2007020029 A JP 2007020029A
Authority
JP
Japan
Prior art keywords
image
face
displayed
unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005201201A
Other languages
Japanese (ja)
Other versions
JP4487872B2 (en
Inventor
Daisuke Kuruma
大介 来馬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005201201A priority Critical patent/JP4487872B2/en
Publication of JP2007020029A publication Critical patent/JP2007020029A/en
Application granted granted Critical
Publication of JP4487872B2 publication Critical patent/JP4487872B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To simply and surely confirm each of a plurality of face images. <P>SOLUTION: When face images 131-133 are displayed in the whole image, one face image 131 on the most lefthand side is zoomed on a face button being turned on. When the face button is further turned on, a face image 132 on the lefthand side is zoomed. When the face button is further turned on, a face image 133 on the lefthand side is zoomed. When the face image button is further turned on, the original whole image is displayed. The present invention is applicable to a digital still camera. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は画像処理装置および方法、プログラム並びに記録媒体に関し、特に、複数の顔画像のそれぞれを簡単かつ確実に確認することができるようにした画像処理装置および方法、プログラム並びに記録媒体に関する。   The present invention relates to an image processing apparatus and method, a program, and a recording medium, and more particularly, to an image processing apparatus and method, a program, and a recording medium that allow each of a plurality of face images to be easily and reliably confirmed.

最近デジタルスチルカメラが普及してきた。現像の必要がなく、撮像して内部のメモリに記憶した画像をすぐに読み出し、表示することができる。そこでユーザは、修学旅行や、家族、友人との旅行などに出かけた場合に、複数の人物と記念写真を撮った後、ただちに撮像画像を確認し、撮影のタイミングに目を瞑ってしまった人物がいるような場合には、撮りなおすことができる。   Recently, digital still cameras have become popular. There is no need for development, and an image captured and stored in the internal memory can be immediately read out and displayed. Therefore, when a user goes on a school trip, a trip with family or friends, etc., after taking a commemorative photo with multiple people, the user immediately checks the captured image and closes his eyes at the timing of shooting. If there is, you can retake it.

特許文献1には、プレビュー画像(モニタリング画像)中の人物の顔を自動的に検出するデジタルスチルカメラが提案されている。このデジタルスチルカメラにおいては、プレビュー画像中の複数の人物の顔が検出されると、各顔の周囲に枠が表示される。ユーザは、所望の枠を選択することで、1つの顔を選択する。ユーザにより顔拡大表示ボタンが操作されたとき、選択されている顔が拡大表示される。ユーザは拡大表示された顔の状態を確認した後、シャッタボタンをオンし、画像を記録する。   Patent Document 1 proposes a digital still camera that automatically detects a human face in a preview image (monitoring image). In this digital still camera, when a plurality of human faces are detected in the preview image, a frame is displayed around each face. The user selects one face by selecting a desired frame. When the user operates the face enlargement display button, the selected face is enlarged and displayed. After confirming the state of the enlarged face, the user turns on the shutter button and records an image.

ユーザが複数の顔を選択した場合、選択した数に応じて画面が複数の領域に分割され、複数の顔の画像が1つの画面内に同時に表示される。例えば4個の顔が選択された場合、1つの画面が2×2の領域に4分割され、4個の顔の画像が各分割領域に同時に表示される。   When the user selects a plurality of faces, the screen is divided into a plurality of areas according to the selected number, and images of the plurality of faces are displayed simultaneously on one screen. For example, when four faces are selected, one screen is divided into four 2 × 2 areas, and four face images are simultaneously displayed in each divided area.

特開2005−102175号公報(段落0036、図2乃至図5)Japanese Patent Laying-Open No. 2005-102175 (paragraph 0036, FIGS. 2 to 5)

このように、特許文献1に記載の発明では、ユーザが複数の顔を選択した場合、複数の顔の画像が画面の分割領域に同時に表示されるので、その数が多くなるほど、個々の顔の大きさが小さくなり、それぞれの状態を確認することが困難になる問題があった。   As described above, in the invention described in Patent Document 1, when a user selects a plurality of faces, images of the plurality of faces are simultaneously displayed in the divided areas of the screen. There is a problem that the size becomes small and it is difficult to check each state.

本発明は、このような状況に鑑みてなされたものであり、複数の顔画像のそれぞれを簡単かつ確実に確認することができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to easily and reliably confirm each of a plurality of face images.

本発明の一側面は、表示する全体画像の画像データを取得する画像データ取得手段と、
前記全体画像中における複数の顔画像の位置情報を取得する位置情報取得手段と、
前記全体画像中に含まれる複数の前記顔画像の表示の切り替えの指示を取得する指示取得手段と、
切り替えの指示が取得される毎に、前記全体画像中に含まれる複数の前記顔画像を1枚ずつ順次切り替えて拡大して表示する表示手段と
を備える画像処理装置である。
One aspect of the present invention is an image data acquisition unit that acquires image data of an entire image to be displayed;
Position information acquisition means for acquiring position information of a plurality of face images in the whole image;
Instruction acquisition means for acquiring an instruction to switch display of the plurality of face images included in the whole image;
Each time a switching instruction is acquired, the image processing apparatus includes display means for sequentially switching and enlarging and displaying the plurality of face images included in the entire image one by one.

前記表示手段は、複数の前記顔画像のすべてを順次表示した後、さらに切り替えの指示が取得された場合、前記全体画像を表示することができる。   The display means can display the entire image when a switching instruction is further acquired after sequentially displaying all of the plurality of face images.

拡大表示する前記顔画像の画像データをガンマ補正するガンマ補正手段をさらに備えることができる。   The image data of the face image to be enlarged can be further provided with gamma correction means for gamma correction.

前記ガンマ補正手段は、拡大表示する前記顔画像の画像データ輝度のヒストグラムがU字型である場合、逆S字ガンマ補正し、逆U字型である場合、S字ガンマ補正することができる。   The gamma correction means can perform reverse S-shaped gamma correction when the histogram of the image data luminance of the face image to be enlarged is U-shaped, and can perform S-shaped gamma correction when the histogram is inverted U-shaped.

前記表示手段は、表示している前記顔画像の前記全体画像における位置をさらに表示することができる。   The display means can further display the position of the displayed face image in the entire image.

撮像した画像の画像データを、前記複数の顔画像の位置情報とともに記録媒体に記録する記録手段をさらに備え、
前記画像データ取得手段と前記位置情報取得手段は、前記記録媒体より読み出された前記画像データと前記位置情報を取得することができる。
A recording unit that records image data of the captured image together with position information of the plurality of face images on a recording medium;
The image data acquisition unit and the position information acquisition unit can acquire the image data and the position information read from the recording medium.

前記記録手段は、前記顔画像の前記全体画像に対する比率をさらに記録することができる。   The recording means can further record a ratio of the face image to the whole image.

前記表示手段は、OSD情報を表示する、前記顔画像と重ならない位置を演算し、演算した位置に前記OSD情報を表示することができる。   The display means can calculate a position where OSD information is displayed and does not overlap the face image, and can display the OSD information at the calculated position.

前記表示手段は、OSD情報を表示する、前記顔画像と重ならない大きさを演算し、演算した大きさに縮小して前記OSD情報を表示することができる。   The display means can display the OSD information, calculates a size that does not overlap the face image, and reduces the calculated size to display the OSD information.

本発明の一側面は、表示する全体画像の画像データを取得し、
前記全体画像中における複数の顔画像の位置情報を取得し、
前記全体画像中に含まれる複数の前記顔画像の表示の切り替えの指示を取得し、
切り替えの指示が取得される毎に、前記全体画像中に含まれる複数の前記顔画像を1枚ずつ順次切り替えて拡大して表示する
画像処理方法またはその処理をコンピュータに実行させるプログラムである。
One aspect of the present invention acquires image data of a whole image to be displayed,
Obtaining position information of a plurality of face images in the whole image;
Obtaining an instruction to switch display of the plurality of face images included in the whole image;
This is an image processing method or a program for causing a computer to execute an image processing method for sequentially switching and enlarging and displaying a plurality of face images included in the entire image each time a switching instruction is acquired.

本発明の一側面においては、切り替えの指示が取得される毎に、全体画像中に含まれる複数の顔画像が1枚ずつ順次切り替えて拡大して表示される。   In one aspect of the present invention, each time a switching instruction is acquired, a plurality of face images included in the entire image are sequentially switched one by one and enlarged and displayed.

本発明の一側面によれば、複数の顔画像のそれぞれを簡単かつ確実に確認することができる。   According to one aspect of the present invention, each of a plurality of face images can be easily and reliably confirmed.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、発明の詳細な説明に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、発明の詳細な説明に記載されていることを確認するためのものである。従って、発明の詳細な説明中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between the configuration requirements of the present invention and the embodiments described in the detailed description of the present invention are exemplified as follows. This description is to confirm that the embodiments supporting the present invention are described in the detailed description of the invention. Accordingly, although there are embodiments that are described in the detailed description of the invention but are not described here as embodiments corresponding to the constituent elements of the present invention, It does not mean that the embodiment does not correspond to the configuration requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.

本発明の側面は、表示する全体画像の画像データを取得する画像データ取得手段(例えば、図14のステップS141の処理を実行する図4の読出部71)と、
前記全体画像中における複数の顔画像の位置情報を取得する位置情報取得手段(例えば、図14のステップS146の処理を実行する図4の読出部71)と、
前記全体画像中に含まれる複数の前記顔画像の表示の切り替えの指示を取得する指示取得手段(例えば、図14のステップS148,S153の処理を実行する図4の判定部72)と、
切り替えの指示が取得される毎に、前記全体画像中に含まれる複数の前記顔画像を1枚ずつ順次切り替えて拡大して表示する表示手段(例えば、図16のステップS176の処理を実行する図4の表示部75)と
を備える画像処理装置である。
An aspect of the present invention is an image data acquisition unit that acquires image data of an entire image to be displayed (for example, the reading unit 71 of FIG. 4 that executes the process of step S141 of FIG. 14),
Position information acquisition means for acquiring position information of a plurality of face images in the whole image (for example, the reading unit 71 of FIG. 4 that executes the process of step S146 of FIG. 14);
An instruction acquisition means for acquiring an instruction to switch display of the plurality of face images included in the entire image (for example, the determination unit 72 in FIG. 4 that executes the processing of steps S148 and S153 in FIG. 14);
Each time a switching instruction is acquired, a plurality of the face images included in the whole image are sequentially switched one by one in order to be enlarged and displayed (for example, the process of executing step S176 in FIG. 16) 4 display unit 75).

前記表示手段は、複数の前記顔画像のすべてを順次表示した後、さらに切り替えの指示が取得された場合(例えば、図14のステップS149で全ての画像を選択したと判定された場合)、前記全体画像を表示する(例えば、図14のステップS152の処理)ことができる。   The display means sequentially displays all of the plurality of face images, and when a switching instruction is further acquired (for example, when it is determined that all images are selected in step S149 in FIG. 14), The entire image can be displayed (for example, the process in step S152 in FIG. 14).

拡大表示する前記顔画像の画像データをガンマ補正するガンマ補正手段(例えば、図16のステップS173,S175の処理を実行する図4の補正部78)をさらに備えることができる。   The image data of the face image to be magnified can be further provided with gamma correction means (for example, the correction unit 78 in FIG. 4 that executes the processes of steps S173 and S175 in FIG. 16).

前記ガンマ補正手段は、拡大表示する前記顔画像の画像データ輝度のヒストグラムがU字型である場合、逆S字ガンマ補正し(例えば、図16のステップS173の処理)、逆U字型である場合、S字ガンマ補正する(例えば、図16のステップS175の処理)ことができる。   When the histogram of the image data brightness of the face image to be enlarged is U-shaped, the gamma correction means performs inverse S-gamma correction (for example, the process of step S173 in FIG. 16) and is inverted U-shaped. In this case, S-shaped gamma correction can be performed (for example, the process in step S175 in FIG. 16).

前記表示手段は、表示している前記顔画像の前記全体画像における位置をさらに表示する(例えば、図21の縮小画像172の枠191)ことができる。   The display means can further display the position of the displayed face image in the whole image (for example, the frame 191 of the reduced image 172 in FIG. 21).

撮像した前記全体画像の画像データを、前記複数の顔画像の位置情報とともに記録媒体(例えば、図3のリムーバブルメモリ50)に記録する記録手段(例えば、図5のステップS6の処理を実行する図4の記録部74)をさらに備え、
前記画像データ取得手段と前記位置情報取得手段は、前記記録媒体より読み出された前記画像データと前記位置情報を取得することができる。
The figure which performs the process of step S6 of FIG. 5 (for example) which records the image data of the imaged said whole image on a recording medium (for example, the removable memory 50 of FIG. 3) with the positional information on the said some face image 4 recording unit 74),
The image data acquisition unit and the position information acquisition unit can acquire the image data and the position information read from the recording medium.

前記記録手段は、前記顔画像の前記全体画像に対する比率(例えば、縮小率)をさらに記録することができる。   The recording means can further record a ratio (for example, a reduction ratio) of the face image to the whole image.

前記表示手段は、OSD情報を表示する、前記顔画像と重ならない位置を演算し(例えば、図22のステップS204の処理)、演算した位置に前記OSD情報を表示する(例えば、図22のステップS205の処理)ことができる。   The display means calculates a position where the OSD information is displayed and does not overlap the face image (for example, the process of step S204 in FIG. 22), and displays the OSD information at the calculated position (for example, the step in FIG. 22). S205).

前記表示手段は、OSD情報を表示する、前記顔画像と重ならない大きさを演算し(例えば、図22のステップS204の処理)、演算した大きさに縮小して前記OSD情報を表示する(例えば、図22のステップS205の処理)ことができる。   The display means calculates OSD information, a size that does not overlap the face image (for example, the process of step S204 in FIG. 22), reduces the calculated size to display the OSD information (for example, , Step S205 in FIG. 22).

本発明の側面は、表示する全体画像の画像データを取得し(例えば、図14のステップS141)、
前記全体画像中における複数の顔画像の位置情報を取得し(例えば、図14のステップS146)、
前記全体画像中に含まれる複数の前記顔画像の表示の切り替えの指示を取得し(例えば、図14のステップS148,S153)、
切り替えの指示が取得される毎に、前記全体画像中に含まれる複数の前記顔画像を1枚ずつ順次切り替えて拡大して表示する(例えば、図16のステップS176)
画像処理方法またはそれらの処理をコンピュータに実行させるプログラムである。
The aspect of the present invention acquires image data of the entire image to be displayed (for example, step S141 in FIG. 14),
Acquiring position information of a plurality of face images in the whole image (for example, step S146 in FIG. 14);
An instruction to switch the display of the plurality of face images included in the whole image is acquired (for example, steps S148 and S153 in FIG. 14),
Each time a switching instruction is acquired, the plurality of face images included in the entire image are sequentially switched one by one and enlarged and displayed (for example, step S176 in FIG. 16).
An image processing method or a program for causing a computer to execute these processes.

以下、本発明の実施の形態について図を参照して説明する。図1と図2は、本発明の実施形態としてのデジタルスチルカメラの構成を表している。このデジタルスチルカメラ1は、本体11と本体11から必要に応じて突出する鏡筒12により構成されている。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. 1 and 2 show the configuration of a digital still camera as an embodiment of the present invention. The digital still camera 1 includes a main body 11 and a lens barrel 12 protruding from the main body 11 as necessary.

本体11の上面の右端部近傍にはダイヤル14が設けられている。ダイヤル14の左側にはパワーボタン13が設けられている。パワーボタン13は、デジタルスチルカメラ1の電源をオンまたオフするとき操作される。ダイヤル14は、シーン1(SCN1)乃至シーン6(SCN6)、フルオート(カメラの図形のマーク)、およびプログラムモード(P)のいずれかを選択するとき操作される。   A dial 14 is provided near the right end of the upper surface of the main body 11. A power button 13 is provided on the left side of the dial 14. The power button 13 is operated when the power of the digital still camera 1 is turned on or off. The dial 14 is operated to select any one of scene 1 (SCN1) to scene 6 (SCN6), full auto (mark of a camera graphic), and program mode (P).

シーン1乃至シーン6には、風景、ポートレート、夜景、夜景+人などの各種の撮影条件が対応付けられている。例えばシーン1が選択された場合、風景を撮影するのに好適な撮影条件が設定される。シーン2が選択された場合、ポートレートを撮影する場合に好適な撮影条件が設定される。フルオートが選択された場合、撮影に必要なピント合わせ、露出、ホワイトバランスの調整といった各種の撮影条件が全て自動的に設定される。プログラムモードが選択された場合、フルオートと同様に撮影に必要な調整が自動的に設定されるが、ホワイトバランスやEV値(露出補正値)などの各種設定項目をユーザが意図的に設定することが可能となる。   Scenes 1 to 6 are associated with various shooting conditions such as landscape, portrait, night view, and night view + person. For example, when scene 1 is selected, shooting conditions suitable for shooting a landscape are set. When the scene 2 is selected, shooting conditions suitable for shooting a portrait are set. When full auto is selected, all shooting conditions such as focusing, exposure, and white balance adjustment necessary for shooting are automatically set. When the program mode is selected, adjustments necessary for shooting are automatically set as in full auto mode, but the user intentionally sets various setting items such as white balance and EV value (exposure compensation value). It becomes possible.

ダイヤル14の中心には、レリーズボタン15が配置されている。レリーズボタン15はユーザが撮像画像を記録するとき操作される。   A release button 15 is disposed at the center of the dial 14. The release button 15 is operated when the user records a captured image.

本体11の背面側のほぼ中央には、各種の画像を表示するLCD(Liquid Crystal Display)21が配置されている。LCD21の右上にはスイッチ22が配置されている。このスイッチ22は、テレまたはワイドを設定するとき操作される。スイッチ22の下側にはメニューボタン23が配置されている。このメニューボタン23は、LCD21にメニューを表示するときユーザにより操作される。メニューボタン23の下側にはボタン24が配置されている。このボタン24は上下左右方向に操作することが可能とされており、上側に操作されたときフラッシュが選択され、下側に操作されたときタイマが設定され、右側に操作されたときマクロ撮影のモードが設定され、左側に操作されたときマニュアルでホワイトバランスの設定が可能となる。   An LCD (Liquid Crystal Display) 21 for displaying various images is disposed at the approximate center on the back side of the main body 11. A switch 22 is arranged on the upper right of the LCD 21. This switch 22 is operated when tele or wide is set. A menu button 23 is disposed below the switch 22. The menu button 23 is operated by the user when displaying a menu on the LCD 21. A button 24 is arranged below the menu button 23. The button 24 can be operated in the up / down / left / right directions. When operated on the upper side, the flash is selected, when operated on the lower side, a timer is set, and when operated on the right side, macro shooting is performed. When the mode is set and it is operated to the left, the white balance can be set manually.

LCD21の左側には再生ボタン25が配置されている。この再生ボタン25は、撮影した画像を再生するとき操作される。再生ボタン25の下側には顔ボタン26が配置されている。この顔ボタン26は、LCD21に記録済みの画像が読み出され、表示されている状態で操作されたとき、その表示されている全体画像に含まれる顔画像が操作される毎に順次表示される。顔ボタン26の下側には表示ボタン27が配置されている。表示ボタン27は、OSD(On Screen Display)情報を表示したり、その表示を消去するとき操作される。表示ボタン27の下側にはゴミ箱ボタン28が配置されている。このゴミ箱ボタン28は不要なファイル等を消去するとき操作される。なお、全体画像とは、部分の画像である顔画像に対して、顔画像とそれ以外の部分を含む1枚の全体の画像を意味する。   A playback button 25 is arranged on the left side of the LCD 21. The playback button 25 is operated when playing back a captured image. A face button 26 is arranged below the playback button 25. The face button 26 is sequentially displayed every time a face image included in the displayed whole image is operated when the image recorded on the LCD 21 is read and displayed. . A display button 27 is arranged below the face button 26. The display button 27 is operated when displaying OSD (On Screen Display) information or deleting the display. A trash can button 28 is disposed below the display button 27. The trash can button 28 is operated when deleting unnecessary files and the like. Note that the whole image means one whole image including the face image and the other parts with respect to the face image which is a partial image.

図3は、デジタルスチルカメラ1の内部の基本的構成を表している。カメラブロック41には、レンズ、CCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)などの撮像素子、タイミングジェネレータ等が内蔵されている。画像処理ブロック42は、カメラブロック41より出力された画像信号について、ホワイトバランス、明るさ調整、ガンマ補正等の処理を施し、画像表示装置44に出力する。画像処理ブロック42は、顔認識ブロック43を内蔵しており、この顔認識ブロック43は、1枚の全体画像中に存在する顔画像を認識する。画像処理装置44は、画像処理ブロック42より供給された画像データに基づき画像を表示する。この画像表示装置44は図2のLCD21や、電子ビューファインダを含む。   FIG. 3 shows a basic configuration inside the digital still camera 1. The camera block 41 includes a lens, an imaging device such as a CCD (Charge Coupled Device) and a CMOS (Complementary Metal-Oxide Semiconductor), a timing generator, and the like. The image processing block 42 performs processing such as white balance, brightness adjustment, and gamma correction on the image signal output from the camera block 41 and outputs the processed signal to the image display device 44. The image processing block 42 incorporates a face recognition block 43, and this face recognition block 43 recognizes a face image existing in one whole image. The image processing device 44 displays an image based on the image data supplied from the image processing block 42. The image display device 44 includes the LCD 21 of FIG. 2 and an electronic viewfinder.

SDRAM(Synchronous Dynamic Random Access Memory)45は、画像データ、その他の各種のデータを一時的に保持する。操作ブロック46は各種のボタンやスイッチなどにより構成される。図1のパワーボタン13、ダイヤル14、スイッチ22、メニューボタン23、ボタン24、再生ボタン25、顔ボタン26、表示ボタン27、ゴミ箱ボタン28などは、この操作ブロック46に含まれる。操作ブロック46は操作に応じた信号を制御ブロック47に出力する。   An SDRAM (Synchronous Dynamic Random Access Memory) 45 temporarily holds image data and various other data. The operation block 46 includes various buttons and switches. The operation button 46 includes the power button 13, the dial 14, the switch 22, the menu button 23, the button 24, the play button 25, the face button 26, the display button 27, the trash can button 28, and the like in FIG. The operation block 46 outputs a signal corresponding to the operation to the control block 47.

制御ブロック47は、操作ブロック46から供給されるユーザの指示に基づいて各ブロックの動作を制御する。フラッシュメモリ48には、ホワイトバランス、その他各種の撮影条件などを設定するためのパラメータなどが記憶されている。リムーバブルメモリコントローラ49は、制御ブロック47により制御され、リムーバブルメモリ50に記憶されている画像データを読み出したり、そこに画像データなどを記憶させる。リムーバブルメモリ50は、例えばメモリスティック(登録商標)などのフラッシュメモリにより構成される。   The control block 47 controls the operation of each block based on a user instruction supplied from the operation block 46. The flash memory 48 stores white balance, parameters for setting various other shooting conditions, and the like. The removable memory controller 49 is controlled by the control block 47, reads out image data stored in the removable memory 50, and stores image data or the like therein. The removable memory 50 is configured by a flash memory such as a Memory Stick (registered trademark), for example.

制御ブロック47は、例えば図4に示される機能的構成を有している。読出部71は、各種のデータや情報を読み出す。判定部72は各種の判定処理を実行する。保持部73は画像データを保持する。記録部74はリムーバブルメモリコントローラ49を介して画像データをリムーバブルメモリ50に記憶させる。表示部75は画像を表示する。選択部76は顔画像を選択する。演算部77は輝度のヒストグラムを演算したり、座標の演算を行う。補正部78はガンマ補正を行う。   The control block 47 has a functional configuration shown in FIG. 4, for example. The reading unit 71 reads various data and information. The determination unit 72 executes various determination processes. The holding unit 73 holds image data. The recording unit 74 stores the image data in the removable memory 50 via the removable memory controller 49. The display unit 75 displays an image. The selection unit 76 selects a face image. The computing unit 77 computes a luminance histogram and computes coordinates. The correction unit 78 performs gamma correction.

次に、図5のフローチャートを参照して、デジタルスチルカメラ1の画像記録処理について説明する。ユーザがパワーボタン13を操作して電源をオンして撮像の開始を指示したとき、制御ブロック47は各ブロックを制御し、撮像を開始させる。このときカメラブロック41は、被写体の画像を撮像し、対応する画像信号を画像処理ブロック42に出力する。画像処理ブロック42は、カメラブロック41より供給された画像信号をSDRAM45に一旦記憶させる。SDRAM45に記憶された画像データは、画像処理ブロック42によりそこから読み出され画像表示装置44に出力され、そのLCD21に表示される。このようにして、プレビュー画像が表示される。   Next, image recording processing of the digital still camera 1 will be described with reference to the flowchart of FIG. When the user operates the power button 13 to turn on the power and instruct to start imaging, the control block 47 controls each block to start imaging. At this time, the camera block 41 captures an image of the subject and outputs a corresponding image signal to the image processing block 42. The image processing block 42 temporarily stores the image signal supplied from the camera block 41 in the SDRAM 45. The image data stored in the SDRAM 45 is read therefrom by the image processing block 42, output to the image display device 44, and displayed on the LCD 21. In this way, a preview image is displayed.

またユーザは、メニューボタン23を操作することでオートフォーカス(AF)モードを設定する。オートフォーカスモードとしては、顔認識オートフォーカスモード、コンティニュアスオートフォーカスモード、またはシングルオートフォーカスモードのいずれかが設定される。ユーザが操作ブロック46を操作してオートフォーカスモードを設定すると、そのモードが保持部73によりフラッシュメモリ48に記憶される。   Further, the user operates the menu button 23 to set the autofocus (AF) mode. As the autofocus mode, any one of a face recognition autofocus mode, a continuous autofocus mode, and a single autofocus mode is set. When the user operates the operation block 46 to set the autofocus mode, the mode is stored in the flash memory 48 by the holding unit 73.

ステップS1において、読出部71はフォーカスモードを読み出す。すなわちフラッシュメモリ48に記憶されているフォーカスモードが読み出される。そしてステップS2において判定部72は読み出されたフォーカスモードが顔認識オートフォーカスモードであるかを判定する。顔認識オートフォーカスモードである場合には、ステップS3において顔認識ブロック43により顔認識処理が実行される。この顔認識処理の詳細は図8のフローチャート参照して後述するが、これによりLCD21に表示されている全体画像中に含まれる顔画像の位置情報が検出される。検出された位置情報は、SDRAM45に一時的に記録される。ステップS4において判定部72はレリーズボタンが全押しされたかを判定する。   In step S1, the reading unit 71 reads the focus mode. That is, the focus mode stored in the flash memory 48 is read out. In step S2, the determination unit 72 determines whether the read focus mode is the face recognition autofocus mode. If the face recognition autofocus mode is selected, face recognition processing is executed by the face recognition block 43 in step S3. The details of this face recognition processing will be described later with reference to the flowchart of FIG. 8, whereby the position information of the face image included in the entire image displayed on the LCD 21 is detected. The detected position information is temporarily recorded in the SDRAM 45. In step S4, the determination unit 72 determines whether the release button has been fully pressed.

レリーズボタン15が全押しされていない場合には、処理はステップS3に戻り、それ以降の処理が繰り返し実行される。レリーズボタン15が全押しされたと判定された場合、ステップS5において、保持部73は画像データの各種処理を行い、画像データを保持する。すなわちレリーズボタン15が全押しされたタイミングにおいてSDRAM45に保持されている画像データの更新が禁止される。そしてステップS6において、記録部74は画像データと顔の位置情報をリムーバブルメモリに記録する。すなわちSDRAM45に記録されている画像データが読み出され、リムーバブルメモリコントローラ49に供給される。リムーバブルメモリコントローラ49は、この画像データと顔の位置情報をリムーバブルメモリ50に供給し、記録する。   If the release button 15 is not fully pressed, the process returns to step S3, and the subsequent processes are repeatedly executed. If it is determined that the release button 15 has been fully pressed, in step S5, the holding unit 73 performs various processes on the image data and holds the image data. That is, the update of the image data held in the SDRAM 45 is prohibited at the timing when the release button 15 is fully pressed. In step S6, the recording unit 74 records the image data and the face position information in the removable memory. That is, the image data recorded in the SDRAM 45 is read and supplied to the removable memory controller 49. The removable memory controller 49 supplies the image data and face position information to the removable memory 50 for recording.

以上のようにして顔認識オートフォーカスモードが設定されている場合には、画像データだけでなく、それに対応する顔の位置情報がリムーバブルメモリ50に記録される。   When the face recognition autofocus mode is set as described above, not only the image data but also the corresponding face position information is recorded in the removable memory 50.

図6はリムーバブルメモリ50のメモリ領域の構造を表している。MBR(Master Boot Record)には、メディアを構成するパーティションの位置やサイズ、OS種別を示すIDなどが記録される。PBR(Partion Boot Recorder)には、OS起動時に使用するアクティブパーティションが記述されている。FAT(File Allocation Table)にはファイルの物理的な配置を管理する情報が記述される。ROOTDIRには階層化ディレクトリ構造におけるドライブの最上位のディレクトリが記述される。   FIG. 6 shows the structure of the memory area of the removable memory 50. MBR (Master Boot Record) records the location and size of partitions that make up the media, and the ID that indicates the OS type. PBR (Partion Boot Recorder) describes an active partition used when the OS is started. FAT (File Allocation Table) describes information for managing the physical allocation of files. ROOTDIR describes the top directory of the drive in the hierarchical directory structure.

画像ファイルは、Exif、サムネイル、顔の位置情報、並びに主画像ファイルを単位として構成される。Exif(Exchangeable Image File Format)は、JEIDA(Japanese Electronic Industry Development Association)によって提唱されたデジタルスチルカメラ用の画像ファイル規格であり、画像についての情報や撮影日時などの付加情報が記録される。サムネイルは対応する記録用の最大の大きさの主画像を、表示するLCD等の大きさに合うように縮小した表示用の画像である。顔の位置情報は主画像ファイルに記録されている主画像(全体画像)中に存在する顔画像の位置を表す情報である。顔の位置情報はExif内のメーカノートに記録するようにしてもよい。主画像データは主画像の画像データであり、主画像ファイルに記録される。主画像もサムネイルも全体画像である。もちろん、サムネイル中の顔の位置も主画像とサムネイル画の比率より容易に求められる。   The image file is configured in units of Exif, thumbnail, face position information, and main image file. Exif (Exchangeable Image File Format) is an image file standard for digital still cameras advocated by the Japanese Electronic Industry Development Association (JEIDA), and records additional information such as image information and shooting date and time. The thumbnail is a display image that is obtained by reducing the corresponding main image of the maximum size for recording so as to fit the size of the LCD or the like to be displayed. The face position information is information representing the position of a face image existing in the main image (entire image) recorded in the main image file. The face position information may be recorded in a manufacturer note in Exif. The main image data is image data of the main image and is recorded in the main image file. Both the main image and the thumbnail are the entire image. Of course, the position of the face in the thumbnail can be easily obtained from the ratio of the main image and the thumbnail image.

図5に戻って、ステップS2において設定されているモードが顔認識オートフォーカスモードではないと判定された場合、ステップS7において判定部72はコンティニュアスオートフォーカスモードかを判定する。設定されているオートフォーカスモードがコンティニュアスオートフォーカスモードである場合には、ステップS8において、そのモードに対応する処理が実行される。設定されているモードがコンティニュアスオートフォーカスモードでないと判定された場合には、設定されているオートフォーカスモードは、結局シングルオートフォーカスモードということになる。そこでこの場合には、ステップS9において、そのモードに対応する処理が実行される。   Returning to FIG. 5, when it is determined that the mode set in step S2 is not the face recognition autofocus mode, the determination unit 72 determines in step S7 whether the mode is the continuous autofocus mode. If the set autofocus mode is the continuous autofocus mode, processing corresponding to that mode is executed in step S8. If it is determined that the set mode is not the continuous autofocus mode, the set autofocus mode is eventually the single autofocus mode. Therefore, in this case, processing corresponding to the mode is executed in step S9.

コンティニュアスオートフォーカスモードにおいては、合焦の有無にかかわりなくレリーズが可能とされる。またシングルオートフォーカスモードにおいては合焦時にシャッタが切れるように動作が制御される。   In the continuous autofocus mode, release is possible regardless of whether or not focus is achieved. In the single autofocus mode, the operation is controlled so that the shutter is released at the time of focusing.

次にステップ3における顔認識処理について説明するが、この顔認識処理は、顔認識ブロック43により実行される。この処理を実行するため、顔認識ブロック43は、図7に示されるように構成されている。顔認識ブロック41の入力画像スケール変換部71は、主画像を読み出し、その主画像の縮小率を異なる複数のスケール画像に変換する。ウィンドウ切り出し部72は、入力画像スケール変換部71によりスケールが変換された画像からウィンドウ切り出す。テンプレートマッチング部73は、ウィンドウ切り出し部72により切り出されたウィンドウの画像を、あらかじめ用意されているテンプレートの画像とマッチングする。前処理部74は、テンプレートマッチング部73より供給されたスコア画像についてベクトル変換し、得られたベクトル群を1本のパターンベクトルに変換する。パターン識別部75は、前処理部74より供給されたスコア画像が顔画像かどうかの識別を行う。重なり判定部76はスコア画像同士が重なり合う領域を除去する。   Next, the face recognition process in step 3 will be described. This face recognition process is executed by the face recognition block 43. In order to execute this processing, the face recognition block 43 is configured as shown in FIG. The input image scale conversion unit 71 of the face recognition block 41 reads the main image and converts the reduction ratio of the main image into a plurality of different scale images. The window cutout unit 72 cuts out a window from the image whose scale has been converted by the input image scale conversion unit 71. The template matching unit 73 matches the window image cut out by the window cutout unit 72 with a template image prepared in advance. The preprocessing unit 74 performs vector conversion on the score image supplied from the template matching unit 73, and converts the obtained vector group into one pattern vector. The pattern identification unit 75 identifies whether the score image supplied from the preprocessing unit 74 is a face image. The overlap determination unit 76 removes an area where the score images overlap.

次に図8のフローチャート参照して、図5のステップS3における顔認識処理の詳細について説明する。   Next, details of the face recognition process in step S3 of FIG. 5 will be described with reference to the flowchart of FIG.

ステップS31において、入力画像スケール変換部71は、フレーム画像を読み出す。すなわちSDRAM45に記憶されている主画像がここで読み出される。ステップS32において入力画像スケール変換部71は、主画像から顔検出処理を行う基準の大きさのスケール画を作り出し、さらに縮小率の異なる複数のスケール画像に変換する。例えば、基準のスケール画像が320×240ピクセル(=76800ピクセル)である場合、これを0.8倍ずつ順次縮小して、5段階のスケール画像に変換される。これにより、1.0,0.8,0.64,0.51,0.41倍の第1のスケール画像乃至第5のスケール画像がそれぞれ生成される。この顔検出すべき画像サイズが大きくなった場合、スケールを適宜より細かく設定し、一辺が20ピクセル以下にならない範囲で縮小が行われる。   In step S31, the input image scale conversion unit 71 reads a frame image. That is, the main image stored in the SDRAM 45 is read out here. In step S32, the input image scale conversion unit 71 creates a scale image having a reference size for performing face detection processing from the main image, and further converts the scale image into a plurality of scale images having different reduction ratios. For example, when the reference scale image is 320 × 240 pixels (= 76800 pixels), the scale image is sequentially reduced by 0.8 times to be converted into a five-stage scale image. As a result, 1.0 to 0.8, 0.64, 0.51, and 0.41 times of the first to fifth scale images are generated. When the image size to be detected by the face increases, the scale is set to be finer as appropriate, and the reduction is performed in a range where one side does not become 20 pixels or less.

ステップS33において、ウィンドウ切り出し部72は、ウィンドウ領域を切り出す。例えば、まず第1のスケール画像に対して画像左上を起点として順に画像右下まで2ピクセル分を右側または下側にずらしながらスキャンするようにして、20×20ピクセル(=400ピクセル)の矩形領域(ウィンドウ領域)が順次切り出される。   In step S33, the window cutout unit 72 cuts out a window area. For example, a rectangular area of 20 × 20 pixels (= 400 pixels) is first scanned from the first scale image starting from the upper left corner of the image while sequentially shifting two pixels to the right or lower side to the lower right corner of the image. (Window area) is cut out sequentially.

ステップS34において、テンプレートマッチング部73は、関数曲線に変換する処理を実行する。すなわちウィンドウ領域の画像(ウィンドウ画像)について、正規化相関法や誤差自乗法などの演算処理を行って、ピーク値を持つ関数曲線に変換される。ステップS35において、テンプレートマッチング部73は、関数のピーク値は閾値より大きいかを判定する。すなわち認識性が落ちない程度に十分に低い閾値があらかじめ設定されており(例えば100人程度の人物の平均からなる平均的な顔画像をテンプレートとして判断基準となる閾値が設定されており)、この閾値を基準にして、ウィンドウ画像が顔画像か否かが判定される。   In step S34, the template matching unit 73 executes a process of converting into a function curve. That is, the window region image (window image) is converted into a function curve having a peak value by performing arithmetic processing such as a normalized correlation method and an error square method. In step S35, the template matching unit 73 determines whether the peak value of the function is greater than a threshold value. That is, a sufficiently low threshold is set in advance so as not to deteriorate the recognizability (for example, a threshold serving as a determination criterion is set using an average face image consisting of an average of about 100 persons as a template). Whether the window image is a face image is determined based on the threshold value.

ステップS35において関数のピーク値が閾値より大きいと判定された場合(ウィンドウ画像に人物の顔が含まれていると判定された場合)、ステップS36において前処理部74は前処理を実行する。この前処理の詳細は、図9のフローチャートを参照して後述するが、これにより人物の顔画像を含むウィンドウ画像(スコア画像)がベクトルに変換され、得られたベクトル群がさらに1本のパターンベクトルに変換される。   When it is determined in step S35 that the peak value of the function is larger than the threshold value (when it is determined that the human face is included in the window image), the preprocessing unit 74 performs preprocessing in step S36. The details of this pre-processing will be described later with reference to the flowchart of FIG. 9. As a result, a window image (score image) including a human face image is converted into a vector, and the obtained vector group further includes one pattern. Converted to a vector.

ステップS37においてパターン識別部75は、パターン識別処理を実行する。この処理の詳細は、図10のフローチャートを参照して後述するが、これにより顔の位置情報が生成、記憶される。   In step S37, the pattern identification unit 75 executes pattern identification processing. Details of this processing will be described later with reference to the flowchart of FIG. 10, whereby the face position information is generated and stored.

ステップS38において、パターン識別部75はいまの処理中のスケールのすべてのスケール画像を処理したかを判定する。例えばいま第1のスケールの画像を処理している場合には、第1のスケールのすべてのスケール画像を処理したかが判定される。まだ処理していない第1のスケールの画像が存在する場合には、ステップS39においてウィンドウ切り出し部72は、第1のスケールの他のスケール画像を選択する。その後処理はステップS33に戻り、それ以降の処理が繰り返し実行される。   In step S38, the pattern identification unit 75 determines whether all scale images of the scale currently being processed have been processed. For example, when an image of the first scale is being processed, it is determined whether all the scale images of the first scale have been processed. If there is an image of the first scale that has not yet been processed, the window cutout unit 72 selects another scale image of the first scale in step S39. Thereafter, the processing returns to step S33, and the subsequent processing is repeatedly executed.

ステップS38において、いま処理中のスケールのすべてのスケール画像を処理したと判定された場合、ステップS40においてパターン識別部75はすべてのスケール画像を処理したかを判定する。例えば第1のスケールから第5のスケールまで存在する場合、第5のスケールまですべての画像を処理したかが判定される。まだ処理してないスケールの画像が存在する場合には、ステップS41においてウィンドウ切り出し部72は、他のスケールのスケール画像を選択する。その後処理はステップS33に戻り、それ以降の処理が繰り返し実行される。   If it is determined in step S38 that all scale images of the scale currently being processed have been processed, the pattern identifying unit 75 determines in step S40 whether all scale images have been processed. For example, if there is a first scale to a fifth scale, it is determined whether all images have been processed up to the fifth scale. If there is an image of a scale that has not yet been processed, the window cutout unit 72 selects a scale image of another scale in step S41. Thereafter, the processing returns to step S33, and the subsequent processing is repeatedly executed.

以上のようにして、第1のスケール乃至第5のスケールのすべてのスケールの画像についての処理が終了したとき、ステップS42において、重なり判定部76は重なり処理を実行する。この重なり処理の詳細は、図12のフローチャートを参照して後述するが、これにより重なり合う領域を除去する処理が実行される。   As described above, when the processing for all the images of the first scale to the fifth scale is completed, in step S42, the overlap determination unit 76 executes the overlap processing. The details of the overlapping process will be described later with reference to the flowchart of FIG. 12, whereby the process of removing the overlapping area is executed.

ステップS35において、関数のピーク値が閾値より大きくないと判定された場合(スコア画像に人の顔の画像が含まれていないと判定された場合)、ステップS36乃至ステップS42の処理はスキップされる。   In step S35, when it is determined that the peak value of the function is not larger than the threshold value (when it is determined that the human face image is not included in the score image), the processing of steps S36 to S42 is skipped. .

次に図9のフローチャート参照して、図8のステップS36における前処理の詳細について説明する。   Next, details of the pre-processing in step S36 in FIG. 8 will be described with reference to the flowchart in FIG.

ステップS71において前処理部74は、スコア画像の中央部分を抽出する。すなわち20×20ピクセルで構成される矩形領域のスコア画像から、人間の顔領域と無関係である4隅を除去することで、400ピクセルから360ピクセルの領域が抽出される。次にステップS72において、前処理部74は濃淡値を補正する。具体的には撮影時の照明により濃淡で表される被写体の条件ばらつきを解消するため、360ピクセルのスコア画像のうち、顔画像として最適な部位を基準とする平面を形成するように平均自乗誤差法を用いて濃淡値が補正される。   In step S71, the preprocessing unit 74 extracts the central portion of the score image. That is, by removing four corners that are unrelated to the human face area from the score image of a rectangular area composed of 20 × 20 pixels, an area of 400 pixels to 360 pixels is extracted. In step S72, the preprocessing unit 74 corrects the gray value. Specifically, in order to eliminate subject condition variation expressed by shading due to illumination at the time of shooting, a mean square error is formed so as to form a plane based on the most suitable part as a face image among 360-pixel score images. The gray value is corrected using the method.

ステップS73において、前処理部74はヒストグラム平滑化処理する。すなわちスコア画像のコントラストを強調した結果を、ヒストグラム平滑化処理を行うことで、カメラブロック41のゲインや照明の強弱によらずに顔画像が検出ができるようにする。次に、ステップS74において前処理部74はスコア画像をパターンベクトルに変換する。具体的には、ガボアフィルタリング処理により、360ピクセルのスコア画像がベクトルに変換され、得られたベクトル群がさらに1本のパターンベクトルに変換される。   In step S73, the preprocessing unit 74 performs a histogram smoothing process. That is, the result of enhancing the contrast of the score image is subjected to a histogram smoothing process so that a face image can be detected regardless of the gain of the camera block 41 and the intensity of illumination. Next, in step S74, the preprocessing unit 74 converts the score image into a pattern vector. Specifically, the score image of 360 pixels is converted into a vector by the Gabor filtering process, and the obtained vector group is further converted into one pattern vector.

次に、図10のフローチャート参照して、図8のステップS37におけるパターン識別処理の詳細ついて説明する。   Next, details of the pattern identification processing in step S37 in FIG. 8 will be described with reference to the flowchart in FIG.

ステップS91において、パターン識別部75はパターンベクトルを識別関数と比較する。すなわち前処理部74により生成されたパターンベクトルが、学習用のデータを用いてあらかじめ得られた暫定的な識別関数と比較される。具体的には、前処理部74より得られたパターンベクトルとしての360ピクセル分のスコア画像に対して、サポートベクターマシーンを用いて顔画像の検出が行われる。   In step S91, the pattern identification unit 75 compares the pattern vector with the identification function. That is, the pattern vector generated by the preprocessing unit 74 is compared with a provisional discriminant function obtained in advance using learning data. Specifically, face images are detected using a support vector machine for a score image of 360 pixels as a pattern vector obtained from the preprocessing unit 74.

ステップS92においてパターン識別部75は顔画像が検出されたかを判定する。顔画像が検出された場合には、ステップS93においてパターン識別部75はスコア画像の中心の座標、大きさ(縦横ピクセル数)、縮小率をリスト化し記憶する。ここで縮小率とはスケール画像の主画像に対する縮小率を意味する。   In step S92, the pattern identification unit 75 determines whether a face image is detected. If a face image is detected, in step S93, the pattern identification unit 75 lists and stores the coordinates, size (number of vertical and horizontal pixels), and reduction ratio of the center of the score image. Here, the reduction ratio means a reduction ratio of the scale image with respect to the main image.

図11は座標データの例を表している。全体画像である主画像100は横方向X0ピクセル、縦方向Y0ピクセルで構成されている。この主画像100中の顔画像101は、その中心が座標(p1,q1)となっている。顔画像101の縦方向の長さはb1、幅はa1である。この場合、顔画像101の最上端の点の座標は(p1,q1-b1/2)となる。顔画像101の最も下側の点の座標は(p1,q1+b1/2)となる。顔画像101の最も左側の点の座標は(p1-a1/2,q1)となり、最も右側の点の座標は(p1+a1/2,q1)となる。   FIG. 11 shows an example of coordinate data. The main image 100 that is the entire image is composed of X0 pixels in the horizontal direction and Y0 pixels in the vertical direction. The center of the face image 101 in the main image 100 is the coordinates (p1, q1). The length of the face image 101 in the vertical direction is b1 and the width is a1. In this case, the coordinates of the uppermost point of the face image 101 are (p1, q1-b1 / 2). The coordinates of the lowermost point of the face image 101 are (p1, q1 + b1 / 2). The coordinates of the leftmost point of the face image 101 are (p1−a1 / 2, q1), and the coordinates of the rightmost point are (p1 + a1 / 2, q1).

主画像100のアスペクト比が3対4である場合(Y0とX0の比が3対4である場合)、顔画像101を拡大して表示する場合に縦方向の余裕のピクセル数をα1とするとき、このα1は顔画像101の長さb1に対する一定の比率として表される。この顔画像101を3対4のアスペクト比で拡大して表示する場合に表示される領域としての顔領域101Aの幅は(b1+2α1)×4/3となり、縦方向の長さはb1+2α1となる。   When the aspect ratio of the main image 100 is 3 to 4 (when the ratio of Y0 and X0 is 3 to 4), when the face image 101 is enlarged and displayed, the number of vertical margin pixels is α1. At this time, α1 is expressed as a constant ratio to the length b1 of the face image 101. When this face image 101 is enlarged and displayed with an aspect ratio of 3 to 4, the width of the face area 101A as an area to be displayed is (b1 + 2α1) × 4/3, and the length in the vertical direction is b1 +. 2α1.

同様に顔画像102は、その中心座標が(p2,q2)となっている。顔画像102の縦方向の長さはb2、横方向の長さはa2となっている。顔画像102の最も上側の点の座標は(p2,q2-b2/2)となり、最も下側の点の座標は(p2,q2+b2/2)となる。顔画像102の最も左側の点の座標は(p2-a2/2,q2)となり、最も右側の点の座標は(p2+a2/2,q2)となる。   Similarly, the center coordinates of the face image 102 are (p2, q2). The length of the face image 102 in the vertical direction is b2, and the length in the horizontal direction is a2. The coordinates of the uppermost point of the face image 102 are (p2, q2−b2 / 2), and the coordinates of the lowermost point are (p2, q2 + b2 / 2). The coordinates of the leftmost point of the face image 102 are (p2-a2 / 2, q2), and the coordinates of the rightmost point are (p2 + a2 / 2, q2).

また、顔画像102の縦方向の長さb2に対応して演算される余裕の長さはα2とされる。顔画像102を3対4のアスペクト比として表示する場合の顔領域102Aの横方向の幅は(b2+2α2)×4/3となり、高さはb2+2α2となる。   Further, the length of the margin calculated corresponding to the vertical length b2 of the face image 102 is α2. When the face image 102 is displayed with an aspect ratio of 3 to 4, the horizontal width of the face region 102A is (b2 + 2α2) × 4/3, and the height is b2 + 2α2.

顔画像101は、縦方向の長さb1または横方向の幅a1が約20ピクセルで表されたスケールのスケール画像で検出される。同様に顔画像102も縦方向の長さb2または横方向の幅a2が約20ピクセルとなる場合のスケール画像で検出される。したがって中心座標(p1,q1),(p2,q2)もそれぞれのスケールにおけるスコア画像の中心座標として求められる。この中心座標もSDRAM45に同様に記憶される。   The face image 101 is detected by a scale image having a scale in which the length b1 in the vertical direction or the width a1 in the horizontal direction is expressed by about 20 pixels. Similarly, the face image 102 is also detected as a scale image when the length b2 in the vertical direction or the width a2 in the horizontal direction is about 20 pixels. Therefore, the center coordinates (p1, q1) and (p2, q2) are also obtained as the center coordinates of the score image in each scale. The center coordinates are also stored in the SDRAM 45 in the same manner.

ステップS92において顔画像が検出されなかったと判定された場合には、ステップS94において、パターン識別部75はスコア画像を非顔データとして学習データに追加する。これにより、より認識率の高い学習データが生成されることになる。   If it is determined in step S92 that no face image has been detected, the pattern identifying unit 75 adds the score image to the learning data as non-face data in step S94. Thereby, learning data with a higher recognition rate is generated.

次に図12のフローチャート参照して、図8のステップS42における重なり処理の詳細について説明する。   Next, details of the overlap processing in step S42 in FIG. 8 will be described with reference to the flowchart in FIG.

ステップS121において、重なり判定部76は、1つのスケールのスケール画像のリストデータを読み出す。すなわちSDRAM45に記憶されているリストデータがここで読み出される。ステップS122において、重なり判定部76はリストデータを比較する。ステップS123において重なり判定部76は、2つのスコア画像が重なるかを判定する。2つのスコア画像が重なる場合には、ステップS124において重なり判定部76は重なり合う領域を除去する処理を実行する。   In step S <b> 121, the overlap determination unit 76 reads scale data list data of one scale. That is, the list data stored in the SDRAM 45 is read here. In step S122, the overlap determination unit 76 compares the list data. In step S123, the overlap determination unit 76 determines whether the two score images overlap. If the two score images overlap, in step S124, the overlap determination unit 76 executes a process for removing the overlapping region.

例えば図13に示されるように、2つのスコア画像P1,P2がある場合において、それぞれの左上部の角の座標を(Xa,Ya),(Xb,Yb)とする。スコア画像P1の幅はLa、高さはHa、スコア画像P2の幅はLb、高さはHbである。2つのスコア画像の左上の点のx座標の差をdX(=Xb-Xa),y座標の差をdY(=Yb-Ya)とするとき、
(La−dX)×(Lb+dX)>0
かつ
(Ha−dX)×(Hb+dY)>0
の条件を満たすとき、スコア画像P1とスコア画像P2が重なり合うと判定することができる。重なり合う領域が存在する場合には、その重なる領域(図13においてハッチングで示される領域)は除去される。
For example, as shown in FIG. 13, when there are two score images P1, P2, the coordinates of the upper left corner are (Xa, Ya), (Xb, Yb). The score image P1 has a width La, a height Ha, and the score image P2 has a width Lb and a height Hb. When the difference between the x coordinates of the upper left points of the two score images is dX (= Xb−Xa) and the difference between the y coordinates is dY (= Yb−Ya),
(La−dX) × (Lb + dX)> 0
And (Ha−dX) × (Hb + dY)> 0
When this condition is satisfied, it can be determined that the score image P1 and the score image P2 overlap. If there is an overlapping area, the overlapping area (area shown by hatching in FIG. 13) is removed.

ステップS123において2つのスコア画像が重ならないと判定された場合にはステップS124の処理はスキップされる。   If it is determined in step S123 that the two score images do not overlap, the process of step S124 is skipped.

ステップS125において重なり判定部76は、すべてのスケールのスケール画像のリストデータを読み出したかを判定する。まだ読み出していないスケール画像のリストデータが存在する場合にはステップS121に戻り、それ以降の処理が繰り返し実行される。このようにして、第1のスケール画像乃至第5のスケール画像の各スケール画像ごとに複数のリストデータがそれぞれ読み出され、それぞれのリストデータの重なり合いが判定される。   In step S125, the overlap determination unit 76 determines whether list data of scale images of all scales has been read. If there is list data of scale images that have not been read yet, the process returns to step S121, and the subsequent processing is repeatedly executed. In this way, a plurality of list data is read for each scale image of the first scale image to the fifth scale image, and the overlap of the list data is determined.

ステップS125においてスケール画像のリストデータをすべて読み出したと判定された場合、ステップS126において重なり判定部76は、各スケール画像の顔の位置情報を記憶する。すなわち位置情報がSDRAM45に記憶される。   If it is determined in step S125 that all the scale image list data has been read, the overlap determination unit 76 stores the face position information of each scale image in step S126. That is, the position information is stored in the SDRAM 45.

以上のようにしてリムーバブルメモリ50には、図3に示されるように主画像ファイルとともに主画像の顔の位置情報(中心座標、縮小率、大きさなど)が記録される。すなわち、主画像やサムネイル画像などの全体画像中の顔の位置が算出可能な情報が記録される。   As described above, in the removable memory 50, the position information (center coordinates, reduction ratio, size, etc.) of the face of the main image is recorded together with the main image file as shown in FIG. That is, information that can calculate the position of the face in the entire image such as the main image or the thumbnail image is recorded.

なお説明は省略したが、主画像ファイルとともにそれを縮小したサムネイル画像も同時に記録される。   Although explanation is omitted, a thumbnail image obtained by reducing the main image file is also recorded at the same time.

次に以上のようにして、リムーバブルメモリ50に記憶された画像データを再生する処理について、図14のフローチャートを参照して説明する。ユーザが操作ブロック46を操作して所定の主画像(全体画像)の再生を指令すると、読み出し部71は、リムーバブルメモリコントローラ49を介してリムーバブルメモリ50からユーザにより指定された(最初はデフォルト(例えば、記録順序が先頭)の)主画像のデータを読み出す。すなわち、指定された主画像のサムネイルのデータがリムーバブルメモリ50から読み出され、SDRAM45に記憶される。   Next, processing for reproducing the image data stored in the removable memory 50 as described above will be described with reference to the flowchart of FIG. When the user operates the operation block 46 to instruct the reproduction of a predetermined main image (entire image), the reading unit 71 is designated by the user from the removable memory 50 via the removable memory controller 49 (initially (for example, default (for example, The data of the main image) is read out. That is, the thumbnail data of the designated main image is read from the removable memory 50 and stored in the SDRAM 45.

ステップS142において判定部72は、指定された主画像データに対応する顔の位置情報があるかを判定する。顔の位置情報がない場合にはステップS143において表示部75は画像を表示する。すなわち、ステップS141で読み出されSDRAM45に記憶されたサムネイル画像データが読み出され、画像処理ブロック42を介して画像表示装置44に出力され、LCD21に全体画像として表示される。あるいは、ステップS141で主画像データを読み出し、それから縮小した表示用の画像を生成し、ステップS143で全体画像として表示するようにしてもよい。   In step S142, the determination unit 72 determines whether there is face position information corresponding to the designated main image data. If there is no face position information, the display unit 75 displays an image in step S143. That is, the thumbnail image data read in step S141 and stored in the SDRAM 45 is read, output to the image display device 44 via the image processing block 42, and displayed as an entire image on the LCD 21. Alternatively, the main image data may be read in step S141, a reduced display image may be generated from the main image data, and the entire image may be displayed in step S143.

ステップS144において判定部72は、他の画像(全体画像)が選択されたかを判定し、他の画像(全体画像)が選択された場合にはステップS141に戻り、それ以降の処理が繰り返し実行される。ステップS144において、他の画像(全体画像)が選択されていないと判定された場合には、ステップS145において、判定部72は終了が指示されたかを判定する。終了がまだ指示されていない場合には、処理はステップS143に戻り、それ以降の処理が繰り返される。終了が指示された場合には、再生処理は終了される。   In step S144, the determination unit 72 determines whether another image (entire image) is selected. If another image (entire image) is selected, the process returns to step S141, and the subsequent processing is repeatedly executed. The If it is determined in step S144 that no other image (entire image) has been selected, in step S145, the determination unit 72 determines whether termination has been instructed. If the end has not been instructed yet, the process returns to step S143, and the subsequent processes are repeated. If termination is instructed, the reproduction process is terminated.

ステップS142において、顔の位置情報があると判定された場合には、ステップS146において読み出し部71は顔の位置情報を読み出す。これにより、リムーバブルメモリ50から顔の位置情報がリムーバブルメモリコントローラ49を介して読み出され、SDRAM45に記憶される(あるいは、顔の位置情報がある場合には、サムネイル画像データあるいは主画像データとともに読み出し、SDRAM45に記憶しておくようにしてもよい)。またこのとき、演算部77は、得られた顔の位置情報から縦方向の余裕のピクセル数が適切となるように演算し(例えば図11の顔画像101の場合、中心座標(p1,q1)と縦方向の長さb1からの余裕α1を演算し)、SDRAM45に記憶させる。ステップS147において表示部75は画像を表示する。すなわち、ステップS141で読み出されたサムネイル画像データが、画像処理ブロック42を介して主画像表示装置44のLCD21に供給され、全体画像として表示される。あるいはまた、読み出された主画像データを縮小して生成された表示用の画像が全体画像として表示される。   If it is determined in step S142 that there is face position information, the reading unit 71 reads face position information in step S146. As a result, the face position information is read from the removable memory 50 via the removable memory controller 49 and stored in the SDRAM 45 (or, if there is face position information, it is read together with the thumbnail image data or the main image data). Or may be stored in the SDRAM 45). At this time, the calculation unit 77 performs calculation so that the number of pixels in the vertical direction is appropriate from the obtained face position information (for example, in the case of the face image 101 in FIG. 11, the center coordinates (p1, q1)) And a margin α1 from the length b1 in the vertical direction is calculated) and stored in the SDRAM 45. In step S147, the display unit 75 displays an image. That is, the thumbnail image data read in step S141 is supplied to the LCD 21 of the main image display device 44 via the image processing block 42 and displayed as an entire image. Alternatively, a display image generated by reducing the read main image data is displayed as an entire image.

ステップS148において判定部72は、顔ボタンがオンされたかを判定する。顔ボタン26がオンされた場合には、ステップS149において判定部72は、いま指定されている全体画像中のすべての顔画像を選択したかを判定する。まだすべての顔画像を選択していない場合には、ステップS150において選択部76は1つの顔画像を選択する。例えば、全体画像中に4つの顔画像が存在する場合に、そのうちの最も左側の1つの顔画像が選択される。そして、ステップS151において表示部75は、顔画像表示処理を実行する。その詳細は、図16のフローチャートを参照して後述するが、演算された余裕を用いて、選択された顔画像が最適な大きさに拡大表示される。さらにこのとき必要に応じて顔画像はガンマ補正されたうえで拡大表示される。   In step S148, the determination unit 72 determines whether the face button is turned on. When the face button 26 is turned on, in step S149, the determination unit 72 determines whether all face images in the entire image that has been specified have been selected. If not all face images have been selected, the selection unit 76 selects one face image in step S150. For example, when there are four face images in the entire image, one of the leftmost face images is selected. In step S151, the display unit 75 executes a face image display process. The details will be described later with reference to the flowchart of FIG. 16, but the selected face image is enlarged and displayed to an optimum size using the calculated margin. At this time, the face image is enlarged and displayed after being gamma-corrected as necessary.

ステップS153において判定部72は、他の画像が選択されたかを判定する。他の画像(全体画像)が選択されていないと判定された場合には、ステップS154において、判定部72は終了が指示されたかを判定する。まだ終了が指示されていない場合には、処理はステップS148に戻り、それ以降の処理が繰り返し実行される。すなわち再び顔ボタン26がオンされたと判定された場合には、ステップS149においてその全体画像中のすべての顔画像を選択したかが判定される。そして、その全体画像中のすべての顔画像がまだ選択されていない場合には、ステップS150において1つの顔画像が選択される。すなわちこの場合には、その全体画像中の上述した4つの顔画像のうち、まだ選択していない次に左側の2つ目の顔画像が選択される。そしてステップS151において、その2つ目の顔画像が拡大表示される。   In step S153, the determination unit 72 determines whether another image has been selected. If it is determined that no other image (entire image) has been selected, in step S154, the determination unit 72 determines whether termination has been instructed. If the end has not been instructed yet, the process returns to step S148, and the subsequent processes are repeatedly executed. That is, if it is determined that the face button 26 is turned on again, it is determined in step S149 whether all the face images in the entire image have been selected. If all the face images in the entire image have not been selected yet, one face image is selected in step S150. That is, in this case, the second face image on the left side that has not yet been selected among the above-described four face images in the entire image is selected. In step S151, the second face image is enlarged and displayed.

以上のようにして、顔ボタン26がオンされる毎に、LCD21には顔画像が1枚ずつ順次拡大して表示されることになる。   As described above, each time the face button 26 is turned on, the face images are sequentially enlarged and displayed on the LCD 21 one by one.

そしてステップS149においてその全体画像中のすべての顔画像を選択したと判定された場合、ステップS152において表示部75は全体画像(サムネイル画像または、主画像から生成された表示用の縮小された画像)を表示する。換言すれば、顔ボタン26を順次繰り返しオンすることで4つの顔画像のすべてを表示させた場合、さらに顔ボタン26がオンされたときは、元の全体画像が表示されることになる。   If it is determined in step S149 that all face images in the entire image have been selected, the display unit 75 displays the entire image (thumbnail image or reduced image for display generated from the main image) in step S152. Is displayed. In other words, when all the four face images are displayed by sequentially turning on the face button 26, when the face button 26 is further turned on, the original whole image is displayed.

図15は、以上のようにして顔ボタン26が操作される毎に変化する表示の状態を表している。図15の左上に示されるように、顔画像131乃至133が表示されている全体画像が存在する場合において、ユーザが顔ボタン26を1回オンすると、例えば図中最も左側に位置する顔画像131が、図15において右上に示されるように拡大して表示される。このとき拡大倍率も表示される。この場合においては2倍とされている。この状態からさらに顔ボタン26がオンされると、図15の左上の全体画像において、左から2番目に位置する顔画像132が、図15の右下に示されるように拡大表示される。この場合にも左下に拡大倍率が示される。この場合拡大倍率は3倍とされている。この状態からさらに顔ボタン26がオンされると、最も右側に位置する顔画像133が、図15の左下に示されるように拡大表示される。この場合の拡大倍率は4倍とされている。さらに顔ボタン26がオンされると、図15の左上に示される全体画像(全ての顔画像を含む画像)が表示された状態に戻ることになる。   FIG. 15 shows a display state that changes each time the face button 26 is operated as described above. As shown in the upper left of FIG. 15, when there is an entire image on which face images 131 to 133 are displayed, when the user turns on the face button 26 once, for example, the face image 131 located on the leftmost side in the drawing. Is enlarged and displayed as shown in the upper right in FIG. At this time, the magnification is also displayed. In this case, it is doubled. When the face button 26 is further turned on from this state, the face image 132 located second from the left in the entire upper left image in FIG. 15 is enlarged and displayed as shown in the lower right in FIG. In this case as well, the magnification is shown in the lower left. In this case, the enlargement magnification is 3 times. When the face button 26 is further turned on from this state, the face image 133 located on the rightmost side is enlarged and displayed as shown in the lower left of FIG. In this case, the enlargement magnification is set to 4 times. Further, when the face button 26 is turned on, the whole image (image including all face images) shown in the upper left of FIG. 15 is returned to the displayed state.

ステップS152の処理の後、処理はステップS153に進み、他の画像(全体画像)が選択されたかが判定される。ステップS153において、他の画像(全体画像)が選択されたと判定された場合には、処理はステップS141に戻り、それ以降の処理が繰り返し実行される。   After the process of step S152, the process proceeds to step S153, and it is determined whether another image (entire image) has been selected. If it is determined in step S153 that another image (entire image) has been selected, the process returns to step S141, and the subsequent processes are repeatedly executed.

ステップS154において、終了が指示されたと判定された場合、再生処理は終了される。   In step S154, when it is determined that the end is instructed, the reproduction process is ended.

次に、図16のフローチャートを参照して、図14のステップS151の顔画像表示処理の詳細について説明する。   Next, the details of the face image display processing in step S151 in FIG. 14 will be described with reference to the flowchart in FIG.

ステップS171において演算部77は、輝度のヒストグラムを演算する。すなわち、いま処理対象とされている顔画像の輝度のヒストグラムがここで演算される。ステップS172において判定部72は、輝度のヒストグラムはU字型かを判定する。すなわちステップS171で演算された輝度のヒストグラムのパターンが略U字型かが判定される。輝度のヒストグラムのパターンが略U字型である場合には、ステップS173において補正部78は、その顔画像の画像データを逆S字ガンマ補正する。すなわち図17に示されるような逆S字型の特性曲線151に沿ってその顔画像の画像データが補正される。特性曲線151により、入力信号のレベルが小さいときと大きいとき出力階調が急激に大きく変化するように補正され、入力信号のレベルがその中間である場合には、出力階調の変化率が小さくなるように補正される。その結果、図18Aに示されるように、明るさ(横軸)が暗い場合と明るい場合の度数(縦軸)が大きく、中間の明るさの度数が少ないといったように、明るさの度数が極端に分かれて分布しているような場合において、その分布が図18Bに示されるように、相互の分布のピークの間隔が狭くなるように補正される。このように補正することで、例えば主に逆光状態の画像が鮮明に表示されることになる。   In step S171, the calculation unit 77 calculates a luminance histogram. That is, the luminance histogram of the face image that is the object of processing is calculated here. In step S172, the determination unit 72 determines whether the luminance histogram is U-shaped. That is, it is determined whether the luminance histogram pattern calculated in step S171 is substantially U-shaped. If the luminance histogram pattern is substantially U-shaped, the correction unit 78 performs inverse S-gamma correction on the image data of the face image in step S173. That is, the image data of the face image is corrected along the inverted S-shaped characteristic curve 151 as shown in FIG. According to the characteristic curve 151, when the input signal level is small and large, the output gradation is corrected so as to change abruptly. When the input signal level is in the middle, the change rate of the output gradation is small. It is corrected so that As a result, as shown in FIG. 18A, the frequency of brightness is extremely high, such as when the brightness (horizontal axis) is dark and bright (the vertical axis) is large and the intermediate brightness frequency is small. When the distribution is divided into two, the distribution is corrected so that the interval between the peaks of the mutual distribution is narrowed as shown in FIG. 18B. By correcting in this way, for example, an image in the backlit state is mainly displayed clearly.

ステップS172において輝度のヒストグラムがU字型ではないと判定された場合、ステップS174において判定部72は、輝度のヒストグラムが逆U字型かを判定する。輝度のヒストグラムが略逆U字型である場合には、ステップS175において補正部78は、その顔画像の画像データをS字ガンマ補正する。   If it is determined in step S172 that the luminance histogram is not U-shaped, the determination unit 72 determines in step S174 whether the luminance histogram is inverted U-shaped. If the luminance histogram is substantially inverted U-shaped, in step S175, the correction unit 78 performs S-shaped gamma correction on the image data of the face image.

すなわち図19に示されるように、略S字型の特性曲線161に沿って画像データが補正される。この特性曲線161は、入力信号が小さい場合には徐々に出力階調が変化するが、入力信号のレベルが中間付近の場合急激に出力階調が大きい変化率で増大される。そして入力信号のレベルがさらに大きくなると、出力階調の変化率は小さくなる。このような補正を行うことで、例えば図20Aに示されるように、明るさの分布が中央の狭い範囲に集中しているような場合において、その明るさの分布を図20Bに示されるように、広い範囲に渡って分布させることができる。このようにすることで、主にコントラストが少ない画像を、コントラストを強調した画像にすることができる。   That is, as shown in FIG. 19, the image data is corrected along a substantially S-shaped characteristic curve 161. The characteristic curve 161 gradually changes the output gradation when the input signal is small, but increases rapidly with a large change rate of the output gradation when the level of the input signal is near the middle. As the input signal level further increases, the change rate of the output gradation decreases. By performing such correction, for example, as shown in FIG. 20A, when the brightness distribution is concentrated in a narrow range in the center, the brightness distribution is as shown in FIG. 20B. Can be distributed over a wide range. By doing in this way, an image with little contrast can be changed into an image with enhanced contrast.

ステップS174において輝度のヒストグラムが逆U字型ではないと判定された場合、またはステップS173もしくはステップS175の処理の後、処理はステップS176に進み、そこで表示部75は画像を拡大表示する。すなわち輝度のヒストグラムがU字型でも逆U字型でもないパターンである場合には、ガンマ補正は行われず、そのまま顔画像が拡大表示される。ステップS173,S175の処理を経た場合には、ガンマ補正された顔画像が拡大表示される。これにより、全体画像と同じ状態で、その一部の画像である顔画像が表示されることで、顔画像が不明瞭になったりすることが抑制される。   If it is determined in step S174 that the luminance histogram is not an inverted U-shape, or after the process of step S173 or step S175, the process proceeds to step S176, where the display unit 75 displays an enlarged image. That is, when the luminance histogram is a pattern that is neither U-shaped nor inverted U-shaped, gamma correction is not performed and the face image is enlarged and displayed as it is. When the processes in steps S173 and S175 are performed, the gamma-corrected face image is enlarged and displayed. Thereby, the face image which is a part of the image is displayed in the same state as the entire image, thereby suppressing the face image from becoming unclear.

また、ステップS176においては、表示部75は顔画像を拡大して表示するとともに、顔画像の位置をユーザに認識させるために、全体画像を縮小した画像(その位置関係を模式的に表した図を含む)を同時に表示させる。この状態が図21に示されている。同図に示されるように、画面171には顔画像181が拡大して表示されている。   In step S176, the display unit 75 enlarges and displays the face image and reduces the entire image (a diagram schematically showing the positional relationship) in order to make the user recognize the position of the face image. Are displayed at the same time. This state is shown in FIG. As shown in the figure, the face image 181 is enlarged and displayed on the screen 171.

そして画面171の右下には、全体画像を縮小した縮小画像172が表示されている。この縮小画像172は、全体画像をそのまま縮小した画像なので、全体画像中に存在するすべての顔画像181乃至183が表示されている。そして顔画像181の周囲には、枠191が表示されており、いま表示されている範囲が全体画像中のどこであるのかがユーザにより容易に識別できるようになされている。またステップS176においては顔画像の拡大倍率も同時に表示される。図21の例では拡大倍率が4倍とされている。   A reduced image 172 obtained by reducing the entire image is displayed at the lower right of the screen 171. Since the reduced image 172 is an image obtained by reducing the entire image as it is, all the face images 181 to 183 existing in the entire image are displayed. A frame 191 is displayed around the face image 181 so that the user can easily identify where the currently displayed range is in the entire image. In step S176, the magnification of the face image is also displayed at the same time. In the example of FIG. 21, the enlargement magnification is 4 times.

この拡大出来る倍率は離散的な値で値とされており、図11の顔領域101A,102Aが画面171の大きさになるように拡大されているので、拡大倍率はY0/(b+2α1)、またはY0/(b2+2α2)となる。このα1,α2の値を調整することで顔画像を最も拡大表示出来る倍率が選択される。   The magnification that can be enlarged is a discrete value, and since the face areas 101A and 102A in FIG. 11 are enlarged to the size of the screen 171, the magnification is Y0 / (b + 2α1). Or Y0 / (b2 + 2α2). By adjusting the values of α1 and α2, the magnification at which the face image can be displayed in an enlarged manner is selected.

またピクセル数が少ない顔画像を拡大しすぎると顔が認識できなくなる。そこで元の画像のピクセル数に応じて最大拡大倍率に制限を設けるようにしても良い。   If the face image with a small number of pixels is enlarged too much, the face cannot be recognized. Therefore, a limit may be set on the maximum magnification according to the number of pixels of the original image.

次に、図22のフローチャートを参照してOSD情報表示処理について説明する。   Next, the OSD information display process will be described with reference to the flowchart of FIG.

ステップS201において判定部72は、LCD21に画像が表示されているかを判定する。画像が表示されている場合にはステップS202において、判定部72は顔の位置情報があるかを判定する。顔の位置情報がある場合にはステップS203において、読出部71は顔の位置情報読み出す。これによりリムーバブルメモリ50に記録されている位置情報が、リムーバブルメモリコントローラ49を介して読み出され、SDRAM45に記憶される。記憶されるとその位置情報が読み出される。ステップS204において演算部77は、顔画像から離れた位置を演算する。すなわちOSD情報を表示する位置であって、そのOSD情報を表示した場合に顔画像が隠されてしまわない位置が計算される。このとき、必要に応じて、顔画像が隠されないOSD情報の大きさも計算される。ステップS205において表示部75は、ステップS204の処理で計算された位置にOSD情報を表示する。顔画像が隠されないように大きさも計算された場合、縮小された大きさのOSD情報が表示される。   In step S <b> 201, the determination unit 72 determines whether an image is displayed on the LCD 21. If an image is displayed, in step S202, the determination unit 72 determines whether there is face position information. If there is face position information, the reading unit 71 reads face position information in step S203. As a result, the position information recorded in the removable memory 50 is read out via the removable memory controller 49 and stored in the SDRAM 45. When stored, the position information is read out. In step S204, the calculation unit 77 calculates a position away from the face image. That is, a position where the OSD information is displayed and the face image is not hidden when the OSD information is displayed is calculated. At this time, if necessary, the size of the OSD information that does not hide the face image is also calculated. In step S205, the display unit 75 displays the OSD information at the position calculated in the process of step S204. When the size is calculated so that the face image is not hidden, the OSD information of the reduced size is displayed.

ステップS201において画像が表示されていないと判定された場合、またはステップS202において顔の位置情報がないと判定された場合には、ステップS206において表示部75はあらかじめ設定されているデフォルトの位置にOSD情報を表示する。   If it is determined in step S201 that no image is displayed, or if it is determined in step S202 that there is no face position information, in step S206, the display unit 75 sets the OSD to a preset default position. Display information.

図23はデフォルトの位置にOSD情報を表示した場合の表示例を表している。図23の表示例においては、顔画像201と顔画像202が存在するが、それに対してOSD情報211乃至216が表示されている。OSD情報211はシャッタ速度(1/100)やISO値(ISO800)などを表す。OSD情報212は輝度値のヒストグラムである。OSD情報213は電池の残量(165分)を表す。OSD情報214は現在の年月日と時刻(2005年2月15日午後3字56分)を表す。OSD情報215は画像サイズ(5M)を表す。OSD情報216はリムーバブルメモリ50に記録された枚数(126)と現在の表示枚数(21番目)を表す。   FIG. 23 shows a display example when OSD information is displayed at the default position. In the display example of FIG. 23, a face image 201 and a face image 202 exist, and OSD information 211 to 216 is displayed for the face image 201 and the face image 202. The OSD information 211 represents shutter speed (1/100), ISO value (ISO800), and the like. The OSD information 212 is a luminance value histogram. The OSD information 213 represents the remaining battery level (165 minutes). The OSD information 214 represents the current date and time (February 15, 2005, 3 characters 56 minutes). The OSD information 215 represents the image size (5M). The OSD information 216 indicates the number of sheets (126) recorded in the removable memory 50 and the current number of displays (21st).

図23の表示例においては顔画像202がOSD情報212により隠されてしまっている。   In the display example of FIG. 23, the face image 202 is hidden by the OSD information 212.

これに対して図24は顔画像が隠されないようにした位置にOSD情報を表示した表示例を表している。この場合においてはOSD情報212が顔画像201の左下に表示されている。したがって図24と比較して明らかなように、顔画像202がOSD情報212により隠されてしまうことが防止されている。   On the other hand, FIG. 24 shows a display example in which the OSD information is displayed at a position where the face image is not hidden. In this case, OSD information 212 is displayed at the lower left of the face image 201. Therefore, as is apparent from comparison with FIG. 24, the face image 202 is prevented from being hidden by the OSD information 212.

図25はデフォルトの位置にOSD情報を表示した他の表示例を表している。この表示例においては、顔画像231乃至234が存在する場合において、OSD情報212A乃至212Dが顔画像233と顔画像234を隠した状態となっている。OSD情報212A乃至212Dはそれぞれ赤、緑、青、および輝度の分布を表すヒストグラムである。   FIG. 25 shows another display example in which the OSD information is displayed at the default position. In this display example, when the face images 231 to 234 exist, the OSD information 212A to 212D hides the face image 233 and the face image 234. The OSD information 212A to 212D are histograms representing red, green, blue, and luminance distributions, respectively.

これに対して図26は計算された位置にOSD情報を表示した状態を表している。この表示例においてはOSD情報212A乃至212Dが縮小されて顔画像231の左下に表示されている。したがって顔画像233,234が隠されることが防止されている。またOSD情報211がデフォルトの位置(図25に示されている位置)から顔画像231の右上方向に移動して表示されている。   In contrast, FIG. 26 shows a state in which OSD information is displayed at the calculated position. In this display example, the OSD information 212A to 212D is reduced and displayed at the lower left of the face image 231. Therefore, the face images 233 and 234 are prevented from being hidden. The OSD information 211 is displayed by moving from the default position (position shown in FIG. 25) in the upper right direction of the face image 231.

このように顔画像の位置情報が存在する場合には、OSD情報が顔画像を隠さない位置と大きさに調整して表示させることが可能となる。   As described above, when the position information of the face image exists, it is possible to display the OSD information by adjusting the position and size so as not to hide the face image.

また複数枚の静止画を自動的にさまざまな効果でつなぎ、簡単で高機能なスライドショーが提案されている。この場合、ランダムにズームの位置や倍率が決定され、静止画が表示される。あるいはスクロールの方向や移動距離がランダムに決定される。その結果、人が写っている写真でも人と関係ないところがズームアップされたり、スクロールすることで人がいない場所のみが表示されてしまうようなことがある。しかし、顔の位置情報を利用することで顔の位置と大きさが分かるため、最適なズームが可能になる。また人の顔がある部分をスクロールすることで、画面から人の顔がはみ出さないようにスクロールすることも可能となる。   In addition, a simple and highly functional slide show has been proposed by automatically connecting multiple still images with various effects. In this case, the zoom position and magnification are determined at random, and a still image is displayed. Alternatively, the scroll direction and moving distance are determined randomly. As a result, even in a photograph showing a person, a part not related to the person may be zoomed up, or only a place where there is no person may be displayed by scrolling. However, since the position and size of the face can be known by using the face position information, an optimum zoom can be performed. It is also possible to scroll so that the human face does not protrude from the screen by scrolling the part where the human face is present.

以上のように本発明の実施形態においては、顔ボタン26が操作されるごとに1枚の全体画像に存在する複数の顔画像のそれぞれを1枚ずつ順番に順次拡大して表示するようにしたので、人の顔画像を容易かつ確実に確認することが可能となる。   As described above, in the embodiment of the present invention, each time the face button 26 is operated, each of a plurality of face images existing in one whole image is sequentially enlarged and displayed one by one. Therefore, it is possible to easily and surely confirm a human face image.

また撮影時の情報やヒストグラムなどのOSD表示が顔にかかる場合にこれを防止し、顔の位置や大きさデータに基づきOSD表示位置を変更して表示することができるので、顔をできるだけ覆わない位置にOSD情報を表示することが可能となる。   In addition, OSD display such as shooting information and histograms can be prevented from being applied to the face, and the OSD display position can be changed and displayed based on the face position and size data, so the face is not covered as much as possible OSD information can be displayed at the position.

図27は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータの構成の例を示すブロック図である。CPU(Central Processing Unit)321は、ROM(Read Only Memory)322、または記憶部328に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)323には、CPU321が実行するプログラムやデータなどが適宜記憶される。これらのCPU321、ROM322、およびRAM323は、バス324により相互に接続されている。   FIG. 27 is a block diagram showing an example of the configuration of a personal computer that executes the above-described series of processing by a program. A CPU (Central Processing Unit) 321 executes various processes according to a program stored in a ROM (Read Only Memory) 322 or a storage unit 328. A RAM (Random Access Memory) 323 appropriately stores programs executed by the CPU 321 and data. The CPU 321, ROM 322, and RAM 323 are connected to each other via a bus 324.

CPU321にはまた、バス324を介して入出力インターフェース325が接続されている。入出力インターフェース325には、キーボード、マウス、マイクロホンなどよりなる入力部326、ディスプレイ、スピーカなどよりなる出力部327が接続されている。CPU321は、入力部326から入力される指令に対応して各種の処理を実行する。そして、CPU321は、処理の結果を出力部327に出力する。   An input / output interface 325 is also connected to the CPU 321 via the bus 324. The input / output interface 325 is connected to an input unit 326 including a keyboard, a mouse, and a microphone, and an output unit 327 including a display and a speaker. The CPU 321 executes various processes in response to commands input from the input unit 326. Then, the CPU 321 outputs the processing result to the output unit 327.

入出力インターフェース325に接続されている記憶部328は、例えばハードディスクからなり、CPU321が実行するプログラムや各種のデータを記憶する。通信部329は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。また、通信部329を介してプログラムを取得し、記憶部328に記憶してもよい。   The storage unit 328 connected to the input / output interface 325 includes, for example, a hard disk, and stores programs executed by the CPU 321 and various data. The communication unit 329 communicates with an external device via a network such as the Internet or a local area network. A program may be acquired via the communication unit 329 and stored in the storage unit 328.

入出力インターフェース325に接続されているドライブ330は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア331が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部328に転送され、記憶される。   The drive 330 connected to the input / output interface 325 drives a removable medium 331 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and drives the programs and data recorded therein. Get etc. The acquired program and data are transferred to and stored in the storage unit 328 as necessary.

上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム格納媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, the program is installed in a general-purpose personal computer from the program storage medium.

コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム格納媒体は、図27に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini-Disc)を含む)、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア331、または、プログラムが一時的もしくは永続的に格納されるROM322や、記憶部328を構成するハードディスクなどにより構成される。プログラム格納媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインターフェースである通信部329を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。   As shown in FIG. 27, a program storage medium for storing a program that is installed in a computer and can be executed by the computer includes a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only). Memory), DVD (including Digital Versatile Disc)), magneto-optical disk (including MD (Mini-Disc)), or removable media 331 which is a package medium made of semiconductor memory or the like, or the program is temporary or permanent Is configured by a ROM 322 stored in the hard disk, a hard disk constituting the storage unit 328, and the like. The program is stored in the program storage medium using a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via a communication unit 329 which is an interface such as a router or a modem as necessary. Done.

なお、本明細書において、プログラム格納媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program stored in the program storage medium is not limited to the processing performed in time series according to the described order, but is not necessarily performed in time series. Or the process performed separately is also included.

なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

本発明の実施形態のデジタルスチルカメラの構成を示す平面図である。It is a top view which shows the structure of the digital still camera of embodiment of this invention. 本発明の実施形態のデジタルカメラの構成を示す背面図である。It is a rear view which shows the structure of the digital camera of embodiment of this invention. 本発明の実施形態のデジタルカメラの内部の構成を示すブロック図である。It is a block diagram which shows the structure inside the digital camera of embodiment of this invention. 制御ブロックの機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of a control block. 画像記録処理を説明するフローチャートである。It is a flowchart explaining an image recording process. メモリ領域の構造を示す図である。It is a figure which shows the structure of a memory area. 顔認識ブロックの構成を示すブロック図である。It is a block diagram which shows the structure of a face recognition block. 顔認識処理を説明するフローチャートである。It is a flowchart explaining a face recognition process. 前処理を説明するフローチャートである。It is a flowchart explaining pre-processing. パターン識別処理を説明するフローチャートである。It is a flowchart explaining a pattern identification process. 座標データの例を示す図である。It is a figure which shows the example of coordinate data. 重なり処理を説明するフローチャートであるIt is a flowchart explaining an overlap process. 重なり処理を説明する図である。It is a figure explaining an overlap process. 再生処理を説明するフローチャートである。It is a flowchart explaining a reproduction | regeneration process. 顔ボタンが押された場合の表示の変化を説明する図である。It is a figure explaining the change of a display when a face button is pushed. 顔画像表示処理を説明するフローチャートである。It is a flowchart explaining a face image display process. 逆S字ガンマ特性を示す図である。It is a figure which shows a reverse S character gamma characteristic. 逆S字ガンマ特性による補正を説明する図である。It is a figure explaining the correction | amendment by a reverse S character gamma characteristic. S字ガンマ特性を示す図である。It is a figure which shows S character gamma characteristic. S字ガンマ特性による補正を説明する図である。It is a figure explaining the correction | amendment by S character gamma characteristic. 顔画像の拡大表示の例を示すである。It is an example of an enlarged display of a face image. OSD情報表示処理を説明するフローチャートである。It is a flowchart explaining an OSD information display process. デフォルトの位置におけるOSD表示例を示すである。It is an OSD display example in a default position. OSD情報の表示位置を変更した例を示すである。It is the example which changed the display position of OSD information. OSD情報をデフォルトの位置に表示した他の例を示すである。It is another example in which OSD information is displayed at a default position. OSD情報の表示位置を変更した例を示すである。It is the example which changed the display position of OSD information. パーソナルコンピュータの構成を示すブロック図である。It is a block diagram which shows the structure of a personal computer.

符号の説明Explanation of symbols

1 デジタルスチルカメラ, 11 本体, 12 鏡筒, 21 LCD, 22 スイッチ, 25 再生ボタン, 26 顔ボタン, 27表示ボタン, 28 ゴミ箱ボタン, 41 カメラブロック, 42 画像処理ブロック, 43 顔認識ブロック, 44 画像表示装置, 45 SDRAM, 46 操作ブロック, 47 制御ブロック, 48 フラッシュメモリ, 49 リムーバブルメモリコントローラ, 50 リムーバブルメモリ 1 digital still camera, 11 body, 12 lens barrel, 21 LCD, 22 switch, 25 playback button, 26 face button, 27 display button, 28 trash can button, 41 camera block, 42 image processing block, 43 face recognition block, 44 image Display device, 45 SDRAM, 46 Operation block, 47 Control block, 48 Flash memory, 49 Removable memory controller, 50 Removable memory

Claims (12)

表示する全体画像の画像データを取得する画像データ取得手段と、
前記全体画像中における複数の顔画像の位置情報を取得する位置情報取得手段と、
前記全体画像中に含まれる複数の前記顔画像の表示の切り替えの指示を取得する指示取得手段と、
切り替えの指示が取得される毎に、前記全体画像中に含まれる複数の前記顔画像を1枚ずつ順次切り替えて拡大して表示する表示手段と
を備える画像処理装置。
Image data acquisition means for acquiring image data of the entire image to be displayed;
Position information acquisition means for acquiring position information of a plurality of face images in the whole image;
Instruction acquisition means for acquiring an instruction to switch display of the plurality of face images included in the whole image;
An image processing apparatus comprising: display means for sequentially switching and enlarging and displaying the plurality of face images included in the entire image each time a switching instruction is acquired.
前記表示手段は、複数の前記顔画像のすべてを順次表示した後、さらに切り替えの指示が取得された場合、前記全体画像を表示する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the display unit sequentially displays all of the plurality of face images, and further displays the entire image when a switching instruction is acquired.
拡大表示する前記顔画像の画像データをガンマ補正するガンマ補正手段を
さらに備える請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, further comprising a gamma correction unit that performs gamma correction on image data of the face image to be enlarged and displayed.
前記ガンマ補正手段は、拡大表示する前記顔画像の画像データ輝度のヒストグラムがU字型である場合、逆S字ガンマ補正し、逆U字型である場合、S字ガンマ補正する
請求項3に記載の画像処理装置。
The gamma correction unit performs reverse S-gamma correction when the histogram of the image data luminance of the face image to be enlarged is U-shaped, and performs S-shaped gamma correction when the histogram is reverse U-shaped. The image processing apparatus described.
前記表示手段は、表示している前記顔画像の前記全体画像における位置をさらに表示する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the display unit further displays a position of the displayed face image in the entire image.
撮像した画像の画像データを、前記複数の顔画像の位置情報とともに記録媒体に記録する記録手段をさらに備え、
前記画像データ取得手段と前記位置情報取得手段は、前記記録媒体より読み出された前記画像データと前記位置情報を取得する
請求項1に記載の画像処理装置。
A recording unit that records image data of the captured image together with position information of the plurality of face images on a recording medium;
The image processing apparatus according to claim 1, wherein the image data acquisition unit and the position information acquisition unit acquire the image data and the position information read from the recording medium.
前記記録手段は、前記顔画像の前記全体画像に対する比率をさらに記録する
請求項6に記載の画像処理装置。
The image processing apparatus according to claim 6, wherein the recording unit further records a ratio of the face image to the whole image.
前記表示手段は、OSD情報を表示する、前記顔画像と重ならない位置を演算し、演算した位置に前記OSD情報を表示する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the display unit calculates OSD information, a position that does not overlap the face image, and displays the OSD information at the calculated position.
前記表示手段は、OSD情報を表示する、前記顔画像と重ならない大きさを演算し、演算した大きさに縮小して前記OSD情報を表示する
請求項1に記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the display unit displays OSD information, calculates a size that does not overlap the face image, reduces the calculated size, and displays the OSD information.
表示する全体画像の画像データを取得し、
前記全体画像中における複数の顔画像の位置情報を取得し、
前記全体画像中に含まれる複数の前記顔画像の表示の切り替えの指示を取得し、
切り替えの指示が取得される毎に、前記全体画像中に含まれる複数の前記顔画像を1枚ずつ順次切り替えて拡大して表示する
画像処理方法。
Get the image data of the whole image to be displayed,
Obtaining position information of a plurality of face images in the whole image;
Obtaining an instruction to switch display of the plurality of face images included in the whole image;
An image processing method in which a plurality of face images included in the entire image are sequentially switched one by one and enlarged and displayed each time a switching instruction is acquired.
表示する全体画像の画像データを取得し、
前記全体画像中における複数の顔画像の位置情報を取得し、
前記全体画像中に含まれる複数の前記顔画像の表示の切り替えの指示を取得し、
切り替えの指示が取得される毎に、前記全体画像中に含まれる複数の前記顔画像を1枚ずつ順次切り替えて拡大して表示する
処理をコンピュータに実行させるプログラム。
Get the image data of the whole image to be displayed,
Obtaining position information of a plurality of face images in the whole image;
Obtaining an instruction to switch display of the plurality of face images included in the whole image;
A program that causes a computer to execute a process of sequentially switching and enlarging and displaying a plurality of face images included in the entire image each time a switching instruction is acquired.
請求項11に記載のプログラムが記録されている記録媒体。   A recording medium on which the program according to claim 11 is recorded.
JP2005201201A 2005-07-11 2005-07-11 Image processing apparatus and method, program, and recording medium Expired - Fee Related JP4487872B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005201201A JP4487872B2 (en) 2005-07-11 2005-07-11 Image processing apparatus and method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005201201A JP4487872B2 (en) 2005-07-11 2005-07-11 Image processing apparatus and method, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2007020029A true JP2007020029A (en) 2007-01-25
JP4487872B2 JP4487872B2 (en) 2010-06-23

Family

ID=37756761

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005201201A Expired - Fee Related JP4487872B2 (en) 2005-07-11 2005-07-11 Image processing apparatus and method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP4487872B2 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008262416A (en) * 2007-04-12 2008-10-30 Olympus Imaging Corp Image reproduction device, image reproduction program, recording medium and image reproduction method
JP2009044463A (en) * 2007-08-08 2009-02-26 Sanyo Electric Co Ltd Electronic camera and field image reproduction device
JP2009060291A (en) * 2007-08-30 2009-03-19 Canon Inc Image processing apparatus, image processing method and program
JP2009164820A (en) * 2007-12-28 2009-07-23 Casio Comput Co Ltd Imaging apparatus and program
JP2009268153A (en) * 2008-04-03 2009-11-12 Sony Corp Reproduction control device, and reproduction control method, and program
JP2010056622A (en) * 2008-08-26 2010-03-11 Nikon Corp Electronic camera
JP2010117787A (en) * 2008-11-11 2010-05-27 Seiko Epson Corp Image processing apparatus
WO2010116763A1 (en) * 2009-04-10 2010-10-14 パナソニック株式会社 Object detection device, object detection system, integrated circuit for object detection, camera with object detection function, and object detection method
JP2011002626A (en) * 2009-06-18 2011-01-06 Nikon Corp Image reproducing device
JP2012151910A (en) * 2012-05-17 2012-08-09 Casio Comput Co Ltd Imaging apparatus and program
US8350892B2 (en) 2008-05-20 2013-01-08 Sony Corporation Image pickup apparatus, image pickup method, playback control apparatus, playback control method, and program
US8774603B2 (en) 2007-06-13 2014-07-08 Sony Corporation Information processing apparatus, information processing method, program, and recording medium
JP2015508210A (en) * 2012-02-24 2015-03-16 サムスン エレクトロニクス カンパニー リミテッド Method and apparatus for adjusting the size of an object displayed on a screen
JP2018038032A (en) * 2016-08-30 2018-03-08 キヤノン株式会社 Image processing system
CN116703701A (en) * 2022-12-15 2023-09-05 荣耀终端有限公司 Picture clipping method and electronic equipment

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008262416A (en) * 2007-04-12 2008-10-30 Olympus Imaging Corp Image reproduction device, image reproduction program, recording medium and image reproduction method
US8774603B2 (en) 2007-06-13 2014-07-08 Sony Corporation Information processing apparatus, information processing method, program, and recording medium
JP2009044463A (en) * 2007-08-08 2009-02-26 Sanyo Electric Co Ltd Electronic camera and field image reproduction device
JP2009060291A (en) * 2007-08-30 2009-03-19 Canon Inc Image processing apparatus, image processing method and program
JP2009164820A (en) * 2007-12-28 2009-07-23 Casio Comput Co Ltd Imaging apparatus and program
JP2011217394A (en) * 2008-04-03 2011-10-27 Sony Corp Device and method for controlling reproduction and program
JP2009268153A (en) * 2008-04-03 2009-11-12 Sony Corp Reproduction control device, and reproduction control method, and program
US8350892B2 (en) 2008-05-20 2013-01-08 Sony Corporation Image pickup apparatus, image pickup method, playback control apparatus, playback control method, and program
JP2010056622A (en) * 2008-08-26 2010-03-11 Nikon Corp Electronic camera
US8351737B2 (en) 2008-11-11 2013-01-08 Seiko Epson Corporation Image processing apparatus
JP2010117787A (en) * 2008-11-11 2010-05-27 Seiko Epson Corp Image processing apparatus
WO2010116763A1 (en) * 2009-04-10 2010-10-14 パナソニック株式会社 Object detection device, object detection system, integrated circuit for object detection, camera with object detection function, and object detection method
US8508603B2 (en) 2009-04-10 2013-08-13 Panasonic Corporation Object detection device, object detection system, integrated circuit for object detection, and object detection method
JP5513490B2 (en) * 2009-04-10 2014-06-04 パナソニック株式会社 Object detection device, object detection system, integrated circuit for object detection, camera with object detection function, and object detection method
JP2011002626A (en) * 2009-06-18 2011-01-06 Nikon Corp Image reproducing device
JP2015508210A (en) * 2012-02-24 2015-03-16 サムスン エレクトロニクス カンパニー リミテッド Method and apparatus for adjusting the size of an object displayed on a screen
JP2012151910A (en) * 2012-05-17 2012-08-09 Casio Comput Co Ltd Imaging apparatus and program
JP2018038032A (en) * 2016-08-30 2018-03-08 キヤノン株式会社 Image processing system
CN116703701A (en) * 2022-12-15 2023-09-05 荣耀终端有限公司 Picture clipping method and electronic equipment
CN116703701B (en) * 2022-12-15 2024-05-17 荣耀终端有限公司 Picture clipping method and electronic equipment

Also Published As

Publication number Publication date
JP4487872B2 (en) 2010-06-23

Similar Documents

Publication Publication Date Title
JP4487872B2 (en) Image processing apparatus and method, program, and recording medium
JP4861952B2 (en) Image processing apparatus and imaging apparatus
JP5695335B2 (en) Imaging condition control device, camera, image quality control device, and program
US20100302595A1 (en) Image Reproducing Apparatus And Imaging Apparatus
JP2010147808A (en) Imaging apparatus and image processing method in same
JP5076695B2 (en) Image correction apparatus, image correction method, and program
US9055219B2 (en) Image editing device and image editing method
JP5782813B2 (en) Imaging apparatus and image display method
JP2006345254A (en) Photographing apparatus, its control method, program, and storage medium
JP5930245B1 (en) Image processing apparatus, image processing method, and program
JP5494744B2 (en) Imaging apparatus, control method, and program
JP2008109338A (en) Image management device, camera, image management method, and program
JP2007027971A (en) Photographing apparatus, control method thereof, program, and recording medium
JP2004192129A (en) Method and device for extracting facial area
JP2007199311A (en) Image display device and imaging apparatus
JP5266701B2 (en) Imaging apparatus, subject separation method, and program
JP2008109305A (en) Image processing device, and control method of image processing device
JPH08331495A (en) Electronic album system with photographing function
JP5408037B2 (en) Image processing apparatus and method, and program
JP2010177731A (en) Image reproducing device and imaging apparatus
JP2003244620A (en) Image processing method and apparatus, and program
JP4632417B2 (en) Imaging apparatus and control method thereof
JP2007142639A (en) Imaging apparatus and program therefor
JP2014021782A (en) Image processor, control method thereof and program
JP5206421B2 (en) Digital camera, photographing recording method, and photographing control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080522

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100309

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100322

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130409

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130409

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees