JP2007020029A - Image processor and method, program and recording medium - Google Patents
Image processor and method, program and recording medium Download PDFInfo
- Publication number
- JP2007020029A JP2007020029A JP2005201201A JP2005201201A JP2007020029A JP 2007020029 A JP2007020029 A JP 2007020029A JP 2005201201 A JP2005201201 A JP 2005201201A JP 2005201201 A JP2005201201 A JP 2005201201A JP 2007020029 A JP2007020029 A JP 2007020029A
- Authority
- JP
- Japan
- Prior art keywords
- image
- face
- displayed
- unit
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 63
- 230000008569 process Effects 0.000 claims description 57
- 238000012545 processing Methods 0.000 claims description 53
- 238000012937 correction Methods 0.000 claims description 26
- 238000003672 processing method Methods 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 8
- 230000009467 reduction Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000009826 distribution Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 239000010813 municipal solid waste Substances 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Television Signal Processing For Recording (AREA)
- Facsimile Image Signal Circuits (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は画像処理装置および方法、プログラム並びに記録媒体に関し、特に、複数の顔画像のそれぞれを簡単かつ確実に確認することができるようにした画像処理装置および方法、プログラム並びに記録媒体に関する。 The present invention relates to an image processing apparatus and method, a program, and a recording medium, and more particularly, to an image processing apparatus and method, a program, and a recording medium that allow each of a plurality of face images to be easily and reliably confirmed.
最近デジタルスチルカメラが普及してきた。現像の必要がなく、撮像して内部のメモリに記憶した画像をすぐに読み出し、表示することができる。そこでユーザは、修学旅行や、家族、友人との旅行などに出かけた場合に、複数の人物と記念写真を撮った後、ただちに撮像画像を確認し、撮影のタイミングに目を瞑ってしまった人物がいるような場合には、撮りなおすことができる。 Recently, digital still cameras have become popular. There is no need for development, and an image captured and stored in the internal memory can be immediately read out and displayed. Therefore, when a user goes on a school trip, a trip with family or friends, etc., after taking a commemorative photo with multiple people, the user immediately checks the captured image and closes his eyes at the timing of shooting. If there is, you can retake it.
特許文献1には、プレビュー画像(モニタリング画像)中の人物の顔を自動的に検出するデジタルスチルカメラが提案されている。このデジタルスチルカメラにおいては、プレビュー画像中の複数の人物の顔が検出されると、各顔の周囲に枠が表示される。ユーザは、所望の枠を選択することで、1つの顔を選択する。ユーザにより顔拡大表示ボタンが操作されたとき、選択されている顔が拡大表示される。ユーザは拡大表示された顔の状態を確認した後、シャッタボタンをオンし、画像を記録する。
ユーザが複数の顔を選択した場合、選択した数に応じて画面が複数の領域に分割され、複数の顔の画像が1つの画面内に同時に表示される。例えば4個の顔が選択された場合、1つの画面が2×2の領域に4分割され、4個の顔の画像が各分割領域に同時に表示される。 When the user selects a plurality of faces, the screen is divided into a plurality of areas according to the selected number, and images of the plurality of faces are displayed simultaneously on one screen. For example, when four faces are selected, one screen is divided into four 2 × 2 areas, and four face images are simultaneously displayed in each divided area.
このように、特許文献1に記載の発明では、ユーザが複数の顔を選択した場合、複数の顔の画像が画面の分割領域に同時に表示されるので、その数が多くなるほど、個々の顔の大きさが小さくなり、それぞれの状態を確認することが困難になる問題があった。
As described above, in the invention described in
本発明は、このような状況に鑑みてなされたものであり、複数の顔画像のそれぞれを簡単かつ確実に確認することができるようにするものである。 The present invention has been made in view of such a situation, and makes it possible to easily and reliably confirm each of a plurality of face images.
本発明の一側面は、表示する全体画像の画像データを取得する画像データ取得手段と、
前記全体画像中における複数の顔画像の位置情報を取得する位置情報取得手段と、
前記全体画像中に含まれる複数の前記顔画像の表示の切り替えの指示を取得する指示取得手段と、
切り替えの指示が取得される毎に、前記全体画像中に含まれる複数の前記顔画像を1枚ずつ順次切り替えて拡大して表示する表示手段と
を備える画像処理装置である。
One aspect of the present invention is an image data acquisition unit that acquires image data of an entire image to be displayed;
Position information acquisition means for acquiring position information of a plurality of face images in the whole image;
Instruction acquisition means for acquiring an instruction to switch display of the plurality of face images included in the whole image;
Each time a switching instruction is acquired, the image processing apparatus includes display means for sequentially switching and enlarging and displaying the plurality of face images included in the entire image one by one.
前記表示手段は、複数の前記顔画像のすべてを順次表示した後、さらに切り替えの指示が取得された場合、前記全体画像を表示することができる。 The display means can display the entire image when a switching instruction is further acquired after sequentially displaying all of the plurality of face images.
拡大表示する前記顔画像の画像データをガンマ補正するガンマ補正手段をさらに備えることができる。 The image data of the face image to be enlarged can be further provided with gamma correction means for gamma correction.
前記ガンマ補正手段は、拡大表示する前記顔画像の画像データ輝度のヒストグラムがU字型である場合、逆S字ガンマ補正し、逆U字型である場合、S字ガンマ補正することができる。 The gamma correction means can perform reverse S-shaped gamma correction when the histogram of the image data luminance of the face image to be enlarged is U-shaped, and can perform S-shaped gamma correction when the histogram is inverted U-shaped.
前記表示手段は、表示している前記顔画像の前記全体画像における位置をさらに表示することができる。 The display means can further display the position of the displayed face image in the entire image.
撮像した画像の画像データを、前記複数の顔画像の位置情報とともに記録媒体に記録する記録手段をさらに備え、
前記画像データ取得手段と前記位置情報取得手段は、前記記録媒体より読み出された前記画像データと前記位置情報を取得することができる。
A recording unit that records image data of the captured image together with position information of the plurality of face images on a recording medium;
The image data acquisition unit and the position information acquisition unit can acquire the image data and the position information read from the recording medium.
前記記録手段は、前記顔画像の前記全体画像に対する比率をさらに記録することができる。 The recording means can further record a ratio of the face image to the whole image.
前記表示手段は、OSD情報を表示する、前記顔画像と重ならない位置を演算し、演算した位置に前記OSD情報を表示することができる。 The display means can calculate a position where OSD information is displayed and does not overlap the face image, and can display the OSD information at the calculated position.
前記表示手段は、OSD情報を表示する、前記顔画像と重ならない大きさを演算し、演算した大きさに縮小して前記OSD情報を表示することができる。 The display means can display the OSD information, calculates a size that does not overlap the face image, and reduces the calculated size to display the OSD information.
本発明の一側面は、表示する全体画像の画像データを取得し、
前記全体画像中における複数の顔画像の位置情報を取得し、
前記全体画像中に含まれる複数の前記顔画像の表示の切り替えの指示を取得し、
切り替えの指示が取得される毎に、前記全体画像中に含まれる複数の前記顔画像を1枚ずつ順次切り替えて拡大して表示する
画像処理方法またはその処理をコンピュータに実行させるプログラムである。
One aspect of the present invention acquires image data of a whole image to be displayed,
Obtaining position information of a plurality of face images in the whole image;
Obtaining an instruction to switch display of the plurality of face images included in the whole image;
This is an image processing method or a program for causing a computer to execute an image processing method for sequentially switching and enlarging and displaying a plurality of face images included in the entire image each time a switching instruction is acquired.
本発明の一側面においては、切り替えの指示が取得される毎に、全体画像中に含まれる複数の顔画像が1枚ずつ順次切り替えて拡大して表示される。 In one aspect of the present invention, each time a switching instruction is acquired, a plurality of face images included in the entire image are sequentially switched one by one and enlarged and displayed.
本発明の一側面によれば、複数の顔画像のそれぞれを簡単かつ確実に確認することができる。 According to one aspect of the present invention, each of a plurality of face images can be easily and reliably confirmed.
以下に本発明の実施の形態を説明するが、本発明の構成要件と、発明の詳細な説明に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、発明の詳細な説明に記載されていることを確認するためのものである。従って、発明の詳細な説明中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。 Embodiments of the present invention will be described below. Correspondences between the configuration requirements of the present invention and the embodiments described in the detailed description of the present invention are exemplified as follows. This description is to confirm that the embodiments supporting the present invention are described in the detailed description of the invention. Accordingly, although there are embodiments that are described in the detailed description of the invention but are not described here as embodiments corresponding to the constituent elements of the present invention, It does not mean that the embodiment does not correspond to the configuration requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.
本発明の側面は、表示する全体画像の画像データを取得する画像データ取得手段(例えば、図14のステップS141の処理を実行する図4の読出部71)と、
前記全体画像中における複数の顔画像の位置情報を取得する位置情報取得手段(例えば、図14のステップS146の処理を実行する図4の読出部71)と、
前記全体画像中に含まれる複数の前記顔画像の表示の切り替えの指示を取得する指示取得手段(例えば、図14のステップS148,S153の処理を実行する図4の判定部72)と、
切り替えの指示が取得される毎に、前記全体画像中に含まれる複数の前記顔画像を1枚ずつ順次切り替えて拡大して表示する表示手段(例えば、図16のステップS176の処理を実行する図4の表示部75)と
を備える画像処理装置である。
An aspect of the present invention is an image data acquisition unit that acquires image data of an entire image to be displayed (for example, the
Position information acquisition means for acquiring position information of a plurality of face images in the whole image (for example, the
An instruction acquisition means for acquiring an instruction to switch display of the plurality of face images included in the entire image (for example, the
Each time a switching instruction is acquired, a plurality of the face images included in the whole image are sequentially switched one by one in order to be enlarged and displayed (for example, the process of executing step S176 in FIG. 16) 4 display unit 75).
前記表示手段は、複数の前記顔画像のすべてを順次表示した後、さらに切り替えの指示が取得された場合(例えば、図14のステップS149で全ての画像を選択したと判定された場合)、前記全体画像を表示する(例えば、図14のステップS152の処理)ことができる。 The display means sequentially displays all of the plurality of face images, and when a switching instruction is further acquired (for example, when it is determined that all images are selected in step S149 in FIG. 14), The entire image can be displayed (for example, the process in step S152 in FIG. 14).
拡大表示する前記顔画像の画像データをガンマ補正するガンマ補正手段(例えば、図16のステップS173,S175の処理を実行する図4の補正部78)をさらに備えることができる。
The image data of the face image to be magnified can be further provided with gamma correction means (for example, the
前記ガンマ補正手段は、拡大表示する前記顔画像の画像データ輝度のヒストグラムがU字型である場合、逆S字ガンマ補正し(例えば、図16のステップS173の処理)、逆U字型である場合、S字ガンマ補正する(例えば、図16のステップS175の処理)ことができる。 When the histogram of the image data brightness of the face image to be enlarged is U-shaped, the gamma correction means performs inverse S-gamma correction (for example, the process of step S173 in FIG. 16) and is inverted U-shaped. In this case, S-shaped gamma correction can be performed (for example, the process in step S175 in FIG. 16).
前記表示手段は、表示している前記顔画像の前記全体画像における位置をさらに表示する(例えば、図21の縮小画像172の枠191)ことができる。
The display means can further display the position of the displayed face image in the whole image (for example, the
撮像した前記全体画像の画像データを、前記複数の顔画像の位置情報とともに記録媒体(例えば、図3のリムーバブルメモリ50)に記録する記録手段(例えば、図5のステップS6の処理を実行する図4の記録部74)をさらに備え、
前記画像データ取得手段と前記位置情報取得手段は、前記記録媒体より読み出された前記画像データと前記位置情報を取得することができる。
The figure which performs the process of step S6 of FIG. 5 (for example) which records the image data of the imaged said whole image on a recording medium (for example, the
The image data acquisition unit and the position information acquisition unit can acquire the image data and the position information read from the recording medium.
前記記録手段は、前記顔画像の前記全体画像に対する比率(例えば、縮小率)をさらに記録することができる。 The recording means can further record a ratio (for example, a reduction ratio) of the face image to the whole image.
前記表示手段は、OSD情報を表示する、前記顔画像と重ならない位置を演算し(例えば、図22のステップS204の処理)、演算した位置に前記OSD情報を表示する(例えば、図22のステップS205の処理)ことができる。 The display means calculates a position where the OSD information is displayed and does not overlap the face image (for example, the process of step S204 in FIG. 22), and displays the OSD information at the calculated position (for example, the step in FIG. 22). S205).
前記表示手段は、OSD情報を表示する、前記顔画像と重ならない大きさを演算し(例えば、図22のステップS204の処理)、演算した大きさに縮小して前記OSD情報を表示する(例えば、図22のステップS205の処理)ことができる。 The display means calculates OSD information, a size that does not overlap the face image (for example, the process of step S204 in FIG. 22), reduces the calculated size to display the OSD information (for example, , Step S205 in FIG. 22).
本発明の側面は、表示する全体画像の画像データを取得し(例えば、図14のステップS141)、
前記全体画像中における複数の顔画像の位置情報を取得し(例えば、図14のステップS146)、
前記全体画像中に含まれる複数の前記顔画像の表示の切り替えの指示を取得し(例えば、図14のステップS148,S153)、
切り替えの指示が取得される毎に、前記全体画像中に含まれる複数の前記顔画像を1枚ずつ順次切り替えて拡大して表示する(例えば、図16のステップS176)
画像処理方法またはそれらの処理をコンピュータに実行させるプログラムである。
The aspect of the present invention acquires image data of the entire image to be displayed (for example, step S141 in FIG. 14),
Acquiring position information of a plurality of face images in the whole image (for example, step S146 in FIG. 14);
An instruction to switch the display of the plurality of face images included in the whole image is acquired (for example, steps S148 and S153 in FIG. 14),
Each time a switching instruction is acquired, the plurality of face images included in the entire image are sequentially switched one by one and enlarged and displayed (for example, step S176 in FIG. 16).
An image processing method or a program for causing a computer to execute these processes.
以下、本発明の実施の形態について図を参照して説明する。図1と図2は、本発明の実施形態としてのデジタルスチルカメラの構成を表している。このデジタルスチルカメラ1は、本体11と本体11から必要に応じて突出する鏡筒12により構成されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. 1 and 2 show the configuration of a digital still camera as an embodiment of the present invention. The
本体11の上面の右端部近傍にはダイヤル14が設けられている。ダイヤル14の左側にはパワーボタン13が設けられている。パワーボタン13は、デジタルスチルカメラ1の電源をオンまたオフするとき操作される。ダイヤル14は、シーン1(SCN1)乃至シーン6(SCN6)、フルオート(カメラの図形のマーク)、およびプログラムモード(P)のいずれかを選択するとき操作される。
A
シーン1乃至シーン6には、風景、ポートレート、夜景、夜景+人などの各種の撮影条件が対応付けられている。例えばシーン1が選択された場合、風景を撮影するのに好適な撮影条件が設定される。シーン2が選択された場合、ポートレートを撮影する場合に好適な撮影条件が設定される。フルオートが選択された場合、撮影に必要なピント合わせ、露出、ホワイトバランスの調整といった各種の撮影条件が全て自動的に設定される。プログラムモードが選択された場合、フルオートと同様に撮影に必要な調整が自動的に設定されるが、ホワイトバランスやEV値(露出補正値)などの各種設定項目をユーザが意図的に設定することが可能となる。
ダイヤル14の中心には、レリーズボタン15が配置されている。レリーズボタン15はユーザが撮像画像を記録するとき操作される。
A
本体11の背面側のほぼ中央には、各種の画像を表示するLCD(Liquid Crystal Display)21が配置されている。LCD21の右上にはスイッチ22が配置されている。このスイッチ22は、テレまたはワイドを設定するとき操作される。スイッチ22の下側にはメニューボタン23が配置されている。このメニューボタン23は、LCD21にメニューを表示するときユーザにより操作される。メニューボタン23の下側にはボタン24が配置されている。このボタン24は上下左右方向に操作することが可能とされており、上側に操作されたときフラッシュが選択され、下側に操作されたときタイマが設定され、右側に操作されたときマクロ撮影のモードが設定され、左側に操作されたときマニュアルでホワイトバランスの設定が可能となる。
An LCD (Liquid Crystal Display) 21 for displaying various images is disposed at the approximate center on the back side of the main body 11. A switch 22 is arranged on the upper right of the
LCD21の左側には再生ボタン25が配置されている。この再生ボタン25は、撮影した画像を再生するとき操作される。再生ボタン25の下側には顔ボタン26が配置されている。この顔ボタン26は、LCD21に記録済みの画像が読み出され、表示されている状態で操作されたとき、その表示されている全体画像に含まれる顔画像が操作される毎に順次表示される。顔ボタン26の下側には表示ボタン27が配置されている。表示ボタン27は、OSD(On Screen Display)情報を表示したり、その表示を消去するとき操作される。表示ボタン27の下側にはゴミ箱ボタン28が配置されている。このゴミ箱ボタン28は不要なファイル等を消去するとき操作される。なお、全体画像とは、部分の画像である顔画像に対して、顔画像とそれ以外の部分を含む1枚の全体の画像を意味する。
A
図3は、デジタルスチルカメラ1の内部の基本的構成を表している。カメラブロック41には、レンズ、CCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)などの撮像素子、タイミングジェネレータ等が内蔵されている。画像処理ブロック42は、カメラブロック41より出力された画像信号について、ホワイトバランス、明るさ調整、ガンマ補正等の処理を施し、画像表示装置44に出力する。画像処理ブロック42は、顔認識ブロック43を内蔵しており、この顔認識ブロック43は、1枚の全体画像中に存在する顔画像を認識する。画像処理装置44は、画像処理ブロック42より供給された画像データに基づき画像を表示する。この画像表示装置44は図2のLCD21や、電子ビューファインダを含む。
FIG. 3 shows a basic configuration inside the digital
SDRAM(Synchronous Dynamic Random Access Memory)45は、画像データ、その他の各種のデータを一時的に保持する。操作ブロック46は各種のボタンやスイッチなどにより構成される。図1のパワーボタン13、ダイヤル14、スイッチ22、メニューボタン23、ボタン24、再生ボタン25、顔ボタン26、表示ボタン27、ゴミ箱ボタン28などは、この操作ブロック46に含まれる。操作ブロック46は操作に応じた信号を制御ブロック47に出力する。
An SDRAM (Synchronous Dynamic Random Access Memory) 45 temporarily holds image data and various other data. The
制御ブロック47は、操作ブロック46から供給されるユーザの指示に基づいて各ブロックの動作を制御する。フラッシュメモリ48には、ホワイトバランス、その他各種の撮影条件などを設定するためのパラメータなどが記憶されている。リムーバブルメモリコントローラ49は、制御ブロック47により制御され、リムーバブルメモリ50に記憶されている画像データを読み出したり、そこに画像データなどを記憶させる。リムーバブルメモリ50は、例えばメモリスティック(登録商標)などのフラッシュメモリにより構成される。
The
制御ブロック47は、例えば図4に示される機能的構成を有している。読出部71は、各種のデータや情報を読み出す。判定部72は各種の判定処理を実行する。保持部73は画像データを保持する。記録部74はリムーバブルメモリコントローラ49を介して画像データをリムーバブルメモリ50に記憶させる。表示部75は画像を表示する。選択部76は顔画像を選択する。演算部77は輝度のヒストグラムを演算したり、座標の演算を行う。補正部78はガンマ補正を行う。
The
次に、図5のフローチャートを参照して、デジタルスチルカメラ1の画像記録処理について説明する。ユーザがパワーボタン13を操作して電源をオンして撮像の開始を指示したとき、制御ブロック47は各ブロックを制御し、撮像を開始させる。このときカメラブロック41は、被写体の画像を撮像し、対応する画像信号を画像処理ブロック42に出力する。画像処理ブロック42は、カメラブロック41より供給された画像信号をSDRAM45に一旦記憶させる。SDRAM45に記憶された画像データは、画像処理ブロック42によりそこから読み出され画像表示装置44に出力され、そのLCD21に表示される。このようにして、プレビュー画像が表示される。
Next, image recording processing of the digital
またユーザは、メニューボタン23を操作することでオートフォーカス(AF)モードを設定する。オートフォーカスモードとしては、顔認識オートフォーカスモード、コンティニュアスオートフォーカスモード、またはシングルオートフォーカスモードのいずれかが設定される。ユーザが操作ブロック46を操作してオートフォーカスモードを設定すると、そのモードが保持部73によりフラッシュメモリ48に記憶される。
Further, the user operates the
ステップS1において、読出部71はフォーカスモードを読み出す。すなわちフラッシュメモリ48に記憶されているフォーカスモードが読み出される。そしてステップS2において判定部72は読み出されたフォーカスモードが顔認識オートフォーカスモードであるかを判定する。顔認識オートフォーカスモードである場合には、ステップS3において顔認識ブロック43により顔認識処理が実行される。この顔認識処理の詳細は図8のフローチャート参照して後述するが、これによりLCD21に表示されている全体画像中に含まれる顔画像の位置情報が検出される。検出された位置情報は、SDRAM45に一時的に記録される。ステップS4において判定部72はレリーズボタンが全押しされたかを判定する。
In step S1, the
レリーズボタン15が全押しされていない場合には、処理はステップS3に戻り、それ以降の処理が繰り返し実行される。レリーズボタン15が全押しされたと判定された場合、ステップS5において、保持部73は画像データの各種処理を行い、画像データを保持する。すなわちレリーズボタン15が全押しされたタイミングにおいてSDRAM45に保持されている画像データの更新が禁止される。そしてステップS6において、記録部74は画像データと顔の位置情報をリムーバブルメモリに記録する。すなわちSDRAM45に記録されている画像データが読み出され、リムーバブルメモリコントローラ49に供給される。リムーバブルメモリコントローラ49は、この画像データと顔の位置情報をリムーバブルメモリ50に供給し、記録する。
If the
以上のようにして顔認識オートフォーカスモードが設定されている場合には、画像データだけでなく、それに対応する顔の位置情報がリムーバブルメモリ50に記録される。
When the face recognition autofocus mode is set as described above, not only the image data but also the corresponding face position information is recorded in the
図6はリムーバブルメモリ50のメモリ領域の構造を表している。MBR(Master Boot Record)には、メディアを構成するパーティションの位置やサイズ、OS種別を示すIDなどが記録される。PBR(Partion Boot Recorder)には、OS起動時に使用するアクティブパーティションが記述されている。FAT(File Allocation Table)にはファイルの物理的な配置を管理する情報が記述される。ROOTDIRには階層化ディレクトリ構造におけるドライブの最上位のディレクトリが記述される。
FIG. 6 shows the structure of the memory area of the
画像ファイルは、Exif、サムネイル、顔の位置情報、並びに主画像ファイルを単位として構成される。Exif(Exchangeable Image File Format)は、JEIDA(Japanese Electronic Industry Development Association)によって提唱されたデジタルスチルカメラ用の画像ファイル規格であり、画像についての情報や撮影日時などの付加情報が記録される。サムネイルは対応する記録用の最大の大きさの主画像を、表示するLCD等の大きさに合うように縮小した表示用の画像である。顔の位置情報は主画像ファイルに記録されている主画像(全体画像)中に存在する顔画像の位置を表す情報である。顔の位置情報はExif内のメーカノートに記録するようにしてもよい。主画像データは主画像の画像データであり、主画像ファイルに記録される。主画像もサムネイルも全体画像である。もちろん、サムネイル中の顔の位置も主画像とサムネイル画の比率より容易に求められる。 The image file is configured in units of Exif, thumbnail, face position information, and main image file. Exif (Exchangeable Image File Format) is an image file standard for digital still cameras advocated by the Japanese Electronic Industry Development Association (JEIDA), and records additional information such as image information and shooting date and time. The thumbnail is a display image that is obtained by reducing the corresponding main image of the maximum size for recording so as to fit the size of the LCD or the like to be displayed. The face position information is information representing the position of a face image existing in the main image (entire image) recorded in the main image file. The face position information may be recorded in a manufacturer note in Exif. The main image data is image data of the main image and is recorded in the main image file. Both the main image and the thumbnail are the entire image. Of course, the position of the face in the thumbnail can be easily obtained from the ratio of the main image and the thumbnail image.
図5に戻って、ステップS2において設定されているモードが顔認識オートフォーカスモードではないと判定された場合、ステップS7において判定部72はコンティニュアスオートフォーカスモードかを判定する。設定されているオートフォーカスモードがコンティニュアスオートフォーカスモードである場合には、ステップS8において、そのモードに対応する処理が実行される。設定されているモードがコンティニュアスオートフォーカスモードでないと判定された場合には、設定されているオートフォーカスモードは、結局シングルオートフォーカスモードということになる。そこでこの場合には、ステップS9において、そのモードに対応する処理が実行される。
Returning to FIG. 5, when it is determined that the mode set in step S2 is not the face recognition autofocus mode, the
コンティニュアスオートフォーカスモードにおいては、合焦の有無にかかわりなくレリーズが可能とされる。またシングルオートフォーカスモードにおいては合焦時にシャッタが切れるように動作が制御される。 In the continuous autofocus mode, release is possible regardless of whether or not focus is achieved. In the single autofocus mode, the operation is controlled so that the shutter is released at the time of focusing.
次にステップ3における顔認識処理について説明するが、この顔認識処理は、顔認識ブロック43により実行される。この処理を実行するため、顔認識ブロック43は、図7に示されるように構成されている。顔認識ブロック41の入力画像スケール変換部71は、主画像を読み出し、その主画像の縮小率を異なる複数のスケール画像に変換する。ウィンドウ切り出し部72は、入力画像スケール変換部71によりスケールが変換された画像からウィンドウ切り出す。テンプレートマッチング部73は、ウィンドウ切り出し部72により切り出されたウィンドウの画像を、あらかじめ用意されているテンプレートの画像とマッチングする。前処理部74は、テンプレートマッチング部73より供給されたスコア画像についてベクトル変換し、得られたベクトル群を1本のパターンベクトルに変換する。パターン識別部75は、前処理部74より供給されたスコア画像が顔画像かどうかの識別を行う。重なり判定部76はスコア画像同士が重なり合う領域を除去する。
Next, the face recognition process in
次に図8のフローチャート参照して、図5のステップS3における顔認識処理の詳細について説明する。 Next, details of the face recognition process in step S3 of FIG. 5 will be described with reference to the flowchart of FIG.
ステップS31において、入力画像スケール変換部71は、フレーム画像を読み出す。すなわちSDRAM45に記憶されている主画像がここで読み出される。ステップS32において入力画像スケール変換部71は、主画像から顔検出処理を行う基準の大きさのスケール画を作り出し、さらに縮小率の異なる複数のスケール画像に変換する。例えば、基準のスケール画像が320×240ピクセル(=76800ピクセル)である場合、これを0.8倍ずつ順次縮小して、5段階のスケール画像に変換される。これにより、1.0,0.8,0.64,0.51,0.41倍の第1のスケール画像乃至第5のスケール画像がそれぞれ生成される。この顔検出すべき画像サイズが大きくなった場合、スケールを適宜より細かく設定し、一辺が20ピクセル以下にならない範囲で縮小が行われる。
In step S31, the input image
ステップS33において、ウィンドウ切り出し部72は、ウィンドウ領域を切り出す。例えば、まず第1のスケール画像に対して画像左上を起点として順に画像右下まで2ピクセル分を右側または下側にずらしながらスキャンするようにして、20×20ピクセル(=400ピクセル)の矩形領域(ウィンドウ領域)が順次切り出される。
In step S33, the
ステップS34において、テンプレートマッチング部73は、関数曲線に変換する処理を実行する。すなわちウィンドウ領域の画像(ウィンドウ画像)について、正規化相関法や誤差自乗法などの演算処理を行って、ピーク値を持つ関数曲線に変換される。ステップS35において、テンプレートマッチング部73は、関数のピーク値は閾値より大きいかを判定する。すなわち認識性が落ちない程度に十分に低い閾値があらかじめ設定されており(例えば100人程度の人物の平均からなる平均的な顔画像をテンプレートとして判断基準となる閾値が設定されており)、この閾値を基準にして、ウィンドウ画像が顔画像か否かが判定される。
In step S34, the
ステップS35において関数のピーク値が閾値より大きいと判定された場合(ウィンドウ画像に人物の顔が含まれていると判定された場合)、ステップS36において前処理部74は前処理を実行する。この前処理の詳細は、図9のフローチャートを参照して後述するが、これにより人物の顔画像を含むウィンドウ画像(スコア画像)がベクトルに変換され、得られたベクトル群がさらに1本のパターンベクトルに変換される。
When it is determined in step S35 that the peak value of the function is larger than the threshold value (when it is determined that the human face is included in the window image), the preprocessing
ステップS37においてパターン識別部75は、パターン識別処理を実行する。この処理の詳細は、図10のフローチャートを参照して後述するが、これにより顔の位置情報が生成、記憶される。
In step S37, the
ステップS38において、パターン識別部75はいまの処理中のスケールのすべてのスケール画像を処理したかを判定する。例えばいま第1のスケールの画像を処理している場合には、第1のスケールのすべてのスケール画像を処理したかが判定される。まだ処理していない第1のスケールの画像が存在する場合には、ステップS39においてウィンドウ切り出し部72は、第1のスケールの他のスケール画像を選択する。その後処理はステップS33に戻り、それ以降の処理が繰り返し実行される。
In step S38, the
ステップS38において、いま処理中のスケールのすべてのスケール画像を処理したと判定された場合、ステップS40においてパターン識別部75はすべてのスケール画像を処理したかを判定する。例えば第1のスケールから第5のスケールまで存在する場合、第5のスケールまですべての画像を処理したかが判定される。まだ処理してないスケールの画像が存在する場合には、ステップS41においてウィンドウ切り出し部72は、他のスケールのスケール画像を選択する。その後処理はステップS33に戻り、それ以降の処理が繰り返し実行される。
If it is determined in step S38 that all scale images of the scale currently being processed have been processed, the
以上のようにして、第1のスケール乃至第5のスケールのすべてのスケールの画像についての処理が終了したとき、ステップS42において、重なり判定部76は重なり処理を実行する。この重なり処理の詳細は、図12のフローチャートを参照して後述するが、これにより重なり合う領域を除去する処理が実行される。
As described above, when the processing for all the images of the first scale to the fifth scale is completed, in step S42, the
ステップS35において、関数のピーク値が閾値より大きくないと判定された場合(スコア画像に人の顔の画像が含まれていないと判定された場合)、ステップS36乃至ステップS42の処理はスキップされる。 In step S35, when it is determined that the peak value of the function is not larger than the threshold value (when it is determined that the human face image is not included in the score image), the processing of steps S36 to S42 is skipped. .
次に図9のフローチャート参照して、図8のステップS36における前処理の詳細について説明する。 Next, details of the pre-processing in step S36 in FIG. 8 will be described with reference to the flowchart in FIG.
ステップS71において前処理部74は、スコア画像の中央部分を抽出する。すなわち20×20ピクセルで構成される矩形領域のスコア画像から、人間の顔領域と無関係である4隅を除去することで、400ピクセルから360ピクセルの領域が抽出される。次にステップS72において、前処理部74は濃淡値を補正する。具体的には撮影時の照明により濃淡で表される被写体の条件ばらつきを解消するため、360ピクセルのスコア画像のうち、顔画像として最適な部位を基準とする平面を形成するように平均自乗誤差法を用いて濃淡値が補正される。
In step S71, the preprocessing
ステップS73において、前処理部74はヒストグラム平滑化処理する。すなわちスコア画像のコントラストを強調した結果を、ヒストグラム平滑化処理を行うことで、カメラブロック41のゲインや照明の強弱によらずに顔画像が検出ができるようにする。次に、ステップS74において前処理部74はスコア画像をパターンベクトルに変換する。具体的には、ガボアフィルタリング処理により、360ピクセルのスコア画像がベクトルに変換され、得られたベクトル群がさらに1本のパターンベクトルに変換される。
In step S73, the preprocessing
次に、図10のフローチャート参照して、図8のステップS37におけるパターン識別処理の詳細ついて説明する。 Next, details of the pattern identification processing in step S37 in FIG. 8 will be described with reference to the flowchart in FIG.
ステップS91において、パターン識別部75はパターンベクトルを識別関数と比較する。すなわち前処理部74により生成されたパターンベクトルが、学習用のデータを用いてあらかじめ得られた暫定的な識別関数と比較される。具体的には、前処理部74より得られたパターンベクトルとしての360ピクセル分のスコア画像に対して、サポートベクターマシーンを用いて顔画像の検出が行われる。
In step S91, the
ステップS92においてパターン識別部75は顔画像が検出されたかを判定する。顔画像が検出された場合には、ステップS93においてパターン識別部75はスコア画像の中心の座標、大きさ(縦横ピクセル数)、縮小率をリスト化し記憶する。ここで縮小率とはスケール画像の主画像に対する縮小率を意味する。
In step S92, the
図11は座標データの例を表している。全体画像である主画像100は横方向X0ピクセル、縦方向Y0ピクセルで構成されている。この主画像100中の顔画像101は、その中心が座標(p1,q1)となっている。顔画像101の縦方向の長さはb1、幅はa1である。この場合、顔画像101の最上端の点の座標は(p1,q1-b1/2)となる。顔画像101の最も下側の点の座標は(p1,q1+b1/2)となる。顔画像101の最も左側の点の座標は(p1-a1/2,q1)となり、最も右側の点の座標は(p1+a1/2,q1)となる。 FIG. 11 shows an example of coordinate data. The main image 100 that is the entire image is composed of X0 pixels in the horizontal direction and Y0 pixels in the vertical direction. The center of the face image 101 in the main image 100 is the coordinates (p1, q1). The length of the face image 101 in the vertical direction is b1 and the width is a1. In this case, the coordinates of the uppermost point of the face image 101 are (p1, q1-b1 / 2). The coordinates of the lowermost point of the face image 101 are (p1, q1 + b1 / 2). The coordinates of the leftmost point of the face image 101 are (p1−a1 / 2, q1), and the coordinates of the rightmost point are (p1 + a1 / 2, q1).
主画像100のアスペクト比が3対4である場合(Y0とX0の比が3対4である場合)、顔画像101を拡大して表示する場合に縦方向の余裕のピクセル数をα1とするとき、このα1は顔画像101の長さb1に対する一定の比率として表される。この顔画像101を3対4のアスペクト比で拡大して表示する場合に表示される領域としての顔領域101Aの幅は(b1+2α1)×4/3となり、縦方向の長さはb1+2α1となる。
When the aspect ratio of the main image 100 is 3 to 4 (when the ratio of Y0 and X0 is 3 to 4), when the face image 101 is enlarged and displayed, the number of vertical margin pixels is α1. At this time, α1 is expressed as a constant ratio to the length b1 of the face image 101. When this face image 101 is enlarged and displayed with an aspect ratio of 3 to 4, the width of the
同様に顔画像102は、その中心座標が(p2,q2)となっている。顔画像102の縦方向の長さはb2、横方向の長さはa2となっている。顔画像102の最も上側の点の座標は(p2,q2-b2/2)となり、最も下側の点の座標は(p2,q2+b2/2)となる。顔画像102の最も左側の点の座標は(p2-a2/2,q2)となり、最も右側の点の座標は(p2+a2/2,q2)となる。 Similarly, the center coordinates of the face image 102 are (p2, q2). The length of the face image 102 in the vertical direction is b2, and the length in the horizontal direction is a2. The coordinates of the uppermost point of the face image 102 are (p2, q2−b2 / 2), and the coordinates of the lowermost point are (p2, q2 + b2 / 2). The coordinates of the leftmost point of the face image 102 are (p2-a2 / 2, q2), and the coordinates of the rightmost point are (p2 + a2 / 2, q2).
また、顔画像102の縦方向の長さb2に対応して演算される余裕の長さはα2とされる。顔画像102を3対4のアスペクト比として表示する場合の顔領域102Aの横方向の幅は(b2+2α2)×4/3となり、高さはb2+2α2となる。 Further, the length of the margin calculated corresponding to the vertical length b2 of the face image 102 is α2. When the face image 102 is displayed with an aspect ratio of 3 to 4, the horizontal width of the face region 102A is (b2 + 2α2) × 4/3, and the height is b2 + 2α2.
顔画像101は、縦方向の長さb1または横方向の幅a1が約20ピクセルで表されたスケールのスケール画像で検出される。同様に顔画像102も縦方向の長さb2または横方向の幅a2が約20ピクセルとなる場合のスケール画像で検出される。したがって中心座標(p1,q1),(p2,q2)もそれぞれのスケールにおけるスコア画像の中心座標として求められる。この中心座標もSDRAM45に同様に記憶される。
The face image 101 is detected by a scale image having a scale in which the length b1 in the vertical direction or the width a1 in the horizontal direction is expressed by about 20 pixels. Similarly, the face image 102 is also detected as a scale image when the length b2 in the vertical direction or the width a2 in the horizontal direction is about 20 pixels. Therefore, the center coordinates (p1, q1) and (p2, q2) are also obtained as the center coordinates of the score image in each scale. The center coordinates are also stored in the
ステップS92において顔画像が検出されなかったと判定された場合には、ステップS94において、パターン識別部75はスコア画像を非顔データとして学習データに追加する。これにより、より認識率の高い学習データが生成されることになる。
If it is determined in step S92 that no face image has been detected, the
次に図12のフローチャート参照して、図8のステップS42における重なり処理の詳細について説明する。 Next, details of the overlap processing in step S42 in FIG. 8 will be described with reference to the flowchart in FIG.
ステップS121において、重なり判定部76は、1つのスケールのスケール画像のリストデータを読み出す。すなわちSDRAM45に記憶されているリストデータがここで読み出される。ステップS122において、重なり判定部76はリストデータを比較する。ステップS123において重なり判定部76は、2つのスコア画像が重なるかを判定する。2つのスコア画像が重なる場合には、ステップS124において重なり判定部76は重なり合う領域を除去する処理を実行する。
In step S <b> 121, the
例えば図13に示されるように、2つのスコア画像P1,P2がある場合において、それぞれの左上部の角の座標を(Xa,Ya),(Xb,Yb)とする。スコア画像P1の幅はLa、高さはHa、スコア画像P2の幅はLb、高さはHbである。2つのスコア画像の左上の点のx座標の差をdX(=Xb-Xa),y座標の差をdY(=Yb-Ya)とするとき、
(La−dX)×(Lb+dX)>0
かつ
(Ha−dX)×(Hb+dY)>0
の条件を満たすとき、スコア画像P1とスコア画像P2が重なり合うと判定することができる。重なり合う領域が存在する場合には、その重なる領域(図13においてハッチングで示される領域)は除去される。
For example, as shown in FIG. 13, when there are two score images P1, P2, the coordinates of the upper left corner are (Xa, Ya), (Xb, Yb). The score image P1 has a width La, a height Ha, and the score image P2 has a width Lb and a height Hb. When the difference between the x coordinates of the upper left points of the two score images is dX (= Xb−Xa) and the difference between the y coordinates is dY (= Yb−Ya),
(La−dX) × (Lb + dX)> 0
And (Ha−dX) × (Hb + dY)> 0
When this condition is satisfied, it can be determined that the score image P1 and the score image P2 overlap. If there is an overlapping area, the overlapping area (area shown by hatching in FIG. 13) is removed.
ステップS123において2つのスコア画像が重ならないと判定された場合にはステップS124の処理はスキップされる。 If it is determined in step S123 that the two score images do not overlap, the process of step S124 is skipped.
ステップS125において重なり判定部76は、すべてのスケールのスケール画像のリストデータを読み出したかを判定する。まだ読み出していないスケール画像のリストデータが存在する場合にはステップS121に戻り、それ以降の処理が繰り返し実行される。このようにして、第1のスケール画像乃至第5のスケール画像の各スケール画像ごとに複数のリストデータがそれぞれ読み出され、それぞれのリストデータの重なり合いが判定される。
In step S125, the
ステップS125においてスケール画像のリストデータをすべて読み出したと判定された場合、ステップS126において重なり判定部76は、各スケール画像の顔の位置情報を記憶する。すなわち位置情報がSDRAM45に記憶される。
If it is determined in step S125 that all the scale image list data has been read, the
以上のようにしてリムーバブルメモリ50には、図3に示されるように主画像ファイルとともに主画像の顔の位置情報(中心座標、縮小率、大きさなど)が記録される。すなわち、主画像やサムネイル画像などの全体画像中の顔の位置が算出可能な情報が記録される。
As described above, in the
なお説明は省略したが、主画像ファイルとともにそれを縮小したサムネイル画像も同時に記録される。 Although explanation is omitted, a thumbnail image obtained by reducing the main image file is also recorded at the same time.
次に以上のようにして、リムーバブルメモリ50に記憶された画像データを再生する処理について、図14のフローチャートを参照して説明する。ユーザが操作ブロック46を操作して所定の主画像(全体画像)の再生を指令すると、読み出し部71は、リムーバブルメモリコントローラ49を介してリムーバブルメモリ50からユーザにより指定された(最初はデフォルト(例えば、記録順序が先頭)の)主画像のデータを読み出す。すなわち、指定された主画像のサムネイルのデータがリムーバブルメモリ50から読み出され、SDRAM45に記憶される。
Next, processing for reproducing the image data stored in the
ステップS142において判定部72は、指定された主画像データに対応する顔の位置情報があるかを判定する。顔の位置情報がない場合にはステップS143において表示部75は画像を表示する。すなわち、ステップS141で読み出されSDRAM45に記憶されたサムネイル画像データが読み出され、画像処理ブロック42を介して画像表示装置44に出力され、LCD21に全体画像として表示される。あるいは、ステップS141で主画像データを読み出し、それから縮小した表示用の画像を生成し、ステップS143で全体画像として表示するようにしてもよい。
In step S142, the
ステップS144において判定部72は、他の画像(全体画像)が選択されたかを判定し、他の画像(全体画像)が選択された場合にはステップS141に戻り、それ以降の処理が繰り返し実行される。ステップS144において、他の画像(全体画像)が選択されていないと判定された場合には、ステップS145において、判定部72は終了が指示されたかを判定する。終了がまだ指示されていない場合には、処理はステップS143に戻り、それ以降の処理が繰り返される。終了が指示された場合には、再生処理は終了される。
In step S144, the
ステップS142において、顔の位置情報があると判定された場合には、ステップS146において読み出し部71は顔の位置情報を読み出す。これにより、リムーバブルメモリ50から顔の位置情報がリムーバブルメモリコントローラ49を介して読み出され、SDRAM45に記憶される(あるいは、顔の位置情報がある場合には、サムネイル画像データあるいは主画像データとともに読み出し、SDRAM45に記憶しておくようにしてもよい)。またこのとき、演算部77は、得られた顔の位置情報から縦方向の余裕のピクセル数が適切となるように演算し(例えば図11の顔画像101の場合、中心座標(p1,q1)と縦方向の長さb1からの余裕α1を演算し)、SDRAM45に記憶させる。ステップS147において表示部75は画像を表示する。すなわち、ステップS141で読み出されたサムネイル画像データが、画像処理ブロック42を介して主画像表示装置44のLCD21に供給され、全体画像として表示される。あるいはまた、読み出された主画像データを縮小して生成された表示用の画像が全体画像として表示される。
If it is determined in step S142 that there is face position information, the
ステップS148において判定部72は、顔ボタンがオンされたかを判定する。顔ボタン26がオンされた場合には、ステップS149において判定部72は、いま指定されている全体画像中のすべての顔画像を選択したかを判定する。まだすべての顔画像を選択していない場合には、ステップS150において選択部76は1つの顔画像を選択する。例えば、全体画像中に4つの顔画像が存在する場合に、そのうちの最も左側の1つの顔画像が選択される。そして、ステップS151において表示部75は、顔画像表示処理を実行する。その詳細は、図16のフローチャートを参照して後述するが、演算された余裕を用いて、選択された顔画像が最適な大きさに拡大表示される。さらにこのとき必要に応じて顔画像はガンマ補正されたうえで拡大表示される。
In step S148, the
ステップS153において判定部72は、他の画像が選択されたかを判定する。他の画像(全体画像)が選択されていないと判定された場合には、ステップS154において、判定部72は終了が指示されたかを判定する。まだ終了が指示されていない場合には、処理はステップS148に戻り、それ以降の処理が繰り返し実行される。すなわち再び顔ボタン26がオンされたと判定された場合には、ステップS149においてその全体画像中のすべての顔画像を選択したかが判定される。そして、その全体画像中のすべての顔画像がまだ選択されていない場合には、ステップS150において1つの顔画像が選択される。すなわちこの場合には、その全体画像中の上述した4つの顔画像のうち、まだ選択していない次に左側の2つ目の顔画像が選択される。そしてステップS151において、その2つ目の顔画像が拡大表示される。
In step S153, the
以上のようにして、顔ボタン26がオンされる毎に、LCD21には顔画像が1枚ずつ順次拡大して表示されることになる。
As described above, each time the
そしてステップS149においてその全体画像中のすべての顔画像を選択したと判定された場合、ステップS152において表示部75は全体画像(サムネイル画像または、主画像から生成された表示用の縮小された画像)を表示する。換言すれば、顔ボタン26を順次繰り返しオンすることで4つの顔画像のすべてを表示させた場合、さらに顔ボタン26がオンされたときは、元の全体画像が表示されることになる。
If it is determined in step S149 that all face images in the entire image have been selected, the
図15は、以上のようにして顔ボタン26が操作される毎に変化する表示の状態を表している。図15の左上に示されるように、顔画像131乃至133が表示されている全体画像が存在する場合において、ユーザが顔ボタン26を1回オンすると、例えば図中最も左側に位置する顔画像131が、図15において右上に示されるように拡大して表示される。このとき拡大倍率も表示される。この場合においては2倍とされている。この状態からさらに顔ボタン26がオンされると、図15の左上の全体画像において、左から2番目に位置する顔画像132が、図15の右下に示されるように拡大表示される。この場合にも左下に拡大倍率が示される。この場合拡大倍率は3倍とされている。この状態からさらに顔ボタン26がオンされると、最も右側に位置する顔画像133が、図15の左下に示されるように拡大表示される。この場合の拡大倍率は4倍とされている。さらに顔ボタン26がオンされると、図15の左上に示される全体画像(全ての顔画像を含む画像)が表示された状態に戻ることになる。
FIG. 15 shows a display state that changes each time the
ステップS152の処理の後、処理はステップS153に進み、他の画像(全体画像)が選択されたかが判定される。ステップS153において、他の画像(全体画像)が選択されたと判定された場合には、処理はステップS141に戻り、それ以降の処理が繰り返し実行される。 After the process of step S152, the process proceeds to step S153, and it is determined whether another image (entire image) has been selected. If it is determined in step S153 that another image (entire image) has been selected, the process returns to step S141, and the subsequent processes are repeatedly executed.
ステップS154において、終了が指示されたと判定された場合、再生処理は終了される。 In step S154, when it is determined that the end is instructed, the reproduction process is ended.
次に、図16のフローチャートを参照して、図14のステップS151の顔画像表示処理の詳細について説明する。 Next, the details of the face image display processing in step S151 in FIG. 14 will be described with reference to the flowchart in FIG.
ステップS171において演算部77は、輝度のヒストグラムを演算する。すなわち、いま処理対象とされている顔画像の輝度のヒストグラムがここで演算される。ステップS172において判定部72は、輝度のヒストグラムはU字型かを判定する。すなわちステップS171で演算された輝度のヒストグラムのパターンが略U字型かが判定される。輝度のヒストグラムのパターンが略U字型である場合には、ステップS173において補正部78は、その顔画像の画像データを逆S字ガンマ補正する。すなわち図17に示されるような逆S字型の特性曲線151に沿ってその顔画像の画像データが補正される。特性曲線151により、入力信号のレベルが小さいときと大きいとき出力階調が急激に大きく変化するように補正され、入力信号のレベルがその中間である場合には、出力階調の変化率が小さくなるように補正される。その結果、図18Aに示されるように、明るさ(横軸)が暗い場合と明るい場合の度数(縦軸)が大きく、中間の明るさの度数が少ないといったように、明るさの度数が極端に分かれて分布しているような場合において、その分布が図18Bに示されるように、相互の分布のピークの間隔が狭くなるように補正される。このように補正することで、例えば主に逆光状態の画像が鮮明に表示されることになる。
In step S171, the
ステップS172において輝度のヒストグラムがU字型ではないと判定された場合、ステップS174において判定部72は、輝度のヒストグラムが逆U字型かを判定する。輝度のヒストグラムが略逆U字型である場合には、ステップS175において補正部78は、その顔画像の画像データをS字ガンマ補正する。
If it is determined in step S172 that the luminance histogram is not U-shaped, the
すなわち図19に示されるように、略S字型の特性曲線161に沿って画像データが補正される。この特性曲線161は、入力信号が小さい場合には徐々に出力階調が変化するが、入力信号のレベルが中間付近の場合急激に出力階調が大きい変化率で増大される。そして入力信号のレベルがさらに大きくなると、出力階調の変化率は小さくなる。このような補正を行うことで、例えば図20Aに示されるように、明るさの分布が中央の狭い範囲に集中しているような場合において、その明るさの分布を図20Bに示されるように、広い範囲に渡って分布させることができる。このようにすることで、主にコントラストが少ない画像を、コントラストを強調した画像にすることができる。
That is, as shown in FIG. 19, the image data is corrected along a substantially S-shaped
ステップS174において輝度のヒストグラムが逆U字型ではないと判定された場合、またはステップS173もしくはステップS175の処理の後、処理はステップS176に進み、そこで表示部75は画像を拡大表示する。すなわち輝度のヒストグラムがU字型でも逆U字型でもないパターンである場合には、ガンマ補正は行われず、そのまま顔画像が拡大表示される。ステップS173,S175の処理を経た場合には、ガンマ補正された顔画像が拡大表示される。これにより、全体画像と同じ状態で、その一部の画像である顔画像が表示されることで、顔画像が不明瞭になったりすることが抑制される。
If it is determined in step S174 that the luminance histogram is not an inverted U-shape, or after the process of step S173 or step S175, the process proceeds to step S176, where the
また、ステップS176においては、表示部75は顔画像を拡大して表示するとともに、顔画像の位置をユーザに認識させるために、全体画像を縮小した画像(その位置関係を模式的に表した図を含む)を同時に表示させる。この状態が図21に示されている。同図に示されるように、画面171には顔画像181が拡大して表示されている。
In step S176, the
そして画面171の右下には、全体画像を縮小した縮小画像172が表示されている。この縮小画像172は、全体画像をそのまま縮小した画像なので、全体画像中に存在するすべての顔画像181乃至183が表示されている。そして顔画像181の周囲には、枠191が表示されており、いま表示されている範囲が全体画像中のどこであるのかがユーザにより容易に識別できるようになされている。またステップS176においては顔画像の拡大倍率も同時に表示される。図21の例では拡大倍率が4倍とされている。
A reduced image 172 obtained by reducing the entire image is displayed at the lower right of the screen 171. Since the reduced image 172 is an image obtained by reducing the entire image as it is, all the
この拡大出来る倍率は離散的な値で値とされており、図11の顔領域101A,102Aが画面171の大きさになるように拡大されているので、拡大倍率はY0/(b+2α1)、またはY0/(b2+2α2)となる。このα1,α2の値を調整することで顔画像を最も拡大表示出来る倍率が選択される。
The magnification that can be enlarged is a discrete value, and since the
またピクセル数が少ない顔画像を拡大しすぎると顔が認識できなくなる。そこで元の画像のピクセル数に応じて最大拡大倍率に制限を設けるようにしても良い。 If the face image with a small number of pixels is enlarged too much, the face cannot be recognized. Therefore, a limit may be set on the maximum magnification according to the number of pixels of the original image.
次に、図22のフローチャートを参照してOSD情報表示処理について説明する。 Next, the OSD information display process will be described with reference to the flowchart of FIG.
ステップS201において判定部72は、LCD21に画像が表示されているかを判定する。画像が表示されている場合にはステップS202において、判定部72は顔の位置情報があるかを判定する。顔の位置情報がある場合にはステップS203において、読出部71は顔の位置情報読み出す。これによりリムーバブルメモリ50に記録されている位置情報が、リムーバブルメモリコントローラ49を介して読み出され、SDRAM45に記憶される。記憶されるとその位置情報が読み出される。ステップS204において演算部77は、顔画像から離れた位置を演算する。すなわちOSD情報を表示する位置であって、そのOSD情報を表示した場合に顔画像が隠されてしまわない位置が計算される。このとき、必要に応じて、顔画像が隠されないOSD情報の大きさも計算される。ステップS205において表示部75は、ステップS204の処理で計算された位置にOSD情報を表示する。顔画像が隠されないように大きさも計算された場合、縮小された大きさのOSD情報が表示される。
In step S <b> 201, the
ステップS201において画像が表示されていないと判定された場合、またはステップS202において顔の位置情報がないと判定された場合には、ステップS206において表示部75はあらかじめ設定されているデフォルトの位置にOSD情報を表示する。
If it is determined in step S201 that no image is displayed, or if it is determined in step S202 that there is no face position information, in step S206, the
図23はデフォルトの位置にOSD情報を表示した場合の表示例を表している。図23の表示例においては、顔画像201と顔画像202が存在するが、それに対してOSD情報211乃至216が表示されている。OSD情報211はシャッタ速度(1/100)やISO値(ISO800)などを表す。OSD情報212は輝度値のヒストグラムである。OSD情報213は電池の残量(165分)を表す。OSD情報214は現在の年月日と時刻(2005年2月15日午後3字56分)を表す。OSD情報215は画像サイズ(5M)を表す。OSD情報216はリムーバブルメモリ50に記録された枚数(126)と現在の表示枚数(21番目)を表す。
FIG. 23 shows a display example when OSD information is displayed at the default position. In the display example of FIG. 23, a
図23の表示例においては顔画像202がOSD情報212により隠されてしまっている。
In the display example of FIG. 23, the
これに対して図24は顔画像が隠されないようにした位置にOSD情報を表示した表示例を表している。この場合においてはOSD情報212が顔画像201の左下に表示されている。したがって図24と比較して明らかなように、顔画像202がOSD情報212により隠されてしまうことが防止されている。
On the other hand, FIG. 24 shows a display example in which the OSD information is displayed at a position where the face image is not hidden. In this case,
図25はデフォルトの位置にOSD情報を表示した他の表示例を表している。この表示例においては、顔画像231乃至234が存在する場合において、OSD情報212A乃至212Dが顔画像233と顔画像234を隠した状態となっている。OSD情報212A乃至212Dはそれぞれ赤、緑、青、および輝度の分布を表すヒストグラムである。
FIG. 25 shows another display example in which the OSD information is displayed at the default position. In this display example, when the
これに対して図26は計算された位置にOSD情報を表示した状態を表している。この表示例においてはOSD情報212A乃至212Dが縮小されて顔画像231の左下に表示されている。したがって顔画像233,234が隠されることが防止されている。またOSD情報211がデフォルトの位置(図25に示されている位置)から顔画像231の右上方向に移動して表示されている。
In contrast, FIG. 26 shows a state in which OSD information is displayed at the calculated position. In this display example, the
このように顔画像の位置情報が存在する場合には、OSD情報が顔画像を隠さない位置と大きさに調整して表示させることが可能となる。 As described above, when the position information of the face image exists, it is possible to display the OSD information by adjusting the position and size so as not to hide the face image.
また複数枚の静止画を自動的にさまざまな効果でつなぎ、簡単で高機能なスライドショーが提案されている。この場合、ランダムにズームの位置や倍率が決定され、静止画が表示される。あるいはスクロールの方向や移動距離がランダムに決定される。その結果、人が写っている写真でも人と関係ないところがズームアップされたり、スクロールすることで人がいない場所のみが表示されてしまうようなことがある。しかし、顔の位置情報を利用することで顔の位置と大きさが分かるため、最適なズームが可能になる。また人の顔がある部分をスクロールすることで、画面から人の顔がはみ出さないようにスクロールすることも可能となる。 In addition, a simple and highly functional slide show has been proposed by automatically connecting multiple still images with various effects. In this case, the zoom position and magnification are determined at random, and a still image is displayed. Alternatively, the scroll direction and moving distance are determined randomly. As a result, even in a photograph showing a person, a part not related to the person may be zoomed up, or only a place where there is no person may be displayed by scrolling. However, since the position and size of the face can be known by using the face position information, an optimum zoom can be performed. It is also possible to scroll so that the human face does not protrude from the screen by scrolling the part where the human face is present.
以上のように本発明の実施形態においては、顔ボタン26が操作されるごとに1枚の全体画像に存在する複数の顔画像のそれぞれを1枚ずつ順番に順次拡大して表示するようにしたので、人の顔画像を容易かつ確実に確認することが可能となる。
As described above, in the embodiment of the present invention, each time the
また撮影時の情報やヒストグラムなどのOSD表示が顔にかかる場合にこれを防止し、顔の位置や大きさデータに基づきOSD表示位置を変更して表示することができるので、顔をできるだけ覆わない位置にOSD情報を表示することが可能となる。 In addition, OSD display such as shooting information and histograms can be prevented from being applied to the face, and the OSD display position can be changed and displayed based on the face position and size data, so the face is not covered as much as possible OSD information can be displayed at the position.
図27は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータの構成の例を示すブロック図である。CPU(Central Processing Unit)321は、ROM(Read Only Memory)322、または記憶部328に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)323には、CPU321が実行するプログラムやデータなどが適宜記憶される。これらのCPU321、ROM322、およびRAM323は、バス324により相互に接続されている。
FIG. 27 is a block diagram showing an example of the configuration of a personal computer that executes the above-described series of processing by a program. A CPU (Central Processing Unit) 321 executes various processes according to a program stored in a ROM (Read Only Memory) 322 or a
CPU321にはまた、バス324を介して入出力インターフェース325が接続されている。入出力インターフェース325には、キーボード、マウス、マイクロホンなどよりなる入力部326、ディスプレイ、スピーカなどよりなる出力部327が接続されている。CPU321は、入力部326から入力される指令に対応して各種の処理を実行する。そして、CPU321は、処理の結果を出力部327に出力する。
An input /
入出力インターフェース325に接続されている記憶部328は、例えばハードディスクからなり、CPU321が実行するプログラムや各種のデータを記憶する。通信部329は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。また、通信部329を介してプログラムを取得し、記憶部328に記憶してもよい。
The
入出力インターフェース325に接続されているドライブ330は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア331が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部328に転送され、記憶される。
The
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム格納媒体からインストールされる。 The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, the program is installed in a general-purpose personal computer from the program storage medium.
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム格納媒体は、図27に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini-Disc)を含む)、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア331、または、プログラムが一時的もしくは永続的に格納されるROM322や、記憶部328を構成するハードディスクなどにより構成される。プログラム格納媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインターフェースである通信部329を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。
As shown in FIG. 27, a program storage medium for storing a program that is installed in a computer and can be executed by the computer includes a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only). Memory), DVD (including Digital Versatile Disc)), magneto-optical disk (including MD (Mini-Disc)), or
なお、本明細書において、プログラム格納媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, the step of describing the program stored in the program storage medium is not limited to the processing performed in time series according to the described order, but is not necessarily performed in time series. Or the process performed separately is also included.
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.
1 デジタルスチルカメラ, 11 本体, 12 鏡筒, 21 LCD, 22 スイッチ, 25 再生ボタン, 26 顔ボタン, 27表示ボタン, 28 ゴミ箱ボタン, 41 カメラブロック, 42 画像処理ブロック, 43 顔認識ブロック, 44 画像表示装置, 45 SDRAM, 46 操作ブロック, 47 制御ブロック, 48 フラッシュメモリ, 49 リムーバブルメモリコントローラ, 50 リムーバブルメモリ 1 digital still camera, 11 body, 12 lens barrel, 21 LCD, 22 switch, 25 playback button, 26 face button, 27 display button, 28 trash can button, 41 camera block, 42 image processing block, 43 face recognition block, 44 image Display device, 45 SDRAM, 46 Operation block, 47 Control block, 48 Flash memory, 49 Removable memory controller, 50 Removable memory
Claims (12)
前記全体画像中における複数の顔画像の位置情報を取得する位置情報取得手段と、
前記全体画像中に含まれる複数の前記顔画像の表示の切り替えの指示を取得する指示取得手段と、
切り替えの指示が取得される毎に、前記全体画像中に含まれる複数の前記顔画像を1枚ずつ順次切り替えて拡大して表示する表示手段と
を備える画像処理装置。 Image data acquisition means for acquiring image data of the entire image to be displayed;
Position information acquisition means for acquiring position information of a plurality of face images in the whole image;
Instruction acquisition means for acquiring an instruction to switch display of the plurality of face images included in the whole image;
An image processing apparatus comprising: display means for sequentially switching and enlarging and displaying the plurality of face images included in the entire image each time a switching instruction is acquired.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the display unit sequentially displays all of the plurality of face images, and further displays the entire image when a switching instruction is acquired.
さらに備える請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, further comprising a gamma correction unit that performs gamma correction on image data of the face image to be enlarged and displayed.
請求項3に記載の画像処理装置。 The gamma correction unit performs reverse S-gamma correction when the histogram of the image data luminance of the face image to be enlarged is U-shaped, and performs S-shaped gamma correction when the histogram is reverse U-shaped. The image processing apparatus described.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the display unit further displays a position of the displayed face image in the entire image.
前記画像データ取得手段と前記位置情報取得手段は、前記記録媒体より読み出された前記画像データと前記位置情報を取得する
請求項1に記載の画像処理装置。 A recording unit that records image data of the captured image together with position information of the plurality of face images on a recording medium;
The image processing apparatus according to claim 1, wherein the image data acquisition unit and the position information acquisition unit acquire the image data and the position information read from the recording medium.
請求項6に記載の画像処理装置。 The image processing apparatus according to claim 6, wherein the recording unit further records a ratio of the face image to the whole image.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the display unit calculates OSD information, a position that does not overlap the face image, and displays the OSD information at the calculated position.
請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the display unit displays OSD information, calculates a size that does not overlap the face image, reduces the calculated size, and displays the OSD information.
前記全体画像中における複数の顔画像の位置情報を取得し、
前記全体画像中に含まれる複数の前記顔画像の表示の切り替えの指示を取得し、
切り替えの指示が取得される毎に、前記全体画像中に含まれる複数の前記顔画像を1枚ずつ順次切り替えて拡大して表示する
画像処理方法。 Get the image data of the whole image to be displayed,
Obtaining position information of a plurality of face images in the whole image;
Obtaining an instruction to switch display of the plurality of face images included in the whole image;
An image processing method in which a plurality of face images included in the entire image are sequentially switched one by one and enlarged and displayed each time a switching instruction is acquired.
前記全体画像中における複数の顔画像の位置情報を取得し、
前記全体画像中に含まれる複数の前記顔画像の表示の切り替えの指示を取得し、
切り替えの指示が取得される毎に、前記全体画像中に含まれる複数の前記顔画像を1枚ずつ順次切り替えて拡大して表示する
処理をコンピュータに実行させるプログラム。 Get the image data of the whole image to be displayed,
Obtaining position information of a plurality of face images in the whole image;
Obtaining an instruction to switch display of the plurality of face images included in the whole image;
A program that causes a computer to execute a process of sequentially switching and enlarging and displaying a plurality of face images included in the entire image each time a switching instruction is acquired.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005201201A JP4487872B2 (en) | 2005-07-11 | 2005-07-11 | Image processing apparatus and method, program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005201201A JP4487872B2 (en) | 2005-07-11 | 2005-07-11 | Image processing apparatus and method, program, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007020029A true JP2007020029A (en) | 2007-01-25 |
JP4487872B2 JP4487872B2 (en) | 2010-06-23 |
Family
ID=37756761
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005201201A Expired - Fee Related JP4487872B2 (en) | 2005-07-11 | 2005-07-11 | Image processing apparatus and method, program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4487872B2 (en) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008262416A (en) * | 2007-04-12 | 2008-10-30 | Olympus Imaging Corp | Image reproduction device, image reproduction program, recording medium and image reproduction method |
JP2009044463A (en) * | 2007-08-08 | 2009-02-26 | Sanyo Electric Co Ltd | Electronic camera and field image reproduction device |
JP2009060291A (en) * | 2007-08-30 | 2009-03-19 | Canon Inc | Image processing apparatus, image processing method and program |
JP2009164820A (en) * | 2007-12-28 | 2009-07-23 | Casio Comput Co Ltd | Imaging apparatus and program |
JP2009268153A (en) * | 2008-04-03 | 2009-11-12 | Sony Corp | Reproduction control device, and reproduction control method, and program |
JP2010056622A (en) * | 2008-08-26 | 2010-03-11 | Nikon Corp | Electronic camera |
JP2010117787A (en) * | 2008-11-11 | 2010-05-27 | Seiko Epson Corp | Image processing apparatus |
WO2010116763A1 (en) * | 2009-04-10 | 2010-10-14 | パナソニック株式会社 | Object detection device, object detection system, integrated circuit for object detection, camera with object detection function, and object detection method |
JP2011002626A (en) * | 2009-06-18 | 2011-01-06 | Nikon Corp | Image reproducing device |
JP2012151910A (en) * | 2012-05-17 | 2012-08-09 | Casio Comput Co Ltd | Imaging apparatus and program |
US8350892B2 (en) | 2008-05-20 | 2013-01-08 | Sony Corporation | Image pickup apparatus, image pickup method, playback control apparatus, playback control method, and program |
US8774603B2 (en) | 2007-06-13 | 2014-07-08 | Sony Corporation | Information processing apparatus, information processing method, program, and recording medium |
JP2015508210A (en) * | 2012-02-24 | 2015-03-16 | サムスン エレクトロニクス カンパニー リミテッド | Method and apparatus for adjusting the size of an object displayed on a screen |
JP2018038032A (en) * | 2016-08-30 | 2018-03-08 | キヤノン株式会社 | Image processing system |
CN116703701A (en) * | 2022-12-15 | 2023-09-05 | 荣耀终端有限公司 | Picture clipping method and electronic equipment |
-
2005
- 2005-07-11 JP JP2005201201A patent/JP4487872B2/en not_active Expired - Fee Related
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008262416A (en) * | 2007-04-12 | 2008-10-30 | Olympus Imaging Corp | Image reproduction device, image reproduction program, recording medium and image reproduction method |
US8774603B2 (en) | 2007-06-13 | 2014-07-08 | Sony Corporation | Information processing apparatus, information processing method, program, and recording medium |
JP2009044463A (en) * | 2007-08-08 | 2009-02-26 | Sanyo Electric Co Ltd | Electronic camera and field image reproduction device |
JP2009060291A (en) * | 2007-08-30 | 2009-03-19 | Canon Inc | Image processing apparatus, image processing method and program |
JP2009164820A (en) * | 2007-12-28 | 2009-07-23 | Casio Comput Co Ltd | Imaging apparatus and program |
JP2011217394A (en) * | 2008-04-03 | 2011-10-27 | Sony Corp | Device and method for controlling reproduction and program |
JP2009268153A (en) * | 2008-04-03 | 2009-11-12 | Sony Corp | Reproduction control device, and reproduction control method, and program |
US8350892B2 (en) | 2008-05-20 | 2013-01-08 | Sony Corporation | Image pickup apparatus, image pickup method, playback control apparatus, playback control method, and program |
JP2010056622A (en) * | 2008-08-26 | 2010-03-11 | Nikon Corp | Electronic camera |
US8351737B2 (en) | 2008-11-11 | 2013-01-08 | Seiko Epson Corporation | Image processing apparatus |
JP2010117787A (en) * | 2008-11-11 | 2010-05-27 | Seiko Epson Corp | Image processing apparatus |
WO2010116763A1 (en) * | 2009-04-10 | 2010-10-14 | パナソニック株式会社 | Object detection device, object detection system, integrated circuit for object detection, camera with object detection function, and object detection method |
US8508603B2 (en) | 2009-04-10 | 2013-08-13 | Panasonic Corporation | Object detection device, object detection system, integrated circuit for object detection, and object detection method |
JP5513490B2 (en) * | 2009-04-10 | 2014-06-04 | パナソニック株式会社 | Object detection device, object detection system, integrated circuit for object detection, camera with object detection function, and object detection method |
JP2011002626A (en) * | 2009-06-18 | 2011-01-06 | Nikon Corp | Image reproducing device |
JP2015508210A (en) * | 2012-02-24 | 2015-03-16 | サムスン エレクトロニクス カンパニー リミテッド | Method and apparatus for adjusting the size of an object displayed on a screen |
JP2012151910A (en) * | 2012-05-17 | 2012-08-09 | Casio Comput Co Ltd | Imaging apparatus and program |
JP2018038032A (en) * | 2016-08-30 | 2018-03-08 | キヤノン株式会社 | Image processing system |
CN116703701A (en) * | 2022-12-15 | 2023-09-05 | 荣耀终端有限公司 | Picture clipping method and electronic equipment |
CN116703701B (en) * | 2022-12-15 | 2024-05-17 | 荣耀终端有限公司 | Picture clipping method and electronic equipment |
Also Published As
Publication number | Publication date |
---|---|
JP4487872B2 (en) | 2010-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4487872B2 (en) | Image processing apparatus and method, program, and recording medium | |
JP4861952B2 (en) | Image processing apparatus and imaging apparatus | |
JP5695335B2 (en) | Imaging condition control device, camera, image quality control device, and program | |
US20100302595A1 (en) | Image Reproducing Apparatus And Imaging Apparatus | |
JP2010147808A (en) | Imaging apparatus and image processing method in same | |
JP5076695B2 (en) | Image correction apparatus, image correction method, and program | |
US9055219B2 (en) | Image editing device and image editing method | |
JP5782813B2 (en) | Imaging apparatus and image display method | |
JP2006345254A (en) | Photographing apparatus, its control method, program, and storage medium | |
JP5930245B1 (en) | Image processing apparatus, image processing method, and program | |
JP5494744B2 (en) | Imaging apparatus, control method, and program | |
JP2008109338A (en) | Image management device, camera, image management method, and program | |
JP2007027971A (en) | Photographing apparatus, control method thereof, program, and recording medium | |
JP2004192129A (en) | Method and device for extracting facial area | |
JP2007199311A (en) | Image display device and imaging apparatus | |
JP5266701B2 (en) | Imaging apparatus, subject separation method, and program | |
JP2008109305A (en) | Image processing device, and control method of image processing device | |
JPH08331495A (en) | Electronic album system with photographing function | |
JP5408037B2 (en) | Image processing apparatus and method, and program | |
JP2010177731A (en) | Image reproducing device and imaging apparatus | |
JP2003244620A (en) | Image processing method and apparatus, and program | |
JP4632417B2 (en) | Imaging apparatus and control method thereof | |
JP2007142639A (en) | Imaging apparatus and program therefor | |
JP2014021782A (en) | Image processor, control method thereof and program | |
JP5206421B2 (en) | Digital camera, photographing recording method, and photographing control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080522 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100309 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100322 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130409 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130409 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |