JP5142825B2 - Image display device and image display method - Google Patents

Image display device and image display method Download PDF

Info

Publication number
JP5142825B2
JP5142825B2 JP2008139471A JP2008139471A JP5142825B2 JP 5142825 B2 JP5142825 B2 JP 5142825B2 JP 2008139471 A JP2008139471 A JP 2008139471A JP 2008139471 A JP2008139471 A JP 2008139471A JP 5142825 B2 JP5142825 B2 JP 5142825B2
Authority
JP
Japan
Prior art keywords
image
identification
display
area
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008139471A
Other languages
Japanese (ja)
Other versions
JP2009288945A5 (en
JP2009288945A (en
Inventor
次郎 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008139471A priority Critical patent/JP5142825B2/en
Publication of JP2009288945A publication Critical patent/JP2009288945A/en
Publication of JP2009288945A5 publication Critical patent/JP2009288945A5/ja
Application granted granted Critical
Publication of JP5142825B2 publication Critical patent/JP5142825B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像表示装置及び画像表示方法に関する。   The present invention relates to an image display device and an image display method.

目をつぶっていないかなど、撮影画像内のそれぞれの人物が撮影に適した表情をしているかの確認は、集合写真など撮影画角内に多数の人物が存在していると人物の顔が小さいために、困難になる。   To check whether each person in the shot image has a suitable expression for shooting, such as whether his eyes are closed, the face of the person is displayed when there are many people in the shooting angle of view, such as a group photo. Because it is small, it becomes difficult.

そこで、特許文献1は、撮影画像の再生時に対して顔検出した人数が基準人数より多い場合に基準人数より少ない人数が表示されるように複数の画像を切り出して拡大表示する撮像装置を提案している。また、特許文献2は、撮影画像に対して顔検出をし、顔領域から目の存在する領域を検出し、撮影画像内の人物が目を閉じているかどうか判定し、目を閉じている人物が存在する場合に撮影者へ再撮影を指示する撮像装置を提案している。
特開2006−309661号公報 特開2006−254229号公報
Therefore, Patent Document 1 proposes an imaging apparatus that cuts out and displays a plurality of images so that a smaller number of people than the reference number is displayed when the number of detected faces is larger than the reference number when the captured image is reproduced. ing. Further, Patent Document 2 detects a face in a photographed image, detects a region where eyes exist from the face region, determines whether a person in the photographed image has eyes closed, and a person who has eyes closed An image pickup apparatus that instructs a photographer to perform re-shooting in the case where there is an image is proposed.
JP 2006-309661 A JP 2006-254229 A

しかしながら、特許文献1は、切り出し拡大した画像が撮影画像のどの部分を拡大したものであるのかが分かり難く、また、切り出した画像を複数枚確認しないと撮影画像に写っている全ての人物を確認することはできない。一方、特許文献2は、撮影画像内の人物が目を閉じているかどうかを判定するため、目が開いていても撮影に適した表情をしているかどうかの判断はできない。   However, in Patent Document 1, it is difficult to know which part of the captured image is the enlarged image of the cut-out image, and all persons appearing in the captured image are confirmed unless a plurality of cut-out images are confirmed. I can't do it. On the other hand, since Patent Document 2 determines whether or not a person in a captured image has closed eyes, it cannot be determined whether or not the face is suitable for shooting even if the eyes are open.

本発明は、撮影の前後で撮影画像に写る識別対象が撮影に適した状態にあるかどうかを容易に撮影者に確認させることができる画像表示装置及び画像表示方法を提供することを目的とする。   It is an object of the present invention to provide an image display device and an image display method that allow a photographer to easily check whether an identification target that appears in a captured image before and after shooting is in a state suitable for shooting. .

本発明の一側面としての画像表示装置は、第1画像から識別対象としての特定の被写体の条件を満たす識別領域を検出する検出手段と、前記検出手段が前記第1画像から複数の識別領域を検出した場合に、検出した前記複数の識別領域からいずれの識別領域を中心領域として特定する中心領域特定手段と、前記複数の識別領域のうち前記中心領域とは異なる識別領域である非中心領域のそれぞれの中心と前記中心領域の中心とからなるベクトルに沿って、それぞれの非中心領域を前記中心領域に近づくように移動させてから、前記識別領域の画像を拡大して第2画像を生成する画像拡大手段と、前記第1画像および前記第2画像を表示する表示手段を有することを特徴とする
本発明の別の側面としての画像表示装置は、第1画像から識別対象としての特定の被写体の条件を満たす識別領域を検出する検出手段と、前記第1画像から複数の識別領域を検出した場合に、前記第1画像内で当該複数の識別領域のそれぞれの位置が近づくように、それぞれの前記識別領域の画像を移動させるとともに拡大することで第2画像を生成する画像拡大手段と、前記第1画像および前記第2画像を表示する表示手段と、前記検出手段が検出した識別領域の数が閾値以上であるかどうかを判断する判定手段と、を有し、前記判定手段が閾値以上であると判断した場合に前記表示手段に前記第2画像を表示させ、前記判定手段が閾値未満であると判断した場合に前記第1画像を表示させることを特徴とする。
An image display device according to one aspect of the present invention includes a detection unit that detects an identification region that satisfies a condition of a specific subject as an identification target from a first image, and the detection unit detects a plurality of identification regions from the first image. A center area specifying means for specifying any of the plurality of identification areas as a central area when detected, and a non-central area that is an identification area different from the central area among the plurality of identification areas. A second image is generated by enlarging the image of the identification area after moving each non-central area so as to approach the central area along a vector composed of the center and the center of the central area. It has an image enlarging means and a display means for displaying the first image and the second image .
According to another aspect of the present invention, there is provided an image display device that detects a detection area that satisfies a condition of a specific subject as an identification target from a first image and a plurality of identification areas detected from the first image. And an image enlarging means for generating a second image by moving and enlarging the image of each of the identification areas so that the respective positions of the plurality of identification areas approach in the first image, Display means for displaying one image and the second image, and determination means for determining whether or not the number of identification areas detected by the detection means is equal to or greater than a threshold, wherein the determination means is equal to or greater than the threshold The second image is displayed on the display means when it is determined, and the first image is displayed when it is determined that the determination means is less than a threshold value.

本発明の別の面としての画像表示方法は、表示手段に画像を表示させる画像表示方法であって、第1画像から識別対象としての特定の被写体の条件を満たす識別領域を検出する検出ステップと、前記第1画像から複数の識別領域を検出した場合に、前記複数の識別領域からいずれの識別領域を中心領域として特定するステップと、前記複数の識別領域のうち前記中心領域とは異なる識別領域である非中心領域のそれぞれの中心と前記中心領域の中心とからなるベクトルに沿って、それぞれの各非中心領域を前記中心領域に近づくように移動させてから、前記複数の識別領域を拡大して第2画像を生成するステップと、前記第2画像を表示手段に表示させるステップを有することを特徴とする
本発明の別の側面としての画像表示方法は、表示手段に画像を表示させる画像表示方法であって、第1画像から識別対象としての特定の被写体の条件を満たす識別領域を検出する検出ステップと、前記第1画像から複数の識別領域を検出した場合に、前記第1画像内で当該複数の識別領域のそれぞれの位置が近づくように、それぞれの前記識別領域の画像を移動させるとともに拡大することで第2画像を生成するステップと、前記検出ステップにて検出した識別領域の数が閾値以上であるかどうかを判断する判定ステップと、前記判定ステップにて閾値以上であると判断した場合に前記表示手段に前記第2画像を表示させ、閾値未満であると判断した場合に前記表示手段に前記第1画像を表示させるステップを有することを特徴とする。
Another image display method as aspects of the present invention is an image display method of displaying an image on a display unit, detecting a satisfying identification area of the specific subject as an identification target from the first image And, when a plurality of identification areas are detected from the first image, a step of specifying any identification area as a central area from the plurality of identification areas, and an identification different from the central area among the plurality of identification areas The plurality of identification areas are expanded after each non-central area is moved closer to the central area along a vector composed of the center of each non-central area and the center of the central area. And generating a second image, and displaying the second image on a display means .
An image display method according to another aspect of the present invention is an image display method for displaying an image on a display unit, and a detection step of detecting an identification region satisfying a condition of a specific subject as an identification target from a first image; , When detecting a plurality of identification regions from the first image, moving and enlarging the images of the identification regions so that the respective positions of the plurality of identification regions approach in the first image. And generating a second image, a determination step for determining whether the number of identification regions detected in the detection step is greater than or equal to a threshold value, and And displaying the second image on a display unit, and displaying the first image on the display unit when it is determined that the second image is less than a threshold value.

本発明によれば、撮影の前後で撮影画像に写る識別対象が撮影に適した状態にあるかどうかを容易に撮影者に確認させることができる画像表示装置及び画像表示方法を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the image display apparatus and image display method which can make a photographer confirm easily whether the identification target reflected on a picked-up image before and after imaging | photography is in the state suitable for imaging | photography can be provided. .

図1は、本実施例の画像表示装置10(本実施例では、以下、デジタルカメラ10と呼ぶ)のブロック図である。なお、本発明の画像表示装置は、データを記録・再生する撮像装置(例えば、デジタルカメラやデジタルビデオカメラ等)であってもよい。また、撮像機能を有する電子機器、画像データを再生表示する再生表示装置にも適用可能である。ここで、撮像機能を有する電子機器は、例えば、PDA(Personal Digital Assistant)や携帯電話等である。   FIG. 1 is a block diagram of an image display apparatus 10 of this embodiment (hereinafter referred to as a digital camera 10 in this embodiment). Note that the image display device of the present invention may be an imaging device (for example, a digital camera or a digital video camera) that records and reproduces data. Further, the present invention can be applied to an electronic apparatus having an imaging function and a reproduction display device that reproduces and displays image data. Here, the electronic device having an imaging function is, for example, a PDA (Personal Digital Assistant), a mobile phone, or the like.

デジタルカメラ10は、被写体を撮像する撮像部と、中央処理装置(CPU)20と、操作部35と、VRAM40と、ビデオエンコーダ42と、メモリ44と、表示部50と、を有する。   The digital camera 10 includes an imaging unit that images a subject, a central processing unit (CPU) 20, an operation unit 35, a VRAM 40, a video encoder 42, a memory 44, and a display unit 50.

撮像部は、撮像レンズ12、撮像素子14、撮像回路16、画像処理回路18を有する。撮像レンズ12を通過した光は、撮像素子14に入射し画像信号として順次読み出され、それぞれ撮像回路16に加えられる。撮像回路16はゲイン調整回路を含み、得られた画像データは画像処理回路18へ送られる。画像処理回路18はCPU20からのコマンドに従ってホワイトバランス補正、ガンマ補正、コントラスト補正等の画像処理を行う。そして画像処理回路18に入力された画像データは、輝度信号(Y信号)及び色差信号(CrC1信号)に変換されると共に、ガンマ補正等の所定の処理が施された後、VRAM40に格納される。   The imaging unit includes an imaging lens 12, an imaging element 14, an imaging circuit 16, and an image processing circuit 18. The light that has passed through the imaging lens 12 enters the imaging device 14, is sequentially read out as an image signal, and is added to the imaging circuit 16. The imaging circuit 16 includes a gain adjustment circuit, and the obtained image data is sent to the image processing circuit 18. The image processing circuit 18 performs image processing such as white balance correction, gamma correction, and contrast correction in accordance with commands from the CPU 20. The image data input to the image processing circuit 18 is converted into a luminance signal (Y signal) and a color difference signal (CrC1 signal) and subjected to predetermined processing such as gamma correction and then stored in the VRAM 40. .

図2は、CPU20のブロック図である。CPU20は操作部35からの入力に基づいてデジタルカメラ10内の各回路を統括制御する。撮像画像を表示部50に出力する場合、VRAM40からYC信号が読み出され、ビデオエンコーダ42に送られる。ビデオエンコーダ42は入力されたYC信号を表示用の所定のフォーマット(NTSC等)に変換して表示部50に出力する。また、所定のフレームレートで処理された各フレームのYC信号はVRAM40のA領域とB領域とに交互に書き込まれ、VRAM40のA領域とB領域のうちYC信号が書き込まれている方の領域とは異なる領域から書き込まれているYC信号が読み出される。このようにしてVRAM40内のYC信号が定期的に書き換えられ、そのYC信号から生成される映像信号が表示部50に供給されることにより、撮像中の映像がリアルタイムに表示部50に表示される。そして撮影者は表示部50に表示されるスルー画像によって撮影画角を確認することができる。   FIG. 2 is a block diagram of the CPU 20. The CPU 20 comprehensively controls each circuit in the digital camera 10 based on an input from the operation unit 35. When outputting the captured image to the display unit 50, the YC signal is read from the VRAM 40 and sent to the video encoder 42. The video encoder 42 converts the input YC signal into a predetermined display format (NTSC or the like) and outputs it to the display unit 50. In addition, the YC signal of each frame processed at a predetermined frame rate is alternately written in the A area and the B area of the VRAM 40, and the YC signal is written in the A area and the B area of the VRAM 40. YC signals written from different areas are read out. In this way, the YC signal in the VRAM 40 is periodically rewritten, and the video signal generated from the YC signal is supplied to the display unit 50, whereby the image being captured is displayed on the display unit 50 in real time. . Then, the photographer can confirm the shooting angle of view from the through image displayed on the display unit 50.

CPU20は、顔検出部21、人数判定部22、顔領域トリミング部23、トリミング領域平均面積算出部24、トリミング領域拡大縮小部25、中心領域特定部26、中心座標算出部27を有する。また、CPU20は、中心座標間距離算出部28、移動順位決定部29、顔領域移動部30、画像拡大部31を更に有する。   The CPU 20 includes a face detection unit 21, a number determination unit 22, a face region trimming unit 23, a trimming region average area calculation unit 24, a trimming region enlargement / reduction unit 25, a center region specification unit 26, and a center coordinate calculation unit 27. The CPU 20 further includes a center coordinate distance calculation unit 28, a movement order determination unit 29, a face area movement unit 30, and an image enlargement unit 31.

顔検出部21は、表示部50が表示した撮影画角内の画像(第1画像)に対して顔検出を行う。人数判定部22は、顔検出部21が検出した顔の数が第1の閾値以上又は第2の閾値以下(本実施例では4人以上21人以下)であるかどうかを判断する。顔領域トリミング部23は、顔検出部21が検出した顔を囲む領域(後述する「顔領域」)を形成する。この顔領域を囲む方形領域の座標が、識別対象としての条件を満たす被写体の位置を示す識別領域となる。トリミング領域平均面積算出部24は、トリミングされた顔領域の平均面積を算出する。トリミング領域拡大縮小部25は、トリミングされた複数の顔領域が平均面積になるように拡大又は縮小する。   The face detection unit 21 performs face detection on the image within the shooting angle of view (first image) displayed by the display unit 50. The number determination unit 22 determines whether or not the number of faces detected by the face detection unit 21 is equal to or greater than the first threshold or equal to or less than the second threshold (4 to 21 in this embodiment). The face area trimming unit 23 forms an area (a “face area” described later) surrounding the face detected by the face detection unit 21. The coordinates of the rectangular area surrounding the face area become an identification area indicating the position of the subject that satisfies the condition as the identification target. The trimming area average area calculation unit 24 calculates the average area of the trimmed face area. The trimming area enlargement / reduction unit 25 enlarges or reduces the trimmed face areas so as to have an average area.

中心領域特定部26は、顔検出部21が第1画像に複数の顔を検出した場合に複数の顔の中で中心の顔の領域である中心領域を特定する。中心座標算出部27は、顔領域の中心座標を算出する。中心座標間距離算出部28は、第1画像の重心と各顔領域の中心座標との距離又は中心領域と中心領域とは異なる領域である非中心領域との距離を算出する。移動順位決定部29は、非中心領域の中で移動順位を決定する。顔領域移動部30は、複数の顔の領域のうち非中心領域の中心と中心領域の中心とからなるベクトルに沿って各非中心領域を中心領域に近づくように移動して第2画像を生成する。画像拡大部31は、第2画像を表示部50が表示可能な範囲内で拡大して第3画像を生成する。   When the face detection unit 21 detects a plurality of faces in the first image, the center region specifying unit 26 specifies a center region that is a central face region among the plurality of faces. The center coordinate calculation unit 27 calculates the center coordinates of the face area. The center-coordinate distance calculation unit 28 calculates the distance between the center of gravity of the first image and the center coordinates of each face area, or the distance between the center area and a non-center area that is an area different from the center area. The movement order determination unit 29 determines the movement order in the non-center area. The face area moving unit 30 generates a second image by moving each non-center area closer to the center area along a vector composed of the center of the non-center area and the center of the center area among the plurality of face areas. To do. The image enlargement unit 31 enlarges the second image within a range that can be displayed by the display unit 50 and generates a third image.

図3は、操作部35のブロック図である。操作部35は、焦点調節や撮影を行うレリーズスイッチ36と、動作モードを設定するモードダイヤル(モード設定部)37を有する。モードダイヤル37は、ポートレートモード、風景モード、夜景モード、スポーツモード、集合写真モード等の撮影モードを設定することができる。この中で、特定のモード(例えば集合写真モード)が選択された場合に、ファインダ画像表示(スルー画像表示)37a、レビュー表示37b、再生表示37cの少なくともいずれかを実行する。ファインダ画像表示(スルー画像表示)37aは、撮影前の撮影画角内の画像を表示する。レビュー表示37bは、撮像部による撮影後(又は撮影直後)、一定時間だけ撮像された画像を前記表示部に表示する。再生表示37cは、画像を格納するメモリ44に格納された画像を再生表示する。   FIG. 3 is a block diagram of the operation unit 35. The operation unit 35 includes a release switch 36 that performs focus adjustment and photographing, and a mode dial (mode setting unit) 37 that sets an operation mode. The mode dial 37 can set photographing modes such as a portrait mode, a landscape mode, a night view mode, a sports mode, and a group photo mode. Among these, when a specific mode (for example, group photo mode) is selected, at least one of finder image display (through image display) 37a, review display 37b, and reproduction display 37c is executed. The viewfinder image display (through image display) 37a displays an image within the shooting angle of view before shooting. The review display 37b displays on the display unit an image that has been captured for a certain period of time after shooting by the imaging unit (or immediately after shooting). The reproduction display 37c reproduces and displays the image stored in the memory 44 for storing the image.

メモリ44は、撮影画像を格納する。操作部35は、メモリ44が格納すべき画像と廃棄する画像を選択することができる。表示部50は、デジタルカメラ10の背面に設けられ、画像を表示する液晶表示部である。デジタルカメラ10は、ファインダ(覗き窓)を有し、表示部50は、撮影された画像のみならず撮影前のファインダ画像(スルー画像)も表示可能である。   The memory 44 stores captured images. The operation unit 35 can select an image to be stored in the memory 44 and an image to be discarded. The display unit 50 is a liquid crystal display unit that is provided on the back surface of the digital camera 10 and displays an image. The digital camera 10 includes a finder (view window), and the display unit 50 can display not only a photographed image but also a finder image (through image) before photographing.

以下、図4を参照して、モードダイヤル37が特定のモードに設定された場合のファインダ画像表示37aの動作(画像表示方法)を説明する。図4は、ファインダ画像表示におけるCPU20の動作を説明するためのフローチャートである。図4において、「S」はステップの略である。図4に示す画像表示方法は表示部50による表示に使用され、プログラムとして実行又は具体化が可能である。   Hereinafter, the operation (image display method) of the finder image display 37a when the mode dial 37 is set to a specific mode will be described with reference to FIG. FIG. 4 is a flowchart for explaining the operation of the CPU 20 in the finder image display. In FIG. 4, “S” is an abbreviation for a step. The image display method shown in FIG. 4 is used for display by the display unit 50 and can be executed or embodied as a program.

まず、スルー画像を表示部50に表示させる指示を行うと共に、顔検出部21がスルー画像内の顔検出処理を行う(S101)。顔検出の方法は限定されない。例えば、顔検出部21は、撮像画像の各画素の色相が肌色の範囲に含まれるか否かを判定して肌色領域と非肌色領域とに分割すると共に、画像中のエッジを検出して画像中の各箇所をエッジ部分又は非エッジ部分に分類する。顔検出部21は、肌色領域内に位置し非エッジ部分に分類された画素からなり、かつエッジ部分と判定された画素で囲まれた領域を顔候補領域として抽出し、抽出した顔候補領域が顔に相当する領域かを判定し、この判定結果に基づき顔領域を抽出する。顔検出部21は顔が存在しないと判断した場合には表示部50はスルー画像を表示する(S103)。   First, an instruction to display a through image on the display unit 50 is given, and the face detection unit 21 performs face detection processing in the through image (S101). The method of face detection is not limited. For example, the face detection unit 21 determines whether or not the hue of each pixel of the captured image is included in the skin color range and divides the skin color region into a non-skin color region, and detects an edge in the image to detect the image. Each part inside is classified into an edge part or a non-edge part. The face detection unit 21 extracts, as a face candidate area, an area that is formed of pixels classified in the skin color area and is classified as a non-edge part, and is surrounded by pixels that are determined to be edge parts. It is determined whether the region corresponds to the face, and the face region is extracted based on the determination result. When the face detection unit 21 determines that no face exists, the display unit 50 displays a through image (S103).

顔検出部21が顔を検出した場合(S101)、複数の顔が存在するかどうかを判断する(S102)。顔検出部21が複数の顔が存在すると判断すると(S102)、人数判定部22が顔の数をカウントする(S103)。顔検出部21が複数の顔が存在しないと判断すると(S102)、表示部50はスルー画像を表示する(S103)。   When the face detection unit 21 detects a face (S101), it is determined whether there are a plurality of faces (S102). When the face detection unit 21 determines that there are a plurality of faces (S102), the number determination unit 22 counts the number of faces (S103). When the face detection unit 21 determines that a plurality of faces do not exist (S102), the display unit 50 displays a through image (S103).

人数判定部22は顔の数(人数)Nが閾値範囲であるかどうかを判断する(S105)。上述したように、本実施例では、人数判定部22は、Nが第1の閾値以上(4人以上)第2の閾値以下(21人以下)であるかどうか(3<N<22)を判断する。人数判定部22はNがこの条件を満足しないと判断すると(S105)、表示部50はスルー画像を表示する(S103)。これは撮影画角内の人数が少ない場合(第1の閾値未満の場合)、既に十分に人物の顔が大きく写っている場合が多いのであえて人物の顔を拡大表示する必要性が少ないからである。また、逆に人数が多すぎると全ての人物の顔を拡大表示するとかえって見難い画像となってしまうからである。なお、閾値範囲は撮影者が自由に設定可能である。   The number-of-persons determination unit 22 determines whether the number of faces (number of persons) N is within a threshold range (S105). As described above, in this embodiment, the number determination unit 22 determines whether N is equal to or greater than the first threshold (4 or more) and equal to or less than the second threshold (21 or less) (3 <N <22). to decide. When the number determination unit 22 determines that N does not satisfy this condition (S105), the display unit 50 displays a through image (S103). This is because when the number of people within the shooting angle of view is small (less than the first threshold), there is often no need to enlarge the face of the person because the face of the person is already sufficiently large. is there. On the other hand, if the number of people is too large, enlarging and displaying the faces of all the people will make the image difficult to see. Note that the photographer can freely set the threshold range.

次に、顔領域トリミング部23が、顔検出部21が検出した顔の位置情報に基づいて、各顔を包囲する最小の矩形領域をトリミングする(S106)。トリミングされた領域を、以後、「顔領域」と呼ぶ。図5は、顔領域トリミング部23が生成した顔領域P1〜P5を含む第1画像F1を示す。   Next, the face area trimming unit 23 trims the minimum rectangular area surrounding each face based on the face position information detected by the face detecting unit 21 (S106). The trimmed area is hereinafter referred to as “face area”. FIG. 5 shows the first image F1 including the face areas P1 to P5 generated by the face area trimming unit 23.

次に、トリミング領域平均面積算出部24がS106で作成した顔領域面積の平均値を算出し、トリミング領域拡大縮小部25がそれぞれの顔領域面積が平均値と等しくなるように矩形の重心を中心点として拡大又は縮小する(S107)。   Next, the trimming region average area calculation unit 24 calculates the average value of the face region areas created in S106, and the trimming region enlargement / reduction unit 25 centers the rectangular center of gravity so that each face region area is equal to the average value. The point is enlarged or reduced (S107).

次に、中心領域特定部26が、S107を経た顔領域P1〜P5を拡大又は縮小した顔領域K1〜K5のうち中心領域Kcを特定する(S108)。この際、中心座標算出部27が、図6に示すように、顔領域K1〜K5の重心g1〜g5を自己交差しないよう直線で結びできた図形の重心Gを求める。そして、中心領域特定部26は、重心Gと重心g1〜g5間の距離L1〜L5を算出し、最も短い距離を有する顔領域を中心領域Kcとして特定する。図6においては、L3が最小なので中心領域Kcは顔領域K3となる。   Next, the center area specifying unit 26 specifies the center area Kc among the face areas K1 to K5 obtained by enlarging or reducing the face areas P1 to P5 that have undergone S107 (S108). At this time, as shown in FIG. 6, the center coordinate calculation unit 27 obtains the center G of the figure formed by connecting the centers of gravity g1 to g5 of the face regions K1 to K5 with a straight line so as not to self-intersect. Then, the center area specifying unit 26 calculates distances L1 to L5 between the center of gravity G and the centers of gravity g1 to g5, and specifies the face area having the shortest distance as the center area Kc. In FIG. 6, since L3 is the minimum, the central area Kc is the face area K3.

次に、中心座標間距離算出部28が、図7に示すように、中心領域Kcである顔領域K3の重心点g3と他の顔領域(非中心領域)の重心点g1、g2、g4、g5との間の距離l1、l2、l4、l5を算出する。そして、移動順位決定部29が小さいものから順番付けを行う(S109)。本実施例では、l4、l2、l1、l5の順となる。   Next, as shown in FIG. 7, the center coordinate distance calculation unit 28 centroid point g3 of the face region K3 which is the center region Kc and centroid points g1, g2, g4 of other face regions (non-center regions), The distances l1, l2, l4, and l5 between g5 are calculated. Then, the movement order determination unit 29 performs ordering from the smallest one (S109). In this embodiment, the order is l4, l2, l1, and l5.

次に、顔領域移動部30が、移動順位決定部29が決定した順位に従って中心領域KK3の重心g3と非中心領域の重心g4、g2、g1、g5を結ぶ直線のK3に向かうベクトルに沿って顔領域K1、K2、K4、K5を移動する。顔領域移動部30は、顔領域K1〜K5の何れかに接するまで順に顔領域を移動を行って画像(第2画像)を生成する(S110)。第2画像を図8に示す。   Next, the face area moving unit 30 follows a vector heading to the straight line K3 connecting the centroid g3 of the central area KK3 and the centroids g4, g2, g1, and g5 of the non-central areas according to the order determined by the movement order determining unit 29. The face areas K1, K2, K4, and K5 are moved. The face area moving unit 30 sequentially moves the face area until it contacts any of the face areas K1 to K5 to generate an image (second image) (S110). The second image is shown in FIG.

次に、画像拡大部31が、顔領域K1〜K5全てを包囲する最小の矩形を表示部50のアスペクト比に併せて算出する(S111)。そして、算出された矩形画像が表示部50で最大となるよう拡大した画像(第3画像)F3を生成し、表示部50へ図9のように出力する(S112)。   Next, the image enlargement unit 31 calculates a minimum rectangle surrounding all the face regions K1 to K5 together with the aspect ratio of the display unit 50 (S111). Then, an image (third image) F3 enlarged so that the calculated rectangular image is maximized on the display unit 50 is generated and output to the display unit 50 as shown in FIG. 9 (S112).

以上述べた方法により、撮影画角内の人物それぞれの顔が均等な大きさで拡大表示され、更に撮影画角と対応した位置関係で表示される。このため、撮影者が直感的に撮影画角内の人物の顔の表情を一度に確認することが可能となる。この際、顔領域とは異なる領域は背景をそのまま残してもよいし、黒や青等の単色表示としてもよい。また、全体の雰囲気を伝えるために、図10に示すように、撮影画像全体を縮小したものを第3画像と共に表示部50に表示してもよい。   By the method described above, the faces of the persons within the shooting angle of view are enlarged and displayed with an equal size, and further displayed in a positional relationship corresponding to the shooting angle of view. For this reason, the photographer can intuitively confirm the facial expression of the person within the shooting angle of view at once. At this time, an area different from the face area may leave the background as it is, or may be a monochrome display such as black or blue. Further, in order to convey the overall atmosphere, as shown in FIG. 10, a reduced version of the entire captured image may be displayed on the display unit 50 together with the third image.

なお、本実施例ではモードダイヤル37が特定のモードに設定された場合のファインダ画像表示37aの動作(画像表示方法)を説明した。しかし、モードダイヤル37が特定のモードに設定された場合のレビュー表示37bの動作や、再生表示37cの動作も同様の表示方法にて、撮影者が直感的に撮影画角内の人物の顔の表情を一度に確認することが可能となる。   In this embodiment, the operation (image display method) of the finder image display 37a when the mode dial 37 is set to a specific mode has been described. However, the operation of the review display 37b when the mode dial 37 is set to a specific mode and the operation of the playback display 37c are also displayed in a similar manner, so that the photographer can intuitively display the face of the person within the shooting angle of view. It becomes possible to confirm facial expressions at once.

また、本実施例では撮像画面内の検出された顔領域を識別領域としているが、その他、画像検出により特定の被写体を検出しても構わない。例えば、背景から被写体像を切り出して検出したりすることも考えられる。その他、外部入力手段から撮像画面内の位置を入力したり、ファインダを見ている撮影者の視線を検出したりして、撮像画面内の識別領域を決定してもよい。   In this embodiment, the detected face area in the imaging screen is used as the identification area, but a specific subject may be detected by image detection. For example, it may be possible to cut out and detect a subject image from the background. In addition, the identification area in the imaging screen may be determined by inputting a position in the imaging screen from an external input unit or detecting the line of sight of the photographer who is looking at the viewfinder.

実施例のデジタルカメラのブロック図である。1 is a block diagram of a digital camera according to an embodiment. 図1に示すCPUのブロック図である。It is a block diagram of CPU shown in FIG. 図1に示す操作部のブロック図である。It is a block diagram of the operation part shown in FIG. ファインダ画像表示モードにおける図1に示すCPUの動作を説明するためのフローチャートである。3 is a flowchart for explaining the operation of the CPU shown in FIG. 1 in a finder image display mode. 図4に示すS106の結果を表示部に表示する例を示す図である。It is a figure which shows the example which displays the result of S106 shown in FIG. 4 on a display part. 図4に示すS108の結果を表示部に表示する例を示す図である。It is a figure which shows the example which displays the result of S108 shown in FIG. 4 on a display part. 図4に示すS109の結果を表示部に表示する例を示す図である。It is a figure which shows the example which displays the result of S109 shown in FIG. 4 on a display part. 図4に示すS110の結果を表示部に表示する例を示す図である。It is a figure which shows the example which displays the result of S110 shown in FIG. 4 on a display part. 図4に示すS112の結果を表示部に表示する例を示す図である。It is a figure which shows the example which displays the result of S112 shown in FIG. 4 on a display part. 図4に示すS112の結果を表示部に表示する際の別の例を示す図である。It is a figure which shows another example at the time of displaying the result of S112 shown in FIG. 4 on a display part.

符号の説明Explanation of symbols

10 デジタルカメラ
20 CPU
21 顔検出部
22 人数判定部
24 トリミング領域平均面積算出部
25 トリミング領域拡大縮小部
30 顔領域移動部
31 画像拡大部
35 操作部
37 モードダイヤル(モード設定部)
50 表示部
10 Digital camera 20 CPU
DESCRIPTION OF SYMBOLS 21 Face detection part 22 Number determination part 24 Trimming area | region average area calculation part 25 Trimming area expansion / contraction part 30 Face area movement part 31 Image expansion part 35 Operation part 37 Mode dial (mode setting part)
50 display section

Claims (8)

第1画像から識別対象としての特定の被写体の条件を満たす識別領域を検出する検出手段と、
前記検出手段が前記第1画像から複数の識別領域を検出した場合に、検出した前記複数の識別領域からいずれの識別領域を中心領域として特定する中心領域特定手段
記複数の識別領域のうち前記中心領域とは異なる識別領域である非中心領域のそれぞれの中心と前記中心領域の中心とからなるベクトルに沿って、それぞれの非中心領域を前記中心領域に近づくように移動させてから、前記識別領域の画像を拡大して第2画像を生成する画像拡大手段と、
前記第1画像および前記第2画像を表示する表示手段を有することを特徴とする画像表示装置。
Detecting means for detecting an identification region satisfying a condition of a specific subject as an identification target from the first image;
When the detection unit detects a plurality of identification regions from the first image, a center region specifying unit that specifies any one of the plurality of detected identification regions as a central region;
Along a vector consisting of respective centers and the center of the central region of the central area non-centered regions is different identification region and out of the previous SL plurality of identification areas, approaching each non central region to the central region after moving to the image enlarging means for generating a second image by enlarging the image of the identification area,
Images display you further comprising a display means for displaying the first image and the second image.
第1画像から識別対象としての特定の被写体の条件を満たす識別領域を検出する検出手段と、
前記第1画像から複数の識別領域を検出した場合に、前記第1画像内で当該複数の識別領域のそれぞれの位置が近づくように、それぞれの前記識別領域の画像を移動させるとともに拡大することで第2画像を生成する画像拡大手段と、
前記第1画像および前記第2画像を表示する表示手段と、
前記検出手段が検出した識別領域の数が閾値以上であるかどうかを判断する判定手段と、を有し、
前記判定手段が閾値以上であると判断した場合に前記表示手段に前記第2画像を表示させ、
前記判定手段が閾値未満であると判断した場合に前記第1画像を表示させることを特徴とする画像表示装置。
Detecting means for detecting an identification region satisfying a condition of a specific subject as an identification target from the first image;
When a plurality of identification areas are detected from the first image, the images of the identification areas are moved and enlarged so that the positions of the plurality of identification areas approach in the first image. Image enlarging means for generating a second image;
Display means for displaying the first image and the second image;
Determining means for determining whether or not the number of identification areas detected by the detecting means is equal to or greater than a threshold ;
When the determination unit determines that the threshold value is greater than or equal to a threshold value, the display unit displays the second image;
An image display device, wherein the first image is displayed when the determination means determines that it is less than a threshold value.
前記画像表示装置は、動作モードを設定するモード設定部を更に有し、
前記モード設定部が、特定のモードを設定した場合に、前記第2画像を表示させることを特徴とする請求項1又は2に記載の画像表示装置。
The image display device further includes a mode setting unit for setting an operation mode,
It said mode setting section, in the case of setting the specific mode, the image display apparatus according to claim 1 or 2, characterized in that for displaying the second image.
前記特定のモードでは、撮影前、撮影後の一定時間、及びメモリに格納された画像を再生する際の少なくともいずれかに前記第2画像を表示させることを特徴とする請求項に記載の画像表示装置。 4. The image according to claim 3 , wherein in the specific mode, the second image is displayed at least one of before shooting, a fixed time after shooting, and when playing back an image stored in a memory. Display device. 前記表示手段に、前記第1画像を縮小した画像を前記第2画像と共に表示させることを特徴とする請求項1乃至請求項のいずれか1項に記載の画像表示装置。 Wherein the display means, the image display apparatus according an image obtained by reducing the first image in any one of claims 1 to 4, characterized in that to display together with the second image. 前記複数の識別領域の平均面積を算出する平均面積算出手段と、
前記平均面積算出手段が算出した平均面積に前記複数の識別領域が等しくなるように前記複数の識別領域を拡大又は縮小する拡大縮小手段を有し、
前記画像拡大手段は、前記拡大縮小手段で拡大又は縮小された前記複数の識別領域のそれぞれの位置が近づくように前記第1画像内でそれぞれの前記識別領域の画像を移動させることを特徴とする請求項1乃至請求項のいずれか1項に記載の画像表示装置。
Average area calculating means for calculating an average area of the plurality of identification regions;
Scaling means for enlarging or reducing the plurality of identification regions so that the plurality of identification regions are equal to the average area calculated by the average area calculation unit;
The image enlarging means moves the image of each identification area in the first image so that the positions of the plurality of identification areas enlarged or reduced by the enlargement / reduction means approach each other. the image display apparatus according to any one of claims 1 to 5.
表示手段に画像を表示させる画像表示方法であって、
第1画像から識別対象としての特定の被写体の条件を満たす識別領域を検出する検出ステップと、
前記第1画像から複数の識別領域を検出した場合に、前記複数の識別領域からいずれの識別領域を中心領域として特定するステップ
前記複数の識別領域のうち前記中心領域とは異なる識別領域である非中心領域のそれぞれの中心と前記中心領域の中心とからなるベクトルに沿って、それぞれの各非中心領域を前記中心領域に近づくように移動させてから、前記複数の識別領域を拡大して第2画像を生成するステップと、
前記第2画像を表示手段に表示させるステップを有することを特徴とする画像表示方法。
An image display method for displaying an image on a display means,
A detection step of detecting an identification region satisfying a condition of a specific subject as an identification target from the first image;
If it detects a plurality of identification areas from the first image, identifying a central region of one of the identification area from the plurality of identification areas,
Each non-central region approaches the central region along a vector composed of the center of the non-central region, which is an identification region different from the central region among the plurality of identification regions, and the center of the central region. after moving to the steps of generating a second image by enlarging the plurality of identification areas,
Images displayed how to characterized by the step of displaying on the display unit the second image.
表示手段に画像を表示させる画像表示方法であって、An image display method for displaying an image on a display means,
第1画像から識別対象としての特定の被写体の条件を満たす識別領域を検出する検出ステップと、A detection step of detecting an identification region satisfying a condition of a specific subject as an identification target from the first image;
前記第1画像から複数の識別領域を検出した場合に、前記第1画像内で当該複数の識別領域のそれぞれの位置が近づくように、それぞれの前記識別領域の画像を移動させるとともに拡大することで第2画像を生成するステップと、When a plurality of identification areas are detected from the first image, the images of the identification areas are moved and enlarged so that the positions of the plurality of identification areas approach in the first image. Generating a second image;
前記検出ステップにて検出した識別領域の数が閾値以上であるかどうかを判断する判定ステップと、A determination step of determining whether or not the number of identification regions detected in the detection step is greater than or equal to a threshold;
前記判定ステップにて閾値以上であると判断した場合に前記表示手段に前記第2画像を表示させ、閾値未満であると判断した場合に前記表示手段に前記第1画像を表示させるステップを有することを特徴とする画像表示方法。The step of displaying the second image on the display unit when it is determined in the determination step that the threshold value is equal to or greater than the threshold value, and the step of displaying the first image on the display unit when it is determined that the value is less than the threshold value. An image display method characterized by the above.
JP2008139471A 2008-05-28 2008-05-28 Image display device and image display method Expired - Fee Related JP5142825B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008139471A JP5142825B2 (en) 2008-05-28 2008-05-28 Image display device and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008139471A JP5142825B2 (en) 2008-05-28 2008-05-28 Image display device and image display method

Publications (3)

Publication Number Publication Date
JP2009288945A JP2009288945A (en) 2009-12-10
JP2009288945A5 JP2009288945A5 (en) 2011-07-14
JP5142825B2 true JP5142825B2 (en) 2013-02-13

Family

ID=41458116

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008139471A Expired - Fee Related JP5142825B2 (en) 2008-05-28 2008-05-28 Image display device and image display method

Country Status (1)

Country Link
JP (1) JP5142825B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9389774B2 (en) 2010-12-01 2016-07-12 Sony Corporation Display processing apparatus for performing image magnification based on face detection
CN102348093A (en) * 2011-08-23 2012-02-08 太原理工大学 Intelligent base of Android mobile phone for video chat
JP2013156958A (en) * 2012-01-31 2013-08-15 Sony Mobile Communications Inc Display processing device
WO2014001095A1 (en) * 2012-06-26 2014-01-03 Thomson Licensing Method for audiovisual content dubbing
JP6212878B2 (en) * 2013-02-21 2017-10-18 株式会社リコー Image processing apparatus, image processing system, and program
JP6141084B2 (en) * 2013-04-19 2017-06-07 キヤノン株式会社 Imaging device
JP2019176306A (en) * 2018-03-28 2019-10-10 キヤノン株式会社 Monitoring system and control method therefor, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4746295B2 (en) * 2003-08-25 2011-08-10 富士フイルム株式会社 Digital camera and photographing method
JP4872396B2 (en) * 2006-03-15 2012-02-08 オムロン株式会社 Image editing apparatus, image editing method, and image editing program
JP2007281646A (en) * 2006-04-04 2007-10-25 Nikon Corp Electronic camera

Also Published As

Publication number Publication date
JP2009288945A (en) 2009-12-10

Similar Documents

Publication Publication Date Title
JP4671133B2 (en) Image processing device
US9456135B2 (en) Image synthesizing apparatus, image synthesizing method, and image synthesizing program
US7564486B2 (en) Image sensing apparatus with feature extraction mechanism and its control method
JP4902562B2 (en) Imaging apparatus, image processing apparatus, control method, and program
KR101811717B1 (en) Zoom control method and apparatus, and digital photographing apparatus
JP4912117B2 (en) Imaging device with tracking function
JP5142825B2 (en) Image display device and image display method
JP5612774B2 (en) Tracking frame initial position setting device and operation control method thereof
JP2006211139A (en) Imaging apparatus
KR102529479B1 (en) Control apparatus, control method, and storage medium
CN111698419A (en) Terminal photographing method and device and terminal
JP2010288170A (en) Imaging apparatus
JP3971240B2 (en) Camera with advice function
JP5087936B2 (en) camera
JP2008252711A (en) Digital camera
JP2004349750A (en) Digital camera and control method therefor
US20080266426A1 (en) Digital camera
JP6937603B2 (en) Image processing equipment and its control methods, programs, and storage media
JP4807582B2 (en) Image processing apparatus, imaging apparatus, and program thereof
WO2012147368A1 (en) Image capturing apparatus
JP4632417B2 (en) Imaging apparatus and control method thereof
JP2015080167A (en) Imaging device, control method thereof, and control program
JP7394151B2 (en) Display method
JP7418083B2 (en) Display control device, its control method, and its program
KR101659565B1 (en) Apparatus and method for taking a photograph of face

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110526

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110526

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121023

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121120

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151130

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5142825

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees