JP2009147644A - Image processing device, control method thereof, and program - Google Patents

Image processing device, control method thereof, and program Download PDF

Info

Publication number
JP2009147644A
JP2009147644A JP2007322426A JP2007322426A JP2009147644A JP 2009147644 A JP2009147644 A JP 2009147644A JP 2007322426 A JP2007322426 A JP 2007322426A JP 2007322426 A JP2007322426 A JP 2007322426A JP 2009147644 A JP2009147644 A JP 2009147644A
Authority
JP
Japan
Prior art keywords
face
image
face image
layout
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007322426A
Other languages
Japanese (ja)
Other versions
JP4991510B2 (en
JP2009147644A5 (en
Inventor
Tomoaki Kikuchi
智昭 菊地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007322426A priority Critical patent/JP4991510B2/en
Publication of JP2009147644A publication Critical patent/JP2009147644A/en
Publication of JP2009147644A5 publication Critical patent/JP2009147644A5/ja
Application granted granted Critical
Publication of JP4991510B2 publication Critical patent/JP4991510B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To enlarge face images of persons included in an image to be easily identified and easily specify the positions of the face images in a whole image. <P>SOLUTION: The face images are recognized from image data, and positions thereof are acquired. A layout of the face images is determined according to the positions of the face images. According to the determined layout, the face images are displayed in a display device. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、デジタルカメラなどの画像入力装置を用いて人物を撮影することにより得られた画像データを扱う画像処理装置およびその制御方法およびプログラムに関する。   The present invention relates to an image processing apparatus that handles image data obtained by photographing a person using an image input apparatus such as a digital camera, and a control method and program thereof.

従来、デジタルカメラで被写体を撮影することにより得られた画像をパーソナルコンピュータに取り込み、そのモニタに表示して、画像全体の構図や被写体、特に人物の顔の映り具合をチェックしている。ここで、ユーザは画像の中から人物の顔を探し出して確認していた。画像に多くの人物が含まれる場合には人物の顔は小さくなるため、確認が困難であった。   Conventionally, an image obtained by photographing a subject with a digital camera is captured in a personal computer and displayed on the monitor to check the composition of the entire image and the appearance of the subject, particularly a person's face. Here, the user has searched for and confirmed the person's face from the image. When an image includes many persons, the person's face becomes small, and thus confirmation is difficult.

そこで、顔を画像から抽出し、その顔画像を拡大表示することがおこなわれている(特許文献1参照)。特許文献1では、画像全体から認識された人物の顔を画面の特定のエリアに縦に並べて表示することで、人物の顔の状態を個別に確認できる。
特開2007−019678号公報
Therefore, a face is extracted from an image and the face image is enlarged and displayed (see Patent Document 1). In Patent Document 1, the face of a person recognized from the entire image is displayed side by side in a specific area of the screen, whereby the state of the person's face can be individually confirmed.
JP 2007-019678 A

しかしながら、特許文献1では顔画像は画像全体における位置に関わらず特定のエリアに縦に並べて表示している。したがって、特に多数の人物の顔が画像に含まれている場合には、その顔画像が画像全体のどの位置のものかを特定するのが困難であった。   However, in Patent Document 1, face images are displayed vertically in a specific area regardless of the position in the entire image. Therefore, it is difficult to specify the position of the face image in the entire image, particularly when a large number of human faces are included in the image.

また、特許文献1では顔認識された顔画像しか表示されず、実際には顔であるが横向きになっていたり、あるいは目を瞑っているために顔認識されなかった顔については区別して表示されなかった。   Further, in Patent Document 1, only a face image whose face is recognized is displayed, and a face which is actually a face but is turned sideways or face is not recognized because the eyes are meditated is displayed separately. There wasn't.

本発明は上述の問題点を鑑みて考案されたものであり、ユーザが複数の人物の顔画像が含まれる画像を容易に確認できるようにすることを目的とする。   The present invention has been devised in view of the above-described problems, and an object of the present invention is to allow a user to easily confirm an image including a plurality of human face images.

上記目的を達成するために本願の第1の発明によれば、画像データから顔画像を認識する顔認識手段と、前記顔画像の位置を取得する取得手段と、前記顔画像の位置にしたがって前記顔画像のレイアウトを決定する決定手段と、前記レイアウトにしたがって前記顔画像を並べて表示装置に表示させる表示制御手段とを備えたことを特徴とする画像処理装置を提供する。   In order to achieve the above object, according to the first invention of the present application, a face recognition unit that recognizes a face image from image data, an acquisition unit that acquires the position of the face image, and the position according to the position of the face image There is provided an image processing apparatus comprising: a determination unit that determines a layout of a face image; and a display control unit that displays the face images side by side according to the layout on a display device.

本発明によれば、ユーザは画像に含まれる人物の顔画像を個別に確認しやすくなるとともに、各顔画像の全体画像での位置を容易に特定することができるので、画像を確認する作業を効率的に行えるようになる。   According to the present invention, the user can easily confirm the face images of the person included in the image individually and can easily identify the position of each face image in the entire image. It becomes possible to do efficiently.

(実施例1)
以下、図面を用いて、本発明の一実施形態について説明する。
Example 1
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

本実施例における画像処理装置は、画像選択アプリケーションプログラムにしたがって、外部記憶装置に格納されている画像データに映しこまれた人物の顔を認識する。そして、認識された顔画像を抽出し、画像データ内での顔同士の相対位置を維持して並べたグラフィカルユーザーインターフェース(GUI)を表示装置に表示する。   The image processing apparatus in the present embodiment recognizes the face of a person reflected in the image data stored in the external storage device in accordance with the image selection application program. Then, the recognized face images are extracted, and a graphical user interface (GUI) arranged while maintaining the relative positions of the faces in the image data is displayed on the display device.

図1は本実施例の画像処理装置を実現するコンピュータ装置(情報処理装置)の構成を示すブロック図である。CPU(Central Processing Unit)100は、コンピュータ装置全体の動作をコントロールする。メモリ120はコンピュータ装置の動作に必要なプログラムやデータ、パラメータなどを記憶する。ハードディスクなどに代表される外部記憶装置130はOS(Operating System)や画像選択アプリケーションソフトウェア、画像データを記憶している。表示メモリ110は外部記憶装置130に記憶されている画像データを展開し、表示装置150に表示させる。画像処理装置のユーザの操作は、キーボードやポインティングデバイスなどの入力装置140を介して入力される。   FIG. 1 is a block diagram illustrating a configuration of a computer apparatus (information processing apparatus) that implements the image processing apparatus according to the present exemplary embodiment. A CPU (Central Processing Unit) 100 controls the operation of the entire computer apparatus. The memory 120 stores programs, data, parameters, and the like necessary for the operation of the computer device. An external storage device 130 typified by a hard disk or the like stores an OS (Operating System), image selection application software, and image data. The display memory 110 expands the image data stored in the external storage device 130 and displays it on the display device 150. The operation of the user of the image processing apparatus is input via the input device 140 such as a keyboard or a pointing device.

なお、本実施例の画像処理装置は、CPU100が外部記憶装置130に記憶されたOSや画像選択アプリケーションソフトウェアのプログラムコードを読出して実行することにより、以下に説明するような動作を実現する。また画像選択アプリケーションソフトウェアは着脱可能な記憶媒体からCPU100に供給されてもよい。したがって、そのプログラムコード自体が以下の実施例の機能を実現することになり、プログラムコードを記憶した記憶媒体も本発明を構成することになる。   Note that the image processing apparatus according to the present embodiment realizes the operation described below by the CPU 100 reading and executing the OS and image selection application software program codes stored in the external storage device 130. The image selection application software may be supplied to the CPU 100 from a removable storage medium. Therefore, the program code itself realizes the functions of the following embodiments, and a storage medium storing the program code also constitutes the present invention.

図2は本実施例の画像処理装置にインストールされた画像選択アプリケーションプログラムにより実現されるモジュール構成を示す図である。外部記憶装置130から画像データを読み込む画像読み込み手段200、複数の画像(元画像や、顔画像をふくむ)を表示装置に表示させる画像表示制御手段210、画像データに含まれる人物の顔を認識する顔認識手段220で構成される。また、実際には顔が撮影された領域であると推測されるが、顔認識手段220は認識できなかった領域を検出する失敗顔画像検出手段230で構成される。また、顔認識された顔画像の位置情報を取得する顔位置取得手段240と、指定されたレイアウトで顔画像を並び替える並び替え手段250とで構成される。   FIG. 2 is a diagram showing a module configuration realized by an image selection application program installed in the image processing apparatus of this embodiment. Image reading means 200 for reading image data from the external storage device 130, image display control means 210 for displaying a plurality of images (including original images and face images) on the display device, and recognizing a human face included in the image data The face recognition unit 220 is configured. Further, although it is estimated that the face is actually captured, the face recognizing unit 220 includes a failed face image detecting unit 230 that detects a region that could not be recognized. Further, the image processing apparatus includes a face position acquisition unit 240 that acquires position information of a face image that has been face-recognized, and a rearrangement unit 250 that rearranges the face images in a designated layout.

図6のフローチャート図を参照して、本実施例の画像処理装置の動作を説明する。   The operation of the image processing apparatus of this embodiment will be described with reference to the flowchart of FIG.

ステップS600において、画像読み込み手段200は画像データを外部記憶装置130から読み込む。本実施例では、図3に示すような集合写真の画像データが読み込まれるものとする。画像データ300は人物Aから人物Nまでの14人が3列に渡って順に並んで撮影されたものである。   In step S <b> 600, the image reading unit 200 reads image data from the external storage device 130. In this embodiment, it is assumed that image data of a group photograph as shown in FIG. 3 is read. The image data 300 is obtained by photographing 14 people from person A to person N in order in three rows.

ステップS601において、顔認識手段220はステップS600で読み込まれた画像データに対して顔認識処理を実行する。顔認識処理の結果、画像データ内で顔と認識される顔画像の領域が取得される。   In step S601, the face recognition unit 220 performs face recognition processing on the image data read in step S600. As a result of the face recognition process, a face image area recognized as a face in the image data is acquired.

ステップS602において、顔位置取得手段240は顔画像の位置情報(座標)を取得する。これは各顔画像について画像データにおける位置を検出し、顔画像同士の互いの相対的な位置情報を取得し、メモリ120に登録する。   In step S602, the face position acquisition unit 240 acquires position information (coordinates) of the face image. This detects the position in the image data for each face image, acquires the relative position information of the face images, and registers them in the memory 120.

一方、ステップS601では、実際には人物の顔であっても、横を向いていたり、目をつむっていたりしていると、顔認識されるための情報が足りないために、顔認識手段220は顔画像として認識しない。例えば、図3の画像データ300で「G」の位置の人物が下を向いてしまって顔認識されなかった場合を考える。ここで、集合写真のような場合は、一定の間隔で人物が並んで撮影されることが多い。したがって、ステップS602で取得された顔画像の位置情報のうち不規則に離散した位置情報がある場合、それらの間に認識されなかった人物が存在していると予測できる。   On the other hand, in step S601, even if the face is actually a person, if the face is turned sideways or the eyes are closed, there is not enough information for face recognition. Is not recognized as a face image. For example, let us consider a case where the person at the position “G” in the image data 300 in FIG. Here, in the case of a group photo, people are often photographed side by side at regular intervals. Therefore, if there is irregularly dispersed position information among the position information of the face image acquired in step S602, it can be predicted that there is a person who has not been recognized among them.

そこで、ステップS603において、失敗顔画像検出手段230はまず、ステップS602で取得された顔画像の位置情報から、ステップS601で認識されなかった失敗顔画像が存在する領域を検出する。   Therefore, in step S603, the failed face image detection unit 230 first detects an area where there is a failed face image that has not been recognized in step S601, from the position information of the face image acquired in step S602.

すなわち、失敗顔画像検出手段230は、ステップS602で取得された各顔画像の位置情報にしたがい、隣接する顔画像の間の距離を求める。図3の画像データでは「F」と「H」は顔画像として認識され、「F」と「H」はそれぞれの位置情報から互いに隣接すると判断され、それらの間の距離が求められる。そして、顔画像「F」と「H」の間の距離は他の隣接する顔画像の中心同士の間の距離の平均よりも所定値以上大きいので、「F」と「H」の間に失敗顔画像「G」が存在すると推測される。このようにして、顔認識手段220が精密な認識処理を行うことにより顔画像と認識しなかった領域であっても、実際には顔が存在すると推測される領域も失敗顔画像として認識することができる。特に顔認識手段220が顔認識できなかった顔の撮影部分は失敗である可能性が高いので、ユーザが画像データを確認する際に役立つ。   That is, the unsuccessful face image detection unit 230 obtains the distance between adjacent face images in accordance with the position information of each face image acquired in step S602. In the image data of FIG. 3, “F” and “H” are recognized as face images, and “F” and “H” are determined to be adjacent to each other based on their position information, and the distance between them is determined. Since the distance between the face images “F” and “H” is larger than the average of the distances between the centers of the other adjacent face images, the failure occurs between “F” and “H”. It is estimated that the face image “G” exists. In this way, even if the face recognition unit 220 performs an accurate recognition process and recognizes an area that is not recognized as a face image, an area that is actually estimated to have a face is recognized as a failed face image. Can do. In particular, it is highly probable that the photographing part of the face that the face recognition unit 220 could not recognize is unsuccessful, and this is useful when the user confirms the image data.

ステップS604において、顔位置取得手段240はステップS603で検索された領域の位置情報を取得し、失敗顔画像の位置情報としてメモリ120に登録する。   In step S604, the face position acquisition unit 240 acquires the position information of the area searched in step S603 and registers it in the memory 120 as the position information of the failed face image.

ステップS605において、並び替え手段250はメモリ120から顔画像の位置情報を読み出し、顔画像と失敗顔画像のレイアウトを決定する。   In step S605, the rearranging unit 250 reads the position information of the face image from the memory 120, and determines the layout of the face image and the failed face image.

図4に、メモリ120に登録された、ステップS601で認識された顔画像と、ステップS603で推測された失敗顔画像を示す。画像データ300のうち点線の矩形枠401で囲まれた領域が顔画像または失敗顔画像である。   FIG. 4 shows the face image recognized in step S601 registered in the memory 120 and the failed face image estimated in step S603. An area surrounded by a dotted rectangular frame 401 in the image data 300 is a face image or a failed face image.

ステップS606において、画像表示制御手段210はステップS605で決定されたレイアウトにしたがって顔画像と失敗顔画像を並べて表示装置150に表示させる。ここで、顔画像や失敗顔画像は画像データから切り出されたサイズよりも大きく所定の倍率で拡大して表示するようにしてもよい。また、顔画像や失敗顔画像は互いのサイズが等しくになるように調整してから表示するようにしてもよい。   In step S606, the image display control unit 210 causes the display device 150 to display the face image and the failed face image side by side according to the layout determined in step S605. Here, the face image and the failed face image may be enlarged and displayed at a predetermined magnification larger than the size cut out from the image data. Further, the face image and the failed face image may be displayed after being adjusted so that their sizes are equal.

ステップS606での表示例を図5(a)あるいは(b)に示す。図5(a)では、元画像データが表示された画面とは独立した別の画面に、顔画像や失敗顔画像がステップS605で決定されたレイアウトにしたがって並べて表示されている。図5(b)では元画像データの上に重ねて顔画像や失敗顔画像がステップS605で決定されたレイアウトにしたがって並べて表示されている。このようにして、顔画像や失敗顔画像を拡大表示することで、ユーザは各人物の顔の映り具合を詳細に確認することができる。   A display example in step S606 is shown in FIG. In FIG. 5A, the face image and the failed face image are displayed side by side according to the layout determined in step S605 on another screen independent of the screen on which the original image data is displayed. In FIG. 5B, the face image and the failed face image are displayed side by side in accordance with the layout determined in step S605 over the original image data. Thus, by enlarging and displaying the face image and the failed face image, the user can confirm in detail the appearance of each person's face.

なお、ステップS601で認識された顔画像と、ステップS603で推測された失敗顔画像とを区別して表示するようにしてもよい。例えば、顔画像や失敗顔画像の近傍にアイコンを表示したり、顔画像と失敗顔画像とで矩形の色や線の種類を変えたりすることが考えられる。これにより、目を瞑ったり、横を向いたりして顔認識されない状態で撮影された人物は撮影失敗であることが多いので、ユーザは失敗の可能性のある顔を認識しやすくなる。   Note that the face image recognized in step S601 and the failed face image estimated in step S603 may be displayed separately. For example, an icon may be displayed near the face image or the failed face image, or the color of the rectangle or the line type may be changed between the face image and the failed face image. As a result, since a person who is photographed in a state where his / her face is not recognized by facing his / her eyes or facing sideways, it is likely that the user has failed to shoot, so the user can easily recognize a face that may fail.

また、ステップS603で推測された失敗顔画像だけを画面に表示するようにしてもよい。失敗顔画像だけを選択的に表示することで、ユーザは集中的に失敗の可能性の高い顔画像を確認することができ、作業にかかる時間を短縮することができる。   Further, only the failed face image estimated in step S603 may be displayed on the screen. By selectively displaying only the failed face images, the user can intensively confirm the face images that have a high possibility of failure, and the time required for the work can be shortened.

また、ステップS601で、複数種類の条件で顔認識を行った場合にいくつかの条件を満たさなかったために顔認識されなかった領域を顔候補画像としてメモリ120に記憶しておくようにしてもよい。例えば、ある領域の画素について肌色認識はされたが、瞳認識がされなかったため顔認識されなかった領域などである。そして、ステップS603で失敗顔画像検出手段230は、顔候補画像の位置と推測された位置とを比較して互いに重なり合った場合に、顔候補画像が存在する領域を失敗顔画像が存在する領域として推測するようにしてもよい。位置の条件と顔認識の条件の両方を用いて推測することにより、顔画像が存在すると推測した結果の正確性が上がることになる。   In step S601, when face recognition is performed under a plurality of types of conditions, an area that is not face-recognized because some conditions are not satisfied may be stored in the memory 120 as a face candidate image. . For example, the skin color recognition is performed for pixels in a certain area, but the face recognition is not performed because the pupil recognition is not performed. In step S603, the failed face image detection unit 230 compares the position of the face candidate image with the estimated position and overlaps each other, and the area where the face candidate image exists is set as the area where the failed face image exists. You may make it guess. By estimating using both the position condition and the face recognition condition, the accuracy of the result of estimating that the face image exists is improved.

以上のようにして、本実施例によれば、撮影された顔が画像全体の中での位置関係を保った状態で表示されるので、ユーザは顔のそれぞれが画像全体の中でどの位置に存在するのかを容易に認識できるようになる。   As described above, according to the present embodiment, the photographed face is displayed in a state in which the positional relationship in the entire image is maintained, so that the user can locate each face in the entire image. It becomes easy to recognize whether it exists.

(実施例2)
大人数の集合写真の場合、画像データに多くの顔画像が存在するので一度に全てを表示してしまうと、煩雑かつ見づらくなってしまう。そこで、本実施例では、画像データに含まれる顔画像を画像データでの位置関係を保った状態でグループ毎に画面に表示する場合について説明する。以下では上記実施例1と同様の部分については説明を省略し、本実施例に特有の部分について詳細に説明する。
(Example 2)
In the case of a group photo with a large number of people, there are many face images in the image data, so if all of them are displayed at once, it will be cumbersome and difficult to see. Therefore, in this embodiment, a case will be described in which a face image included in image data is displayed on the screen for each group in a state where the positional relationship in the image data is maintained. In the following, description of parts similar to those of the first embodiment will be omitted, and parts unique to the present embodiment will be described in detail.

本実施例の画像処理装置は図7に示すようなモジュール構成を有し、グループ作成手段710や人数計測手段720を備える。   The image processing apparatus according to this embodiment has a module configuration as shown in FIG.

上述したステップS604の後、人数計測手段720はステップS601で認識された顔画像の数とステップS603で検出された失敗顔画像の数との合計を算出し、所定の人数より大きいかどうか判定する。合計が所定の人数より大きいと判定された場合、グループ作成手段710は、顔画像および失敗画像をそれぞれの位置情報にしたがって自動的にグルーピングする。   After step S604 described above, the number counting unit 720 calculates the sum of the number of face images recognized in step S601 and the number of failed face images detected in step S603, and determines whether the number is larger than the predetermined number. . When it is determined that the total is larger than the predetermined number of people, the group creating unit 710 automatically groups the face image and the failed image according to the respective position information.

例えば、顔画像および失敗画像の合計が20人より大きいと判定された場合に、図8に示すように横一列毎にグルーピングを行う。顔画像および失敗画像は位置情報のY座標の値によってどの列に属するかを判別できる。また、横一列に限らず、所定のエリア毎にグルーピングを行うようにしてもよい。   For example, when it is determined that the sum of face images and failure images is greater than 20, grouping is performed for each horizontal row as shown in FIG. Which face image and failure image belong to can be determined by the value of the Y coordinate of the position information. Further, the grouping is not limited to one horizontal row, but may be performed for each predetermined area.

そして、グルーピングによって生成された各グループを順に表示装置150に表示する。ユーザによる入力装置140の操作に応答してグループを切替えて表示するようにしてもよいし、所定の時間が経過すると自動的にグループを切替えて表示するようにしてもよい。   Then, each group generated by the grouping is displayed on the display device 150 in order. The group may be switched and displayed in response to the operation of the input device 140 by the user, or the group may be automatically switched and displayed when a predetermined time has elapsed.

本実施例によれば、顔画像や失敗画像を複数のグループに分類し、グループ毎に表示することで、ユーザは顔のそれぞれが見やすくなり、また、画像全体の中でどの位置に存在するのかを認識できる。   According to the present embodiment, by classifying face images and failure images into a plurality of groups and displaying them for each group, the user can easily see each face, and in which position in the entire image the user is located. Can be recognized.

本発明の一実施例におけるコンピュータ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the computer apparatus in one Example of this invention. 本発明の一実施例における画像処理装置のモジュール構成を示すブロック図である。It is a block diagram which shows the module structure of the image processing apparatus in one Example of this invention. 本発明の一実施例における集合写真の画像データを示す図である。It is a figure which shows the image data of the group photograph in one Example of this invention. 本発明の一実施例における画像データに含まれる顔画像の位置を示す図である。It is a figure which shows the position of the face image contained in the image data in one Example of this invention. 本発明の一実施例における画像データに含まれる顔画像の表示例を示す図である。It is a figure which shows the example of a display of the face image contained in the image data in one Example of this invention. 本発明の一実施例における画像処理装置の動作を示すフローチャート図である。It is a flowchart figure which shows operation | movement of the image processing apparatus in one Example of this invention. 本発明の一実施例における画像処理装置のモジュール構成を示すブロック図である。It is a block diagram which shows the module structure of the image processing apparatus in one Example of this invention. 本発明の一実施例における画像データに含まれる顔画像のグループの例を示す図である。It is a figure which shows the example of the group of the face image contained in the image data in one Example of this invention.

符号の説明Explanation of symbols

100 CPU
110 表示メモリ
120 メモリ
130 外部記憶装置
140 入力装置
150 表示装置
100 CPU
110 Display Memory 120 Memory 130 External Storage Device 140 Input Device 150 Display Device

Claims (9)

画像データから顔画像を認識する顔認識手段と、
前記顔画像の位置を取得する取得手段と、
前記顔画像の位置にしたがって前記顔画像のレイアウトを決定する決定手段と、
前記レイアウトにしたがって前記顔画像を並べて表示装置に表示させる表示制御手段とを備えたことを特徴とする画像処理装置。
Face recognition means for recognizing a face image from image data;
Obtaining means for obtaining the position of the face image;
Determining means for determining a layout of the face image according to a position of the face image;
An image processing apparatus comprising: display control means for arranging the face images according to the layout and displaying the face images on a display device.
前記顔画像の位置にしたがって、前記顔認識手段により認識されなかった失敗顔画像を検出する検出手段を更に備え、
前記決定手段はさらに前記失敗顔画像の位置にしたがって前記失敗顔画像のレイアウトを決定し、前記表示制御手段は前記レイアウトにしたがって前記失敗画像を並べて前記表示装置に表示させることを特徴とする請求項1記載の画像処理装置。
Detecting means for detecting a failed face image not recognized by the face recognition means according to the position of the face image;
The determination means further determines a layout of the failed face image according to a position of the failed face image, and the display control means arranges the failed images according to the layout and displays them on the display device. The image processing apparatus according to 1.
前記表示制御手段は前記顔画像および前記失敗顔画像を互いに区別して前記表示装置に表示させることを特徴とする請求項2記載の画像処理装置。   3. The image processing apparatus according to claim 2, wherein the display control unit distinguishes the face image and the failed face image from each other and displays them on the display device. 前記顔認識手段は複数の条件の全てを満たす領域について顔画像として認識し、前記条件の一部を満たした領域を顔候補画像として登録する登録手段をさらに備え、
前記検出手段はさらに前記登録手段に登録された顔候補画像にしたがって前記検出を行うことを特徴とする請求項2または3記載の画像処理装置。
The face recognition means further comprises a registration means for recognizing an area that satisfies all of a plurality of conditions as a face image and registering an area that satisfies a part of the conditions as a face candidate image,
The image processing apparatus according to claim 2, wherein the detection unit further performs the detection according to a face candidate image registered in the registration unit.
前記表示制御手段は前記顔画像を所定の倍率で拡大して前記表示装置に表示させることを特徴とする請求項1乃至4記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the display control unit enlarges the face image at a predetermined magnification and displays the face image on the display device. 前記顔画像の位置にしたがって顔画像のグループを作成するグループ作成手段をさらに備え、
前記表示制御手段は前記グループ毎に前記顔画像を前記表示装置に表示させることを特徴とする請求項1乃至5記載の画像処理装置。
Further comprising group creation means for creating a group of face images according to the position of the face image;
6. The image processing apparatus according to claim 1, wherein the display control unit displays the face image on the display device for each group.
前記顔画像の数を計測する計測手段をさらに備え、
前記顔画像の数が所定の数より大きい場合に、前記グループ作成手段は前記グループを作成することを特徴とする請求項6記載の画像処理装置。
A measuring means for measuring the number of the face images;
The image processing apparatus according to claim 6, wherein the group creating unit creates the group when the number of the face images is larger than a predetermined number.
画像データから顔画像を認識するステップと、
前記顔画像の位置を取得するステップと、
前記顔画像の位置にしたがって前記顔画像のレイアウトを決定するステップと、
前記レイアウトにしたがって前記顔画像を並べて表示装置に表示させるステップとを備えたことを特徴とする画像処理装置の制御方法。
Recognizing a face image from image data;
Obtaining a position of the face image;
Determining the layout of the face image according to the position of the face image;
And a step of displaying the face images side by side according to the layout on a display device.
コンピュータに
画像データから顔画像を認識するステップと、
前記顔画像の位置を取得するステップと、
前記顔画像の位置にしたがって前記顔画像のレイアウトを決定するステップと、
前記レイアウトにしたがって前記顔画像を並べて表示装置に表示させるステップとを実行させることを特徴とするプログラム。
Recognizing a face image from image data on a computer;
Obtaining a position of the face image;
Determining the layout of the face image according to the position of the face image;
And causing the display device to display the face images side by side according to the layout.
JP2007322426A 2007-12-13 2007-12-13 Image processing apparatus, control method therefor, and program Expired - Fee Related JP4991510B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007322426A JP4991510B2 (en) 2007-12-13 2007-12-13 Image processing apparatus, control method therefor, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007322426A JP4991510B2 (en) 2007-12-13 2007-12-13 Image processing apparatus, control method therefor, and program

Publications (3)

Publication Number Publication Date
JP2009147644A true JP2009147644A (en) 2009-07-02
JP2009147644A5 JP2009147644A5 (en) 2011-01-20
JP4991510B2 JP4991510B2 (en) 2012-08-01

Family

ID=40917757

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007322426A Expired - Fee Related JP4991510B2 (en) 2007-12-13 2007-12-13 Image processing apparatus, control method therefor, and program

Country Status (1)

Country Link
JP (1) JP4991510B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160078878A (en) * 2014-12-25 2016-07-05 가시오게산키 가부시키가이샤 Image processing apparatus, image processing method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006121661A (en) * 2004-09-22 2006-05-11 Fuji Photo Film Co Ltd Synthesized image generation method and apparatus, and program
JP2006140695A (en) * 2004-11-11 2006-06-01 Konica Minolta Photo Imaging Inc Imaging apparatus
JP2006309661A (en) * 2005-05-02 2006-11-09 Fuji Photo Film Co Ltd Image reproducing apparatus and image reproducing program
JP2007036603A (en) * 2005-07-26 2007-02-08 Noritsu Koki Co Ltd Print preparation device
JP2007249527A (en) * 2006-03-15 2007-09-27 Omron Corp Image editing device, image editing method and image editing program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006121661A (en) * 2004-09-22 2006-05-11 Fuji Photo Film Co Ltd Synthesized image generation method and apparatus, and program
JP2006140695A (en) * 2004-11-11 2006-06-01 Konica Minolta Photo Imaging Inc Imaging apparatus
JP2006309661A (en) * 2005-05-02 2006-11-09 Fuji Photo Film Co Ltd Image reproducing apparatus and image reproducing program
JP2007036603A (en) * 2005-07-26 2007-02-08 Noritsu Koki Co Ltd Print preparation device
JP2007249527A (en) * 2006-03-15 2007-09-27 Omron Corp Image editing device, image editing method and image editing program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160078878A (en) * 2014-12-25 2016-07-05 가시오게산키 가부시키가이샤 Image processing apparatus, image processing method, and program
JP2016122356A (en) * 2014-12-25 2016-07-07 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
US10043299B2 (en) 2014-12-25 2018-08-07 Casio Computer Co., Ltd. Image processing apparatus for generating a new moving image from a moving image
KR102421994B1 (en) 2014-12-25 2022-07-18 가시오게산키 가부시키가이샤 Image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP4991510B2 (en) 2012-08-01

Similar Documents

Publication Publication Date Title
US20170139476A1 (en) User input processing with eye tracking
CN111212594B (en) Electronic device and method for determining conjunctival congestion degree by using electronic device
JP6957993B2 (en) Information processing programs, information processing devices, and information processing methods that estimate the level of confidence in the user&#39;s answer.
CN110007832B (en) Information terminal device, information processing system, and computer-readable non-transitory storage medium storing display control program
JP2021144752A (en) Imaging device, control method of imaging device, and program
US20100080490A1 (en) Apparatus and method for processing image
JP2016220145A (en) Image analyzer, image analysis method and program
US10860176B2 (en) Image control method and device
EP3485423A1 (en) Method and system for smart group portrait
JP4991510B2 (en) Image processing apparatus, control method therefor, and program
CN114746893A (en) Information processing apparatus and method, guidance system and method
JP5376403B2 (en) Video display device and program
JP5448952B2 (en) Same person determination device, same person determination method, and same person determination program
US20220269396A1 (en) Dynamic targeting of preferred objects in video stream of smartphone camera
JP2017199148A (en) Visual line detection device, visual line detection method and visual line detection-purpose computer program
JP2013182450A (en) Location management program and location management device
JP2009003842A (en) Image processor and image processing method
JP2007306463A (en) Trimming supporting method, apparatus, and program
JP2019186591A (en) Information processing apparatus, image display method, computer program, and memory medium
JP4972013B2 (en) Information presenting apparatus, information presenting method, information presenting program, and recording medium recording the program
US10922864B2 (en) Image processing device, image processing method and program, for object detection in an image
JP2018092507A (en) Image processing apparatus, image processing method, and program
CN112971712A (en) Biological information acquisition device, terminal device, acquisition method, and recording medium
JP2017207972A (en) Image processing device, image processing method, and program
JP2006350642A (en) Image processing device and program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101126

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111213

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120403

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120507

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees