JP5128880B2 - Image handling device - Google Patents

Image handling device Download PDF

Info

Publication number
JP5128880B2
JP5128880B2 JP2007223904A JP2007223904A JP5128880B2 JP 5128880 B2 JP5128880 B2 JP 5128880B2 JP 2007223904 A JP2007223904 A JP 2007223904A JP 2007223904 A JP2007223904 A JP 2007223904A JP 5128880 B2 JP5128880 B2 JP 5128880B2
Authority
JP
Japan
Prior art keywords
image
person
face
search
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007223904A
Other languages
Japanese (ja)
Other versions
JP2009059042A (en
Inventor
修 野中
猛士 鈴木
裕司 宮内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Olympus Imaging Corp
Original Assignee
Olympus Corp
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp, Olympus Imaging Corp filed Critical Olympus Corp
Priority to JP2007223904A priority Critical patent/JP5128880B2/en
Publication of JP2009059042A publication Critical patent/JP2009059042A/en
Application granted granted Critical
Publication of JP5128880B2 publication Critical patent/JP5128880B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、撮影された人物画像を、他の画像を利用して特定するため画像取扱装置に関し、詳しくは、撮影された人物等が誰と一緒に撮影されているかを判定することによって、人と人の関係等を類推して、被写体の人間関係よりその人を特定することの可能な画像取扱装置に関する。 The present invention, a person image photographed relates to image handling equipment to identify using other image, particularly, by determining person or the like taken are taken together with someone , by analogy to human and human relations such relates to image handling equipment possible to identify the person from the relationships of the subject.

近年、デジタルカメラが扱えるメモリ容量が大きくなる傾向にあり、数年分もの画像が、カメラ内部に蓄積可能となっている。また、デジタル化された画像は、インターネットなどを介して、外部に出力することもでき、逆に、外部から画像を取得して、様々な用途に利用することも可能となっている。 In recent years, the memory capacity that a digital camera can handle tends to increase, and images for several years can be stored in the camera. In addition, the digitized image can be output to the outside via the Internet or the like, and conversely, the image can be acquired from the outside and used for various purposes.

こうした状況下においては、自分が扱える画像が無数にあることから、関連する画像のみを集めて楽しむことが、困難になっている。また、撮影した画像を他者に送信したりするときにも、撮影画像の関係者の特定は重要である。つまり、一緒の写真に写ったことがある人は、その人と面識があると考えられ、送信先の候補となり得る。 Under these circumstances, since there are countless images that can be handled, it is difficult to collect and enjoy only related images. Also, when sending a photographed image to another person, it is important to identify the parties involved in the photographed image. In other words, a person who has been in a photo together is considered to be acquainted with the person and can be a candidate for a destination.

さらに、親戚の家で昔のアルバムなどを見ていると、誰が誰だかわからないので、自分との親戚関係を特定したい場合がある。この場合、写真が若い頃の顔だと分からないことがあり、自分との関係が分からずに親近感が持てないことが多い。しかし、写真に写っているのは、実は祖父の妹だったことが分かると、とたんに親近感を覚えることが多い。また、写真撮影を行った際に、被写体の交友関係がわからず、それを誰に見せてよいか分からない場合がある。 In addition, if you look at old albums at a relative's house, you may not know who is who, so you may want to identify your relatives. In this case, you may not know if the photo is a young face, and you often do not know the relationship with yourself and you are not familiar. However, when I find out that it was actually my grandfather's sister, I often feel close. In addition, when taking a picture, there is a case where the friendship of the subject is not known, and it is not known who can show it.

このように、写真に登場する人物が分からなかったり、また、関係者に画像を見せようと思っても、その関係者が分からないことが多かった。そこで、無数にある画像の中から、関連画像を特定し、その関連画像から類推することが考えられる。関連画像を判定する技術として、例えば、特許文献1には、画像信号から顔の特徴点に基づいて登録されている人物との一致度を判定する電子カメラが提案されている。
特開2007−150604号公報
In this way, there are many cases where the person who appears in the photograph is not known, or even if the person concerned wants to show an image, the person concerned is not known. Therefore, it is conceivable to identify a related image from among countless images and make an analogy from the related image. As a technique for determining a related image, for example, Patent Document 1 proposes an electronic camera that determines the degree of coincidence with a registered person based on facial feature points from an image signal.
JP 2007-150604 A

特許文献1に開示された電子カメラの場合、撮影画像と一致する登場人物を検索することは可能である。しかし、一緒に撮影されている人物等から、その写真の登場人物等が誰かを類推していくことができない。 In the case of the electronic camera disclosed in Patent Document 1, it is possible to search for a character that matches the captured image. However, it is impossible to infer who the characters in the photo are from the people photographed together.

本発明は、このような事情を鑑みてなされたものであり、一緒に写っている写真を利用して、人物等が誰かを類推し、人と人との関係に思いを馳せることが可能な画像取扱装置を提供することを目的とする。 This onset Ming, has been made in view of such circumstances, using the photograph that is reflected in together, person or the like is by analogy to someone, it is possible to prominence thoughts on the relationship between the people and the people an object of the present invention is to provide an image handling equipment.

上記目的を達成するため第の発明に係わる画像取扱装置は、画像を記録する画像記録部と、第1の人物が含まれる第1の画像を指定する画像指定部と、前記第1の画像に対して年齢処理を行う年齢処理部と、前記画像指定部によって指定された第1の人物および前記年齢処理部によって年齢処理された第1の画像と類似する画像が含まれ、かつこの第1の人物以外が存在する第2の画像を、前記画像記録部に記録された前記画像の中から検索する画像検索部と、前記第1の画像および第2の画像を表示する表示部を備える。 In order to achieve the above object, an image handling apparatus according to a first invention includes an image recording unit that records an image, an image designation unit that designates a first image including a first person, and the first image. An age processing unit that performs age processing on the image, a first person specified by the image specifying unit, and an image similar to the first image age-processed by the age processing unit , and the first image An image search unit that searches the image recorded in the image recording unit for a second image in which a person other than the person is present, and a display unit that displays the first image and the second image.

の発明に係わる画像取扱装置は、前記第1の発明において、前記年齢処理部は、前記第1の人物に対して目元や口元に年齢処理を行う。
第3の発明に係わる画像取扱装置は、前記第2の発明において、前記年齢処理部は、前記第1の人物に対して、前記年齢処理として、加齢サインをなくす処理を行う。
In the image handling apparatus according to a second aspect of the present invention, in the first aspect, the age processing unit performs an age process on the eyes and mouth of the first person.
In the image handling apparatus according to a third aspect, in the second aspect, the age processing unit performs a process of eliminating an aging sign as the age process for the first person.

本発明によれば、一緒に写っている写真を利用して、人物等が誰かを類推し、人と人との関係に思いを馳せることが可能な画像取扱装置を提供することができる。 According to the present invention, it is possible to use a photo that is reflected in together, person or the like is by analogy to someone, to provide an image handling equipment that can wins thoughts on the relationship between people and people.

以下、図面に従って本発明を適用したデジタルカメラを用いて好ましい実施形態及びこれに関連する技術について説明する。本発明の実施形態に係るデジタルカメラは、概略、レリーズ釦の操作に応じて、撮像素子で取得した被写体像の画像データを記録媒体に記録可能である。また、デジタルカメラ内には、被写体画像の顔を検出する機能があり、さらに、若い頃の画像を生成する機能も有する。そして、記録部に記録されている多数の画像データから、検出された顔(場合によって若返させた画像)に類似する画像を検索する機能を有している。なお、記録されている画像のほか、インターネット網を通じて外部のサーバーに蓄積されている画像の中から検索することも可能としている。 Hereinafter, a preferred embodiment and a technology related thereto will be described using a digital camera to which the present invention is applied according to the drawings. A digital camera according to an embodiment of the present invention can record image data of a subject image acquired by an image sensor on a recording medium, roughly in response to an operation of a release button. Further, the digital camera has a function of detecting the face of the subject image, and further has a function of generating an image of an early age. And it has the function to search the image similar to the detected face (image rejuvenated by the case) from many image data currently recorded on the recording part. In addition to the recorded images, it is also possible to search from images stored in an external server through the Internet network.

本発明の一実施形態を説明するに先だって、本発明に関連する第1技術に係わるデジタルカメラについて詳述する。図1(A)は、本発明に関連する第1技術に係わるデジタルカメラ10のブロック図である。カメラ10の内部には、制御部1、撮像部2、レンズ判定部3、記録部4、画像データベース4b、顔検出部5、操作判定部6、年齢処理部7、表示部8、時計部9、類似検出部11、通信部14が設けられている。 Prior to describing an embodiment of the present invention, a digital camera according to a first technique related to the present invention will be described in detail. FIG. 1A is a block diagram of a digital camera 10 according to the first technique related to the present invention. Inside the camera 10, there are a control unit 1, an imaging unit 2, a lens determination unit 3, a recording unit 4, an image database 4b, a face detection unit 5, an operation determination unit 6, an age processing unit 7, a display unit 8, and a clock unit 9. A similarity detection unit 11 and a communication unit 14 are provided.

制御部1は、MPU(Micro Processing Unit)等によって構成され、前述の撮像部2〜通信部14等の各部と接続されており、これら各部から信号を入力すると共に制御信号を出力し、カメラ10全体を制御する。撮像部2は、被写体像を結像するための撮影レンズを有し、この撮影レンズによって結像された被写体像を光電変換し、画像信号を出力する。 The control unit 1 is configured by an MPU (Micro Processing Unit) or the like, and is connected to each unit such as the imaging unit 2 to the communication unit 14 described above. The control unit 1 inputs a signal from each unit and outputs a control signal. Control the whole. The imaging unit 2 includes a photographing lens for forming a subject image, photoelectrically converts the subject image formed by the photographing lens, and outputs an image signal.

レンズ判定部3は、撮影レンズのズーム位置(焦点距離、ズーム倍率)やピント位置(被写体距離)を判定可能であり、ここで判定されたズーム位置やピント位置の情報は、撮影画像データを記録する際に、併せて記録可能である。また、撮影レンズのピント合わせのための焦点状態の判定も行う。時計部9は、日時を計測する時計であり、記録部4に撮影画像データを記録する際に併せて、この日時情報(時刻情報)の記録が可能である。 The lens determination unit 3 can determine the zoom position (focal length, zoom magnification) and focus position (subject distance) of the photographic lens, and information on the determined zoom position and focus position records photographic image data. Can be recorded at the same time. Also, the focus state for focusing the photographic lens is determined. The clock unit 9 is a clock that measures the date and time, and can record this date and time information (time information) when recording the captured image data in the recording unit 4.

記録部4は、撮像部2によって出力される画像信号に基づく画像データを圧縮処理して記録メディアに記録する。記録部4内の画像データベース4bは、記録されている人物名と顔の情報を対応付けしたデータベースである。画像データベース4bは、例えば、図1(B)のように、誰の顔がどの写真にあるかを、マニュアルで入力してある。図1(B)の例では、Xさんについては、写真M(写真の識別番号であり、数字等で表しても良い)のA部(例えば、左上とか右下等の位置を示す。座標で位置を示すようにしてもよい)や、写真NのB部に写っていることを表している。 The recording unit 4 compresses the image data based on the image signal output by the imaging unit 2 and records it on a recording medium. The image database 4b in the recording unit 4 is a database in which recorded person names and face information are associated with each other. In the image database 4b, for example, as shown in FIG. 1B, who's face is in which photograph is manually input. In the example of Fig. 1B, Mr. X indicates the position of the A part (for example, upper left or lower right) of the photograph M (which is an identification number of the photograph and may be represented by a number). The position may be shown), and it is shown in the B part of the photo N.

また、顔検出部5は、画像の中の、人間の顔特有の陰影を抽出して、撮影画像が顔を含むか、また含むとしたら、画像のどの部分にあるかを判定する。制御部1内の類似検出部11は、顔検出部5によって検出された顔のパターンと、記録部4内の画像データベース4bに記録されている顔のパターンとを比較して、その顔が誰の顔であるか、すなわち、被写体が誰であるかを判定する。 Further, the face detection unit 5 extracts shadows peculiar to the human face in the image, and determines whether the captured image includes a face and, if included, in which part of the image. The similarity detection unit 11 in the control unit 1 compares the face pattern detected by the face detection unit 5 with the face pattern recorded in the image database 4b in the recording unit 4 to determine who the face is. It is determined who the subject is, that is, the subject.

操作判定部6は、カメラ10に設けられている、操作スイッチ、操作ダイヤル等の操作部材の状態を検出し、操作状態を判定する。カメラをユーザーが操作すると、操作判定部6は操作状態を検出し、その結果に応じた撮影や再生の制御を、制御部1が行う。また、年齢処理部7は、画像中に写っている人物に対して、年齢が若いときの表情となるように、目元や口元等に対して年齢処理を行う。 The operation determination unit 6 detects the state of operation members such as operation switches and operation dials provided in the camera 10 to determine the operation state. When the user operates the camera, the operation determination unit 6 detects the operation state, and the control unit 1 controls shooting and reproduction according to the result. In addition, the age processing unit 7 performs age processing on the eyes, the mouth, and the like so that a person appearing in the image has a facial expression when the age is young.

表示部8は、カメラ10の背面に設けられており、撮像部2から出力された画像データに基づいて被写体像を動画像としてライブビュー表示し、撮影時のファインダ代わりに利用することができる。また、再生釦等の操作に応じて、記録部4の記録メディアに記録されている画像データを読出し、伸張処理した後、表示部8に表示する。さらに、表示部8は、後述するように、撮影画像に写っている人物の関係を表示する。通信部14は、ホットスポット等において、インターネット網15を介して、外部サーバー22、他のユーザー23、外部記録21と、顔特徴信号20や画像データ等の送受信を行う。 The display unit 8 is provided on the back surface of the camera 10 and can display a subject image as a moving image based on the image data output from the imaging unit 2 and use it as a viewfinder at the time of shooting. Further, the image data recorded on the recording medium of the recording unit 4 is read in accordance with the operation of the playback button and the like, and after being expanded, displayed on the display unit 8. Further, the display unit 8 displays the relationship between the persons shown in the captured image, as will be described later. The communication unit 14 transmits and receives facial feature signals 20 and image data to and from the external server 22, another user 23, and the external recording 21 via the Internet 15 at a hot spot or the like.

前述の制御部1は、上述の出力を有効利用して、画像を分類することができる。ここで、分類とは、撮影画像に誰が写っているかという分類であり、総ての人の顔データを画像データベース4bに持たせるわけには行かないので、本技術においては、どの人とどの人が、交友関係にあるかを、調べることによって、その被写体の人物を判定するようにしている。 The above-described control unit 1 can classify images by effectively using the above-described output. Here, classification and is a classification that Who is reflected in the photographic image, because not go to not to have a face data of all of the people in the image database 4b, in this technology, any person with any person However, the person of the subject is determined by checking whether or not they are in a friendship relationship.

つまり、検索対象の人物が写っている画像を指定すると(例えば、図1の画像51)、制御部1(類似検出部11も含む)は、その人が誰と一緒に写っているかを判定し、指定したAさんの画像51に対して、Aさんが写っているが、他の人も写っている画像52、53、54を、順次、検索して表示する。 That is, when an image in which a person to be searched is shown (for example, the image 51 in FIG. 1), the control unit 1 (including the similarity detection unit 11) determines with whom the person is shown. The images 52, 53, and 54 in which Mr. A is reflected in the designated image 51 of A but other people are also sequentially retrieved and displayed.

この表示から、Aさんが、どのような交友関係にあるかを一目で分かる。ユーザーは、この表示から、いろいろな人のことを思い出して、思いを馳せることが可能となる。指定した人物は(図1(A)ではAさん)、表情や顔の角度によって、別人に見えることがあるので、図1(A)の画像51のように、複数の画像を指定した方が、検出精度は上がる。 From this display, you can see at a glance what kind of friendship Mr. A has. From this display, the user can remember various people and think about it. The designated person (Mr. A in FIG. 1 (A)) may be seen by another person depending on the expression and the angle of the face. Therefore, it is better to designate a plurality of images like the image 51 in FIG. 1 (A). , Detection accuracy goes up.

カメラ内の記録部4に記録された画像では、類似画像が検索されない場合には、カメラ外部の外部記録部21に記録されている画像までも検索してもよい。また、外部サーバー22に顔特徴信号20を出力して、検索の一部またはすべてを手伝わせても良い。もちろん、表示部8に示したような検索結果を、外部ユーザー23が閲覧できるようにし、ユーザー間で楽しむことができるようにしても良い。このようにして検索できた画像を用いて、この画像を楽しむ仲間を決めることができる。 In a case where a similar image is not searched for in an image recorded in the recording unit 4 in the camera, an image recorded in the external recording unit 21 outside the camera may be searched. Further, the face feature signal 20 may be output to the external server 22 to help part or all of the search. Of course, the search result as shown on the display unit 8 may be viewed by the external user 23 and enjoyed among the users. By using the image that can be searched in this way, it is possible to determine a friend who enjoys this image.

次に、制御部1によって行われる関係者検索の表示について、図2のフローチャートを用いて説明する。まず、関係者検索を行いたい人物(例えば、Aさん)等の画像を指定する(S1)。このステップから、人物(Aさん)の交友関係を探す検索を行う準備を、ユーザーに行わせる。ここでの指定では、1枚の画像でもよいが、図1の画像51のように、複数選択することにより検索精度を高めることができる。続いて、顔検索を開始する(S2)。すなわち、ステップS1において指定された顔の画像と類似する画像を、記録部4に記録されている画像データや、また、場合によっては外部記録部21に記録されている画像データの中から検索する。 Next, the display of the party search performed by the control unit 1 will be described with reference to the flowchart of FIG. First, an image of a person (for example, Mr. A) who wants to perform a related person search is designated (S1). From this step, the user is prepared to perform a search for searching for a friendship relationship between the person (Mr. A). In this specification, one image may be used, but the search accuracy can be improved by selecting a plurality of images as shown in the image 51 in FIG. Subsequently, a face search is started (S2). That is, an image similar to the face image specified in step S1 is searched from the image data recorded in the recording unit 4 or, in some cases, the image data recorded in the external recording unit 21. .

次に、記録部4や外部記録部2に記録されている全て顔の画像について、人物(例えば、Aさん)の顔と類似する画像があるか否かについて検索が終了したかを判定する(S3)。判定の結果、全ての画像データについて検索が終了していない場合には、検索を続行し、同じ顔の有る画像が存在するか否かの判定を行う(S11)。判定の結果、同じ顔のある画像が存在しない場合には、ステップS3に戻り、例えばAさんのある画像の検索を続行する。 Next, with respect to all face images recorded in the recording unit 4 and the external recording unit 2, it is determined whether or not the search has been completed as to whether there is an image similar to the face of a person (for example, Mr. A) ( S3). As a result of the determination, if the search has not been completed for all the image data, the search is continued and it is determined whether there is an image having the same face (S11). As a result of the determination, if there is no image with the same face, the process returns to step S3 to continue searching for an image with Mr. A, for example.

ステップS11における判定の結果、同じ顔(例えば、Aさん)のある画像が有った場合には、続いて、その画像の中に複数の人物が写っているかを判定する(S12)。判定の結果、その人物(例えばAさん)しか写っていない場合には、ステップS14にジャンプし、一方、複数人の人物が写っている画像の場合には、検索対象の人物(例えば、Aさん)の隣に写っている顔の画像を仮記憶する(S13)。 If the result of determination in step S11 is that there is an image with the same face (for example, Mr. A), it is subsequently determined whether or not a plurality of persons are shown in the image (S12). As a result of the determination, if only the person (for example, Mr. A) is captured, the process jumps to step S14. On the other hand, if the image includes a plurality of persons, the person to be searched (for example, Mr. A) ) Is temporarily stored (S13).

隣の人物の顔を仮記憶すると、次に、この隣の人物の写っている画像(ステップS12からジャンプしてきた場合には、その画像)を仮記憶する(S14)。仮記憶が終わると、ステップS3に戻り、上述のステップを繰り返す。これらのステップを繰り返すことにより、ステップS1で指定された人物の顔が写っている画像を検索し、その画像を仮記憶するとともに、人物の隣に写っている顔を仮記憶することができる。なお、ステップS13における隣の顔は、直接、隣の人物に限らず、その画像内に写っている顔も仮記憶するようにしてもよい。 If the face of the next person is temporarily stored, next, an image showing the next person (if jumped from step S12, that image) is temporarily stored (S14). When temporary storage ends, the process returns to step S3 and the above steps are repeated. By repeating these steps, it is possible to search for an image in which the face of the person specified in step S1 is shown, temporarily store the image, and temporarily store the face shown next to the person. It should be noted that the next face in step S13 is not limited to the next person, but the face shown in the image may be temporarily stored.

ステップS3における判定の結果、顔の検索が終了すると、すなわち、検索対象人物(例えば、Aさん)の写っている画像で、他の人物も写っている画像を探し終わると、次に、それらの画像から代表画像を選出する準備に入る(S4)。代表画像は、ステップS14で仮記憶していた画像データから、ステップS13の顔データを利用し、隣の人物が同じ人物の場合、その中から、代表画像を選ぶようにする。 As a result of the determination in step S3, when the search for the face is completed, that is, when searching for an image in which the person to be searched (for example, Mr. A) is reflected and other persons are also reflected, Preparations for selecting a representative image from the images are started (S4). For the representative image, the face data in step S13 is used from the image data temporarily stored in step S14, and if the adjacent person is the same person, the representative image is selected from them.

代表画像判定を開始すると(S4)、まず、ステップS14で仮記憶された画像ごとに、顔の大きさで重み付け(適度な大きさが高得点)を行い(S5)、続いて、画像ごとに表情で重み付け(笑顔ほど高得点)を行い(S6)、そして、対象となる顔が画面中央に近いものほど高得点になるような重み付けを行う(S7)。この後、ステップS5〜S7を繰り返し行い、これらのステップで付けられた得点の合計に基づいて、同じ人物が写っている中から代表画像を選択する(S8)。ここで選択された代表画像は、後述するステップS10において、代表画像52(図1参照)として表示される。 When the representative image determination is started (S4), first, for each image temporarily stored in step S14, the face size is weighted (an appropriate size is a high score) (S5), and then for each image. Weighting is performed by facial expression (smile is higher score) (S6), and weighting is performed so that the closer the target face is to the center of the screen, the higher score is obtained (S7). Thereafter, steps S5 to S7 are repeatedly performed, and a representative image is selected from the same person on the basis of the total score given in these steps (S8). The representative image selected here is displayed as a representative image 52 (see FIG. 1) in step S10 described later.

ステップS8において代表画像を選定すると、続いて、全ての代表画像の選定が終了したかを判定する(S9)。すなわち、ステップS13において、仮記憶されている顔の中で同じ顔が他にもある場合には、次の顔について、ステップS4〜S8を繰り返すことにより、次の顔について代表画像を選定する。選定された代表画像は、後述するステップS10において、代表画像53(図1参照)として表示される。図1に示した例では、検索対象の人物(画像51で表示)と関係のある人物は3人おり、代表画像52、53、54として表示される。 When a representative image is selected in step S8, it is subsequently determined whether selection of all representative images has been completed (S9). That is, in step S13, when there is another same face among the temporarily stored faces, a representative image is selected for the next face by repeating steps S4 to S8 for the next face. The selected representative image is displayed as a representative image 53 (see FIG. 1) in step S10 described later. In the example shown in FIG. 1, there are three persons related to the person to be searched (displayed by the image 51), and these are displayed as representative images 52, 53, and 54.

ステップS9において、全代表画像の選定が終わったと判定されると、代表画像52、53、54を表示部8に並べて表示する。もちろん、検索される都度、その画像を未整理で、表示していくような表示方法でもよいが、図1に示した例では、交友関係を整理して表示している。ただし、総ての検索を終了するまで表示が始まらないので、待ちきれないユーザーもいることから、検索の都度、表示を行うようにしてもよい。 If it is determined in step S9 that all representative images have been selected, the representative images 52, 53, and 54 are displayed side by side on the display unit 8. Of course, every time a search is performed, a display method may be used in which the image is displayed unsorted, but in the example shown in FIG. 1, the friendship is organized and displayed. However, since the display does not start until all searches are completed, there are some users who cannot wait, so the display may be performed each time the search is performed.

このように本発明に関連する第1技術においては、検索対象となる人物(図1の代表画像51)と一緒に写っている人物の代表画像52、53、54を並べて表示するようにしている。このため、検索対象となった人物の交友関係等が一目で分かる。また、仮に、検索対象の人物が面識のない人物(画像51の人物)であっても、代表画像52、53、54に表示される人物と面識があれば、これらの関係から検索対象の人物を特定することが可能となる。 As described above, in the first technique related to the present invention , the representative images 52, 53, and 54 of the person shown together with the person to be searched (representative image 51 in FIG. 1) are displayed side by side. . For this reason, the friendship relationship etc. of the person who became the search object can be understood at a glance. Further, even if the person to be searched is a person who is not acquainted (the person in the image 51), if there is an acquaintance with the person displayed in the representative images 52, 53, 54, the person to be retrieved from these relationships Can be specified.

次に、本発明に関連する第2技術について、図3および図4を用いて説明する。第2技術は、第1技術で得た検索対象人物との交友関係を利用して、撮影画像を鑑賞するのに相応しい相手先に画像データの送信を行うものである。第2技術に係わるデジタルカメラ10は第1技術と同様であるので、その説明は省略し、その動作と表示部8における表示方法を中心に説明する。 Next, a second technique related to the present invention will be described with reference to FIGS. The second technique uses the friendship relationship with the search target person obtained by the first technique to transmit image data to a destination suitable for viewing a photographed image. Since the digital camera 10 according to the second technique is the same as that of the first technique , the description thereof is omitted, and the operation and the display method in the display unit 8 will be mainly described.

デジタルカメラ10がパワーオンリセットすると、通常の撮影動作を行う(S31)。この撮影動作では、表示部8におけるライブビュー表示によって被写体のフレーミングを行い、レリーズ釦の操作状態を操作判定部6によって判定し、レリーズ釦の全押しがなされた場合には、撮像部2によって取得した画像データを記録部4に記録する。 When the digital camera 10 is reset to power-on, a normal shooting operation is performed (S31). In this shooting operation, the subject is framed by the live view display on the display unit 8, the operation state of the release button is determined by the operation determination unit 6, and is acquired by the imaging unit 2 when the release button is fully pressed. The recorded image data is recorded in the recording unit 4.

続いて、記録部4に記録された画像データに写っている人物(例えば、Aさん)の顔と類似の画像の検索を行う(S32)。すなわち、Aさんが写っている画像を検索する。次に、検索された画像について、複数の人物の顔が写っている写真か否かの判定を行う(S33)。判定の結果、複数の顔が写っている写真ではない場合には、ステップS31に戻る。 Subsequently, an image similar to the face of a person (for example, Mr. A) in the image data recorded in the recording unit 4 is searched (S32). That is, an image in which Mr. A is shown is searched. Next, it is determined whether or not the retrieved image is a photograph showing a plurality of human faces (S33). As a result of the determination, if the photograph does not show a plurality of faces, the process returns to step S31.

上述のステップS32およびステップS33は、第1技術における関係者検索のフロー(図2)を適用すればよい。ただし、図2に示したフローにおいては、代表画像を表示していたが、このステップは不要である。ステップS33における判定の結果、Aさんと類似の顔が存在する画像の中に複数の顔が写っている場合には、もう一人の顔の画像を抽出する(S34)。 Steps S32 and S33 described above may apply the related party search flow (FIG. 2) in the first technique . However, in the flow shown in FIG. 2, the representative image is displayed, but this step is not necessary. If the result of determination in step S33 is that there are a plurality of faces in an image having a face similar to Mr. A, another face image is extracted (S34).

次に、抽出された顔について、画像データベース4bに登録されているか否かを判定する(S35)。すなわち、Aさん以外のもう一人の顔が検出され、その人物の顔画像が、図1(B)に示すデータベース(画像データベース4bに対応)に登録されているか否かを判定する。判定の結果、登録されていた場合には、登録されている人物(図1(B)におけるXさんやYさん)に、画像送信の候補として記録する(S36)。 Next, it is determined whether or not the extracted face is registered in the image database 4b (S35). That is, another face other than Mr. A is detected, and it is determined whether or not the person's face image is registered in the database (corresponding to the image database 4b) shown in FIG. If it is registered as a result of the determination, it is recorded as a candidate for image transmission in the registered person (Mr. X and Mr. Y in FIG. 1B) (S36).

この後、図示されていないが、ユーザーの選択により、Aさんの写っている画像を、送信先の候補として挙げられた相手先に送信すれば、相手先は送信者と共にAさんの近況を楽しむことができる。このとき、画像データベース4bにメールアドレスも記述されていれば、わざわざ、送信先は誰と誰かを、考えなくとも、コミュニティのようなものを形成して、その輪の中で楽しむことが可能となる。 After this, although not shown in the figure, if the image of Mr. A is sent to the other party listed as a destination candidate by the user's selection, the other party enjoys the recent situation of Mr. A together with the sender. be able to. At this time, if the e-mail address is also described in the image database 4b, it is possible to form a community and enjoy it in the circle without thinking about who and who the destination is. Become.

例えば、被写体12(Aさん)の画像を撮影した場合、Aさんを知っている人なら、画像を見て楽しめるが、Aさんを知らない人では、誰の写真かも分からず楽しむことができない。そこで、第2技術においては、Aさんの交友関係を、撮影済み画像(記録部4に記録)や、公開されている画像データベース(外部記録部21に記録)から割り出し、これを表示部8に表示するようにしている。 For example, when an image of the subject 12 (Mr. A) is taken, a person who knows Mr. A can view and enjoy the image, but a person who does not know Mr. A cannot understand and enjoy anyone's photo. Therefore, in the second technique , the friendship of Mr. A is determined from a photographed image (recorded in the recording unit 4) or a publicly available image database (recorded in the external recording unit 21), and this is displayed on the display unit 8. It is trying to display.

つまり、Aさん(画像55参照)と一緒に写ったことのあるXさん(画像56、画像58参照)、Yさん(画像57、画像59参照)なら、Aさんのことを知っているはずであり、Aさんの近況を伝えて喜ばれると考えて、本実施形態においては、その人たちにAさんの画像を送信することを可能にしている。 In other words, Mr. X (see image 56 and image 58) and Mr. Y (see image 57 and image 59) who have been photographed with Mr. A (see image 55) should know Mr. A. In the present embodiment, it is possible to transmit Mr. A's image to those people, thinking that the present condition of Mr. A will be appreciated.

次に、本発明の実施形態について図5乃至図8を用いて説明する。本発明に関連する第1および第2技術においては、検索対象の人物と一緒に写っている人物等の検索を行っていたが、本発明の一実施形態においては、検索対象の人物と一緒に写っている人物に限らず、写っていた人物と一緒に写っている人物等、連鎖的に関係者を検索するようにしている。また、本発明の一実施形態においては、顔画像に対して年齢処理を行うことにより、世代を超えた検索ができるようにようしている。本実施形態に係わるデジタルカメラ10は第1技術と同様であるので、その詳しい説明は省略し、その動作と表示部8における表示方法を中心に説明する。なお、図5に示すフローチャートは、制御部1(図1参照)によって実行される。 Next, an embodiment of the present invention will be described with reference to FIGS. In the first and second techniques related to the present invention , a search is performed for a person or the like that is shown together with a person to be searched. However, in one embodiment of the present invention, a search is performed together with a person to be searched. The related parties are searched in a chained manner, such as a person who is shown with a person who is shown in the picture, as well as a person who is shown in the picture. In one embodiment of the present invention, age processing is performed on a face image so that a search beyond generations can be performed. Since the digital camera 10 according to the present embodiment is the same as that of the first technique , a detailed description thereof is omitted, and the operation and the display method in the display unit 8 will be mainly described. The flowchart shown in FIG. 5 is executed by the control unit 1 (see FIG. 1).

まず、ステップS1と同様に、関係者検索を行いたい人物(例えば、Aさん)等の画像51(図6参照)を指定する(S51)。この指定画像は、1枚の画像でもよいが、複数選択することにより検索精度を高めることができる。続いて、ステップS2と同様に、指定画像の中の顔部を検出し、同じ顔の画像を記録部4や外部記録部21に記録されている画像データの中から、指定画像と類似する画像を検索する(S52)。 First, as in step S1, an image 51 (see FIG. 6) such as a person (for example, Mr. A) who wants to perform a related person search is designated (S51). The designated image may be a single image, but the search accuracy can be improved by selecting a plurality of images. Subsequently, as in step S2, a face in the designated image is detected, and an image similar to the designated image is detected from the image data recorded in the recording unit 4 or the external recording unit 21 with the same face image. Is searched (S52).

続いて、類似画像の画像データの中に、複数の顔画像を有するか否かを判定する(S53)。判定の結果、複数の顔画像を有している場合には、その画像52を指定画像51に隣接して表示する(S54)。続いて、ユーザーが候補を変更したか否かの判定を行う(S55)。すなわち、複数の顔が写っている画像52が検索されると、その画像52がステップS54において、もとの指定画像51に隣接して表示される。この画像52から交友関係が分かり、ユーザーが画像52に登場する人物に興味を持つ場合には、候補の変更を操作部材によって指示する。 Subsequently, it is determined whether or not the image data of the similar image has a plurality of face images (S53). As a result of the determination, if there are a plurality of face images, the image 52 is displayed adjacent to the designated image 51 (S54). Subsequently, it is determined whether or not the user has changed the candidate (S55). That is, when an image 52 having a plurality of faces is searched, the image 52 is displayed adjacent to the original designated image 51 in step S54. If the friendship relationship is known from the image 52 and the user is interested in the person appearing in the image 52, the operation member instructs to change the candidate.

ステップS55における判定の結果、候補の変更がなされた場合には、もとの指定画像51から、検索の顔を画像52に変更する(S56)。続いて、画像52から新しい候補の画像53を検索し、画像52の下に表示する(S57)。そして、ステップS52に戻り、この新しい候補(指定画像53)について、前述と同様のステップを処理することにより、類似の顔が存在するか否かを検索し、図6に示すように、画像54等を表示する。 If the result of determination in step S55 is that the candidate has been changed, the search face is changed to the image 52 from the original designated image 51 (S56). Subsequently, a new candidate image 53 is searched from the image 52 and displayed below the image 52 (S57). Then, the process returns to step S52, and the same step as above is processed for this new candidate (designated image 53) to search whether a similar face exists, and as shown in FIG. Etc. are displayed.

このように、ステップS52乃至ステップS57を繰り返すことにより、指定画像51から始まって連鎖的に関係者を順次、検索し表示することができる。この間、ステップS53において、複数の顔のある写真を発見できなかった場合、またはステップS55において、候補の変更を行わなかった場合には、記録部4や外部記録部21記録されている全ての画像データについて検索が終了したか否かの判定を行う(S61)。 In this way, by repeating steps S52 to S57, it is possible to search and display related parties sequentially in a chain starting from the designated image 51. During this time, if a photograph with a plurality of faces cannot be found in step S53, or if the candidate is not changed in step S55, all images recorded in the recording unit 4 and the external recording unit 21 are displayed. It is determined whether or not the search has been completed for the data (S61).

ステップS61における判定の結果、全ての画像データについて検索が終了した場合には、本ルーチンを終了するが、検索終了していない場合には、検索を続行する。検索を続行するにあたって、候補がなくなってしまったか否かの判定を行う(S62)。判定の結果、候補が有る場合には、ステップS64にジャンプするが、候補がない場合には、年齢処理を行う(S63)。ここで、年齢処理を行うのは、現在、検索している顔画像は、実は、年を取ってからのものであり、若い頃の写真であれば、候補がある場合があることから、顔の画像に年齢処理を施すようにしている。この年齢処理については、図7および図8を用いて後述する。 As a result of the determination in step S61, if the search is completed for all the image data, this routine is ended. If the search is not completed, the search is continued. When continuing the search, it is determined whether or not there are no candidates (S62). As a result of the determination, if there is a candidate, the process jumps to step S64, but if there is no candidate, age processing is performed (S63). Here, the age processing is performed because the currently searched face image is actually old, and there may be candidates if it is a young photograph. Age processing is applied to the images. This age process will be described later with reference to FIGS.

続いて、検索中表示を行う(S64)。検索中表示は、本ルーチンにおいては、類似画像の検索や年齢処理等、処理に時間のかかるステップが多く、表示までに時間がかかってしまい、処理を行っていないように外見上、見える場合があるためである。処理速度が高速で、表示までに時間がかからない場合には、検索中表示を省略することができる。 Subsequently, display during search is performed (S64). In this routine, the search-in-progress display takes many time-consuming steps such as searching for similar images and age processing, and it may take time to display, and may appear to appear as if processing is not performed. Because there is. When the processing speed is high and it does not take time to display, the display during search can be omitted.

図5に示すフローを実行することにより、表示部8に最初の画像51を表示すると、その画像51に写っている人物(Aさん)と他の人が一緒に写った画像(写真)52が表示され、この表示画像52を見て、ユーザーは、Aさんの隣に位置する人物(Bさん)に興味を持つことがある。この場合、操作部材等により所定の操作を行うと、画像53に示すような、Bさんのほかの画像が表示され、Aさんのときと同様、Bさんがどのような交友関係であったかを示す画像54を検索し表示する。さらに、Bさんの隣に位置する人物(Cさん)に興味が移ると、Cさんのほかの画像を検索することが可能となっている。 When the first image 51 is displayed on the display unit 8 by executing the flow shown in FIG. 5, an image (photograph) 52 in which a person (Mr. A) shown in the image 51 and another person are shown together is displayed. The user may be interested in a person (Mr. B) located next to Mr. A by viewing the displayed image 52 displayed. In this case, when a predetermined operation is performed with an operation member or the like, another image of Mr. B as shown in the image 53 is displayed, and as with Mr. A, what kind of friendship relationship is present with Mr. B. The image 54 is retrieved and displayed. Furthermore, if the interest shifts to a person (C) who is located next to B, it is possible to search for other images of C.

このように、Aさんの画像が、誰か分からなくとも、Bさん、Cさんと見ていくうちに、それが誰であるか、また、自分との関係の糸口を掴むことが可能となる。さらに、画像鑑賞を興味深く進めていくことができ、AさんやBさん、Cさんの交遊に思いを馳せながら、画像表示にストーリーを感じながら楽しむことができる。 In this way, even if the image of Mr. A is not known, it is possible to grasp who it is and the clues of the relationship with him while looking at Mr. B and Mr. C. Furthermore, it is possible to proceed with image appreciation with interest, and while enjoying the story of A, B and C, it is possible to enjoy the image while feeling the story.

次に、ステップS63における年齢処理について、図7および図8を用いて説明する。図8(a)に、人の顔に現れる加齢サイン(陰影の特徴)の例を示す。特に、目立つのは、目尻の皺61のたるみ、唇の横の線62、頬63のたるみなどである。このサインを図8(b)→図8(c)と、修正(薄く)していくことによって、顔つきは若い頃のものになる。つまり、年代を遡って検索を行う場合には、年齢による顔つきの変化を考慮して、このような加齢サインを無くしていきながら、検索を行えばよい。 Next, the age process in step S63 will be described with reference to FIGS. FIG. 8A shows an example of an aging sign (shade feature) appearing on a human face. Particularly conspicuous are the slack of the eyelid 61 of the outer corner of the eye, the line 62 of the side of the lips, the slack of the cheek 63, and the like. By correcting (thinning) this sign from FIG. 8 (b) to FIG. 8 (c), the face becomes younger. That is, when performing a search retrospectively, the search may be performed while eliminating such an aging sign in consideration of changes in the face with age.

顔つき補正付き検索のための図7に示す顔つき補正のフローに入ると、まず、顔検出を行うが(S71)、この顔検出にあたっては、円内65付近の明るさを均一化、すなわち、円内65の一番明るい部分、または、面積的に大きい部分の明るさに合わせて、明るさの均一化を行う。続いて、検出された顔の中から、眼、口、頬の部分を検出する(S72)。 When entering the flow of face correction shown in FIG. 7 for search with face correction, first, face detection is performed (S71). In this face detection, the brightness around 65 in the circle is made uniform, that is, a circle. The brightness is made uniform in accordance with the brightness of the brightest portion of the inner 65 or the portion having a larger area. Subsequently, the eyes, mouth, and cheeks are detected from the detected face (S72).

検出された眼等の部分を用いて加齢サインの判定を行うが、その前に、眼鏡をかけているか否かの判定を行う(S73)。これは、眼鏡をかけている人に、このような操作を行うと、眼鏡の縁が不自然になるので、本実施形態においては、顔検出(S71)および顔部分検出(S72)を行った際に、眼の周りにコントラストの高い部分があれば眼鏡をしていると判定している。 The aging sign is determined using the detected part such as the eye, but before that, it is determined whether or not glasses are being worn (S73). This is because, when this operation is performed on a person wearing glasses, the edges of the glasses become unnatural. Therefore, in this embodiment, face detection (S71) and face part detection (S72) are performed. At this time, if there is a high contrast portion around the eye, it is determined that the user is wearing glasses.

ステップS73における判定の結果、眼鏡をかけていた場合には、元のルーチンにリターンし、これらの一連の処理を行わないようにしている。これは、眼鏡をかけることによって加齢サインの表れる部分が隠れるので、あえて、こうした処理を行わなくとも、年齢による誤差は生じにくいと考えてのものである。ただし、眼鏡をかけたりかけなかったりする人は、この検索できない場合がある。これはここでは、制限条件となる。 If the result of determination in step S <b> 73 is that the user is wearing glasses, the routine returns to the original routine, and the series of processing is not performed. This is because the portion where the aging sign appears is hidden by wearing glasses, so it is considered that an error due to age is unlikely to occur without performing such processing. However, a person who wears or does not wear glasses may not be able to search. This is a limiting condition here.

ステップS73における判定の結果、眼鏡をかけていなかった場合には、続いて、加齢サイン判定を行う(S74)。ここではステップS72において、検出された顔部分(目尻の皺61、唇の横の線62、頬63のたるみ)に、加齢サインがあるか否かを判定する。このステップにおける判定の結果、加齢サインがあった場合には(S75→Yes)、写真から得られた検索する年と元データの関係から、どれだけ若返らせるかを決める(S76)。 If the result of determination in step S73 is that no glasses are being worn, aging sign determination is subsequently performed (S74). Here, in step S72, it is determined whether or not there is an aging sign in the detected face portion (sag of eyelid 61, horizontal line 62 of lips, sagging of cheek 63). If the result of determination in this step is that there is an aging sign (S75 → Yes), how much rejuvenation is determined from the relationship between the search year obtained from the photograph and the original data is determined (S76).

続いて、目じり、唇の端、頬輪郭部を含む領域の明るさの均一化を行う(S77)。すなわち、目尻、口の端、頬の輪郭部を含む領域を、回りから不自然にならないように連続的に、かつ、均一になるように明るさを、年度の差に応じて調整する。この領域を回りと同じくらいに明るくすることによって、図8(c)に示すように、若い頃の顔つきに補正することができる。しかし、それほど昔の画像を検索する場合でなければ、わずかにこれを明るくするくらいの顔画像とする。このようにして得られた顔画像を検索時の顔画像に反映させる(S78)。 Subsequently, the brightness of the area including the eyes, the edge of the lips, and the cheek outline is equalized (S77). That is, the brightness is adjusted according to the difference in the year so that the area including the corners of the corners of the eyes, the edges of the mouth, and the cheek outlines is continuously and uniformly so as not to become unnatural from around. By brightening this area as much as the surroundings, it is possible to correct the appearance of a young face as shown in FIG. However, if the old image is not searched, the face image is slightly brightened. The face image obtained in this way is reflected in the face image at the time of search (S78).

ステップS75における判定の結果、加齢サインがない場合には、顔画像の補正を行うことなく、元のルーチンに戻る。本実施形態においては、加齢サインがあるときのみに、この処理を行うことから、所定年代以上の人物に対して年齢処理を施すようにしている。しかし、これに限らず、例えば、データベース4bに年齢の情報も記録するようにしておき、20代、30代の人には、このような年齢処理を行わないようにしてもよい。 If the result of determination in step S75 is that there is no aging sign, the process returns to the original routine without correcting the face image. In this embodiment, since this process is performed only when there is an aging sign, an age process is performed on a person of a predetermined age or older. However, the present invention is not limited to this. For example, age information may also be recorded in the database 4b, and such age processing may not be performed for people in their 20s and 30s.

このように、本発明の一実施形態における年齢処理では、もっと古い時代の写真まで、検索の候補に加え、昔の写真からも交友関係が分かるようにすることができる。年齢処理を施した顔画像補正を行うことにより、世代を超えた検索が可能となり、例えば、最初に指定したAさんの画像から、さらに他の人に思いを馳せた画像鑑賞を楽しむことができる。 As described above, in the age processing according to the embodiment of the present invention, the friendship relationship can be understood from the old photos in addition to the search candidates up to the old age photos. By performing face image correction with age processing, it is possible to search beyond generations, and for example, from the image of Mr. A who was initially designated, it is possible to enjoy image appreciation that is even more thoughtful to other people .

また、本発明の実施形態においては、単に画像がきれいであるとか、表情がすばらしいという楽しみ方ではなく、ある人物が写っている画像から、次々と登場人物を検索し、どのように人と人がつながっているかを調べ、知的な楽しみ方ができるカメラや写真鑑賞システムが可能となる。 Further , in one embodiment of the present invention, it is not a way of enjoying that the image is simply beautiful or the expression is wonderful, but the characters are searched one after another from the image in which a certain person is reflected, and how Cameras and photo appreciation systems that allow people to know how people are connected and enjoy intelligent ways are possible.

次に、本発明に関連する第3技術について、図9乃至図11を用いて説明する。顔画像による人物画像検索では、改まった記念写真などでは有効であるが、スナップ写真のような、身近な写真では、人物の表情によっては、誤検出の虞がある。そこで、ある人物がどのような顔の変化を見せるかの一覧の顔データを得るために、第3技術においては、人物の服装も考慮して顔データベースを作成するようにしている。つまり、パーティや会合など、所定時間内に撮影された画像では、同じ人物は、同じ服装をしていたと考えられることから、服装に着目して顔データベースを作成する。第3技術においても、第1技術と同様のデジタルカメラ10によって構成されるので、相違点を中心に説明する。 Next, a third technique related to the present invention will be described with reference to FIGS. A person image search using a face image is effective for a revised commemorative photo or the like, but a familiar photo such as a snapshot may cause a false detection depending on the facial expression of the person. Therefore, in order to obtain face data of a list of what kind of face a person shows, in the third technique , a face database is created in consideration of the clothes of the person. That is, in images taken within a predetermined time, such as a party or a meeting, it is considered that the same person was wearing the same clothes, so a face database is created focusing on clothes. Since the third technique is constituted by the same digital camera 10 as that of the first technique , the difference will be mainly described.

図10に示す、同じ人物の顔データベース(DB)作成のフローに入ると、まず、ある人物画像を選び、同じ時間帯に撮影された画像を記録部4から集める(S81)。続いて、複数の人物が写っている画像をそこから選ぶ(S82)。そして、各顔の下の色やパターン(服)が、同じ人がいるかどうか判定する(S83)。判定の結果、同じ服の色、パターンがない場合は、服で個人特定が可能であると想定し、同じ服の人は同じ人物に分類する(S84)。すなわち、図9に示すように、同じAさんかどうかを服で判断し、Aさんが、どのような顔の変化をするかを、データ収集するようにしている。 When entering the flow of creating the same person face database (DB) shown in FIG. 10, first, a certain person image is selected, and images taken in the same time zone are collected from the recording unit 4 (S81). Subsequently, an image showing a plurality of persons is selected therefrom (S82). Then, it is determined whether or not there is a person with the same color and pattern (clothes) under each face (S83). As a result of the determination, if there is no color or pattern of the same clothes, it is assumed that individuals can be specified by clothes, and persons with the same clothes are classified into the same person (S84). That is, as shown in FIG. 9, it is determined whether clothes are the same A or not, and data is collected on what kind of face Mr. A changes.

ステップS83における判定の結果、顔の下が同じ服の色で同じパターンであった場合には(S83→有)、この時間帯に撮影された画像に登場する人物は、制服を着用していたと考えられることから、同じ人物の画像か否は、ユーザーが逐次判断することとし、同じ人物の画像をマニュアル選択する(S89)。 As a result of the determination in step S83, if the bottom of the face has the same clothes color and the same pattern (S83 → Yes), the person appearing in the image taken during this time zone is wearing a uniform. Since it is conceivable, the user sequentially determines whether or not the images are the same person, and manually selects the same person image (S89).

同じ時間帯では同じ服を着用していても、他の機会(時間帯)は顔の画像で検索する必要がある。そこで、顔の画像としては多様なパターンをデータベースとして蓄積しておいた方が、より精度の高く確実な検索を行うことができる。第3技術においては、図9に示すように、デジタルカメラ10内の記録部4から抽出した画像を利用して、画像データベース4bに同じ人物の顔パターンを複数持つようにしている。 Even if the same clothes are worn in the same time zone, it is necessary to search for other opportunities (time zones) using facial images. Therefore, it is possible to perform a more accurate and reliable search by storing various patterns as facial images as a database. In the third technique , as shown in FIG. 9, an image extracted from the recording unit 4 in the digital camera 10 is used to have a plurality of face patterns of the same person in the image database 4b.

ステップS84またはステップS89において、分類が終わると、次に、表示部8に同じ人物の画像を、図9の符号4bと表示された部分について、一覧表示する(S85)。この画像の一覧表示をユーザーがチェックし、間違いがなければ、ユーザーが承認操作を行うので、承認がなされたか否かの判定を行う(S86)。判定の結果、承認がなされない場合には、ステップS89に移行して、マニュアルで画像の選択を行う。一方、ステップS86において、ユーザーによって承認された場合には、顔一覧を作成し、この一覧を画像データベース4bに記録する(S87)。 When the classification is completed in step S84 or step S89, next, a list of the images of the same person is displayed on the display unit 8 with respect to the portion indicated by reference numeral 4b in FIG. 9 (S85). The user checks the list display of the images, and if there is no mistake, the user performs an approval operation, so it is determined whether or not the approval has been made (S86). As a result of the determination, if approval is not made, the process proceeds to step S89 and an image is manually selected. On the other hand, if approved by the user in step S86, a face list is created and recorded in the image database 4b (S87).

このように、第3技術においては、人物が着用している服装情報も併用することによって、人物の顔が変化しても、より正確に同一人物か否かを判定することができ、精度の高いデータベースを作成することができる。そして、このデータベースを利用することにより、より確実な顔の類似画像の検索が可能となる。また、ステップS83において、顔の下の服が同じ色でパターンも同じか否かを判定することにより、制服のように、メンバーが同一の服を着用している場合でも、正しく認識し、正確な顔のデータベースを作成することができる。 In this way, in the third technique , it is possible to more accurately determine whether or not the person is the same person even if the face of the person changes by also using clothes information worn by the person. A high database can be created. By using this database, it is possible to search for a similar image of a face with more certainty. Further, in step S83, by determining whether the clothes under the face are the same color and the same pattern, even when the member is wearing the same clothes as in a uniform, it can be recognized correctly and accurately. Can create a database of various faces.

次に、本発明に関連する第3技術における複数の顔データのデータベース4bを利用して、指定画像の人物の顔と類似する画像を検索し、表示することのできるデジタルカメラ10について、図11を用いて説明する。このデジタルカメラ10は、前述したように、図1に示すデジタルカメラ10と同様の構成を有する。 Next, a digital camera 10 that can search for and display an image similar to a person's face in a designated image using the database 4b of a plurality of face data in the third technique related to the present invention will be described with reference to FIG. Will be described. As described above, the digital camera 10 has the same configuration as the digital camera 10 shown in FIG.

まず、デジタルカメラ10の制御部1は、特定された人物(ここでは、Aさん)の画像を指定する。図11(B)に示すフローに入ると、その人物の顔の変形を考慮して、ユーザーが、指定した画像の顔部を判定する(S91)。そして、画像データベース4bから類似の顔パターンを検索する(S92)。その顔画像が、どの人物の顔であるかを特定し(S93)、その人の顔の変形例パターンを利用した検索を行う(S94)。 First, the control unit 1 of the digital camera 10 designates an image of the specified person (here, Mr. A). In the flow shown in FIG. 11B, the face of the designated image is determined by the user in consideration of the deformation of the person's face (S91). Then, a similar face pattern is searched from the image database 4b (S92). It is specified which person's face the face image is (S93), and a search is performed using the variation pattern of the person's face (S94).

検索を行うにあたって、まず、代表顔画像を用いて、そのパターンの顔が撮影された画像を検索する(S95)。すなわち、複数ある顔画像の中の代表画像を用いて、類似画像を検索する。この代表画像に基づいて類似画像を検索することができたか否かを判定し(S96)、検索できた場合には、その画像を検索結果とし表示部8に表示する。 In performing the search, first, using the representative face image, an image in which the face of the pattern is photographed is searched (S95). That is, a similar image is searched using a representative image among a plurality of face images. It is determined whether or not a similar image can be searched based on the representative image (S96). If the search is successful, the image is displayed on the display unit 8 as a search result.

一方、代表画像で検索することができない場合には、変形例があるか否かの判定を行う(S97)。すなわち、同一人物について、複数の顔画像のデータがある場合には(図11(A)の例では、3種類あり)、未検索の顔画像があるか判定する(S97)。顔画像の変形例がない場合には、元のルーチンに戻るが、有った場合には、その顔画像の変形例を用いて検索し(S98)、検索が終わると、ステップS96に戻り、前述の動作を実行する。 On the other hand, if the search cannot be performed using the representative image, it is determined whether there is a modification (S97). That is, if there are a plurality of face image data for the same person (there are three types in the example of FIG. 11A), it is determined whether there is an unsearched face image (S97). If there is no modification of the face image, the process returns to the original routine. If there is, the search is performed using the modification of the face image (S98). When the search is completed, the process returns to step S96. Perform the above operations.

以上のように、本発明に関連する第3技術においては、同一人物に対応する顔の画像を複数収集し、この顔の画像をデータベース化している。そして、この顔画像データベースを用いて、指定された人物が写っている画像を検索するようにしているので、第1技術、第2技術、および本発明の一実施形態と同様に、人物の交友関係等を表示させることができる。第3技術においては、第2技術のように、友人に画像を送信する機能を設けていなかったが、この機能を付加しても勿論構わない。また、第3技術においては、本発明の一実施形態のように、交友関係を連鎖的に表示していないが、勿論、一実施形態と同様に表示させてもよい。さらに、実施形態のように、年齢を考慮した検索としてもよい。 As described above, in the third technique related to the present invention , a plurality of face images corresponding to the same person are collected, and the face images are stored in a database. Since the face image database is used to search for an image in which the designated person is shown, as in the first technique, the second technique, and the embodiment of the present invention, Relationships can be displayed. In the third technique , unlike the second technique , the function of transmitting an image to a friend is not provided, but it is of course possible to add this function. Further, in the third technique , the friendship relationship is not displayed in a chain manner as in the embodiment of the present invention, but of course, it may be displayed in the same manner as in the embodiment. Furthermore, it is good also as a search which considered the age like one Embodiment.

なお、本発明の実施形態や関連する技術においては、検出された類似画像は、隣接して表示するようにしていたが、この表示方法には種々変形が可能であり、また、最初に指定した画像と検索された画像を同時に表示する以外にも、検索された画像のみを表示するようにしてもよい。また、検索された画像が多数の場合には、複数ページに分けて表示してもよい。また、本発明の実施形態や関連する技術においては、最初に指定する画像の顔を特徴部分として検出し、この顔をベースにして類似画像を検索していたが、特徴部分としては、顔に限らず、人物の全体でもよく、また、目鼻等、目立つ部分等でもよい。 In the embodiment and the related art of the present invention, the detected similar image, which had be displayed adjacent, this display method can be variously modified, also originally specified In addition to displaying the searched image and the searched image at the same time, only the searched image may be displayed. If there are a large number of searched images, the images may be displayed divided into a plurality of pages. In one embodiment of the present invention and related technology , a face of an image to be designated first is detected as a feature part, and a similar image is searched based on this face. However, the present invention may be the whole person or a conspicuous part such as the eyes and nose.

さらに、本発明の実施形態や関連する技術においては、デジタルカメラを用いて説明したが、デジタルカメラとしては、デジタル一眼レフカメラでもコンパクトデジタルカメラでもよく、また、携帯電話や携帯情報端末(PDA Personal Digital Assist)等に内蔵されるカメラでも勿論構わない。また、デジタルカメラ等で撮影された画像データを記録したパーソナルコンピュータ等でも勿論構わない。さらに、デジタルカメラ等で撮影された画像データを記録した外部データベースの内部で、本発明を実施してもよい。 Furthermore, although one embodiment of the present invention and related technology have been described using a digital camera, the digital camera may be a digital single-lens reflex camera or a compact digital camera, and may be a mobile phone or a personal digital assistant (PDA). Of course, a camera built in Personal Digital Assist) may be used. Of course, a personal computer or the like that records image data taken by a digital camera or the like may be used. Furthermore, the present invention may be implemented inside an external database that records image data captured by a digital camera or the like.

本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 The present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, you may delete some components of all the components shown by embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

本発明に関連する第1技術に係わるデジタルカメラの概要を示す図であり、(A)はブロック図であり、(B)は画像データベースのデータ内容である。It is a figure which shows the outline | summary of the digital camera concerning the 1st technique relevant to this invention, (A) is a block diagram, (B) is the data content of an image database. 本発明に関連する第1技術に係わるデジタルカメラにおける関係者検索を示すフローチャートである。It is a flowchart which shows the party search in the digital camera concerning the 1st technique relevant to this invention. 本発明に関連する第2技術に係わるデジタルカメラにおける表示状態を示す図である。It is a figure which shows the display state in the digital camera concerning the 2nd technique relevant to this invention. 本発明に関連する第2技術に係わるデジタルカメラにおけるカメラ制御を示すフローチャートである。It is a flowchart which shows the camera control in the digital camera concerning the 2nd technique relevant to this invention. 本発明の実施形態に係わるデジタルカメラにおける関係者検索を示すフローチャートである。It is a flowchart which shows the related party search in the digital camera concerning one Embodiment of this invention. 本発明の実施形態に係わるデジタルカメラにおける表示状態を示す図である。It is a figure which shows the display state in the digital camera concerning one Embodiment of this invention. 本発明の実施形態に係わるデジタルカメラにおける顔つき補正のフローチャートである。It is a flowchart of the face correction in the digital camera concerning one Embodiment of this invention. 本発明の実施形態に係わるデジタルカメラにおいて、加齢状態から加齢状態を修正する過程を示す図である。In the digital camera concerning one Embodiment of this invention, it is a figure which shows the process in which an aging state is corrected from an aging state. 本発明に関連する第3技術に係わるデジタルカメラにおける表示状態を示す図である。It is a figure which shows the display state in the digital camera concerning the 3rd technique relevant to this invention. 本発明に関連する第3技術に係わるデジタルカメラにおける同じ人物顔DB作成を示すフローチャートである。It is a flowchart which shows the same person face DB preparation in the digital camera concerning the 3rd technique relevant to this invention. 本発明に関連する第3技術に係わるデジタルカメラにおける類似顔画像の表示方法を示す図であり、(A)はデジタルカメラにおける表示状態を示す図であり、(B)は顔検索を示すフローチャートである。It is a figure which shows the display method of the similar face image in the digital camera concerning 3rd technique relevant to this invention, (A) is a figure which shows the display state in a digital camera, (B) is a flowchart which shows a face search. is there.

符号の説明Explanation of symbols

1・・・制御部、2・・・撮像部、3・・・レンズ判定部、4・・・記録部、4b・・・画像データベース(DB)、5・・・顔検出部、6・・・操作判定部、7・・・年齢処理部、8・・・表示部、9・・・時計部、10・・・カメラ、11・・・類似検出部、14・・・通信部、15・・・インターネット網、21・・・外部記録部、22・・・外部サーバー、23・・・他のユーザー、51・・・画像(Aさん)、52・・・代表画像、53・・・代表画像、54・・・代表画像、55・・・画像(Aさん)、56・・・画像(Xさん)、57・・・画像(Yさん)、58・・・画像(Xさん)、59・・・画像(Yさん)、61・・・目尻のしわ、62・・・唇の横の線、63・・・頬 DESCRIPTION OF SYMBOLS 1 ... Control part, 2 ... Imaging part, 3 ... Lens determination part, 4 ... Recording part, 4b ... Image database (DB), 5 ... Face detection part, 6 ... Operation determination unit, 7 ... age processing unit, 8 ... display unit, 9 ... clock unit, 10 ... camera, 11 ... similarity detection unit, 14 ... communication unit, 15 ... ..Internet network, 21 ... external recording unit, 22 ... external server, 23 ... other user, 51 ... image (Mr. A), 52 ... representative image, 53 ... representative Image 54 ... Representative image 55 ... Image (Mr. A) 56 ... Image (Ms. X) 57 ... Image (Ms. Y) 58 ... Image (Ms. X) 59 ... Image (Mr. Y), 61 ... Wrinkles in the corners of the eyes, 62 ... Lines next to the lips, 63 ... Cheeks

Claims (3)

画像を記録する画像記録部と、
第1の人物が含まれる第1の画像を指定する画像指定部と、
前記第1の画像に対して年齢処理を行う年齢処理部と、
前記画像指定部によって指定された第1の人物および前記年齢処理部によって年齢処理された第1の画像と類似する画像が含まれ、かつこの第1の人物以外が存在する第2の画像を、前記画像記録部に記録された前記画像の中から検索する画像検索部と、
前記第1の画像および第2の画像を表示する表示部と、
を備えたことを特徴とする画像取扱装置。
An image recording unit for recording images;
An image designating unit for designating a first image including the first person;
An age processing unit for performing age processing on the first image;
A second image including a first person designated by the image designating unit and an image similar to the first image age-aged by the age processing unit , and other than the first person, An image search unit for searching from the images recorded in the image recording unit;
A display unit for displaying the first image and the second image;
An image handling apparatus comprising:
前記年齢処理部は、前記第1の人物に対して目元や口元に年齢処理を行うことを特徴とする請求項1に記載の画像取扱装置。The image handling apparatus according to claim 1, wherein the age processing unit performs an age process on an eye or a mouth of the first person. 前記年齢処理部は、前記第1の人物に対して、前記年齢処理として、加齢サインをなくす処理を行うことを特徴とする請求項2に記載の画像取扱装置。The image handling apparatus according to claim 2, wherein the age processing unit performs a process of eliminating an aging sign as the age process for the first person.
JP2007223904A 2007-08-30 2007-08-30 Image handling device Expired - Fee Related JP5128880B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007223904A JP5128880B2 (en) 2007-08-30 2007-08-30 Image handling device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007223904A JP5128880B2 (en) 2007-08-30 2007-08-30 Image handling device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012240444A Division JP5554388B2 (en) 2012-10-31 2012-10-31 Image acquisition device, image handling method, and image handling program

Publications (2)

Publication Number Publication Date
JP2009059042A JP2009059042A (en) 2009-03-19
JP5128880B2 true JP5128880B2 (en) 2013-01-23

Family

ID=40554752

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007223904A Expired - Fee Related JP5128880B2 (en) 2007-08-30 2007-08-30 Image handling device

Country Status (1)

Country Link
JP (1) JP5128880B2 (en)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8106856B2 (en) 2006-09-06 2012-01-31 Apple Inc. Portable electronic device for photo management
JP5532661B2 (en) * 2009-04-10 2014-06-25 株式会社ニコン Image extraction program and image extraction apparatus
US8670597B2 (en) 2009-08-07 2014-03-11 Google Inc. Facial recognition with social network aiding
JP2011065278A (en) * 2009-09-15 2011-03-31 Toshiba Corp Electronic equipment, image retrieval method, and content reproduction program
JP5769922B2 (en) * 2009-10-28 2015-08-26 京セラ株式会社 Electronic device and e-mail creation method
US8698762B2 (en) 2010-01-06 2014-04-15 Apple Inc. Device, method, and graphical user interface for navigating and displaying content in context
JP5477017B2 (en) * 2010-01-26 2014-04-23 ソニー株式会社 Electronic device, content transmission method and program
JP2011170565A (en) 2010-02-17 2011-09-01 Toshiba Tec Corp Customer behavior collection method, device, and program
US8462224B2 (en) * 2010-06-01 2013-06-11 Hewlett-Packard Development Company, L.P. Image retrieval
JP4940333B2 (en) 2010-06-15 2012-05-30 株式会社東芝 Electronic apparatus and moving image reproduction method
KR102169523B1 (en) * 2013-05-31 2020-10-23 삼성전자 주식회사 Display apparatus and control method thereof
KR101481066B1 (en) * 2014-05-21 2015-01-16 오드컨셉 주식회사 Network connecting system and method using visual information of face
JP6215774B2 (en) 2014-05-29 2017-10-18 富士フイルム株式会社 Same person determination device and method and control program therefor
AU2017100670C4 (en) 2016-06-12 2019-11-21 Apple Inc. User interfaces for retrieving contextually relevant media content
DK201670609A1 (en) * 2016-06-12 2018-01-02 Apple Inc User interfaces for retrieving contextually relevant media content
JP6618437B2 (en) * 2016-07-29 2019-12-11 富士フイルム株式会社 Server, terminal device, image processing system, image processing method, program, and recording medium
JP6267380B1 (en) * 2017-02-16 2018-01-24 株式会社リクルートホールディングス Order management system, order management apparatus, and program
DK180171B1 (en) 2018-05-07 2020-07-14 Apple Inc USER INTERFACES FOR SHARING CONTEXTUALLY RELEVANT MEDIA CONTENT
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
JP6635208B1 (en) 2019-02-22 2020-01-22 日本電気株式会社 Search device, search method, and program
DK201970535A1 (en) 2019-05-06 2020-12-21 Apple Inc Media browsing user interface with intelligently selected representative media items
JP6844681B2 (en) * 2019-12-17 2021-03-17 日本電気株式会社 Search device, search method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3992909B2 (en) * 2000-07-03 2007-10-17 富士フイルム株式会社 Personal image providing system
JP2002183205A (en) * 2000-12-11 2002-06-28 Minolta Co Ltd Computer-readable recording medium with database construction program recorded thereon, method and device for constructing database, computer-readable recording medium with database retrieval program recorded thereon, and method and device for retrieving database
JP2002215643A (en) * 2001-01-15 2002-08-02 Minolta Co Ltd Image classification program, computer readable recording medium recording image classification program, and method and device for classifying image
JP2006079458A (en) * 2004-09-10 2006-03-23 Fuji Photo Film Co Ltd Image transmission system, method, and program

Also Published As

Publication number Publication date
JP2009059042A (en) 2009-03-19

Similar Documents

Publication Publication Date Title
JP5128880B2 (en) Image handling device
US8599251B2 (en) Camera
JP5195120B2 (en) Digital camera
CN101262561B (en) Imaging apparatus and control method thereof
JP2008233957A (en) Image selection device, image selection method, imaging device and program
JP5540762B2 (en) Imaging device, image display device, and image display program
TW201021550A (en) Emotion-based image processing apparatus and image processing method
JP4895205B2 (en) Image processing apparatus and program thereof
JP4293055B2 (en) Camera apparatus and program
US20180077298A1 (en) Image-capturing assistance device and image-capturing device
JP2007110262A (en) Software for image appreciation and image storage device
JP6323548B2 (en) Imaging assistance system, imaging apparatus, information processing apparatus, imaging assistance program, and imaging assistance method
JP2014186580A (en) Authentication device, imaging device, registration method of authentication data, program, and storage medium
JP6006841B2 (en) Image handling apparatus, image handling method, and program
JP2007110261A (en) Digital camera
JP5778314B2 (en) Server and image handling method
JP5032363B2 (en) Image display method
JP6329224B2 (en) Image handling apparatus, image handling method, and program
JP5554388B2 (en) Image acquisition device, image handling method, and image handling program
JP2008103850A (en) Camera, image retrieval system, and image retrieving method
JP2020194472A (en) Server, display method, creation method, and program
JP5249090B2 (en) Display device
JP2005057623A (en) Image data processor
JP2002369109A (en) Digital camera
JP2012256327A (en) Image display apparatus, image display method, and image display program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120409

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121004

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121101

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5128880

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151109

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees