JP6869809B2 - Image estimator - Google Patents

Image estimator Download PDF

Info

Publication number
JP6869809B2
JP6869809B2 JP2017105390A JP2017105390A JP6869809B2 JP 6869809 B2 JP6869809 B2 JP 6869809B2 JP 2017105390 A JP2017105390 A JP 2017105390A JP 2017105390 A JP2017105390 A JP 2017105390A JP 6869809 B2 JP6869809 B2 JP 6869809B2
Authority
JP
Japan
Prior art keywords
image
face
family
unit
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017105390A
Other languages
Japanese (ja)
Other versions
JP2018200597A (en
Inventor
文錦 高
文錦 高
直治 山田
直治 山田
渉 一岡
渉 一岡
響 服部
響 服部
真子 石井
真子 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2017105390A priority Critical patent/JP6869809B2/en
Publication of JP2018200597A publication Critical patent/JP2018200597A/en
Application granted granted Critical
Publication of JP6869809B2 publication Critical patent/JP6869809B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Description

本発明は、写真等の画像分類に係る画像推定装置に関する。 The present invention relates to an image estimation device for classifying images such as photographs.

特許文献1には、写真内のオブジェクトを画像認識し、画像認識結果に基づくタグを写真に自動的に付加し、該タグを利用して写真の分類等を行うシステムが記載されている。 Patent Document 1 describes a system that recognizes an object in a photo, automatically adds a tag based on the image recognition result to the photo, and classifies the photo using the tag.

特開2015−501982号公報Japanese Unexamined Patent Publication No. 2015-501982

ここで、例えば家族等の、生活空間を共にする特定の集団の画像については、他の画像と区別して整理したい場合がある。しかしながら、上述した特許文献1に記載されたようなシステムは、単にオブジェクトの画像認識結果に基づくタグ付けを行うものであり、例えば写真内に人物の顔がある場合にその旨をタグ付けするものに過ぎず、家族等の生活空間を共にする特定の集団の画像を他の画像と効果的に区別することができない。 Here, it may be desired to distinguish and organize images of a specific group that shares a living space, such as a family, from other images. However, the system as described in Patent Document 1 described above simply performs tagging based on the image recognition result of the object, for example, when there is a person's face in the photograph, the tagging to that effect is performed. It is only possible to effectively distinguish an image of a specific group that shares a living space such as a family from other images.

本発明は上記実情に鑑みてなされたものであり、生活空間を共にする特定の集団の画像を、他の画像と効果的に区別して整理することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to effectively distinguish and organize images of a specific group sharing a living space from other images.

本発明の一態様に係る画像推定装置は、複数の画像を取得するとともに、該複数の画像それぞれの撮像場所を示す情報を取得する取得部と、複数の画像に含まれた複数の顔について類似度に基づきグルーピングを行い、複数の被写体を特定する被写体特定部と、撮像場所を示す情報に応じて、被写体特定部によって特定された複数の被写体の関係性を推定する推定部と、を備える。 The image estimation device according to one aspect of the present invention is similar to an acquisition unit that acquires a plurality of images and acquires information indicating an imaging location of each of the plurality of images, and a plurality of faces included in the plurality of images. It includes a subject identification unit that identifies a plurality of subjects by grouping based on the degree, and an estimation unit that estimates the relationship between the plurality of subjects identified by the subject identification unit according to the information indicating the imaging location.

本発明の一態様に係る画像推定装置では、画像の撮像場所を示す情報に応じて、顔が検出された複数の被写体の関係性が推定される。これにより、例えば、特定の場所(例えば自宅)で撮像された画像に含まれている複数の被写体について、該特定の場所を共通の生活空間とする同一の集団(例えば家族)のメンバであると推定すること等が可能となる。このことで、被写体の関係性を考慮して、家族等の、生活空間を共にする特定の集団の画像を、他の画像と効果的に区別して整理することができる。 In the image estimation device according to one aspect of the present invention, the relationship between a plurality of subjects whose faces are detected is estimated according to the information indicating the image capturing location. As a result, for example, a plurality of subjects included in an image captured at a specific place (for example, at home) are considered to be members of the same group (for example, a family) having the specific place as a common living space. It is possible to estimate and so on. This makes it possible to effectively distinguish and organize images of a specific group such as a family member who shares a living space with other images in consideration of the relationship between the subjects.

本発明によれば、生活空間を共にする特定の集団の画像を、他の画像と効果的に区別して整理することができる。 According to the present invention, images of a specific group sharing a living space can be effectively distinguished and organized from other images.

本実施形態に係る家族推定システムの機能構成を示すブロック図である。It is a block diagram which shows the functional structure of the family estimation system which concerns on this embodiment. 図1に示される家族推定装置のハードウェア構成を示す図である。It is a figure which shows the hardware configuration of the family estimation apparatus shown in FIG. データ格納部に記憶される各情報を示す表であり、図3(a)は画像ファイル管理情報、図3(b)は顔画像ファイル管理情報、図3(c)は顔グループ管理情報、図3(d)は自宅登録管理情報をそれぞれ示す表である。It is a table showing each information stored in the data storage unit, FIG. 3A is image file management information, FIG. 3B is face image file management information, and FIG. 3C is face group management information. 3 (d) is a table showing home registration management information. データ表示端末における家族候補の表示イメージを示す図である。It is a figure which shows the display image of a family candidate in a data display terminal. 図1に示される家族推定装置が行う家族推定方法の一連の処理を示すフローチャートである。It is a flowchart which shows a series of processing of the family estimation method performed by the family estimation apparatus shown in FIG.

以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。図面の説明において、同一又は同等の要素には同一符号を用い、重複する説明を省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same reference numerals are used for the same or equivalent elements, and duplicate description is omitted.

図1は、本実施形態に係る家族推定システム1の機能構成を示すブロック図である。家族推定システム1は、利用者が撮像した画像(写真)から家族が写っている画像のみをグルーピングし、家族が写っている画像を他の画像と区別して整理するシステムである。家族推定システム1は、家族推定装置10と、データ表示端末20とを備えている。 FIG. 1 is a block diagram showing a functional configuration of the family estimation system 1 according to the present embodiment. The family estimation system 1 is a system that groups only the images showing the family from the images (photographs) captured by the user, and distinguishes the images showing the family from other images and organizes them. The family estimation system 1 includes a family estimation device 10 and a data display terminal 20.

家族推定装置10は、データ表示端末20と通信可能に構成されたサーバであり、取得部11と、被写体特定部12と、家族候補登録部13(推定部)と、通知部14と、タグ付与部15と、データ格納部16(活動場所記憶部)と、を備えている。なお、以下の説明においては、便宜上、家族推定装置10が一台のデータ表示端末20と通信する例を説明するが、実際には、家族推定装置10は、複数台のデータ表示端末20と通信可能に構成されている。家族推定装置10は、例えば図2に示されるハードウェアによって構成されている。 The family estimation device 10 is a server configured to be able to communicate with the data display terminal 20, and is tagged with an acquisition unit 11, a subject identification unit 12, a family candidate registration unit 13 (estimation unit), a notification unit 14, and a notification unit 14. A unit 15 and a data storage unit 16 (activity location storage unit) are provided. In the following description, for convenience, an example in which the family estimation device 10 communicates with one data display terminal 20 will be described, but in reality, the family estimation device 10 communicates with a plurality of data display terminals 20. It is configured to be possible. The family estimation device 10 is composed of, for example, the hardware shown in FIG.

図2は、家族推定装置10のハードウェア構成を示す図である。図2に示されるように、家族推定装置10は、物理的には、1又は複数のプロセッサ1001、主記憶装置であるメモリ1002、ハードディスク又は半導体メモリ等のストレージ1003、ネットワークカード等のデータ送受信デバイスである通信装置1004、入力装置1005、及びディスプレイ等の出力装置1006等を含むコンピュータシステムとして構成されている。図1に示される各機能は、図2に示されるメモリ1002等のハードウェア上に所定のコンピュータソフトウェアを読み込ませることにより、プロセッサ1001の制御のもとで入力装置1005、出力装置1006、及び通信装置1004を動作させるとともに、メモリ1002及びストレージ1003におけるデータの読み出し及び書き込みを行うことにより実現される。 FIG. 2 is a diagram showing a hardware configuration of the family estimation device 10. As shown in FIG. 2, the family estimation device 10 physically includes one or a plurality of processors 1001, a memory 1002 which is a main storage device, a storage 1003 such as a hard disk or a semiconductor memory, and a data transmission / reception device such as a network card. It is configured as a computer system including a communication device 1004, an input device 1005, and an output device 1006 such as a display. Each function shown in FIG. 1 loads input device 1005, output device 1006, and communication under the control of processor 1001 by loading predetermined computer software on hardware such as memory 1002 shown in FIG. This is realized by operating the device 1004 and reading and writing data in the memory 1002 and the storage 1003.

再び図1を参照して、家族推定装置10の各機能の詳細を説明する。 The details of each function of the family estimation device 10 will be described with reference to FIG. 1 again.

取得部11は、データ表示端末20から複数の画像(データ表示端末20において撮像された複数の画像)を取得するとともに、該複数の画像それぞれの撮像場所を示す情報を取得する。より詳細には、取得部11は、画像及び画像の撮像場所を示す情報に加えて、データ表示端末20より、データ表示端末20の利用者を一意に特定する情報であるユーザアカウントIDを取得する。取得部11は、取得した情報に基づき、画像毎に画像ファイル管理情報を生成し、該画像ファイル管理情報、及び画像をデータ格納部16に格納する。 The acquisition unit 11 acquires a plurality of images (a plurality of images captured by the data display terminal 20) from the data display terminal 20, and also acquires information indicating an imaging location of each of the plurality of images. More specifically, the acquisition unit 11 acquires the user account ID, which is information that uniquely identifies the user of the data display terminal 20, from the data display terminal 20, in addition to the image and the information indicating the image capturing location of the image. .. The acquisition unit 11 generates image file management information for each image based on the acquired information, and stores the image file management information and the image in the data storage unit 16.

図3(a)は、取得部11によりデータ格納部16に格納される画像ファイル管理情報I1の一例を示す図である。図3(a)に示されるように、画像ファイル管理情報I1においては、ファイルID、ユーザアカウントID、データ保存先、緯度、経度、前処理の顔検出ステータスフラグ、前処理の顔検出結果フラグ、及び、家族タグフラグが対応付けられている。ファイルIDは、格納された画像を一意に特定するIDである。ユーザアカウントIDは、上述したように、データ表示端末20の利用者を一意に特定する情報である。データ保存先は、画像の保存先を示す情報である。緯度及び経度は、画像の撮像場所を示す緯度及び経度である。前処理の顔検出ステータスフラグ、前処理の顔検出結果フラグ、及び、家族タグフラグは、「0」又は「1の」いずれかが設定されるフラグであり、取得部11によって画像ファイル管理情報I1が生成された際には初期値として「0」が設定される。これらのフラグの詳細については後述する。 FIG. 3A is a diagram showing an example of image file management information I1 stored in the data storage unit 16 by the acquisition unit 11. As shown in FIG. 3A, in the image file management information I1, the file ID, the user account ID, the data storage destination, the latitude, the longitude, the face detection status flag of the preprocessing, the face detection result flag of the preprocessing, And the family tag flag is associated. The file ID is an ID that uniquely identifies the stored image. As described above, the user account ID is information that uniquely identifies the user of the data display terminal 20. The data storage destination is information indicating the storage destination of the image. Latitude and longitude are latitudes and longitudes indicating the image capture location. The face detection status flag of the preprocessing, the face detection result flag of the preprocessing, and the family tag flag are flags for which either "0" or "1" is set, and the image file management information I1 is set by the acquisition unit 11. When it is generated, "0" is set as the initial value. Details of these flags will be described later.

被写体特定部12は、取得部11によって取得された複数の画像に含まれた複数の顔について類似度に基づきグルーピングを行い、複数の被写体を特定する。被写体特定部12は、前処理、顔検出処理、及びグルーピング処理(顔認識処理)を順に行う。 The subject identification unit 12 groups a plurality of faces included in the plurality of images acquired by the acquisition unit 11 based on the degree of similarity, and identifies a plurality of subjects. The subject identification unit 12 performs preprocessing, face detection processing, and grouping processing (face recognition processing) in this order.

前処理では、被写体特定部12は、データ表示端末20において撮像されてデータ格納部16に格納されている画像を回転させる。データ表示端末20における撮像時においては、利用者は、データ表示端末20を様々な角度に傾けて被写体を撮像することが考えられる。例えば、データ表示端末20の長辺を垂直方向にして被写体を撮像する場合と、データ表示端末20の長辺を水平方向にして被写体を撮像する場合とでは、被写体の顔の向きが90度異なることとなる。また、撮像時においては、被写体自身が顔を傾けることが考えられる。同一の被写体であっても、異なる画像間で顔の向きが異なる場合には、異なる被写体の顔であるとしてグルーピングされるおそれがある。その対応として、被写体特定部12は、異なる画像間における顔の向きを極力共通とすべく、画像を回転させる。被写体特定部12は、例えば、従来から周知技術となっている顔検出技術(詳細は後述)を用いて、画像中の顔の特徴(目、鼻、頬骨、あご等の顔のパーツ)の相対的位置を取得し、各パーツが互いに向き合う方向が所定の方向となるように、画像を回転させる。後述する顔検出処理においては、画像中における全ての被写体の各顔のパーツが検出される必要があるが、前処理においては、少なくとも1人の被写体の一部の顔のパーツ(傾きを把握できるパーツ)が検出されればよい。被写体特定部12は、当該前処理が完了すると、上述した画像ファイル管理情報I1(図3(a)参照)における「前処理の顔検出ステータスフラグ」を「1」に変更する。また、当該前処理において適切に顔が検出された場合には、上述した画像ファイル管理情報I1(図3(a)参照)における「前処理の顔検出結果フラグ」を「1」に変更する。なお、例えば、撮像時におけるデータ表示端末20の傾きが把握できる場合においては、被写体特定部12は、上記顔検出技術を用いずに、単に、撮影時におけるデータ表示端末20の傾きを考慮して該傾きが是正される方向に、各画像を回転させてもよい。 In the preprocessing, the subject identification unit 12 rotates the image captured by the data display terminal 20 and stored in the data storage unit 16. At the time of imaging on the data display terminal 20, it is conceivable that the user tilts the data display terminal 20 at various angles to image the subject. For example, the orientation of the subject's face differs by 90 degrees between the case where the long side of the data display terminal 20 is set to the vertical direction and the subject is imaged, and the case where the long side of the data display terminal 20 is set to the horizontal direction and the subject is imaged. It will be. Further, at the time of imaging, it is conceivable that the subject itself tilts his face. Even if the subject is the same, if the orientation of the face is different between different images, the faces may be grouped as different subjects. As a response, the subject identification unit 12 rotates the images so that the orientations of the faces between the different images are as common as possible. The subject identification unit 12 uses, for example, a face detection technique (details will be described later), which has been well known in the past, to make relative facial features (face parts such as eyes, nose, cheekbones, and chin) in the image. The target position is acquired, and the image is rotated so that the directions in which the parts face each other are in a predetermined direction. In the face detection process described later, it is necessary to detect each face part of all the subjects in the image, but in the preprocessing, a part of the face part (tilt can be grasped) of at least one subject. Parts) should be detected. When the preprocessing is completed, the subject identification unit 12 changes the "face detection status flag of the preprocessing" in the image file management information I1 (see FIG. 3A) described above to "1". When a face is appropriately detected in the preprocessing, the "face detection result flag of the preprocessing" in the image file management information I1 (see FIG. 3A) described above is changed to "1". For example, when the tilt of the data display terminal 20 at the time of imaging can be grasped, the subject identification unit 12 simply considers the tilt of the data display terminal 20 at the time of shooting without using the face detection technique. Each image may be rotated in a direction in which the tilt is corrected.

顔検出処理では、被写体特定部12は、データ格納部16に格納されている前処理後の各画像について、被写体の顔の検出を行う。被写体特定部12は、従来から周知技術となっている顔検出技術を用いて、画像中のすべての被写体の顔を検出する。被写体特定部12は、画像の中から顔領域を決定するとともに、顔の特徴(目、鼻、頬骨、あご等の顔のパーツ)の位置を求める。また、被写体特定部12は、検出した顔について、年齢及び性別の推定を行う。被写体特定部12は、例えば、データ格納部16又は外部のデータベースに保存されている大量の顔のパターンを学習することにより、検出した顔の年齢及び性別の推定を行う。年齢の推定においては、例えば、子供の顔が、大人の顔よりも、目が大きく位置が高いこと、鼻及び口が小さいこと、顔の輪郭が丸くあごが小さいこと等の特徴が考慮される。被写体特定部12は、検出した顔毎に顔画像ファイル管理情報を生成し、該顔画像ファイル管理情報をデータ格納部16に格納する。また、被写体特定部12は、検出した顔画像を切り出してデータ格納部16に格納する。 In the face detection process, the subject identification unit 12 detects the face of the subject for each preprocessed image stored in the data storage unit 16. The subject identification unit 12 detects the faces of all the subjects in the image by using the face detection technique which has been well known in the past. The subject identification unit 12 determines a face region from the image and obtains the positions of facial features (face parts such as eyes, nose, cheekbones, and chin). In addition, the subject identification unit 12 estimates the age and gender of the detected face. The subject identification unit 12 estimates the age and gender of the detected face by learning, for example, a large number of face patterns stored in the data storage unit 16 or an external database. In estimating age, for example, the face of a child has larger eyes and a higher position than the face of an adult, the nose and mouth are smaller, the contour of the face is rounded, and the chin is smaller. .. The subject identification unit 12 generates face image file management information for each detected face, and stores the face image file management information in the data storage unit 16. Further, the subject identification unit 12 cuts out the detected face image and stores it in the data storage unit 16.

図3(b)は、被写体特定部12によりデータ格納部16に格納される顔画像ファイル管理情報I2の一例を示す図である。図3(b)に示されるように、顔画像ファイル管理情報I2においては、顔ID、画像ファイル管理ID、顔サイズ、推定年齢、推定性別、及び、顔グループIDが対応付けられている。顔IDは、検出した顔(切り出されてデータ格納部16に格納された顔)を一意に特定するIDである。画像ファイル管理IDは、顔を検出した画像を一意に特定するIDであり、上述した画像ファイル管理情報I1のファイルIDと共通のIDである。顔サイズは、検出した顔の矩形面積(顔を囲む矩形の面積)である。推定年齢は、顔検出処理において顔から推定された年齢である。推定性別は、顔検出処理において顔から推定された性別である。顔グループIDは、後述するグルーピング処理後に入力される、被写体を一意に特定するIDである。 FIG. 3B is a diagram showing an example of face image file management information I2 stored in the data storage unit 16 by the subject identification unit 12. As shown in FIG. 3B, the face ID, the image file management ID, the face size, the estimated age, the estimated gender, and the face group ID are associated with each other in the face image file management information I2. The face ID is an ID that uniquely identifies the detected face (the face that has been cut out and stored in the data storage unit 16). The image file management ID is an ID that uniquely identifies the image in which the face is detected, and is an ID common to the file ID of the image file management information I1 described above. The face size is the detected rectangular area of the face (the area of the rectangle surrounding the face). The estimated age is the age estimated from the face in the face detection process. The estimated sex is the sex estimated from the face in the face detection process. The face group ID is an ID that uniquely identifies the subject, which is input after the grouping process described later.

グルーピング処理(顔認識処理)では、被写体特定部12は、従来から周知技術となっている顔認識技術を用いて、顔検出処理において検出した複数の顔を互いに照合し、類似する顔を同一の被写体の顔であるとしてグルーピングする。被写体特定部12は、まず、データ格納部16の顔画像ファイル管理情報I2の推定年齢に基づき、データ格納部16に格納された各顔画像を、大人の被写体の顔画像と、子供の被写体の顔画像とに分ける。被写体特定部12は、推定年齢が所定年齢(例えば12歳)以上の顔画像を大人(第1年齢層)の被写体の顔画像とし、所定年齢未満の顔画像を子供(第2年齢層)の被写体の顔画像とする。被写体特定部12は、大人の被写体の顔画像と子供の被写体の顔画像とを分けて、それぞれグルーピングを行う。被写体特定部12は、例えば互いに照合する顔の特徴をそれぞれ抽出して、直接幾何学的に比較し、互いの顔の類似度が所定の閾値を超える場合に、これらの顔が類似する(同一の被写体の顔である)として、グルーピングする。子供の被写体の顔のグルーピングを行う際に類似していると判定する閾値は、大人の被写体の顔のグルーピングを行う際に類似していると判定する閾値よりも高く設定されている。すなわち、子供の顔のグルーピングにおいては、大人の顔のグルーピングよりも、類似している(同一の被写体の顔である)と判定されにくくされている。 In the grouping process (face recognition process), the subject identification unit 12 collates a plurality of faces detected in the face detection process with each other by using a face recognition technique that has been well known in the past, and makes similar faces the same. Group as the face of the subject. First, based on the estimated age of the face image file management information I2 of the data storage unit 16, the subject identification unit 12 uses each face image stored in the data storage unit 16 as a face image of an adult subject and a child subject. Divide into face images. In the subject identification unit 12, a face image whose estimated age is at least a predetermined age (for example, 12 years old) is a face image of an adult (first age group), and a face image under a predetermined age is a child (second age group). Use as a face image of the subject. The subject identification unit 12 separates the face image of an adult subject and the face image of a child subject, and groups them respectively. For example, the subject identification unit 12 extracts facial features that collate with each other and directly geometrically compares them, and when the similarity of the faces exceeds a predetermined threshold value, these faces are similar (same). Group as (the face of the subject). The threshold value for determining that the faces of a child's subject are similar when grouping the faces is set higher than the threshold value for determining that the faces of an adult subject are similar. That is, in the grouping of the faces of children, it is more difficult to determine that they are similar (the faces of the same subject) than the grouping of the faces of adults.

被写体特定部12は、グルーピングを行った後、特定した被写体毎に顔グループIDを設定する(顔グループ登録を行う)。被写体特定部12は、設定した顔グループIDを、上述した顔画像ファイル管理情報I2(図3(b)参照)に入力する。また、被写体特定部12は、被写体毎(顔グループID毎)に顔グループ管理情報を生成し、該顔グループ管理情報をデータ格納部16に格納する。 After grouping, the subject identification unit 12 sets a face group ID for each specified subject (face group registration is performed). The subject identification unit 12 inputs the set face group ID into the above-mentioned face image file management information I2 (see FIG. 3B). Further, the subject identification unit 12 generates face group management information for each subject (for each face group ID), and stores the face group management information in the data storage unit 16.

図3(c)は、被写体特定部12によりデータ格納部16に格納される顔グループ管理情報I3の一例を示す図である。図3(c)に示されるように、顔グループ管理情報I3においては、顔グループID、家族候補フラグ、及び、ユーザ選択家族フラグが対応付けられている。顔グループIDは、被写体を一意に特定するIDである。家族候補フラグ、及び、ユーザ選択家族フラグは、「0」又は「1」のいずれかが設定されるフラグであり、被写体特定部12によって顔グループ管理情報I3が生成された際には初期値として「0」が設定される。これらのフラグの詳細については後述する。 FIG. 3C is a diagram showing an example of face group management information I3 stored in the data storage unit 16 by the subject identification unit 12. As shown in FIG. 3C, the face group management information I3 is associated with the face group ID, the family candidate flag, and the user-selected family flag. The face group ID is an ID that uniquely identifies the subject. The family candidate flag and the user-selected family flag are flags for which either "0" or "1" is set, and are used as initial values when the face group management information I3 is generated by the subject identification unit 12. "0" is set. Details of these flags will be described later.

家族候補登録部13(推定部)は、撮像場所を示す情報に応じて、被写体特定部12によって特定された複数の被写体の関係性を推定する。具体的には、家族候補登録部13は、撮像場所が、利用者の自宅から所定の範囲内である画像に顔が含まれた複数の被写体について、いずれも、当該利用者の家族の一員である(家族を構成する)と推定する。家族候補登録部13は、利用者の自宅に関する情報(自宅の場所に関する情報)を、データ格納部16に格納された自宅登録管理情報を参照して取得する。 The family candidate registration unit 13 (estimation unit) estimates the relationship between a plurality of subjects specified by the subject identification unit 12 according to the information indicating the imaging location. Specifically, the family candidate registration unit 13 is a member of the user's family for a plurality of subjects whose imaging location is within a predetermined range from the user's home and whose face is included in the image. Presumed to be (make up a family). The family candidate registration unit 13 acquires information about the user's home (information about the location of the home) by referring to the home registration management information stored in the data storage unit 16.

図3(d)は、データ格納部16に格納されている自宅登録管理情報I4の一例を示す図である。図3(d)に示されるように、自宅登録管理情報I4においては、自宅ID、ユーザアカウントID、緯度、及び経度が対応付けられている。自宅IDは、当該利用者の自宅を一意に特定するIDである。ユーザアカウントIDは、データ表示端末20の利用者を一意に特定する情報である。緯度及び経度は、自宅の場所を示す緯度及び経度である。 FIG. 3D is a diagram showing an example of home registration management information I4 stored in the data storage unit 16. As shown in FIG. 3D, in the home registration management information I4, the home ID, the user account ID, the latitude, and the longitude are associated with each other. The home ID is an ID that uniquely identifies the user's home. The user account ID is information that uniquely identifies the user of the data display terminal 20. Latitude and longitude are latitudes and longitudes that indicate the location of your home.

家族候補登録部13は、まず、データ格納部16の自宅登録管理情報I4を参照し、対象の利用者のユーザアカウントIDに対応付けられた自宅の緯度及び経度を取得する。つづいて、家族候補登録部13は、データ格納部16の画像ファイル管理情報I1を参照し、対象の利用者のユーザアカウントIDに対応付けられた各画像のうち、画像の撮像場所の緯度及び経度が、上述した自宅の緯度及び経度と一致又は近似する画像のファイルID(すなわち、撮像場所が自宅から所定の範囲内である画像のファイルID)をすべて取得する。なお、撮像場所の緯度及び経度は、例えばデータ表示端末20における撮像時においてデータ表示端末20において測位されるものであるところ(詳細は後述)、上述した「近似」の範囲(上述した、所定の範囲)は、データ表示端末20の測位精度を考慮して、撮像場所が自宅である可能性がある範囲とされる。 First, the family candidate registration unit 13 refers to the home registration management information I4 of the data storage unit 16 and acquires the latitude and longitude of the home associated with the user account ID of the target user. Subsequently, the family candidate registration unit 13 refers to the image file management information I1 of the data storage unit 16, and among the images associated with the user account ID of the target user, the latitude and longitude of the image imaging location of the images. Acquires all the file IDs of images that match or approximate the latitude and longitude of the home described above (that is, the file IDs of images whose imaging location is within a predetermined range from the home). The latitude and longitude of the imaging location are, for example, those that are positioned by the data display terminal 20 at the time of imaging by the data display terminal 20 (details will be described later), and the above-mentioned "approximate" range (described above, predetermined). The range) is a range in which the imaging location may be at home in consideration of the positioning accuracy of the data display terminal 20.

つづいて、家族候補登録部13は、データ格納部16の顔画像ファイル管理情報I2を参照し、取得したファイルIDと画像ファイル管理IDが一致する顔画像の顔グループIDを全て取得する。家族候補登録部13は、取得した顔グループIDによって特定される複数の被写体について、いずれも、当該利用者の家族の一員であると推定し、家族候補(集団構成候補)として登録する。具体的には、家族候補登録部13は、顔グループ管理情報I3(図3(c)参照)において、取得した顔グループIDに対応付けられた家族候補フラグを「1」に変更することにより、利用者の家族の一員であると推定された被写体を家族候補として登録する。 Subsequently, the family candidate registration unit 13 refers to the face image file management information I2 of the data storage unit 16 and acquires all the face group IDs of the face images in which the acquired file ID and the image file management ID match. The family candidate registration unit 13 presumes that all of the plurality of subjects specified by the acquired face group ID are members of the user's family, and registers them as family candidates (group composition candidates). Specifically, the family candidate registration unit 13 changes the family candidate flag associated with the acquired face group ID to "1" in the face group management information I3 (see FIG. 3C). A subject presumed to be a member of the user's family is registered as a family candidate.

通知部14は、家族候補登録部13によって家族候補に登録された(家族の一員であると推定された)複数の被写体を利用者に通知する。通知部14は、家族候補である被写体に係る画像を表示することにより、利用者に家族候補を通知する。通知部14は、利用者が利用するデータ表示端末20において家族候補である被写体に係る画像が表示可能となるように、該画像をデータ表示端末20に送信する。 The notification unit 14 notifies the user of a plurality of subjects (presumed to be members of the family) registered as family candidates by the family candidate registration unit 13. The notification unit 14 notifies the user of the family candidate by displaying an image relating to the subject which is the family candidate. The notification unit 14 transmits the image to the data display terminal 20 so that the image relating to the subject which is a family candidate can be displayed on the data display terminal 20 used by the user.

通知部14は、まず、データ格納部16の顔グループ管理情報I3を参照し、家族候補フラグが「1」となっている顔グループIDを全て取得する。つづいて、通知部14は、データ格納部16の顔画像ファイル管理情報I2を参照し、取得した各顔グループIDに対応付けられた顔IDを全て取得する。通知部14は、大人の顔グループIDについては、対応する複数の顔IDのうち、顔サイズ(図3(b)参照)が最も大きい顔IDの顔画像(被写体特定部12によって切り出されてデータ格納部16に格納されている顔画像)1枚のみを、表示対象の画像とする。一方で、通知部14は、子供の顔グループIDについては、対応する複数の顔IDの中から2つ以上選択し、複数の顔IDの顔画像を表示対象の画像とする。すなわち、通知部14は、子供の被写体についての家族候補に係る画像の表示枚数を、大人の被写体についての家族候補に係る画像の表示枚数よりも多くする。 First, the notification unit 14 refers to the face group management information I3 of the data storage unit 16 and acquires all the face group IDs in which the family candidate flag is “1”. Subsequently, the notification unit 14 refers to the face image file management information I2 of the data storage unit 16 and acquires all the face IDs associated with the acquired face group IDs. Regarding the adult face group ID, the notification unit 14 has the face image (data cut out by the subject identification unit 12) of the face ID having the largest face size (see FIG. 3B) among the corresponding plurality of face IDs. Only one image (face image stored in the storage unit 16) is used as an image to be displayed. On the other hand, the notification unit 14 selects two or more of the corresponding face IDs for the child's face group ID, and sets the face images of the plurality of face IDs as the images to be displayed. That is, the notification unit 14 increases the number of images displayed for the family candidate for the child subject to be larger than the number of images displayed for the family candidate for the adult subject.

タグ付与部15は、通知部14によって利用者に通知された家族候補のうち、利用者によって選択された被写体が含まれる全ての画像に家族タグ(集団構成タグ)を付与する。 The tagging unit 15 attaches a family tag (group composition tag) to all the images including the subject selected by the user among the family candidates notified to the user by the notification unit 14.

タグ付与部15は、まず、利用者によって選択された全ての顔画像に係る顔IDを全て取得する。つづいて、タグ付与部15は、データ格納部16の顔画像ファイル管理情報I2を参照し、取得した顔IDに対応付けられた顔グループIDを取得するとともに、取得した顔グループIDに対応づけられた画像ファイル管理IDを全て取得する。つづいて、タグ付与部15は、データ格納部16の顔グループ管理情報I3について、取得した顔グループIDに対応付けられたユーザ選択家族フラグを「1」に変更する。最後に、タグ付与部15は、データ格納部16の画像ファイル管理情報I1について、取得した画像ファイル管理IDとファイルIDが一致する画像の家族タグフラグを「1」に変更する。これにより、家族候補のうち利用者に選択された被写体が写る全ての画像に家族タグを付与することができる。このように家族タグが付与されることによって、例えば利用者が家族の画像を探したい際に、家族が写っている可能性が高い画像を効果的に検索することができる。 First, the tagging unit 15 acquires all face IDs related to all face images selected by the user. Subsequently, the tagging unit 15 refers to the face image file management information I2 of the data storage unit 16, acquires the face group ID associated with the acquired face ID, and associates the acquired face group ID with the acquired face group ID. Acquire all the image file management IDs. Subsequently, the tagging unit 15 changes the user selection family flag associated with the acquired face group ID to "1" for the face group management information I3 of the data storage unit 16. Finally, the tagging unit 15 changes the family tag flag of the image whose acquired image file management ID and the file ID match with respect to the image file management information I1 of the data storage unit 16 to "1". As a result, it is possible to attach a family tag to all the images in which the subject selected by the user among the family candidates appears. By adding the family tag in this way, for example, when the user wants to search for an image of the family, it is possible to effectively search for an image that is likely to show the family.

データ格納部16(活動場所記憶部)は、上述したように、画像ファイル管理情報I1(図3(a)参照)、顔画像ファイル管理情報I2(図3(b)参照)、顔グループ管理情報I3(図3(c)参照)、及び、利用者の自宅の場所に関する情報(特定の集団の活動場所を示す情報)である自宅登録管理情報I4(図3(d)参照)を記憶する。なお、自宅登録管理情報I4において記憶される利用者の自宅の場所に関する情報は、データ表示端末20から送信される情報に基づくものである。 As described above, the data storage unit 16 (activity location storage unit) includes image file management information I1 (see FIG. 3A), face image file management information I2 (see FIG. 3B), and face group management information. Stores I3 (see FIG. 3C) and home registration management information I4 (see FIG. 3D), which is information about the user's home location (information indicating the activity location of a specific group). The information about the user's home location stored in the home registration management information I4 is based on the information transmitted from the data display terminal 20.

次に、図1を参照して、データ表示端末20の各機能の詳細を説明する。データ表示端末20は、家族推定装置10と通信可能に構成された通信端末であり、例えば、スマートフォン又はタブレット端末等である。データ表示端末20は、ハードウェア構成としてカメラとタッチパネルとを備えている。データ表示端末20は、撮像部21と、データ格納部22と、通信部23と、家族候補表示部24とを備えている。 Next, the details of each function of the data display terminal 20 will be described with reference to FIG. The data display terminal 20 is a communication terminal configured to be able to communicate with the family estimation device 10, and is, for example, a smartphone or a tablet terminal. The data display terminal 20 includes a camera and a touch panel as a hardware configuration. The data display terminal 20 includes an imaging unit 21, a data storage unit 22, a communication unit 23, and a family candidate display unit 24.

撮像部21は、カメラを制御することにより被写体を撮像する機能である。撮像部21は、撮像した写真等の画像及び画像の撮像場所(緯度・経度)をデータ格納部22に格納する。データ格納部22は、撮像部21によって撮像された画像及び画像の撮像場所、並びに、データ表示端末20の利用者の自宅に関する情報(自宅の場所に関する情報)を記憶する。通信部23は、家族推定装置10と通信を行う。通信部23は、データ格納部22に格納されている画像及び画像の撮像場所、並びに、自宅の場所に関する情報を家族推定装置10(詳細には取得部11)に送信する。通信部23は、家族推定装置10(詳細には通知部14)より、家族候補に係る顔画像を受信し、家族候補表示部24に出力する。通信部23は、家族候補に係る顔画像のうち、利用者によって選択された顔画像を家族推定装置10(詳細にはタグ付与部15)に送信する。家族候補表示部24は、データ格納部22より出力された家族候補に係る顔画像を、利用者が選択可能となるように、データ表示端末20のディスプレイに表示する。 The imaging unit 21 is a function of capturing an image of a subject by controlling a camera. The imaging unit 21 stores an image such as a captured photograph and an imaging location (latitude / longitude) of the image in the data storage unit 22. The data storage unit 22 stores the image captured by the image pickup unit 21, the image capture location of the image, and the information about the user's home (information about the home location) of the data display terminal 20. The communication unit 23 communicates with the family estimation device 10. The communication unit 23 transmits the image stored in the data storage unit 22, the image capturing location of the image, and information about the home location to the family estimation device 10 (specifically, the acquisition unit 11). The communication unit 23 receives the face image related to the family candidate from the family estimation device 10 (specifically, the notification unit 14) and outputs the face image to the family candidate display unit 24. The communication unit 23 transmits the face image selected by the user among the face images related to the family candidate to the family estimation device 10 (specifically, the tagging unit 15). The family candidate display unit 24 displays the face image related to the family candidate output from the data storage unit 22 on the display of the data display terminal 20 so that the user can select it.

図4は、家族候補表示部24によってデータ表示端末20のディスプレイに表示される画面イメージである。データ表示端末20のディスプレイはタッチパネルである。以下の説明では、前提として、家族候補表示部24のデータ格納部16に、データ表示端末20において撮像された複数の画像が既に格納されているとする。 FIG. 4 is a screen image displayed on the display of the data display terminal 20 by the family candidate display unit 24. The display of the data display terminal 20 is a touch panel. In the following description, as a premise, it is assumed that a plurality of images captured by the data display terminal 20 are already stored in the data storage unit 16 of the family candidate display unit 24.

データ表示端末20では、最初に、図4(a)に示されるように、自宅設定画面が表示される。当該自宅設定画面が表示された状態において、利用者によってディスプレイが操作されることにより自宅の場所が設定され、当該自宅の場所に関する情報が家族推定装置10に送信される。つづいて、図4(b)に示されるように、データ表示端末20には家族設定要否に関するメッセージ(図4(b)中の「家族の写真をまとめませんか」というメッセージ)が表示される。当該メッセージに対して、利用者によってディスプレイが操作されて家族設定が指示されると、図4(c)に示されるように家族候補に係る顔画像が表示される。当該家族候補に係る顔画像は、家族推定装置10の通知部14によって送信されて、家族候補表示部24によってディスプレイに表示されたものである。上述したように、子供の被写体についての家族候補に係る顔画像は複数表示されている。当該表示において、利用者が家族の画像を選択すると、図4(c)に示されるように、利用者が選択した家族の画像にはチェックマークが入る。利用者に選択された全ての顔画像は、家族推定装置10のタグ付与部15に送信される。そして、図4(d)に示されるように、利用者によって選択された被写体が含まれる画像に家族タグが付与されて、他の画像と区別されて表示される。 The data display terminal 20 first displays the home setting screen as shown in FIG. 4A. In the state where the home setting screen is displayed, the home location is set by the operation of the display by the user, and the information about the home location is transmitted to the family estimation device 10. Subsequently, as shown in FIG. 4 (b), the data display terminal 20 displays a message regarding the necessity of family setting (the message "Would you like to put together the family photos" in FIG. 4 (b)). To. When the user operates the display to instruct the family setting in response to the message, a face image relating to the family candidate is displayed as shown in FIG. 4 (c). The face image related to the family candidate is transmitted by the notification unit 14 of the family estimation device 10 and displayed on the display by the family candidate display unit 24. As described above, a plurality of facial images relating to family candidates for the subject of the child are displayed. When the user selects an image of the family in the display, a check mark is added to the image of the family selected by the user as shown in FIG. 4 (c). All the facial images selected by the user are transmitted to the tagging unit 15 of the family estimation device 10. Then, as shown in FIG. 4D, a family tag is attached to the image including the subject selected by the user, and the image is displayed separately from other images.

次に、図5を参照して、家族推定装置10が行う家族推定方法の一連の処理を説明する。図5は、家族推定装置10が行う家族推定方法の一連の処理の一例を示すフローチャートである。 Next, with reference to FIG. 5, a series of processes of the family estimation method performed by the family estimation device 10 will be described. FIG. 5 is a flowchart showing an example of a series of processes of the family estimation method performed by the family estimation device 10.

まず、取得部11によって、データ表示端末20から複数の画像が取得される(ステップS1)。取得部11は、複数の画像とともに、それぞれの画像の撮像場所を示す情報、及びデータ表示端末20の利用者を一意に特定する情報であるユーザアカウントIDを取得する。取得部11は、取得した情報に基づき、画像毎に画像ファイル管理情報を生成し、該画像ファイル管理情報、及び画像をデータ格納部16に格納する。 First, the acquisition unit 11 acquires a plurality of images from the data display terminal 20 (step S1). The acquisition unit 11 acquires the user account ID, which is information indicating the imaging location of each image and information uniquely identifying the user of the data display terminal 20, together with the plurality of images. The acquisition unit 11 generates image file management information for each image based on the acquired information, and stores the image file management information and the image in the data storage unit 16.

つづいて、被写体特定部12によって前処理が行われる(ステップS2)。該前処理では、被写体特定部12は、データ表示端末20において撮像されてデータ格納部16に格納されている画像を回転させる。 Subsequently, the subject identification unit 12 performs preprocessing (step S2). In the preprocessing, the subject identification unit 12 rotates the image captured by the data display terminal 20 and stored in the data storage unit 16.

つづいて、被写体特定部12によって顔検出処理が行われる(ステップS3)。被写体特定部12は、データ格納部16に格納されている前処理後の各画像について、被写体の顔の検出を行う。被写体特定部12は、従来から周知技術となっている顔検出技術を用いて、画像中のすべての被写体の顔を検出する。さらに、被写体特定部12は、検出した顔について年齢及び性別の推定を行う。被写体特定部12は、検出した顔画像を切り出してデータ格納部16に格納(保存)する(ステップS4)。 Subsequently, the subject identification unit 12 performs face detection processing (step S3). The subject identification unit 12 detects the face of the subject for each image after preprocessing stored in the data storage unit 16. The subject identification unit 12 detects the faces of all the subjects in the image by using the face detection technique which has been well known in the past. Further, the subject identification unit 12 estimates the age and gender of the detected face. The subject identification unit 12 cuts out the detected face image and stores (saves) it in the data storage unit 16 (step S4).

つづいて、被写体特定部12によって、グルーピング処理が行われる(ステップS5〜S8)。被写体特定部12は、まず、データ格納部16の顔画像ファイル管理情報I2の推定年齢に基づき、データ格納部16に格納された各顔画像について、大人の被写体の顔画像か否かを判定する(ステップS5)。ステップS5において大人の顔画像と判定された顔画像については、大人の顔画像同士で顔認識処理が行われ(ステップS6)、ステップS5において大人の顔画像ではなく子供の顔画像と判定された顔画像については、子供の顔画像同士で顔認識処理が行われる(ステップS7)。被写体特定部12は、例えば互いに照合する顔の特徴をそれぞれ抽出して、直接幾何学的に比較し、互いの顔の類似度が所定の閾値を超える場合に、これらの顔が類似する(同一の被写体の顔である)として、グルーピングし、複数の被写体を特定する。子供の被写体の顔のグルーピングを行う際に類似していると判定する閾値は、大人の被写体の顔のグルーピングを行う際に類似していると判定する閾値よりも高く設定される。 Subsequently, the subject identification unit 12 performs a grouping process (steps S5 to S8). The subject identification unit 12 first determines whether or not each face image stored in the data storage unit 16 is a face image of an adult subject, based on the estimated age of the face image file management information I2 of the data storage unit 16. (Step S5). The face image determined to be an adult face image in step S5 is subjected to face recognition processing between the adult face images (step S6), and is determined to be a child face image instead of an adult face image in step S5. With respect to the face image, face recognition processing is performed between the face images of the children (step S7). For example, the subject identification unit 12 extracts facial features that collate with each other and directly geometrically compares them, and when the similarity of the faces exceeds a predetermined threshold value, these faces are similar (same). Group as (the face of the subject) and identify multiple subjects. The threshold value for determining that the faces of a child's subject are similar when grouping the faces is set higher than the threshold value for determining that the faces of an adult subject are similar.

ステップS6及びS7の処理後、被写体特定部12によって、特定した被写体毎に顔グループIDが設定され、顔グループ登録が行われる(ステップS8)。被写体特定部12は、設定した顔グループIDを、上述した顔画像ファイル管理情報I2(図3(b)参照)に入力する。また、被写体特定部12は、被写体毎(顔グループID毎)に顔グループ管理情報を生成し、該顔グループ管理情報をデータ格納部16に格納する。 After the processing of steps S6 and S7, the face group ID is set for each specified subject by the subject identification unit 12, and the face group is registered (step S8). The subject identification unit 12 inputs the set face group ID into the above-mentioned face image file management information I2 (see FIG. 3B). Further, the subject identification unit 12 generates face group management information for each subject (for each face group ID), and stores the face group management information in the data storage unit 16.

つづいて、家族候補登録部13によって、撮像場所が利用者の自宅から所定の範囲内である画像があるか(自宅写真があるか)否かが判定される(ステップS9)。ステップS9において、撮像場所が利用者の自宅から所定の範囲内である画像があると判定された場合には、家族候補登録部13は、当該画像に顔が含まれた被写体を家族候補として登録する(ステップS10)。具体的には、家族候補登録部13は、顔グループ管理情報I3(図3(c)参照)において、取得した顔グループIDに対応付けられた家族候補フラグを「1」に変更することにより、利用者の家族の一員であると推定された被写体を家族候補として登録する。 Subsequently, the family candidate registration unit 13 determines whether or not there is an image (whether there is a home photograph) whose imaging location is within a predetermined range from the user's home (step S9). In step S9, when it is determined that there is an image whose imaging location is within a predetermined range from the user's home, the family candidate registration unit 13 registers a subject whose face is included in the image as a family candidate. (Step S10). Specifically, the family candidate registration unit 13 changes the family candidate flag associated with the acquired face group ID to "1" in the face group management information I3 (see FIG. 3C). A subject presumed to be a member of the user's family is registered as a family candidate.

つづいて、通知部14によって、家族候補である被写体に係る画像が表示され、利用者に家族候補が通知される(ステップS11)。そして、当該通知に対して、利用者によって選択(家族である旨の選択)があった場合には、タグ付与部15によって、選択された被写体が含まれる画像への家族タグの付与が行われる(ステップS13)。なお、ステップS9において撮像場所が利用者の自宅から所定の範囲内である画像がないと判定された場合、及び、ステップS12において利用者による選択がないと判定された場合には、処理が終了する。 Subsequently, the notification unit 14 displays an image relating to the subject which is a family candidate, and notifies the user of the family candidate (step S11). Then, when the user makes a selection (selection to the effect that he / she is a family member) in response to the notification, the tagging unit 15 adds a family tag to the image including the selected subject. (Step S13). If it is determined in step S9 that there is no image whose imaging location is within a predetermined range from the user's home, or if it is determined in step S12 that there is no selection by the user, the process ends. To do.

次に、本実施形態に係る家族推定装置10の作用効果について説明する。 Next, the operation and effect of the family estimation device 10 according to the present embodiment will be described.

本実施形態に係る家族推定装置10は、複数の画像を取得するとともに、該複数の画像それぞれの撮像場所を示す情報を取得する取得部11と、複数の画像に含まれた複数の顔について類似度に基づきグルーピングを行い、複数の被写体を特定する被写体特定部12と、撮像場所を示す情報に応じて、被写体特定部12によって特定された複数の被写体の関係性を推定する家族候補登録部13と、を備える。 The family estimation device 10 according to the present embodiment is similar to the acquisition unit 11 that acquires a plurality of images and acquires information indicating the imaging location of each of the plurality of images, and a plurality of faces included in the plurality of images. The family candidate registration unit 13 that estimates the relationship between the subject identification unit 12 that identifies a plurality of subjects based on the degree and the plurality of subjects identified by the subject identification unit 12 according to the information indicating the imaging location. And.

このような家族推定装置10では、画像の撮像場所を示す情報に応じて、顔が検出された複数の被写体の関係性が推定される。これにより、自宅で撮像された画像に含まれている複数の被写体について、家族の一員であると推定すること等が可能となる。このことで、被写体の関係性を考慮して、家族の画像を、他の画像と効果的に区別して整理することができる。 In such a family estimation device 10, the relationship between a plurality of subjects whose faces are detected is estimated according to the information indicating the image capturing location. This makes it possible to presume that a plurality of subjects included in an image captured at home are members of a family. This makes it possible to effectively distinguish and organize family images from other images in consideration of the relationship between the subjects.

家族推定装置10は、利用者の自宅の場所に関する情報である自宅登録管理情報I4(図3(d)参照)を記憶するデータ格納部16を備え、家族候補登録部13は、撮像場所が自宅から所定の範囲内である画像に顔が含まれた複数の被写体について、いずれも家族の一員であると推定する。予め登録された自宅の場所に関する情報が用いられることにより、自宅で生活する家族のメンバを高精度且つ簡易に推定することが可能となる。 The family estimation device 10 includes a data storage unit 16 that stores home registration management information I4 (see FIG. 3D), which is information about the user's home location, and the family candidate registration unit 13 has an imaging location at home. It is presumed that all of the plurality of subjects whose images include faces within a predetermined range are members of the family. By using the information about the home location registered in advance, it is possible to estimate the members of the family living at home with high accuracy and easily.

家族推定装置10は、家族候補登録部13によって家族を構成すると推定された複数の被写体を、家族候補として利用者に通知する通知部14と、家族候補のうち利用者によって選択された被写体が含まれる画像に家族タグを付与するタグ付与部15と、を備える。これにより、利用者に対して、家族を構成する可能性がある被写体を通知し、該通知を受けた利用者によって実際に選択された被写体が含まれた画像を、他の画像と区別することができる。利用者が選択する構成とすることにより、家族の画像を、より高精度且つ簡易に、他の画像と区別することができる。 The family estimation device 10 includes a notification unit 14 that notifies the user of a plurality of subjects estimated to form a family by the family candidate registration unit 13 as family candidates, and a subject selected by the user among the family candidates. The image is provided with a tagging unit 15 for adding a family tag to the image. As a result, the user is notified of the subjects that may form a family, and the image including the subject actually selected by the user who received the notification is distinguished from other images. Can be done. By adopting the configuration selected by the user, the family image can be more accurately and easily distinguished from other images.

家族候補登録部13は、大人の被写体の顔と子供の被写体の顔とを分けてグルーピングを行い、子供の被写体の顔のグルーピングを行う際に類似していると判定する閾値を、大人の被写体の顔のグルーピングを行う際に類似していると判定する閾値よりも高くし、通知部14は、家族候補に係る画像を表示することにより、利用者に家族候補を通知し、子供の被写体についての家族候補に係る画像の表示枚数を、大人の被写体についての家族候補に係る画像の表示枚数よりも多くする。一般的に、子供の顔については、大人の顔よりも類似度判定が困難であり、同一人物でない場合であっても類似と判定される(誤認識される)ことが多い。この点、子供の被写体の顔を大人の被写体の顔と分けてグルーピングするとともに、類似度判定における閾値を、大人の被写体の値と比べて子供の被写体の値を高くすることにより、子供の被写体の顔についての誤認識を抑制することができる。更に、利用者からの選択(特定の集団の画像の選択)を受ける際に、子供の被写体についての画像の表示枚数を多くすることにより、グルーピングの際に仮に誤認識されている場合であっても、実際に集団を構成する被写体を、利用者に適切に選択させることができる。すなわち、集団を構成する被写体の画像に集団構成タグが付与されないことを抑制できる。 The family candidate registration unit 13 separates the face of the adult subject and the face of the child subject into grouping, and sets a threshold value for determining that the faces of the child subject are similar to each other when grouping the faces of the child subject. The notification unit 14 notifies the user of the family candidate by displaying an image related to the family candidate so as to be higher than the threshold for determining that the faces are similar to each other when grouping the faces of the children. The number of images displayed for the family candidate is made larger than the number of images displayed for the family candidate for an adult subject. In general, it is more difficult to determine the similarity of a child's face than that of an adult's face, and even if they are not the same person, they are often determined to be similar (misrecognized). In this regard, the face of the child's subject is grouped separately from the face of the adult's subject, and the threshold value in the similarity determination is set higher than the value of the adult's subject to make the child's subject a higher value. It is possible to suppress misrecognition of the face. Furthermore, when receiving a selection from a user (selection of an image of a specific group), by increasing the number of images displayed for a child's subject, it is tentatively misrecognized at the time of grouping. However, the user can appropriately select the subjects that actually form the group. That is, it is possible to prevent the group composition tag from being attached to the images of the subjects constituting the group.

なお、上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に(例えば、有線及び/又は無線で)接続し、これら複数の装置により実現されてもよい。 The block diagram used in the description of the above embodiment shows a block of functional units. These functional blocks (components) are realized by any combination of hardware and / or software. Further, the means for realizing each functional block is not particularly limited. That is, each functional block may be realized by one physically and / or logically coupled device, or directly and / or indirectly by two or more physically and / or logically separated devices. It may be physically (for example, wired and / or wirelessly) connected and realized by these plurality of devices.

例えば、上記実施形態における家族推定装置10などは、上記実施形態の家族推定装置10の処理を行うコンピュータとして機能してもよい。図2は、本実施形態に係る家族推定装置10のハードウェア構成の一例を示す図である。上述の家族推定装置10は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、及びバス1007などを含むコンピュータ装置として構成されてもよい。 For example, the family estimation device 10 in the above embodiment may function as a computer that performs processing of the family estimation device 10 in the above embodiment. FIG. 2 is a diagram showing an example of the hardware configuration of the family estimation device 10 according to the present embodiment. The family estimation device 10 described above may be physically configured as a computer device including a processor 1001, a memory 1002, a storage 1003, a communication device 1004, an input device 1005, an output device 1006, a bus 1007, and the like.

なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。家族推定装置10のハードウェア構成は、図1に示された各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。 In the following description, the word "device" can be read as a circuit, a device, a unit, or the like. The hardware configuration of the family estimation device 10 may be configured to include one or more of the devices shown in FIG. 1, or may be configured not to include some of the devices.

家族推定装置10における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることで、プロセッサ1001が演算を行い、通信装置1004による通信、メモリ1002及びストレージ1003におけるデータの読み出し及び/又は書き込みを制御することで実現される。 Each function in the family estimation device 10 is performed by loading predetermined software (program) on hardware such as the processor 1001 and the memory 1002, so that the processor 1001 performs an calculation, and the communication device 1004 communicates, the memory 1002, and the storage 1003. It is realized by controlling the reading and / or writing of the data in.

プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)で構成されてもよい。 Processor 1001 operates, for example, an operating system to control the entire computer. The processor 1001 may be composed of a central processing unit (CPU) including an interface with a peripheral device, a control device, an arithmetic unit, a register, and the like.

また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュール、及び/又はデータを、ストレージ1003及び/又は通信装置1004からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態で説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、家族推定装置10の取得部11は、メモリ1002に格納され、プロセッサ1001で動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのプロセッサ1001で実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップで実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されてもよい。 Further, the processor 1001 reads a program (program code), a software module, and / or data from the storage 1003 and / or the communication device 1004 into the memory 1002, and executes various processes according to these. As the program, a program that causes a computer to execute at least a part of the operations described in the above-described embodiment is used. For example, the acquisition unit 11 of the family estimation device 10 may be realized by a control program stored in the memory 1002 and operated by the processor 1001, and may be realized for other functional blocks as well. Although it has been described that the various processes described above are executed by one processor 1001, they may be executed simultaneously or sequentially by two or more processors 1001. Processor 1001 may be mounted on one or more chips. The program may be transmitted from the network via a telecommunication line.

メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つで構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、上記実施形態に係る楽器音認識方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。 The memory 1002 is a computer-readable recording medium, and is composed of at least one such as a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), an EEPROM (Electrically Erasable Programmable ROM), and a RAM (Random Access Memory). May be done. The memory 1002 may be referred to as a register, a cache, a main memory (main storage device), or the like. The memory 1002 can store a program (program code), a software module, or the like that can be executed to carry out the musical instrument sound recognition method according to the above embodiment.

ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD−ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu−ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つで構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及び/又はストレージ1003を含むデータベース、サーバ、その他の適切な媒体であってもよい。 The storage 1003 is a computer-readable recording medium, for example, an optical disk such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disk, an optical magnetic disk (for example, a compact disk, a digital versatile disk, a Blu-ray). It may consist of at least one (registered trademark) disk), smart card, flash memory (eg, card, stick, key drive), floppy (registered trademark) disk, magnetic strip, and the like. The storage 1003 may be referred to as an auxiliary storage device. The storage medium described above may be, for example, a database, server, or other suitable medium that includes memory 1002 and / or storage 1003.

通信装置1004は、有線及び/又は無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。 The communication device 1004 is hardware (transmission / reception device) for performing communication between computers via a wired and / or wireless network, and is also referred to as, for example, a network device, a network controller, a network card, a communication module, or the like.

入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。 The input device 1005 is an input device (for example, a keyboard, a mouse, a microphone, a switch, a button, a sensor, etc.) that receives an input from the outside. The output device 1006 is an output device (for example, a display, a speaker, an LED lamp, etc.) that outputs to the outside. The input device 1005 and the output device 1006 may have an integrated configuration (for example, a touch panel).

また、プロセッサ1001及びメモリ1002などの各装置は、情報を通信するためのバス1007で接続される。バス1007は、単一のバスで構成されてもよいし、装置間で異なるバスで構成されてもよい。 Further, each device such as the processor 1001 and the memory 1002 is connected by a bus 1007 for communicating information. Bus 1007 may be composed of a single bus, or may be composed of different buses between devices.

また、家族推定装置10は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つで実装されてもよい。 Further, the family estimation device 10 includes hardware such as a microprocessor, a digital signal processor (DSP: Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), and an FPGA (Field Programmable Gate Array). It may be configured by, and a part or all of each functional block may be realized by the hardware. For example, processor 1001 may be implemented on at least one of these hardware.

以上、本発明について詳細に説明したが、当業者にとっては、本発明が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本発明は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更された態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本発明に対して何ら制限的な意味を有するものではない。 Although the present invention has been described in detail above, it is clear to those skilled in the art that the present invention is not limited to the embodiments described herein. The present invention can be implemented as an amended or modified embodiment without departing from the spirit and scope of the present invention determined by the description of the claims. Therefore, the description of the present specification is for the purpose of exemplification and does not have any limiting meaning to the present invention.

例えば、家族が写った画像が写真であるとして説明したがこれに限定されず、画像は、その他の静止画又は動画であってもよい。 For example, the image of the family is described as a photograph, but the present invention is not limited to this, and the image may be another still image or moving image.

また、画像推定装置の一例として、家族の画像を推定する家族推定装置を説明したがこれに限定されず、画像推定装置は、家族以外の特定の集団の画像を推定するものであってもよい。特定の集団は、例えば活動場所がある程度定まっているものであり、会社の同僚又は学校の同級生等であってもよい。また、特定の集団の画像を推定する場合には、被写体の年齢推定の結果が反映されてもよい。すなわち、例えば学校の同級生の画像を推定する場合に、被写体の年齢を考慮して、同級生と同年代と思われる被写体の画像を集団構成候補とするものであってもよい。 Further, as an example of the image estimation device, a family estimation device that estimates an image of a family has been described, but the present invention is not limited to this, and the image estimation device may estimate an image of a specific group other than the family. .. The specific group may be, for example, a place of activity to some extent, a colleague of a company, a classmate of a school, or the like. Further, when estimating an image of a specific group, the result of age estimation of the subject may be reflected. That is, for example, when estimating an image of a classmate at school, an image of a subject that seems to be of the same age as the classmate may be used as a group composition candidate in consideration of the age of the subject.

また、家族推定装置10が顔検出処理を行うとして説明したがこれに限定されず、例えば外部の顔認識エンジンによって顔検出処理が行われ、該検出結果を画像推定装置が用いる構成であってもよい。 Further, although it has been described that the family estimation device 10 performs the face detection process, the present invention is not limited to this, and even if the face detection process is performed by an external face recognition engine and the detection result is used by the image estimation device, for example. Good.

また、画像推定装置は、複数の画像の撮像日時を考慮して利用者に通知する画像を決定するものであってもよい。すなわち、上述した取得部11は、複数の画像それぞれの撮像日時を示す情報を取得し、通知部14は、撮像場所が自宅から所定の範囲内である画像の枚数が所定以上である家族候補のみを、表示対象とするとともに、撮像場所が自宅から所定の範囲内である画像のうち、撮影日時が互いに異なる画像の枚数が多い家族候補から順に、家族候補に係る画像を利用者に表示してもよい。撮影日時は、例えばデータ表示端末20による撮像時に画像に対応付けられるものである。これにより、自宅に頻繁に存在する被写体(すなわち、来客ではない、家族である可能性が高い被写体)を優先的に、利用者からの選択候補とすることができ、利用者が家族を選択する際の容易性を高めることができる。 Further, the image estimation device may determine an image to be notified to the user in consideration of the imaging date and time of a plurality of images. That is, the above-mentioned acquisition unit 11 acquires information indicating the imaging date and time of each of the plurality of images, and the notification unit 14 is only a family candidate whose number of images whose imaging location is within a predetermined range from the home is equal to or greater than a predetermined number. Is displayed, and among the images whose imaging location is within a predetermined range from the home, the images related to the family candidates are displayed to the user in order from the family candidate having the largest number of images having different shooting dates and times. May be good. The shooting date and time is associated with the image at the time of imaging by the data display terminal 20, for example. As a result, subjects that frequently exist at home (that is, subjects that are not visitors and are likely to be family members) can be preferentially selected as candidates for selection from users, and the user selects a family member. It is possible to increase the ease of use.

本明細書で説明した各態様/実施形態の処理手順、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。 The order of the processing procedures, flowcharts, and the like of each aspect / embodiment described in the present specification may be changed as long as there is no contradiction. For example, the methods described herein present elements of various steps in an exemplary order, and are not limited to the particular order presented.

入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理されてもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 The input / output information and the like may be stored in a specific location (for example, a memory) or may be managed by a management table. Input / output information and the like can be overwritten, updated, or added. The output information and the like may be deleted. The input information or the like may be transmitted to another device.

判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 The determination may be made by a value represented by 1 bit (0 or 1), by a boolean value (Boolean: true or false), or by comparing numerical values (for example, a predetermined value). It may be done by comparison with the value).

本明細書で説明した各態様/実施形態は単独で用いられてもよいし、組み合わせて用いられてもよいし、実行に伴って切り替えて用いられてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)によって行われてもよい。 Each aspect / embodiment described herein may be used alone, in combination, or switched with execution. Further, the notification of the predetermined information (for example, the notification of "being X") is not limited to the explicit one, and may be implicitly (for example, the notification of the predetermined information is not performed). Good.

ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。 Software, whether referred to as software, firmware, middleware, microcode, hardware description language, or by any other name, is an instruction, instruction set, code, code segment, program code, program, subprogram, software module. , Applications, software applications, software packages, routines, subroutines, objects, executable files, execution threads, procedures, features, etc. should be broadly interpreted.

また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。 Further, software, instructions, and the like may be transmitted and received via a transmission medium. For example, the software uses wired technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and / or wireless technology such as infrared, wireless and microwave to websites, servers, or other When transmitted from a remote source, these wired and / or wireless technologies are included within the definition of transmission medium.

本明細書で説明した情報及び信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。 The information, signals, etc. described herein may be represented using any of a variety of different techniques. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description are voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. It may be represented by a combination of.

なお、本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。 The terms described herein and / or the terms necessary for understanding the present specification may be replaced with terms having the same or similar meanings.

本明細書で使用する「システム」及び「ネットワーク」という用語は、互換的に使用される。 The terms "system" and "network" as used herein are used interchangeably.

また、本明細書で説明した情報、パラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。 Further, the information, parameters, etc. described in the present specification may be represented by an absolute value, a relative value from a predetermined value, or another corresponding information. ..

上述したパラメータに使用される名称はいかなる点においても限定的なものではない。さらに、これらのパラメータを使用する数式等は、本明細書で明示的に開示したものと異なる場合もある。 The names used for the above parameters are not limited in any way. Further, mathematical formulas and the like using these parameters may differ from those expressly disclosed herein.

「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。本明細書で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及び/又はプリント電気接続を使用することにより、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどの電磁エネルギーを使用することにより、互いに「接続」又は「結合」されると考えることができる。 The terms "connected", "coupled", or any variation thereof, mean any direct or indirect connection or connection between two or more elements, and each other. It can include the presence of one or more intermediate elements between two "connected" or "combined" elements. The connection or connection between the elements may be physical, logical, or a combination thereof. As used herein, the two elements are by using one or more wires, cables and / or printed electrical connections, and, as some non-limiting and non-comprehensive examples, radio frequencies. By using electromagnetic energies such as electromagnetic energies with wavelengths in the region, microwave region and light (both visible and invisible) regions, they can be considered to be "connected" or "coupled" to each other.

本明細書で使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」との両方を意味する。 The phrase "based on" as used herein does not mean "based on" unless otherwise stated. In other words, the statement "based on" means both "based only" and "at least based on".

本明細書で使用する「第1」、「第2」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみがそこで採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。 Any reference to elements using designations such as "first", "second" as used herein does not generally limit the quantity or order of those elements. These designations can be used herein as a convenient way to distinguish between two or more elements. Thus, references to the first and second elements do not mean that only two elements can be adopted there, or that the first element must somehow precede the second element.

「含む(including)」、「含んでいる(comprising)」、及びそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。 As long as "including", "comprising", and variations thereof are used within the scope of the present specification or claims, these terms are as comprehensive as the term "comprising". Intended to be targeted. Furthermore, the term "or" as used herein or in the claims is intended not to be an exclusive OR.

本明細書において、文脈又は技術的に明らかに1つのみしか存在しない装置であることが示されていなければ、複数の装置をも含むものとする。 A plurality of devices are also included herein unless it is indicated in the context or technically that there is only one device.

10…家族推定装置、11…取得部、12…被写体特定部、13…家族候補登録部(推定部)、14…通知部、15…タグ付与部、16…データ格納部(活動場所記憶部)。 10 ... Family estimation device, 11 ... Acquisition unit, 12 ... Subject identification unit, 13 ... Family candidate registration unit (estimation unit), 14 ... Notification unit, 15 ... Tagging unit, 16 ... Data storage unit (Activity location storage unit) ..

Claims (2)

複数の画像を取得するとともに、該複数の画像それぞれの撮像場所を示す情報を取得する取得部と、
前記複数の画像に含まれた複数の顔について類似度に基づきグルーピングを行い、複数の被写体を特定する被写体特定部と、
前記撮像場所を示す情報に応じて、前記被写体特定部によって特定された前記複数の被写体の関係性を推定する推定部と、
特定の集団の活動場所を示す情報を記憶する活動場所記憶部と、
推定部によって前記特定の集団を構成すると推定された前記複数の被写体を、集団構成候補として利用者に通知する通知部と、
前記集団構成候補のうち前記利用者によって選択された前記被写体が含まれる画像に集団構成タグを付与するタグ付与部と、を備え、
前記推定部は、前記撮像場所が前記活動場所から所定の範囲内である画像に顔が含まれた前記複数の被写体について、いずれも前記特定の集団を構成すると推定し、
前記被写体特定部は、
所定の年齢以上である第1年齢層と推定される被写体の顔と、該所定の年齢未満である第2年齢層と推定される被写体の顔とを分けて前記グルーピングを行い、
前記第2年齢層の被写体の顔のグルーピングを行う際に類似していると判定する閾値を、前記第1年齢層の被写体の顔のグルーピングを行う際に類似していると判定する閾値よりも高くし、
前記通知部は、
前記集団構成候補に係る画像を表示することにより、前記利用者に前記集団構成候補を通知し、
前記第2年齢層の被写体についての前記集団構成候補に係る画像の表示枚数を、前記第1年齢層の被写体についての前記集団構成候補に係る画像の表示枚数よりも多くする画像推定装置。
An acquisition unit that acquires a plurality of images and acquires information indicating the imaging location of each of the plurality of images.
A subject identification unit that identifies a plurality of subjects by grouping the plurality of faces included in the plurality of images based on the degree of similarity.
An estimation unit that estimates the relationship between the plurality of subjects specified by the subject identification unit according to the information indicating the imaging location, and an estimation unit.
An activity location storage unit that stores information indicating the activity location of a specific group,
A notification unit that notifies the user of the plurality of subjects estimated to form the specific group by the estimation unit as group composition candidates, and a notification unit.
A tag-giving unit that attaches a group composition tag to an image including the subject selected by the user among the group composition candidates is provided.
The estimation unit estimates that each of the plurality of subjects whose face is included in the image whose imaging location is within a predetermined range from the activity location constitutes the specific group.
The subject identification part is
The grouping is performed separately for the face of the subject presumed to be the first age group who is older than the predetermined age and the face of the subject presumed to be the second age group who is less than the predetermined age.
The threshold value for determining that the faces of the subjects of the second age group are similar is larger than the threshold value for determining that the faces of the subjects of the first age group are similar. Higher
The notification unit
By displaying the image related to the group composition candidate, the user is notified of the group composition candidate, and the group composition candidate is notified.
An image estimation device that increases the number of images displayed for the group composition candidate for the subject of the second age group to be larger than the number of images displayed for the group composition candidate for the subject of the first age group.
前記取得部は、前記複数の画像それぞれの撮影日時を示す情報を取得し、
前記通知部は、
前記集団構成候補に係る画像を表示することにより、前記利用者に前記集団構成候補を通知し、
前記撮像場所が前記活動場所から所定の範囲内である画像の枚数が所定以上である前記集団構成候補のみを、表示対象とするとともに、前記撮像場所が前記活動場所から所定の範囲内である画像のうち、前記撮影日時が互いに異なる画像の枚数が多い前記集団構成候補から順に、前記集団構成候補に係る画像を表示する、請求項1記載の画像推定装置。
The acquisition unit acquires information indicating the shooting date and time of each of the plurality of images, and obtains information indicating the shooting date and time.
The notification unit
By displaying the image related to the group composition candidate, the user is notified of the group composition candidate, and the group composition candidate is notified.
Only the group composition candidates in which the number of images whose imaging location is within a predetermined range from the activity location is equal to or greater than a predetermined number are displayed, and the imaging location is within a predetermined range from the activity location. of the the number of shooting date different images often said population structure candidate in order to display an image according to the population structure candidate claim 1 Symbol placement image estimating apparatus.
JP2017105390A 2017-05-29 2017-05-29 Image estimator Active JP6869809B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017105390A JP6869809B2 (en) 2017-05-29 2017-05-29 Image estimator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017105390A JP6869809B2 (en) 2017-05-29 2017-05-29 Image estimator

Publications (2)

Publication Number Publication Date
JP2018200597A JP2018200597A (en) 2018-12-20
JP6869809B2 true JP6869809B2 (en) 2021-05-12

Family

ID=64667211

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017105390A Active JP6869809B2 (en) 2017-05-29 2017-05-29 Image estimator

Country Status (1)

Country Link
JP (1) JP6869809B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7204596B2 (en) * 2019-06-28 2023-01-16 富士フイルム株式会社 Image processing device, image processing method, image processing program, and recording medium storing the program
CN111048209A (en) * 2019-12-28 2020-04-21 安徽硕威智能科技有限公司 Health assessment method and device based on living body face recognition and storage medium thereof
WO2023188332A1 (en) * 2022-03-31 2023-10-05 富士通株式会社 Person identification device, person identification method, and person identification program

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5136819B2 (en) * 2006-09-14 2013-02-06 カシオ計算機株式会社 Image classification apparatus, image classification method, and program
JP2009296248A (en) * 2008-06-04 2009-12-17 Olympus Imaging Corp Image display device and image display system
JP2011081763A (en) * 2009-09-09 2011-04-21 Sony Corp Information processing apparatus, information processing method and information processing program
JP2011128992A (en) * 2009-12-18 2011-06-30 Canon Inc Information processing apparatus and information processing method
JP5477017B2 (en) * 2010-01-26 2014-04-23 ソニー株式会社 Electronic device, content transmission method and program
JP5533418B2 (en) * 2010-08-10 2014-06-25 富士通株式会社 Information processing apparatus and information processing method
JP5848336B2 (en) * 2011-04-25 2016-01-27 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Image processing device
JP6071287B2 (en) * 2012-07-09 2017-02-01 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP6071289B2 (en) * 2012-07-09 2017-02-01 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP6016489B2 (en) * 2012-07-09 2016-10-26 キヤノン株式会社 Image processing apparatus, image processing apparatus control method, and program
JP2015005172A (en) * 2013-06-21 2015-01-08 ソニー株式会社 Information processing device, information processing system, and storage medium storing program
JP6261206B2 (en) * 2013-06-28 2018-01-17 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2017010251A (en) * 2015-06-22 2017-01-12 富士フイルム株式会社 Image extraction apparatus, image extraction method, program, and recording medium

Also Published As

Publication number Publication date
JP2018200597A (en) 2018-12-20

Similar Documents

Publication Publication Date Title
US9477685B1 (en) Finding untagged images of a social network member
WO2018012924A1 (en) Augmented reality device and operation thereof
CN107665485B (en) Electronic device and computer-readable recording medium for displaying graphic objects
KR20180074316A (en) System for providing plce information and electronic device and method supporting the same
JP6869809B2 (en) Image estimator
US20150339518A1 (en) Electronic device, electronic device control method, and computer-readable recording medium having stored thereon electronic device control program
EP3190527A1 (en) Multimedia data processing method of electronic device and electronic device thereof
WO2021051547A1 (en) Violent behavior detection method and system
US10572111B2 (en) Image display control device, image display control method, image display control program, and recording medium having the program stored thereon
US10235607B2 (en) Control device, control method, and computer program product
JP2014229178A (en) Electronic apparatus, display control method, and program
KR20180121273A (en) Method for outputting content corresponding to object and electronic device thereof
US9886452B2 (en) Method for providing related information regarding retrieval place and electronic device thereof
KR102664701B1 (en) Electronic device and method providing content associated with image to application
EP2930632A1 (en) Method for sorting media content and electronic device implementing same
JP2022003526A (en) Information processor, detection system, method for processing information, and program
CN110458052B (en) Target object identification method, device, equipment and medium based on augmented reality
JP2019053381A (en) Image processing device, information processing device, method, and program
JP6350024B2 (en) Information processing apparatus, control method therefor, and program
JP2020135580A (en) Retrieval device, retrieval method and program
JP2017220186A (en) Related story output control program, method and information processor
US10909413B2 (en) Information-processing apparatus, control method, and non-transitory computer readable medium
KR101633198B1 (en) Preventing classification of object contextual information
US20150120715A1 (en) Non-transitory computer readable medium, document recommending apparatus, and document recommending method
US20190266742A1 (en) Entity location provision using an augmented reality system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210414

R150 Certificate of patent or registration of utility model

Ref document number: 6869809

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250