JP7485893B2 - Information processing device, control program, and control method - Google Patents

Information processing device, control program, and control method Download PDF

Info

Publication number
JP7485893B2
JP7485893B2 JP2019232126A JP2019232126A JP7485893B2 JP 7485893 B2 JP7485893 B2 JP 7485893B2 JP 2019232126 A JP2019232126 A JP 2019232126A JP 2019232126 A JP2019232126 A JP 2019232126A JP 7485893 B2 JP7485893 B2 JP 7485893B2
Authority
JP
Japan
Prior art keywords
image
subject
person
tag
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019232126A
Other languages
Japanese (ja)
Other versions
JP2021099748A (en
Inventor
鋭 鐘
健治 笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mixi Inc
Original Assignee
Mixi Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mixi Inc filed Critical Mixi Inc
Priority to JP2019232126A priority Critical patent/JP7485893B2/en
Publication of JP2021099748A publication Critical patent/JP2021099748A/en
Application granted granted Critical
Publication of JP7485893B2 publication Critical patent/JP7485893B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、情報処理装置、制御プログラム、及び制御方法に関する。 The present invention relates to an information processing device, a control program, and a control method.

デジタルフォトフレームにおけるアルバム作成にて、顔認識ソフトウェアを用いて外部メモリから読み出した人物画像に対して顔認識し、検索された特定の人物のサムネイル画像を一覧表示し、アルバムを作成したい人物が選択されると、その人物の画像をアルバムとして表示する技術が知られている(例えば、特許文献1参照)。 There is a known technology for creating albums in a digital photo frame that uses face recognition software to perform facial recognition on images of people read from an external memory, displays a list of thumbnail images of specific people that are found, and when a person for whom an album is to be created is selected, the image of that person is displayed as an album (see, for example, Patent Document 1).

また、顔画像をカメラに登録し、撮影した画像に対して人物検索を行うことができるカメラが知られている。 There are also known cameras that can register facial images in the camera and perform person searches within captured images.

また、子供は成長するにつれて顔の変化が起こりやすいため、カメラに登録している人物の年齢に応じて、一定期間後に登録している顔画像の更新を促すメッセージを通知する技術が知られている(特許文献2参照)。 In addition, because children's faces are prone to change as they grow, there is known technology that sends a message encouraging the user to update the registered face image after a certain period of time depending on the age of the person registered in the camera (see Patent Document 2).

特開2011-129033号公報JP 2011-129033 A 特開2014-182485号公報JP 2014-182485 A

しかしながら、特許文献2に開示されている技術の場合、成長の早い子供はその成長に応じて顔も変化していくので、定期的に顔画像を登録する必要があるが、その操作が煩わしい。 However, in the case of the technology disclosed in Patent Document 2, children grow quickly and their faces change as they grow, so it is necessary to register facial images periodically, which is a cumbersome operation.

本発明は、被写体の画像を予め登録することなく、被写体毎の画像の管理を容易にする技術を提供する。 The present invention provides a technology that makes it easy to manage images of each subject without having to register the images of the subject in advance.

本発明の一態様に係る情報処理装置は、1または複数の被写体それぞれの被写体情報を取得する取得部と、記録されている1または複数の画像それぞれに撮像されている人物の顔画像を、人物毎に分類する分類部と、分類された前記人物毎の頻出度に基づいて、前記人物が撮像されている画像と、前記人物に対応する被写体情報とを関連付ける関連処理部と、を備えることを特徴とする。 An information processing device according to one aspect of the present invention is characterized by comprising an acquisition unit that acquires subject information for each of one or more subjects, a classification unit that classifies the facial images of people captured in each of one or more recorded images by person, and an association processing unit that associates an image in which the person is captured with subject information corresponding to the person based on the frequency of occurrence of each of the classified people.

本発明の一態様によれば、被写体の画像を予め登録することなく、被写体毎の画像の管理を容易にすることができる。 According to one aspect of the present invention, it is possible to easily manage images of each subject without having to register the images of the subject in advance.

本実施形態における情報処理装置の一例を示す図である。FIG. 1 illustrates an example of an information processing device according to an embodiment of the present invention. 本実施形態における画像収集管理システムのネットワーク構成の一例を示す図である。1 is a diagram illustrating an example of a network configuration of an image collection and management system according to an embodiment of the present invention. 本実施形態における画像収集管理システムの機能ブロックの一例を示す図である。FIG. 2 is a diagram illustrating an example of functional blocks of the image collection management system according to the present embodiment. 本実施形態におけるサーバ15により管理されるデータベースのデータ構造例を示す図である。4 is a diagram showing an example of a data structure of a database managed by a server 15 in the present embodiment. FIG. 本実施形態における顔タグの一例について説明する図である。4 is a diagram illustrating an example of a face tag in the present embodiment. FIG. 本実施形態におけるコレクション画面例を示す図である。FIG. 4 is a diagram showing an example of a collection screen in the present embodiment. 本実施形態における顔タグ別詳細画面例を示す図である。FIG. 13 is a diagram showing an example of a detailed screen for each face tag in the embodiment. 本実施形態における修正対象画像選択画面の一例を示す図である。FIG. 13 is a diagram showing an example of a correction target image selection screen in the present embodiment. 本実施形態における訂正画像選択画面の一例を示す図である。FIG. 13 is a diagram showing an example of a correction image selection screen in the present embodiment. 本実施形態における画像収集管理システム全体のシーケンス図である。FIG. 2 is a sequence diagram of the entire image collection management system according to the present embodiment. 本実施形態における画像解析処理(S3)のフローチャートである。11 is a flowchart of an image analysis process (S3) in the present embodiment. 本実施形態におけるクラスタリング処理(S4)及びタグ付与処理(S5)のフローチャート(その1)である。11 is a flowchart (part 1) of a clustering process (S4) and a tagging process (S5) in this embodiment. 本実施形態におけるクラスタリング処理(S4)及びタグ付与処理(S5)のフローチャート(その2)である。13 is a flowchart (part 2) of the clustering process (S4) and the tagging process (S5) in this embodiment. 本実施形態におけるコレクション画面表示処理(S7)及び顔タグ別詳細画面表示処理(S10)のフローチャートである。11 is a flowchart of a collection screen display process (S7) and a face tag detail screen display process (S10) in the present embodiment. 本実施形態におけるプログラムを実行するコンピュータのハードウェア環境の構成ブロック図の一例である。FIG. 2 is a block diagram showing an example of a configuration of a hardware environment of a computer that executes a program according to the present embodiment.

図1は、本実施形態における情報処理装置の一例を示す図である。情報処理装置1は、取得部2、分類部3、関連処理部4を含む。情報処理装置1の一例として、後述するサーバ15が挙げられる。 FIG. 1 is a diagram showing an example of an information processing device in this embodiment. The information processing device 1 includes an acquisition unit 2, a classification unit 3, and an associated processing unit 4. An example of the information processing device 1 is a server 15, which will be described later.

取得部2は、1または複数の被写体それぞれの被写体情報を取得する。取得部2の一例として、被写体情報登録部33が挙げられる。 The acquisition unit 2 acquires subject information for one or more subjects. An example of the acquisition unit 2 is the subject information registration unit 33.

分類部3は、記録されている1または複数の画像それぞれに撮像されている人物の顔画像を、人物毎に分類する。分類部3の一例として、クラスタリング部36が挙げられる。 The classification unit 3 classifies the facial images of people captured in each of the one or more recorded images by person. An example of the classification unit 3 is the clustering unit 36.

関連処理部4は、分類された人物毎の頻出度に基づいて、人物が撮像されている画像と、人物に対応する被写体情報とを関連付ける。関連処理部4の一例として、タグ付与部37が挙げられる。 The related processing unit 4 associates images of people with subject information corresponding to the people based on the frequency of appearance of each classified person. An example of the related processing unit 4 is the tagging unit 37.

このように構成することにより、被写体の画像を予め登録することなく、被写体毎の画像の管理を容易にすることができる。 This configuration makes it easy to manage images for each subject without having to register the image of the subject in advance.

ここで、被写体情報は、被写体の年齢情報を含んでもよい。この場合、関連処理部4は、分類された人物の顔画像から人物の年齢を推定し、推定した人物の年齢と年齢情報とに基づいて、人物が被写体のいずれであるかを特定することができる。 Here, the subject information may include age information of the subject. In this case, the related processing unit 4 can estimate the age of the person from the classified face image of the person, and identify which of the subjects the person is based on the estimated age of the person and the age information.

このように構成することにより、大人に混ざって子供が写真に写っている場合、その写真から子供を推定し、予め登録している年齢情報と照合することにより、被写体を特定することができる。 By configuring it in this way, if a child appears in a photo among adults, the child can be inferred from the photo and the subject can be identified by comparing it with pre-registered age information.

関連処理部4は、取得された複数の被写体情報に対応する複数の被写体が画像に撮像されている場合、複数の被写体が撮像されている画像と、複数の被写体に対応するグループ情報とを関連付けてもよい。 When multiple subjects corresponding to the acquired multiple subject information are captured in an image, the related processing unit 4 may associate the image in which the multiple subjects are captured with group information corresponding to the multiple subjects.

このように構成することにより、被写体である子供のみ2人以上が写っている画像に、例えば、「子供たち」とタグ付けすることができる。その結果、容易に分類を分けることができるので、子供のみが写っている画像の管理がしやすくなる。 By configuring it in this way, images that contain two or more children as subjects can be tagged with, for example, "children." As a result, classification can be easily separated, making it easier to manage images that only contain children.

関連処理部4は、取得された被写体情報に対応する第1被写体(「登録済被写体」という)と、頻出度が所定以上でかつ第1被写体以外の第2被写体(「未登録被写体」という)とを含む被写体グループが画像に撮像されている場合、被写体グループが撮像されている画像と、被写体グループに対応するグループ情報とを関連付けてもよい。 When an image contains a subject group including a first subject (referred to as a "registered subject") corresponding to the acquired subject information and a second subject (referred to as an "unregistered subject") that has a frequency equal to or higher than a predetermined level and is other than the first subject, the related processing unit 4 may associate the image in which the subject group is captured with group information corresponding to the subject group.

このように構成することにより、子供と大人とを含む家族で写っている画像に、例えば、「みんな」とタグ付けすることができる。その結果、容易に分類を分けることができるので、大人を含めた複数人が写っている画像の管理がしやすくなる。 By configuring it in this way, images that show a family, including children and adults, can be tagged with, for example, "everyone." As a result, it is easy to categorize, making it easier to manage images that show multiple people, including adults.

分類部3は、所定期間毎に、記録されている1または複数の画像の集合を形成し、画像の撮影日時に基づいて、いずれの集合を用いて顔画像の分類を行うかを決定してもよい。このように構成することにより、撮影日時から所定期間内の集合を用いて顔画像認識を行うことができる。 The classification unit 3 may form a set of one or more recorded images for each predetermined period, and determine which set to use to classify the facial image based on the date and time the image was captured. By configuring in this way, facial image recognition can be performed using a set within a predetermined period from the date and time of capture.

分類部3は、被写体情報に基づいて、集合を形成する頻度を変えてもよい。このように構成することにより、集合の形成を行う場合、例えば大人よりも子供の方が頻度を高くすることができる。 The classification unit 3 may change the frequency with which groups are formed based on the subject information. By configuring in this way, when groups are formed, for example, children can be formed more frequently than adults.

分類部3は、画像が動画像である場合、動画像を構成する静止画像を特定してもよい。特定する静止画像としては、例えば、動画像を構成する静止画像の一部であり、その一部は動画像の前半部分の静止画像を用いてもよい。分類部3の一例として、クラスタリング部36だけでなく、画像解析部35が挙げられる。この場合、関連処理部4は、静止画像を用いて分類された人物毎の頻出度に基づいて、動画像と、静止画像に撮像されている人物(登録済被写体)に対応する被写体情報とを関連付けてもよい。 When the image is a moving image, the classification unit 3 may identify still images that make up the moving image. The identified still images are, for example, some of the still images that make up the moving image, and these may be still images from the first half of the moving image. An example of the classification unit 3 is not only the clustering unit 36 but also the image analysis unit 35. In this case, the related processing unit 4 may associate the moving image with subject information corresponding to the person (registered subject) captured in the still image based on the frequency of each person classified using the still images.

このように構成することにより、動画でも同様に被写体の顔画像を予め登録することなく、被写体毎の動画を分類することができるので、被写体毎の画像の管理を容易にすることができる。 By configuring it in this way, videos can be classified by subject without having to pre-register facial images of the subjects, making it easier to manage images by subject.

図2は、本実施形態における画像収集管理システムのネットワーク構成の一例を示す図である。画像収集管理システム11は、1以上のユーザ端末12、サーバ15、及び通信ネットワーク16を含む。1以上のユーザ端末12、及びサーバ15は、通信ネットワーク16を介して、相互に通信可能に接続されている。 Figure 2 is a diagram showing an example of the network configuration of the image collection management system in this embodiment. The image collection management system 11 includes one or more user terminals 12, a server 15, and a communication network 16. The one or more user terminals 12 and the server 15 are connected to each other via the communication network 16 so that they can communicate with each other.

ユーザ端末12は、例えばユーザが携帯するスマートフォン、タブレット端末、携帯電話等の通信ネットワーク16に接続可能な通信機能を有する携帯電子端末装置である。ユーザ端末12は、操作表示部13、音が入力されるマイクロフォン、音を出力するスピーカ、及びカメラ等を有する。操作表示部13は、画面14への入力操作が可能であるとともに、画面14に画像を表示するデバイスであり、例えばタッチパネルディスプレイである。 The user terminal 12 is a portable electronic terminal device with a communication function that can be connected to the communication network 16, such as a smartphone, tablet terminal, or mobile phone carried by the user. The user terminal 12 has an operation display unit 13, a microphone for inputting sound, a speaker for outputting sound, a camera, etc. The operation display unit 13 is a device that allows input operations to be made to the screen 14 and displays images on the screen 14, and is, for example, a touch panel display.

また、ユーザ端末12は、被写体を静止画及び動画で撮影するための撮像装置を有する。撮像装置は、ユーザ端末12に内蔵されていてもよいし、外付けタイプのものであってもよい。なお、ユーザ端末12は、いわゆるパーソナルコンピュータであってもよいし、インターネット等の通信網に接続可能なカメラであってもよい。撮像装置で撮像された写真や動画は、ユーザ端末12内の記憶装置に格納されてもよいし、着脱式記憶媒体等に記憶されてもよい。 The user terminal 12 also has an imaging device for capturing still and video images of a subject. The imaging device may be built into the user terminal 12 or may be an external type. The user terminal 12 may be a so-called personal computer or a camera that can be connected to a communication network such as the Internet. The photos and videos captured by the imaging device may be stored in a storage device within the user terminal 12 or may be stored in a removable storage medium, etc.

ユーザ端末12は、インターネット上のアプリケーションプログラムのダウンロードサイトから所定のアプリケーションプログラムをダウンロードしてインストールすることができる。これにより、ユーザは、ユーザ端末12の操作表示部13に入力操作を行うことにより、そのアプリケーションプログラムを操作することができる。本実施形態では、一例として、子供及び家族の写真や動画をクラウドサーバ等で共有し、整理することが可能な専用のアプリケーションソフトウエア(以下「専用アプリケーションソフトウエア」という。)がユーザ端末12にインストールされるものとする。 The user terminal 12 can download and install a specific application program from an application program download site on the Internet. This allows the user to operate the application program by performing input operations on the operation display unit 13 of the user terminal 12. In this embodiment, as an example, it is assumed that dedicated application software (hereinafter referred to as "dedicated application software") that allows photos and videos of children and family to be shared and organized on a cloud server or the like is installed on the user terminal 12.

ユーザは、この専用アプリケーションソフトウエアをユーザ端末12上で起動させることによって、ユーザ端末12をサーバ15へアクセスさせることができる。ユーザ端末12がサーバ15にアクセスする場合には、例えば、予め登録されているログインユーザIDの入力が求められてもよい。 The user can cause the user terminal 12 to access the server 15 by starting up this dedicated application software on the user terminal 12. When the user terminal 12 accesses the server 15, the user may be required to input, for example, a login user ID that has been registered in advance.

ユーザ端末12にインストールされた専用アプリケーションソフトウエアが起動すると、ユーザ端末12の画面14には、後述するグラフィカルユーザインターフェース(GUI)画面が表示される。GUI画面には、子供や家族の写真や動画をサーバ15に登録したり、登録した写真や動画を閲覧するための画面が表示される。 When the dedicated application software installed in the user terminal 12 is started, a graphical user interface (GUI) screen, which will be described later, is displayed on the screen 14 of the user terminal 12. The GUI screen displays a screen for registering photos and videos of children and family members to the server 15 and for viewing registered photos and videos.

ユーザは、ユーザ端末12にインストールされた専用アプリケーションソフトウエアを起動させ、GUI画面を操作して、サーバ15にアクセスすることができる。そして、ユーザは、GUI画面を操作して、ユーザ端末12に保持されている写真や動画をサーバ15にアップロードすることができる。 The user can start up the dedicated application software installed in the user terminal 12 and operate the GUI screen to access the server 15. The user can then operate the GUI screen to upload photos and videos stored in the user terminal 12 to the server 15.

サーバ15は、ユーザ端末12にインストールされた専用アプリケーションプログラムをアプリケーションプログラムインターフェース(API)として、写真や動画に関する管理を行う情報処理装置である。サーバ15は、専用アプリケーションプログラムからの要求に応じて、アップロードされた写真や動画を収集し、家族や一定の範囲内のユーザに収集した写真や動画の閲覧をする等を可能にする。以下では、写真(静止画)及び動画を総称して、画像をいう。 The server 15 is an information processing device that manages photos and videos using a dedicated application program installed on the user terminal 12 as an application program interface (API). In response to requests from the dedicated application program, the server 15 collects uploaded photos and videos, and enables family members and users within a certain range to view the collected photos and videos. Hereinafter, photos (still images) and videos are collectively referred to as images.

サーバ15は、1台以上の物理的な情報処理装置により構成されるサーバシステムであってもよいし、1台以上の仮想サーバ装置により構成される仮想サーバシステムであってもよい。 Server 15 may be a server system consisting of one or more physical information processing devices, or it may be a virtual server system consisting of one or more virtual server devices.

図3は、本実施形態における画像収集管理システム11の機能ブロックの一例を示す図である。以下では、ユーザ端末12、サーバ15のそれぞれが有する機能について説明する。 Figure 3 is a diagram showing an example of functional blocks of the image collection management system 11 in this embodiment. The following describes the functions of the user terminal 12 and the server 15.

ユーザ端末12は、操作表示部13、通信部21、制御部22、撮像部23、及び記憶部24を含む。通信部21は、通信ネットワーク16に接続された機器との通信を可能にするインターフェースである。ここでは、通信部21は、通信ネットワーク16を介して、サーバ15と通信を行う。 The user terminal 12 includes an operation display unit 13, a communication unit 21, a control unit 22, an imaging unit 23, and a storage unit 24. The communication unit 21 is an interface that enables communication with devices connected to the communication network 16. Here, the communication unit 21 communicates with the server 15 via the communication network 16.

操作表示部13は、ユーザの入力操作により入力が可能であると共に、表示も可能なタッチパネルディスプレイである。なお、本実施形態では、一例として、タッチパネルディスプレイを用いるが、これに限定されず、入力部と表示部とがそれぞれ独立していてもよい。 The operation display unit 13 is a touch panel display that allows input by a user's input operation and also allows display. Note that in this embodiment, a touch panel display is used as an example, but this is not limited thereto, and the input unit and the display unit may be independent of each other.

制御部22は、ユーザ端末12全体の動作を制御する。制御部22は、記憶部24に格納されている専用アプリケーションプログラム25のユーザインターフェース(UI)データ26に基づいて、画面14の表示状態を制御する。撮像部23は、CCD(Charge Coupled Device)等の撮像装置である。 The control unit 22 controls the overall operation of the user terminal 12. The control unit 22 controls the display state of the screen 14 based on user interface (UI) data 26 of a dedicated application program 25 stored in the memory unit 24. The imaging unit 23 is an imaging device such as a CCD (Charge Coupled Device).

記憶部24は、インストールされた専用アプリケーションプログラム25、UIデータ26、画像(写真データ、動画データ)27、各種データ等を格納する。ここで、データにはステータス情報や文字データだけでなく、グラフィカルデータも含む。画像27は、撮像日時、Global Positioning System(GPS)による位置情報のメタデータを含む。 The storage unit 24 stores installed dedicated application programs 25, UI data 26, images (photo data, video data) 27, various data, etc. Here, data includes not only status information and text data, but also graphical data. The images 27 include metadata such as the date and time of capture and location information from the Global Positioning System (GPS).

サーバ15は、通信部31、制御部32、記憶部41を含む。通信部31は、通信ネットワーク16に接続された機器との通信を可能にするインターフェースである。通信部31は、通信ネットワーク16を介して、ユーザ端末12と通信を行う。 The server 15 includes a communication unit 31, a control unit 32, and a memory unit 41. The communication unit 31 is an interface that enables communication with devices connected to the communication network 16. The communication unit 31 communicates with the user terminal 12 via the communication network 16.

制御部32は、サーバ15全体の動作を制御する。それと共に、制御部32は、ユーザ端末12からの要求に応じて処理を実行し、実行結果をユーザ端末12に返す等の制御を行う。制御部32は、本実施形態に係るアプリケーションプログラムを実行することにより、被写体情報登録部33、画像取得部34、画像解析部35、クラスタリング部36、タグ付与部37、出力部38として機能する。 The control unit 32 controls the operation of the entire server 15. At the same time, the control unit 32 executes processes in response to requests from the user terminal 12, and performs control such as returning the execution results to the user terminal 12. The control unit 32 executes the application program according to this embodiment, thereby functioning as a subject information registration unit 33, an image acquisition unit 34, an image analysis unit 35, a clustering unit 36, a tag assignment unit 37, and an output unit 38.

被写体情報登録部33は、ユーザ端末12からの登録要求に応じて、ユーザの家族(子供、夫婦、祖父母等)のうち、子供に関する情報(被写体情報)を受け付ける。被写体情報登録部33は、ユーザ端末12から受け付けた被写体情報を記憶部41に登録する。ここで、被写体情報が記憶部41(具体的には後述する被写体情報管理DB43)に登録された被写体を、「登録済被写体」と称する。また、後述するように、画像中に撮像された人物のうち、被写体情報管理DB43に被写体情報が登録されていない人物(登録済被写体以外の被写体)を、「未登録被写体」と称する。また、単に「被写体」と称する場合は、登録前の被写体である場合、登録済被写体及び未登録被写体を含む場合、または単に画像中の人物を示す場合がある。 The subject information registration unit 33 accepts information (subject information) about children among the user's family members (children, couples, grandparents, etc.) in response to a registration request from the user terminal 12. The subject information registration unit 33 registers the subject information accepted from the user terminal 12 in the storage unit 41. Here, a subject whose subject information is registered in the storage unit 41 (specifically, the subject information management DB 43 described later) is referred to as a "registered subject." Also, as described later, among the people captured in the image, a person whose subject information is not registered in the subject information management DB 43 (a subject other than a registered subject) is referred to as an "unregistered subject." Also, when simply referring to a "subject," it may refer to a subject before registration, may include registered subjects and unregistered subjects, or may simply refer to a person in the image.

画像取得部34は、ユーザ端末12からのアップロード要求に応じて、ユーザ端末12から送信されたユーザの家族に関する画像(写真データ及び動画を含む。)を取得する。 The image acquisition unit 34 acquires images (including photo data and videos) related to the user's family sent from the user terminal 12 in response to an upload request from the user terminal 12.

画像解析部35は、取得された画像を解析し、画像内の被写体の顔を検出したり、検出された被写体の姿勢を推定したり、検出された被写体の年齢を推定したり、画像内において検出された被写体の人数を検出したり、顔画像から特徴ベクトルを算出したり等する。画像解析部35は、解析処理後、解析結果を記憶部41に格納する。また、画像解析部35は、解析が終わった画像を、記憶部41に格納する。 The image analysis unit 35 analyzes the acquired image, detects the face of the subject in the image, estimates the posture of the detected subject, estimates the age of the detected subject, detects the number of subjects detected in the image, calculates feature vectors from the face image, etc. After the analysis process, the image analysis unit 35 stores the analysis results in the storage unit 41. In addition, the image analysis unit 35 stores the image after analysis in the storage unit 41.

クラスタリング部36は、クラスタリング条件と、画像の解析結果とを用いて、記憶部41に格納されている画像(顔画像)について、クラスタ解析(クラスタリング)を行う。クラスタリングでは、データの集合を部分集合(クラスタ)に分けて、それぞれの部分集合に含まれる顔画像の特徴ベクトルが共通または類似になるようにする。ここで、本実施形態では、クラスタリングを行う画像は、単独で写っている画像を用いるがこれに限定されず、複数人が写っている画像をクラスタリングするようにしてもよい。この場合、その画像に写っている人物それぞれの顔画像を抽出し、抽出した顔画像それぞれについてクラスタリングを行うようにしてもよい。 The clustering unit 36 performs cluster analysis (clustering) on the images (face images) stored in the storage unit 41 using the clustering conditions and the image analysis results. In clustering, a set of data is divided into subsets (clusters) so that the feature vectors of the face images included in each subset are common or similar. Here, in this embodiment, images in which a single person appears are used as the images to be clustered, but this is not limited to this, and images in which multiple people appear may also be clustered. In this case, the face image of each person appearing in the image may be extracted, and clustering may be performed on each of the extracted face images.

タグ付与部37は、クラスタリングの結果、撮像枚数(出現頻度)の多い顔画像を含む画像と、被写体情報とを関係付けることができる。または、タグ付与部37は、年齢推定結果とに基づいて、クラスタリングにより分類された顔画像を含む画像と、被写体情報とを関係付けてもよい。 The tagging unit 37 can associate images containing face images captured in large numbers (frequently occurring) as a result of clustering with subject information. Alternatively, the tagging unit 37 may associate images containing face images classified by clustering with subject information based on the age estimation result.

それから、タグ付与部37は、被写体情報と関係付けられた画像に、顔タグとして「子供タグ」を付与する。 Then, the tagging unit 37 assigns a "child tag" as a face tag to the image associated with the subject information.

また、タグ付与部37は、複数人の人物が写っている画像について、それらの人物のすべてが、登録済被写体である場合(すなわち、写真に写っている人物がすべて子供である場合)、その画像に顔タグとして「兄弟タグ(または姉妹タグ)」を付与する。 In addition, for an image containing multiple people, if all of those people are registered subjects (i.e., if all the people in the photo are children), the tagging unit 37 assigns a "brother tag (or sister tag)" as a face tag to the image.

また、タグ付与部37は、複数人の人物が写っている画像に登録済被写体以外の人物(未登録被写体)が含まれている場合(すなわち、写真に写っている人物に大人が含まれている場合)、その画像に顔タグとして「家族タグ」を付与する。 In addition, if an image containing multiple people includes a person other than a registered subject (an unregistered subject) (i.e., if the people in the photo include an adult), the tagging unit 37 assigns a "family tag" as a face tag to the image.

出力部38は、ユーザ端末12の画面操作に応じて、顔タグが付与された画像を、顔タグに応じて被写体毎、兄弟・姉妹毎、または家族毎に、ユーザ端末12の画面14に表示させる。なお、出力部38は、ユーザ端末12の画面操作に応じて、タグが付与された画像を、プリンタやディスプレイ装置、他の記憶媒体等に出力してもよいし、通信ネットワーク16を介して外部の装置に送信してもよい。 The output unit 38 displays the images with face tags on the screen 14 of the user terminal 12 for each subject, brother/sister, or family member according to the face tag in response to the screen operation of the user terminal 12. Note that the output unit 38 may output the images with tags to a printer, display device, other storage medium, etc., in response to the screen operation of the user terminal 12, or may transmit them to an external device via the communication network 16.

記憶部51は、画像格納領域42を有する。画像格納領域42は、ユーザがアップデートした画像、画像解析部35による解析が完了した画像、またはそれらの画像から生成されたサムネイル画像等を格納する。 The memory unit 51 has an image storage area 42. The image storage area 42 stores images updated by the user, images for which analysis by the image analysis unit 35 has been completed, or thumbnail images generated from these images, etc.

また、記憶部51は、被写体情報管理データベース43、画像解析結果管理データベース44、クラスタリング条件管理データベース45、コレクション画面管理データベース46、顔タグマスター情報管理データベース47、被写体別顔タグ管理データベース48、顔タグ別詳細画面管理データベース49を格納する。なお、以下では、データベースを「DB」と称する。 The storage unit 51 also stores a subject information management database 43, an image analysis result management database 44, a clustering condition management database 45, a collection screen management database 46, a face tag master information management database 47, a subject-specific face tag management database 48, and a face tag-specific detail screen management database 49. In the following, the databases are referred to as "DBs."

被写体情報管理DB43は、被写体毎に顔タグを付与するために、対象となる被写体(すなわち「登録被写体」を示す。この例では、ユーザの家族における子供)に関する情報を管理するデータベースである。画像解析結果管理DB44は、画像解析部35により解析された結果を格納するデータベースである。クラスタリング条件管理DB45は、クラスタリング部36がクラスタリングを行う場合の条件(クラスタリング条件)を格納するデータベースである。顔タグマスター情報管理DB46は、顔タグのマスター情報を管理するデータベースである。コレクション画面管理DB47は、ユーザ端末12の画面14において表示されるコレクション画面の内容を管理するデータベースである。被写体別顔タグ管理DB48は、被写体(登録済被写体だけでなく、未登録被写体を含んだ複数人の被写体を含む。)と、それに対応する顔タグとを管理するデータベースである。顔タグ別詳細画面管理DB49は、選択された顔タグが付与された画像を表示する詳細画面(顔タグ別詳細画面)を管理するデータベースである。 The subject information management DB 43 is a database that manages information about the target subject (i.e., the "registered subject"; in this example, the child in the user's family) in order to assign a face tag to each subject. The image analysis result management DB 44 is a database that stores the results of the analysis by the image analysis unit 35. The clustering condition management DB 45 is a database that stores the conditions (clustering conditions) when the clustering unit 36 performs clustering. The face tag master information management DB 46 is a database that manages the master information of the face tag. The collection screen management DB 47 is a database that manages the contents of the collection screen displayed on the screen 14 of the user terminal 12. The subject-specific face tag management DB 48 is a database that manages subjects (including not only registered subjects but also multiple subjects including unregistered subjects) and the corresponding face tags. The face tag-specific detail screen management DB 49 is a database that manages a detail screen (face tag-specific detail screen) that displays an image to which a selected face tag has been assigned.

図4は、本実施形態におけるサーバ15により管理されるデータベースのデータ構造例を示す図である。以下では、被写体情報管理DB43の各レコードを被写体情報と称する場合がある。画像解析結果管理DB44の各レコードを画像解析結果情報と称する場合がある。クラスタリング条件管理DB45の各レコードをクラスタリング条件情報と称する場合がある。顔タグマスター情報管理DB46の各レコードを顔タグマスター情報と称する場合がある。コレクション画面管理DB47の各レコードをコレクション画面情報と称する場合がある。被写体別顔タグ管理DB48の各レコードを被写体別顔タグ情報と称する場合がある。顔タグ別詳細画面管理DB49の各レコードを顔タグ別詳細画面情報と称する場合がある。 Figure 4 is a diagram showing an example of the data structure of a database managed by the server 15 in this embodiment. In the following, each record in the subject information management DB 43 may be referred to as subject information. Each record in the image analysis result management DB 44 may be referred to as image analysis result information. Each record in the clustering condition management DB 45 may be referred to as clustering condition information. Each record in the face tag master information management DB 46 may be referred to as face tag master information. Each record in the collection screen management DB 47 may be referred to as collection screen information. Each record in the subject-specific face tag management DB 48 may be referred to as subject-specific face tag information. Each record in the face tag-specific detail screen management DB 49 may be referred to as face tag-specific detail screen information.

被写体情報管理DB43は、「家族ID」、「被写体ID」、「被写体名」、「生年月日」のデータ項目を含む。項目「家族ID」には、ユーザの家族を特定する情報(家族ID)が格納される。項目「被写体ID」には、被写体の人物を識別する識別情報(被写体ID)が格納される。項目「被写体名」には、被写体IDに対応する人物の名前(被写体名)が格納される。項目「生年月日」には、その被写体の生年月日が登録される。 The subject information management DB43 includes the data items "Family ID", "Subject ID", "Subject Name", and "Date of Birth". The "Family ID" item stores information (family ID) that identifies the user's family. The "Subject ID" item stores identification information (subject ID) that identifies the subject person. The "Subject Name" item stores the name of the person corresponding to the subject ID (subject name). The "Date of Birth" item stores the subject's date of birth.

画像解析結果管理DB44は、「画像ID」、「撮像日時」、「撮像場所」、「顔検出結果」、「被写体人数」、「姿勢推定結果」、「年齢推定結果」、「特徴ベクトル」のデータ項目を含む。項目「画像ID」には、画像を特定する情報(画像ID)が格納される。項目「撮像日時」には、画像が撮像された日時が格納される。項目「撮像場所」には、画像が撮像された場所(位置)が格納される。項目「顔検出結果」には、顔検出処理により検出された顔に関する情報が格納される。項目「被写体人数」には、検出された顔の数が格納される。項目「姿勢推定結果」には、その画像において、検出された顔の人物の姿勢に関する情報が格納される。項目「年齢推定結果」には、その画像において、検出された顔から推定される年齢が格納される。項目「特徴ベクトル」には、その顔の特徴を表す特徴ベクトル(特徴量)が格納される。 The image analysis result management DB44 includes the data items "Image ID", "Image capture date and time", "Image capture location", "Face detection result", "Number of subjects", "Posture estimation result", "Age estimation result", and "Feature vector". The "Image ID" item stores information that identifies the image (image ID). The "Image capture date and time" item stores the date and time when the image was captured. The "Image capture location" item stores the location (position) where the image was captured. The "Face detection result" item stores information about faces detected by face detection processing. The "Number of subjects" item stores the number of faces detected. The "Posture estimation result" item stores information about the posture of the person whose face is detected in the image. The "Age estimation result" item stores the age estimated from the face detected in the image. The "Feature vector" item stores a feature vector (feature amount) that represents the features of the face.

クラスタリング条件管理DB45は、「家族ID」、「期間」のデータ項目を含む。項目「家族ID」には、ユーザの家族を特定する情報(家族ID)が格納される。項目「期間」には、クラスタリングを行う周期や期間(〇年〇月〇日から×年×月×日まで)、期日、日時等が格納される。 The clustering condition management DB45 includes the data items "Family ID" and "Period." The "Family ID" item stores information (family ID) that identifies the user's family. The "Period" item stores the cycle and period for which clustering is performed (from year/month/day to year/month/day), deadline, date, time, etc.

顔タグマスター情報管理DB46は、「顔タグID」、「顔タグ種別」のデータ項目を含む。項目「顔タグID」には、子ども別に画像を閲覧することができるためのタグ(顔タグ)の種別を特定する情報(顔タグID)が格納される。項目「顔タグ種別」には、顔タグの種別が格納される。この例では、顔タグ種別として、「子供」、「家族」、「兄弟・姉妹」が格納されている。 The face tag master information management DB46 includes the data items "face tag ID" and "face tag type." The "face tag ID" item stores information (face tag ID) that identifies the type of tag (face tag) that allows images to be viewed by child. The "face tag type" item stores the type of face tag. In this example, the face tag types stored are "child," "family," and "brothers/sisters."

コレクション画面管理DB47は、「家族ID」、「顔タグID」(または「顔タグID+枝番」)のデータ項目を含む。項目「家族ID」には、家族を特定する情報(家族ID)が格納される。項目「顔タグID」には、クラスタリングで分類されて被写体情報と関係付けられた人物の顔タグIDが格納される。なお、同一の家族IDについて、同種の顔タグIDが存在する場合には、その顔タグIDに、枝番として、関係付けられた被写体情報の被写体IDが付与されて格納される。 Collection screen management DB47 includes data items of "Family ID" and "Face tag ID" (or "Face tag ID + subnumber"). The item "Family ID" stores information (family ID) that identifies a family. The item "Face tag ID" stores face tag IDs of people classified by clustering and associated with subject information. Note that if the same type of face tag ID exists for the same family ID, the subject ID of the associated subject information is assigned as a subnumber to that face tag ID and stored.

被写体別顔タグ管理DB48は、「家族ID」、「顔タグID」、「枝番(被写体ID)」、「顔タグ表記」、「プロフィール画像ID」のデータ項目を含む。項目「家族ID」には、家族を特定する情報(家族ID)が格納される。項目「顔タグID」には、クラスタリングで分類されて被写体情報と関係付けられた人物の顔タグIDが格納される。「枝番(被写体ID)」には、同一の家族IDについて、同種の顔タグIDが存在する場合には、その顔タグIDの枝番として、関係付けられた被写体情報の被写体IDが格納される。「顔タグ表記」には、画面14上で具体的に表示する顔の表記内容として、関係付けられた被写体情報の被写体IDに対応する被写体名が格納される。「プロフィール画像ID」には、画面14上で表示するプロフィール画像として、クラスタリングされた画像から選択された画像のサムネイル画像を特定する識別情報(プロフィール画像ID)が格納される。 The subject-specific face tag management DB 48 includes data items of "family ID", "face tag ID", "subject ID number", "face tag notation", and "profile image ID". The item "family ID" stores information (family ID) that identifies a family. The item "face tag ID" stores the face tag ID of a person classified by clustering and associated with subject information. In the case where the same type of face tag ID exists for the same family ID, the subject ID of the associated subject information is stored as the sub number of the face tag ID in the "subject ID number". In the "face tag notation", the subject name corresponding to the subject ID of the associated subject information is stored as the notation content of the face to be specifically displayed on the screen 14. In the "profile image ID", identification information (profile image ID) that identifies a thumbnail image of an image selected from the clustered images as a profile image to be displayed on the screen 14 is stored.

顔タグ別詳細画面管理DB49は、「家族ID」、「顔タグID」、「枝番」、「年月」、「年齢」、「成長メモ」、「体重」、「身長」、「画像ID」のデータ項目を含む。項目「家族ID」には、家族を特定する情報(家族ID)が格納される。項目「顔タグID」には、クラスタリングで分類されて被写体情報と関係付けられた人物の顔タグIDが格納される。「枝番」には、同一の家族IDについて、同種の顔タグIDが存在する場合には、その顔タグIDの枝番として、関係付けられた被写体情報の被写体IDが格納される。項目「年月」には、画像が撮像された年月が格納される。項目「年齢」には、画像が撮像された年月日から、被写体情報管理DB43に登録されたその被写体IDに対応する生年月日を差し引いた年齢(月齢)が格納される。項目「成長メモ」には、ユーザが任意で入力したコメントが格納される。項目「体重」には、ユーザが任意で入力した被写体(登録済被写体だけでなく、未登録被写体を含む複数の被写体であってもよい。)の体重が格納される。項目「身長」には、ユーザが任意で入力した被写体(登録済被写体だけでなく、未登録被写体を含む複数の被写体であってもよい。)の身長が格納される。項目「画像ID」には、その年月において撮像されたその顔タグIDに対応する画像の画像IDが格納される。 The face tag detail screen management DB49 includes the data items "family ID", "face tag ID", "branch number", "year and month", "age", "growth memo", "weight", "height", and "image ID". The item "family ID" stores information (family ID) that identifies a family member. The item "face tag ID" stores the face tag ID of a person classified by clustering and associated with the subject information. In the "branch number", if the same type of face tag ID exists for the same family ID, the subject ID of the associated subject information is stored as the branch number of the face tag ID. The item "year and month" stores the year and month when the image was captured. The item "age" stores the age (monthly age) obtained by subtracting the date of birth corresponding to the subject ID registered in the subject information management DB43 from the year and month when the image was captured. The item "growth memo" stores comments arbitrarily entered by the user. The item "weight" stores the weight of a subject (which may be not only a registered subject but also multiple subjects including an unregistered subject) arbitrarily entered by the user. The "Height" item stores the height of the subject (which may be multiple subjects including not only registered subjects but also unregistered subjects) that is arbitrarily input by the user. The "Image ID" item stores the image ID of the image captured in that year and month that corresponds to that face tag ID.

図5は、本実施形態における顔タグの一例について説明する図である。顔タグは、子ども別に写真や動画を閲覧可能にするためのタグであり、子供が写っている画像またはこれに関係づけられた被写体情報に付与される。なお、子どもだけじゃなく、家族や兄弟・姉妹という単位で画像を閲覧することもできる。 Figure 5 is a diagram illustrating an example of a face tag in this embodiment. A face tag is a tag that enables photos and videos to be viewed by child, and is attached to images that include children or subject information related to the images. Note that images can be viewed not only by children, but also by family members or brothers and sisters.

顔タグの種類の一例として、「子供」、「家族」、「兄弟・姉妹」がある。ある人物が1人だけで写っている画像について子供タグが付与されている場合、ユーザ端末12の画面14では、その人物(登録済被写体)の名前が表示される。たとえば、「あき」という名前の子供が写っている画像の場合、子供タグが付与され、画面14上では「あき」と表示される。子供タグは、被写体情報管理DB43に登録されている登録済被写体(子供)の数だけ付与される。 Examples of types of face tags include "children," "family," and "brothers/sisters." When a child tag is assigned to an image that shows a person alone, the name of that person (registered subject) is displayed on the screen 14 of the user terminal 12. For example, in the case of an image that shows a child named "Aki," a child tag is assigned and "Aki" is displayed on the screen 14. Child tags are assigned to the number of registered subjects (children) registered in the subject information management DB 43.

また、子供のみが2人以上写っている画像には、兄弟・姉妹タグが付与される。兄弟・姉妹タグが付与された画像は、画面14上では「子供たち」と表示される。たとえば、「あき」という名前の子供と「はる」という名前の子供が写っている画像の場合、兄弟・姉妹タグが付与され、画面14上では「子供たち」と表示される。なお、兄弟・姉妹がいない場合には、このタグは付与されない。被写体情報管理DB43において、同一家族IDで、複数の被写体情報が登録されている場合には、その登録済被写体は、兄弟または姉妹と判定される。 In addition, images that contain two or more children are given a brothers/sisters tag. Images with the brothers/sisters tag are displayed as "children" on the screen 14. For example, an image that contains a child named "Aki" and a child named "Haru" is given the brothers/sisters tag and displayed as "children" on the screen 14. Note that if there are no brothers or sisters, this tag is not given. When multiple subject information items are registered with the same family ID in the subject information management DB 43, the registered subjects are determined to be brothers or sisters.

また、1人以上の子供と、1人以上の大人が一緒に写っている画像には、家族タグが付与される。家族タグが付与された画像は、画面14上では「みんな」と表示される。たとえば、「あき」という名前の子供とママが写っている画像の場合、家族タグが付与され、画面14上では「みんな」と表示される。なお、この例では、大人のみの画像は画面14上には表示しない。 In addition, a family tag is added to an image that shows one or more children and one or more adults together. An image with a family tag added is displayed as "everyone" on the screen 14. For example, an image that shows a child named "Aki" and his mother is added with a family tag and displayed as "everyone" on the screen 14. Note that in this example, images of adults only are not displayed on the screen 14.

図6は、本実施形態におけるコレクション画面例を示す図である。ユーザ端末12において、ユーザが専用アプリケーションプログラム25を起動させると、コレクション画面51が表示する。コレクション画面51は、ユーザによってアップロードされてサーバ15に収集・管理されている画像を一元的に閲覧することができる。 Figure 6 is a diagram showing an example of a collection screen in this embodiment. When a user starts the dedicated application program 25 on the user terminal 12, a collection screen 51 is displayed. The collection screen 51 allows the user to centrally view images that have been uploaded by the user and collected and managed on the server 15.

コレクション画面51は、動画表示欄52、人物毎のアルバム欄53、お気に入り欄55を含む。動画表示欄52は、サーバ15にアップロードされている動画が表示されており、その動画をタップすると再生される。 The collection screen 51 includes a video display section 52, an album section for each person 53, and a favorites section 55. The video display section 52 displays videos uploaded to the server 15, and tapping on a video causes it to be played.

人物毎のアルバム欄53には、顔タグ単位で人物のプロフィール画像53a及びそれに対応する顔タグの表記(図5参照)が表示される。被写体情報管理DB43に登録されている登録済被写体(子供)の数だけプロフィール画像を表示させる。プロフィール画像は、顔タグが付与されている画像のうちいずれかの画像から生成されるサムネイル画像である。なお、顔タグの表記部分53bをタップすると、対応するプロフィール画像53aを変更することができる。 In the album column 53 for each person, the person's profile image 53a and the corresponding face tag notation (see FIG. 5) are displayed for each face tag. The number of profile images displayed is the same as the number of registered subjects (children) registered in the subject information management DB 43. The profile image is a thumbnail image generated from one of the images to which a face tag has been added. Note that by tapping the face tag notation portion 53b, the corresponding profile image 53a can be changed.

「あき」という名前の子供が写っている画像の場合、子供タグが付与され、コレクション画面51上では「あき」と表示されている。「はる」という名前の子供が写っている画像の場合、子供タグが付与され、コレクション画面51上では「はる」と表示されている。
「はる」という名前の子供と大人(例えば、パパとママ)が写っている画像の場合、家族タグが付与され、コレクション画面51の人物毎のアルバム欄53では、「みんな」と表示されている。
「あき」という名前の子供と「はる」という名前の子供が写っている画像の場合、兄弟・姉妹タグが付与され、コレクション画面51の人物毎のアルバム欄53では「子供たち」と表示される。
In the case of an image in which a child named "Aki" appears, a child tag is added and the image is displayed as "Aki" on the collection screen 51. In the case of an image in which a child named "Haru" appears, a child tag is added and the image is displayed as "Haru" on the collection screen 51.
In the case of an image that includes a child named "Haru" and an adult (e.g., dad and mom), a family tag is added, and in the album column 53 for each person on the collection screen 51, "everyone" is displayed.
In the case of an image showing a child named "Aki" and a child named "Haru", the brothers/sisters tag is added and the image is displayed as "children" in the album column 53 for each person on the collection screen 51.

編集ボタン54は、人物毎のアルバム欄53のプロフィール画像53aと顔タグの表記の組み合わせが間違っている場合に、手動で修正するためのボタンである。編集ボタン54を押下すると、図8の画面に遷移する。 The edit button 54 is a button for manually correcting the combination of the profile image 53a and the face tag notation in the album column 53 for each person if it is incorrect. Pressing the edit button 54 transitions to the screen in Figure 8.

お気に入り欄55には、ユーザのお気に入りの写真や動画を登録することができる。なお、コレクション画面51は、画面14内に収まらずに表示されていない内容を見るために、画面の中を上下または左右に少しずつ移動させて、隠れている部分を表示させる(スクロール)させることが可能になっている。 The favorites section 55 allows the user to register their favorite photos and videos. In order to view content that does not fit within the screen 14, the collection screen 51 can be scrolled up and down or left and right to display (display) the hidden parts.

ここで、人物毎のアルバム欄53において、いずれかの人物のプロフィール画像53aをタップすると、その顔タグが付与された画像を閲覧できる詳細画面(顔タグ別詳細画面)に遷移する。例えば、「あき」のプロフィール画像53aまたは子供タグ「あき」53bをタップすると、図7の画面に遷移する。 Here, when the profile image 53a of any person is tapped in the album column 53 for each person, a transition to a details screen (details screen by face tag) in which images with that face tag can be viewed is displayed. For example, when the profile image 53a of "Aki" or the child tag "Aki" 53b is tapped, a transition to the screen in FIG. 7 is displayed.

図7は、本実施形態における顔タグ別詳細画面例を示す図である。顔タグ別詳細画面61は、コレクション画面51の人物毎のアルバム欄53にて、選択された人物の画像を閲覧・管理する詳細画面である。 Figure 7 is a diagram showing an example of a face tag detail screen in this embodiment. The face tag detail screen 61 is a detail screen for viewing and managing images of a person selected in the album column 53 for each person on the collection screen 51.

顔タグ別詳細画面61は、プロフィール画像62、顔タグに対応する表記欄63、月齢(生後〇〇日)表示欄64、時系列表示欄65、時系列対応画像表示欄66、成長メモ入力欄67、体重・身長入力欄68を含む。 The face tag detail screen 61 includes a profile image 62, a description field 63 corresponding to the face tag, an age in months (days after birth) display field 64, a timeline display field 65, a timeline corresponding image display field 66, a growth memo input field 67, and a weight/height input field 68.

プロフィール画像62及び顔タグに対応する表記欄63は、コレクション画面51の人物毎のアルバム欄53に表示されていたものと同様である。月齢(生後〇〇日)表示欄64は、現時点でのその登録済被写体の月齢(生後〇〇日)が表示される。時系列表示欄65には、1ヶ月毎の月齢及び年月が表示されている。時系列対応画像表示欄66には、時系列表示欄65に対応する期間の画像が表示される。成長メモ入力欄67には、その時系列時点での子供の成長に関するコメントを入力して記録できる。体重・身長入力欄68には、その時系列時点での子供の体重および身長を入力して記録できる。 The profile image 62 and the description field 63 corresponding to the face tag are the same as those displayed in the album field 53 for each person on the collection screen 51. The age (days after birth) display field 64 displays the current age (days after birth) of the registered subject. The chronological display field 65 displays the age in months and year and month for each month. The chronological corresponding image display field 66 displays images for the period corresponding to the chronological display field 65. The growth memo input field 67 allows comments about the child's growth at that time to be entered and recorded. The weight/height input field 68 allows the child's weight and height at that time to be entered and recorded.

なお、顔タグ別詳細画面61をスクロールすると、年齢順及び月齢順に、時系列表示欄65、時系列対応画像表示欄66、成長メモ入力欄67、体重・身長入力欄68が表示される。 When the face tag detail screen 61 is scrolled, a time-series display field 65, a time-series corresponding image display field 66, a growth memo input field 67, and a weight/height input field 68 are displayed in order of age and month.

次に、人物毎のアルバム欄53において、プロフィール画像53aの人物と、顔タグの表記部分53bの名前の組み合わせが間違っている場合に、その組み合わせを正す方法について、図8及び図9を用いて説明する。
図8は、本実施形態における修正対象画像選択画面の一例を示す図である。修正対象画像選択画面71は、コレクション画面51の編集ボタン54を押下すると、表示される。顔タグ修正画面71は、修正画像選択欄72を含む。修正画像選択欄72には、子供タグが付与された登録済被写体のプロフィール画像が表示されている。すなわち、子供の数だけ、それぞれの子供に対応するプロフィール画像が表示される。ここでは、プロフィール画像53aの人物と、顔タグの表記部分53bの名前の組み合わせが間違っている画像(すなわち修正対象の画像)を選択することができる。
Next, a method for correcting a wrong combination of a person in the profile image 53a and the name in the face tag notation portion 53b in the person-by-person album column 53 will be described with reference to FIGS. 8 and 9. FIG.
8 is a diagram showing an example of a correction target image selection screen in this embodiment. The correction target image selection screen 71 is displayed when the edit button 54 on the collection screen 51 is pressed. The face tag correction screen 71 includes a correction image selection field 72. The correction image selection field 72 displays profile images of registered subjects to which child tags have been added. That is, the number of profile images corresponding to each child is displayed as many as the number of children. Here, an image in which the combination of the person in the profile image 53a and the name in the face tag notation portion 53b is incorrect (i.e., the image to be corrected) can be selected.

修正画像選択欄72において、修正対象の画像として「はる」の表記が付与されたプロフィール画像をタップする。すると、図9の画面が表示される。 In the image to be edited selection field 72, tap the profile image with the character "Haru" written on it as the image to be edited. Then, the screen in Figure 9 will be displayed.

図9は、本実施形態における訂正画像選択画面の一例を示す図である。訂正画像選択画面81は、訂正画像選択欄82を含む。訂正画像選択欄82には、子供タグが付与された登録済被写体のプロフィール画像が表示されている。訂正画像選択欄82には、同一及び異なる子供タグが付与された登録済被写体のプロフィール画像が表示されている。異なる子供タグとは、「あき」、「はる」等、異なる子供の登録済被写体を示す。同一の子供タグとは、同一人物についての子供タグを示す。 FIG. 9 is a diagram showing an example of a correction image selection screen in this embodiment. The correction image selection screen 81 includes a correction image selection field 82. The correction image selection field 82 displays profile images of registered subjects to which a child tag has been assigned. The correction image selection field 82 displays profile images of registered subjects to which the same and different child tags have been assigned. Different child tags refer to registered subjects of different children, such as "Aki" and "Haru." The same child tag refers to child tags for the same person.

訂正画像選択画面81では、顔タグ表記に対応する正しいプロフィール画像をタップする。これにより、顔タグ表記と、それに対応する正しいプロフィール画像とを関係付けることができる。また、顔タグにより特定される人物と、被写体情報とも関係付けることができる。 On the correction image selection screen 81, tap the correct profile image that corresponds to the face tag notation. This allows the face tag notation to be associated with the corresponding correct profile image. It is also possible to associate the person identified by the face tag with subject information.

なお、同一の子供についてプロフィール画像(サムネイル画像)が複数生成されていてもよい。この場合、例えば、訂正画像選択画面81では、同一の子供タグが付されたプロフィール画像も表示されるので、同一の子供についてプロフィール画像が複数ある場合には、その中からユーザの好みにあったプロフィール画像を選択するようにしてもよい。 Note that multiple profile images (thumbnail images) may be generated for the same child. In this case, for example, the correction image selection screen 81 also displays profile images with the same child tag, so if there are multiple profile images for the same child, the user may select from among them the profile image that best suits their preferences.

図10は、本実施形態における画像収集管理システム全体のシーケンス図である。本実
施形態における画像収集管理システム11では、主として、被写体情報登録フェーズ、画像収集フェーズ、画像閲覧フェーズの3つのフェーズがある。
被写体情報登録フェーズでは、ユーザは、ユーザ端末12において、専用アプリケーションプログラム25を起動させて、所定の画面を表示させ、被写体(例えば、自身の子供)の名前(被写体名)及び生年月日を入力する。このとき、例えば子供が複数いる場合には子供の数だけ入力を繰り返す。入力が完了したら、登録ボタンを押下する。
10 is a sequence diagram of the entire image collection management system in this embodiment. The image collection management system 11 in this embodiment has three main phases: a subject information registration phase, an image collection phase, and an image viewing phase.
In the subject information registration phase, the user starts the dedicated application program 25 on the user terminal 12, displays a specific screen, and inputs the name (subject name) and date of birth of the subject (e.g., the user's own child). At this time, if the user has multiple children, the input is repeated for each child. When the input is complete, the user presses the registration button.

すると、ユーザ端末12は、被写体情報(家族ID、被写体名及び生年月日を含む。)をサーバ15に送信する(S1)。サーバ15は、被写体情報毎に、被写体IDを付与し、被写体情報管理DB43に登録する。 Then, the user terminal 12 transmits the subject information (including the family ID, subject name, and date of birth) to the server 15 (S1). The server 15 assigns a subject ID to each piece of subject information and registers it in the subject information management DB 43.

次に、画像収集フェーズでは、ユーザは、ユーザ端末12に格納されている画像を、専用アプリケーションプログラム25の所定の画面を介して、サーバ15にアップロードする(S2)。 Next, in the image collection phase, the user uploads the images stored in the user terminal 12 to the server 15 via a specific screen of the dedicated application program 25 (S2).

サーバ15は、ユーザ端末12からアップロードされた画像を解析し(S3)、クラスタリング処理を行って、特定の被写体別、複数の被写体等の画像を分類する(S4)。サーバ15は、撮影頻度や顔画像から推定された年齢に基づいて、分類した画像と、被写体情報とを関係付けると共に、顔タグを付与する(S5)。 The server 15 analyzes the images uploaded from the user terminal 12 (S3) and performs clustering processing to classify the images by specific subjects, multiple subjects, etc. (S4). The server 15 associates the classified images with subject information based on the frequency of photography and age estimated from the face image, and assigns face tags (S5).

最後に、画像閲覧フェーズでは、ユーザは、専用アプリケーションプログラム25を起動させて、コレクション画面の表示を試みる。すると、ユーザ端末12は、コレクション画面表示要求(家族IDを含む。)をサーバ15に送信する(S6)。 Finally, in the image viewing phase, the user launches the dedicated application program 25 and attempts to display the collection screen. The user terminal 12 then transmits a collection screen display request (including the family ID) to the server 15 (S6).

サーバ15は、コレクション画面表示要求を取得すると、コレクション画面51を表示させるための処理(コレクション画面表示処理)を行う(S7)。ここでは、サーバ15は、コレクション画面51のコンテンツ情報として、コレクション画面管理DB47から家族IDに対応するコレクション画面情報を取得し、被写体別顔タグ管理DBから家族IDに対応する被写体別顔タグ情報を取得する。サーバ15は、コレクション画面情報、被写体別顔タグ情報をユーザ端末12に送信する(S8)。 When the server 15 acquires the collection screen display request, it performs processing (collection screen display processing) for displaying the collection screen 51 (S7). Here, the server 15 acquires collection screen information corresponding to the family ID from the collection screen management DB 47 as content information for the collection screen 51, and acquires subject-specific face tag information corresponding to the family ID from the subject-specific face tag management DB. The server 15 transmits the collection screen information and subject-specific face tag information to the user terminal 12 (S8).

ユーザ端末12は、サーバ15からコレクション画面情報、被写体別顔タグ情報を取得すると、取得したコレクション画面情報、被写体別顔タグ情報を用いてコレクション画面51を表示させる。 When the user terminal 12 acquires the collection screen information and subject-specific face tag information from the server 15, it displays the collection screen 51 using the acquired collection screen information and subject-specific face tag information.

それから、ユーザは、コレクション画面51の人物毎のアルバム欄53から、いずれかの人物(被写体)のプロフィール画像53aを選択し、タップする。すると、ユーザ端末12は、そのタップしたプロフィール画像53aに対応する顔タグ別詳細画面61を閲覧するための顔タグ別詳細画面閲覧要求(家族ID、顔タグID、被写体ID)をサーバ15に送信する(S9)。 Then, the user selects and taps the profile image 53a of any person (subject) from the person-by-person album column 53 on the collection screen 51. The user terminal 12 then transmits to the server 15 a face tag detail screen viewing request (family ID, face tag ID, subject ID) to view the face tag detail screen 61 corresponding to the tapped profile image 53a (S9).

サーバ15は、顔タグ別詳細画面閲覧要求を取得すると、顔タグ別詳細画面61を表示させる処理(顔タグ別詳細画面表示処理)を行う(S10)。ここでは、サーバ15は、顔タグ別詳細画面のコンテンツ情報として、顔タグ別詳細画面管理DB49から、家族ID、顔タグID、及び被写体IDに対応する顔タグ別詳細画面情報を取得する。サーバ15は、取得した顔タグ別詳細画面情報をユーザ端末12に送信する(S11)。 When the server 15 acquires a request to view a face tag detail screen, it performs a process (face tag detail screen display process) to display the face tag detail screen 61 (S10). Here, the server 15 acquires face tag detail screen information corresponding to the family ID, face tag ID, and subject ID from the face tag detail screen management DB 49 as content information for the face tag detail screen. The server 15 transmits the acquired face tag detail screen information to the user terminal 12 (S11).

ユーザ端末12は、顔タグ別詳細画面情報を取得すると、取得した顔タグ別詳細画面情報を用いて顔タグ別詳細画面61を表示する。 When the user terminal 12 acquires the face tag detail screen information, it displays the face tag detail screen 61 using the acquired face tag detail screen information.

図11は、本実施形態における画像解析処理(S3)のフローチャートである。制御部32は、本実施形態に係るプログラムを読み込むことにより、画像取得部34、画像解析部35として機能する。 Figure 11 is a flowchart of the image analysis process (S3) in this embodiment. The control unit 32 functions as an image acquisition unit 34 and an image analysis unit 35 by reading the program according to this embodiment.

画像取得部34は、ユーザ端末12よりアップロードされた画像を取得する(S21)。画像解析部35は、顔検出アルゴリズムを用いて、取得された画像から顔を検出し、顔検出結果を画像解析結果管理DB44に格納する(S22)。 The image acquisition unit 34 acquires an image uploaded from the user terminal 12 (S21). The image analysis unit 35 uses a face detection algorithm to detect a face from the acquired image, and stores the face detection result in the image analysis result management DB 44 (S22).

画像解析部35は、取得された画像から検出した顔の個数から、画像中の人物の数を計測し、その人数を画像解析結果管理DB44に格納する(S23)。画像解析部35は、姿勢推定アルゴリズムを用いて、取得された画像から、検出した顔に対する人物の姿勢を推定し、姿勢推定結果を画像解析結果管理DB44に格納する(S24)。人物の姿勢の推定では、例えば顔がどっちを向いているかを推定する。 The image analysis unit 35 counts the number of people in the image from the number of faces detected in the acquired image, and stores this number in the image analysis result management DB 44 (S23). The image analysis unit 35 uses a posture estimation algorithm to estimate the posture of the person relative to the detected face from the acquired image, and stores the posture estimation result in the image analysis result management DB 44 (S24). When estimating the posture of the person, for example, it estimates which way the face is facing.

画像解析部35は、年齢推定アルゴリズムを用いて、取得された画像から、検出した顔に対する人物の年齢を推定し、年齢推定結果を画像解析結果管理DB44に格納する(S25)。 The image analysis unit 35 uses an age estimation algorithm to estimate the age of the person corresponding to the detected face from the acquired image, and stores the age estimation result in the image analysis result management DB 44 (S25).

画像解析部35は、顔検出結果、姿勢推定結果、及び姿勢推定結果から顔画像の特徴ベクトルを算出し、その算出された特徴ベクトルを画像解析結果管理DB44に格納する(S26)。画像解析部35は、解析済みの画像を画像格納領域42に格納する(S27)。 The image analysis unit 35 calculates the face detection result, the posture estimation result, and a feature vector of the face image from the posture estimation result, and stores the calculated feature vector in the image analysis result management DB 44 (S26). The image analysis unit 35 stores the analyzed image in the image storage area 42 (S27).

図12A及び図12Bは、本実施形態におけるクラスタリング処理(S4)及びタグ付与処理(S5)のフローチャートである。制御部32は、本実施形態に係るプログラムを読み込むことにより、クラスタリング部36、タグ付与部37として機能する。 FIGS. 12A and 12B are flowcharts of the clustering process (S4) and the tagging process (S5) in this embodiment. The control unit 32 functions as a clustering unit 36 and a tagging unit 37 by reading the program according to this embodiment.

クラスタリング部36は、クラスタリング条件に基づいて、クラスタリング対象の家族・期間を決定する(S31)。ここでは、クラスタリング部36は、クラスタリング条件管理DB45から、家族IDに対応するクラスタリング条件情報を取得し、期間(クラスタリングの対象となる期間)を決定する。 The clustering unit 36 determines the family and period to be clustered based on the clustering conditions (S31). Here, the clustering unit 36 obtains clustering condition information corresponding to the family ID from the clustering condition management DB 45, and determines the period (the period to be clustered).

クラスタリング部36は、、画像に付与されている撮像日時情報に基づいて、画像格納領域42から決定した期間に含まれる画像を読み出す(S32)。クラスタリング部36は、画像解析結果管理DB44の被写体人数を参照して、読み出した画像から単独で写っている画像(顔画像)を抽出する(S33)。 The clustering unit 36 reads out images that fall within the determined period from the image storage area 42 based on the image capture date and time information attached to the images (S32). The clustering unit 36 references the number of subjects in the image analysis result management DB 44 and extracts images in which the subject appears alone (face images) from the read out images (S33).

クラスタリング部36は、画像解析結果管理DB44から、読み出した画像の画像IDに対応する特徴ベクトルを取得し、取得した特徴ベクトルに基づいて、顔画像に対してクラスタリングを行い、人物毎に分類する(S34)。 The clustering unit 36 obtains a feature vector corresponding to the image ID of the read image from the image analysis result management DB 44, and performs clustering on the face images based on the obtained feature vector, classifying them by person (S34).

タグ付与部37は、人物の出現頻度(または年齢情報)に基づいて、顔画像と被写体情報とを関係付けると共に、そのクラスタの全画像に子供タグを付与する(S35)。ここでは、タグ付与部37は、被写体情報管理DB43から、家族IDに対応する被写体情報を取得する。 The tagging unit 37 associates the face image with the subject information based on the frequency of appearance of the person (or age information), and assigns a child tag to all images in the cluster (S35). Here, the tagging unit 37 obtains the subject information corresponding to the family ID from the subject information management DB 43.

例えば、被写体情報管理DB43から取得された被写体情報が1つの場合(すなわち子供が1人である場合)、タグ付与部37は、人物毎に分類されたクラスタのうち、撮像枚数が最も多いクラスタの人物が被写体情報と特定して、家族ID、画像IDと、被写体情報の被写体IDと、顔タグID(「子供タグ」を示すID)を関係付けて、被写体別顔タグ管理DB48に登録する。 For example, when only one piece of subject information is obtained from the subject information management DB43 (i.e., when there is one child), the tag assignment unit 37 identifies the person in the cluster with the largest number of images captured among the clusters classified by person as the subject information, associates the family ID, image ID, subject ID of the subject information, and face tag ID (ID indicating "child tag"), and registers it in the subject-specific face tag management DB48.

例えば、被写体情報管理DB43から取得された被写体情報が複数の場合(すなわち兄弟・姉妹がいる場合)、タグ付与部37は、人物毎に分類されたクラスタの人物の年齢を推定し、その年齢と被写体情報の生年月日に基づいてその推定した顔画像の画像IDと、被写体情報の被写体IDと、顔タグID(「子供タグ」を示すID)、家族IDとを関係付けて、被写体別顔タグ管理DB48に登録する。 For example, when there are multiple subject information retrieved from the subject information management DB 43 (i.e. when there are brothers and sisters), the tag assignment unit 37 estimates the age of the person in the cluster classified by person, and based on the age and the date of birth of the subject information, associates the image ID of the estimated face image with the subject ID of the subject information, the face tag ID (ID indicating the "child tag"), and the family ID, and registers them in the subject-specific face tag management DB 48.

タグ付与部37は、子供タグが付与されたその人物の画像のうちいずれかを用いてその人物のプロフィール画像(サムネイル画像)を生成し、表記用タグを設定する(S36)。ここでは、タグ付与部37は、被写体情報と関係付けられた顔画像のいずれかからプロフィール画像及びそのプロフィール画像を特定するプロフィール画像IDを生成し、被写体別顔タグ管理DBに格納する。また、タグ付与部37は、被写体情報管理DB43から家族ID、被写体IDに対応する被写体名を取得する。 The tag assignment unit 37 generates a profile image (thumbnail image) of the person using one of the images of the person to which the child tag has been assigned, and sets a notation tag (S36). Here, the tag assignment unit 37 generates a profile image and a profile image ID that identifies the profile image from one of the face images associated with the subject information, and stores them in the subject-specific face tag management DB. The tag assignment unit 37 also obtains the family ID and the subject name corresponding to the subject ID from the subject information management DB 43.

タグ付与部37は、被写体別顔タグ管理DB48において家族ID、顔タグID,及び枝番(被写体ID)に対応する被写体別顔タグ情報の項目「顔タグ表記」に、取得した被写体名を登録する。タグ付与部37は、S35及びS36を、人物毎に分類されたクラスタの数だけ繰り返す。 The tag assignment unit 37 registers the acquired subject name in the "face tag notation" item of the subject-specific face tag information corresponding to the family ID, face tag ID, and sub-number (subject ID) in the subject-specific face tag management DB 48. The tag assignment unit 37 repeats S35 and S36 the number of times corresponding to the number of clusters classified by person.

タグ付与部37は、画像解析結果管理DB44の項目「被写体人数」を参照して、読み出した画像から、複数人で写っている未処理の1枚の画像を取得する(S37)。タグ付与部37は、画像解析結果管理DB44の特徴ベクトルを用いて、その画像中の人物がすべて登録済被写体であるかを判定する(S38)。 The tagging unit 37 references the "Number of subjects" item in the image analysis result management DB 44 and obtains one unprocessed image that contains multiple people from the read images (S37). The tagging unit 37 uses the feature vectors in the image analysis result management DB 44 to determine whether all the people in the image are registered subjects (S38).

その画像中の人物がすべて登録済被写体である場合(S38でYES)、タグ付与部37は、その画像に兄弟・姉妹タグを付与する(S39)。ここでは、タグ付与部37は、家族ID、画像IDと、顔タグID(「兄弟・姉妹タグ」を特定するID)を関係付けて、被写体別顔タグ管理DB48に登録する。 If all the people in the image are registered subjects (YES in S38), the tagging unit 37 assigns a brother/sister tag to the image (S39). Here, the tagging unit 37 associates the family ID, image ID, and face tag ID (ID that identifies the "brother/sister tag"), and registers them in the subject-specific face tag management DB 48.

その画像中の人物がすべて登録済被写体でない場合、すなわち画像中に未登録被写体が1人以上存在する場合(S38でNO)、タグ付与部37は、その画像に家族タグを付与する(S40)。ここでは、タグ付与部37は、家族ID、画像IDと、顔タグID(「家族タグ」を特定するID)を関係付けて、被写体別顔タグ管理DB48に登録する。なお、未登録被写体の人物の頻出度(その人物の撮像枚数の多さ)が一定以上の場合に、その画像に家族タグを付与してもよい。 If none of the people in the image are registered subjects, i.e., if there is one or more unregistered subjects in the image (NO in S38), the tagging unit 37 assigns a family tag to the image (S40). Here, the tagging unit 37 associates the family ID, image ID, and face tag ID (ID that identifies the "family tag") and registers them in the subject-specific face tag management DB 48. Note that if the frequency of an unregistered subject (the number of images of that person) is above a certain level, a family tag may be assigned to the image.

タグ付与部37は、複数人で写っている画像の枚数だけS37~S40の処理を繰り返す。 The tagging unit 37 repeats the process of S37 to S40 for the number of images that contain multiple people.

それから、タグ付与部37は、兄弟・姉妹タグが付与された画像のうち、いずれかを用いて兄弟・姉妹タグ用プロフィール画像(サムネイル画像)を生成する。タグ付与部37は、表記用タグを設定する(S41)。ここでは、タグ付与部37は、兄弟・姉妹タグが付与された画像のいずれかからプロフィール画像及びそのプロフィール画像を特定するプロフィール画像IDを生成し、被写体別顔タグ管理DBに格納する。さらに、タグ付与部37は、兄弟・姉妹タグとして項目「顔タグ表記」に「子供たち」を格納する。 Then, the tag assignment unit 37 generates a profile image (thumbnail image) for the brothers/sisters tag using one of the images to which the brothers/sisters tag has been assigned. The tag assignment unit 37 sets a notation tag (S41). Here, the tag assignment unit 37 generates a profile image and a profile image ID that identifies the profile image from one of the images to which the brothers/sisters tag has been assigned, and stores them in the subject-specific face tag management DB. Furthermore, the tag assignment unit 37 stores "children" in the item "face tag notation" as the brothers/sisters tag.

タグ付与部37は、家族タグが付与された画像のうち、いずれかを用いて家族タグ用プロフィール画像(サムネイル画像)を生成する。タグ付与部37は、表記用タグを設定する(S42)。ここでは、タグ付与部37は、家族タグが付与された画像のいずれかからプロフィール画像及びそのプロフィール画像を特定するプロフィール画像IDを生成し、被写体別顔タグ管理DBに格納する。さらに、タグ付与部37は、家族タグとして項目「顔タグ表記」に「みんな」を格納する。 The tag assignment unit 37 generates a family tag profile image (thumbnail image) using one of the images to which a family tag has been assigned. The tag assignment unit 37 sets a notation tag (S42). Here, the tag assignment unit 37 generates a profile image and a profile image ID that identifies the profile image from one of the images to which a family tag has been assigned, and stores them in the subject-specific face tag management DB. Furthermore, the tag assignment unit 37 stores "everyone" in the item "face tag notation" as a family tag.

なお、S36、S41、S42において生成されるプロフィール画像(サムネイル画像)は、1画像に限定されず、複数候補のプロフィール画像(サムネイル画像)が生成されてもよい。この場合、例えば、複数候補のプロフィール画像(サムネイル画像)のうち、デフォルトでは撮影日時の新しいものがプロフィール画像として設定されるようにしてもよい。そして、ユーザが自分の好みに応じてプロフィール画像を変更する場合には、図6で説明したように、顔タグの表記部分53bをタップして、対応するプロフィール画像53aを変更するようにしてもよい。 The profile image (thumbnail image) generated in S36, S41, and S42 is not limited to one image, and multiple candidate profile images (thumbnail images) may be generated. In this case, for example, among the multiple candidate profile images (thumbnail images), the one with the most recent shooting date and time may be set as the profile image by default. Then, when the user wants to change the profile image according to his/her preference, the face tag notation portion 53b may be tapped to change the corresponding profile image 53a, as described in FIG. 6.

図13は、本実施形態におけるコレクション画面表示処理(S7)及び顔タグ別詳細画面表示処理(S10)のフローチャートである。制御部32は、本実施形態に係るプログラムを読み込むことにより、出力部38として機能する。 Figure 13 is a flowchart of the collection screen display process (S7) and the face tag detail screen display process (S10) in this embodiment. The control unit 32 functions as the output unit 38 by reading the program according to this embodiment.

出力部38は、ユーザ端末12からコレクション画面表示要求(家族IDを含む。)を取得する(S51)。すると、出力部38は、コレクション画面管理DB47から家族IDに対応するコレクション画面情報を取得する(S52)。 The output unit 38 receives a collection screen display request (including a family ID) from the user terminal 12 (S51). The output unit 38 then receives collection screen information corresponding to the family ID from the collection screen management DB 47 (S52).

出力部38は、取得したコレクション画面情報に含まれる顔タグID及び顔タグID+枝番をすべて取得する(S53)。出力部38は、被写体別顔タグ管理DB48から、家族ID及び、顔タグIDまたは顔タグID+枝番に対応する「顔タグ表記」及び「プロフィール画像ID」を取得する(S54)。 The output unit 38 acquires all face tag IDs and face tag ID + branch numbers included in the acquired collection screen information (S53). The output unit 38 acquires the family ID and the "face tag notation" and "profile image ID" corresponding to the face tag ID or the face tag ID + branch number from the subject-specific face tag management DB 48 (S54).

出力部38は、画像格納領域42から、取得したプロフィール画像IDに対応するプロフィール画像を取得する(S55)。出力部38は、コレクション画面情報、及び顔タグ表記とプロフィール画像とをユーザ端末12へ送信する(S56)。 The output unit 38 acquires a profile image corresponding to the acquired profile image ID from the image storage area 42 (S55). The output unit 38 transmits the collection screen information, the face tag notation, and the profile image to the user terminal 12 (S56).

ユーザ端末12は、コレクション画面情報、及び顔タグ表記とプロフィール画像を取得すると、コレクション画面51の人物毎のアルバム欄53については、顔タグ表記とプロフィール画像をそのペア単位で表示する。その後、ユーザは、コレクション画面51の人物毎のアルバム欄53から、いずれかのプロフィール画像を選択する。すると、ユーザ端末12は、顔タグ別詳細画面閲覧要求をサーバ15に送信する。 When the user terminal 12 acquires the collection screen information, the face tag notation, and the profile image, the face tag notation and the profile image are displayed in pairs in the album column 53 for each person on the collection screen 51. The user then selects one of the profile images from the album column 53 for each person on the collection screen 51. The user terminal 12 then transmits a request to view a detailed screen by face tag to the server 15.

出力部38は、顔タグ別詳細画面閲覧要求を受け取るまで待ち状態となっている(S57でNO)。顔タグ別詳細画面閲覧要求を受信した場合(S57でYES)、出力部38は、顔タグ別詳細画面閲覧要求(家族ID、及び顔タグID,枝番(被写体ID)を含む。)を取得する(S58)。 The output unit 38 is in a waiting state until it receives a request to view a detailed screen by face tag (NO in S57). When a request to view a detailed screen by face tag is received (YES in S57), the output unit 38 acquires a request to view a detailed screen by face tag (including a family ID, a face tag ID, and a sub-number (subject ID)) (S58).

出力部38は、顔タグ別詳細画面管理DB49から、家族ID,顔タグID,枝番(被写体ID)に対応する顔タグ別詳細画面情報を取得する(S59)。出力部38は、顔タグ別詳細画面情報に含まれる画像IDに対応する画像を取得する(S60)。 The output unit 38 acquires face tag detail screen information corresponding to the family ID, face tag ID, and sub-number (subject ID) from the face tag detail screen management DB 49 (S59). The output unit 38 acquires an image corresponding to the image ID included in the face tag detail screen information (S60).

出力部38は、取得した画像を撮像日時で時系列にソートする(S61)。出力部38は、取得した顔タグ別詳細画面情報、及びソートした画像をユーザ端末12へ送信する(S62)。 The output unit 38 sorts the acquired images in chronological order by the image capture date and time (S61). The output unit 38 transmits the acquired face tag-specific detail screen information and the sorted images to the user terminal 12 (S62).

ユーザ端末12は、顔タグ別詳細画面情報、及びソートした画像を取得すると、顔タグ別詳細画面61のプロフィール画像62、顔タグに対応する表記欄63には、遷移前のコレクション画面51の人物毎のアルバム欄53でタップしたプロフィール画像及び顔タグ表記が表示される。 When the user terminal 12 acquires the face tag detail screen information and the sorted images, the profile image 62 on the face tag detail screen 61 and the description field 63 corresponding to the face tag display the profile image and face tag description tapped in the person-specific album field 53 on the collection screen 51 before the transition.

さらに、顔タグ別詳細画面情報に基づいて、月齢(生後〇〇日)表示欄64、時系列表示欄65、時系列対応画像表示欄66、成長メモ入力欄67、体重・身長入力欄68が表示される。また、画像も時系列対応画像表示欄66に応じて時系列に表示される。 In addition, based on the detailed screen information by face tag, an age in months (days after birth) display field 64, a time series display field 65, a time series corresponding image display field 66, a growth memo input field 67, and a weight/height input field 68 are displayed. Images are also displayed in chronological order according to the time series corresponding image display field 66.

図14は、本実施形態におけるプログラムを実行するコンピュータのハードウェア環境の構成ブロック図の一例である。コンピュータ101は、ユーザ端末12、サーバ15として機能する。コンピュータ101は、CPU102、ROM103、RAM104、記憶装置105、入力I/F106、出力I/F107、通信I/F108、読取装置109、バス110によって構成されている。 Figure 14 is an example of a configuration block diagram of a hardware environment of a computer that executes a program in this embodiment. A computer 101 functions as a user terminal 12 and a server 15. The computer 101 is composed of a CPU 102, a ROM 103, a RAM 104, a storage device 105, an input I/F 106, an output I/F 107, a communication I/F 108, a reading device 109, and a bus 110.

ここで、CPUは、中央演算装置を示す。ROMは、リードオンリメモリを示す。RAMは、ランダムアクセスメモリを示す。I/Fは、インターフェースを示す。バス110には、CPU102、ROM103、RAM104、記憶装置105、入力I/F106、出力I/F107、通信I/F108、及び必要に応じて読取装置109が接続されている。 Here, CPU refers to a central processing unit. ROM refers to a read-only memory. RAM refers to a random access memory. I/F refers to an interface. The bus 110 is connected to the CPU 102, ROM 103, RAM 104, storage device 105, input I/F 106, output I/F 107, communication I/F 108, and, if necessary, a reading device 109.

コンピュータ101がサーバ15の場合、CPU102は、記憶装置105から本実施形態に係るプログラムを読み出し、被写体情報登録部33、画像取得部34、画像解析部35、クラスタリング部36、タグ付与部37、出力部38として機能する。ROM103は、読み出し専用のメモリを示す。RAM104は、一時的に記憶するメモリである。 When the computer 101 is the server 15, the CPU 102 reads out the program according to this embodiment from the storage device 105, and functions as a subject information registration unit 33, an image acquisition unit 34, an image analysis unit 35, a clustering unit 36, a tag assignment unit 37, and an output unit 38. The ROM 103 indicates a read-only memory. The RAM 104 is a temporary storage memory.

記憶装置105は、大容量の情報を記憶する装置である。記憶装置105としては、ハードディスク、ソリッドステートドライブ(SSD)、フラッシュメモリカードなど様々な形式の記憶装置を使用することができる。記憶装置105には、本発明の実施形態に係るプログラムや、記憶部40に格納されている各種データが記憶されている。 The storage device 105 is a device that stores large amounts of information. Various types of storage devices can be used as the storage device 105, such as a hard disk, a solid-state drive (SSD), or a flash memory card. The storage device 105 stores a program according to an embodiment of the present invention and various data stored in the storage unit 40.

入力I/F106は、キーボード、マウス、電子カメラ、ウェブカメラ、マイク、スキャナ、センサ、タブレット、タッチパネルディスプレイ、情報読取装置等の入力装置と接続することが可能である。また、出力I/F107は、ディスプレイ、タッチパネル、プロジェクタ、プリンタ、スピーカ等の出力装置と接続することが可能である。 The input I/F 106 can be connected to input devices such as a keyboard, mouse, electronic camera, web camera, microphone, scanner, sensor, tablet, touch panel display, information reading device, etc. The output I/F 107 can be connected to output devices such as a display, touch panel, projector, printer, speaker, etc.

通信I/F108は、通信ネットワークと接続して他の装置と通信するためのポート等のインターフェースである。通信ネットワークは、インターネット、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、専用線、有線、無線等の通信網であってよい。読取装置109は、可搬型記録媒体を読み出す装置である。 The communication I/F 108 is an interface such as a port for connecting to a communication network and communicating with other devices. The communication network may be the Internet, a local area network (LAN), a wide area network (WAN), a dedicated line, a wired network, a wireless network, or the like. The reading device 109 is a device for reading portable recording media.

上記実施形態で説明した処理を実現するプログラムは、プログラム提供者側から通信ネットワークおよび通信I/F108を介して、例えば記憶装置105に格納されてもよい。また、上記実施形態で説明した処理を実現するプログラムは、市販され、流通している可搬型記憶媒体に格納されていてもよい。この場合、この可搬型記憶媒体は読取装置105にセットされて、CPU102によってそのプログラムが読み出されて、実行されてもよい。可搬型記憶媒体としてはCD-ROM、フレキシブルディスク、光ディスク、光磁気ディスク、ICカード、USBメモリ装置、半導体メモリカードなど様々な形式の記憶媒体を使用することができる。このような記憶媒体に格納されたプログラムが読取装置109によって読み取られる。 The program that realizes the processing described in the above embodiment may be stored, for example, in the storage device 105 from the program provider via the communication network and the communication I/F 108. The program that realizes the processing described in the above embodiment may also be stored in a portable storage medium that is commercially available and in circulation. In this case, the portable storage medium may be set in the reading device 105, and the program may be read and executed by the CPU 102. Various types of storage media can be used as the portable storage medium, such as a CD-ROM, a flexible disk, an optical disk, a magneto-optical disk, an IC card, a USB memory device, or a semiconductor memory card. The program stored in such a storage medium is read by the reading device 109.

また、当該プログラムは、スタンドアローン型のコンピュータにインストールされてもよいし、クラウドコンピュータによりインストールされて機能のみをユーザに提供してもよい。また、本実施形態では、ユーザ端末12にサーバ15と通信可能なアプリケーションプログラムをインストールして、本実施形態における画像収集管理システム11の制御を行ったが、これに限定されない。例えば、ユーザ端末12にインストールされたWebブラウザを用いて、サーバ15にアクセスし、サーバ15側で運用されている本実施形態に係るシステムを使用してもよい。 The program may be installed on a stand-alone computer, or may be installed by a cloud computer and provide only the functions to the user. In this embodiment, an application program capable of communicating with the server 15 is installed on the user terminal 12 to control the image collection management system 11 in this embodiment, but this is not limited to this. For example, a web browser installed on the user terminal 12 may be used to access the server 15 and use the system according to this embodiment operated on the server 15 side.

本実施形態によれば、被写体の画像を予め登録することなく、被写体毎の画像の管理を容易にすることができる。なお、本実施形態では、登録対象の被写体情報として子供に関する情報を登録したが、これに限定されず、例えば大人に関する情報を登録してもよい。 According to this embodiment, it is possible to easily manage images for each subject without having to register the image of the subject in advance. Note that in this embodiment, information about children is registered as the subject information to be registered, but this is not limited thereto, and for example, information about adults may also be registered.

また、家族情報(子供、大人)に基づいて、クラスタリングを行う頻度を可変にしてもよい。例えば、大人より子供の方について、クラスタリングを行う頻度を多くしてもよい。具体的には、画像解析部35による年齢推定処理により、子供(所定年齢未満の人物)と判定した人物が写っている写真について一定周期でクラスタリングを行い、その周期より長い周期で大人(所定年齢以上の人物)と判定した人物が写っている写真を含めてクラスタリングを行ってもよい。 The frequency of clustering may also be varied based on family information (children, adults). For example, clustering may be performed more frequently for children than for adults. Specifically, clustering may be performed at regular intervals for photos containing people determined to be children (people under a specified age) through age estimation processing by the image analysis unit 35, and clustering may also be performed at longer intervals for photos containing people determined to be adults (people over a specified age).

また、クラスタリング部36は、所定期間毎に、クラスタリングを行う対象となる画像の集合を形成しておくことができる。そして、クラスタリング部36は、画像の撮影日時を指定することにより、いずれの集合を用いて顔画像のクラスタリングを行うかを決定することができる。 The clustering unit 36 can also form a set of images to be clustered for each specified period. The clustering unit 36 can then determine which set to use to cluster the face images by specifying the date and time the images were taken.

また、上記の実施形態では、画像が写真(静止画)の場合について主に説明したが、動画であってもよい。例えば、画像解析部35は、画像が動画像である場合、動画像を構成する静止画像のいずれかを特定することができる。この場合、画像解析部35は、特定した静止画について、顔検出結果、姿勢推定結果、及び姿勢推定結果を算出し、顔検出結果、姿勢推定結果、及び姿勢推定結果から顔画像の特徴ベクトルを算出することができる。これ以降は、静止画の場合と同様に、タグ付与部37は、静止画像を用いて分類された人物毎の頻出度に基づいて、動画像と、静止画像に撮像されている人物に対応する被写体情報とを関連付ける。このように構成することにより、動画でも同様に被写体の顔画像を予め登録することなく、被写体毎の顔画像の管理を容易にすることができる。 In the above embodiment, the image is mainly a photograph (still image), but it may be a video. For example, when the image is a video, the image analysis unit 35 can identify one of the still images that make up the video. In this case, the image analysis unit 35 can calculate the face detection result, the posture estimation result, and the posture estimation result for the identified still image, and calculate the feature vector of the face image from the face detection result, the posture estimation result, and the posture estimation result. After this, as in the case of still images, the tagging unit 37 associates the video with the subject information corresponding to the person captured in the still image based on the frequency of each person classified using the still image. By configuring in this way, it is possible to easily manage the face image of each subject in the video as well, without having to register the face image of the subject in advance.

以上、実施形態、変形例に基づき本態様について説明してきたが、上記した態様の実施の形態は、本態様の理解を容易にするためのものであり、本態様を限定するものではない。本態様は、その趣旨並びに特許請求の範囲を逸脱することなく、変更、改良され得ると共に、本態様にはその等価物が含まれる。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することができる。 Although this aspect has been described above based on the embodiment and modified examples, the embodiment of the above-mentioned aspect is intended to facilitate understanding of this aspect and does not limit this aspect. This aspect may be modified or improved without departing from the spirit and scope of the claims, and equivalents are included in this aspect. Furthermore, if a technical feature is not described as essential in this specification, it may be deleted as appropriate.

上記実施形態に加え、さらに、以下を付記する。
(付記1)
1または複数の被写体それぞれの被写体情報を取得する取得部と、
記録されている1または複数の画像それぞれに撮像されている人物の顔画像を、人物毎に分類する分類部と、
分類された前記人物毎の頻出度に基づいて、前記人物が撮像されている画像と、前記人物に対応する被写体情報とを関連付ける関連処理部と、
を備えることを特徴とする情報処理装置。
このように構成することにより、被写体の画像を予め登録することなく、被写体毎の画像の管理を容易にすることができる。
(付記2)
前記被写体情報は、前記被写体の年齢情報を含み、
前記関連処理部は、分類された前記人物の顔画像から前記人物の年齢を推定し、推定した前記人物の年齢と前記年齢情報とに基づいて、前記人物が前記被写体のいずれであるかを特定する
を備えることを特徴とする付記1に記載の情報処理装置。
このように構成することにより、大人に混ざって子供が写真に写っている場合、その写真から子供を推定し、予め登録している年齢情報と照合することにより、被写体を特定することができる。
(付記3)
前記関連処理部は、取得された複数の前記被写体情報に対応する複数の被写体が前記画像に撮像されている場合、前記複数の被写体が撮像されている前記画像と、前記複数の登録被写体に対応するグループ情報とを関連付ける
ことを特徴とする付記1または2に記載の情報処理装置。
このように構成することにより、被写体である子供のみ2人以上写っている画像に、例えば、「子供たち」とタグ付けすることができる。その結果、容易に分類を分けることができるので、子供のみが写っている画像の管理がしやすくなる。
(付記4)
前記関連処理部は、取得された前記被写体情報に対応する第1被写体と、前記頻出度が所定以上でかつ前記第1被写体以外の第2被写体とを含む被写体グループが前記画像に撮像されている場合、前記被写体グループが撮像されている前記画像と、前記被写体グループに対応するグループ情報とを関連付ける
ことを特徴とする付記1~3のうちいずれか1項に記載の情報処理装置。
このように構成することにより、子供と大人とを含む家族で写っている画像に、例えば、「みんな」とタグ付けすることができる。その結果、容易に分類を分けることができるので、大人を含めた複数人が写っている画像の管理がしやすくなる。
(付記5)
前記分類部は、所定期間毎に、前記記録されている1または複数の画像の集合を形成し、前記画像の撮影日時に基づいて、いずれの前記集合を用いて顔画像の分類を行うかを決定する
ことを特徴とする付記1~4のうちいずれか1項に記載の情報処理装置。
このように構成することにより、撮影日時から所定期間内の集合を用いて顔画像認識を行うことができる。
(付記6)
前記分類部は、前記被写体情報に基づいて、前記集合を形成する頻度を変える
ことを特徴とする付記5に記載の情報処理装置。
このように構成することにより、集合の形成を行う場合、例えば大人よりも子供の方が頻度を高くすることができる。
(付記7)
前記分類部は、前記画像が動画像である場合、前記動画像を構成する静止画像を特定し、
前記関連処理部は、前記静止画像を用いて分類された前記人物毎の頻出度に基づいて、前記動画像と、前記静止画像に撮像されている人物に対応する被写体情報とを関連付ける
ことを特徴とする付記1~6のうちいずれか1項に記載の情報処理装置。
このように構成することにより、動画でも同様に被写体の顔画像を予め登録することなく、被写体毎の顔画像の管理を容易にすることができる。
(付記8)
コンピュータに、
1または複数の被写体それぞれの被写体情報を取得する取得処理と、
記録されている1または複数の画像それぞれに撮像されている人物の顔画像を、人物毎に分類する分類処理と、
分類された前記人物毎の頻出度に基づいて、前記人物が撮像されている画像と、前記人物に対応する被写体情報とを関連付ける関連処理処理と、
を実行させる制御プログラム。
このように構成することにより、被写体の画像を予め登録することなく、被写体毎の画像の管理を容易にすることができる。
(付記9)
コンピュータが、
1または複数の被写体それぞれの被写体情報を取得し、
記録されている1または複数の画像それぞれに撮像されている人物の顔画像を、人物毎に分類し、
分類された前記人物毎の頻出度に基づいて、前記人物が撮像されている画像と、前記人物に対応する被写体情報とを関連付ける、
ことを実行する制御方法。
このように構成することにより、被写体の画像を予め登録することなく、被写体毎の画像の管理を容易にすることができる。
In addition to the above embodiment, the following is further noted.
(Appendix 1)
An acquisition unit that acquires subject information of one or more subjects;
a classification unit that classifies face images of people captured in each of the one or more recorded images by person;
an association processing unit that associates an image in which the person is captured with subject information corresponding to the person based on the frequency of appearance of each of the classified persons;
An information processing device comprising:
By configuring in this way, it is possible to easily manage images of each subject without having to register the image of the subject in advance.
(Appendix 2)
The subject information includes age information of the subject,
The information processing device described in Appendix 1, characterized in that the related processing unit is further equipped with: an age estimation unit that estimates an age of the person from the classified face image of the person; and a determination unit that identifies the person as one of the subjects based on the estimated age of the person and the age information.
With this configuration, if a child appears in a photograph among adults, the child can be inferred from the photograph and identified by comparing the child's age with pre-registered age information.
(Appendix 3)
The information processing device according to claim 1 or 2, characterized in that, when multiple subjects corresponding to the acquired multiple pieces of subject information are captured in the image, the association processing unit associates the image in which the multiple subjects are captured with group information corresponding to the multiple registered subjects.
With this configuration, images that contain two or more children as subjects can be tagged with, for example, "children." As a result, classification can be easily achieved, making it easier to manage images that contain only children.
(Appendix 4)
The information processing device described in any one of Appendices 1 to 3, characterized in that, when a subject group including a first subject corresponding to the acquired subject information and a second subject other than the first subject and having a frequency equal to or higher than a predetermined frequency is captured in the image, the association processing unit associates the image in which the subject group is captured with group information corresponding to the subject group.
With this configuration, images of family members, including children and adults, can be tagged with, for example, "everyone." As a result, classification can be easily achieved, making it easier to manage images that include multiple people, including adults.
(Appendix 5)
The information processing device according to any one of appendices 1 to 4, wherein the classification unit forms a set of one or more of the recorded images for each predetermined period of time, and determines which of the sets to use to classify the face images based on the shooting date and time of the images.
With this configuration, face image recognition can be performed using a set within a predetermined period from the photographing date and time.
(Appendix 6)
The information processing device according to claim 5, wherein the classification unit changes a frequency of forming the groups based on the subject information.
With this configuration, when forming a group, for example, children can be more frequently involved than adults.
(Appendix 7)
When the image is a moving image, the classification unit identifies still images constituting the moving image;
The information processing device described in any one of appendices 1 to 6, characterized in that the association processing unit associates the moving image with subject information corresponding to the person captured in the still image based on the frequency of appearance of each of the people classified using the still image.
By configuring in this way, it is possible to easily manage the facial image of each subject even in a moving image, without having to register the facial image of the subject in advance.
(Appendix 8)
On the computer,
An acquisition process for acquiring object information of one or more objects;
A classification process for classifying face images of people captured in each of the one or more recorded images by person;
an association process for associating an image in which the person is captured with subject information corresponding to the person based on the frequency of appearance of each of the classified persons;
A control program that executes the above.
By configuring in this way, it is possible to easily manage images of each subject without having to register the image of the subject in advance.
(Appendix 9)
The computer
Obtaining subject information for each of the one or more subjects;
Classifying the facial images of people captured in each of the one or more recorded images by person;
associate an image in which the person is captured with subject information corresponding to the person based on the frequency of appearance of each of the classified persons;
A control method for executing a task.
By configuring in this way, it is possible to easily manage images of each subject without having to register the image of the subject in advance.

1 情報処理装置
2 取得部
3 分類部
4 関連処理部
11 画像収集管理システム
12 ユーザ端末
15 サーバ
16 通信ネットワーク
31 通信部
32 制御部
33 被写体情報登録部
34 画像取得部
35 画像解析部
36 クラスタリング部
37 タグ付与部
38 出力部
41 記憶部
42 画像格納領域
43 被写体情報管理DB
44 画像解析結果管理DB
45 クラスタリング条件管理DB
46 コレクション画面管理DB
47 顔タグマスター情報管理DB
48 被写体別顔タグ管理DB

REFERENCE SIGNS LIST 1 Information processing device 2 Acquisition unit 3 Classification unit 4 Related processing unit 11 Image collection management system 12 User terminal 15 Server 16 Communication network 31 Communication unit 32 Control unit 33 Subject information registration unit 34 Image acquisition unit 35 Image analysis unit 36 Clustering unit 37 Tagging unit 38 Output unit 41 Memory unit 42 Image storage area 43 Subject information management DB
44 Image analysis result management DB
45 Clustering condition management DB
46 Collection screen management DB
47 Face tag master information management DB
48 Subject-specific face tag management DB

Claims (4)

家族を識別する識別情報に関係付けられた前記家族の子供に関する被写体情報を取得する取得部と、
記録されている複数の画像から単独で写っている人物の顔画像を、人物毎に分類する分類部と、
分類された前記人物毎の頻出度に基づいて、前記人物が撮像されている画像と、前記人物に対応する前記被写体情報とを関連付けると共に、前記人物が撮像されている画像に前記子供であることを表す第1タグ情報を付与する関連処理部と、
を備え、
前記関連処理部は、前記複数の画像から複数の被写体が写っている画像を取得し、取得した画像に写っている前記複数の被写体が、前記第1タグ情報が付与された画像と関係付けられた被写体情報に対応する被写体である場合、前記取得した画像に兄弟または姉妹であることを表す第2タグ情報を付与する
ことを特徴とする情報処理装置。
an acquisition unit that acquires subject information related to a child of a family associated with identification information that identifies the family;
a classification unit that classifies facial images of individuals appearing alone from a plurality of recorded images into groups of individuals;
an association processing unit that associates an image in which the person is captured with the subject information corresponding to the person based on the frequency of appearance of each of the classified persons, and adds first tag information indicating that the person is a child to the image in which the person is captured;
Equipped with
The information processing device is characterized in that the associated processing unit acquires an image containing multiple subjects from the multiple images, and if the multiple subjects appearing in the acquired image are subjects corresponding to subject information associated with an image to which the first tag information has been assigned, assigns second tag information to the acquired image indicating that the subjects are brothers or sisters.
コンピュータに、
家族を識別する識別情報に関係付けられた前記家族の子供に関する被写体情報を取得する取得処理と、
記録されている複数の画像から単独で写っている人物の顔画像を、人物毎に分類する分類処理と、
分類された前記人物毎の頻出度に基づいて、前記人物が撮像されている画像と、前記人物に対応する前記被写体情報とを関連付けると共に、前記人物が撮像されている画像に前記子供であることを表す第1タグ情報を付与する関連処理と、
を実行させ、
前記関連処理は、前記複数の画像から複数の被写体が写っている画像を取得し、取得した画像に写っている前記複数の被写体が、前記第1タグ情報が付与された画像と関係付けられた被写体情報に対応する被写体である場合、前記取得した画像に兄弟または姉妹であることを表す第2タグ情報を付与する
制御プログラム。
On the computer,
an acquisition process for acquiring subject information related to a child of the family associated with identification information identifying the family;
A classification process for classifying facial images of individuals that are captured alone from the multiple recorded images;
an association process of associating an image in which the person is captured with the subject information corresponding to the person based on the frequency of appearance of each of the classified persons, and adding first tag information indicating that the person is a child to the image in which the person is captured;
Run the command,
The associated processing is a control program that acquires an image containing multiple subjects from the multiple images, and if the multiple subjects in the acquired image are subjects corresponding to subject information associated with an image to which the first tag information has been assigned, assigns second tag information to the acquired image indicating that the subjects are brothers or sisters.
コンピュータが、
家族を識別する識別情報に関係付けられた前記家族の子供に関する被写体情報を取得する処理と、
記録されている複数の画像から単独で写っている人物の顔画像を、人物毎に分類する処理と、
分類された前記人物毎の頻出度に基づいて、前記人物が撮像されている画像と、前記人物に対応する前記被写体情報とを関連付けると共に、前記人物が撮像されている画像に前記子供であることを表す第1タグ情報を付与する関連処理と、
を実行し、
前記関連処理は、前記複数の画像から複数の被写体が写っている画像を取得し、取得した画像に写っている前記複数の被写体が、前記第1タグ情報が付与された画像と関係付けられた被写体情報に対応する被写体である場合、前記取得した画像に兄弟または姉妹であることを表す第2タグ情報を付与する
制御方法。
The computer
obtaining subject information relating to children of the family associated with identification information identifying the family;
A process of classifying facial images of individuals that are captured alone from the multiple recorded images;
an association process of associating an image in which the person is captured with the subject information corresponding to the person based on the frequency of appearance of each of the classified persons, and adding first tag information indicating that the person is a child to the image in which the person is captured;
Run
The associated processing is a control method in which an image containing multiple subjects is acquired from the multiple images, and if the multiple subjects appearing in the acquired image are subjects corresponding to subject information associated with an image to which the first tag information is assigned, second tag information indicating that the subjects are brothers or sisters is assigned to the acquired image.
サーバとユーザ端末とを備え、
前記サーバは、
家族を識別する識別情報に関係付けられた前記家族の子供に関する被写体情報を取得する取得部と、
記録されている複数の画像から単独で写っている人物の顔画像を、人物毎に分類する分類部と、
分類された前記人物毎の頻出度に基づいて、前記人物が撮像されている画像と、前記人物に対応する前記被写体情報とを関連付けると共に、前記人物が撮像されている画像に前記子供であることを表す第1タグ情報を付与する関連処理部と、
を備え、
前記関連処理部は、前記複数の画像から複数の被写体が写っている画像を取得し、取得した画像に写っている前記複数の被写体が、前記第1タグ情報が付与された画像と関係付けられた被写体情報に対応する被写体である場合、前記取得した画像に兄弟または姉妹であることを表す第2タグ情報を付与し、
前記サーバは、前記第1タグ情報と前記第2タグ情報との少なくとも一方が付与された画像を前記ユーザ端末に表示させる
ことを特徴とする情報処理システム。
A server and a user terminal are provided,
The server,
an acquisition unit that acquires subject information related to a child of a family associated with identification information that identifies the family;
a classification unit that classifies facial images of individuals appearing alone from a plurality of recorded images into groups of individuals;
an association processing unit that associates an image in which the person is captured with the subject information corresponding to the person based on the frequency of appearance of each of the classified persons, and adds first tag information indicating that the person is a child to the image in which the person is captured;
Equipped with
the association processing unit acquires an image including a plurality of subjects from the plurality of images, and when the plurality of subjects appearing in the acquired image correspond to subject information associated with an image to which the first tag information is assigned, assigns second tag information to the acquired image, the second tag information indicating that the subjects are brothers or sisters;
The information processing system is characterized in that the server causes the user terminal to display an image to which at least one of the first tag information and the second tag information has been added.
JP2019232126A 2019-12-23 2019-12-23 Information processing device, control program, and control method Active JP7485893B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019232126A JP7485893B2 (en) 2019-12-23 2019-12-23 Information processing device, control program, and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019232126A JP7485893B2 (en) 2019-12-23 2019-12-23 Information processing device, control program, and control method

Publications (2)

Publication Number Publication Date
JP2021099748A JP2021099748A (en) 2021-07-01
JP7485893B2 true JP7485893B2 (en) 2024-05-17

Family

ID=76541233

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019232126A Active JP7485893B2 (en) 2019-12-23 2019-12-23 Information processing device, control program, and control method

Country Status (1)

Country Link
JP (1) JP7485893B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014016785A (en) 2012-07-09 2014-01-30 Canon Inc Image processing apparatus, image processing method, and program
JP2015069495A (en) 2013-09-30 2015-04-13 富士フイルム株式会社 Person recognition apparatus, person recognition method, and person recognition program and recording medium therefor
JP2017167793A (en) 2016-03-16 2017-09-21 富士フイルム株式会社 Image processing device, image processing method, program, and recording medium
JP2018097483A (en) 2016-12-09 2018-06-21 キヤノン株式会社 Image processing method, image processing device and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014016785A (en) 2012-07-09 2014-01-30 Canon Inc Image processing apparatus, image processing method, and program
JP2015069495A (en) 2013-09-30 2015-04-13 富士フイルム株式会社 Person recognition apparatus, person recognition method, and person recognition program and recording medium therefor
JP2017167793A (en) 2016-03-16 2017-09-21 富士フイルム株式会社 Image processing device, image processing method, program, and recording medium
JP2018097483A (en) 2016-12-09 2018-06-21 キヤノン株式会社 Image processing method, image processing device and program

Also Published As

Publication number Publication date
JP2021099748A (en) 2021-07-01

Similar Documents

Publication Publication Date Title
US9972113B2 (en) Computer-readable recording medium having stored therein album producing program, album producing method, and album producing device for generating an album using captured images
US9858504B2 (en) Method of selecting important digital images
JP5934653B2 (en) Image classification device, image classification method, program, recording medium, integrated circuit, model creation device
US8611678B2 (en) Grouping digital media items based on shared features
TWI351620B (en) Information processing apparatus and method, and a
US8650242B2 (en) Data processing apparatus and data processing method
US8761523B2 (en) Group method for making event-related media collection
JP5477017B2 (en) Electronic device, content transmission method and program
JP2006344215A (en) Method for assembling collection of digital picture
US9521211B2 (en) Content processing device, content processing method, computer-readable recording medium, and integrated circuit
US9721613B2 (en) Content management system, management content generation method, management content reproduction method, program and recording medium
JP2016058024A (en) Content managing system, management content generating method, management content reproducing method, program, and recording medium
CN102333177A (en) Photgraphing support system, photographing support method, server photographing apparatus, and program
WO2019171803A1 (en) Image search device, image search method, electronic equipment, and control method
JP2004280254A (en) Contents categorizing method and device
US20130308864A1 (en) Information processing apparatus, information processing method, computer program, and image display apparatus
JP6410427B2 (en) Information processing apparatus, information processing method, and program
JP7485893B2 (en) Information processing device, control program, and control method
JP2014182650A (en) Image sharing device, method for controlling image sharing device and program
JP6958795B1 (en) Information processing methods, computer programs and information processing equipment
US11210829B2 (en) Image processing device, image processing method, program, and recording medium
JP6221487B2 (en) Information processing apparatus, image display system, image display method and program in information processing apparatus
JP4650034B2 (en) Image management apparatus, image management method, and image management program
CN110008364B (en) Image processing method, device and system
US20220159177A1 (en) Imaging system, server, communication terminal, imaging method, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240318

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240321

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240415

R150 Certificate of patent or registration of utility model

Ref document number: 7485893

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150