JP6732668B2 - Extraction device, extraction method, and extraction program - Google Patents

Extraction device, extraction method, and extraction program Download PDF

Info

Publication number
JP6732668B2
JP6732668B2 JP2017012052A JP2017012052A JP6732668B2 JP 6732668 B2 JP6732668 B2 JP 6732668B2 JP 2017012052 A JP2017012052 A JP 2017012052A JP 2017012052 A JP2017012052 A JP 2017012052A JP 6732668 B2 JP6732668 B2 JP 6732668B2
Authority
JP
Japan
Prior art keywords
user
target
feature amount
extraction
predetermined range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017012052A
Other languages
Japanese (ja)
Other versions
JP2018120461A (en
Inventor
龍希 村上
龍希 村上
洋人 河端
洋人 河端
文彦 高橋
文彦 高橋
侃太 蔵元
侃太 蔵元
真成 浜田
真成 浜田
万智 齋藤
万智 齋藤
佳輝 土岐
佳輝 土岐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2017012052A priority Critical patent/JP6732668B2/en
Publication of JP2018120461A publication Critical patent/JP2018120461A/en
Application granted granted Critical
Publication of JP6732668B2 publication Critical patent/JP6732668B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、抽出装置、抽出方法及び抽出プログラムに関する。 The present invention relates to an extraction device, an extraction method and an extraction program.

近年、インターネットの飛躍的な普及に伴い、ネットワークを介したサービスが盛んに提供されている。このようなサービスの一例として、ユーザに好みの異性を紹介する、いわゆるマッチングサービスが挙げられる。例えば、このようなサービスでは、サービスから提供される異性のプロフィールや顔画像をユーザが閲覧し、閲覧した中から好みの異性を選択する。 In recent years, along with the dramatic spread of the Internet, services via networks have been actively provided. As an example of such a service, there is a so-called matching service that introduces the opposite sex to the user. For example, in such a service, the user browses the profile and face image of the opposite sex provided by the service, and selects a desired opposite sex from the browsed.

ここで、顔画像に関する技術として、ユーザが好む顔の要素を考慮しながら、全体的にユーザの好みの顔画像に対応する情報を提示する技術が知られている。 Here, as a technique related to a face image, there is known a technique of presenting information corresponding to a face image that the user generally prefers while considering a face element that the user likes.

特開2013−232093号公報JP, 2013-232093, A

しかしながら、上記の従来技術では、マッチングの成功率を向上させることができるとは限らない。具体的には、上記の従来技術では、ユーザが好む顔画像が提供されるに過ぎない。すなわち、マッチングサービス等において、好みの容姿であるとしてユーザが相手を認識したとしても、その認識された相手がユーザを好むかどうかは定かでない。また、ユーザが自らの容姿を相手に伝えようとしても、一般に容姿を言語化することは困難であるため、的確に自らの容姿を相手に伝えることは難しい。このため、上記従来技術では、マッチングサービスにおいて両者がお互いを好みとして認識する確率を向上させることができるとは限らない。 However, the above-mentioned conventional technique cannot always improve the success rate of matching. Specifically, in the above-mentioned conventional technique, only the face image that the user likes is provided. That is, in a matching service or the like, even if the user recognizes the other party as having a desired appearance, it is not clear whether the recognized other person likes the user. Further, even if the user tries to convey his/her appearance to the other party, it is generally difficult to verbalize his/her appearance, and thus it is difficult to accurately convey his/her appearance to the other person. For this reason, in the above-mentioned conventional technology, it is not always possible to improve the probability that both parties recognize each other as their preference in the matching service.

本願は、上記に鑑みてなされたものであって、マッチングの成功率を向上させることができる抽出装置、抽出方法及び抽出プログラムを提供することを目的とする。 The present application has been made in view of the above, and an object thereof is to provide an extraction device, an extraction method, and an extraction program capable of improving the success rate of matching.

本願に係る抽出装置は、対象を撮像した画像に含まれる当該対象の身体的な特徴に基づいて、各々の画像に対応する対象が所定位置にプロットされた空間である特徴量空間を生成する生成部と、ユーザから受け付けた前記対象に関する所定の要求に基づいて、前記生成部によって生成された特徴量空間において、当該ユーザが所望する所定範囲を特定する特定部と、前記特定部によって特定された所定範囲に含まれる前記対象のうち、前記ユーザに関する所定の条件に適合する対象を抽出する抽出部と、を備えたことを特徴とする。 The extraction device according to the present application generates a feature amount space, which is a space in which the target corresponding to each image is plotted at a predetermined position, based on the physical feature of the target included in the image obtained by capturing the target. And a specifying unit that specifies a predetermined range desired by the user in the feature amount space generated by the generating unit based on a predetermined request regarding the target received from the user and the specifying unit. An extraction unit that extracts, from the objects included in a predetermined range, an object that meets a predetermined condition related to the user.

実施形態の一態様によれば、マッチングの成功率を向上させることができるという効果を奏する。 According to one aspect of the embodiment, it is possible to improve the success rate of matching.

図1は、実施形態に係る抽出処理の一例を示す図である。FIG. 1 is a diagram illustrating an example of an extraction process according to the embodiment. 図2は、実施形態に係る抽出処理システムの構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of the extraction processing system according to the embodiment. 図3は、実施形態に係る抽出装置の構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of the extraction device according to the embodiment. 図4は、実施形態に係る顔画像記憶部の一例を示す図である。FIG. 4 is a diagram illustrating an example of the face image storage unit according to the embodiment. 図5は、実施形態に係る特徴量空間記憶部の一例を示す図である。FIG. 5 is a diagram illustrating an example of the feature amount space storage unit according to the embodiment. 図6は、実施形態に係るユーザ情報記憶部の一例を示す図である。FIG. 6 is a diagram illustrating an example of the user information storage unit according to the embodiment. 図7は、実施形態に係る受付処理の一例を説明するための図である。FIG. 7 is a diagram for explaining an example of the reception process according to the embodiment. 図8は、実施形態に係る処理手順を示すフローチャート(1)である。FIG. 8 is a flowchart (1) showing a processing procedure according to the embodiment. 図9は、実施形態に係る処理手順を示すフローチャート(2)である。FIG. 9 is a flowchart (2) showing the processing procedure according to the embodiment. 図10は、抽出装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 10 is a hardware configuration diagram illustrating an example of a computer that realizes the functions of the extraction device.

以下に、本願に係る抽出装置、抽出方法及び抽出プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る抽出装置、抽出方法及び抽出プログラムが限定されるものではない。また、各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, modes (hereinafter, referred to as “embodiments”) for implementing an extraction device, an extraction method, and an extraction program according to the present application will be described in detail with reference to the drawings. Note that the extraction device, the extraction method, and the extraction program according to the present application are not limited by this embodiment. Further, the respective embodiments can be appropriately combined within a range in which the processing content is not inconsistent. Also, in each of the following embodiments, the same parts are designated by the same reference numerals, and duplicated description will be omitted.

〔1.抽出処理の一例〕
まず、図1を用いて、実施形態に係る抽出処理の一例について説明する。図1は、実施形態に係る抽出処理の一例を示す図である。図1では、本願に係る抽出装置100によって、ユーザ間のマッチングを行うためのサービスにおいて、マッチングの成功率を向上させるための抽出処理が行われる例を示す。
[1. Example of extraction processing]
First, an example of the extraction process according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of an extraction process according to the embodiment. FIG. 1 shows an example in which the extraction device 100 according to the present application performs an extraction process for improving the success rate of matching in a service for performing matching between users.

実施形態では、ユーザ間のマッチングを行うためのサービスとして、異性間の出会いを提供するような出会い系サービスを例に挙げる。具体的には、実施形態に係るサービスでは、サービスを利用するユーザは、サービスに予め登録されている異性ユーザ(実施形態では、ユーザにマッチングされる対象となるユーザ(例えば、サービスを利用するユーザに対する異性のユーザ)を「対象」と表記する)の顔画像を閲覧し、自身の好みの対象を選択する。例えば、サービスでは、対象が予め設定した条件(マッチングされる相手に求める条件)と、対象を選択したユーザの情報(以下、「ユーザ情報」と表記する)とが適合する場合に、マッチングされる候補として、選択された対象がユーザに紹介される。例えば、ユーザに紹介された対象がユーザからの申し出等を受け入れた場合に、ユーザと対象とがマッチングされたものと判定される。 In the embodiment, as an example of a service for performing matching between users, a dating service that provides an encounter between the opposite sex is given. Specifically, in the service according to the embodiment, a user who uses the service is a user who is registered in advance in the service (in the embodiment, a user who is a target to be matched with the user (for example, a user who uses the service). (A user of the opposite sex) is referred to as a “target”), and a target of his/her preference is selected. For example, in a service, a target is matched when a preset condition (a condition required by a partner to be matched) and information of a user who selects the target (hereinafter referred to as “user information”) are matched. The selected target is introduced to the user as a candidate. For example, when the target introduced to the user receives an offer or the like from the user, it is determined that the user and the target are matched.

一般に、このような出会い系サービスでは、ユーザは、サービスを利用する際に自身のユーザ情報を登録する。例えば、ユーザ情報は、ユーザの性別や年齢や年収や趣味等の属性情報やプロフィールである。また、ユーザは、ユーザ情報とともに、自身の画像(例えば、顔画像)をサービスに登録する。サービスでは、登録されたユーザ情報とともに、当該ユーザの顔画像を掲載し、サービスを利用するユーザに閲覧させる。 Generally, in such a dating service, a user registers his/her user information when using the service. For example, the user information is attribute information such as sex, age, annual income, hobbies, etc. of the user and a profile. Further, the user registers the image of himself (for example, a face image) in the service together with the user information. In the service, the face image of the user is posted together with the registered user information, and the user who uses the service browses.

すなわち、サービスでは、ユーザは、サービスに登録されている異性の顔画像を見ながら自身の好みの対象を探すことができる。しかし、ユーザが自身の好みの対象を選ぶことができたとしても、選んだ対象が適切なマッチング相手であるかは定かではない。具体的には、ユーザが選んだ対象がユーザの容姿を好むか否かが定かでなく、ユーザの一方的な選択となってしまう可能性がある。これは、一般に容姿を言語化することが難しく、性別や年齢等のように明確な情報として登録されるものではないことによる。つまり、「自身が相手にどのような容姿を望むか」といった条件を言語化して登録することが難しく、また、自身の容姿を相手に伝えようとしても的確に内容を伝えることも難しい。このため、サービス側にとって、マッチングされた双方が互いに好みの容姿である、というマッチングを成立させることは行うことは難しい。すなわち、ユーザが自身の好みの対象を探すことができても、その対象が自身の容姿を好むとは限らないため、選択したユーザと選択された対象とが適切なマッチングとなりうるかが定かでない。 That is, in the service, the user can search for his/her favorite target while looking at the heterosexual face image registered in the service. However, even if the user can select his/her favorite target, it is not certain that the selected target is an appropriate matching partner. Specifically, it is not clear whether or not the target selected by the user likes the appearance of the user, and there is a possibility that the user will make a one-sided selection. This is because it is generally difficult to verbalize the appearance and it is not registered as clear information such as gender and age. In other words, it is difficult to verbalize and register conditions such as “what kind of appearance you want the other person to have,” and it is also difficult to convey the content accurately even when trying to convey your own appearance to the other person. For this reason, it is difficult for the service side to establish a match in which the matched two are in their favorite appearances. That is, even if the user can search for his/her favorite target, the target does not always prefer his/her appearance, and it is not clear whether the selected user and the selected target can be appropriately matched.

そこで、図1に示す抽出装置100は、以下に説明する抽出処理を用いることで、サービスを利用するユーザと、当該ユーザが所望する対象とのマッチングの成功率を向上させる。以下、図1を用いて、実施形態に係る抽出処理について流れに沿って説明する。 Therefore, the extraction device 100 illustrated in FIG. 1 improves the success rate of matching between the user who uses the service and the target desired by the user by using the extraction process described below. Hereinafter, the extraction processing according to the embodiment will be described along the flow with reference to FIG. 1.

図1に示す抽出装置100は、ユーザ同士のマッチングサービスを提供するサーバ装置である。例えば、抽出装置100は、ネットワーク上におけるウェブサーバとして機能し、実施形態に係るサービスを提供する。 The extraction device 100 illustrated in FIG. 1 is a server device that provides a matching service between users. For example, the extraction device 100 functions as a web server on the network and provides the service according to the embodiment.

図1に示すユーザ端末10及び10は、サービスを利用するユーザによって利用される情報処理端末である。図1の例では、ユーザ端末10はユーザU01によって利用され、ユーザ端末10はユーザU02によって利用される。 The user terminals 10 1 and 10 2 shown in FIG. 1 are information processing terminals used by users who use services. In the example of FIG. 1, the user terminal 10 1 is utilized by the user U01, the user terminal 10 2 is used by the user U02.

なお、以下では、ユーザ端末10やユーザ端末10等を区別する必要のないときは、単に「ユーザ端末10」と表記する。また、ユーザU01やユーザU02等を区別する必要のないときは、単に「ユーザ」と表記する。また、以下では、ユーザをユーザ端末10と読み替える場合がある。例えば、「ユーザU01が顔画像を送信する」という記載は、実際には、「ユーザU01が利用するユーザ端末10が顔画像を送信する」という状況を示す場合がある。 In the following, when it is not necessary to distinguish the user terminal 10 1 and the user terminal 10 2, etc. are simply referred to as "user terminal 10". Moreover, when it is not necessary to distinguish the user U01, the user U02, and the like, they are simply referred to as “user”. In the following, the user may be read as the user terminal 10. For example, reference to "user U01 transmits the face image" may actually may indicate the status of "user terminal 10 1 user U01 is utilized to transmit the facial images".

図1において、まず抽出装置100は、各々のユーザからサービスへの登録を受け付ける。この場合、抽出装置100は、サービスに登録を所望する各ユーザからユーザ情報を受け付ける。また、抽出装置100は、各ユーザから顔画像を受け付ける。 In FIG. 1, the extraction device 100 first receives registration of a service from each user. In this case, the extraction device 100 receives user information from each user who wants to register for the service. The extraction device 100 also receives a face image from each user.

例えば、サービスを利用しようとするユーザU01は、顔画像を抽出装置100に送信する(ステップS11)。例えば、ユーザU01は、ユーザ端末10に備えられたカメラ機能を利用して自身の顔画像を撮像し、撮像した顔画像を抽出装置100に送信する。なお、抽出装置100は、ユーザU01のみならず、他のユーザ(図1の例では、ユーザU11やユーザU12やユーザU13等)からもサービスへの登録及び顔画像の送信を受け付けているものとする。 For example, the user U01 who wants to use the service transmits the face image to the extraction device 100 (step S11). For example, the user U01 captures its face image by using the camera function provided in the user terminal 10 1, transmits the captured facial image to the extraction device 100. Note that the extraction device 100 accepts registration to the service and transmission of face images not only from the user U01 but also from other users (in the example of FIG. 1, user U11, user U12, user U13, etc.). To do.

そして、抽出装置100は、ユーザU01等から取得した顔画像に基づいて特徴量空間を生成する(ステップS12)。具体的には、抽出装置100は、取得した全ての顔画像を対象に、顔画像が似ているほど距離が近くなるように各々のユーザがプロット(配置)される特徴量空間を生成する。 Then, the extraction device 100 generates a feature amount space based on the face image acquired from the user U01 or the like (step S12). Specifically, the extraction device 100 generates a feature amount space in which each user is plotted (arranged) such that the closer the face images are, the closer the distance is to each other, with respect to all the acquired face images.

例えば、抽出装置100は、取得した顔画像について、画像の特徴量を抽出するための学習を行う。具体的には、抽出装置100は、ディープラーニング(Deep Learning)の手法を用いて、画像に含まれる被写体の顔を特徴付ける要素を抽出する。さらに、抽出装置100は、顔を特徴付ける要素を所定数の次元(例えば100次元など)で構成されるベクトルとして表現する。そして、抽出装置100は、各ユーザの顔画像に対応するベクトルが示す空間上の位置に当該ユーザをプロットした特徴量空間を生成する。このような処理については、種々の既知の手法(例えば、深層学習モデルであるDCGAN(Deep Convolutional Generative Adversarial Networks)等)が利用されてもよい。 For example, the extraction device 100 performs learning on the acquired face image to extract the feature amount of the image. Specifically, the extraction device 100 extracts the element characterizing the face of the subject included in the image by using the method of deep learning. Furthermore, the extraction device 100 expresses the element that characterizes the face as a vector configured by a predetermined number of dimensions (for example, 100 dimensions). Then, the extraction device 100 generates a feature amount space in which the user is plotted at the position on the space indicated by the vector corresponding to the face image of each user. For such processing, various known methods (for example, DCGAN (Deep Convolutional Generative Adversarial Networks) which is a deep learning model) may be used.

図1の例では、抽出装置100は、性別ごとに異なる特徴量空間を生成するものとする。例えば、抽出装置100は、サービスに登録した女性ユーザをプロットした空間である特徴量空間V01を生成する。なお、図1では、可視化のため、プロットされた各対象が3次元空間で表現された例(例えば、空間をPCA(Principal Component Analysis、主成分分析)を用いて3次元に圧縮して可視化した例)を示しているが、実際には、特徴量空間V01は3次元で構成されなくてもよい。 In the example of FIG. 1, the extraction device 100 is assumed to generate a different feature amount space for each gender. For example, the extraction device 100 generates a feature amount space V01 which is a space in which the female users registered in the service are plotted. Note that, in FIG. 1, for visualization, each plotted object is visualized by compressing it in three dimensions by using an example in which it is expressed in a three-dimensional space (for example, the space is PCA (Principal Component Analysis)). Although an example) is shown, the feature amount space V01 may not actually be three-dimensionally configured.

図1に示すように、特徴量空間V01では、各対象が顔画像の特徴量に応じて特徴量空間V01上にプロットされる。例えば、特徴量空間V01には、対象として、ユーザU01や、他の女性ユーザであるユーザU11や、ユーザU12や、ユーザU13がプロットされる。 As shown in FIG. 1, in the feature amount space V01, each target is plotted on the feature amount space V01 according to the feature amount of the face image. For example, in the feature amount space V01, the user U01, the user U11 who is another female user, the user U12, and the user U13 are plotted as targets.

特徴量空間V01では、各対象の顔画像において抽出された特徴量に応じて各対象がプロットされるため、類似する顔のユーザ同士が近傍にプロットされる。例えば、ユーザU01とユーザU11の顔画像の特徴が類似している場合、ユーザU01とユーザU11とは、特徴量空間V01において近傍にプロットされる。仮に、特徴量空間V01上の領域(座標)を所定の閾値で区分けることにより、特徴量空間V01に所定の範囲を形成した場合、ユーザU01とユーザU11とは同じ範囲内である範囲D11に属するものとする。また、ユーザU12の顔画像から抽出された特徴量が、ユーザU01やユーザU11と所定量を超えて隔たりがある場合、ユーザU12の顔とユーザU01及びユーザU11の顔とは類似しない。この場合、ユーザU12は、ユーザU01やユーザU11が属する範囲D11とは異なる範囲である範囲D12に属する。また、ユーザU13の顔画像から抽出された特徴量が、ユーザU01やユーザU11やユーザU12と所定量を超えて隔たりがある場合、ユーザU13の顔と、ユーザU01、ユーザU11及びユーザU12の顔とは類似しない。この場合、ユーザU13は、ユーザU01やユーザU11が属する範囲D11や、ユーザU12の属する範囲D12とは異なる範囲である範囲D13に属する。 In the feature amount space V01, since each target is plotted according to the feature amount extracted in the face image of each target, users having similar faces are plotted in the vicinity. For example, when the features of the face images of the user U01 and the user U11 are similar to each other, the user U01 and the user U11 are plotted in the vicinity in the feature amount space V01. If a predetermined range is formed in the feature amount space V01 by dividing the region (coordinates) on the feature amount space V01 by a predetermined threshold value, the user U01 and the user U11 are in the same range D11. Shall belong. When the feature amount extracted from the face image of the user U12 is separated from the user U01 or the user U11 by a predetermined amount or more, the face of the user U12 is not similar to the face of the user U01 or the user U11. In this case, the user U12 belongs to the range D12 which is a range different from the range D11 to which the user U01 and the user U11 belong. When the feature amount extracted from the face image of the user U13 is separated from the user U01, the user U11, and the user U12 by more than a predetermined amount, the face of the user U13 and the faces of the user U01, the user U11, and the user U12. Is not similar to. In this case, the user U13 belongs to the range D11, which is different from the range D11 to which the user U01 and the user U11 belong, and the range D12 to which the user U12 belongs.

このように、抽出装置100は、顔画像に基づいて生成された特徴量空間V01、及び、特徴量空間V01内における所定範囲に基づいて、サービスに登録した各女性ユーザを「似ているユーザ」として分類することができる。 In this way, the extraction device 100 is a “similar user” to each female user registered in the service based on the feature amount space V01 generated based on the face image and the predetermined range in the feature amount space V01. Can be classified as

続いて、抽出装置100は、サービスに登録したユーザU01に対して、ユーザU01が好む容姿を示す情報(以下、「好み情報」と表記する)を設定する(ステップS13)。例えば、抽出装置100は、サービスに登録済みである異性ユーザの顔画像をユーザU01に提示し、提示された顔画像から1つを選択させることで、ユーザU01の好み情報を設定する。この場合、抽出装置100は、選択された顔画像の特徴量(ベクトル)をユーザU01の好み情報として設定する。 Subsequently, the extraction device 100 sets, for the user U01 registered in the service, information indicating the appearance that the user U01 likes (hereinafter referred to as "preference information") (step S13). For example, the extraction device 100 presents the face image of the opposite user who has been registered in the service to the user U01, and selects one from the presented face images to set the preference information of the user U01. In this case, the extraction device 100 sets the feature amount (vector) of the selected face image as the user U01's preference information.

あるいは、抽出装置100は、所定の処理により、ユーザU01がどのような顔(具体的には、顔の特徴)を好むかを設定してもよい。詳細は後述するが、例えば、抽出装置100は、サービスを利用するユーザU01に対して、異性ユーザの顔画像を2種類提示し、どちらが好みの顔であるかを選択させる。このとき、抽出装置100は、既に特徴量を抽出済みの2種類の顔画像をユーザU01に提示する。そして、抽出装置100は、異性ユーザの顔画像を2種類提示してどちらが好みの顔であるかをユーザU01に選択させる処理を繰り返すことで、ユーザU01の好み情報を生成する。一例として、抽出装置100は、ユーザU01が選択した顔画像の特徴量を示した各ベクトルの平均を算出することにより、ユーザU01の好み情報を生成する。このようにして生成される好み情報は、異性ユーザがプロットされた特徴量空間においてユーザU01の好みを指し示すベクトルといえる。抽出装置100は、生成した好み情報を、ユーザU01に対応付けられる情報の1つとして設定する。同様に、抽出装置100は、サービスに登録したユーザU11や、ユーザU12や、ユーザU13の好み情報も取得し、各ユーザの情報として設定しているものとする。 Alternatively, the extraction device 100 may set what kind of face (specifically, facial feature) the user U01 prefers by a predetermined process. Although details will be described later, for example, the extraction device 100 presents two types of face images of the opposite user to the user U01 who uses the service, and allows the user U01 to select which face is the favorite face. At this time, the extraction device 100 presents to the user U01 two types of face images from which the feature amount has already been extracted. Then, the extraction apparatus 100 generates the preference information of the user U01 by presenting two types of face images of the opposite user and repeating the process of causing the user U01 to select which face is the favorite face. As an example, the extraction device 100 generates the preference information of the user U01 by calculating the average of each vector indicating the feature amount of the face image selected by the user U01. The preference information generated in this way can be said to be a vector indicating the preference of the user U01 in the feature amount space in which the opposite sex user is plotted. The extraction device 100 sets the generated preference information as one of the information associated with the user U01. Similarly, it is assumed that the extraction device 100 also acquires the preference information of the user U11, the user U12, and the user U13 registered in the service and sets it as the information of each user.

以上の処理により、抽出装置100は、サービスに登録した女性ユーザを対象とする特徴量空間V01を生成する。なお、抽出装置100は、新たに女性ユーザから登録があった場合には、当該女性ユーザを特徴量空間V01に追加する処理を行ってもよい。すなわち、抽出装置100は、適宜、特徴量空間V01に含まれる対象を更新する処理を行ってもよい。 Through the above processing, the extraction device 100 generates the feature amount space V01 intended for the female user registered in the service. Note that the extraction device 100 may perform a process of adding the female user to the feature amount space V01 when the female user is newly registered. That is, the extraction device 100 may appropriately perform the process of updating the target included in the feature amount space V01.

その後、抽出装置100は、サービスを利用しようとする男性ユーザであるユーザU02からアクセスを受け付ける。抽出装置100は、ユーザU02からユーザ情報や顔画像を取得するとともに、ユーザU02の好み情報を受け付ける。すなわち、ユーザU02は、サービスの利用に際して、ユーザU02自身の好み情報を設定する(ステップS14)。 After that, the extraction device 100 receives access from the user U02 who is a male user who intends to use the service. The extraction device 100 acquires user information and a face image from the user U02, and also receives preference information of the user U02. That is, the user U02 sets the preference information of the user U02 itself when using the service (step S14).

例えば、抽出装置100は、ユーザU01について好み情報を設定した際と同様の手法を用いて、ユーザU02の好み情報を設定する。そして、抽出装置100は、特徴量空間V01において、ユーザU02の好み情報に対応した所定範囲を特定する。さらに、抽出装置100は、ユーザU02の好み情報に対応した所定範囲に含まれる対象を特定する。その後、抽出装置100は、特定した対象の中から、ユーザU02の顔を好む対象を抽出する(ステップS15)。 For example, the extraction device 100 sets the preference information of the user U02 by using the same method as when setting the preference information of the user U01. Then, the extraction device 100 identifies, in the feature amount space V01, a predetermined range corresponding to the preference information of the user U02. Furthermore, the extraction device 100 identifies the target included in the predetermined range corresponding to the preference information of the user U02. After that, the extraction device 100 extracts a target that likes the face of the user U02 from the specified targets (step S15).

上記ステップS15の処理について、具体的に説明する。まず、抽出装置100は、ユーザU02の好み情報を示すベクトルが、特徴量空間V01における範囲D11近傍を示すものである場合に、ユーザU02に紹介する対象として、範囲D11に属するユーザであるユーザU01やユーザU11を特定する。続けて、抽出装置100は、範囲D11に属するユーザU01やユーザU11に設定された好み情報を参照する。 The process of step S15 will be specifically described. First, when the vector indicating the preference information of the user U02 indicates the vicinity of the range D11 in the feature amount space V01, the extraction device 100 targets the user U02 and is a user belonging to the range D11. Or user U11 is specified. Subsequently, the extraction device 100 refers to the user U01 belonging to the range D11 and the preference information set for the user U11.

そして、抽出装置100は、ユーザU02の好みである対象のうち、ユーザU02の顔が好みである対象を抽出する。例えば、抽出装置100は、範囲D11に属する対象のうち、ユーザU02の属する特徴量空間(図1の例では、男性ユーザを対象とする特徴量空間)において、ユーザU02が属する範囲内に好み情報のベクトルが向かっているユーザを抽出する。すなわち、抽出装置100は、男性ユーザを対象とする特徴量空間において、ユーザU02がプロットされた空間(所定範囲)に対して、好み情報を示すベクトルが向かっている女性ユーザを抽出する。 Then, the extraction device 100 extracts, from the objects that the user U02 likes, the objects that the face of the user U02 likes. For example, the extraction device 100 has preference information within the range to which the user U02 belongs in the feature amount space to which the user U02 belongs (in the example of FIG. 1, the feature amount space to the male user) among the targets belonging to the range D11. The users whose vector is heading are extracted. That is, the extraction device 100 extracts a female user whose vector indicating preference information is heading for the space (predetermined range) in which the user U02 is plotted in the feature amount space intended for the male user.

図1の例では、ユーザU02が好む顔の特徴を有している対象の属する所定の範囲が範囲D11であるものとし、また、ユーザU01とユーザU11とが範囲D11に属しているものとする。そして、ユーザU01が好む顔の対象にユーザU02が該当し、ユーザU11が好む顔の対象にユーザU02が該当していないとする。この場合、抽出装置100は、ユーザU02とマッチングさせるユーザとしてユーザU01を抽出する。 In the example of FIG. 1, it is assumed that the predetermined range to which the target having the facial features preferred by the user U02 belongs is the range D11, and that the users U01 and U11 belong to the range D11. .. Then, it is assumed that the user U02 corresponds to the target of the face preferred by the user U01 and the user U02 does not correspond to the target of the face preferred by the user U11. In this case, the extraction device 100 extracts the user U01 as a user to be matched with the user U02.

このように、抽出装置100は、対象を撮像した画像(図1の例では、顔画像)に含まれる対象の身体的な特徴を抽出することにより、各々の画像に対応する対象が所定位置にプロットされた空間である特徴量空間V01を生成する。そして、抽出装置100は、対象に関する所定の要求を、サービスを利用するユーザU02から受け付けることにより、生成された特徴量空間V01において、ユーザU02が所望する所定の範囲D11を特定する。さらに、抽出装置100は、特定された範囲D11に含まれる対象のうち、ユーザU02に関する所定の条件(図1の例では、ユーザU02の顔が好みであること)に適合した対象を抽出する。 In this way, the extraction device 100 extracts the physical characteristics of the target included in the image of the target (the face image in the example of FIG. 1) so that the target corresponding to each image is located at a predetermined position. A feature space V01 that is a plotted space is generated. Then, the extraction device 100 specifies a predetermined range D11 desired by the user U02 in the generated feature amount space V01 by accepting a predetermined request regarding the target from the user U02 who uses the service. Further, the extraction device 100 extracts, from the targets included in the specified range D11, targets that match a predetermined condition regarding the user U02 (in the example of FIG. 1, the user U02's face is a favorite).

このように、実施形態に係る抽出装置100は、マッチングサービスにおいて、サービスを利用するユーザU02の所望する容姿を持つ対象であって、さらに、ユーザU02の容姿を好む対象であるユーザU01を抽出する。すなわち、抽出装置100は、顔や容姿などマッチングサービスにとって重要な要素となる情報であるものの、言語化しにくい情報に関して、互いの好みの容姿を有するユーザ同士を精度よくマッチングさせることができる。具体的には、候補として抽出された対象は、一方的にユーザから好みを告げられた対象ではなく、対象自身の好み情報に基づいて抽出された対象となる。これにより、抽出装置100は、互いの容姿を好むユーザ同士を抽出できるので、マッチングの成功率(例えば、提示されたユーザ同士がペアとして成立すること)を向上させることができる。また、上記抽出処理によれば、サービスを利用するユーザU02に対して抽出される候補(すなわち、レコメンドとして表示される対象)は複数となる場合がある。この場合であっても、抽出装置100によって抽出された候補は、少なくともユーザU02の容姿を好む対象である。このため、ユーザU02にとっては、提示された対象に対して気軽にアプローチを行うことができる。この結果、抽出装置100は、例えばユーザ同士が互いに連絡を取り合う確率や、互いを受け入れる可能性を高めることができるので、マッチングの成功率を向上させることができる。以下、このような処理を行う抽出装置100、及び、抽出装置100を含む抽出処理システム1の構成等について、詳細に説明する。 As described above, the extraction device 100 according to the embodiment extracts, in the matching service, the user U01 who has the desired appearance of the user U02 who uses the service and who further prefers the appearance of the user U02. .. That is, the extraction device 100 can accurately match users who have their favorite appearances with each other regarding information that is an important element for the matching service such as face and appearance, but is difficult to verbalize. Specifically, the target extracted as a candidate is not the target unilaterally notified of the preference by the user, but the target extracted based on the preference information of the target itself. Accordingly, the extraction device 100 can extract users who like each other's appearance, and thus can improve the success rate of matching (for example, the presented users are established as a pair). Further, according to the above extraction processing, there may be a plurality of candidates (that is, targets to be displayed as recommendations) extracted for the user U02 who uses the service. Even in this case, the candidates extracted by the extraction device 100 are targets that at least prefer the appearance of the user U02. Therefore, the user U02 can easily approach the presented target. As a result, the extraction device 100 can increase the probability of users contacting each other and the possibility of accepting each other, so that the success rate of matching can be improved. Hereinafter, the configuration and the like of the extraction device 100 that performs such processing and the extraction processing system 1 including the extraction device 100 will be described in detail.

〔2.抽出処理システムの構成〕
次に、図2を用いて、実施形態に係る抽出装置100が含まれる抽出処理システム1の構成について説明する。図2は、実施形態に係る抽出処理システム1の構成例を示す図である。図2に例示するように、実施形態に係る抽出処理システム1には、ユーザ端末10と、抽出装置100とが含まれる。これらの各種装置は、ネットワークNを介して、有線又は無線により通信可能に接続される。なお、図2に示した抽出処理システム1には、複数台のユーザ端末10が含まれてもよい。
[2. Configuration of extraction processing system]
Next, the configuration of the extraction processing system 1 including the extraction device 100 according to the embodiment will be described with reference to FIG. FIG. 2 is a diagram showing a configuration example of the extraction processing system 1 according to the embodiment. As illustrated in FIG. 2, the extraction processing system 1 according to the embodiment includes a user terminal 10 and an extraction device 100. These various devices are connected via a network N so that they can communicate by wire or wirelessly. The extraction processing system 1 shown in FIG. 2 may include a plurality of user terminals 10.

ユーザ端末10は、例えば、スマートフォンや、デスクトップ型PC(Personal Computer)や、ノート型PCや、タブレット型端末や、携帯電話機、PDA(Personal Digital Assistant)、ウェアラブルデバイス(Wearable Device)等の情報処理装置である。ユーザ端末10は、ユーザによる操作に従って、抽出装置100にアクセスし、抽出装置100から提供されるマッチングサービスを利用する。 The user terminal 10 is, for example, a smart phone, a desktop PC (Personal Computer), a notebook PC, a tablet terminal, a mobile phone, a PDA (Personal Digital Assistant), an information processing device such as a wearable device (Wearable Device). Is. The user terminal 10 accesses the extraction device 100 and uses the matching service provided by the extraction device 100 according to the operation by the user.

抽出装置100は、実施形態に係る抽出処理を実行するサーバ装置である。抽出装置100は、例えばウェブサーバであり、インターネット上で提供されるマッチングサービスをユーザに提供する。 The extraction device 100 is a server device that executes the extraction process according to the embodiment. The extraction device 100 is, for example, a web server and provides a user with a matching service provided on the Internet.

〔3.抽出装置の構成〕
次に、図3を用いて、実施形態に係る抽出装置100の構成について説明する。図3は、実施形態に係る抽出装置100の構成例を示す図である。図3に示すように、抽出装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、抽出装置100は、抽出装置100を利用する管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[3. Configuration of extraction device]
Next, the configuration of the extraction device 100 according to the embodiment will be described with reference to FIG. FIG. 3 is a diagram illustrating a configuration example of the extraction device 100 according to the embodiment. As illustrated in FIG. 3, the extraction device 100 includes a communication unit 110, a storage unit 120, and a control unit 130. The extraction device 100 includes an input unit (for example, a keyboard and a mouse) that receives various operations from an administrator who uses the extraction device 100, and a display unit (for example, a liquid crystal display) for displaying various information. You may have.

(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。かかる通信部110は、ネットワークNと有線又は無線で接続され、ネットワークNを介して、ユーザ端末10や、抽出装置100との間で情報の送受信を行う。
(About communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. The communication unit 110 is connected to the network N by wire or wirelessly, and transmits and receives information to and from the user terminal 10 and the extraction device 100 via the network N.

(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、顔画像記憶部121と、特徴量空間記憶部122と、ユーザ情報記憶部123とを有する。
(About storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk. The storage unit 120 includes a face image storage unit 121, a feature amount space storage unit 122, and a user information storage unit 123.

(顔画像記憶部121について)
顔画像記憶部121は、サービスに登録したユーザから受け付けた顔画像に関する情報を記憶する。ここで、図4に、実施形態に係る顔画像記憶部121の一例を示す。図4は、実施形態に係る顔画像記憶部121の一例を示す図である。図4に示した例では、顔画像記憶部121は、「ユーザID」、「性別」、「顔画像ID」、「特徴量情報」といった項目を有する。
(About face image storage unit 121)
The face image storage unit 121 stores information about face images received from users registered in the service. Here, FIG. 4 illustrates an example of the face image storage unit 121 according to the embodiment. FIG. 4 is a diagram illustrating an example of the face image storage unit 121 according to the embodiment. In the example shown in FIG. 4, the face image storage unit 121 has items such as “user ID”, “sex”, “face image ID”, and “feature amount information”.

「ユーザID」は、ユーザを識別するための識別情報を示す。なお、実施形態において、識別情報と、説明で用いる参照符号とは共通するものとする。例えば、ユーザIDが「U01」であるユーザは、ユーザU01を示す。「性別」は、ユーザの性別を示す。「顔画像ID」は、顔画像を識別する識別情報を示す。 The “user ID” indicates identification information for identifying the user. In addition, in the embodiment, the identification information and the reference numeral used in the description are common. For example, a user whose user ID is “U01” indicates user U01. “Gender” indicates the gender of the user. “Face image ID” indicates identification information for identifying a face image.

「特徴量情報」は、顔画像から抽出された特徴量に関する情報を示す。なお、図4に示した例では、特徴量情報を「G01」等の概念で示しているが、実際には、特徴量情報は、顔画像から抽出された特徴に対応する要素と、要素を示す値等で表される。例えば、特徴量情報は、要素を次元とし、要素を示す値を各次元の数値とするベクトルとして示される。具体的には、特徴量情報は、目全体の形や、白目の形や色、白目と黒目の割合など、ユーザの顔の特徴となる各要素を次元とし、また、各要素を正規化により数値化したベクトルである。このような特徴量情報の抽出は、上述のように、種々の既知の技術(例えばディープラーニングを利用した画像認識技術)によって実現されてもよい。 The “feature amount information” indicates information about the feature amount extracted from the face image. Note that in the example shown in FIG. 4, the feature amount information is represented by a concept such as “G01”. However, in reality, the feature amount information includes an element corresponding to the feature extracted from the face image and an element. It is represented by the indicated value or the like. For example, the feature amount information is shown as a vector having elements as dimensions and values indicating the elements as numerical values in each dimension. Specifically, the feature amount information is obtained by dimensioning each element that is a feature of the user's face, such as the shape of the entire eye, the shape and color of the white eye, the ratio of the white eye and the black eye, and normalizing each element. It is a digitized vector. Extraction of such feature amount information may be realized by various known techniques (for example, image recognition technique using deep learning) as described above.

すなわち、図4に示したデータの一例は、ユーザID「U01」によって識別されるユーザU01の性別は「女性」であり、顔画像ID「P01」で識別される顔画像が登録されており、また、その顔画像の特徴量情報は「G01」であることを示している。 That is, in the example of the data shown in FIG. 4, the gender of the user U01 identified by the user ID “U01” is “female”, and the face image identified by the face image ID “P01” is registered. Also, it is indicated that the feature amount information of the face image is “G01”.

(特徴量空間記憶部122について)
特徴量空間記憶部122は、抽出装置100によって生成された特徴量空間に関する情報を記憶する。ここで、図5に、実施形態に係る特徴量空間記憶部122の一例を示す。図5は、実施形態に係る特徴量空間記憶部122の一例を示す図である。図5に示した例では、特徴量空間記憶部122は、「特徴量空間ID」、「属性」、「顔画像ID」といった項目を有する。
(Regarding the feature space storage unit 122)
The feature amount space storage unit 122 stores information about the feature amount space generated by the extraction device 100. Here, FIG. 5 illustrates an example of the feature amount space storage unit 122 according to the embodiment. FIG. 5 is a diagram illustrating an example of the feature amount space storage unit 122 according to the embodiment. In the example shown in FIG. 5, the feature amount space storage unit 122 has items such as “feature amount space ID”, “attribute”, and “face image ID”.

「特徴量空間ID」は、特徴量空間を識別するための識別情報を示す。「属性」は、特徴量空間に属するユーザ(対象)の属性を示す。「顔画像ID」は、特徴量空間に含まれる各顔画像の識別情報を示す。なお、図5での図示は省略しているが、特徴量空間記憶部122には、顔画像IDのみならず、特徴量空間に属するユーザを識別する情報や、各顔画像の特徴量情報が記憶されているものとする。 The “feature amount space ID” indicates identification information for identifying the feature amount space. The “attribute” indicates the attribute of the user (target) who belongs to the feature amount space. The “face image ID” indicates identification information of each face image included in the feature amount space. Although not shown in FIG. 5, not only the face image ID but also the information for identifying the user belonging to the feature amount space and the feature amount information of each face image are stored in the feature amount space storage unit 122. It is assumed to be remembered.

すなわち、図5に示したデータの一例は、特徴量空間ID「V01」で識別される特徴量空間V01に属するユーザの属性は「女性」であり、特徴量空間V01には、例えば、顔画像ID「P01」、「P11」、「P12」、「P13」で識別される顔画像に対応付けられた対象が属していることを示している。 That is, in the example of the data illustrated in FIG. 5, the attribute of the user who belongs to the feature amount space V01 identified by the feature amount space ID “V01” is “female”, and the feature amount space V01 includes, for example, a face image. It indicates that the targets associated with the face images identified by the IDs “P01”, “P11”, “P12”, and “P13” belong.

(ユーザ情報記憶部123について)
ユーザ情報記憶部123は、サービスを利用するユーザから受け付けた好み情報等のユーザ情報を記憶する。ここで、図6に、実施形態に係るユーザ情報記憶部123の一例を示す。図6は、実施形態に係るユーザ情報記憶部123の一例を示す図である。図6に示した例では、ユーザ情報記憶部123は、「ユーザID」、「属する範囲」、「好み情報」、「ターゲットとする範囲」、「マッチングユーザ候補」といった項目を有する。
(About the user information storage unit 123)
The user information storage unit 123 stores user information such as preference information received from users who use the service. Here, FIG. 6 illustrates an example of the user information storage unit 123 according to the embodiment. FIG. 6 is a diagram illustrating an example of the user information storage unit 123 according to the embodiment. In the example illustrated in FIG. 6, the user information storage unit 123 has items such as “user ID”, “belonging range”, “preference information”, “target range”, and “matching user candidate”.

「ユーザID」は、図4で示した同一の項目に対応する。「属する範囲」は、特徴量空間においてユーザがプロットされた範囲を示す。例えば、範囲とは、特徴量空間における所定の幅を有する空間である。このため、同一の範囲に属するユーザは、似たような特徴を有する顔(容姿)を有する。例えば図1に示したように、特徴量空間V01における範囲D11には、顔画像において似た特徴を有するユーザU01やユーザU11が属することになる。 The “user ID” corresponds to the same item shown in FIG. The “belonging range” indicates a range in which the user is plotted in the feature amount space. For example, the range is a space having a predetermined width in the feature amount space. Therefore, users belonging to the same range have faces (appearances) having similar characteristics. For example, as illustrated in FIG. 1, the range U11 in the feature amount space V01 includes the user U01 and the user U11 having similar features in the face image.

「好み情報」は、ユーザごとに設定された好み情報を示す。なお、図6に示した例では、好み情報を「H01」等の概念で示しているが、実際には好み情報は、特徴量情報と同様、顔画像から抽出された特徴に対応する要素と、要素を示す値等で表される。すなわち、好み情報は、要素を次元とし、要素を示す値を各次元の数値とするベクトルとして示される。なお、好み情報は、一意の数値で定まらず、ある程度の幅を持った数値で示されてもよい。すなわち、好み情報は、ユーザの好みを示す情報であるため、特定の人物を示す情報(一意に定まる情報)でなく、ユーザが好む顔の特徴が認識可能な程度の幅(範囲)を持ったベクトルであってもよい。 “Preference information” indicates preference information set for each user. Note that in the example shown in FIG. 6, the preference information is represented by a concept such as “H01”, but in reality, like the feature amount information, the preference information is an element corresponding to the feature extracted from the face image. , A value indicating an element or the like. That is, the preference information is represented as a vector having elements as dimensions and values indicating the elements as numerical values in each dimension. The preference information is not limited to a unique numerical value, and may be a numerical value having a certain width. That is, since the preference information is the information indicating the preference of the user, the preference information is not information indicating a specific person (information that is uniquely determined), but has a width (range) in which the facial features that the user likes can be recognized. It may be a vector.

「ターゲットとする範囲」は、好み情報に対応した範囲であって、異性の特徴量空間における範囲を示す。なお、抽出装置100は、「ターゲットとする範囲」や「属する範囲」の項目について、一定の閾値を定めて設定する必要はなく、処理に応じて範囲が定まるよう、各範囲を定める閾値を動的に変更してもよい。また、抽出装置100は、好み情報が一意に定まる場合には、例えば、好み情報が指し示す特徴量空間上の一点から所定の領域までを「ターゲットとする範囲」に設定するなど、柔軟に範囲を定めてもよい。 The “target range” is a range corresponding to the preference information and indicates a range in the feature amount space of the opposite sex. Note that the extraction device 100 does not need to set and set a constant threshold for the items “target range” and “range to which it belongs”, and moves the thresholds that set each range so that the range is determined according to the processing. You may change it. In addition, when the preference information is uniquely determined, the extraction device 100 flexibly sets the range, for example, by setting a range from one point in the feature amount space indicated by the preference information to a predetermined area as a “target range”. May be set.

「マッチングユーザ候補」は、ユーザにマッチングされる対象として抽出された候補であるユーザを示す。図6の例では、マッチングユーザ候補は、ユーザIDと共通した参照符号により示される。例えば、抽出装置100は、ユーザがターゲットとする範囲に属する対象であって、当該対象がターゲットとする範囲に当該ユーザが含まれている、という条件を満たす場合に、マッチングユーザ候補として当該対象を抽出する。言い換えれば、マッチングユーザ候補は、サービスにおいてユーザが好み情報を設定した際に、当該ユーザにレコメンドされる対象となるユーザである。 “Matching user candidate” indicates a user who is a candidate extracted as a target to be matched with the user. In the example of FIG. 6, the matching user candidate is indicated by the reference numeral common to the user ID. For example, when the extraction device 100 satisfies the condition that a user belongs to a range targeted by the user and the user is included in the range targeted by the user, the extraction device 100 selects the target as a matching user candidate. Extract. In other words, the matching user candidate is a user who is a target to be recommended to the user when the user sets preference information in the service.

すなわち、図6に示したデータの一例は、ユーザID「U01」で識別されるユーザU01が特徴量空間において属する範囲は「D11」であり、好み情報は「H01」であり、その好み情報に基づいて定まる範囲(ターゲットとする範囲)は、「E12」であり、ユーザU01に対応するマッチングユーザ候補は、「U21」等であることを示している。 That is, in the example of the data illustrated in FIG. 6, the range to which the user U01 identified by the user ID “U01” belongs in the feature amount space is “D11”, the preference information is “H01”, and the preference information is The range (target range) determined based on this is “E12”, and the matching user candidate corresponding to the user U01 is “U21” or the like.

(制御部130について)
制御部130は、例えば、コントローラ(controller)であり、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、抽出装置100内部の記憶装置に記憶されている各種プログラム(抽出プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、コントローラであり、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Regarding the control unit 130)
The control unit 130 is, for example, a controller, and is a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like, which stores various programs (an example of an extraction program) stored in a storage device inside the extraction device 100. (Corresponding) is executed by using the RAM as a work area. The control unit 130 is, for example, a controller, and is realized by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

図3に示すように、制御部130は、取得部131と、生成部132と、受付部133と、特定部134と、抽出部135と、送信部136とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図3に示した接続関係に限られず、他の接続関係であってもよい。 As illustrated in FIG. 3, the control unit 130 includes an acquisition unit 131, a generation unit 132, a reception unit 133, a specification unit 134, an extraction unit 135, and a transmission unit 136, and information described below. Realize or execute processing functions and actions. Note that the internal configuration of the control unit 130 is not limited to the configuration shown in FIG. 3, and may be another configuration as long as it is a configuration for performing information processing described later. Further, the connection relationship between the processing units included in the control unit 130 is not limited to the connection relationship illustrated in FIG. 3 and may be another connection relationship.

(取得部131について)
取得部131は、各種情報を取得する。例えば、取得部131は、サービスを利用するユーザのユーザ情報を取得する。取得部131は、ユーザ情報として、ユーザの属性情報を取得する。具体的には、取得部131は、ユーザの性別や年齢、職業、年収、居住地等の属性情報を取得する。
(About the acquisition unit 131)
The acquisition unit 131 acquires various kinds of information. For example, the acquisition unit 131 acquires user information of a user who uses the service. The acquisition unit 131 acquires user attribute information as user information. Specifically, the acquisition unit 131 acquires attribute information such as gender, age, occupation, annual income, place of residence of the user.

また、取得部131は、ユーザの画像を取得する。例えば、取得部131は、ユーザの顔を被写体とした顔画像を取得する。また、取得部131は、ユーザの好み情報を取得する。なお、取得部131は、後述する受付部133によってユーザから受け付けられた情報に基づいて作成される好み情報を取得するようにしてもよい。 The acquisition unit 131 also acquires the image of the user. For example, the acquisition unit 131 acquires a face image with the user's face as a subject. The acquisition unit 131 also acquires user preference information. The acquisition unit 131 may acquire the preference information created based on the information received from the user by the reception unit 133 described below.

取得部131は、取得した各情報を記憶部120内に格納する。また、取得部131は、記憶部120内に格納された情報を適宜取得してもよい。 The acquisition unit 131 stores each acquired information in the storage unit 120. In addition, the acquisition unit 131 may appropriately acquire the information stored in the storage unit 120.

なお、取得部131は、サービスへの反応に関する情報を取得してもよい。例えば、取得部131は、サービスにおいて抽出された候補に対するユーザの反応を取得してもよい。取得部131は、ユーザの反応として、対象がユーザから選択された(クリックやタッチされた)数もしくは率、又は、ユーザと対象とがマッチングに成功した数もしくは率の少なくともいずれか一つを取得する。すなわち、候補に対するユーザの反応とは、候補として提示された対象に対してユーザが示した反応であり、例えば、候補として提示された対象がクリックされることによりユーザから候補に対してアプローチが行われたことや、対象がユーザのアプローチを受け入れ、両者がペアとして成立したことである。あるいは、取得部131は、ユーザに提示した候補が、ユーザの好みでないとする反応をユーザから取得してもよい。例えば、取得部131は、サービスにおいて、「このユーザはあなたの好みですか?」といったメッセージを提示し、そのメッセージに対する回答をユーザの反応として取得してもよい。 The acquisition unit 131 may acquire information regarding the reaction to the service. For example, the acquisition unit 131 may acquire the user reaction to the candidates extracted in the service. The acquisition unit 131 acquires at least one of the number or rate at which the target is selected (clicked or touched) from the user, or the number or rate at which the user and the target have been successfully matched, as the reaction of the user. To do. That is, the reaction of the user to the candidate is the reaction shown by the user to the target presented as the candidate. For example, when the target presented as the candidate is clicked, the user approaches the candidate. That is, the subject accepted the user's approach, and the two were established as a pair. Alternatively, the acquisition unit 131 may acquire a reaction from the user that the candidate presented to the user is not the user's preference. For example, the acquisition unit 131 may present a message such as "Is this user your favorite?" in the service, and acquire an answer to the message as the user's reaction.

(生成部132について)
生成部132は、対象を撮像した画像に含まれる対象の身体的な特徴を抽出することにより、各々の画像に対応する対象が所定位置にプロットされた空間である特徴量空間を生成する。
(Regarding the generation unit 132)
The generation unit 132 generates a feature amount space that is a space in which the target corresponding to each image is plotted at a predetermined position by extracting the physical feature of the target included in the image of the captured target.

なお、実施形態では、対象とは、抽出装置100が提供するサービスに登録するユーザが対応する。また、実施形態では、身体的な特徴とは、ユーザの顔画像から抽出される特徴量情報が対応する。すなわち、生成部132は、対象の顔画像から特徴量情報を抽出し、抽出した情報に基づいて、当該対象をプロットした特徴量空間を生成する。 In the embodiment, the target corresponds to the user who registers in the service provided by the extraction device 100. Further, in the embodiment, the physical feature corresponds to the feature amount information extracted from the face image of the user. That is, the generation unit 132 extracts the feature amount information from the target face image, and generates the feature amount space in which the target is plotted based on the extracted information.

生成部132は、例えば、既知の画像認識技術を用いて、顔画像から顔の特徴量情報を抽出する。また、生成部132は、例えばDCGAN等を利用して特徴量空間を生成する。 The generation unit 132 extracts face feature amount information from the face image using, for example, a known image recognition technique. Further, the generation unit 132 generates a feature amount space by using, for example, DCGAN.

また、生成部132は、対象の属性情報ごとに異なる特徴量空間を生成してもよい。例えば、生成部132は、図1で示したように、対象の性別ごとに異なる特徴量空間を生成してもよい。生成部132は、生成した特徴量空間に関する情報を特徴量空間記憶部122に格納する。 Further, the generation unit 132 may generate a different feature amount space for each target attribute information. For example, as illustrated in FIG. 1, the generation unit 132 may generate different feature amount spaces for each gender of the target. The generation unit 132 stores the generated information on the feature amount space in the feature amount space storage unit 122.

(受付部133について)
受付部133は、各種情報を受け付ける。例えば、受付部133は、ユーザからサービス利用の要求を受け付ける。この場合、受付部133は、所定のユーザインターフェース画面(例えば、マッチングサービスに対応するアプリ)を提供し、サービスへの登録をユーザに促す。そして、受付部133は、ユーザから登録される情報を受け付ける。
(Regarding the reception unit 133)
The reception unit 133 receives various types of information. For example, the reception unit 133 receives a service use request from a user. In this case, the reception unit 133 provides a predetermined user interface screen (for example, an application corresponding to the matching service) and prompts the user to register for the service. Then, the reception unit 133 receives the information registered by the user.

受付部133は、サービスへの登録にあたり、マッチングされる対象に望む条件をユーザから受け付ける。例えば、受付部133は、対象の性別や年齢、職業、年収等の条件を受け付ける。 When registering for the service, the reception unit 133 receives from the user the conditions desired for the matching target. For example, the reception unit 133 receives conditions such as the target gender, age, occupation, and annual income.

また、受付部133は、ユーザが所望する条件の1つとして、対象の容姿に関する好み情報を受け付ける。例えば、受付部133は、既に特徴量情報が抽出されている顔画像をユーザに提示し、ユーザがその顔を好むか否かを尋ねるためのユーザインターフェースをユーザ端末10に提供する。そして、受付部133は、ユーザの返答に応じて、当該ユーザの好み情報を受け付ける。 The reception unit 133 also receives preference information regarding the appearance of the target as one of the conditions desired by the user. For example, the reception unit 133 presents the face image from which the feature amount information has already been extracted to the user, and provides the user terminal 10 with a user interface for asking whether the user likes the face. Then, the receiving unit 133 receives the user's preference information in response to the user's reply.

この点について、図7を用いて説明する。図7は、実施形態に係る受付処理の一例を説明するための図である。図7では、受付部133から提供されたユーザインターフェース70(例えば、アプリ画面)をユーザ端末10が表示する状況を示している。 This point will be described with reference to FIG. 7. FIG. 7 is a diagram for explaining an example of the reception process according to the embodiment. FIG. 7 illustrates a situation in which the user terminal 10 displays the user interface 70 (for example, an application screen) provided by the reception unit 133.

図7に示すように、受付部133は、AとBで示された顔画像を選択させるユーザインターフェース70をユーザ端末10に表示させる。例えば、ユーザは、指F10で画面をタッチすることで、AとBのどちらの顔が好みかを選択する。 As illustrated in FIG. 7, the accepting unit 133 causes the user terminal 10 to display the user interface 70 for selecting the face images indicated by A and B. For example, the user touches the screen with the finger F10 to select which face A or B is preferred.

このとき、受付部133は、ユーザから選択を受け付けた顔画像に基づいて、ユーザが好む顔の特徴量を受け付ける(ステップS21)。ユーザから選択を受け付けた後、受付部133は、さらに異なる2つの顔をユーザインターフェース70に表示させる。そして、受付部133は、再びユーザからの選択を受け付ける。受付部133は、この選択を所定数繰り返す。 At this time, the reception unit 133 receives the facial feature amount that the user likes based on the face image that the user has selected (step S21). After accepting the selection from the user, the accepting unit 133 causes the user interface 70 to display two different faces. Then, the receiving unit 133 receives the selection from the user again. The reception unit 133 repeats this selection a predetermined number of times.

そして、受付部133は、選択された顔画像(すなわち、ユーザが好む顔)の特徴量を総合して、当該ユーザの好み情報として設定する(ステップS22)。例えば、受付部133は、ユーザから選択された各顔画像の特徴量情報を平均した情報を、当該ユーザの好み情報として受け付ける。 Then, the reception unit 133 synthesizes the feature amounts of the selected face image (that is, the face that the user likes) and sets it as preference information of the user (step S22). For example, the reception unit 133 receives information obtained by averaging the feature amount information of each face image selected by the user as the user's preference information.

なお、図7に示すように、実施形態に係るサービスでは、ユーザに設定された好み情報と、既に設定されていた対象の好み情報とを参照する処理が行われ、ユーザインターフェース71にマッチングされる候補となる対象の顔画像が表示される。かかる処理は、後述する特定部134、抽出部135、送信部136によって実行される。 As shown in FIG. 7, in the service according to the embodiment, a process of referring to the preference information set by the user and the already-set target preference information is performed and matched with the user interface 71. A face image of the candidate is displayed. Such processing is executed by the identifying unit 134, the extracting unit 135, and the transmitting unit 136, which will be described later.

また、図7に示したユーザインターフェース70の画面や処理は一例であり、受付部133は、さらに異なる手法によって好み情報を受け付けるようにしてもよい。例えば、ユーザインターフェース70では、図7で示したようにAとBの2種類の顔画像を提示するのではなく、3種類以上の顔画像を提示するようにしてもよい。この場合、受付部133は、1種類のみの顔画像の選択を受け付けるのではなく、複数の顔画像の選択を受け付けてもよい。また、ユーザは、ユーザインターフェース70に好みの顔が表示されていない場合には、選択を保留してもよい。例えば、ユーザは、ユーザインターフェース70において、「この中には好みの顔がない」旨を示す選択を行う。この場合、受付部133は、ユーザインターフェース70において異なる顔画像を表示させ、新たにユーザから好みの顔を受け付けてもよい。すなわち、ユーザは、異なる顔画像を表示させて、再度の選択操作を行ってもよい。このように、受付部133は、様々な手法で各ユーザに好みの顔画像を選択させ、顔画像が選択されることに伴って取得される情報(例えば、各顔画像に対応するベクトル情報)に基づいて、各ユーザに好み情報を設定するようにしてもよい。 Further, the screen and processing of the user interface 70 shown in FIG. 7 are examples, and the reception unit 133 may receive the preference information by a different method. For example, the user interface 70 may present three or more types of face images instead of presenting two types of face images A and B as shown in FIG. 7. In this case, the accepting unit 133 may accept selection of a plurality of face images instead of accepting selection of only one type of face image. Further, the user may suspend the selection when the desired face is not displayed on the user interface 70. For example, the user makes a selection on the user interface 70, which indicates that "there is no favorite face in this". In this case, the reception unit 133 may display different face images on the user interface 70 and newly receive a desired face from the user. That is, the user may display a different face image and perform the selection operation again. In this way, the reception unit 133 allows each user to select a favorite face image by various methods, and information acquired along with the selection of the face image (for example, vector information corresponding to each face image). Based on the above, preference information may be set for each user.

(特定部134について)
特定部134は、対象に関する所定の要求をユーザから受け付けることにより、生成部132によって生成された特徴量空間において、ユーザが所望する所定範囲を特定する。実施形態では、所定の要求とは、例えば、マッチングサービスを利用するための要求(リクエスト)であり、また、マッチングサービスにおいて自分とマッチングする候補となる対象を抽出させる要求である。所定の要求には、ユーザが好む容姿に関する情報、すなわち好み情報が含まれる。
(About the specifying unit 134)
The specifying unit 134 specifies a predetermined range desired by the user in the feature amount space generated by the generating unit 132 by receiving a predetermined request regarding the target from the user. In the embodiment, the predetermined request is, for example, a request (request) for using the matching service, and also a request for extracting a target that is a candidate for matching with the matching service. The predetermined request includes information about the appearance that the user likes, that is, preference information.

特定部134は、対象の各々から所定の要求を受け付けることにより、各々の対象が所望する各々の所定範囲を特定する。すなわち、特定部134は、サービスを利用しようとするユーザのみならず、既にサービスに登録され、特徴量空間にプロットされた対象の好み情報に基づいて、各々の対象が所望する所定範囲を特定する。例えば、図1のように性別ごとに特徴量空間が生成された場合には、特定部134は、一の特徴量空間にプロットされた対象が所望する範囲(好み情報が示す範囲)であって、もう一つの異なる特徴量空間に属する範囲を特定する。すなわち、特定部134は、対象に関する所定の要求をユーザから受け付けることにより、生成部132によって生成された特徴量空間のうち、ユーザとは異なる性別の特徴量空間においてユーザが所望する所定範囲を特定する。 The identifying unit 134 identifies a predetermined range desired by each target by accepting a predetermined request from each target. That is, the specifying unit 134 specifies not only the user who is going to use the service but also the predetermined range desired by each target based on the preference information of the target already registered in the service and plotted in the feature amount space. .. For example, when the feature amount space is generated for each gender as shown in FIG. 1, the specifying unit 134 determines that the target plotted in one feature amount space is the desired range (the range indicated by the preference information). , Specify a range that belongs to another different feature amount space. That is, the identifying unit 134 identifies a predetermined range desired by the user in the feature amount space of the gender different from the user, of the feature amount space generated by the generating unit 132, by receiving a predetermined request regarding the target from the user. To do.

なお、特定部134は、好み情報が示す所定の範囲について、動的に範囲を設定してもよい。例えば、特定部134は、抽出部135によって抽出された対象(候補)に対するユーザの反応を取得された場合には、ユーザの反応に基づいて、ユーザに対応付けられていた所定範囲を更新してもよい。 The specifying unit 134 may dynamically set the range with respect to the predetermined range indicated by the preference information. For example, when the user's reaction to the target (candidate) extracted by the extraction unit 135 is acquired, the identifying unit 134 updates the predetermined range associated with the user based on the user's reaction. Good.

例えば、ユーザの好み情報に基づいて設定した所定範囲(例えば、図6の「ターゲットとする範囲」に対応する範囲)に属する対象であって、抽出部135によって抽出された対象が、ユーザからマッチングを拒否されたとする。この場合、特定部134は、ユーザのターゲットとして設定した範囲を空間上でずらす処理や、狭める処理等を行ってもよい。すなわち、特定部134は、所定の学習処理を経て、所定範囲を設定するようにしてもよい。 For example, a target that belongs to a predetermined range (for example, a range corresponding to the “target range” in FIG. 6) set based on the user preference information and that is extracted by the extraction unit 135 is matched by the user. Is rejected. In this case, the identifying unit 134 may perform a process of shifting the range set as the target of the user in space, a process of narrowing the range, or the like. That is, the specifying unit 134 may set a predetermined range through a predetermined learning process.

(抽出部135について)
抽出部135は、特定部134によって特定された所定範囲に含まれる対象のうち、ユーザに関する所定の条件に適合した対象を抽出する。例えば、抽出部135は、対象が、ユーザを含む所定範囲を所望し、かつ、ユーザが所望する所定範囲に含まれるという条件を満たす場合に、対象を抽出する。
(About the extraction unit 135)
The extraction unit 135 extracts, from the targets included in the predetermined range specified by the specifying unit 134, a target that matches a predetermined condition regarding the user. For example, the extraction unit 135 extracts the target when the target satisfies a condition that the target desires a predetermined range including the user and is included in the predetermined range desired by the user.

例えば、抽出部135は、対象の性別ごとに異なる特徴量空間が生成されている場合、対象が、ユーザがプロットされた特徴量空間においてユーザを含む所定範囲を所望し、かつ、ユーザとは異なる性別の特徴量空間においてユーザが所望する所定範囲に含まれるという条件を満たす場合に、当該対象をマッチングの候補として抽出する。 For example, when a different feature amount space is generated for each gender of the target, the extraction unit 135 desires a predetermined range including the user in the feature amount space in which the user is plotted, and is different from the user. When the condition that the user is included in the predetermined range desired by the gender in the feature amount space is satisfied, the target is extracted as a matching candidate.

抽出部135は、条件に適合した複数の対象を抽出してもよいし、最も条件に適合した一人の対象を抽出するようにしてもよい。 The extraction unit 135 may extract a plurality of objects that meet the conditions, or may extract one object that best meets the conditions.

(送信部136について)
送信部136は、各種情報を送信する。例えば、送信部136は、抽出部135によって抽出された対象に関する情報をユーザ端末10に送信する。例えば、送信部136は、特徴量空間にプロットされた対象のうち、対象の好みを示す情報である好み情報がユーザに適合する対象に関する情報を、所定の要求の送信元であるユーザに送信する。
(About the transmitter 136)
The transmission unit 136 transmits various kinds of information. For example, the transmission unit 136 transmits the information regarding the target extracted by the extraction unit 135 to the user terminal 10. For example, the transmission unit 136 transmits, to the user who is the transmission source of the predetermined request, information regarding the target whose preference information, which is the information indicating the preference of the target, of the targets plotted in the feature space matches the user. ..

具体的には、送信部136は、図7に示したユーザインターフェース71に示したように、候補として抽出された対象の顔画像をユーザ端末10に送信する。 Specifically, as shown in the user interface 71 shown in FIG. 7, the transmission unit 136 transmits the target face image extracted as a candidate to the user terminal 10.

〔4.処理手順〕
次に、図8及び図9を用いて、実施形態に係る抽出装置100による処理の手順について説明する。まず、図8を用いて、特徴量空間の生成に関する処理手順を説明する。図8は、実施形態に係る処理手順を示すフローチャート(1)である。
[4. Processing procedure]
Next, a procedure of processing by the extraction device 100 according to the embodiment will be described with reference to FIGS. 8 and 9. First, a processing procedure regarding generation of the feature amount space will be described with reference to FIG. FIG. 8 is a flowchart (1) showing a processing procedure according to the embodiment.

図8に示すように、抽出装置100は、サービスに登録するユーザから顔画像を取得したか否かを判定する(ステップS101)。顔画像を取得していない場合(ステップS101;No)、抽出装置100は、顔画像を取得するまで待機する。 As shown in FIG. 8, the extraction device 100 determines whether or not a face image has been acquired from a user registered in the service (step S101). When the face image is not acquired (step S101; No), the extraction device 100 waits until the face image is acquired.

一方、顔画像を取得した場合(ステップS101;Yes)、抽出装置100は、顔画像から特徴量情報を抽出する(ステップS102)。そして、抽出装置100は、顔画像から抽出された特徴量情報に基づいて、顔画像に対応する対象をプロットして特徴量空間を生成する(ステップS103)。 On the other hand, when the face image is acquired (step S101; Yes), the extraction device 100 extracts the feature amount information from the face image (step S102). Then, the extraction device 100 plots an object corresponding to the face image based on the feature amount information extracted from the face image to generate a feature amount space (step S103).

さらに、抽出装置100は、特徴量空間にプロットされた対象の好み情報を設定する(ステップS104)。そして、抽出装置100は、生成した特徴量空間に関する情報を記憶部120に格納する(ステップS105)。 Furthermore, the extraction device 100 sets the target preference information plotted in the feature amount space (step S104). Then, the extraction device 100 stores information on the generated feature amount space in the storage unit 120 (step S105).

次に、図9を用いて、特徴量空間を用いた抽出処理に関する処理手順を説明する。図9は、実施形態に係る処理手順を示すフローチャート(2)である。 Next, a processing procedure regarding the extraction processing using the feature amount space will be described with reference to FIG. FIG. 9 is a flowchart (2) showing the processing procedure according to the embodiment.

図9に示すように、抽出装置100は、ユーザからサービスの利用の要求を受け付けたか否かを判定する(ステップS201)。抽出装置100は、サービスの利用の要求を受け付けていない場合(ステップS201;No)、受け付けるまで待機する。 As shown in FIG. 9, the extraction device 100 determines whether or not a request to use the service has been received from the user (step S201). When the extraction device 100 has not received the service use request (step S201; No), the extraction device 100 waits until the request is received.

一方、サービスの利用の要求を受け付けた場合(ステップS201;Yes)、抽出装置100は、当該ユーザから好み情報を受け付ける(ステップS202)。そして、抽出装置100は、特徴量空間においてユーザが所望する範囲(好み情報が示す範囲)を特定する(ステップS203)。 On the other hand, when the request to use the service is received (step S201; Yes), the extraction device 100 receives the preference information from the user (step S202). Then, the extraction device 100 specifies the range desired by the user (the range indicated by the preference information) in the feature amount space (step S203).

さらに、抽出装置100は、特定された範囲に含まれる対象のうち、当該ユーザを好む対象を抽出する(ステップS204)。そして、抽出装置100は、抽出された対象の情報(例えば、対象の顔画像)をユーザに送信する(ステップS205)。 Furthermore, the extraction device 100 extracts a target that prefers the user from the targets included in the specified range (step S204). Then, the extraction device 100 transmits the extracted target information (for example, the target face image) to the user (step S205).

なお、抽出装置100は、この後、ユーザに送信した対象が実際にユーザからペアとして選択されたかといった反応や、ペアが成立したという情報(例えば、ユーザからのペアの申し出を候補となった対象が受け入れたことを示す情報等)や、ユーザの好みと抽出された対象とが適切でなかったといった結果情報等を取得してもよい。また、抽出装置100は、かかる結果を受けて、特定する所定の範囲の設定を変更するなど、所定の学習処理を行ってもよい。 In addition, the extraction device 100 thereafter responds to whether the target transmitted to the user is actually selected by the user as a pair, or information that the pair has been established (for example, the target of the offer of the pair from the user as a candidate. Information indicating that the user has accepted) or result information indicating that the user's preference and the extracted target are not appropriate. In addition, the extraction device 100 may perform a predetermined learning process, such as changing the setting of a predetermined range to be specified, in response to the result.

〔5.変形例〕
上述した抽出装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、抽出装置100の他の実施形態について説明する。
[5. Modification example)
The extraction device 100 described above may be implemented in various different forms other than the above embodiment. Therefore, other embodiments of the extraction apparatus 100 will be described below.

〔5−1.サービスの構成〕
上記実施形態では、抽出装置100がマッチングサービスを提供する例を示した。しかし、マッチングサービスは、抽出装置100によって提供されず、所定のウェブサーバ等によって提供されてもよい。この場合、抽出装置100は、特徴量空間の生成処理や、候補となる対象の抽出処理などを行うバックエンドサーバとしての機能を実行してもよい。
[5-1. Service configuration]
In the above embodiment, the example in which the extraction device 100 provides the matching service has been described. However, the matching service may not be provided by the extraction device 100 but may be provided by a predetermined web server or the like. In this case, the extraction device 100 may execute a function as a back-end server that performs a feature amount space generation process, a candidate target extraction process, and the like.

また、抽出装置100は、実施形態に係る抽出処理を、異性間のマッチングを行うサービスのみならず、他のサービスに利用してもよい。例えば、抽出装置100は、友人を検索するサービス等に実施形態に係る抽出処理を利用してもよい。 Further, the extraction device 100 may use the extraction processing according to the embodiment not only for a service that performs matching between opposite sex, but also for other services. For example, the extraction device 100 may use the extraction process according to the embodiment for a service for searching for friends.

〔5−2.画像の情報〕
上記実施形態では、顔画像に基づいて対象の特徴量を抽出したり、好み情報を設定したりする例を示した。しかし、抽出装置100は、顔に限らず、種々の情報の特徴を抽出するようにしてもよい。例えば、抽出装置100は、顔を含めた全身の画像の特徴量情報に基づいて、上記実施形態で示した抽出処理を実行してもよい。
[5-2. Image information]
In the above embodiment, an example has been shown in which the target feature amount is extracted based on the face image and the preference information is set. However, the extraction device 100 may extract features of various information, not limited to the face. For example, the extraction device 100 may execute the extraction process described in the above embodiment based on the feature amount information of the image of the whole body including the face.

また、抽出装置100は、顔や全身のみならず、例えば、画像内の被写体の服装を含めた容姿の特徴量を抽出するようにしてもよい。すなわち、抽出装置100は、ディープラーニング等を利用して対象の身体的特徴を抽出できるのであれば、顔に限らず、あらゆる情報を利用してもよい。 Further, the extraction device 100 may extract not only the face or the whole body but also the feature amount of the appearance including the clothes of the subject in the image. That is, the extraction device 100 may use any information, not limited to the face, as long as the physical characteristics of the target can be extracted using deep learning or the like.

〔5−3.好み情報〕
抽出装置100は、好み情報を設定する場合、必ずしもサービスに登録された対象の顔画像を提示することを要しない。すなわち、抽出装置100は、ユーザの好みのタイプ(特徴)が取得できれば、あらゆる手法を用いてユーザの好み情報を設定してもよい。
[5-3. Preference information)
The extraction device 100 does not necessarily need to present the target face image registered in the service when setting the preference information. That is, the extraction device 100 may set the user preference information using any method as long as the type (feature) of the user preference can be acquired.

例えば、抽出装置100は、芸能人や有名人など、ネットワークN上をクロールして取得可能な画像を取得する。そして、抽出装置100は、取得した画像から特徴量情報を抽出する。そして、抽出装置100は、サービスを利用するユーザに対して、取得した有名人の画像を提示し、この有名人が好みか否かを尋ねる。そして、抽出装置100は、ユーザからの回答に基づいて、当該ユーザの好み情報を設定してもよい。 For example, the extraction device 100 acquires images that can be acquired by crawling on the network N, such as entertainers and celebrities. Then, the extraction device 100 extracts the feature amount information from the acquired image. Then, the extraction device 100 presents the acquired image of the celebrity to the user who uses the service, and asks whether or not the celebrity likes this. Then, the extraction device 100 may set the preference information of the user based on the answer from the user.

〔5−4.特徴量空間〕
上記実施形態では、抽出装置100は、性別ごとに異なる特徴量空間を生成する例を示した。しかし、抽出装置100は、1つの特徴量空間を生成し、サービスを利用するユーザを1つの特徴量空間にプロットしてもよい。
[5-4. Feature space)
In the above embodiment, the extraction device 100 has shown an example in which a feature amount space that differs for each gender is generated. However, the extraction device 100 may generate one feature amount space and plot the users who use the service in one feature amount space.

この場合、抽出装置100は、例えば、ユーザの好み情報を示すベクトルと、ユーザがターゲットとする範囲に属する対象であって、当該対象の好み情報を示すベクトルとの距離を算出する。抽出装置100は、算出した距離が小さいほど、ユーザは対象の好みに近いと判定することができる。すなわち、抽出装置100は、ベクトル間の距離に基づいて、マッチング候補となる対象を抽出するようにしてもよい。 In this case, the extraction device 100 calculates, for example, a distance between a vector indicating the user's preference information and a vector belonging to the target range of the user and indicating the target preference information. The extraction device 100 can determine that the smaller the calculated distance is, the closer the user is to the preference of the target. That is, the extraction device 100 may extract the target that is a matching candidate based on the distance between the vectors.

〔5−5.条件〕
上記実施形態では、抽出装置100が、ユーザの好み情報と、対象の好み情報との適合に応じて候補となる対象を抽出する例を示した。ここで、抽出装置100は、顔画像における好み情報に加味して、さらに条件を満たした対象のみを抽出するようにしてもよい。すなわち、抽出装置100は、対象に対する条件として設定された性別や年齢や職業や年収等の条件に適合する対象であって、かつ、好み情報に関する条件に適合した対象を抽出するようにしてもよい。
[5-5. conditions〕
In the above embodiment, the example in which the extraction device 100 extracts the candidate targets according to the matching between the user preference information and the target preference information has been described. Here, the extraction device 100 may extract only the objects that further satisfy the conditions by adding the preference information in the face image. That is, the extraction device 100 may extract a target that matches a condition such as sex, age, occupation, or annual income set as a condition for the target and that matches a condition regarding preference information. ..

〔5−6.抽出〕
抽出装置100は、サービスを利用するユーザから好み情報を受け付けずとも、ユーザに対象をレコメンドとして送信する処理を行ってもよい。すなわち、抽出装置100は、ユーザから顔画像のみを受け付け、特徴量空間に当該ユーザをプロットするとする。そして、抽出装置100は、サービスに登録された対象のうち、ユーザからの好み情報による範囲の特定処理をスキップし、全対象の中から、当該ユーザを好みとする対象を抽出する。
[5-6. Extraction]
The extraction device 100 may perform the process of transmitting the target as a recommendation to the user without receiving the preference information from the user who uses the service. That is, the extraction device 100 accepts only the face image from the user and plots the user in the feature amount space. Then, the extraction device 100 skips the process of identifying the range based on the preference information from the user among the targets registered in the service, and extracts the targets that the user likes, from all the targets.

かかる処理によれば、ユーザは、サービスに好み情報を設定せずとも、少なくとも自分の容姿を好むような対象のレコメンドを受けることができる。 According to such a process, the user can receive at least a target recommendation that favors his/her appearance without setting preference information in the service.

〔6.ハードウェア構成〕
上述してきた実施形態に係る抽出装置100やユーザ端末10は、例えば図10に示すような構成のコンピュータ1000によって実現される。以下、抽出装置100を例に挙げて説明する。図10は、抽出装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[6. Hardware configuration]
The extraction device 100 and the user terminal 10 according to the above-described embodiments are realized by, for example, a computer 1000 having a configuration shown in FIG. Hereinafter, the extraction device 100 will be described as an example. FIG. 10 is a hardware configuration diagram illustrating an example of a computer 1000 that realizes the functions of the extraction device 100. The computer 1000 has a CPU 1100, a RAM 1200, a ROM 1300, an HDD 1400, a communication interface (I/F) 1500, an input/output interface (I/F) 1600, and a media interface (I/F) 1700.

CPU1100は、ROM1300又はHDD1400に記憶されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を記憶する。 The CPU 1100 operates based on a program stored in the ROM 1300 or the HDD 1400 to control each unit. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 starts up, a program dependent on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を記憶する。通信インターフェイス1500は、通信網500(図2に示したネットワークNに対応)を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを、通信網500を介して他の機器へ送信する。 The HDD 1400 stores programs executed by the CPU 1100, data used by the programs, and the like. The communication interface 1500 receives data from another device via the communication network 500 (corresponding to the network N shown in FIG. 2) and sends the data to the CPU 1100, and the data generated by the CPU 1100 is transmitted via the communication network 500 to another. Send to device.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、入出力インターフェイス1600を介して生成したデータを出力装置へ出力する。 The CPU 1100 controls output devices such as a display and a printer and input devices such as a keyboard and a mouse via the input/output interface 1600. The CPU 1100 acquires data from the input device via the input/output interface 1600. In addition, the CPU 1100 outputs the data generated via the input/output interface 1600 to the output device.

メディアインターフェイス1700は、記録媒体1800に記憶されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。 The media interface 1700 reads a program or data stored in the recording medium 1800 and provides the program or data to the CPU 1100 via the RAM 1200. The CPU 1100 loads the program from the recording medium 1800 onto the RAM 1200 via the media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) and a PD (Phase change rewritable Disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. Etc.

例えば、コンピュータ1000が実施形態に係る抽出装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが記憶される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から通信網500を介してこれらのプログラムを取得してもよい。 For example, when the computer 1000 functions as the extraction device 100 according to the embodiment, the CPU 1100 of the computer 1000 realizes the function of the control unit 130 by executing the program loaded on the RAM 1200. Further, the HDD 1400 stores the data in the storage unit 120. The CPU 1100 of the computer 1000 reads these programs from the recording medium 1800 and executes them, but as another example, these programs may be acquired from another device via the communication network 500.

〔7.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[7. Other]
Further, of the processes described in the above embodiment, all or part of the processes described as being automatically performed may be manually performed, or the processes described as manually performed may be performed. All or part of the process can be automatically performed by a known method. In addition, the processing procedures, specific names, information including various data and parameters shown in the above-mentioned documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each drawing is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、図3に示した取得部131と、受付部133とは統合されてもよい。また、例えば、記憶部120に記憶される情報は、ネットワークNを介して、外部に備えられた所定の記憶装置に記憶されてもよい。 Further, each component of each device shown in the drawings is functionally conceptual and does not necessarily have to be physically configured as shown. That is, the specific form of distribution/integration of each device is not limited to that shown in the figure, and all or part of the device may be functionally or physically distributed/arranged in arbitrary units according to various loads and usage conditions. It can be integrated and configured. For example, the acquisition unit 131 and the reception unit 133 illustrated in FIG. 3 may be integrated. Further, for example, the information stored in the storage unit 120 may be stored in a predetermined storage device provided outside via the network N.

また、上記実施形態では、抽出装置100が、例えば、画像を取得する取得処理と、特徴量空間を生成する生成処理と、対象を抽出する抽出処理とを行う例を示した。しかし、上述した抽出装置100は、取得処理を行う取得装置と、生成処理を行う生成装置と、抽出処理を行う抽出装置とに分離されてもよい。この場合、取得装置は、少なくとも取得部131を有する。生成装置は、少なくとも生成部132を有する。抽出装置は、少なくとも抽出部135を有する。そして、実施形態に係る抽出装置100による処理は、取得装置と、生成装置と、抽出装置との各装置を有する抽出処理システム1によって実現されてもよい。 Further, in the above-described embodiment, an example in which the extraction device 100 performs, for example, an acquisition process of acquiring an image, a generation process of generating a feature amount space, and an extraction process of extracting a target has been shown. However, the extraction device 100 described above may be separated into an acquisition device that performs an acquisition process, a generation device that performs a generation process, and an extraction device that performs an extraction process. In this case, the acquisition device has at least the acquisition unit 131. The generation device includes at least the generation unit 132. The extraction device has at least an extraction unit 135. The process performed by the extraction device 100 according to the embodiment may be realized by the extraction processing system 1 including each of the acquisition device, the generation device, and the extraction device.

また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Further, the above-described embodiments and modified examples can be appropriately combined within a range in which the processing content is not inconsistent.

〔8.効果〕
上述してきたように、実施形態に係る抽出装置100は、生成部132と、特定部134と、抽出部135とを有する。生成部132は、対象を撮像した画像に含まれる対象の身体的な特徴に基づいて、各々の画像に対応する対象が所定位置にプロットされた空間である特徴量空間を生成する。特定部134は、ユーザから受け付けた対象に関する所定の要求に基づいて、生成部132によって生成された特徴量空間において、ユーザが所望する所定範囲を特定する。抽出部135は、特定部134によって特定された所定範囲に含まれる対象のうち、ユーザに関する所定の条件に適合する対象を抽出する。
[8. effect〕
As described above, the extraction device 100 according to the embodiment has the generation unit 132, the identification unit 134, and the extraction unit 135. The generation unit 132 generates a feature amount space, which is a space in which the target corresponding to each image is plotted at a predetermined position, based on the physical feature of the target included in the captured image of the target. The specifying unit 134 specifies a predetermined range desired by the user in the feature amount space generated by the generating unit 132 based on a predetermined request regarding the target received from the user. The extraction unit 135 extracts, from the targets included in the predetermined range specified by the specifying unit 134, a target that meets a predetermined condition regarding the user.

このように、実施形態に係る抽出装置100は、ユーザが所望する範囲に含まれる対象を単に抽出するのではなく、ユーザに関する所定の条件に適合する対象を抽出する。すなわち、抽出装置100は、ユーザの希望による一方的な方向ではなく、対象からユーザに対して求められる所定の条件に適合した対象を抽出する。これにより、抽出装置100は、互いの要求を満たすユーザと対象とをマッチング候補として抽出することができるため、マッチングの精度を向上させることができる。 As described above, the extraction device 100 according to the embodiment does not simply extract the target included in the range desired by the user, but extracts the target that meets the predetermined condition regarding the user. That is, the extraction device 100 extracts a target that matches not the one-sided direction according to the user's request but the predetermined condition required for the user from the target. Thereby, the extraction device 100 can extract the user and the target satisfying the mutual requirements as the matching candidate, and thus the accuracy of the matching can be improved.

また、特定部134は、対象の各々から所定の要求を受け付けることにより、特徴量空間における、各々の対象が所望する各々の所定範囲を特定する。 Further, the specifying unit 134 specifies a predetermined range desired by each target in the feature amount space by receiving a predetermined request from each target.

このように、実施形態に係る抽出装置100は、対象の各々から受け付けた要求(例えば好み情報)に基づいて、対象の各々がマッチングされる相手として所望する範囲を特定する。これにより、抽出装置100は、特徴量空間上において、ユーザが対象の掲げる条件に適合するか否かを精度よく判定することができる。 In this way, the extraction device 100 according to the embodiment specifies a desired range as a partner with which each of the targets is matched, based on the request (for example, preference information) received from each of the targets. Accordingly, the extraction device 100 can accurately determine whether or not the user meets the target condition in the feature amount space.

また、抽出部135は、対象が、ユーザを含む所定範囲を所望し、かつ、ユーザが所望する所定範囲に含まれるという条件を満たす場合に、対象を抽出する。 Further, the extraction unit 135 extracts the target when the condition satisfies the condition that the target wants a predetermined range including the user and is included in the predetermined range desired by the user.

このように、実施形態に係る抽出装置100は、ユーザが所望する範囲に属する対象であって、かつ、ユーザ(ユーザの容姿)を所望する対象を抽出する。すなわち、抽出装置100は、互いを好みとするユーザ同士を抽出することができるので、ユーザ同士を精度よくマッチングさせることができる。 As described above, the extraction device 100 according to the embodiment extracts a target that belongs to a range desired by the user and that also desires the user (appearance of the user). That is, since the extraction device 100 can extract users who like each other, the users can be matched with each other with high accuracy.

また、生成部132は、対象の性別ごとに異なる特徴量空間を生成する。特定部134は、生成部132によって生成された特徴量空間のうち、ユーザとは異なる性別の特徴量空間においてユーザが所望する所定範囲を特定する。抽出部135は、対象が、ユーザがプロットされた特徴量空間においてユーザを含む所定範囲を所望し、かつ、ユーザとは異なる性別の特徴量空間においてユーザが所望する所定範囲に含まれるという条件を満たす場合に、対象を抽出する。 In addition, the generation unit 132 generates a different feature amount space for each gender of the target. The specifying unit 134 specifies a predetermined range desired by the user in the feature amount space of the gender different from the user, of the feature amount space generated by the generating unit 132. The extraction unit 135 sets a condition that the target is in a predetermined range including the user in the feature amount space in which the user is plotted, and that the target is included in the predetermined range in which the user desires in the feature amount space of a gender different from the user. If it satisfies, the target is extracted.

このように、実施形態に係る抽出装置100は、性別ごとに異なる特徴量空間を生成してもよい。これにより、抽出装置100は、異性間のマッチングサービスにおけるマッチングの成功率を向上させることができる。 In this way, the extraction device 100 according to the embodiment may generate a different feature amount space for each gender. Accordingly, the extraction device 100 can improve the success rate of matching in the matching service between opposite sexes.

また、実施形態に係る抽出装置100は、抽出部135によって抽出された対象に対するユーザの反応を取得する取得部131をさらに備える。特定部134は、取得部131によって取得されたユーザの反応に基づいて、ユーザに対応付けられていた所定範囲を更新する。 In addition, the extraction device 100 according to the embodiment further includes an acquisition unit 131 that acquires a user's reaction to the target extracted by the extraction unit 135. The specifying unit 134 updates the predetermined range associated with the user, based on the reaction of the user acquired by the acquisition unit 131.

このように、実施形態に係る抽出装置100は、抽出された対象(例えば、マッチングサービスにおいて候補として提示された対象)に対するユーザの反応を取得し、取得した情報に基づいて、所定範囲を設定するようにしてもよい。すなわち、抽出装置100は、マッチングされる相手を特定するための所定範囲を学習し、最適化することができる。これにより、抽出装置100は、実際のマッチング傾向を反映した所定範囲の特定を行うことができる。 In this way, the extraction device 100 according to the embodiment acquires the user's reaction to the extracted target (for example, the target presented as a candidate in the matching service), and sets the predetermined range based on the acquired information. You may do it. That is, the extraction device 100 can learn and optimize a predetermined range for identifying a matching partner. Thereby, the extraction device 100 can specify the predetermined range that reflects the actual matching tendency.

また、取得部131は、対象に対するユーザの反応として、対象がユーザから選択された数もしくは率、又は、ユーザと対象とがマッチングに成功した数もしくは率の少なくともいずれか一つを取得する。 In addition, the acquisition unit 131 acquires at least one of the number or rate of the target selected by the user or the number or rate of successful matching between the user and the target, as the response of the user to the target.

このように、実施形態に係る抽出装置100は、ユーザが候補に対してアプローチした数や、実際にペアとして成立した数等に基づいて、所定範囲の特定に関する処理を行ってもよい。これにより、抽出装置100は、実際のマッチング傾向を反映した所定範囲の特定を行うことができる。 In this way, the extraction device 100 according to the embodiment may perform the process related to the identification of the predetermined range based on the number of approaches made by the user to the candidates, the number actually established as a pair, and the like. Thereby, the extraction device 100 can specify the predetermined range that reflects the actual matching tendency.

また、生成部132は、画像における被写体の顔の特徴に基づいて特徴量空間を生成する。特定部134は、顔に関するユーザの好みを示す要求に基づいて、特徴量空間においてユーザが好む顔に対応した対象が含まれる所定範囲を特定する。抽出部135は、特定部134によって特定された所定範囲に含まれる対象を抽出する。 Further, the generation unit 132 generates a feature amount space based on the features of the subject's face in the image. The identifying unit 134 identifies a predetermined range in the feature amount space that includes a target corresponding to the face the user likes, based on a request indicating the user's preference regarding the face. The extraction unit 135 extracts the target included in the predetermined range specified by the specifying unit 134.

このように、実施形態に係る抽出装置100は、画像のうち、特に顔に関する特徴に基づいた処理を行うようにしてもよい。一般に、マッチングサービス等において、顔は、ペアとなる相手を選択する際に重要な要素となりうる。このため、抽出装置100は、顔に関する特徴に基づいて特徴量空間を生成し、かかる特徴量空間に基づいた抽出処理を行うことで、マッチングの成功率を向上させることができる。 In this way, the extraction device 100 according to the embodiment may perform the process based on the feature of the image, particularly the face. Generally, in a matching service or the like, the face can be an important factor when selecting a partner to be a pair. Therefore, the extraction device 100 can improve the success rate of matching by generating the feature amount space based on the features related to the face and performing the extraction process based on the feature amount space.

また、実施形態に係る抽出装置100は、特徴量空間にプロットされた対象のうち、対象の好みを示す情報である好み情報がユーザに適合する対象に関する情報を、所定の要求の送信元であるユーザに送信する送信部136をさらに備える。 Further, the extraction device 100 according to the embodiment is a transmission source of a predetermined request, of the objects plotted in the feature amount space, the information regarding the objects whose preference information, which is information indicating the preference of the objects, matches the user. A transmission unit 136 for transmitting to the user is further provided.

このように、実施形態に係る抽出装置100は、レコメンドとして、ユーザを好む対象に関する情報をユーザに送信するようにしてもよい。これにより、抽出装置100は、ユーザの積極的なアプローチを促したり、互いに好む容姿を有するユーザ同士の出会いを促進させたりすることができるので、マッチング数やマッチングの成功率を向上させることができる。 As described above, the extraction device 100 according to the embodiment may transmit, as a recommendation, information regarding an object that the user likes to the user. As a result, the extraction device 100 can promote a positive approach of the user and promote encounters between users who have the appearances that they like each other, and thus the number of matchings and the success rate of matching can be improved. ..

以上、本願の実施形態を図面に基づいて詳細に説明したが、これは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 The embodiments of the present application have been described in detail above with reference to the drawings. However, this is merely an example, and various modifications and improvements are made based on the knowledge of those skilled in the art, including the modes described in the section of the disclosure of the invention. The present invention can be implemented in other forms described above.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 Further, the "section (module, unit)" described above can be read as "means" or "circuit". For example, the acquisition unit can be read as an acquisition unit or an acquisition circuit.

1 抽出処理システム
10 ユーザ端末
100 抽出装置
110 通信部
120 記憶部
121 顔画像記憶部
122 特徴量空間記憶部
123 ユーザ情報記憶部
130 制御部
131 取得部
132 生成部
133 受付部
134 特定部
135 抽出部
136 送信部
1 Extraction Processing System 10 User Terminal 100 Extraction Device 110 Communication Unit 120 Storage Unit 121 Face Image Storage Unit 122 Feature Space Storage Unit 123 User Information Storage Unit 130 Control Unit 131 Acquisition Unit 132 Generation Unit 133 Reception Unit 134 Identification Unit 135 Extraction Unit 136 transmitter

Claims (10)

対象を撮像した画像に含まれる当該対象の身体的な特徴に基づいて、各々の画像に対応する対象が所定位置にプロットされた空間である特徴量空間を生成する生成部と、
ユーザから受け付けた前記対象に関する所定の要求に基づいて、前記生成部によって生成された特徴量空間において、当該ユーザが所望する所定範囲を特定し、前記対象の各々から、前記ユーザの身体的な特徴に関する所定の要求を受け付けることにより、特徴量空間における各々の対象が所望する各々の所定範囲を特定する特定部と、
前記特定部によって特定された所定範囲に含まれる前記対象のうち、前記ユーザに関する所定の条件に適合する対象を抽出する抽出部と、を備え、
前記生成部は、
前記対象の異なる特徴量空間を生成し、
前記特定部は、
前記生成部によって生成された特徴量空間のうち、前記ユーザとは異なる性別の特徴量空間において当該ユーザが所望する所定範囲を特定し、
前記抽出部は、
前記対象が、当該ユーザがプロットされた特徴量空間において当該ユーザを含む所定範囲を所望し、かつ、前記ユーザとは異なる性別の特徴量空間において当該ユーザが所望する所定範囲に含まれるという条件を満たす場合に、当該対象を抽出する、
ことを特徴とする抽出装置。
A generation unit that generates a feature amount space, which is a space in which the target corresponding to each image is plotted at a predetermined position, based on the physical characteristics of the target included in the image obtained by capturing the target,
Based on a predetermined request regarding the target received from the user, a predetermined range desired by the user is specified in the feature amount space generated by the generation unit, and a physical feature of the user is specified from each of the targets. By receiving a predetermined request regarding the specific amount of each target in the feature amount space ,
An extracting unit that extracts a target that matches a predetermined condition related to the user from the targets included in the predetermined range specified by the specifying unit ;
The generator is
Generate different feature space of the target,
The specific unit is
Of the feature amount space generated by the generation unit, a predetermined range desired by the user is specified in the feature amount space of a gender different from the user,
The extraction unit is
A condition that the target desires a predetermined range including the user in the feature amount space in which the user is plotted, and is included in the predetermined range desired by the user in the feature amount space of a gender different from that of the user, If it satisfies, extract the target,
An extraction device characterized by the above.
前記抽出部は、
前記対象が、前記ユーザを含む所定範囲を所望し、かつ、当該ユーザが所望する所定範囲に含まれるという条件を満たす場合に、当該対象を抽出する、
ことを特徴とする請求項に記載の抽出装置。
The extraction unit is
When the target desires a predetermined range including the user and satisfies the condition that the target is included in the predetermined range desired by the user, the target is extracted.
The extraction device according to claim 1 , wherein:
対象を撮像した画像に含まれる当該対象の身体的な特徴に基づいて、各々の画像に対応する対象が所定位置にプロットされた空間である特徴量空間を生成する生成部と、A generation unit that generates a feature amount space, which is a space in which the target corresponding to each image is plotted at a predetermined position, based on the physical characteristics of the target included in the image obtained by capturing the target,
ユーザから受け付けた前記対象に関する所定の要求に基づいて、前記生成部によって生成された特徴量空間において、当該ユーザが所望する所定範囲を特定する特定部と、A specifying unit that specifies a predetermined range desired by the user in the feature amount space generated by the generating unit based on a predetermined request regarding the target received from the user;
前記特定部によって特定された所定範囲に含まれる前記対象のうち、前記ユーザに関する所定の条件に適合する対象を抽出する抽出部と、An extraction unit that extracts, from the targets included in the predetermined range specified by the specifying unit, a target that matches a predetermined condition regarding the user,
前記抽出部によって抽出された対象に対する前記ユーザの反応を取得する取得部と、を備え、An acquisition unit that acquires the reaction of the user with respect to the target extracted by the extraction unit,
前記特定部は、The specific unit is
前記取得部によって取得された前記ユーザの反応に基づいて、当該ユーザに対応付けられていた前記所定範囲を更新する、Updating the predetermined range associated with the user based on the reaction of the user acquired by the acquisition unit,
ことを特徴とする抽出装置。An extraction device characterized by the above.
前記取得部は、
前記対象に対するユーザの反応として、当該対象がユーザから選択された数もしくは率、又は、当該ユーザと当該対象とがマッチングに成功した数もしくは率の少なくともいずれか一つを取得する、
ことを特徴とする請求項に記載の抽出装置。
The acquisition unit is
As the response of the user to the target, at least one of the number or rate of the target selected from the user, or the number or rate of successful matching between the user and the target is acquired,
The extraction device according to claim 3 , wherein:
前記生成部は、
前記画像における被写体の顔の特徴に基づいて前記特徴量空間を生成し、
前記特定部は、
顔に関する前記ユーザの好みを示す要求に基づいて、前記特徴量空間において当該ユーザが好む顔に対応した対象が含まれる所定範囲を特定し、
前記抽出部は、
前記特定部によって特定された所定範囲に含まれる対象を抽出する、
ことを特徴とする請求項1〜4のいずれか一つに記載の抽出装置。
The generator is
Generating the feature amount space based on the feature of the subject's face in the image,
The specific unit is
Based on a request indicating the user's preference regarding a face, a predetermined range including an object corresponding to the face preferred by the user in the feature amount space is specified,
The extraction unit is
Extracting the objects included in the predetermined range specified by the specifying unit,
The extraction device according to any one of claims 1 to 4 , characterized in that.
前記特徴量空間にプロットされた対象のうち、当該対象の好みを示す情報である好み情報が前記ユーザに適合する対象に関する情報を、前記所定の要求の送信元であるユーザに送信する送信部、
をさらに備えたことを特徴とする請求項1〜5のいずれか一つに記載の抽出装置。
Among the objects plotted in the feature amount space, a transmission unit that transmits information about a target whose preference information that is information indicating the preference of the target matches the user, to the user who is the transmission source of the predetermined request,
Extraction device according to any one of claims 1 to 5 further comprising a.
コンピュータが実行する抽出方法であって、
対象を撮像した画像に含まれる当該対象の身体的な特徴に基づいて、各々の画像に対応する対象が所定位置にプロットされた空間である特徴量空間を生成する生成工程と、
ユーザから受け付けた前記対象に関する所定の要求に基づいて、前記生成工程によって生成された特徴量空間において、当該ユーザが所望する所定範囲を特定し、前記対象の各々から、前記ユーザの身体的な特徴に関する所定の要求を受け付けることにより、特徴量空間における各々の対象が所望する各々の所定範囲を特定する特定工程と、
前記特定工程によって特定された所定範囲に含まれる前記対象のうち、前記ユーザに関する所定の条件に適合する対象を抽出する抽出工程と、を含み、
前記生成工程は、
前記対象の異なる特徴量空間を生成し、
前記特定工程は、
前記生成工程によって生成された特徴量空間のうち、前記ユーザとは異なる性別の特徴量空間において当該ユーザが所望する所定範囲を特定し、
前記抽出工程は、
前記対象が、当該ユーザがプロットされた特徴量空間において当該ユーザを含む所定範囲を所望し、かつ、前記ユーザとは異なる性別の特徴量空間において当該ユーザが所望する所定範囲に含まれるという条件を満たす場合に、当該対象を抽出する、
ことを特徴とする抽出方法。
A computer-implemented extraction method,
A generation step of generating a feature amount space, which is a space in which the target corresponding to each image is plotted at a predetermined position, based on the physical characteristics of the target included in the image obtained by capturing the target,
Based on a predetermined request regarding the target received from the user, a predetermined range desired by the user is specified in the feature amount space generated by the generating step, and the physical feature of the user is specified from each of the targets. A specific step of identifying each predetermined range desired by each target in the feature amount space by receiving a predetermined request regarding
An extraction step of extracting an object that matches a predetermined condition related to the user among the objects included in the predetermined range specified by the specifying step ;
The generation step is
Generate different feature space of the target,
The specific step is
Of the feature amount space generated by the generating step, a predetermined range desired by the user is specified in the feature amount space of a gender different from the user,
The extraction step is
A condition that the target desires a predetermined range including the user in the feature amount space in which the user is plotted, and is included in the predetermined range desired by the user in the feature amount space of a gender different from that of the user, If it satisfies, extract the target,
An extraction method characterized by the above.
コンピュータが実行する抽出方法であって、A computer-implemented extraction method,
対象を撮像した画像に含まれる当該対象の身体的な特徴に基づいて、各々の画像に対応する対象が所定位置にプロットされた空間である特徴量空間を生成する生成工程と、A generation step of generating a feature amount space, which is a space in which the target corresponding to each image is plotted at a predetermined position, based on the physical characteristics of the target included in the image obtained by capturing the target,
ユーザから受け付けた前記対象に関する所定の要求に基づいて、前記生成工程によって生成された特徴量空間において、当該ユーザが所望する所定範囲を特定する特定工程と、A specifying step of specifying a predetermined range desired by the user in the feature amount space generated by the generating step based on a predetermined request regarding the target received from the user;
前記特定工程によって特定された所定範囲に含まれる前記対象のうち、前記ユーザに関する所定の条件に適合する対象を抽出する抽出工程と、An extraction step of extracting, from the objects included in the predetermined range specified by the specifying step, objects that meet predetermined conditions related to the user;
前記抽出工程によって抽出された対象に対する前記ユーザの反応を取得する取得工程と、を含み、An acquisition step of acquiring the reaction of the user with respect to the target extracted by the extraction step,
前記特定工程は、The specific step is
前記取得工程によって取得された前記ユーザの反応に基づいて、当該ユーザに対応付けられていた前記所定範囲を更新する、Updating the predetermined range associated with the user, based on the reaction of the user acquired by the acquisition step,
ことを特徴とする抽出方法。An extraction method characterized by the above.
対象を撮像した画像に含まれる当該対象の身体的な特徴に基づいて、各々の画像に対応する対象が所定位置にプロットされた空間である特徴量空間を生成する生成手順と、
ユーザから受け付けた前記対象に関する所定の要求に基づいて、前記生成手順によって生成された特徴量空間において、当該ユーザが所望する所定範囲を特定し、前記対象の各々から、前記ユーザの身体的な特徴に関する所定の要求を受け付けることにより、特徴量空間における各々の対象が所望する各々の所定範囲を特定する特定手順と、
前記特定手順によって特定された所定範囲に含まれる前記対象のうち、前記ユーザに関する所定の条件に適合する対象を抽出する抽出手順と、をコンピュータに実行させ、
前記生成手順は、
前記対象の異なる特徴量空間を生成し、
前記特定手順は、
前記生成手順によって生成された特徴量空間のうち、前記ユーザとは異なる性別の特徴量空間において当該ユーザが所望する所定範囲を特定し、
前記抽出手順は、
前記対象が、当該ユーザがプロットされた特徴量空間において当該ユーザを含む所定範囲を所望し、かつ、前記ユーザとは異なる性別の特徴量空間において当該ユーザが所望する所定範囲に含まれるという条件を満たす場合に、当該対象を抽出する、
ことを特徴とする抽出プログラム。
A generation procedure for generating a feature amount space, which is a space in which the target corresponding to each image is plotted at a predetermined position, based on the physical characteristics of the target included in the image obtained by capturing the target,
Based on a predetermined request regarding the target received from the user, a predetermined range desired by the user is specified in the feature amount space generated by the generation procedure, and a physical feature of the user is specified from each of the targets. By receiving a predetermined request regarding the specific space for specifying each predetermined range desired by each target in the feature amount space ,
Among the objects included in the predetermined range specified by the specifying procedure, an extraction procedure of extracting an object that matches a predetermined condition regarding the user, and causing the computer to execute the extraction step .
The generation procedure is
Generate different feature space of the target,
The specific procedure is
Of the feature amount space generated by the generation procedure, a predetermined range desired by the user is specified in the feature amount space of a gender different from the user,
The extraction procedure is
A condition that the target desires a predetermined range including the user in the feature amount space in which the user is plotted, and is included in the predetermined range desired by the user in the feature amount space of a gender different from that of the user, If it satisfies, extract the target,
An extraction program characterized by the above.
対象を撮像した画像に含まれる当該対象の身体的な特徴に基づいて、各々の画像に対応する対象が所定位置にプロットされた空間である特徴量空間を生成する生成手順と、A generation procedure for generating a feature amount space, which is a space in which the target corresponding to each image is plotted at a predetermined position, based on the physical characteristics of the target included in the image obtained by capturing the target,
ユーザから受け付けた前記対象に関する所定の要求に基づいて、前記生成手順によって生成された特徴量空間において、当該ユーザが所望する所定範囲を特定する特定手順と、A specifying procedure for specifying a predetermined range desired by the user in the feature amount space generated by the generating procedure based on a predetermined request regarding the target received from the user;
前記特定手順によって特定された所定範囲に含まれる前記対象のうち、前記ユーザに関する所定の条件に適合する対象を抽出する抽出手順と、An extraction procedure of extracting a target that matches a predetermined condition regarding the user from the targets included in the predetermined range specified by the specifying procedure;
前記抽出手順によって抽出された対象に対する前記ユーザの反応を取得する取得手順と、をコンピュータに実行させ、An acquisition procedure for acquiring the reaction of the user with respect to the target extracted by the extraction procedure,
前記特定手順は、The specific procedure is
前記取得手順によって取得された前記ユーザの反応に基づいて、当該ユーザに対応付けられていた前記所定範囲を更新する、Updating the predetermined range associated with the user, based on the reaction of the user acquired by the acquisition procedure,
ことを特徴とする抽出プログラム。An extraction program characterized by the above.
JP2017012052A 2017-01-26 2017-01-26 Extraction device, extraction method, and extraction program Active JP6732668B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017012052A JP6732668B2 (en) 2017-01-26 2017-01-26 Extraction device, extraction method, and extraction program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017012052A JP6732668B2 (en) 2017-01-26 2017-01-26 Extraction device, extraction method, and extraction program

Publications (2)

Publication Number Publication Date
JP2018120461A JP2018120461A (en) 2018-08-02
JP6732668B2 true JP6732668B2 (en) 2020-07-29

Family

ID=63045202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017012052A Active JP6732668B2 (en) 2017-01-26 2017-01-26 Extraction device, extraction method, and extraction program

Country Status (1)

Country Link
JP (1) JP6732668B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101815176B1 (en) 2016-06-03 2018-01-05 주식회사 하이퍼커넥트 Method, device and system of mediating
KR20180133593A (en) 2017-06-07 2018-12-17 주식회사 하이퍼커넥트 Mediating method and device
KR101979650B1 (en) 2018-03-07 2019-05-17 주식회사 하이퍼커넥트 Server and operating method thereof
US10991145B2 (en) * 2018-11-13 2021-04-27 Nec Corporation Pose-variant 3D facial attribute generation
KR102329481B1 (en) 2019-09-09 2021-11-24 주식회사 하이퍼커넥트 Server and method of mediating a plurality of terminals
KR102455966B1 (en) * 2019-12-16 2022-10-18 주식회사 하이퍼커넥트 Mediating Apparatus, Method and Computer Readable Recording Medium Thereof
KR102373764B1 (en) 2020-02-21 2022-03-15 주식회사 하이퍼커넥트 Mobile and operating method thereof
WO2022091301A1 (en) * 2020-10-29 2022-05-05 日本電気株式会社 Search device, search method, and recording medium
JP7090956B1 (en) * 2021-12-28 2022-06-27 株式会社takumi terakado Matching processing server, matching processing method, and matching processing program

Also Published As

Publication number Publication date
JP2018120461A (en) 2018-08-02

Similar Documents

Publication Publication Date Title
JP6732668B2 (en) Extraction device, extraction method, and extraction program
US11030238B2 (en) Determining and utilizing contextual meaning of digital standardized image characters
KR102073351B1 (en) Server and operating method thereof
US9589058B2 (en) Methods and systems for social matching
US10318884B2 (en) Venue link detection for social media messages
US11587143B2 (en) Neural contextual bandit based computational recommendation method and apparatus
US10896355B2 (en) Automatic canonical digital image selection method and apparatus
US20190230171A1 (en) Systems and methods for providing recommendations and explanations
US20170344553A1 (en) Methods and Systems for Making Recommendations based on Relationships
WO2019133862A1 (en) Computer vision for unsuccessful queries and iterative search
US10042548B2 (en) Methods and systems for providing user feedback using an emotion scale
US20180253655A1 (en) Skills clustering with latent representation of words
US20150032535A1 (en) System and method for content based social recommendations and monetization thereof
US10204090B2 (en) Visual recognition using social links
US11397764B2 (en) Machine learning for digital image selection across object variations
US10671615B2 (en) Methods and systems for assigning affinity scores to contacts
US10460174B2 (en) System and methods for analysis of user-associated images to generate non-user generated labels and utilization of the generated labels
US20180285646A1 (en) Social engagement based on image resemblance
US20160110372A1 (en) Method and apparatus for providing location-based social search service
JP7307607B2 (en) Method, computer program and computing device for facilitating media-based content sharing
US10104034B1 (en) Providing invitations based on cross-platform information
CN108306812B (en) Data processing method and server
US20150286280A1 (en) Information processing method and information processing device
WO2022185401A1 (en) Information processing device, information processing method, program and storage medium
JP2015097036A (en) Recommended image presentation apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190325

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200708

R150 Certificate of patent or registration of utility model

Ref document number: 6732668

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350