JP6732668B2 - Extraction device, extraction method, and extraction program - Google Patents
Extraction device, extraction method, and extraction program Download PDFInfo
- Publication number
- JP6732668B2 JP6732668B2 JP2017012052A JP2017012052A JP6732668B2 JP 6732668 B2 JP6732668 B2 JP 6732668B2 JP 2017012052 A JP2017012052 A JP 2017012052A JP 2017012052 A JP2017012052 A JP 2017012052A JP 6732668 B2 JP6732668 B2 JP 6732668B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- target
- feature amount
- extraction
- predetermined range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000605 extraction Methods 0.000 title claims description 233
- 238000000034 method Methods 0.000 claims description 65
- 239000000284 extract Substances 0.000 claims description 41
- 230000005540 biological transmission Effects 0.000 claims description 11
- 230000004044 response Effects 0.000 claims description 4
- 238000012545 processing Methods 0.000 description 35
- 230000008569 process Effects 0.000 description 27
- 238000010586 diagram Methods 0.000 description 16
- 239000013598 vector Substances 0.000 description 16
- 238000004891 communication Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 230000001815 facial effect Effects 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 241001469893 Oxyzygonectes dovii Species 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 235000002673 Dioscorea communis Nutrition 0.000 description 1
- 241000544230 Dioscorea communis Species 0.000 description 1
- 208000035753 Periorbital contusion Diseases 0.000 description 1
- 230000009193 crawling Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000000423 heterosexual effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Description
本発明は、抽出装置、抽出方法及び抽出プログラムに関する。 The present invention relates to an extraction device, an extraction method and an extraction program.
近年、インターネットの飛躍的な普及に伴い、ネットワークを介したサービスが盛んに提供されている。このようなサービスの一例として、ユーザに好みの異性を紹介する、いわゆるマッチングサービスが挙げられる。例えば、このようなサービスでは、サービスから提供される異性のプロフィールや顔画像をユーザが閲覧し、閲覧した中から好みの異性を選択する。 In recent years, along with the dramatic spread of the Internet, services via networks have been actively provided. As an example of such a service, there is a so-called matching service that introduces the opposite sex to the user. For example, in such a service, the user browses the profile and face image of the opposite sex provided by the service, and selects a desired opposite sex from the browsed.
ここで、顔画像に関する技術として、ユーザが好む顔の要素を考慮しながら、全体的にユーザの好みの顔画像に対応する情報を提示する技術が知られている。 Here, as a technique related to a face image, there is known a technique of presenting information corresponding to a face image that the user generally prefers while considering a face element that the user likes.
しかしながら、上記の従来技術では、マッチングの成功率を向上させることができるとは限らない。具体的には、上記の従来技術では、ユーザが好む顔画像が提供されるに過ぎない。すなわち、マッチングサービス等において、好みの容姿であるとしてユーザが相手を認識したとしても、その認識された相手がユーザを好むかどうかは定かでない。また、ユーザが自らの容姿を相手に伝えようとしても、一般に容姿を言語化することは困難であるため、的確に自らの容姿を相手に伝えることは難しい。このため、上記従来技術では、マッチングサービスにおいて両者がお互いを好みとして認識する確率を向上させることができるとは限らない。 However, the above-mentioned conventional technique cannot always improve the success rate of matching. Specifically, in the above-mentioned conventional technique, only the face image that the user likes is provided. That is, in a matching service or the like, even if the user recognizes the other party as having a desired appearance, it is not clear whether the recognized other person likes the user. Further, even if the user tries to convey his/her appearance to the other party, it is generally difficult to verbalize his/her appearance, and thus it is difficult to accurately convey his/her appearance to the other person. For this reason, in the above-mentioned conventional technology, it is not always possible to improve the probability that both parties recognize each other as their preference in the matching service.
本願は、上記に鑑みてなされたものであって、マッチングの成功率を向上させることができる抽出装置、抽出方法及び抽出プログラムを提供することを目的とする。 The present application has been made in view of the above, and an object thereof is to provide an extraction device, an extraction method, and an extraction program capable of improving the success rate of matching.
本願に係る抽出装置は、対象を撮像した画像に含まれる当該対象の身体的な特徴に基づいて、各々の画像に対応する対象が所定位置にプロットされた空間である特徴量空間を生成する生成部と、ユーザから受け付けた前記対象に関する所定の要求に基づいて、前記生成部によって生成された特徴量空間において、当該ユーザが所望する所定範囲を特定する特定部と、前記特定部によって特定された所定範囲に含まれる前記対象のうち、前記ユーザに関する所定の条件に適合する対象を抽出する抽出部と、を備えたことを特徴とする。 The extraction device according to the present application generates a feature amount space, which is a space in which the target corresponding to each image is plotted at a predetermined position, based on the physical feature of the target included in the image obtained by capturing the target. And a specifying unit that specifies a predetermined range desired by the user in the feature amount space generated by the generating unit based on a predetermined request regarding the target received from the user and the specifying unit. An extraction unit that extracts, from the objects included in a predetermined range, an object that meets a predetermined condition related to the user.
実施形態の一態様によれば、マッチングの成功率を向上させることができるという効果を奏する。 According to one aspect of the embodiment, it is possible to improve the success rate of matching.
以下に、本願に係る抽出装置、抽出方法及び抽出プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る抽出装置、抽出方法及び抽出プログラムが限定されるものではない。また、各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, modes (hereinafter, referred to as “embodiments”) for implementing an extraction device, an extraction method, and an extraction program according to the present application will be described in detail with reference to the drawings. Note that the extraction device, the extraction method, and the extraction program according to the present application are not limited by this embodiment. Further, the respective embodiments can be appropriately combined within a range in which the processing content is not inconsistent. Also, in each of the following embodiments, the same parts are designated by the same reference numerals, and duplicated description will be omitted.
〔1.抽出処理の一例〕
まず、図1を用いて、実施形態に係る抽出処理の一例について説明する。図1は、実施形態に係る抽出処理の一例を示す図である。図1では、本願に係る抽出装置100によって、ユーザ間のマッチングを行うためのサービスにおいて、マッチングの成功率を向上させるための抽出処理が行われる例を示す。
[1. Example of extraction processing]
First, an example of the extraction process according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of an extraction process according to the embodiment. FIG. 1 shows an example in which the
実施形態では、ユーザ間のマッチングを行うためのサービスとして、異性間の出会いを提供するような出会い系サービスを例に挙げる。具体的には、実施形態に係るサービスでは、サービスを利用するユーザは、サービスに予め登録されている異性ユーザ(実施形態では、ユーザにマッチングされる対象となるユーザ(例えば、サービスを利用するユーザに対する異性のユーザ)を「対象」と表記する)の顔画像を閲覧し、自身の好みの対象を選択する。例えば、サービスでは、対象が予め設定した条件(マッチングされる相手に求める条件)と、対象を選択したユーザの情報(以下、「ユーザ情報」と表記する)とが適合する場合に、マッチングされる候補として、選択された対象がユーザに紹介される。例えば、ユーザに紹介された対象がユーザからの申し出等を受け入れた場合に、ユーザと対象とがマッチングされたものと判定される。 In the embodiment, as an example of a service for performing matching between users, a dating service that provides an encounter between the opposite sex is given. Specifically, in the service according to the embodiment, a user who uses the service is a user who is registered in advance in the service (in the embodiment, a user who is a target to be matched with the user (for example, a user who uses the service). (A user of the opposite sex) is referred to as a “target”), and a target of his/her preference is selected. For example, in a service, a target is matched when a preset condition (a condition required by a partner to be matched) and information of a user who selects the target (hereinafter referred to as “user information”) are matched. The selected target is introduced to the user as a candidate. For example, when the target introduced to the user receives an offer or the like from the user, it is determined that the user and the target are matched.
一般に、このような出会い系サービスでは、ユーザは、サービスを利用する際に自身のユーザ情報を登録する。例えば、ユーザ情報は、ユーザの性別や年齢や年収や趣味等の属性情報やプロフィールである。また、ユーザは、ユーザ情報とともに、自身の画像(例えば、顔画像)をサービスに登録する。サービスでは、登録されたユーザ情報とともに、当該ユーザの顔画像を掲載し、サービスを利用するユーザに閲覧させる。 Generally, in such a dating service, a user registers his/her user information when using the service. For example, the user information is attribute information such as sex, age, annual income, hobbies, etc. of the user and a profile. Further, the user registers the image of himself (for example, a face image) in the service together with the user information. In the service, the face image of the user is posted together with the registered user information, and the user who uses the service browses.
すなわち、サービスでは、ユーザは、サービスに登録されている異性の顔画像を見ながら自身の好みの対象を探すことができる。しかし、ユーザが自身の好みの対象を選ぶことができたとしても、選んだ対象が適切なマッチング相手であるかは定かではない。具体的には、ユーザが選んだ対象がユーザの容姿を好むか否かが定かでなく、ユーザの一方的な選択となってしまう可能性がある。これは、一般に容姿を言語化することが難しく、性別や年齢等のように明確な情報として登録されるものではないことによる。つまり、「自身が相手にどのような容姿を望むか」といった条件を言語化して登録することが難しく、また、自身の容姿を相手に伝えようとしても的確に内容を伝えることも難しい。このため、サービス側にとって、マッチングされた双方が互いに好みの容姿である、というマッチングを成立させることは行うことは難しい。すなわち、ユーザが自身の好みの対象を探すことができても、その対象が自身の容姿を好むとは限らないため、選択したユーザと選択された対象とが適切なマッチングとなりうるかが定かでない。 That is, in the service, the user can search for his/her favorite target while looking at the heterosexual face image registered in the service. However, even if the user can select his/her favorite target, it is not certain that the selected target is an appropriate matching partner. Specifically, it is not clear whether or not the target selected by the user likes the appearance of the user, and there is a possibility that the user will make a one-sided selection. This is because it is generally difficult to verbalize the appearance and it is not registered as clear information such as gender and age. In other words, it is difficult to verbalize and register conditions such as “what kind of appearance you want the other person to have,” and it is also difficult to convey the content accurately even when trying to convey your own appearance to the other person. For this reason, it is difficult for the service side to establish a match in which the matched two are in their favorite appearances. That is, even if the user can search for his/her favorite target, the target does not always prefer his/her appearance, and it is not clear whether the selected user and the selected target can be appropriately matched.
そこで、図1に示す抽出装置100は、以下に説明する抽出処理を用いることで、サービスを利用するユーザと、当該ユーザが所望する対象とのマッチングの成功率を向上させる。以下、図1を用いて、実施形態に係る抽出処理について流れに沿って説明する。
Therefore, the
図1に示す抽出装置100は、ユーザ同士のマッチングサービスを提供するサーバ装置である。例えば、抽出装置100は、ネットワーク上におけるウェブサーバとして機能し、実施形態に係るサービスを提供する。
The
図1に示すユーザ端末101及び102は、サービスを利用するユーザによって利用される情報処理端末である。図1の例では、ユーザ端末101はユーザU01によって利用され、ユーザ端末102はユーザU02によって利用される。
The
なお、以下では、ユーザ端末101やユーザ端末102等を区別する必要のないときは、単に「ユーザ端末10」と表記する。また、ユーザU01やユーザU02等を区別する必要のないときは、単に「ユーザ」と表記する。また、以下では、ユーザをユーザ端末10と読み替える場合がある。例えば、「ユーザU01が顔画像を送信する」という記載は、実際には、「ユーザU01が利用するユーザ端末101が顔画像を送信する」という状況を示す場合がある。
In the following, when it is not necessary to distinguish the
図1において、まず抽出装置100は、各々のユーザからサービスへの登録を受け付ける。この場合、抽出装置100は、サービスに登録を所望する各ユーザからユーザ情報を受け付ける。また、抽出装置100は、各ユーザから顔画像を受け付ける。
In FIG. 1, the
例えば、サービスを利用しようとするユーザU01は、顔画像を抽出装置100に送信する(ステップS11)。例えば、ユーザU01は、ユーザ端末101に備えられたカメラ機能を利用して自身の顔画像を撮像し、撮像した顔画像を抽出装置100に送信する。なお、抽出装置100は、ユーザU01のみならず、他のユーザ(図1の例では、ユーザU11やユーザU12やユーザU13等)からもサービスへの登録及び顔画像の送信を受け付けているものとする。
For example, the user U01 who wants to use the service transmits the face image to the extraction device 100 (step S11). For example, the user U01 captures its face image by using the camera function provided in the
そして、抽出装置100は、ユーザU01等から取得した顔画像に基づいて特徴量空間を生成する(ステップS12)。具体的には、抽出装置100は、取得した全ての顔画像を対象に、顔画像が似ているほど距離が近くなるように各々のユーザがプロット(配置)される特徴量空間を生成する。
Then, the
例えば、抽出装置100は、取得した顔画像について、画像の特徴量を抽出するための学習を行う。具体的には、抽出装置100は、ディープラーニング(Deep Learning)の手法を用いて、画像に含まれる被写体の顔を特徴付ける要素を抽出する。さらに、抽出装置100は、顔を特徴付ける要素を所定数の次元(例えば100次元など)で構成されるベクトルとして表現する。そして、抽出装置100は、各ユーザの顔画像に対応するベクトルが示す空間上の位置に当該ユーザをプロットした特徴量空間を生成する。このような処理については、種々の既知の手法(例えば、深層学習モデルであるDCGAN(Deep Convolutional Generative Adversarial Networks)等)が利用されてもよい。
For example, the
図1の例では、抽出装置100は、性別ごとに異なる特徴量空間を生成するものとする。例えば、抽出装置100は、サービスに登録した女性ユーザをプロットした空間である特徴量空間V01を生成する。なお、図1では、可視化のため、プロットされた各対象が3次元空間で表現された例(例えば、空間をPCA(Principal Component Analysis、主成分分析)を用いて3次元に圧縮して可視化した例)を示しているが、実際には、特徴量空間V01は3次元で構成されなくてもよい。
In the example of FIG. 1, the
図1に示すように、特徴量空間V01では、各対象が顔画像の特徴量に応じて特徴量空間V01上にプロットされる。例えば、特徴量空間V01には、対象として、ユーザU01や、他の女性ユーザであるユーザU11や、ユーザU12や、ユーザU13がプロットされる。 As shown in FIG. 1, in the feature amount space V01, each target is plotted on the feature amount space V01 according to the feature amount of the face image. For example, in the feature amount space V01, the user U01, the user U11 who is another female user, the user U12, and the user U13 are plotted as targets.
特徴量空間V01では、各対象の顔画像において抽出された特徴量に応じて各対象がプロットされるため、類似する顔のユーザ同士が近傍にプロットされる。例えば、ユーザU01とユーザU11の顔画像の特徴が類似している場合、ユーザU01とユーザU11とは、特徴量空間V01において近傍にプロットされる。仮に、特徴量空間V01上の領域(座標)を所定の閾値で区分けることにより、特徴量空間V01に所定の範囲を形成した場合、ユーザU01とユーザU11とは同じ範囲内である範囲D11に属するものとする。また、ユーザU12の顔画像から抽出された特徴量が、ユーザU01やユーザU11と所定量を超えて隔たりがある場合、ユーザU12の顔とユーザU01及びユーザU11の顔とは類似しない。この場合、ユーザU12は、ユーザU01やユーザU11が属する範囲D11とは異なる範囲である範囲D12に属する。また、ユーザU13の顔画像から抽出された特徴量が、ユーザU01やユーザU11やユーザU12と所定量を超えて隔たりがある場合、ユーザU13の顔と、ユーザU01、ユーザU11及びユーザU12の顔とは類似しない。この場合、ユーザU13は、ユーザU01やユーザU11が属する範囲D11や、ユーザU12の属する範囲D12とは異なる範囲である範囲D13に属する。 In the feature amount space V01, since each target is plotted according to the feature amount extracted in the face image of each target, users having similar faces are plotted in the vicinity. For example, when the features of the face images of the user U01 and the user U11 are similar to each other, the user U01 and the user U11 are plotted in the vicinity in the feature amount space V01. If a predetermined range is formed in the feature amount space V01 by dividing the region (coordinates) on the feature amount space V01 by a predetermined threshold value, the user U01 and the user U11 are in the same range D11. Shall belong. When the feature amount extracted from the face image of the user U12 is separated from the user U01 or the user U11 by a predetermined amount or more, the face of the user U12 is not similar to the face of the user U01 or the user U11. In this case, the user U12 belongs to the range D12 which is a range different from the range D11 to which the user U01 and the user U11 belong. When the feature amount extracted from the face image of the user U13 is separated from the user U01, the user U11, and the user U12 by more than a predetermined amount, the face of the user U13 and the faces of the user U01, the user U11, and the user U12. Is not similar to. In this case, the user U13 belongs to the range D11, which is different from the range D11 to which the user U01 and the user U11 belong, and the range D12 to which the user U12 belongs.
このように、抽出装置100は、顔画像に基づいて生成された特徴量空間V01、及び、特徴量空間V01内における所定範囲に基づいて、サービスに登録した各女性ユーザを「似ているユーザ」として分類することができる。
In this way, the
続いて、抽出装置100は、サービスに登録したユーザU01に対して、ユーザU01が好む容姿を示す情報(以下、「好み情報」と表記する)を設定する(ステップS13)。例えば、抽出装置100は、サービスに登録済みである異性ユーザの顔画像をユーザU01に提示し、提示された顔画像から1つを選択させることで、ユーザU01の好み情報を設定する。この場合、抽出装置100は、選択された顔画像の特徴量(ベクトル)をユーザU01の好み情報として設定する。
Subsequently, the
あるいは、抽出装置100は、所定の処理により、ユーザU01がどのような顔(具体的には、顔の特徴)を好むかを設定してもよい。詳細は後述するが、例えば、抽出装置100は、サービスを利用するユーザU01に対して、異性ユーザの顔画像を2種類提示し、どちらが好みの顔であるかを選択させる。このとき、抽出装置100は、既に特徴量を抽出済みの2種類の顔画像をユーザU01に提示する。そして、抽出装置100は、異性ユーザの顔画像を2種類提示してどちらが好みの顔であるかをユーザU01に選択させる処理を繰り返すことで、ユーザU01の好み情報を生成する。一例として、抽出装置100は、ユーザU01が選択した顔画像の特徴量を示した各ベクトルの平均を算出することにより、ユーザU01の好み情報を生成する。このようにして生成される好み情報は、異性ユーザがプロットされた特徴量空間においてユーザU01の好みを指し示すベクトルといえる。抽出装置100は、生成した好み情報を、ユーザU01に対応付けられる情報の1つとして設定する。同様に、抽出装置100は、サービスに登録したユーザU11や、ユーザU12や、ユーザU13の好み情報も取得し、各ユーザの情報として設定しているものとする。
Alternatively, the
以上の処理により、抽出装置100は、サービスに登録した女性ユーザを対象とする特徴量空間V01を生成する。なお、抽出装置100は、新たに女性ユーザから登録があった場合には、当該女性ユーザを特徴量空間V01に追加する処理を行ってもよい。すなわち、抽出装置100は、適宜、特徴量空間V01に含まれる対象を更新する処理を行ってもよい。
Through the above processing, the
その後、抽出装置100は、サービスを利用しようとする男性ユーザであるユーザU02からアクセスを受け付ける。抽出装置100は、ユーザU02からユーザ情報や顔画像を取得するとともに、ユーザU02の好み情報を受け付ける。すなわち、ユーザU02は、サービスの利用に際して、ユーザU02自身の好み情報を設定する(ステップS14)。
After that, the
例えば、抽出装置100は、ユーザU01について好み情報を設定した際と同様の手法を用いて、ユーザU02の好み情報を設定する。そして、抽出装置100は、特徴量空間V01において、ユーザU02の好み情報に対応した所定範囲を特定する。さらに、抽出装置100は、ユーザU02の好み情報に対応した所定範囲に含まれる対象を特定する。その後、抽出装置100は、特定した対象の中から、ユーザU02の顔を好む対象を抽出する(ステップS15)。
For example, the
上記ステップS15の処理について、具体的に説明する。まず、抽出装置100は、ユーザU02の好み情報を示すベクトルが、特徴量空間V01における範囲D11近傍を示すものである場合に、ユーザU02に紹介する対象として、範囲D11に属するユーザであるユーザU01やユーザU11を特定する。続けて、抽出装置100は、範囲D11に属するユーザU01やユーザU11に設定された好み情報を参照する。
The process of step S15 will be specifically described. First, when the vector indicating the preference information of the user U02 indicates the vicinity of the range D11 in the feature amount space V01, the
そして、抽出装置100は、ユーザU02の好みである対象のうち、ユーザU02の顔が好みである対象を抽出する。例えば、抽出装置100は、範囲D11に属する対象のうち、ユーザU02の属する特徴量空間(図1の例では、男性ユーザを対象とする特徴量空間)において、ユーザU02が属する範囲内に好み情報のベクトルが向かっているユーザを抽出する。すなわち、抽出装置100は、男性ユーザを対象とする特徴量空間において、ユーザU02がプロットされた空間(所定範囲)に対して、好み情報を示すベクトルが向かっている女性ユーザを抽出する。
Then, the
図1の例では、ユーザU02が好む顔の特徴を有している対象の属する所定の範囲が範囲D11であるものとし、また、ユーザU01とユーザU11とが範囲D11に属しているものとする。そして、ユーザU01が好む顔の対象にユーザU02が該当し、ユーザU11が好む顔の対象にユーザU02が該当していないとする。この場合、抽出装置100は、ユーザU02とマッチングさせるユーザとしてユーザU01を抽出する。
In the example of FIG. 1, it is assumed that the predetermined range to which the target having the facial features preferred by the user U02 belongs is the range D11, and that the users U01 and U11 belong to the range D11. .. Then, it is assumed that the user U02 corresponds to the target of the face preferred by the user U01 and the user U02 does not correspond to the target of the face preferred by the user U11. In this case, the
このように、抽出装置100は、対象を撮像した画像(図1の例では、顔画像)に含まれる対象の身体的な特徴を抽出することにより、各々の画像に対応する対象が所定位置にプロットされた空間である特徴量空間V01を生成する。そして、抽出装置100は、対象に関する所定の要求を、サービスを利用するユーザU02から受け付けることにより、生成された特徴量空間V01において、ユーザU02が所望する所定の範囲D11を特定する。さらに、抽出装置100は、特定された範囲D11に含まれる対象のうち、ユーザU02に関する所定の条件(図1の例では、ユーザU02の顔が好みであること)に適合した対象を抽出する。
In this way, the
このように、実施形態に係る抽出装置100は、マッチングサービスにおいて、サービスを利用するユーザU02の所望する容姿を持つ対象であって、さらに、ユーザU02の容姿を好む対象であるユーザU01を抽出する。すなわち、抽出装置100は、顔や容姿などマッチングサービスにとって重要な要素となる情報であるものの、言語化しにくい情報に関して、互いの好みの容姿を有するユーザ同士を精度よくマッチングさせることができる。具体的には、候補として抽出された対象は、一方的にユーザから好みを告げられた対象ではなく、対象自身の好み情報に基づいて抽出された対象となる。これにより、抽出装置100は、互いの容姿を好むユーザ同士を抽出できるので、マッチングの成功率(例えば、提示されたユーザ同士がペアとして成立すること)を向上させることができる。また、上記抽出処理によれば、サービスを利用するユーザU02に対して抽出される候補(すなわち、レコメンドとして表示される対象)は複数となる場合がある。この場合であっても、抽出装置100によって抽出された候補は、少なくともユーザU02の容姿を好む対象である。このため、ユーザU02にとっては、提示された対象に対して気軽にアプローチを行うことができる。この結果、抽出装置100は、例えばユーザ同士が互いに連絡を取り合う確率や、互いを受け入れる可能性を高めることができるので、マッチングの成功率を向上させることができる。以下、このような処理を行う抽出装置100、及び、抽出装置100を含む抽出処理システム1の構成等について、詳細に説明する。
As described above, the
〔2.抽出処理システムの構成〕
次に、図2を用いて、実施形態に係る抽出装置100が含まれる抽出処理システム1の構成について説明する。図2は、実施形態に係る抽出処理システム1の構成例を示す図である。図2に例示するように、実施形態に係る抽出処理システム1には、ユーザ端末10と、抽出装置100とが含まれる。これらの各種装置は、ネットワークNを介して、有線又は無線により通信可能に接続される。なお、図2に示した抽出処理システム1には、複数台のユーザ端末10が含まれてもよい。
[2. Configuration of extraction processing system]
Next, the configuration of the
ユーザ端末10は、例えば、スマートフォンや、デスクトップ型PC(Personal Computer)や、ノート型PCや、タブレット型端末や、携帯電話機、PDA(Personal Digital Assistant)、ウェアラブルデバイス(Wearable Device)等の情報処理装置である。ユーザ端末10は、ユーザによる操作に従って、抽出装置100にアクセスし、抽出装置100から提供されるマッチングサービスを利用する。
The
抽出装置100は、実施形態に係る抽出処理を実行するサーバ装置である。抽出装置100は、例えばウェブサーバであり、インターネット上で提供されるマッチングサービスをユーザに提供する。
The
〔3.抽出装置の構成〕
次に、図3を用いて、実施形態に係る抽出装置100の構成について説明する。図3は、実施形態に係る抽出装置100の構成例を示す図である。図3に示すように、抽出装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、抽出装置100は、抽出装置100を利用する管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[3. Configuration of extraction device]
Next, the configuration of the
(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。かかる通信部110は、ネットワークNと有線又は無線で接続され、ネットワークNを介して、ユーザ端末10や、抽出装置100との間で情報の送受信を行う。
(About communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. The communication unit 110 is connected to the network N by wire or wirelessly, and transmits and receives information to and from the
(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、顔画像記憶部121と、特徴量空間記憶部122と、ユーザ情報記憶部123とを有する。
(About storage unit 120)
The
(顔画像記憶部121について)
顔画像記憶部121は、サービスに登録したユーザから受け付けた顔画像に関する情報を記憶する。ここで、図4に、実施形態に係る顔画像記憶部121の一例を示す。図4は、実施形態に係る顔画像記憶部121の一例を示す図である。図4に示した例では、顔画像記憶部121は、「ユーザID」、「性別」、「顔画像ID」、「特徴量情報」といった項目を有する。
(About face image storage unit 121)
The face
「ユーザID」は、ユーザを識別するための識別情報を示す。なお、実施形態において、識別情報と、説明で用いる参照符号とは共通するものとする。例えば、ユーザIDが「U01」であるユーザは、ユーザU01を示す。「性別」は、ユーザの性別を示す。「顔画像ID」は、顔画像を識別する識別情報を示す。 The “user ID” indicates identification information for identifying the user. In addition, in the embodiment, the identification information and the reference numeral used in the description are common. For example, a user whose user ID is “U01” indicates user U01. “Gender” indicates the gender of the user. “Face image ID” indicates identification information for identifying a face image.
「特徴量情報」は、顔画像から抽出された特徴量に関する情報を示す。なお、図4に示した例では、特徴量情報を「G01」等の概念で示しているが、実際には、特徴量情報は、顔画像から抽出された特徴に対応する要素と、要素を示す値等で表される。例えば、特徴量情報は、要素を次元とし、要素を示す値を各次元の数値とするベクトルとして示される。具体的には、特徴量情報は、目全体の形や、白目の形や色、白目と黒目の割合など、ユーザの顔の特徴となる各要素を次元とし、また、各要素を正規化により数値化したベクトルである。このような特徴量情報の抽出は、上述のように、種々の既知の技術(例えばディープラーニングを利用した画像認識技術)によって実現されてもよい。 The “feature amount information” indicates information about the feature amount extracted from the face image. Note that in the example shown in FIG. 4, the feature amount information is represented by a concept such as “G01”. However, in reality, the feature amount information includes an element corresponding to the feature extracted from the face image and an element. It is represented by the indicated value or the like. For example, the feature amount information is shown as a vector having elements as dimensions and values indicating the elements as numerical values in each dimension. Specifically, the feature amount information is obtained by dimensioning each element that is a feature of the user's face, such as the shape of the entire eye, the shape and color of the white eye, the ratio of the white eye and the black eye, and normalizing each element. It is a digitized vector. Extraction of such feature amount information may be realized by various known techniques (for example, image recognition technique using deep learning) as described above.
すなわち、図4に示したデータの一例は、ユーザID「U01」によって識別されるユーザU01の性別は「女性」であり、顔画像ID「P01」で識別される顔画像が登録されており、また、その顔画像の特徴量情報は「G01」であることを示している。 That is, in the example of the data shown in FIG. 4, the gender of the user U01 identified by the user ID “U01” is “female”, and the face image identified by the face image ID “P01” is registered. Also, it is indicated that the feature amount information of the face image is “G01”.
(特徴量空間記憶部122について)
特徴量空間記憶部122は、抽出装置100によって生成された特徴量空間に関する情報を記憶する。ここで、図5に、実施形態に係る特徴量空間記憶部122の一例を示す。図5は、実施形態に係る特徴量空間記憶部122の一例を示す図である。図5に示した例では、特徴量空間記憶部122は、「特徴量空間ID」、「属性」、「顔画像ID」といった項目を有する。
(Regarding the feature space storage unit 122)
The feature amount
「特徴量空間ID」は、特徴量空間を識別するための識別情報を示す。「属性」は、特徴量空間に属するユーザ(対象)の属性を示す。「顔画像ID」は、特徴量空間に含まれる各顔画像の識別情報を示す。なお、図5での図示は省略しているが、特徴量空間記憶部122には、顔画像IDのみならず、特徴量空間に属するユーザを識別する情報や、各顔画像の特徴量情報が記憶されているものとする。
The “feature amount space ID” indicates identification information for identifying the feature amount space. The “attribute” indicates the attribute of the user (target) who belongs to the feature amount space. The “face image ID” indicates identification information of each face image included in the feature amount space. Although not shown in FIG. 5, not only the face image ID but also the information for identifying the user belonging to the feature amount space and the feature amount information of each face image are stored in the feature amount
すなわち、図5に示したデータの一例は、特徴量空間ID「V01」で識別される特徴量空間V01に属するユーザの属性は「女性」であり、特徴量空間V01には、例えば、顔画像ID「P01」、「P11」、「P12」、「P13」で識別される顔画像に対応付けられた対象が属していることを示している。 That is, in the example of the data illustrated in FIG. 5, the attribute of the user who belongs to the feature amount space V01 identified by the feature amount space ID “V01” is “female”, and the feature amount space V01 includes, for example, a face image. It indicates that the targets associated with the face images identified by the IDs “P01”, “P11”, “P12”, and “P13” belong.
(ユーザ情報記憶部123について)
ユーザ情報記憶部123は、サービスを利用するユーザから受け付けた好み情報等のユーザ情報を記憶する。ここで、図6に、実施形態に係るユーザ情報記憶部123の一例を示す。図6は、実施形態に係るユーザ情報記憶部123の一例を示す図である。図6に示した例では、ユーザ情報記憶部123は、「ユーザID」、「属する範囲」、「好み情報」、「ターゲットとする範囲」、「マッチングユーザ候補」といった項目を有する。
(About the user information storage unit 123)
The user
「ユーザID」は、図4で示した同一の項目に対応する。「属する範囲」は、特徴量空間においてユーザがプロットされた範囲を示す。例えば、範囲とは、特徴量空間における所定の幅を有する空間である。このため、同一の範囲に属するユーザは、似たような特徴を有する顔(容姿)を有する。例えば図1に示したように、特徴量空間V01における範囲D11には、顔画像において似た特徴を有するユーザU01やユーザU11が属することになる。 The “user ID” corresponds to the same item shown in FIG. The “belonging range” indicates a range in which the user is plotted in the feature amount space. For example, the range is a space having a predetermined width in the feature amount space. Therefore, users belonging to the same range have faces (appearances) having similar characteristics. For example, as illustrated in FIG. 1, the range U11 in the feature amount space V01 includes the user U01 and the user U11 having similar features in the face image.
「好み情報」は、ユーザごとに設定された好み情報を示す。なお、図6に示した例では、好み情報を「H01」等の概念で示しているが、実際には好み情報は、特徴量情報と同様、顔画像から抽出された特徴に対応する要素と、要素を示す値等で表される。すなわち、好み情報は、要素を次元とし、要素を示す値を各次元の数値とするベクトルとして示される。なお、好み情報は、一意の数値で定まらず、ある程度の幅を持った数値で示されてもよい。すなわち、好み情報は、ユーザの好みを示す情報であるため、特定の人物を示す情報(一意に定まる情報)でなく、ユーザが好む顔の特徴が認識可能な程度の幅(範囲)を持ったベクトルであってもよい。 “Preference information” indicates preference information set for each user. Note that in the example shown in FIG. 6, the preference information is represented by a concept such as “H01”, but in reality, like the feature amount information, the preference information is an element corresponding to the feature extracted from the face image. , A value indicating an element or the like. That is, the preference information is represented as a vector having elements as dimensions and values indicating the elements as numerical values in each dimension. The preference information is not limited to a unique numerical value, and may be a numerical value having a certain width. That is, since the preference information is the information indicating the preference of the user, the preference information is not information indicating a specific person (information that is uniquely determined), but has a width (range) in which the facial features that the user likes can be recognized. It may be a vector.
「ターゲットとする範囲」は、好み情報に対応した範囲であって、異性の特徴量空間における範囲を示す。なお、抽出装置100は、「ターゲットとする範囲」や「属する範囲」の項目について、一定の閾値を定めて設定する必要はなく、処理に応じて範囲が定まるよう、各範囲を定める閾値を動的に変更してもよい。また、抽出装置100は、好み情報が一意に定まる場合には、例えば、好み情報が指し示す特徴量空間上の一点から所定の領域までを「ターゲットとする範囲」に設定するなど、柔軟に範囲を定めてもよい。
The “target range” is a range corresponding to the preference information and indicates a range in the feature amount space of the opposite sex. Note that the
「マッチングユーザ候補」は、ユーザにマッチングされる対象として抽出された候補であるユーザを示す。図6の例では、マッチングユーザ候補は、ユーザIDと共通した参照符号により示される。例えば、抽出装置100は、ユーザがターゲットとする範囲に属する対象であって、当該対象がターゲットとする範囲に当該ユーザが含まれている、という条件を満たす場合に、マッチングユーザ候補として当該対象を抽出する。言い換えれば、マッチングユーザ候補は、サービスにおいてユーザが好み情報を設定した際に、当該ユーザにレコメンドされる対象となるユーザである。
“Matching user candidate” indicates a user who is a candidate extracted as a target to be matched with the user. In the example of FIG. 6, the matching user candidate is indicated by the reference numeral common to the user ID. For example, when the
すなわち、図6に示したデータの一例は、ユーザID「U01」で識別されるユーザU01が特徴量空間において属する範囲は「D11」であり、好み情報は「H01」であり、その好み情報に基づいて定まる範囲(ターゲットとする範囲)は、「E12」であり、ユーザU01に対応するマッチングユーザ候補は、「U21」等であることを示している。 That is, in the example of the data illustrated in FIG. 6, the range to which the user U01 identified by the user ID “U01” belongs in the feature amount space is “D11”, the preference information is “H01”, and the preference information is The range (target range) determined based on this is “E12”, and the matching user candidate corresponding to the user U01 is “U21” or the like.
(制御部130について)
制御部130は、例えば、コントローラ(controller)であり、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、抽出装置100内部の記憶装置に記憶されている各種プログラム(抽出プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、コントローラであり、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Regarding the control unit 130)
The
図3に示すように、制御部130は、取得部131と、生成部132と、受付部133と、特定部134と、抽出部135と、送信部136とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図3に示した接続関係に限られず、他の接続関係であってもよい。
As illustrated in FIG. 3, the
(取得部131について)
取得部131は、各種情報を取得する。例えば、取得部131は、サービスを利用するユーザのユーザ情報を取得する。取得部131は、ユーザ情報として、ユーザの属性情報を取得する。具体的には、取得部131は、ユーザの性別や年齢、職業、年収、居住地等の属性情報を取得する。
(About the acquisition unit 131)
The acquisition unit 131 acquires various kinds of information. For example, the acquisition unit 131 acquires user information of a user who uses the service. The acquisition unit 131 acquires user attribute information as user information. Specifically, the acquisition unit 131 acquires attribute information such as gender, age, occupation, annual income, place of residence of the user.
また、取得部131は、ユーザの画像を取得する。例えば、取得部131は、ユーザの顔を被写体とした顔画像を取得する。また、取得部131は、ユーザの好み情報を取得する。なお、取得部131は、後述する受付部133によってユーザから受け付けられた情報に基づいて作成される好み情報を取得するようにしてもよい。
The acquisition unit 131 also acquires the image of the user. For example, the acquisition unit 131 acquires a face image with the user's face as a subject. The acquisition unit 131 also acquires user preference information. The acquisition unit 131 may acquire the preference information created based on the information received from the user by the
取得部131は、取得した各情報を記憶部120内に格納する。また、取得部131は、記憶部120内に格納された情報を適宜取得してもよい。
The acquisition unit 131 stores each acquired information in the
なお、取得部131は、サービスへの反応に関する情報を取得してもよい。例えば、取得部131は、サービスにおいて抽出された候補に対するユーザの反応を取得してもよい。取得部131は、ユーザの反応として、対象がユーザから選択された(クリックやタッチされた)数もしくは率、又は、ユーザと対象とがマッチングに成功した数もしくは率の少なくともいずれか一つを取得する。すなわち、候補に対するユーザの反応とは、候補として提示された対象に対してユーザが示した反応であり、例えば、候補として提示された対象がクリックされることによりユーザから候補に対してアプローチが行われたことや、対象がユーザのアプローチを受け入れ、両者がペアとして成立したことである。あるいは、取得部131は、ユーザに提示した候補が、ユーザの好みでないとする反応をユーザから取得してもよい。例えば、取得部131は、サービスにおいて、「このユーザはあなたの好みですか?」といったメッセージを提示し、そのメッセージに対する回答をユーザの反応として取得してもよい。 The acquisition unit 131 may acquire information regarding the reaction to the service. For example, the acquisition unit 131 may acquire the user reaction to the candidates extracted in the service. The acquisition unit 131 acquires at least one of the number or rate at which the target is selected (clicked or touched) from the user, or the number or rate at which the user and the target have been successfully matched, as the reaction of the user. To do. That is, the reaction of the user to the candidate is the reaction shown by the user to the target presented as the candidate. For example, when the target presented as the candidate is clicked, the user approaches the candidate. That is, the subject accepted the user's approach, and the two were established as a pair. Alternatively, the acquisition unit 131 may acquire a reaction from the user that the candidate presented to the user is not the user's preference. For example, the acquisition unit 131 may present a message such as "Is this user your favorite?" in the service, and acquire an answer to the message as the user's reaction.
(生成部132について)
生成部132は、対象を撮像した画像に含まれる対象の身体的な特徴を抽出することにより、各々の画像に対応する対象が所定位置にプロットされた空間である特徴量空間を生成する。
(Regarding the generation unit 132)
The
なお、実施形態では、対象とは、抽出装置100が提供するサービスに登録するユーザが対応する。また、実施形態では、身体的な特徴とは、ユーザの顔画像から抽出される特徴量情報が対応する。すなわち、生成部132は、対象の顔画像から特徴量情報を抽出し、抽出した情報に基づいて、当該対象をプロットした特徴量空間を生成する。
In the embodiment, the target corresponds to the user who registers in the service provided by the
生成部132は、例えば、既知の画像認識技術を用いて、顔画像から顔の特徴量情報を抽出する。また、生成部132は、例えばDCGAN等を利用して特徴量空間を生成する。
The
また、生成部132は、対象の属性情報ごとに異なる特徴量空間を生成してもよい。例えば、生成部132は、図1で示したように、対象の性別ごとに異なる特徴量空間を生成してもよい。生成部132は、生成した特徴量空間に関する情報を特徴量空間記憶部122に格納する。
Further, the
(受付部133について)
受付部133は、各種情報を受け付ける。例えば、受付部133は、ユーザからサービス利用の要求を受け付ける。この場合、受付部133は、所定のユーザインターフェース画面(例えば、マッチングサービスに対応するアプリ)を提供し、サービスへの登録をユーザに促す。そして、受付部133は、ユーザから登録される情報を受け付ける。
(Regarding the reception unit 133)
The
受付部133は、サービスへの登録にあたり、マッチングされる対象に望む条件をユーザから受け付ける。例えば、受付部133は、対象の性別や年齢、職業、年収等の条件を受け付ける。
When registering for the service, the
また、受付部133は、ユーザが所望する条件の1つとして、対象の容姿に関する好み情報を受け付ける。例えば、受付部133は、既に特徴量情報が抽出されている顔画像をユーザに提示し、ユーザがその顔を好むか否かを尋ねるためのユーザインターフェースをユーザ端末10に提供する。そして、受付部133は、ユーザの返答に応じて、当該ユーザの好み情報を受け付ける。
The
この点について、図7を用いて説明する。図7は、実施形態に係る受付処理の一例を説明するための図である。図7では、受付部133から提供されたユーザインターフェース70(例えば、アプリ画面)をユーザ端末10が表示する状況を示している。
This point will be described with reference to FIG. 7. FIG. 7 is a diagram for explaining an example of the reception process according to the embodiment. FIG. 7 illustrates a situation in which the
図7に示すように、受付部133は、AとBで示された顔画像を選択させるユーザインターフェース70をユーザ端末10に表示させる。例えば、ユーザは、指F10で画面をタッチすることで、AとBのどちらの顔が好みかを選択する。
As illustrated in FIG. 7, the accepting
このとき、受付部133は、ユーザから選択を受け付けた顔画像に基づいて、ユーザが好む顔の特徴量を受け付ける(ステップS21)。ユーザから選択を受け付けた後、受付部133は、さらに異なる2つの顔をユーザインターフェース70に表示させる。そして、受付部133は、再びユーザからの選択を受け付ける。受付部133は、この選択を所定数繰り返す。
At this time, the
そして、受付部133は、選択された顔画像(すなわち、ユーザが好む顔)の特徴量を総合して、当該ユーザの好み情報として設定する(ステップS22)。例えば、受付部133は、ユーザから選択された各顔画像の特徴量情報を平均した情報を、当該ユーザの好み情報として受け付ける。
Then, the
なお、図7に示すように、実施形態に係るサービスでは、ユーザに設定された好み情報と、既に設定されていた対象の好み情報とを参照する処理が行われ、ユーザインターフェース71にマッチングされる候補となる対象の顔画像が表示される。かかる処理は、後述する特定部134、抽出部135、送信部136によって実行される。
As shown in FIG. 7, in the service according to the embodiment, a process of referring to the preference information set by the user and the already-set target preference information is performed and matched with the
また、図7に示したユーザインターフェース70の画面や処理は一例であり、受付部133は、さらに異なる手法によって好み情報を受け付けるようにしてもよい。例えば、ユーザインターフェース70では、図7で示したようにAとBの2種類の顔画像を提示するのではなく、3種類以上の顔画像を提示するようにしてもよい。この場合、受付部133は、1種類のみの顔画像の選択を受け付けるのではなく、複数の顔画像の選択を受け付けてもよい。また、ユーザは、ユーザインターフェース70に好みの顔が表示されていない場合には、選択を保留してもよい。例えば、ユーザは、ユーザインターフェース70において、「この中には好みの顔がない」旨を示す選択を行う。この場合、受付部133は、ユーザインターフェース70において異なる顔画像を表示させ、新たにユーザから好みの顔を受け付けてもよい。すなわち、ユーザは、異なる顔画像を表示させて、再度の選択操作を行ってもよい。このように、受付部133は、様々な手法で各ユーザに好みの顔画像を選択させ、顔画像が選択されることに伴って取得される情報(例えば、各顔画像に対応するベクトル情報)に基づいて、各ユーザに好み情報を設定するようにしてもよい。
Further, the screen and processing of the
(特定部134について)
特定部134は、対象に関する所定の要求をユーザから受け付けることにより、生成部132によって生成された特徴量空間において、ユーザが所望する所定範囲を特定する。実施形態では、所定の要求とは、例えば、マッチングサービスを利用するための要求(リクエスト)であり、また、マッチングサービスにおいて自分とマッチングする候補となる対象を抽出させる要求である。所定の要求には、ユーザが好む容姿に関する情報、すなわち好み情報が含まれる。
(About the specifying unit 134)
The specifying unit 134 specifies a predetermined range desired by the user in the feature amount space generated by the generating
特定部134は、対象の各々から所定の要求を受け付けることにより、各々の対象が所望する各々の所定範囲を特定する。すなわち、特定部134は、サービスを利用しようとするユーザのみならず、既にサービスに登録され、特徴量空間にプロットされた対象の好み情報に基づいて、各々の対象が所望する所定範囲を特定する。例えば、図1のように性別ごとに特徴量空間が生成された場合には、特定部134は、一の特徴量空間にプロットされた対象が所望する範囲(好み情報が示す範囲)であって、もう一つの異なる特徴量空間に属する範囲を特定する。すなわち、特定部134は、対象に関する所定の要求をユーザから受け付けることにより、生成部132によって生成された特徴量空間のうち、ユーザとは異なる性別の特徴量空間においてユーザが所望する所定範囲を特定する。
The identifying unit 134 identifies a predetermined range desired by each target by accepting a predetermined request from each target. That is, the specifying unit 134 specifies not only the user who is going to use the service but also the predetermined range desired by each target based on the preference information of the target already registered in the service and plotted in the feature amount space. .. For example, when the feature amount space is generated for each gender as shown in FIG. 1, the specifying unit 134 determines that the target plotted in one feature amount space is the desired range (the range indicated by the preference information). , Specify a range that belongs to another different feature amount space. That is, the identifying unit 134 identifies a predetermined range desired by the user in the feature amount space of the gender different from the user, of the feature amount space generated by the generating
なお、特定部134は、好み情報が示す所定の範囲について、動的に範囲を設定してもよい。例えば、特定部134は、抽出部135によって抽出された対象(候補)に対するユーザの反応を取得された場合には、ユーザの反応に基づいて、ユーザに対応付けられていた所定範囲を更新してもよい。
The specifying unit 134 may dynamically set the range with respect to the predetermined range indicated by the preference information. For example, when the user's reaction to the target (candidate) extracted by the
例えば、ユーザの好み情報に基づいて設定した所定範囲(例えば、図6の「ターゲットとする範囲」に対応する範囲)に属する対象であって、抽出部135によって抽出された対象が、ユーザからマッチングを拒否されたとする。この場合、特定部134は、ユーザのターゲットとして設定した範囲を空間上でずらす処理や、狭める処理等を行ってもよい。すなわち、特定部134は、所定の学習処理を経て、所定範囲を設定するようにしてもよい。
For example, a target that belongs to a predetermined range (for example, a range corresponding to the “target range” in FIG. 6) set based on the user preference information and that is extracted by the
(抽出部135について)
抽出部135は、特定部134によって特定された所定範囲に含まれる対象のうち、ユーザに関する所定の条件に適合した対象を抽出する。例えば、抽出部135は、対象が、ユーザを含む所定範囲を所望し、かつ、ユーザが所望する所定範囲に含まれるという条件を満たす場合に、対象を抽出する。
(About the extraction unit 135)
The
例えば、抽出部135は、対象の性別ごとに異なる特徴量空間が生成されている場合、対象が、ユーザがプロットされた特徴量空間においてユーザを含む所定範囲を所望し、かつ、ユーザとは異なる性別の特徴量空間においてユーザが所望する所定範囲に含まれるという条件を満たす場合に、当該対象をマッチングの候補として抽出する。
For example, when a different feature amount space is generated for each gender of the target, the
抽出部135は、条件に適合した複数の対象を抽出してもよいし、最も条件に適合した一人の対象を抽出するようにしてもよい。
The
(送信部136について)
送信部136は、各種情報を送信する。例えば、送信部136は、抽出部135によって抽出された対象に関する情報をユーザ端末10に送信する。例えば、送信部136は、特徴量空間にプロットされた対象のうち、対象の好みを示す情報である好み情報がユーザに適合する対象に関する情報を、所定の要求の送信元であるユーザに送信する。
(About the transmitter 136)
The transmission unit 136 transmits various kinds of information. For example, the transmission unit 136 transmits the information regarding the target extracted by the
具体的には、送信部136は、図7に示したユーザインターフェース71に示したように、候補として抽出された対象の顔画像をユーザ端末10に送信する。
Specifically, as shown in the
〔4.処理手順〕
次に、図8及び図9を用いて、実施形態に係る抽出装置100による処理の手順について説明する。まず、図8を用いて、特徴量空間の生成に関する処理手順を説明する。図8は、実施形態に係る処理手順を示すフローチャート(1)である。
[4. Processing procedure]
Next, a procedure of processing by the
図8に示すように、抽出装置100は、サービスに登録するユーザから顔画像を取得したか否かを判定する(ステップS101)。顔画像を取得していない場合(ステップS101;No)、抽出装置100は、顔画像を取得するまで待機する。
As shown in FIG. 8, the
一方、顔画像を取得した場合(ステップS101;Yes)、抽出装置100は、顔画像から特徴量情報を抽出する(ステップS102)。そして、抽出装置100は、顔画像から抽出された特徴量情報に基づいて、顔画像に対応する対象をプロットして特徴量空間を生成する(ステップS103)。
On the other hand, when the face image is acquired (step S101; Yes), the
さらに、抽出装置100は、特徴量空間にプロットされた対象の好み情報を設定する(ステップS104)。そして、抽出装置100は、生成した特徴量空間に関する情報を記憶部120に格納する(ステップS105)。
Furthermore, the
次に、図9を用いて、特徴量空間を用いた抽出処理に関する処理手順を説明する。図9は、実施形態に係る処理手順を示すフローチャート(2)である。 Next, a processing procedure regarding the extraction processing using the feature amount space will be described with reference to FIG. FIG. 9 is a flowchart (2) showing the processing procedure according to the embodiment.
図9に示すように、抽出装置100は、ユーザからサービスの利用の要求を受け付けたか否かを判定する(ステップS201)。抽出装置100は、サービスの利用の要求を受け付けていない場合(ステップS201;No)、受け付けるまで待機する。
As shown in FIG. 9, the
一方、サービスの利用の要求を受け付けた場合(ステップS201;Yes)、抽出装置100は、当該ユーザから好み情報を受け付ける(ステップS202)。そして、抽出装置100は、特徴量空間においてユーザが所望する範囲(好み情報が示す範囲)を特定する(ステップS203)。
On the other hand, when the request to use the service is received (step S201; Yes), the
さらに、抽出装置100は、特定された範囲に含まれる対象のうち、当該ユーザを好む対象を抽出する(ステップS204)。そして、抽出装置100は、抽出された対象の情報(例えば、対象の顔画像)をユーザに送信する(ステップS205)。
Furthermore, the
なお、抽出装置100は、この後、ユーザに送信した対象が実際にユーザからペアとして選択されたかといった反応や、ペアが成立したという情報(例えば、ユーザからのペアの申し出を候補となった対象が受け入れたことを示す情報等)や、ユーザの好みと抽出された対象とが適切でなかったといった結果情報等を取得してもよい。また、抽出装置100は、かかる結果を受けて、特定する所定の範囲の設定を変更するなど、所定の学習処理を行ってもよい。
In addition, the
〔5.変形例〕
上述した抽出装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、抽出装置100の他の実施形態について説明する。
[5. Modification example)
The
〔5−1.サービスの構成〕
上記実施形態では、抽出装置100がマッチングサービスを提供する例を示した。しかし、マッチングサービスは、抽出装置100によって提供されず、所定のウェブサーバ等によって提供されてもよい。この場合、抽出装置100は、特徴量空間の生成処理や、候補となる対象の抽出処理などを行うバックエンドサーバとしての機能を実行してもよい。
[5-1. Service configuration]
In the above embodiment, the example in which the
また、抽出装置100は、実施形態に係る抽出処理を、異性間のマッチングを行うサービスのみならず、他のサービスに利用してもよい。例えば、抽出装置100は、友人を検索するサービス等に実施形態に係る抽出処理を利用してもよい。
Further, the
〔5−2.画像の情報〕
上記実施形態では、顔画像に基づいて対象の特徴量を抽出したり、好み情報を設定したりする例を示した。しかし、抽出装置100は、顔に限らず、種々の情報の特徴を抽出するようにしてもよい。例えば、抽出装置100は、顔を含めた全身の画像の特徴量情報に基づいて、上記実施形態で示した抽出処理を実行してもよい。
[5-2. Image information]
In the above embodiment, an example has been shown in which the target feature amount is extracted based on the face image and the preference information is set. However, the
また、抽出装置100は、顔や全身のみならず、例えば、画像内の被写体の服装を含めた容姿の特徴量を抽出するようにしてもよい。すなわち、抽出装置100は、ディープラーニング等を利用して対象の身体的特徴を抽出できるのであれば、顔に限らず、あらゆる情報を利用してもよい。
Further, the
〔5−3.好み情報〕
抽出装置100は、好み情報を設定する場合、必ずしもサービスに登録された対象の顔画像を提示することを要しない。すなわち、抽出装置100は、ユーザの好みのタイプ(特徴)が取得できれば、あらゆる手法を用いてユーザの好み情報を設定してもよい。
[5-3. Preference information)
The
例えば、抽出装置100は、芸能人や有名人など、ネットワークN上をクロールして取得可能な画像を取得する。そして、抽出装置100は、取得した画像から特徴量情報を抽出する。そして、抽出装置100は、サービスを利用するユーザに対して、取得した有名人の画像を提示し、この有名人が好みか否かを尋ねる。そして、抽出装置100は、ユーザからの回答に基づいて、当該ユーザの好み情報を設定してもよい。
For example, the
〔5−4.特徴量空間〕
上記実施形態では、抽出装置100は、性別ごとに異なる特徴量空間を生成する例を示した。しかし、抽出装置100は、1つの特徴量空間を生成し、サービスを利用するユーザを1つの特徴量空間にプロットしてもよい。
[5-4. Feature space)
In the above embodiment, the
この場合、抽出装置100は、例えば、ユーザの好み情報を示すベクトルと、ユーザがターゲットとする範囲に属する対象であって、当該対象の好み情報を示すベクトルとの距離を算出する。抽出装置100は、算出した距離が小さいほど、ユーザは対象の好みに近いと判定することができる。すなわち、抽出装置100は、ベクトル間の距離に基づいて、マッチング候補となる対象を抽出するようにしてもよい。
In this case, the
〔5−5.条件〕
上記実施形態では、抽出装置100が、ユーザの好み情報と、対象の好み情報との適合に応じて候補となる対象を抽出する例を示した。ここで、抽出装置100は、顔画像における好み情報に加味して、さらに条件を満たした対象のみを抽出するようにしてもよい。すなわち、抽出装置100は、対象に対する条件として設定された性別や年齢や職業や年収等の条件に適合する対象であって、かつ、好み情報に関する条件に適合した対象を抽出するようにしてもよい。
[5-5. conditions〕
In the above embodiment, the example in which the
〔5−6.抽出〕
抽出装置100は、サービスを利用するユーザから好み情報を受け付けずとも、ユーザに対象をレコメンドとして送信する処理を行ってもよい。すなわち、抽出装置100は、ユーザから顔画像のみを受け付け、特徴量空間に当該ユーザをプロットするとする。そして、抽出装置100は、サービスに登録された対象のうち、ユーザからの好み情報による範囲の特定処理をスキップし、全対象の中から、当該ユーザを好みとする対象を抽出する。
[5-6. Extraction]
The
かかる処理によれば、ユーザは、サービスに好み情報を設定せずとも、少なくとも自分の容姿を好むような対象のレコメンドを受けることができる。 According to such a process, the user can receive at least a target recommendation that favors his/her appearance without setting preference information in the service.
〔6.ハードウェア構成〕
上述してきた実施形態に係る抽出装置100やユーザ端末10は、例えば図10に示すような構成のコンピュータ1000によって実現される。以下、抽出装置100を例に挙げて説明する。図10は、抽出装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[6. Hardware configuration]
The
CPU1100は、ROM1300又はHDD1400に記憶されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を記憶する。
The
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を記憶する。通信インターフェイス1500は、通信網500(図2に示したネットワークNに対応)を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを、通信網500を介して他の機器へ送信する。
The HDD 1400 stores programs executed by the
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、入出力インターフェイス1600を介して生成したデータを出力装置へ出力する。
The
メディアインターフェイス1700は、記録媒体1800に記憶されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
The
例えば、コンピュータ1000が実施形態に係る抽出装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが記憶される。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置から通信網500を介してこれらのプログラムを取得してもよい。
For example, when the
〔7.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[7. Other]
Further, of the processes described in the above embodiment, all or part of the processes described as being automatically performed may be manually performed, or the processes described as manually performed may be performed. All or part of the process can be automatically performed by a known method. In addition, the processing procedures, specific names, information including various data and parameters shown in the above-mentioned documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each drawing is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、図3に示した取得部131と、受付部133とは統合されてもよい。また、例えば、記憶部120に記憶される情報は、ネットワークNを介して、外部に備えられた所定の記憶装置に記憶されてもよい。
Further, each component of each device shown in the drawings is functionally conceptual and does not necessarily have to be physically configured as shown. That is, the specific form of distribution/integration of each device is not limited to that shown in the figure, and all or part of the device may be functionally or physically distributed/arranged in arbitrary units according to various loads and usage conditions. It can be integrated and configured. For example, the acquisition unit 131 and the
また、上記実施形態では、抽出装置100が、例えば、画像を取得する取得処理と、特徴量空間を生成する生成処理と、対象を抽出する抽出処理とを行う例を示した。しかし、上述した抽出装置100は、取得処理を行う取得装置と、生成処理を行う生成装置と、抽出処理を行う抽出装置とに分離されてもよい。この場合、取得装置は、少なくとも取得部131を有する。生成装置は、少なくとも生成部132を有する。抽出装置は、少なくとも抽出部135を有する。そして、実施形態に係る抽出装置100による処理は、取得装置と、生成装置と、抽出装置との各装置を有する抽出処理システム1によって実現されてもよい。
Further, in the above-described embodiment, an example in which the
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Further, the above-described embodiments and modified examples can be appropriately combined within a range in which the processing content is not inconsistent.
〔8.効果〕
上述してきたように、実施形態に係る抽出装置100は、生成部132と、特定部134と、抽出部135とを有する。生成部132は、対象を撮像した画像に含まれる対象の身体的な特徴に基づいて、各々の画像に対応する対象が所定位置にプロットされた空間である特徴量空間を生成する。特定部134は、ユーザから受け付けた対象に関する所定の要求に基づいて、生成部132によって生成された特徴量空間において、ユーザが所望する所定範囲を特定する。抽出部135は、特定部134によって特定された所定範囲に含まれる対象のうち、ユーザに関する所定の条件に適合する対象を抽出する。
[8. effect〕
As described above, the
このように、実施形態に係る抽出装置100は、ユーザが所望する範囲に含まれる対象を単に抽出するのではなく、ユーザに関する所定の条件に適合する対象を抽出する。すなわち、抽出装置100は、ユーザの希望による一方的な方向ではなく、対象からユーザに対して求められる所定の条件に適合した対象を抽出する。これにより、抽出装置100は、互いの要求を満たすユーザと対象とをマッチング候補として抽出することができるため、マッチングの精度を向上させることができる。
As described above, the
また、特定部134は、対象の各々から所定の要求を受け付けることにより、特徴量空間における、各々の対象が所望する各々の所定範囲を特定する。 Further, the specifying unit 134 specifies a predetermined range desired by each target in the feature amount space by receiving a predetermined request from each target.
このように、実施形態に係る抽出装置100は、対象の各々から受け付けた要求(例えば好み情報)に基づいて、対象の各々がマッチングされる相手として所望する範囲を特定する。これにより、抽出装置100は、特徴量空間上において、ユーザが対象の掲げる条件に適合するか否かを精度よく判定することができる。
In this way, the
また、抽出部135は、対象が、ユーザを含む所定範囲を所望し、かつ、ユーザが所望する所定範囲に含まれるという条件を満たす場合に、対象を抽出する。
Further, the
このように、実施形態に係る抽出装置100は、ユーザが所望する範囲に属する対象であって、かつ、ユーザ(ユーザの容姿)を所望する対象を抽出する。すなわち、抽出装置100は、互いを好みとするユーザ同士を抽出することができるので、ユーザ同士を精度よくマッチングさせることができる。
As described above, the
また、生成部132は、対象の性別ごとに異なる特徴量空間を生成する。特定部134は、生成部132によって生成された特徴量空間のうち、ユーザとは異なる性別の特徴量空間においてユーザが所望する所定範囲を特定する。抽出部135は、対象が、ユーザがプロットされた特徴量空間においてユーザを含む所定範囲を所望し、かつ、ユーザとは異なる性別の特徴量空間においてユーザが所望する所定範囲に含まれるという条件を満たす場合に、対象を抽出する。
In addition, the
このように、実施形態に係る抽出装置100は、性別ごとに異なる特徴量空間を生成してもよい。これにより、抽出装置100は、異性間のマッチングサービスにおけるマッチングの成功率を向上させることができる。
In this way, the
また、実施形態に係る抽出装置100は、抽出部135によって抽出された対象に対するユーザの反応を取得する取得部131をさらに備える。特定部134は、取得部131によって取得されたユーザの反応に基づいて、ユーザに対応付けられていた所定範囲を更新する。
In addition, the
このように、実施形態に係る抽出装置100は、抽出された対象(例えば、マッチングサービスにおいて候補として提示された対象)に対するユーザの反応を取得し、取得した情報に基づいて、所定範囲を設定するようにしてもよい。すなわち、抽出装置100は、マッチングされる相手を特定するための所定範囲を学習し、最適化することができる。これにより、抽出装置100は、実際のマッチング傾向を反映した所定範囲の特定を行うことができる。
In this way, the
また、取得部131は、対象に対するユーザの反応として、対象がユーザから選択された数もしくは率、又は、ユーザと対象とがマッチングに成功した数もしくは率の少なくともいずれか一つを取得する。 In addition, the acquisition unit 131 acquires at least one of the number or rate of the target selected by the user or the number or rate of successful matching between the user and the target, as the response of the user to the target.
このように、実施形態に係る抽出装置100は、ユーザが候補に対してアプローチした数や、実際にペアとして成立した数等に基づいて、所定範囲の特定に関する処理を行ってもよい。これにより、抽出装置100は、実際のマッチング傾向を反映した所定範囲の特定を行うことができる。
In this way, the
また、生成部132は、画像における被写体の顔の特徴に基づいて特徴量空間を生成する。特定部134は、顔に関するユーザの好みを示す要求に基づいて、特徴量空間においてユーザが好む顔に対応した対象が含まれる所定範囲を特定する。抽出部135は、特定部134によって特定された所定範囲に含まれる対象を抽出する。
Further, the
このように、実施形態に係る抽出装置100は、画像のうち、特に顔に関する特徴に基づいた処理を行うようにしてもよい。一般に、マッチングサービス等において、顔は、ペアとなる相手を選択する際に重要な要素となりうる。このため、抽出装置100は、顔に関する特徴に基づいて特徴量空間を生成し、かかる特徴量空間に基づいた抽出処理を行うことで、マッチングの成功率を向上させることができる。
In this way, the
また、実施形態に係る抽出装置100は、特徴量空間にプロットされた対象のうち、対象の好みを示す情報である好み情報がユーザに適合する対象に関する情報を、所定の要求の送信元であるユーザに送信する送信部136をさらに備える。
Further, the
このように、実施形態に係る抽出装置100は、レコメンドとして、ユーザを好む対象に関する情報をユーザに送信するようにしてもよい。これにより、抽出装置100は、ユーザの積極的なアプローチを促したり、互いに好む容姿を有するユーザ同士の出会いを促進させたりすることができるので、マッチング数やマッチングの成功率を向上させることができる。
As described above, the
以上、本願の実施形態を図面に基づいて詳細に説明したが、これは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 The embodiments of the present application have been described in detail above with reference to the drawings. However, this is merely an example, and various modifications and improvements are made based on the knowledge of those skilled in the art, including the modes described in the section of the disclosure of the invention. The present invention can be implemented in other forms described above.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 Further, the "section (module, unit)" described above can be read as "means" or "circuit". For example, the acquisition unit can be read as an acquisition unit or an acquisition circuit.
1 抽出処理システム
10 ユーザ端末
100 抽出装置
110 通信部
120 記憶部
121 顔画像記憶部
122 特徴量空間記憶部
123 ユーザ情報記憶部
130 制御部
131 取得部
132 生成部
133 受付部
134 特定部
135 抽出部
136 送信部
1
Claims (10)
ユーザから受け付けた前記対象に関する所定の要求に基づいて、前記生成部によって生成された特徴量空間において、当該ユーザが所望する所定範囲を特定し、前記対象の各々から、前記ユーザの身体的な特徴に関する所定の要求を受け付けることにより、特徴量空間における各々の対象が所望する各々の所定範囲を特定する特定部と、
前記特定部によって特定された所定範囲に含まれる前記対象のうち、前記ユーザに関する所定の条件に適合する対象を抽出する抽出部と、を備え、
前記生成部は、
前記対象の異なる特徴量空間を生成し、
前記特定部は、
前記生成部によって生成された特徴量空間のうち、前記ユーザとは異なる性別の特徴量空間において当該ユーザが所望する所定範囲を特定し、
前記抽出部は、
前記対象が、当該ユーザがプロットされた特徴量空間において当該ユーザを含む所定範囲を所望し、かつ、前記ユーザとは異なる性別の特徴量空間において当該ユーザが所望する所定範囲に含まれるという条件を満たす場合に、当該対象を抽出する、
ことを特徴とする抽出装置。 A generation unit that generates a feature amount space, which is a space in which the target corresponding to each image is plotted at a predetermined position, based on the physical characteristics of the target included in the image obtained by capturing the target,
Based on a predetermined request regarding the target received from the user, a predetermined range desired by the user is specified in the feature amount space generated by the generation unit, and a physical feature of the user is specified from each of the targets. By receiving a predetermined request regarding the specific amount of each target in the feature amount space ,
An extracting unit that extracts a target that matches a predetermined condition related to the user from the targets included in the predetermined range specified by the specifying unit ;
The generator is
Generate different feature space of the target,
The specific unit is
Of the feature amount space generated by the generation unit, a predetermined range desired by the user is specified in the feature amount space of a gender different from the user,
The extraction unit is
A condition that the target desires a predetermined range including the user in the feature amount space in which the user is plotted, and is included in the predetermined range desired by the user in the feature amount space of a gender different from that of the user, If it satisfies, extract the target,
An extraction device characterized by the above.
前記対象が、前記ユーザを含む所定範囲を所望し、かつ、当該ユーザが所望する所定範囲に含まれるという条件を満たす場合に、当該対象を抽出する、
ことを特徴とする請求項1に記載の抽出装置。 The extraction unit is
When the target desires a predetermined range including the user and satisfies the condition that the target is included in the predetermined range desired by the user, the target is extracted.
The extraction device according to claim 1 , wherein:
ユーザから受け付けた前記対象に関する所定の要求に基づいて、前記生成部によって生成された特徴量空間において、当該ユーザが所望する所定範囲を特定する特定部と、A specifying unit that specifies a predetermined range desired by the user in the feature amount space generated by the generating unit based on a predetermined request regarding the target received from the user;
前記特定部によって特定された所定範囲に含まれる前記対象のうち、前記ユーザに関する所定の条件に適合する対象を抽出する抽出部と、An extraction unit that extracts, from the targets included in the predetermined range specified by the specifying unit, a target that matches a predetermined condition regarding the user,
前記抽出部によって抽出された対象に対する前記ユーザの反応を取得する取得部と、を備え、An acquisition unit that acquires the reaction of the user with respect to the target extracted by the extraction unit,
前記特定部は、The specific unit is
前記取得部によって取得された前記ユーザの反応に基づいて、当該ユーザに対応付けられていた前記所定範囲を更新する、Updating the predetermined range associated with the user based on the reaction of the user acquired by the acquisition unit,
ことを特徴とする抽出装置。An extraction device characterized by the above.
前記対象に対するユーザの反応として、当該対象がユーザから選択された数もしくは率、又は、当該ユーザと当該対象とがマッチングに成功した数もしくは率の少なくともいずれか一つを取得する、
ことを特徴とする請求項3に記載の抽出装置。 The acquisition unit is
As the response of the user to the target, at least one of the number or rate of the target selected from the user, or the number or rate of successful matching between the user and the target is acquired,
The extraction device according to claim 3 , wherein:
前記画像における被写体の顔の特徴に基づいて前記特徴量空間を生成し、
前記特定部は、
顔に関する前記ユーザの好みを示す要求に基づいて、前記特徴量空間において当該ユーザが好む顔に対応した対象が含まれる所定範囲を特定し、
前記抽出部は、
前記特定部によって特定された所定範囲に含まれる対象を抽出する、
ことを特徴とする請求項1〜4のいずれか一つに記載の抽出装置。 The generator is
Generating the feature amount space based on the feature of the subject's face in the image,
The specific unit is
Based on a request indicating the user's preference regarding a face, a predetermined range including an object corresponding to the face preferred by the user in the feature amount space is specified,
The extraction unit is
Extracting the objects included in the predetermined range specified by the specifying unit,
The extraction device according to any one of claims 1 to 4 , characterized in that.
をさらに備えたことを特徴とする請求項1〜5のいずれか一つに記載の抽出装置。 Among the objects plotted in the feature amount space, a transmission unit that transmits information about a target whose preference information that is information indicating the preference of the target matches the user, to the user who is the transmission source of the predetermined request,
Extraction device according to any one of claims 1 to 5 further comprising a.
対象を撮像した画像に含まれる当該対象の身体的な特徴に基づいて、各々の画像に対応する対象が所定位置にプロットされた空間である特徴量空間を生成する生成工程と、
ユーザから受け付けた前記対象に関する所定の要求に基づいて、前記生成工程によって生成された特徴量空間において、当該ユーザが所望する所定範囲を特定し、前記対象の各々から、前記ユーザの身体的な特徴に関する所定の要求を受け付けることにより、特徴量空間における各々の対象が所望する各々の所定範囲を特定する特定工程と、
前記特定工程によって特定された所定範囲に含まれる前記対象のうち、前記ユーザに関する所定の条件に適合する対象を抽出する抽出工程と、を含み、
前記生成工程は、
前記対象の異なる特徴量空間を生成し、
前記特定工程は、
前記生成工程によって生成された特徴量空間のうち、前記ユーザとは異なる性別の特徴量空間において当該ユーザが所望する所定範囲を特定し、
前記抽出工程は、
前記対象が、当該ユーザがプロットされた特徴量空間において当該ユーザを含む所定範囲を所望し、かつ、前記ユーザとは異なる性別の特徴量空間において当該ユーザが所望する所定範囲に含まれるという条件を満たす場合に、当該対象を抽出する、
ことを特徴とする抽出方法。 A computer-implemented extraction method,
A generation step of generating a feature amount space, which is a space in which the target corresponding to each image is plotted at a predetermined position, based on the physical characteristics of the target included in the image obtained by capturing the target,
Based on a predetermined request regarding the target received from the user, a predetermined range desired by the user is specified in the feature amount space generated by the generating step, and the physical feature of the user is specified from each of the targets. A specific step of identifying each predetermined range desired by each target in the feature amount space by receiving a predetermined request regarding
An extraction step of extracting an object that matches a predetermined condition related to the user among the objects included in the predetermined range specified by the specifying step ;
The generation step is
Generate different feature space of the target,
The specific step is
Of the feature amount space generated by the generating step, a predetermined range desired by the user is specified in the feature amount space of a gender different from the user,
The extraction step is
A condition that the target desires a predetermined range including the user in the feature amount space in which the user is plotted, and is included in the predetermined range desired by the user in the feature amount space of a gender different from that of the user, If it satisfies, extract the target,
An extraction method characterized by the above.
対象を撮像した画像に含まれる当該対象の身体的な特徴に基づいて、各々の画像に対応する対象が所定位置にプロットされた空間である特徴量空間を生成する生成工程と、A generation step of generating a feature amount space, which is a space in which the target corresponding to each image is plotted at a predetermined position, based on the physical characteristics of the target included in the image obtained by capturing the target,
ユーザから受け付けた前記対象に関する所定の要求に基づいて、前記生成工程によって生成された特徴量空間において、当該ユーザが所望する所定範囲を特定する特定工程と、A specifying step of specifying a predetermined range desired by the user in the feature amount space generated by the generating step based on a predetermined request regarding the target received from the user;
前記特定工程によって特定された所定範囲に含まれる前記対象のうち、前記ユーザに関する所定の条件に適合する対象を抽出する抽出工程と、An extraction step of extracting, from the objects included in the predetermined range specified by the specifying step, objects that meet predetermined conditions related to the user;
前記抽出工程によって抽出された対象に対する前記ユーザの反応を取得する取得工程と、を含み、An acquisition step of acquiring the reaction of the user with respect to the target extracted by the extraction step,
前記特定工程は、The specific step is
前記取得工程によって取得された前記ユーザの反応に基づいて、当該ユーザに対応付けられていた前記所定範囲を更新する、Updating the predetermined range associated with the user, based on the reaction of the user acquired by the acquisition step,
ことを特徴とする抽出方法。An extraction method characterized by the above.
ユーザから受け付けた前記対象に関する所定の要求に基づいて、前記生成手順によって生成された特徴量空間において、当該ユーザが所望する所定範囲を特定し、前記対象の各々から、前記ユーザの身体的な特徴に関する所定の要求を受け付けることにより、特徴量空間における各々の対象が所望する各々の所定範囲を特定する特定手順と、
前記特定手順によって特定された所定範囲に含まれる前記対象のうち、前記ユーザに関する所定の条件に適合する対象を抽出する抽出手順と、をコンピュータに実行させ、
前記生成手順は、
前記対象の異なる特徴量空間を生成し、
前記特定手順は、
前記生成手順によって生成された特徴量空間のうち、前記ユーザとは異なる性別の特徴量空間において当該ユーザが所望する所定範囲を特定し、
前記抽出手順は、
前記対象が、当該ユーザがプロットされた特徴量空間において当該ユーザを含む所定範囲を所望し、かつ、前記ユーザとは異なる性別の特徴量空間において当該ユーザが所望する所定範囲に含まれるという条件を満たす場合に、当該対象を抽出する、
ことを特徴とする抽出プログラム。 A generation procedure for generating a feature amount space, which is a space in which the target corresponding to each image is plotted at a predetermined position, based on the physical characteristics of the target included in the image obtained by capturing the target,
Based on a predetermined request regarding the target received from the user, a predetermined range desired by the user is specified in the feature amount space generated by the generation procedure, and a physical feature of the user is specified from each of the targets. By receiving a predetermined request regarding the specific space for specifying each predetermined range desired by each target in the feature amount space ,
Among the objects included in the predetermined range specified by the specifying procedure, an extraction procedure of extracting an object that matches a predetermined condition regarding the user, and causing the computer to execute the extraction step .
The generation procedure is
Generate different feature space of the target,
The specific procedure is
Of the feature amount space generated by the generation procedure, a predetermined range desired by the user is specified in the feature amount space of a gender different from the user,
The extraction procedure is
A condition that the target desires a predetermined range including the user in the feature amount space in which the user is plotted, and is included in the predetermined range desired by the user in the feature amount space of a gender different from that of the user, If it satisfies, extract the target,
An extraction program characterized by the above.
ユーザから受け付けた前記対象に関する所定の要求に基づいて、前記生成手順によって生成された特徴量空間において、当該ユーザが所望する所定範囲を特定する特定手順と、A specifying procedure for specifying a predetermined range desired by the user in the feature amount space generated by the generating procedure based on a predetermined request regarding the target received from the user;
前記特定手順によって特定された所定範囲に含まれる前記対象のうち、前記ユーザに関する所定の条件に適合する対象を抽出する抽出手順と、An extraction procedure of extracting a target that matches a predetermined condition regarding the user from the targets included in the predetermined range specified by the specifying procedure;
前記抽出手順によって抽出された対象に対する前記ユーザの反応を取得する取得手順と、をコンピュータに実行させ、An acquisition procedure for acquiring the reaction of the user with respect to the target extracted by the extraction procedure,
前記特定手順は、The specific procedure is
前記取得手順によって取得された前記ユーザの反応に基づいて、当該ユーザに対応付けられていた前記所定範囲を更新する、Updating the predetermined range associated with the user, based on the reaction of the user acquired by the acquisition procedure,
ことを特徴とする抽出プログラム。An extraction program characterized by the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017012052A JP6732668B2 (en) | 2017-01-26 | 2017-01-26 | Extraction device, extraction method, and extraction program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017012052A JP6732668B2 (en) | 2017-01-26 | 2017-01-26 | Extraction device, extraction method, and extraction program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018120461A JP2018120461A (en) | 2018-08-02 |
JP6732668B2 true JP6732668B2 (en) | 2020-07-29 |
Family
ID=63045202
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017012052A Active JP6732668B2 (en) | 2017-01-26 | 2017-01-26 | Extraction device, extraction method, and extraction program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6732668B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101815176B1 (en) | 2016-06-03 | 2018-01-05 | 주식회사 하이퍼커넥트 | Method, device and system of mediating |
KR20180133593A (en) | 2017-06-07 | 2018-12-17 | 주식회사 하이퍼커넥트 | Mediating method and device |
KR101979650B1 (en) | 2018-03-07 | 2019-05-17 | 주식회사 하이퍼커넥트 | Server and operating method thereof |
US10991145B2 (en) * | 2018-11-13 | 2021-04-27 | Nec Corporation | Pose-variant 3D facial attribute generation |
KR102329481B1 (en) | 2019-09-09 | 2021-11-24 | 주식회사 하이퍼커넥트 | Server and method of mediating a plurality of terminals |
KR102455966B1 (en) * | 2019-12-16 | 2022-10-18 | 주식회사 하이퍼커넥트 | Mediating Apparatus, Method and Computer Readable Recording Medium Thereof |
KR102373764B1 (en) | 2020-02-21 | 2022-03-15 | 주식회사 하이퍼커넥트 | Mobile and operating method thereof |
WO2022091301A1 (en) * | 2020-10-29 | 2022-05-05 | 日本電気株式会社 | Search device, search method, and recording medium |
JP7090956B1 (en) * | 2021-12-28 | 2022-06-27 | 株式会社takumi terakado | Matching processing server, matching processing method, and matching processing program |
-
2017
- 2017-01-26 JP JP2017012052A patent/JP6732668B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018120461A (en) | 2018-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6732668B2 (en) | Extraction device, extraction method, and extraction program | |
US11030238B2 (en) | Determining and utilizing contextual meaning of digital standardized image characters | |
KR102073351B1 (en) | Server and operating method thereof | |
US9589058B2 (en) | Methods and systems for social matching | |
US10318884B2 (en) | Venue link detection for social media messages | |
US11587143B2 (en) | Neural contextual bandit based computational recommendation method and apparatus | |
US10896355B2 (en) | Automatic canonical digital image selection method and apparatus | |
US20190230171A1 (en) | Systems and methods for providing recommendations and explanations | |
US20170344553A1 (en) | Methods and Systems for Making Recommendations based on Relationships | |
WO2019133862A1 (en) | Computer vision for unsuccessful queries and iterative search | |
US10042548B2 (en) | Methods and systems for providing user feedback using an emotion scale | |
US20180253655A1 (en) | Skills clustering with latent representation of words | |
US20150032535A1 (en) | System and method for content based social recommendations and monetization thereof | |
US10204090B2 (en) | Visual recognition using social links | |
US11397764B2 (en) | Machine learning for digital image selection across object variations | |
US10671615B2 (en) | Methods and systems for assigning affinity scores to contacts | |
US10460174B2 (en) | System and methods for analysis of user-associated images to generate non-user generated labels and utilization of the generated labels | |
US20180285646A1 (en) | Social engagement based on image resemblance | |
US20160110372A1 (en) | Method and apparatus for providing location-based social search service | |
JP7307607B2 (en) | Method, computer program and computing device for facilitating media-based content sharing | |
US10104034B1 (en) | Providing invitations based on cross-platform information | |
CN108306812B (en) | Data processing method and server | |
US20150286280A1 (en) | Information processing method and information processing device | |
WO2022185401A1 (en) | Information processing device, information processing method, program and storage medium | |
JP2015097036A (en) | Recommended image presentation apparatus and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190325 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200310 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200511 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200609 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200708 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6732668 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |