JP2019079477A - Love target matching system, love target matching method and love target matching program - Google Patents

Love target matching system, love target matching method and love target matching program Download PDF

Info

Publication number
JP2019079477A
JP2019079477A JP2017216787A JP2017216787A JP2019079477A JP 2019079477 A JP2019079477 A JP 2019079477A JP 2017216787 A JP2017216787 A JP 2017216787A JP 2017216787 A JP2017216787 A JP 2017216787A JP 2019079477 A JP2019079477 A JP 2019079477A
Authority
JP
Japan
Prior art keywords
user
data
face
image
recorded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017216787A
Other languages
Japanese (ja)
Other versions
JP7083972B2 (en
Inventor
靖典 奥野
Yasunori Okuno
靖典 奥野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2017216787A priority Critical patent/JP7083972B2/en
Publication of JP2019079477A publication Critical patent/JP2019079477A/en
Application granted granted Critical
Publication of JP7083972B2 publication Critical patent/JP7083972B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

To provide a love target matching system which analyzes the preference of a user related to a love target without making the user aware of the analysis, finds a matching love target, and can induce the user to encounter the love target, and to make acquaintance with each other, a love target matching method and a love target matching program.SOLUTION: A control part 21 of a love target matching server 20 receives the face image information of a user himself/herself reflected on a mirror from a user terminal 10, stores the identical face image information of the user himself/herself by identity determination processing, receives a face image of the other user or a non-subscriber who is observed by the user from the user terminal 10, stores a feature of a preferable face by a preference analysis processing, stores a combination in which the features coincide with each other by coupling processing, induces the combined users to one shop or a facility by induction processing, and creates an opportunity for the combined users to have a talk by action command processing.SELECTED DRAWING: Figure 1

Description

本発明は、インターネットを介して異性又は同性の恋愛対象との出会いを仲介する恋愛対象マッチングシステム、恋愛対象マッチング方法及び恋愛対象マッチングプログラムに関する。  The present invention relates to a love target matching system, a love target matching method, and a love target matching program that mediates encounters with heterosexual or homosexual love targets via the Internet.

人が恋愛対象と出会う手段においては、当人が日常生活の中で得た人間関係やそこから派生する他者からの紹介等オフラインで為されるものが多い。  In the means by which a person encounters a subject of love, there are many things which are done off-line, such as the human relationship which the person obtained in daily life and the introduction from others who derive from it.

一方、インターネットが普及して以来、恋愛対象と出会う手段においても、インターネット上の掲示板やソーシャル・ネットワーキング・サービス等を介する場合が増えている。とりわけ、恋愛又は結婚を目的としたユーザに特化し、自身のプロフィール情報を登録した上で、結婚相手に望む具体的な条件を入力し、その条件と互いのプロフィール情報が相互に一致した場合には、電子的手段によって当該ユーザ間におけるコミュニケーション手段を提供するシステムも存在する(例えば、特許文献1を参照)。この文献に記載された技術においては、利用者が自らの具体的な情報を入力する入力手段と、結婚相手に望む具体的な条件を入力する入力手段と、当該データの蓄積手段と、これらのデータの中で適合する相手をマッチングする手段と、当該マッチング結果により適合する個人の情報を操作者と相手の双方に電子メールで送る送信手段とを備え、上記操作者と相手がこのシステムを通じてのみ電子メールの交換ができるようにして双方のプライバシーの保護を行う。  On the other hand, since the spread of the Internet, there have been increasing cases of using bulletin boards and social networking services on the Internet as a means of encountering love objects. Among other things, if you specialize in a user for the purpose of love or marriage, register your own profile information, and then enter the specific conditions you want for the marriage partner, and the conditions and the mutual profile information agree with each other. There is also a system that provides a means of communication between the users by electronic means (see, for example, Patent Document 1). In the technique described in this document, an input means for the user to input his / her specific information, an input means for inputting the specific conditions desired for the marriage partner, a storage means for the data, and The data processing system includes means for matching the other in the data, and transmission means for sending the information of the individual matching the result of the matching to both the operator and the other by e-mail, and the operator and the other party only through this system Enable e-mail exchange to protect the privacy of both parties.

特開2002−203034号公報JP 2002-203034 A

上述したオフラインの場合においては、恋愛対象について肉眼での容姿確認の機会及び肉声での会話機会が、知り合う当初から得ることができる。しかしながら、当人の人間関係を起点とするため、得られる出会いの絶対数に限りがある。一方、オンラインの場合においては、インターネットを介して当人の人間関係を超えて多数の出会いを得られるが、オンラインで互いのプロフィールを知り合う時点では対面で相手の容姿及び実在を確認できず、直接の会話もできないため、ユーザに不信感を少なからず抱かせてしまうという課題があった。また、恋愛対象又は結婚対象を見つけることを目的としたオンラインサービスに会員登録すること自体を作為的な行為と捉え、羞恥や抵抗を感じるユーザも少なくない。  In the case of the above-described off-line, an opportunity for visual confirmation of appearance and an opportunity for speaking in a natural voice can be obtained from the beginning of the meeting. However, the absolute number of encounters obtained is limited because the relationship between the person is the starting point. On the other hand, in the case of online, you can get a large number of encounters beyond the person's relationship through the Internet, but when you get to know each other's profile online, you can not confirm the appearance and reality of the other person. In addition, there is a problem that the user may have a degree of distrust. In addition, there are not a few users who perceive shame or resistance as the act of registering themselves as an online service for the purpose of finding an object of love or an object of marriage.

本発明は、ユーザに対してオンラインサービスを利用していることを意識させることなく、ユーザの恋愛対象に関する嗜好を分析し、その嗜好に合致する恋愛対象を、インターネットを介して検索し、オンラインでマッチング処理を実行した上で、オフラインで出会えるようユーザの行動を誘導することができる恋愛対象マッチングシステム、恋愛対象マッチング方法及び恋愛対象マッチングプログラムを提供することにある。  The present invention analyzes a user's preference for a love subject without making the user aware of using the online service, searches for a love subject matching the preference via the Internet, and makes the online The object of the present invention is to provide a love target matching system, a love target matching method, and a love target matching program that can induce a user's action to meet offline after performing matching processing.

上記課題を解決するための恋愛対象マッチングシステムは、ユーザの顔及びそれを構成する各部位の画像情報に関連付けられた記憶領域を有したユーザ情報記憶部と、前記ユーザの視点を捕捉し、前記ユーザが見ている対象を撮影し、記録することができるユーザ端末に接続された制御部とを備える。前記制御部は、ユーザの顔及びそれを構成する各部位の画像情報に関連付けられた記憶領域を有したユーザ情報記憶部と、前記ユーザの視点を捕捉しながら前記ユーザが見ている対象を撮影、顔認識及び記録することができるユーザ端末に接続され、前記ユーザ端末が顔認識した顔画像情報を受信及び記録し、ユーザの視点と顔画像情報の視点が互いに一致し、顔画像情報の中に映るユーザ端末が左右対称及び左右反転している場合には、その顔画像情報が鏡に反射したユーザ本人の画像であると判断し、本人顔画像情報として前記ユーザ情報記憶部に記録する。  The romantic object matching system for solving the above problems includes: a user information storage unit having a storage area associated with a user's face and image information of each part constituting the user; and a viewpoint of the user, And a control unit connected to a user terminal capable of photographing and recording an object the user is looking at. The control unit captures a user information storage unit having a storage area associated with a user's face and image information of each part constituting the user, and capturing an object viewed by the user while capturing a viewpoint of the user Connected to a user terminal capable of face recognition and recording, the face information of the face recognized by the user terminal is received and recorded, the viewpoint of the user and the viewpoint of the face image information coincide with each other, and the face image information If the user terminal shown in the image is symmetrical and horizontally reversed, it is determined that the face image information is an image of the user himself reflected on the mirror, and is recorded in the user information storage unit as his own face image information.

前記制御部は、前記ユーザに関連付けて他者の顔又は体型に関する嗜好を記録する嗜好対象記憶部に接続され、前記制御部が、前記顔画像情報について前記ユーザの視点が置かれた回数及び連続時間数を記録し、前記回数及び前記連続時間数の多寡に応じて前記顔画像情報に対して嗜好に関する得点を付与し、前記嗜好に関する得点が所定基準を超えた場合には、前記ユーザの本人顔画像情報と一致しない顔画像情報を選別し、他ユーザの本人顔画像情報と一致する場合には、前記他ユーザの顔画像情報に関連付けて記録された顔画像各部位座標及び顔画像各部位面積占有率を取得し、他ユーザの本人顔画像情報と一致しない場合には、過去に他者の視点で記録されたが本人顔画像情報としては登録されていない非会員顔画像と一致するかを判断し、前記非会員顔画像に一致する場合には、前記非会員顔画像に関連付けて記録された顔画像各部位座標及び顔画像各部位面積占有率に加算し、前記非会員顔画像に一致しない場合には、新たに非会員画像IDを発行し、前記非会員画像IDに関連付けて記録し、非会員顔画像として各部位に分解し、顔全体における顔画像各部位座標、顔画像各部位面積占有率を、前記ユーザに関連付けて前記嗜好対象記憶部に記録する。  The control unit is connected to a preference target storage unit that records preferences related to the face or figure of another person in association with the user, and the control unit counts the number of times the viewpoint of the user is placed for the face image information The number of hours is recorded, a score regarding preference is given to the face image information according to the number of times and the number of continuous times, and when the score regarding the preference exceeds a predetermined standard, the identity of the user If the face image information which does not match the face image information is selected and the face image information of the other user is matched, the coordinates of each part of the face image and each part of the face image recorded in association with the face image information of the other user If the area occupancy rate is acquired and does not match the personal-face image information of another user, does it match a non-member face image recorded in the viewpoint of the other person in the past but not registered as the personal-face image information? The If it does not match the non-member face image, it is added to the face image region coordinates and face image region area occupancy rates recorded in association with the non-member face image, and matches the non-member face image If not, a non-member image ID is newly issued, associated with the non-member image ID, recorded, and decomposed into each portion as a non-member face image, and the coordinates of each portion of the face image in the entire face, each portion of the face image An area occupancy rate is recorded in the preference object storage unit in association with the user.

前記制御部は、相互に嗜好が一致又は近似するユーザ2名の組合せを記録するカップリング情報記憶部に接続され、前記制御部が、前記ユーザに関連付けて前記嗜好対象記憶部に記録した前記顔画像前記各部位座標及び前記顔画像各部位面積占有率と、前記ユーザ情報記憶部に前記ユーザ以外の他ユーザに関連付けられて記録された前記本人顔画像情報、抽出される各部位の画像情報及び顔全体における位置及び面積占有率とのマッチング処理を各項目別に実行し、一致率が互いに所定基準を超えた場合に、当該ユーザを組み合わせて前記カップリング情報記憶部に記録する。  The control unit is connected to a coupling information storage unit that records a combination of two users whose preferences match or approximate each other, and the control unit records the face associated with the user in the preference target storage unit. The image coordinates of each part and the face image parts area ratio, the personal face image information recorded in the user information storage unit in association with other users other than the user, image information of each part to be extracted, Matching processing with the position and area occupancy in the entire face is executed for each item, and when the coincidence exceeds each other by a predetermined reference, the users are combined and recorded in the coupling information storage unit.

前記制御部は、前記ユーザに関連付けて所在地を記録するユーザ所在地情報記憶部と店舗及び施設並びにそれらに関連づけられたカテゴリを地図データ上にマッピングする形で記録する誘導先情報記憶部と前記店舗又は前記施設の従業員が閲覧できる法人端末に接続され、前記制御部が、前記ユーザ端末から位置情報を取得し、緯度及び経度並びにその履歴を記録し、それらの統計値から前記ユーザの利用頻度の高い地点及び移動経路を算出し、前記ユーザ所在地情報記憶部に記録し、前記カップリング情報記憶部に前記ユーザと組み合わせて記録された他ユーザについても同様に利用頻度の高い地点及び移動経路を算出し、前記ユーザ所在地情報記憶部に記録し、カップリングされた両ユーザ間で前記地点及び前記移動経路を比較し、前記両ユーザ間で重複地点がある場合には、前記重複地点が複数あるかを判断し、前記重複地点が複数ない場合には、前記重複地点へ誘導する提案を前記両ユーザの前記ユーザ端末に送信し、前記重複地点が複数ある場合には、両ユーザの訪問回数及び現在位置からの所要時間に基づいて地点に関する得点を付与し、前記重複地点がない場合には、両ユーザの訪問回数が多い地点カテゴリ情報及び前記所要時間に基づいて前記地点に関する得点を付与し、前記地点に関する得点がより高い地点へ誘導する提案を前記両ユーザの前記ユーザ端末に送信し、前記ユーザ端末は備えられた自動音声アナウンス機能及びディスプレイ表示機能によって前記両ユーザに前記提案を通知し、前記両ユーザが前記提案を承諾した場合には、承諾情報を前記ユーザ端末から前記制御部、前記制御部から前記法人端末に送信し、前記両ユーザのいずれか一方が前記提案を承諾しない場合には、拒否情報を前記ユーザ端末から前記制御部に送信し、前記制御部は前記拒否情報に基づいて拒否された地点を除外し、両ユーザ間で前記地点及び前記移動経路を比較する処理を再度実行する。  The control unit stores a user location information storage unit that records a location in association with the user, a store and a facility, and a guidance destination information storage unit that records a category associated with them on map data in the form of mapping The control unit is connected to a corporate terminal that can be viewed by an employee of the facility, the control unit acquires location information from the user terminal, records latitude and longitude, and its history, and uses their statistics to determine the frequency of use of the user. Calculates high points and moving routes, records them in the user location information storage unit, and similarly calculates points and moving routes with high usage frequency for other users recorded in combination with the user in the coupling information storage unit Recording the location information in the user location information storage unit, and comparing the point and the movement route between the coupled users. If there are overlapping points between users, it is judged whether there are multiple overlapping points, and if there are multiple overlapping points, a proposal for guiding to the overlapping points is transmitted to the user terminals of the two users. If there is a plurality of overlapping points, a score regarding the point is given based on the number of visits by both users and the required time from the current position, and if there is no overlapping point, the points where the number of visits by both users is large Based on the category information and the required time, a score relating to the point is given, and a proposal for guiding to a point where the score relating to the point is higher is transmitted to the user terminal of the both users, and the user terminal is equipped with an automatic voice When both the user are notified of the proposal by the announcement function and the display display function, and the both users approve the proposal, the consent information is used as the user When the control unit and the control unit transmit from the end to the corporate terminal and either one of the two users does not accept the proposal, the user terminal transmits rejection information to the control unit, and the control is performed. The unit excludes a point rejected based on the refusal information, and executes again the processing of comparing the point and the movement route between both users.

前記制御部は、前記両ユーザに関連付けて行動指示履歴を記録する行動指示情報記憶部に接続され、前記制御部が、前記ユーザ端末からビーコン接近情報を取得し、前記両ユーザが接近した場合には、前記ユーザ端末に相手ユーザを視認するための行動指示を送信し、前記両ユーザが前記ユーザ端末を介して見ている対象物の視点画像情報を取得し、前記視点画像情報とカップリングされた他ユーザの本人顔画像情報についてマッチング処理を実行し、一致率が所定基準を超える場合には、過去の行動指示履歴から前記相手ユーザに話しかけるための行動指示を検索し、前記話しかけるための行動指示が見つかった場合には、承諾率及び成功率を取得し、前記承諾率及び前記成功率に基づいて行動指示得点を付与し、最高得点の行動指示を選定し、前記話しかけるための行動指示履歴が見つからない場合には、予め登録された行動指示群から無作為に行動指示を選択し、前記話しかけるための行動指示をユーザ端末に送信し、前記ユーザ端末は前記自動音声アナウンス機能及び前記ディスプレイ表示機能によって前記ユーザに対して通知し、前記話しかけるための行動指示を前記ユーザが承諾しない場合には、前記話しかけるための行動指示を除外し、前記行動指示履歴を再検索し、前記話しかけるための行動指示を前記ユーザが承諾した場合には、前記ユーザ端末から前記両ユーザの位置情報を取得し、前記両ユーザの移動を検知し、前記ユーザ端末からビーコン接近情報を取得し、前記両ユーザの接近情報が維持されているか判定し、前記接近情報が維持されている場合には、前記ユーザが前記行動指示に従った結果としてカップリングされた相手ユーザと出会えたと判断し、前記カップリングに成功フラグを登録し、前記話しかけるための行動指示の成功率に反映する処理から再度実行する。  The control unit is connected to an action instruction information storage unit that records an action instruction history in association with the two users, and the control unit acquires beacon approach information from the user terminal, and the two users approach each other. Transmits an action instruction for visually recognizing the other user to the user terminal, acquires viewpoint image information of an object viewed by the both users via the user terminal, and is coupled with the viewpoint image information. The matching process is performed on the face image information of the other user, and when the coincidence rate exceeds a predetermined reference, an action instruction for talking to the other user is searched from the past action instruction history, and the action for talking If an instruction is found, acquire an acceptance rate and a success rate, assign an action instruction score based on the acceptance rate and the success rate, and select an action instruction with the highest score. If the action instruction history to speak is not found, the action instruction is selected at random from the action instruction group registered in advance, and the action instruction to speak is transmitted to the user terminal, and the user terminal The automatic voice announcement function and the display display function notify the user, and when the user does not accept the action instruction for speaking, the action instruction for speaking is excluded and the action instruction history is When the user re-searches and the user accepts the action instruction to speak, the position information of both users is acquired from the user terminal, the movement of both users is detected, and the beacon approach information from the user terminal If the approach information is maintained, it is determined whether the approach information of the two users is maintained. It is determined that the user can meet the coupled user as a result of following the action instruction, and a success flag is registered in the coupling, and the process is executed again from the process of reflecting the success rate of the action instruction for talking .

これにより、ユーザは特定のオンラインサービスへの会員登録やサービス利用を意識することなく、前記ユーザ端末を介して鏡に映った自身を見るという日常的な行為を通じて自身をマッチング対象とするために必要な自身の本人顔画像情報を登録することができ、前記ユーザ端末を介して他者を見るという日常的な行為を通じて恋愛対象に関する自身の嗜好について分析されたデータを反映させることができ、顔に関する容姿についての嗜好が互いに一定程度、一致又は近似したユーザ同士でカップリングされ、自身の利用頻度が高い店舗若しくは施設又は利用頻度が高いカテゴリに属する店舗若しくは施設に誘導され、前記店舗又は前記施設において互いが同時に着目した対象物に関して出された行動指示に従った結果として自然にカップリングされた相手ユーザと対話の契機を得ることができる。  This makes it necessary for the user to match himself through the daily act of looking at himself reflected in the mirror via the user terminal without being aware of membership registration or service use for a particular online service. Personal face image information can be registered, and data analyzed about his / her preference for a love object can be reflected through the daily act of seeing another person through the user terminal Users whose preference for appearance is coupled with each other to a certain degree, match or approximate each other, are guided to a store or facility whose use frequency is high or a store or facility belonging to a category whose use frequency is high, in the store or the facility Naturally as a result of following the behavioral instructions issued for It can be obtained opportunity for interaction between the ring and the other user.

・上記恋愛対象マッチングシステムにおいて、前記制御部は、ユーザの体型に関する画像及び評価結果を記録する体型画像記憶部に接続され、前記ユーザ端末から取得した前記画像情報の中から本人顔画像情報と一致しない画像情報について他者画像情報として記録した後、前記ユーザ端末から体型画像情報を取得した場合に、前記ユーザの視線の動きが所定範囲内であるかを判断し、前記所定範囲内である場合には、前記ユーザ端末から前記ユーザの視線反復回数を取得し、前記視線反復回数が所定基準を超えている場合には、前記他者画像情報と前記他者ユーザに関連付けられた本人顔画像情報とでマッチング処理を実行し、一致した場合には、前記他者ユーザの本人顔画像情報と前記体型画像情報を関連付けて前記ユーザ情報記憶部に記録し、前記体型画像情報を前記体型画像記憶部に記録し、前記ユーザ端末から前記体型画像情報に関する前記ユーザの注視時間及び注視回数を取得し、前記注視時間及び前記注視回数の多寡に応じて前記体型画像情報に対して前記嗜好に関する得点を付与し、前記嗜好に関する得点が所定基準を超えた場合には、前記体型画像記憶部から体型比較結果を受信し、前記嗜好に関する得点と前記体型比較結果を前記ユーザに関連付けて嗜好対象記憶部に記録し、一方で、前記体型画像記憶部に記録された前記体型画像情報については、前記体型画像記憶部に記録されている他の体型画像情報から算出された平均値と比較し、前記体型比較結果を前記嗜好対象記憶部及び前記ユーザ情報記憶部に送信し、前記体型画像情報を全体平均に加算し、前記ユーザ情報記憶部に送信された前記体型比較結果は、前記他者ユーザに関連付けて本人体型情報としても記録される。これにより、ユーザはサービス利用を意識することなく、前記ユーザ端末を介して他者の顔と体型を一定の視野範囲内で交互に見るという自然な行為を通じて、恋愛対象に関する顔だけでなく体型の嗜好についても分析されたデータを反映させることができる。  -In the said love object matching system, the said control part is connected to the figure type image storage part which records the image regarding a figure of a user, and an evaluation result, It matches with a person's face image information out of the said image information acquired from the said user terminal In the case where body image information is acquired from the user terminal after recording the image information not to be generated as the other person image information, it is determined whether the movement of the user's line of sight is within the predetermined range. To obtain the number of eye gaze repetition times of the user from the user terminal, and when the eye gaze repetition number exceeds a predetermined reference, the other person image information and the personal face image information associated with the other person user The matching process is executed, and when they match, the personal-face image information of the other user and the figure image information are associated with each other and the user information storage unit Recording the figure image information in the figure image storage unit, acquiring from the user terminal the gaze time and number of gazes of the user regarding the figure image information, and according to the gaze time and the number of gazes A score relating to the preference is given to the figure image information, and when the score relating to the preference exceeds a predetermined standard, a figure comparison result is received from the figure image storage unit, and the figure relating to the preference is compared with the figure The result is stored in the preference target storage unit in association with the user, while the body type image information stored in the body type image storage unit is derived from the other body type image information stored in the body type image storage unit. The body shape comparison result is sent to the preference object storage unit and the user information storage unit in comparison with the calculated average value, and the shape image information is added to the overall average, The type comparison results transmitted to the user information storage unit is also recorded as the principal type information in association with the others user. As a result, the user can not only look at the face related to the love target, but also the body shape through the natural act of alternately viewing the face and the body shape of the other within a certain visual field range through the user terminal without being aware of the service usage. The analyzed data can also be reflected on preferences.

・上記恋愛対象マッチングシステムにおいて、前記制御部は、前記誘導先情報記憶部に記録された店舗及び施設の従業員によって操作できる法人端末に接続され、前記制御部が前記ユーザ端末に対して送信した前記提案を前記両ユーザが承諾した場合に、前記両ユーザに関連付けて前記ユーザ情報記憶部に記録されている前記本人顔画像情報を前記法人端末に対して送信し、前記法人端末に備えられたディスプレイ表示機能又は自動音声アナウンス機能によって前記従業員に対して通知する。これにより、誘導先として指定された店舗又は施設の従業員は、カップリングされたユーザに対して対話の契機を提供することができる。  -In the said romance object matching system, the said control part was connected to the corporation terminal which can be operated by the employee of the store and the facility recorded on the said guidance destination information storage part, and the said control part transmitted to the said user terminal When both the users accept the proposal, the personal-face image information recorded in the user information storage unit in association with the both users is transmitted to the corporate terminal, and the corporate terminal is equipped with the proposal. The employee is notified by a display display function or an automatic voice announcement function. As a result, the employee of the store or facility designated as the guide destination can provide an opportunity for interaction to the coupled user.

・上記恋愛対象マッチングシステムにおいて、前記制御部は、前記ユーザの顔及び各部位以外に声紋を記録する前記ユーザ情報記憶部に接続され、前記ユーザ端末の前記自動音声アナウンス機能及び前記ディスプレイ表示機能によって前記行動指示情報を前記ユーザに対して通知し、前記ユーザの視点画像を前記ユーザ端末から受信し、前記視点画像とカップリングされた相手ユーザの本人顔画像とでマッチング処理を実行する場合に、前記ユーザ端末を介して取得できる前記ユーザの至近で発せられた音声の声紋情報と、前記相手ユーザに関連付けて記録されている音声の声紋情報をも対象項目の一つとしてマッチング処理を実行する。これにより、前記ユーザが前記行動指示情報に従った結果としてカップリングされた相手ユーザと出会えたことを画像情報だけでなく音声情報によっても判断することができる。  -In the said love object matching system, the said control part is connected to the said user information storage part which records a voiceprint other than the said user's face and each part, The said automatic voice announcement function of the said user terminal and the said display display function When notifying the user of the action instruction information, receiving a viewpoint image of the user from the user terminal, and performing a matching process on the viewpoint image and a face image of the other user coupled with the viewpoint image. The matching process is performed with the voiceprint information of the voice emitted near the user, which can be acquired via the user terminal, and the voiceprint information of the voice recorded in association with the other user as one of the target items. Thus, it can be determined not only by the image information but also by the audio information that the user has encountered the coupled user as a result according to the action instruction information.

本発明によれば、容姿に関する嗜好に合致する恋愛対象とインターネットを介しつつもユーザにオンラインサービスの利用を意識させることなく、対面での会話を契機とした出会いに向けてユーザの行動を誘導することができる。  According to the present invention, the user's behavior is induced toward encounters in a face-to-face conversation without making the user conscious of using the online service while the love object matching the preference regarding appearance and the Internet be able to.

第1の実施形態における配送管理システムの構成図。BRIEF DESCRIPTION OF THE DRAWINGS The block diagram of the delivery management system in 1st Embodiment. 第1の実施形態における配送管理システムの各記憶部のデータ構成図であって、(a)はユーザ情報記憶部、(b)は嗜好対象記憶部、(c)はカップリング情報記憶部、(d)はユーザ所在地情報記憶部、(e)は誘導先情報記憶部、(f)は行動指示情報記憶部。It is a data block diagram of each storage part of the delivery management system in a 1st embodiment, and (a) is a user information storage part, (b) is a preference object storage part, (c) is a coupling information storage part, d) is a user location information storage unit, (e) is a guidance destination information storage unit, and (f) is an action instruction information storage unit. 第1の実施形態における本人顔画像登録処理を説明する流れ図。3 is a flowchart for describing a process of registering an image of a person's own face in the first embodiment. 第1の実施形態における嗜好分析処理を説明する流れ図。3 is a flowchart illustrating preference analysis processing in the first embodiment. 第1の実施形態におけるカップリング処理を説明する流れ図。3 is a flowchart illustrating coupling processing in the first embodiment. 第1の実施形態における誘導処理を説明する流れ図。3 is a flowchart illustrating guidance processing in the first embodiment. 第1の実施形態における行動指示処理を説明する流れ図。3 is a flowchart illustrating action instruction processing in the first embodiment. 第2の実施形態における嗜好分析処理、体型評価処理、本人体型情報登録処理を説明する流れ図。12 is a flowchart illustrating preference analysis processing, figure evaluation processing, and human body type information registration processing according to a second embodiment.

(第1の実施形態)
以下、図1〜図7を用いて、恋愛対象マッチングシステムの第1の実施形態を説明する。
First Embodiment
Hereinafter, a first embodiment of a love target matching system will be described using FIGS. 1 to 7.

図1に示すように、恋愛対象マッチングシステムとしての恋愛対象マッチングサーバ20には、マッチング対象候補となるユーザが利用するユーザ端末10及び誘導先としての店舗又は施設の従業員が操作できる法人端末30に接続されている。ユーザ端末10としては、ユーザの視点を捕捉し、ユーザが見ている対象を撮影し、記録することが可能な眼鏡型又はコンタクトレンズ型等のウェアラブルコンピュータ端末を用いることができる。ユーザ端末10は、イヤフォン又は骨伝導等を用いて自動音声をユーザに対してアナウンスする機能、ユーザの体温を耳等の接触部から測定する機能、ユーザによる着脱を感知するセンサ機能、日時を測定する機能、GPS等により現在位置の情報を特定する機能、ビーコン等によりユーザ端末同士の接近又は離脱を検知する機能、ユーザの指紋や虹彩等によりユーザ個人を識別する機能等を有する。また、ユーザ端末10は、表示部としての透過レンズ型ディスプレイ及び入力部としての指向性マイクロフォンを備えている。更に、ユーザ端末10は、ユーザによって装着された場合に、ユーザの顔の中心線を軸とした左右を検知するための非対称な模様又は左右で異なる波長若しくは信号の赤外線等を発信する装置を備えている。また、ユーザ端末10は、記憶部を有している。この記憶部には、上記各機能のプログラムと、後述するユーザIDとが記録されている。  As shown in FIG. 1, in the love target matching server 20 as a love target matching system, a user terminal 10 used by a user as a matching target candidate and a corporation terminal 30 which can be operated by a store or facility employee as a guide destination. It is connected to the. As the user terminal 10, a wearable computer terminal such as a glasses type or a contact lens type capable of capturing a viewpoint of a user, photographing an object viewed by the user, and recording can be used. The user terminal 10 has a function of announcing an automatic voice to a user using earphones or bone conduction, a function of measuring a user's body temperature from a contact part such as an ear, a sensor function of detecting attachment / detachment by the user, and a date and time It has a function to specify the information of the current position by GPS etc., a function to detect the approach or departure of the user terminals by beacons etc, a function to identify the user personally by the user's fingerprint or iris. The user terminal 10 also includes a transmission lens type display as a display unit and a directional microphone as an input unit. Furthermore, the user terminal 10 includes an asymmetric pattern for detecting left and right with respect to the center line of the user's face when worn by the user, or an apparatus for transmitting infrared rays of different wavelengths or signals at the left and right. ing. The user terminal 10 also has a storage unit. The storage unit stores programs of the respective functions and a user ID described later.

恋愛対象マッチングサーバ20は、制御部21、ユーザ情報記憶部22、嗜好対象記憶部23、カップリング情報記憶部24、ユーザ所在地情報記憶部25、誘導先情報記憶部26及び行動指示情報記憶部27を備えている。嗜好対象記憶部23及びユーザ所在地情報記憶部25は、利用者個別記憶部として機能する。  The love target matching server 20 includes a control unit 21, a user information storage unit 22, a preference target storage unit 23, a coupling information storage unit 24, a user location information storage unit 25, a guidance destination information storage unit 26 and an action instruction information storage unit 27. Is equipped. The preference target storage unit 23 and the user location information storage unit 25 function as a user individual storage unit.

制御部21は、CPU、RAM、ROM等から構成された制御手段として機能し、後述する処理(本人顔画像登録処理段階、嗜好分析処理段階、カップリング処理段階、誘導処理段階、行動指示処理段階等を含む処理)を行なう。このための恋愛対象マッチングプログラムを実行することにより、制御部21は、本人判定部211、嗜好分析部212、カップリング処理部213、誘導指示部214、行動指示部215として機能する。  The control unit 21 functions as a control unit configured of a CPU, a RAM, a ROM, etc., and performs the processing described later (a personal face image registration process stage, a preference analysis process stage, a coupling process stage, a guidance process stage, an action instruction process stage And so on). By executing the love object matching program for this purpose, the control unit 21 functions as a personal identification unit 211, a preference analysis unit 212, a coupling processing unit 213, a guidance instruction unit 214, and an action instruction unit 215.

本人判定部211は、ユーザ端末10から取得した顔画像情報をユーザ本人であるかを判定する処理を実行する。この本人判定部211は、取得した画像情報に人間の顔が写っているかを判定するための顔認識判定値を記憶している。また、本人判定部211は、ユーザの視線と取得した顔画像の視線とが一致しているかを判定するための視線一致判定値を記憶している。本人判定部211は、取得した顔画像に写っているユーザ端末10の鏡像が正面を向いているかを判定するための正面判定値を記憶している。本人判定部211は、取得した画像に写っている顔画像がユーザ端末10を装着しているか、装着している場合には、その左右が判定しているかを判定するための左右反転判定値を記憶している。また、本人判定部211は、目、鼻、口、耳、頬、眉毛等の各部位の顔全体における座標及び面積占有率を記憶する。  The identity determination unit 211 executes processing to determine whether the face image information acquired from the user terminal 10 is the identity of the user. The personal identification unit 211 stores a face recognition determination value for determining whether a human face is included in the acquired image information. In addition, the personal identification unit 211 stores a gaze matching determination value for determining whether the gaze of the user matches the gaze of the acquired face image. The real person determination unit 211 stores a front determination value for determining whether the mirror image of the user terminal 10 in the acquired face image faces the front. When the user terminal 10 is mounted, or if the face image shown in the acquired image is mounted, the identity determination unit 211 determines the left / right inversion determination value for determining whether the left / right is determined. I remember. In addition, the personal identification unit 211 stores the coordinates and the area occupancy of the entire face of each part such as the eyes, nose, mouth, ears, cheeks, eyebrows and the like.

嗜好分析部212は、ユーザ端末10から取得した画像情報をユーザが注視した連続時間数に応じてユーザの他者に対する容姿に関する嗜好分析処理を実行する。この嗜好分析部212は、複数の顔画像データを比較し、それらが同一人物の顔を示している場合に検知するための同一人物判定値を記憶している。また、嗜好分析部212は、ユーザが嗜好していることを連続注視時間から判定するための連続時間数判定値を記憶している。嗜好分析部212は、人間の顔を構成する各部位の画像情報を判定するための基準値を記憶している。また、嗜好分析部212は、顔全体における各部位の座標及び面積占有率を記録し、複数のパターンが記録された場合には、それらの統計値を算出する処理を実行する。  The preference analysis unit 212 performs a preference analysis process on the appearance of the user according to the number of continuous times at which the user gazes at the image information acquired from the user terminal 10. The preference analysis unit 212 compares a plurality of pieces of face image data, and stores the same person determination value to be detected when they indicate the same person's face. In addition, the preference analysis unit 212 stores a continuous time number determination value for determining from the continuous gaze time that the user prefers. The preference analysis unit 212 stores a reference value for determining image information of each part constituting a human face. In addition, the preference analysis unit 212 records the coordinates and the area occupancy rate of each part in the entire face, and when a plurality of patterns are recorded, executes a process of calculating the statistical values thereof.

カップリング処理部213は、互いの容姿と互いの容姿に関する嗜好が相互に一致又は近似しているユーザの組合せを管理する処理を実行する。このカップリング処理部213は、一方のユーザの本人顔画像情報と他方のユーザの嗜好に一致又は近似するかを判定するための基準値を記憶している。カップリング処理部213は、画像情報についてマッチング処理を実行し、その一致率が所定の基準値を超えた場合に、これらのユーザを組合せとして記録する処理を実行する。  The coupling processing unit 213 executes a process of managing a combination of users whose appearances and preferences regarding the appearances of each other match or approximate each other. The coupling processing unit 213 stores a reference value for determining whether the user's face image information of one user and the preference of the other user match or approximate. The coupling processing unit 213 executes matching processing on image information, and when the matching rate exceeds a predetermined reference value, executes processing of recording these users as a combination.

誘導指示部214は、ユーザに恋愛対象マッチングシステムの利用を気づかせることなくカップリングされた相手ユーザに出会えるよう誘導指示を発信する処理を実行する。この誘導指示部214は、ユーザの所在地の緯度・経度を特定するための地図データを記憶しており、また、ユーザが日常利用する地点又は経路を判定するための滞在頻度及び滞在時間に関する基準値を記憶している。  The guiding instruction unit 214 executes processing for transmitting a guiding instruction so that the user can meet the coupled partner user without noticing the use of the romantic object matching system. The guidance instruction unit 214 stores map data for specifying the latitude and longitude of the location of the user, and a reference value regarding the stay frequency and stay time for determining the point or route that the user uses daily I remember.

行動指示部215は、ユーザに恋愛対象マッチングシステムの利用を気づかせることなくカップリングされた相手ユーザと会話の契機を得られるよう行動指示を発信する処理を実行する。この行動指示部215は、ユーザ端末を介してユーザが向いている方角及び垂直角度をリアルタイムで記録し、相手ユーザの視野範囲と重複があるかを判定するための基準値を記憶している。また、行動指示部215は、ユーザ端末を介してユーザの視点画像をリアルタイムで記録し、色や形状等から一致する対象物があるかどうかを判定するための基準値を記憶している。行動指示部215は、カップリングされた両ユーザが見ている対象物の特徴に適した行動指示を選定するための基準値と行動指示群を記憶している。  The action instructing unit 215 executes a process of transmitting an action instruction so as to obtain a trigger for conversation with the coupled partner user without noticing the use of the love target matching system by the user. The action instructing unit 215 records, in real time, the direction and vertical angle at which the user is facing via the user terminal, and stores a reference value for determining whether there is an overlap with the view range of the other user. Further, the action instructing unit 215 records the viewpoint image of the user in real time via the user terminal, and stores a reference value for determining whether there is a matching object from the color, the shape, and the like. The action instruction unit 215 stores a reference value and an action instruction group for selecting an action instruction suitable for the feature of the object viewed by both coupled users.

法人端末30としては、恋愛対象マッチングサーバ20からカップリングされ、誘導提案を承諾したユーザ情報を受信し、誘導先の店舗又は施設の従業員に対して受信した情報をディスプレイ表示する表示部及び誘導されたユーザを受け入れるか否かフィードバック操作する入力部を有する。また、法人端末30は、記憶部を有している。この記憶部には、誘導提案を承諾したユーザ情報及びその受け入れ可否に関する情報が記録されている。  The corporate terminal 30 is a display unit that receives user information that has been coupled from the romantic object matching server 20 and has accepted the guidance proposal, and displays the received information for the employee of the store or facility that is the guidance destination, and guidance It has an input part which carries out feedback operation whether it accepts an accepted user or not. Further, the corporation terminal 30 has a storage unit. In this storage unit, user information that has accepted the guidance proposal and information regarding its acceptance or rejection are recorded.

図2(a)に示すように、ユーザ情報記憶部22には、ユーザに関するユーザ管理データ220が記憶されている。このユーザ管理データ220は、ユーザがユーザ端末10を装着し、ユーザの指紋や虹彩又はパスワードを認証した場合に記録される。このユーザ管理データ220は、端末ID、ユーザID、認証データ、端末装着日時、端末装着位置、本人顔画像、本人顔画像各部位、本人顔画像各部位座標、本人顔画像各部位面積占有率に関するデータを含んで構成される。  As shown in FIG. 2A, the user information storage unit 22 stores user management data 220 regarding the user. The user management data 220 is recorded when the user wears the user terminal 10 and authenticates the user's fingerprint, iris or password. This user management data 220 relates to terminal ID, user ID, authentication data, terminal mounting date, terminal mounting position, personal face image, personal face image each part, personal face image each part coordinate, personal face image each part area occupancy rate Contains data.

端末IDデータ領域には、ユーザ端末10の固有番号を特定するための識別子(端末ID)に関するデータが記録される。
ユーザIDデータ領域には、各ユーザを特定するための識別子(ユーザID)に関するデータが記録される。
In the terminal ID data area, data relating to an identifier (terminal ID) for specifying the unique number of the user terminal 10 is recorded.
Data on an identifier (user ID) for identifying each user is recorded in the user ID data area.

認証データ領域には、このユーザを認証するためのパスワード、指紋画像又は虹彩画像等の認証情報に関するデータが記録される。  In the authentication data area, data relating to authentication information such as a password for authenticating the user, a fingerprint image or an iris image is recorded.

端末装着日時データには、このユーザがユーザ端末10を装着した年月日及び時刻並びにその履歴に関するデータが記録される。
端末装着位置データには、このユーザがユーザ端末10を装着した時点でユーザが所在する緯度・経度及びその履歴に関するデータが記録される。
In the terminal attachment date and time data, data regarding the date and time when the user attached the user terminal 10 and the history thereof is recorded.
In the terminal mounting position data, data regarding the latitude and longitude where the user is located and the history thereof when the user mounts the user terminal 10 is recorded.

本人顔画像データには、ユーザ端末10によって撮影されたこのユーザの顔画像に関するデータが記録される。
本人顔画像各部位データには、本人顔画像を目、鼻、口、耳、眉、髪型、輪郭等の各部位に分解した画像に関するデータが記録される。
本人顔画像各部位座標データには、本人顔画像全体における本人顔画像各部位の位置を示す座標に関するデータが記録される。
本人顔画像各部位面積占有率データには、本人顔画像全体における本人顔画像各部位の面積が占める比率に関するデータが記録される。
Data on the face image of the user taken by the user terminal 10 is recorded in the person's face image data.
In the individual face image each part data, data relating to an image obtained by decomposing the person's own face image into each part such as eyes, nose, mouth, ears, eyebrows, hair style and outline is recorded.
In the personal-face image each part coordinate data, data relating to coordinates indicating the position of each part of the personal-face image in the entire personal-face image is recorded.
Data on the ratio of the area occupied by each part of the face image in the entire face image is recorded in the individual face area part occupancy ratio data.

図2(b)に示すように、嗜好対象記憶部23には、ユーザが持つ他者の顔に対する嗜好に関する顔嗜好管理データ230、恋愛対象マッチングサーバに本人顔画像データが登録されていない非会員の顔及び体型に関する非会員画像管理データ231並びにユーザが持つ他者の体型に対する嗜好に関する体型嗜好管理データ232が記憶されている。顔嗜好管理データ230は、ユーザがユーザ端末10を介して一人の他者の顔を所定の時間以上視認した場合に記録される。顔嗜好管理データ230は、ユーザID、他ユーザID又は非会員画像ID、顔注視時間数、顔視認回数、顔嗜好得点に関するデータを含んで構成される。  As shown in FIG. 2B, the preference target storage unit 23 includes face preference management data 230 regarding the preference for the face of the other person possessed by the user, and a nonmember whose personal face image data is not registered in the love target matching server. Non-member image management data 231 relating to the face and body shape of the subject, and body shape preference management data 232 relating to the preference of the user for the body shape of another person are stored. The face preference management data 230 is recorded when the user visually recognizes the face of one other person through the user terminal 10 for a predetermined time or more. The face preference management data 230 includes data on a user ID, another user ID or non-membership image ID, the number of face gaze times, the number of face recognition times, and the face preference score.

ユーザIDデータ領域には、ユーザ端末10を装着しているユーザ本人を特定するための識別子(ユーザID)に関するデータが記録される。このユーザIDを介して、顔嗜好管理データ230は、ユーザ管理データ220と関連付けられている。  Data on an identifier (user ID) for identifying the user who is wearing the user terminal 10 is recorded in the user ID data area. The face preference management data 230 is associated with the user management data 220 via the user ID.

他ユーザIDデータ領域には、ユーザ端末10を装着しているユーザ本人以外の各ユーザを特定するための識別子(ユーザID)に関するデータが記録される。この他ユーザIDを介して、顔嗜好管理データ230は、他ユーザのユーザ管理データ220と関連付けられている。
非会員画像IDデータ領域には、後述する非会員画像管理データ231を特定するための識別子に関するデータ記録される。この非会員画像IDを介して、顔嗜好管理データ230は、非会員画像管理データ231と関連付けられている。
Data on an identifier (user ID) for identifying each user other than the user himself / herself wearing the user terminal 10 is recorded in the other user ID data area. The face preference management data 230 is associated with the user management data 220 of another user via the other user ID.
Data regarding an identifier for specifying non-member image management data 231 described later is recorded in the non-member image ID data area. The face preference management data 230 is associated with the non-member image management data 231 via the non-member image ID.

顔注視時間数データ領域には、このユーザがユーザ端末10を介して他者の顔に視点を置いた連続時間数に関するデータが記録される。
顔視認回数データ領域には、このユーザがユーザ端末10を介して他者の顔に視点を置いた回数に関するデータが記録される。
顔嗜好得点データ領域には、顔注視時間数及び顔視認回数の多寡に応じて付与された評価点に関するデータが記録される。
In the face gaze time number data area, data relating to the number of continuous times when the user places a viewpoint on another person's face through the user terminal 10 is recorded.
In the face recognition frequency data area, data relating to the number of times the user places the viewpoint on the face of the other person via the user terminal 10 is recorded.
In the face preference score data area, data related to evaluation points given according to the number of face gaze times and the number of face recognition times is recorded.

非会員画像管理データ231は、非会員顔画像、非会員顔画像各部位、非会員顔画像各部位座標、非会員顔画像各部位面積占有率に関するデータを含んで構成される。この非会員画像管理データ231は、ユーザが視点を置き、ユーザ端末10によって顔画像が撮影及び検出され、恋愛対象マッチングサーバ上に同一人物と判定される顔画像データが登録されている会員が検出されない場合に記録される。  The nonmember image management data 231 includes data on nonmember face images, nonmember face image portions, nonmember face image portion coordinates, and nonmember face image portion area occupancy rates. In this non-member image management data 231, a user places a viewpoint, a face image is photographed and detected by the user terminal 10, and a member whose face image data is determined to be the same person on the love target matching server is detected. If not recorded.

非会員顔画像データ領域には、このユーザが視点を置き、ユーザ端末10によって撮影及び検出された顔画像のうち恋愛対象マッチングサーバ上にユーザとして本人顔画像が登録されていない顔画像に関するデータが記録される。
非会員顔画像各部位データ領域には、非会員顔画像を目、鼻、口、耳、眉、髪型等の各部位に分解した画像に関するデータが記録される。
非会員顔画像各部位座標データ領域には、非会員顔画像全体における非会員顔画像各部位の座標等、位置に関するデータが記録される。
非会員顔画像各部位面積占有率データ領域には、非会員顔画像全体における非会員顔画像各部位の面積が占める比率に関するデータが記録される。
In the non-member face image data area, among the face images taken and detected by the user terminal 10, the user places a viewpoint, and data relating to the face image for which the personal face image is not registered as the user on the love target matching server It is recorded.
Non-member face image In each part data area, data relating to an image obtained by decomposing a non-member face image into parts such as eyes, nose, mouth, ears, eyebrows, and hairstyle is recorded.
In the non-member face image each part coordinate data area, data on the position, such as coordinates of each part of the non-member face image in the entire non-member face image, is recorded.
In the non-member face image part area occupancy rate data area, data relating to the ratio of the area occupied by the non-member face image parts in the entire non-member face image is recorded.

体型嗜好管理データ232は、ユーザID、他ユーザID又は非会員画像ID、体型注視時間数、体型視認回数、体型嗜好得点に関するデータを含んで構成される。  The body shape preference management data 232 is configured to include data relating to a user ID, another user ID or non-member image ID, the number of body gaze times, the number of body shape viewing times, and the body shape preference score.

ユーザIDデータ領域には、ユーザ端末10を装着しているユーザ本人を特定するための識別子(ユーザID)に関するデータが記録される。このユーザIDを介して、顔嗜好管理データ230は、ユーザ管理データ220と関連付けられている。  Data on an identifier (user ID) for identifying the user who is wearing the user terminal 10 is recorded in the user ID data area. The face preference management data 230 is associated with the user management data 220 via the user ID.

他ユーザIDデータ領域には、ユーザ端末10を装着しているユーザ本人以外の各ユーザを特定するための識別子(ユーザID)に関するデータが記録される。この他ユーザIDを介して、顔嗜好管理データ230は、他ユーザのユーザ管理データ220と関連付けられている。
非会員画像IDデータ領域には、後述する非会員画像管理データ231を特定するための識別子に関するデータ記録される。この非会員画像IDを介して、顔嗜好管理データ230は、非会員画像管理データ231と関連付けられている。
Data on an identifier (user ID) for identifying each user other than the user himself / herself wearing the user terminal 10 is recorded in the other user ID data area. The face preference management data 230 is associated with the user management data 220 of another user via the other user ID.
Data regarding an identifier for specifying non-member image management data 231 described later is recorded in the non-member image ID data area. The face preference management data 230 is associated with the non-member image management data 231 via the non-member image ID.

体型注視時間数データ領域には、このユーザがユーザ端末10を介して他者の体型に視点を置いた連続時間数に関するデータが記録される。
体型視認回数データ領域には、このユーザがユーザ端末10を介して他者の体型に視点を置いた回数に関するデータが記録される。
体型嗜好得点データ領域には、体型注視時間数及び体型視認回数の多寡に応じて付与された評価点に関するデータが記録される。
In the figure type gaze time number data area, data concerning the number of continuous times when the user places a viewpoint on the figure of the other person via the user terminal 10 is recorded.
Data regarding the number of times this user has placed a viewpoint on another person's body shape via the user terminal 10 is recorded in the body shape recognition frequency data area.
In the body type preference score data area, data relating to evaluation points given according to the number of body shape gaze times and the number of body shape visual recognition times is recorded.

図2(c)に示すように、カップリング情報記憶部24には、各ユーザ自身の容姿と各ユーザが持つ他者の容姿についての嗜好とが相互に所定の基準以上一致又は近似したユーザ同士の組合せに関するカップリング管理データ240が記録される。このカップリング管理データ240は、ユーザ管理データ220に記録された各ユーザ自身の容姿に関する分析データと顔嗜好管理データ230に記録された各ユーザが持つ他者の容姿についての嗜好に関する分析データについてマッチング処理を実行し、相互に所定の基準以上一致又は近似した場合に記録される。カップリング管理データ230は、ユーザID、他ユーザIDに関するデータを含んで構成される。  As shown in FIG. 2C, in the coupling information storage unit 24, users whose appearances of the users themselves and preferences about the appearances of the other users mutually coincide or approximate with each other by a predetermined reference or more Coupling management data 240 regarding the combination of The coupling management data 240 matches the analysis data on the appearance of each user recorded in the user management data 220 with the analysis data on the taste on the appearance of the other user in each user recorded in the face preference management data 230. A process is performed, and it records, when mutually agree | coincident with or more than a predetermined reference | standard mutually. The coupling management data 230 is configured to include data on a user ID and another user ID.

ユーザIDデータ領域には、各ユーザを特定するための識別子(ユーザID)に関するデータが記録される。このユーザIDを介して、カップリング管理データ240は、ユーザ管理データ220と関連付けられている。
他ユーザIDデータ領域には、このユーザとカップリング処理を実行された他者ユーザを特定するための識別子(他ユーザID)が記録される。
Data on an identifier (user ID) for identifying each user is recorded in the user ID data area. The coupling management data 240 is associated with the user management data 220 via the user ID.
In the other user ID data area, an identifier (other user ID) for specifying the other user who has performed the coupling process with this user is recorded.

図2(d)に示すように、ユーザ所在地情報記憶部25には、ユーザの所在地に関するユーザ所在データ250が記録される。このユーザ所在データ250は、ユーザID、所在日時、所在地、滞在時間、日常経路に関するデータを含んで構成される。  As shown in FIG. 2D, the user location data storage unit 25 records user location data 250 regarding the location of the user. The user location data 250 includes data on user ID, location date and time, location, stay time, and daily route.

ユーザIDデータ領域には、各ユーザを特定するための識別子(ユーザID)に関するデータが記録される。このユーザIDを介して、ユーザ所在データ250は、ユーザ管理データ220と関連付けられている。  Data on an identifier (user ID) for identifying each user is recorded in the user ID data area. The user location data 250 is associated with the user management data 220 via the user ID.

所在日時データ領域には、このユーザの所在地を特定した年月日及び時刻に関するデータが記録される。
所在地データ領域には、このユーザが所在する緯度・経度に関するデータが記録される。
所在頻度データ領域には、このユーザが同じ所在地に滞在した回数に関するデータが記録される。
滞在時間データ領域には、このユーザが同じ所在地に滞在した連続時間数に関するデータが記録される。
In the location date data area, data on the date and time when the location of the user is specified is recorded.
In the location data area, data on the latitude and longitude where this user is located is recorded.
In the location frequency data area, data on the number of times this user has stayed at the same location is recorded.
In the residence time data area, data is recorded regarding the number of continuous hours in which the user has stayed at the same location.

日常地点データ領域には、このユーザが日常的に利用する地点に関するデータが記録される。この日常地点データは、所在日時データ、所在地データ、所在頻度データ、滞在時間データから算出される。
日常経路データ領域には、このユーザが日常的に利用する経路に関するデータが記録される。この日常経路データは、所在日時データ、所在地データ、所在頻度データ、滞在時間データから算出される。
In the daily spot data area, data relating to the spot that the user uses regularly is recorded. The daily spot data is calculated from location date data, location data, location frequency data, and stay time data.
In the daily route data area, data relating to the daily route used by the user is recorded. The daily route data is calculated from location date data, location data, location frequency data, and stay time data.

図2(e)に示すように、誘導先情報記憶部26には、カップリングされたユーザを引き合わせるための誘導先となる店舗又は施設に関する誘導先管理データ260、誘導先評価データ261及び誘導指示データ262が記録される。誘導先管理データ260は、誘導先ID、名称、住所、カテゴリ、詳細説明に関するデータを含んで構成される。  As shown in FIG. 2 (e), the guidance destination information storage unit 26 includes guidance destination management data 260, guidance destination evaluation data 261, and guidance regarding a store or facility to be a guidance destination for bringing together the coupled users. Instruction data 262 is recorded. The guide destination management data 260 is configured to include data on a guide destination ID, a name, an address, a category, and a detailed description.

誘導先IDデータ領域には、各誘導先を特定するための識別子(誘導先ID)に関するデータが記録される。  In the guidance destination ID data area, data related to an identifier (a guidance destination ID) for specifying each guidance destination is recorded.

名称データ領域、住所データ領域には、それぞれ、誘導先となる店舗又は施設の名称及び住所に関するデータが記録される。  In the name data area and the address data area, data relating to the name and address of the store or facility to which the user is directed is recorded.

カテゴリデータ領域には、誘導先となる店舗又は施設の業種や種別に関するデータが記録される。
詳細説明データ領域には、誘導先となる店舗又は施設が提供するサービス内容や食事のメニュー等の詳細に関するデータが記録される。
In the category data area, data on the type and type of shop or facility to which the user is directed is recorded.
In the detailed explanation data area, data relating to details such as service contents provided by a store or facility to which the user is directed and a menu of meals is recorded.

誘導先評価データ261は、ユーザ及びカップリングされた他ユーザのユーザ所在データ250が記録された場合に記録される。誘導先評価データ261は、誘導先ID、ユーザID、他ユーザID、日常経路一致率、重複地点フラグ、平均所要時間、平均所在頻度、平均滞在時間、重複カテゴリフラグ、カテゴリ平均所在頻度、カテゴリ平均所在時間、誘導先得点に関するデータを含んで構成される。  The guidance destination evaluation data 261 is recorded when the user location data 250 of the user and the coupled other user are recorded. The guidance destination evaluation data 261 includes a guidance destination ID, a user ID, another user ID, a daily route matching rate, an overlapping point flag, an average required time, an average location frequency, an average stay time, an overlapping category flag, a category average location frequency, and a category average. It includes data on location time and destination points.

誘導先IDデータ領域には、各誘導先を特定するための識別子(誘導先ID)に関するデータが記録される。この誘導先IDを介して、誘導先評価データ261は、誘導先管理データ260と関連付けられている。
ユーザIDデータ領域には、各ユーザを特定するための識別子(ユーザID)に関するデータが記録される。このユーザIDを介して、誘導先評価データ261は、ユーザ管理データ220と関連付けられている。
他ユーザIDデータ領域には、ユーザとカップリング処理を実行された他ユーザを特定するための識別子(他ユーザID)が記録される。
In the guidance destination ID data area, data related to an identifier (a guidance destination ID) for specifying each guidance destination is recorded. The guidance destination evaluation data 261 is associated with the guidance destination management data 260 via the guidance destination ID.
Data on an identifier (user ID) for identifying each user is recorded in the user ID data area. The guidance destination evaluation data 261 is associated with the user management data 220 via the user ID.
In the other user ID data area, an identifier (other user ID) for identifying the other user who has performed the coupling process with the user is recorded.

重複地点フラグデータ領域には、カップリングされた両ユーザそれぞれの日常地点又は日常経路が重複している地点を示すフラグに関するデータが記録される。
平均所要時間データ領域には、カップリングされた両ユーザの現在地から重複地点フラグ又は重複カテゴリフラグが付与された地点までの移動にかかる所要時間の平均値に関するデータが記録される。この平均所要時間データは、重複地点フラグ又は重複カテゴリフラグが記録された場合に記録される。
平均所在頻度データ領域には、カップリングされた両ユーザがそれぞれ過去に重複地点フラグが付与された地点に所在した回数の平均値に関するデータが記録される。この平均所在頻度データは、重複地点フラグが記録された場合に記録される。
平均滞在時間データ領域には、カップリングされた両ユーザが過去に重複地点フラグが付与された地点に滞在した連続時間数の平均値に関するデータが記録される。この平均滞在時間データは、重複地点フラグが記録された場合に記録される。
In the overlapping point flag data area, data relating to a flag indicating a daily point or a point at which a daily route overlaps with each of the coupled users is recorded.
In the average required time data area, data relating to the average value of the required time for moving from the current location of both coupled users to the point where the overlapping point flag or the overlapping category flag is given is recorded. The average required time data is recorded when the overlapping point flag or the overlapping category flag is recorded.
In the average location frequency data area, data relating to the average value of the number of times both coupled users are located at points where duplication point flags have been assigned in the past is recorded. This average location frequency data is recorded when the overlap point flag is recorded.
In the average stay time data area, data is recorded regarding the average value of the number of continuous times in which both coupled users have stayed at a point where the overlap point flag is given in the past. The average stay time data is recorded when the overlap point flag is recorded.

重複カテゴリフラグデータ領域には、カップリングされた両ユーザそれぞれの日常地点に関連付けられているカテゴリが重複している地点を示すフラグに関するデータが記録される。
カテゴリ平均所在頻度データ領域には、カップリングされた両ユーザがそれぞれ過去に重複カテゴリフラグが付与された地点に所在した回数の平均値に関するデータが記録される。このカテゴリ平均所在頻度データは、重複カテゴリフラグデータが記録された場合に記録される。
カテゴリ平均所在時間データ領域には、カップリングされた両ユーザがそれぞれ過去に重複カテゴリフラグが付与された地点に所在した連続時間数の平均値に関するデータが記録される。このカテゴリ平均所在時間データは、重複カテゴリフラグデータが記録された場合に記録される。
誘導先得点データ領域には、カップリングされた両ユーザの誘導しやすさを点数化したデータが記録される。この誘導先得点データは、重複地点フラグ又は重複カテゴリフラグが付与された場合に記録される。
In the overlapping category flag data area, data relating to a flag indicating a point at which a category associated with each of the coupled daily points of the two users is overlapping is recorded.
In the category average location frequency data area, data relating to the average value of the number of times both coupled users are located at points where duplicate category flags have been assigned in the past is recorded. This category average location frequency data is recorded when duplicate category flag data is recorded.
In the category average location time data area, data relating to the average value of the number of continuous times at which both coupled users are located at points where duplicate category flags have been assigned in the past is recorded. This category average location time data is recorded when duplicate category flag data is recorded.
In the guidance destination score data area, data in which the ease of guidance of both coupled users is scored is recorded. The guidance destination score data is recorded when the overlapping point flag or the overlapping category flag is given.

誘導指示データ262は、カップリングされた両ユーザに対して誘導指示を送信する処理を実行する場合に記録される。誘導指示データ262は、誘導先ID、ユーザID、誘導指示内容、誘導指示承諾フラグに関するデータを含んで構成される。  The guidance instruction data 262 is recorded when the process of transmitting the guidance instruction to both coupled users is performed. The guidance instruction data 262 includes data on a guidance destination ID, a user ID, guidance instruction contents, and a guidance instruction acceptance flag.

誘導先IDデータ領域には、各誘導先を特定するための識別子(誘導先ID)に関するデータが記録される。この誘導先IDを介して、誘導先評価データ262は、誘導先管理データ260と関連付けられている。
ユーザIDデータ領域には、各ユーザを特定するための識別子(ユーザID)に関するデータが記録される。このユーザIDを介して、誘導先評価データ262は、ユーザ管理データ220と関連付けられている。
In the guidance destination ID data area, data related to an identifier (a guidance destination ID) for specifying each guidance destination is recorded. The guidance destination evaluation data 262 is associated with the guidance destination management data 260 via the guidance destination ID.
Data on an identifier (user ID) for identifying each user is recorded in the user ID data area. The guidance destination evaluation data 262 is associated with the user management data 220 via the user ID.

誘導指示内容データ領域には、実際にユーザに通知される誘導指示メッセージテキストに関するデータが記録される。
誘導指示承諾フラグデータ領域には、誘導指示に対するユーザの承諾を示すフラグに関するデータが記録される。この誘導指示承諾フラグデータは、ユーザがユーザ端末10を介して誘導指示を承諾する意思を示した場合に記録される。
In the guidance instruction content data area, data on the guidance instruction message text actually notified to the user is recorded.
In the guidance instruction consent flag data area, data regarding a flag indicating acceptance of the user for the guidance instruction is recorded. The guidance instruction acceptance flag data is recorded when the user indicates the intention to accept the guidance instruction via the user terminal 10.

図2(f)に示すように、行動指示情報記憶部27には、同一誘導先に引き合わせたユーザ間で会話の契機となる行動指示に関する行動指示データ270が記録される。行動指示データ270は、行動指示ID、ユーザID、他ユーザID、誘導先ID、ビーコン接近フラグ、視点画像一致フラグ、行動指示内容、行動指示承諾フラグ、成功フラグ、行動指示承諾率、成功率、行動指示得点に関するデータを含んで構成される。  As shown in FIG. 2 (f), the action instruction information storage unit 27 records action instruction data 270 related to an action instruction that triggers a conversation between users who have gathered at the same guidance destination. The action instruction data 270 includes action instruction ID, user ID, other user ID, guidance destination ID, beacon approach flag, viewpoint image match flag, action instruction content, action instruction acceptance flag, success flag, action instruction acceptance rate, success rate, It comprises data on action instruction scores.

行動指示IDデータ領域には、各行動指示を特定するための識別子(行動指示ID)に関するデータが記録される。
ユーザIDデータ領域には、各ユーザを特定するための識別子(ユーザID)に関するデータが記録される。このユーザIDを介して、行動指示データ270は、ユーザ管理データ220と関連付けられている。
他ユーザIDデータ領域には、このユーザとカップリング処理を実行された他ユーザを特定するための識別子(他ユーザID)が記録される。この他ユーザIDを介して、行動指示データ270は、他ユーザのユーザ管理データ220と関連付けられている。
誘導先IDデータ領域には、各誘導先を特定するための識別子(誘導先ID)に関するデータが記録される。この誘導先IDを介して、行動指示データ270は、誘導先管理データ260と関連付けられている。
Data on an identifier (action instruction ID) for specifying each action instruction is recorded in the action instruction ID data area.
Data on an identifier (user ID) for identifying each user is recorded in the user ID data area. The action instruction data 270 is associated with the user management data 220 via the user ID.
In the other user ID data area, an identifier (other user ID) for specifying the other user who has performed the coupling process with this user is recorded. The action instruction data 270 is associated with the user management data 220 of another user via the other user ID.
In the guidance destination ID data area, data related to an identifier (a guidance destination ID) for specifying each guidance destination is recorded. The action instruction data 270 is associated with the guidance destination management data 260 via the guidance destination ID.

ビーコン接近フラグデータ領域には、カップリングされた両ユーザが互いに接近したことを示すフラグに関するデータが記録される。このビーコン接近フラグデータは、カップリングされた両ユーザのユーザ端末10に備えられたビーコンが発信する一意の信号を互いに検知し合った場合に記録される。
視点画像一致フラグデータ領域には、カップリングされた両ユーザのうち一方が他方の本人顔画像を視認したことを示すフラグに関するデータが記録される。この視点画像一致フラグデータは、いずれか一方のユーザ又は両方のユーザ端末10を介して、視点が置かれ、顔認識された顔画像相手の本人顔画像と同一人物と判定された場合に記録される。
行動指示内容データ領域には、実際にユーザに通知される行動指示メッセージテキストに関するデータが記録される。
In the beacon approach flag data area, data on a flag indicating that both coupled users approach each other is recorded. The beacon approach flag data is recorded when the beacons of the user terminals 10 of both coupled users transmit unique signals detected by each other.
Data relating to a flag indicating that one of the coupled users has visually recognized the other's face image is recorded in the viewpoint image matching flag data area. The viewpoint image matching flag data is recorded when the viewpoint is set via any one user or both user terminals 10, and it is determined that the face image is identified as the same person image as the face image of the other person. Ru.
In the action instruction content data area, data on action instruction message text actually notified to the user is recorded.

行動指示承諾フラグデータ領域には、行動指示に対するユーザの承諾を示すフラグに関するデータが記録される。この行動指示承諾フラグデータは、ユーザがユーザ端末10を介して行動指示を承諾する意思を示した場合に記録される。
成功フラグデータ領域には、カップリングされた両ユーザがカップルとして成立したことを示すフラグに関するデータが記録される。この成功フラグデータは、両ユーザのユーザ所在データ250が誘導先として選定された地点の位置情報から離脱し、ビーコン接近フラグデータが所定の時間又は所定の頻度において維持された場合に記録される。
行動指示承諾率データ領域には、ユーザが行動指示を承諾する確率に関するデータが記録される。この行動指示承諾率データは、ユーザに対して行動指示を発信し、ユーザが承諾又は拒否する毎に再計算され、記録される。
成功率データ領域には、カップリングされた両ユーザがその行動指示によってカップル成立まで至る確率に関するデータが記録される。この成功率データは、成功フラグデータが記録される毎に再計算され、記録される。
行動指示得点データ領域には、行動指示のユーザに承諾されやすさと、その行動指示によってカップルが成立する確率を総合して点数化したデータが記録される。この行動指示得点データは、行動指示承諾率データと成功率データを総合することにより計算され、記録される。
In the action instruction acceptance flag data area, data relating to a flag indicating acceptance of the user for the action instruction is recorded. The action instruction acceptance flag data is recorded when the user indicates an intention to accept the action instruction via the user terminal 10.
In the success flag data area, data related to a flag indicating that both coupled users are established as a couple is recorded. The success flag data is recorded when the user location data 250 of both users deviates from the position information of the point selected as the guide destination, and the beacon approach flag data is maintained at a predetermined time or a predetermined frequency.
Data on the probability of the user accepting the action instruction is recorded in the action instruction acceptance rate data area. The action instruction acceptance rate data transmits an action instruction to the user, and is recalculated and recorded each time the user accepts or rejects.
In the success rate data area, data relating to the probability that both coupled users reach the formation of a couple by their action instructions is recorded. The success rate data is recalculated and recorded each time the success flag data is recorded.
In the action instruction score data area, data obtained by integrating and scoring the ease with which the user of the action instruction is accepted and the probability of a couple being established by the action instruction is recorded. The action instruction score data is calculated and recorded by integrating the action instruction acceptance rate data and the success rate data.

次に、図3〜図7を用いて、上記のように構成された恋愛対象マッチングサーバ20における各種処理について説明する。ここでは、まず、図3を用いて、本人顔画像登録処理について説明する。  Next, various processes in the love target matching server 20 configured as described above will be described using FIGS. 3 to 7. Here, first, with reference to FIG. 3, the personal-face image registration processing will be described.

(本人顔画像登録処理)
まず、眼鏡型又はコンタクトレンズ型のウェアラブル端末であるユーザ端末10は、ユーザによって装着されると、センサ機能によってそれを検知し、スリープモードから自動的にアクティブモードへと移行し、予め認証された指紋画像又は虹彩画像等の認証データによってユーザ端末10を利用するための認証処理を実行し、認証が完了した場合には、ユーザの視点を捕捉しながら、その視点の先にある対象物や光景を画像として記録する。
(Person's face image registration process)
First, when worn by a user, the user terminal 10, which is a glasses-type or contact lens-type wearable terminal, detects it by the sensor function, shifts from the sleep mode to the active mode automatically, and is previously authenticated. An authentication process for using the user terminal 10 is executed by authentication data such as a fingerprint image or an iris image, and when the authentication is completed, an object or a scene beyond the viewpoint while capturing the user's viewpoint Is recorded as an image.

次に、図3に示すように、恋愛対象マッチングサーバ20の制御部21は、ユーザ端末10から記録された画像を取得し、その画像に人物の顔が映っている場合には顔認識処理を実行する(ステップS1ー1)。具体的には、制御部21の本人判定部211は、ユーザ端末10から受信した画像を予め記憶している顔認識判定値と比較し、基準を満たしている場合には、その画像に顔認識済フラグを登録する。  Next, as shown in FIG. 3, the control unit 21 of the love target matching server 20 acquires an image recorded from the user terminal 10, and performs face recognition processing when the face of a person appears in the image. Execute (step S1-1). Specifically, the personal identification unit 211 of the control unit 21 compares the image received from the user terminal 10 with the face recognition determination value stored in advance, and if the reference is satisfied, the face recognition is performed on the image Register the done flag.

次に、恋愛対象マッチングサーバ20の制御部21は、顔認識済の画像とユーザの視線が一致しているか否かの判定処理を実行する(ステップS1ー2)。具体的には、制御部21の本人判定部211は、ユーザ端末10から取得し、顔認識された顔画像の視線と、ユーザ端末10によって捕捉したユーザ自身の視線が一致しているかを比較する。比較した結果が予め記憶している視線一致判定値を超えなかった場合(ステップS1ー2において「NO」の場合)、制御部21は、本人顔画像登録処理を終了する。  Next, the control unit 21 of the love target matching server 20 executes a process of determining whether the face-recognized image matches the line of sight of the user (step S1-2). Specifically, the identity determination unit 211 of the control unit 21 compares the line of sight of the face image recognized from the user terminal 10 with the line of sight of the face recognized with the line of sight of the user captured by the user terminal 10 . If the comparison result does not exceed the line-of-sight coincidence determination value stored in advance (in the case of “NO” in step S1-2), the control unit 21 ends the personal face image registration process.

一方、比較した結果が予め記憶している視線一致判定値を超えた場合(ステップS1ー2において「YES」の場合)、恋愛対象マッチングサーバ20の制御部21は、顔認識済の画像が正面を向いているか否かの判定処理を実行する(ステップS1ー3)。具体的には、制御部21の本人判定部211は、顔画像の左右の対称性が所定の基準を超えているか否かを、左右の目及び耳の大きさ、配置及びバランス、鼻及び口が向いている角度並びに顔の中心線から左右の輪郭までの距離等を、正面を向いている顔画像と正面を向いていない顔画像を予め多量にインプットすることによって算出された正面判定値と比較する。比較した結果が所定基準を超えなかった場合(ステップS1ー3において「NO」の場合)、制御部21は、本人顔画像登録処理を終了する。  On the other hand, when the comparison result exceeds the visual line coincidence determination value stored in advance (in the case of “YES” in step S1-2), the control unit 21 of the love target matching server 20 detects that the face-recognized image is front A determination process is performed to determine whether the user is facing (step S1-3). Specifically, the personal identification unit 211 of the control unit 21 determines whether the left and right symmetry of the face image exceeds a predetermined reference, the size, the arrangement and balance of the left and right eyes and ears, the nose and the mouth. And the distance from the center line of the face to the left and right contours, etc., with the front judgment value calculated by inputting a large amount of face images facing the front and face images not facing the front in advance Compare. If the comparison result does not exceed the predetermined reference (in the case of “NO” in step S1-3), the control unit 21 ends the personal face image registration process.

一方、比較した結果が所定基準を超えた場合(ステップS1ー3において「YES」の場合)、恋愛対象マッチングサーバ20の制御部21は、顔画像に写っているユーザ端末10がユーザの顔の中心線を軸として左右が反転しているか否かの判定処理を実行する(ステップS1ー4)。具体的には、制御部21の本人判定部211は、顔画像にユーザ端末10があるか否かの判定処理を実行し、ある場合には、ユーザ端末10に備えられた、ユーザの顔の中心線を軸とした左右を検知するための非対称な模様があるか否かの判定処理を実行し、ある場合には、それらの模様が左右で反転しているか否かの判定処理を実行する。なお、左右を検知するためには左右で異なる波長又は信号の赤外線等で判定してもよい。左右で反転している場合(ステップS1ー4において「YES」の場合)、制御部21は、本人顔画像登録処理を終了する。  On the other hand, when the comparison result exceeds the predetermined reference (in the case of “YES” in step S1-3), the control unit 21 of the love target matching server 20 determines that the user terminal 10 shown in the face image is the user's face A determination process is performed to determine whether the left and right sides are inverted with respect to the center line (step S1-4). Specifically, the person determining unit 211 of the control unit 21 executes a process of determining whether or not the user terminal 10 is present in the face image, and in the case where there is a user's face included in the user terminal 10 Execute determination processing whether there is an asymmetric pattern for detecting left and right with the center line as an axis, and if there is, execute determination processing whether or not those patterns are reversed in the left and right . In addition, in order to detect right and left, it may be determined by infrared rays of different wavelengths or signals at right and left. If it is reversed in the left and right (in the case of "YES" in step S1-4), the control unit 21 ends the personal face image registration process.

一方、左右で反転していない場合(ステップS1ー4において「NO」の場合)、恋愛対象マッチングサーバ20の制御部21は、顔画像を本人顔画像として登録する処理を実行する(ステップS1ー5)。具体的には、制御部21の本人判定部211は、顔画像にユーザIDを付与する。次に、顔画像を本人顔画像データとしてユーザ情報記憶部22のユーザ管理データ220に記録する。  On the other hand, when it is not reversed on the left and right (in the case of "NO" in step S1-4), the control unit 21 of the love target matching server 20 executes a process of registering the face image as the personal face image (step S1- 5). Specifically, the identity determination unit 211 of the control unit 21 assigns a user ID to the face image. Next, the face image is recorded as user's own face image data in the user management data 220 of the user information storage unit 22.

次に、恋愛対象マッチングサーバ20の制御部21は、本人顔画像データから本人顔画像各部位データを抽出する処理を実行する(ステップS1ー6)。具体的には、本人顔画像データに写っているユーザの目、鼻、口、耳、眉、髪型、輪郭等の各部位に分解する。次に、ユーザ情報記憶部22のユーザ管理データ220から本人顔画像データに関連付けられたユーザIDを抽出し、抽出された本人顔画像各部位データに付与し、ユーザ情報記憶部22のユーザ管理データ220に記録する。  Next, the control unit 21 of the love target matching server 20 executes a process of extracting individual face image part data from the personal face image data (step S1-6). Specifically, the user's eyes, nose, mouth, ears, eyebrows, hairstyle, outline, etc., which are shown in the face image data of the user, are disassembled. Next, the user ID associated with the personal-face image data is extracted from the user management data 220 of the user-information storage unit 22 and added to the extracted personal-face image part data, and the user management data of the user-information storage unit 22 Record at 220.

次に、恋愛対象マッチングサーバ20の制御部21は、本人顔画像各部位データから本人顔画像各部位位置データ及び本人顔画像各部位面積占有率データを算出する処理を実行する(ステップS1ー7)。具体的には、本人顔画像全体における本人顔画像各部位データの位置を示す座標等を算出し、同時に、本人顔画像全体における本人顔画像各部位の面積が占める比率を算出する。次に、ユーザ情報記憶部22のユーザ管理データ220から本人顔画像データに関連付けられたユーザIDを抽出し、算出された本人顔画像各部位位置データ及び本人顔画像各部位面積占有率データに付与し、ユーザ情報記憶部22のユーザ管理データ220に記録する。  Next, the control unit 21 of the love target matching server 20 executes a process of calculating the individual face image individual part position data and the individual face image individual part area occupancy rate data from the individual face image individual part data (step S1-7) ). Specifically, coordinates and the like indicating the positions of individual face image portion data in the entire personal face image are calculated, and at the same time, the ratio of the area occupied by the individual face image portions in the entire personal face image is calculated. Next, the user ID associated with the in-person face image data is extracted from the user management data 220 of the user information storage unit 22 and added to the calculated in-person face image part position data and in-person face image part area occupancy rate data And the user management data 220 of the user information storage unit 22 is recorded.

(嗜好分析処理)
次に、図4を用いて、嗜好分析処理の処理手順について説明する。
(Preference analysis process)
Next, a processing procedure of preference analysis processing will be described using FIG.

まず、図4に示すように、恋愛対象マッチングサーバ20の制御部21は、ステップS1ー1と同様に、ユーザ端末10から顔認識された人物の顔画像を取得する処理を実行する(ステップS2ー1)。  First, as shown in FIG. 4, the control unit 21 of the love target matching server 20 executes a process of acquiring a face image of a person whose face is recognized from the user terminal 10 as in step S1-1 (step S2). -1).

次に、恋愛対象マッチングサーバ20の制御部21は、ユーザが顔認識された顔画像を注視する連続時間及び回数を取得する処理を実行する(ステップS2ー2)。具体的には、制御部21の嗜好分析部212は、ユーザ端末10からユーザの視点が顔画像に置かれているかを判定し、置かれている連続時間数及び置かれた回数を計測し、顔注視時間数データ及び顔視認回数データとして記録する。  Next, the control unit 21 of the love target matching server 20 executes processing for acquiring the continuous time and the number of times for which the user gazes at the face image whose face is recognized (step S2-2). Specifically, the preference analysis unit 212 of the control unit 21 determines from the user terminal 10 whether the viewpoint of the user is placed in the face image, and measures the number of continuous times placed and the number of times placed. It records as face gaze time number data and face visual recognition frequency data.

次に、恋愛対象マッチングサーバ20の制御部21は、顔画像データに顔嗜好得点を付与する処理を実行する(ステップS2ー3)。具体的には、制御部21の嗜好分析部212は、ユーザが顔画像を注視する連続時間数と回数に関するデータが大きければ大きいほど、顔画像データに対して高い得点を顔嗜好得点データとして付与し、嗜好対象記憶部23の顔嗜好管理データ230に記録する。なお、注視時間数と回数の多寡だけでなく、ユーザが顔画像を注視する際の視点の動かし方や一回の注視時間等の特定のパターンに対して、より高得点を付与するようにしてもよい。  Next, the control unit 21 of the love target matching server 20 executes a process of giving a face preference score to the face image data (step S2-3). Specifically, the preference analysis unit 212 of the control unit 21 assigns a higher score to the face image data as face preference score data as the data on the number of continuous times and the number of times the user looks at the face image is larger. And the face preference management data 230 of the preference object storage unit 23. In addition to the number of fixation times and the number of times, a higher score is given to a specific pattern such as how to move the viewpoint when the user gazes at a face image or one fixation time. It is also good.

次に、恋愛対象マッチングサーバ20の制御部21は、顔画像データに付与された顔嗜好得点が所定基準を超えているか否かの判定処理を実行する(ステップS2ー4)。具体的には、制御部21の嗜好分析部212は、嗜好対象記憶部23の顔嗜好管理データ230に記録された顔嗜好得点データを所定基準(例えば、全嗜好管理データに記録された顔嗜好得点データの平均値)と比較する。そして、顔嗜好得点データが所定基準を超えなかった場合(ステップS2ー4において「NO」の場合)、制御部21は、嗜好分析処理を終了する。  Next, the control unit 21 of the love target matching server 20 executes a process of determining whether the face preference score given to the face image data exceeds a predetermined standard (step S2-4). Specifically, the preference analysis unit 212 of the control unit 21 uses the face preference score data recorded in the face preference management data 230 of the preference target storage unit 23 as a predetermined criterion (for example, the face preference recorded in all preference management data) Compare with the average score data). Then, when the face preference score data does not exceed the predetermined standard (in the case of “NO” in step S2-4), the control unit 21 ends the preference analysis process.

一方、顔嗜好得点データが所定基準を超えた場合(ステップS2ー4において「YES」の場合)、恋愛対象マッチングサーバ20の制御部21は、顔画像とユーザの本人顔画像が同一人物か否かの判定処理を実行する(ステップS2ー5)。具体的には、制御部21の嗜好分析部212は、顔嗜好得点が付与された顔画像データと、本人顔画像登録処理によってユーザ情報記憶部22のユーザ管理データ220にユーザ本人のユーザIDに関連付けて記録された本人顔画像データとのマッチング処理を実行する。そして、同一人物と判定した場合(ステップS2ー5において「YES」の場合)、制御部21は、嗜好分析処理を終了する。  On the other hand, when the face preference score data exceeds the predetermined reference (in the case of “YES” in step S2-4), the control unit 21 of the love target matching server 20 determines whether the face image and the person's own face image are the same person The determination process is executed (step S2-5). Specifically, the preference analysis unit 212 of the control unit 21 sets the face image data to which the face preference score is given, and the user management data 220 of the user information storage unit 22 to the user ID of the user himself by the personal face image registration process. A matching process with the personal face image data recorded in association with each other is executed. Then, when it is determined that the person is the same (in the case of “YES” in step S2-5), the control unit 21 ends the preference analysis process.

一方、ユーザ本人と同一人物であると判定されなかった場合(ステップS2ー5において「NO」の場合)、恋愛対象マッチングサーバ20の制御部21は、顔嗜好得点が付与された顔画像データと他ユーザの本人顔画像が同一人物か否かの判定処理を実行する(ステップS2ー6)。具体的には、制御部21の嗜好分析部212は、顔嗜好得点が付与された顔画像データと、本人顔画像登録処理によってユーザ情報記憶部22のユーザ管理データ220に他ユーザのユーザIDに関連付けて記録された本人顔画像データとのマッチング処理を実行する。そして、同一人物と判定した場合(ステップS2ー6において「YES」の場合)、制御部21の嗜好分析部212は、他ユーザに関連付けて記録された本人顔画像分析データを取得する処理を実行する(ステップS2ー7)。具体的には、制御部21の嗜好分析部212は、同一人物と判定した顔画像に関連付けてユーザ情報記憶部22のユーザ管理データ220に記録されたユーザIDを抽出し、そのユーザIDに関連付けて記録された本人顔画像各部位、本人顔画像各部位位置及び本人顔画像各部位面積占有率を取得する。  On the other hand, when it is not determined that the user is the same person as the user (in the case of "NO" in step S2-5), the control unit 21 of the love target matching server 20 determines the face image data to which the face preference score is given. A determination process is performed to determine whether the face image of another user is the same person (step S2-6). Specifically, the preference analysis unit 212 of the control unit 21 sets the face image data to which the face preference score is given and the user management data 220 of the user information storage unit 22 to the user ID of another user by the personal face image registration process. A matching process with the personal face image data recorded in association with each other is executed. Then, when it is determined that the person is the same person (in the case of "YES" in step S2-6), the preference analysis unit 212 of the control unit 21 executes a process of acquiring personal face image analysis data recorded in association with other users. (Step S2-7). Specifically, the preference analysis unit 212 of the control unit 21 extracts the user ID recorded in the user management data 220 of the user information storage unit 22 in association with the face image determined to be the same person, and associates it with the user ID The individual face image parts, individual face image individual part positions, and personal face image individual part area occupancy rates recorded are obtained.

一方、他ユーザと同一人物であると判定しなかった場合(ステップS2ー6において「NO」の場合)、恋愛対象マッチングサーバ20の制御部21は、顔嗜好得点が付与された顔画像データが既に非会員顔画像データとして登録されているか否かの判定処理を実行する(ステップS2ー8)。具体的には、制御部21の嗜好分析部212は、嗜好対象記憶部23の非会員画像管理データ231に記録されている非会員顔画像データと、顔嗜好得点が付与された顔画像データとのマッチング処理を実行する。そして、既に非会員顔画像データとして登録されていると判定した場合(ステップS2ー8において「YES」の場合)、制御部21の嗜好分析部212は、顔嗜好得点が付与された顔画像データを登録済みの非会員画像IDに関連付けて記録する処理を実行する(ステップS2ー9)。具体的には、嗜好対象記憶部23の非会員画像管理データ231から、顔嗜好得点が付与された顔画像と同一人物であると判定した非会員顔画像データに関連付けて記録された非会員画像IDを抽出し、顔嗜好得点が付与された顔画像データと関連付けて非会員画像管理データ231に記録する。  On the other hand, when it is not determined that the user is the same person as another user (in the case of “NO” in step S2-6), the control unit 21 of the love target matching server 20 has face image data to which a face preference score is assigned. A determination process of whether or not it is already registered as non-member face image data is executed (step S2-8). Specifically, the preference analysis unit 212 of the control unit 21 includes non-member face image data recorded in the non-member image management data 231 of the preference target storage unit 23 and face image data to which a face preference score is given. Execute matching process of When it is determined that the face image data has already been registered as non-member face image data (in the case of “YES” in step S2-8), the preference analysis unit 212 of the control unit 21 receives face image data to which a face preference score is assigned. Is executed in association with the registered non-member image ID (step S2-9). Specifically, a non-member image recorded from the non-member image management data 231 of the preference target storage unit 23 in association with non-member face image data determined to be the same person as the face image to which the face preference score is given. The ID is extracted, and is recorded in the non-member image management data 231 in association with the face image data to which the face preference score is assigned.

次に、恋愛対象マッチングサーバ20の制御部21は、顔嗜好得点が付与された画像から非会員顔画像各部位データを抽出する処理を実行する(ステップS2ー10)。具体的には、制御部21の嗜好分析部212は、非会員顔画像データに写っている目、鼻、口、耳、眉、髪型、輪郭等の各部位に分解する。  Next, the control unit 21 of the love target matching server 20 executes a process of extracting each nonmember face image part data from the image to which the face preference score is given (step S2-10). Specifically, the preference analysis unit 212 of the control unit 21 decomposes the non-member face image data into parts such as eyes, nose, mouth, ears, eyebrows, hairstyle, and outline.

次に、恋愛対象マッチングサーバ20の制御部21は、分解した各部位データから顔画像各部位座標及び顔画像各部位面積占有率を算出し、既存の非会員顔画像各部位座標データ及び非会員顔画像各部位面積占有率データに加算する処理を実行する(ステップS2ー11)。具体的には、非会員顔画像データ全体に座標を付与し、分解した各部位データの位置を示す座標を特定し、同時に、非会員顔画像データ全体における各部位データの面積が占める比率を算出する。次に、嗜好対象記憶部23の非会員画像管理データ231から非会員顔画像データに関連付けられた非会員画像IDを抽出し、既存の非会員顔画像各部位座標データ及び非会員顔画像各部位面積占有率データに加算して統計処理を実行する(例えば平均値を算出する等)。そして、統計処理後に算出された非会員顔画像各部位座標データ及び非会員顔画像各部位面積占有率データを、嗜好対象記憶部23の非会員画像管理データ231に記録する。  Next, the control unit 21 of the love target matching server 20 calculates face image site coordinates and face image site area occupancy rates from the resolved site data, and non-member face image site coordinate data and non-member A process of adding to the face image part area occupancy rate data is executed (step S2-11). Specifically, coordinates are added to the entire nonmember face image data, and coordinates indicating the position of each part data divided are specified, and at the same time, the ratio of the area occupied by each part data in the entire nonmember face image data is calculated Do. Next, the non-member image ID associated with the non-member face image data is extracted from the non-member image management data 231 of the preference object storage unit 23, and the existing non-member face image part coordinate data and the non member face image parts Statistical processing is performed by adding to the area occupancy rate data (for example, calculating an average value). Then, the non-member face image each part coordinate data and the non-member face image each part area occupancy rate data calculated after the statistical processing are recorded in the non-member image management data 231 of the preference object storage unit 23.

一方、非会員画像データとして登録されていないと判定した場合(ステップS2ー8において「NO」の場合)、恋愛対象マッチングサーバ20の制御部21は、顔嗜好得点が付与された顔画像データを新規に非会員画像データとして登録する処理を実行する(ステップS2ー12)。具体的には、制御部21の嗜好分析部212は、顔嗜好得点が付与された顔画像に対して非会員画像IDを新規発行し、その非会員画像IDに関連付けて嗜好対象記憶部23の非会員画像管理データ231に記録する。  On the other hand, when it is determined that the face image data is not registered as non-member image data (in the case of “NO” in step S2-8), the control unit 21 of the love target matching server 20 A process of newly registering as non-member image data is executed (step S2-12). Specifically, the preference analysis unit 212 of the control unit 21 newly issues a non-membership image ID to the face image to which the face preference score is given, and associates the nonmembership image ID with the non-membership image ID. The nonmember image management data 231 is recorded.

次に、恋愛対象マッチングサーバ20の制御部21は、ステップS2ー10と同様に、非会員顔画像データから非会員顔画像各部位データを抽出する処理を実行する(ステップS2ー13)。  Next, as in step S2-10, the control unit 21 of the love target matching server 20 executes a process of extracting the non-member face image part data from the non-member face image data (step S2-13).

次に、恋愛対象マッチングサーバ20の制御部21は、非会員顔画像各部位データから非会員顔画像各部位座標データ及び非会員顔画像各部位面積占有率データを算出する処理を実行する(ステップS2ー14)。具体的には、非会員顔画像データ全体に座標を付与し、非会員顔画像全体における非会員顔画像各部位データの位置を示す座標を特定し、同時に、非会員顔画像全体における非会員顔画像各部位の面積が占める比率を算出する。次に、算出した非会員顔画像各部位座標データ及び非会員顔画像各部位面積占有率データを、嗜好対象記憶部23の非会員画像管理データ231に非会員画像IDに関連付けて記録する。  Next, the control unit 21 of the love target matching server 20 executes processing for calculating non-member face image part coordinate data and non-member face image part area occupancy data from the non-member face image part data (step S2-14). Specifically, the coordinates are given to the entire nonmember face image data, and the coordinates indicating the position of each part data of the nonmember face image in the entire nonmember face image are specified, and at the same time, the nonmember face in the entire nonmember face image The ratio occupied by the area of each part of the image is calculated. Next, the calculated non-member face image part coordinate data and the non-member face image part area occupancy rate data are recorded in the non-member image management data 231 of the preference target storage unit 23 in association with the non-member image ID.

次に、恋愛対象マッチングサーバ20の制御部21は、算出又は取得した顔画像各部位座標及び面積占有率をユーザ本人のユーザIDに関連付けて登録する処理を実行する(ステップS2ー15)。具体的には、制御部21の嗜好分析部212は、ユーザ情報記憶部22のユーザ管理データ220に記録されたユーザIDを抽出し、そのユーザIDに関連付けて、算出又は取得した顔画像各部位座標及び面積占有率データを嗜好対象記憶部23の顔嗜好管理データ230に記録する。  Next, the control unit 21 of the love target matching server 20 executes a process of registering the calculated or acquired face image part coordinates and area occupancy rate in association with the user ID of the user (step S2-15). Specifically, the preference analysis unit 212 of the control unit 21 extracts the user ID recorded in the user management data 220 of the user information storage unit 22, associates it with the user ID, and calculates or acquires each part of the face image Coordinates and area occupancy rate data are recorded in the face preference management data 230 of the preference target storage unit 23.

(カップリング処理)
次に、図5を用いて、カップリング処理の処理手順について説明する。
(Coupling process)
Next, the procedure of the coupling process will be described with reference to FIG.

まず、図5に示すように、恋愛対象マッチングサーバ20の制御部21は、嗜好分析処理によってユーザに関連付けて嗜好に関する得点が高く評価された他者画像各部位、他者画像各部位位置及び他者画像面積占有率と本人顔画像登録処理によって他者ユーザに関連付けて記録された本人顔画像各部位、本人顔画像各部位位置及び本人顔画像面積占有率とのマッチング処理を項目毎に実行する(ステップS3ー1)。具体的には、制御部21のカップリング処理部213は、嗜好対象記憶部23の顔嗜好管理データ230にユーザに関連付けて記録された他者画像各部位データとユーザ情報記憶部22のユーザ管理データ220に他者ユーザに関連付けて記録された本人顔画像各部位データ、嗜好対象記憶部23の顔嗜好管理データ230にユーザに関連付けて記録された他者画像各部位位置データとユーザ情報記憶部22のユーザ管理データ220に他者ユーザに関連付けて記録された本人顔画像各部位位置データ及び嗜好対象記憶部23の顔嗜好管理データ230にユーザに関連付けて記録された他者画像各部位面積占有率データとユーザ情報記憶部22のユーザ管理データ220に他者ユーザに関連付けて記録された本人顔画像各部位面積占有率データとをそれぞれ比較する処理を実行する。  First, as shown in FIG. 5, the control unit 21 of the love target matching server 20 associates the user with the user by preference analysis processing, and the other image, the other image, each image position, and the other image are highly evaluated. Execute matching processing of the person image area occupancy rate with each person's face image region, the person's face image each portion position, and the person's face image area occupancy rate recorded in association with the other person user by the person's face image registration process (Step S3-1). Specifically, the coupling processing unit 213 of the control unit 21 controls the user management of the user information storage unit 22 and the other image of each other image recorded in the face preference management data 230 of the preference target storage unit 23 in association with the user. User's information storage unit with user's personal-face image each part data recorded in association with other user in data 220, other-person image each part position data recorded in association with user in face preference management data 230 of preference object storage unit 23 22. The user's personal-face image each part position data recorded in association with another user in the user management data 220 and the other-body image each-part area occupied in the face preference management data 230 of the preference object storage unit 23 in association with the user. Rate data and user face data of each person's face image recorded in the user management data 220 of the user information storage unit 22 in association with other users It performs a process of comparing preparative respectively.

次に、恋愛対象マッチングサーバ20の制御部21は、比較した結果生じる各項目における差異が所定基準以内であるか否かの判定処理を実行する(S3ー2)。そして、所定基準を超えなかった場合(ステップS3ー2において「NO」の場合)、制御部21は、カップリング処理を終了する。  Next, the control unit 21 of the love target matching server 20 executes a process of determining whether or not the difference in each item resulting from the comparison is within a predetermined standard (S3-2). When the predetermined standard is not exceeded (in the case of “NO” in step S3-2), the control unit 21 ends the coupling process.

一方、所定基準を超えた場合(ステップS3ー2において「YES」の場合)、恋愛対象マッチングサーバ20の制御部21は、ユーザに関連付けて記録された本人顔画像各部位、本人顔画像各部位位置及び本人顔画像面積占有率と他者ユーザに関連付けて嗜好に関する得点が高く評価された他者画像各部位、他者画像各部位位置及び他者画像面積占有率とのマッチング処理を各項目毎に実行する(ステップS3−3)。具体的には、制御部21のカップリング処理部213は、ユーザ情報記憶部22のユーザ管理データ220にユーザに関連付けて記録された本人顔画像各部位データと嗜好対象記憶部23の顔嗜好管理データ230に他者ユーザに関連付けて記録された他者画像各部位データ、ユーザ情報記憶部22のユーザ管理データ220にユーザに関連付けて記録された本人顔画像各部位位置データと嗜好対象記憶部23の顔嗜好管理データ230に他者ユーザに関連付けて記録された他者画像各部位位置データ及びユーザ情報記憶部22のユーザ管理データ220にユーザに関連付けて記録された本人顔画像各部位面積占有率データと嗜好対象記憶部23の顔嗜好管理データ230に他者ユーザに関連付けて記録された他者画像各部位面積占有率データとをそれぞれ比較する処理を実行する。  On the other hand, when the predetermined standard is exceeded (in the case of “YES” in step S3-2), the control unit 21 of the love target matching server 20 records the individual face image parts and the individual face image parts recorded in association with the user. Matching processing of each position of the other person image, the position of the other person image, the position of the other person image, and the other person image area occupancy rate, in which the position and personal face image area occupancy rate are associated with the other person user (Step S3-3). Specifically, the coupling processing unit 213 of the control unit 21 controls the personal preference image each part data recorded in association with the user in the user management data 220 of the user information storage unit 22 and the face preference management of the preference target storage unit 23 Other-body image each-part data recorded in association with another-user in data 230, personal-face image each-part position data recorded in association with the user in user management data 220 of user information storage unit 22, and preference object storage unit 23 The other person image each part position data recorded in association with the other user in the face preference management data 230 and the personal face image each part area occupancy rate recorded in the user management data 220 of the user information storage unit 22 in association with the user Data of each other part area area occupancy rate data recorded in association with other user in data and face preference management data 230 of preference object storage unit 23 It performs a process of comparing preparative respectively.

次に、恋愛対象マッチングサーバ20の制御部21は、比較した結果生じる各項目における差異が所定基準以内であるか否かの判定処理を実行する(S3ー4)。そして、所定基準を超えなかった場合(ステップS3ー4において「NO」の場合)、制御部21は、カップリング処理を終了する。  Next, the control unit 21 of the love target matching server 20 executes a process of determining whether or not the difference in each item resulting from the comparison is within the predetermined standard (S3-4). When the predetermined standard is not exceeded (“NO” in step S3-4), the control unit 21 ends the coupling process.

一方、所定基準を超えた場合(ステップS3ー4において「YES」の場合)、恋愛対象マッチングサーバ20の制御部21は、ユーザと他者ユーザを互いに組み合わせて登録する処理を実行する(S3−5)。具体的には、制御部21のカップリング処理部213は、ユーザ情報記憶部22のユーザ管理データ220から所定基準を超えたユーザ及び他者ユーザのユーザIDを抽出し、カップリング情報記憶部24のカップリングデータ240に組み合わせて記録する。  On the other hand, when the predetermined reference is exceeded (in the case of "YES" in step S3-4), the control unit 21 of the love target matching server 20 executes a process of registering the user and the other user in combination with each other (S3- 5). Specifically, the coupling processing unit 213 of the control unit 21 extracts the user ID of the user who exceeded the predetermined criteria and the user of the other user from the user management data 220 of the user information storage unit 22, and the coupling information storage unit 24. In combination with the coupling data 240 of FIG.

(誘導処理)
次に、図6を用いて、誘導処理の処理手順について説明する。
(Induction process)
Next, the procedure of the induction process will be described with reference to FIG.

まず、図6に示すように、恋愛対象マッチングサーバ20の制御部21は、ユーザ端末10からカップリング処理によって組み合わせて記録された両ユーザの位置情報を取得する処理を実行する(ステップS4ー1)。具体的には、制御部21の誘導指示部214は、ユーザ端末10からGPS等における現在位置に関する情報を、両ユーザのユーザIDとともに取得する。この処理は、定期的(例えば、1回/秒)に実行される。  First, as shown in FIG. 6, the control unit 21 of the love target matching server 20 executes processing for acquiring position information of both users recorded in combination by coupling processing from the user terminal 10 (step S4-1). ). Specifically, the guidance instruction unit 214 of the control unit 21 acquires, from the user terminal 10, information on the current position in the GPS or the like together with the user IDs of both users. This process is performed periodically (for example, once per second).

次に、恋愛対象マッチングサーバ20の制御部21は、緯度・経度の記録処理を実行する(ステップS4ー2)。具体的には、制御部21の誘導指示部214は、ユーザID、所在日時、所在地を記録したユーザ所在データ250を生成し、ユーザ所在地情報記憶部25に記録する。  Next, the control unit 21 of the love target matching server 20 executes a latitude / longitude recording process (step S4-2). Specifically, the guidance instruction unit 214 of the control unit 21 generates user location data 250 in which the user ID, the location date and time, and the location are recorded, and records the user location data 250 in the user location information storage unit 25.

次に、恋愛対象マッチングサーバ20の制御部21は、緯度・経度における所在頻度及び滞在時間の算出処理を実行する(ステップS4ー3)。この処理は、ユーザ情報記憶部22に記録された各ユーザを順次、処理対象ユーザとして特定して、定期的(数回/日)に実行される。具体的には、制御部21の誘導指示部214は、処理対象ユーザのユーザIDを含む所定期間(例えば、過去3か月)のユーザ所在データ250を、ユーザ所在地情報記憶部25から抽出する。そして、誘導指示部214は、抽出したユーザ所在データ250の各緯度・経度に応じた所在頻度及び滞在時間を算出する。  Next, the control unit 21 of the love target matching server 20 executes calculation processing of the location frequency and the stay time in latitude and longitude (step S4-3). This process is executed periodically (several times / day) by sequentially specifying each user recorded in the user information storage unit 22 as a process target user. Specifically, the guidance instruction unit 214 of the control unit 21 extracts from the user location information storage unit 25 user location data 250 for a predetermined period (for example, the past three months) including the user ID of the processing target user. Then, the guidance instruction unit 214 calculates the location frequency and the stay time according to each latitude and longitude of the extracted user location data 250.

次に、恋愛対象マッチングサーバ20の制御部21は、所在頻度が高い又は滞在時間が長い緯度・経度からユーザが日常利用する地点及び経路を特定する処理を実行する(ステップS4ー4)。具体的には、制御部21の誘導指示部214は、所在頻度と滞在時間の両方が所定の基準を超えている緯度・経度をユーザIDと関連付けてユーザ所在地情報記憶部25のユーザ所在データ250に日常地点フラグデータを付与し、記録する。同時に、制御部21の誘導指示部214は、所在頻度が所定の基準を超え、滞在時間が所定の基準を超えていない緯度・経度をユーザIDと関連付けてユーザ所在地情報記憶部25のユーザ所在データ250に日常経路フラグデータを付与し、記録する。  Next, the control unit 21 of the love target matching server 20 executes a process of specifying a point and a route that the user routinely uses from the latitude and longitude where the location frequency is high or the stay time is long (step S4-4). Specifically, the guidance instruction unit 214 of the control unit 21 associates the latitude and longitude where both the location frequency and the stay time exceed the predetermined reference with the user ID, and the user location data 250 of the user location information storage unit 25. The daily spot flag data is attached to and recorded. At the same time, the guidance instruction unit 214 of the control unit 21 associates the latitude / longitude whose location frequency exceeds a predetermined standard and the stay time does not exceed the predetermined standard with the user ID, and the user location data of the user location information storage unit 25 Daily route flag data is attached to 250 and recorded.

次に、恋愛対象マッチングサーバ20の制御部21は、カップリングされた両ユーザ間で日常地点を比較する処理を実行する(ステップS4ー5)。具体的には、制御部21の誘導指示部214は、ユーザ所在地情報記憶部25からユーザIDに関連付けて日常地点フラグデータが記録されたユーザ所在データ250を抽出し、カップリングされたユーザ間で緯度・経度が一致する所在地データがあるか否かの判定処理を実行する。そして、一致するユーザ所在データ250がある場合(ステップS4ー6において「YES」の場合)、制御部21は、そのユーザ所在データ250の所在地データと一致する誘導先について重複地点フラグデータを記録する処理を実行する。具体的には、誘導先情報記憶部26から同じ緯度・経度と一致する所在地データが記録された誘導先管理データ260を抽出し、その誘導先IDに関連付けて誘導先評価データ261を生成し、その誘導先評価データ261にカップリングされた両ユーザのユーザID及び重複地点フラグデータを記録する。  Next, the control unit 21 of the love target matching server 20 executes a process of comparing everyday points between the coupled two users (step S4-5). Specifically, the guidance instruction unit 214 of the control unit 21 extracts the user location data 250 in which the daily spot flag data is recorded in association with the user ID from the user location information storage unit 25 and between the coupled users A determination process is performed to determine whether there is location data having the same latitude and longitude. When there is matching user location data 250 (in the case of “YES” in step S4-6), control unit 21 records overlapping point flag data for a guidance destination that matches the location data of user location data 250. Execute the process Specifically, guidance destination management data 260 in which location data matching the same latitude and longitude are recorded is extracted from the guidance destination information storage unit 26, and guidance destination evaluation data 261 is generated in association with the guidance destination ID. The user ID and the overlapping point flag data of both users coupled to the guidance destination evaluation data 261 are recorded.

次に、恋愛対象マッチングサーバ20の制御部21は、カップリングされた両ユーザの現在地から重複地点までの移動にかかる所要時間をそれぞれ算出する処理を実行する(ステップS4ー7)。この処理は、重複地点フラグデータが記録された各誘導先を順次、処理対象として特定して実行される。具体的には、制御部21の誘導指示部214は、誘導先情報記憶部26から重複地点に関する誘導先管理データ260の所在地データを抽出し、ユーザ所在地情報記憶部25から両ユーザの最新の時点におけるユーザ所在データ250の所在地データを抽出し、それぞれの所在地データ間の移動にかかる所要時間を、誘導指示部214に予め記憶されている地図データ及び経路検索データに基づき算出する。  Next, the control unit 21 of the love target matching server 20 executes a process of calculating the required time for moving from the current location of both coupled users to the overlapping point (step S4-7). This processing is executed by sequentially specifying each guidance destination in which overlapping point flag data is recorded as a processing target. Specifically, the guidance instruction unit 214 of the control unit 21 extracts the location data of the guidance destination management data 260 related to the overlapping point from the guidance destination information storage unit 26, and the latest time of both users from the user location information storage unit 25. The location data of the user location data 250 in is extracted, and the time required for movement between the respective location data is calculated based on the map data and route search data stored in advance in the guidance instruction unit 214.

次に、恋愛対象マッチングサーバ20の制御部21は、カップリングされたユーザ間において重複地点について取得した所要時間、所在頻度及び滞在時間の平均値をそれぞれ算出する処理を実行する(ステップS4ー8)。この処理は、重複地点フラグデータが記録された各誘導先を順次、処理対象として特定して実行される。具体的には、制御部21の誘導指示部214は、ユーザの現在地から算出した所要時間並びにユーザ所在地情報記憶部25のユーザ所在データ250にユーザIDと関連付けて記録された所在頻度データ及び滞在時間データから、各データ別にカップリングされた両ユーザ間の平均値を算出し、ユーザ所在データ250の所在地データと同じ緯度・経度の誘導先管理データ260に記録された誘導先IDを誘導先情報記憶部26から抽出し、同じ誘導先IDに関連付けて記録された誘導先評価データ261に、誘導先ID、ユーザID及び所在地データに関連付けて、平均所要時間データ、平均所在頻度データ及び平均滞在時間データを記録する。  Next, the control unit 21 of the love target matching server 20 executes a process of calculating an average value of the required time, the location frequency, and the staying time acquired for the overlapping points among the coupled users (step S4-8). ). This processing is executed by sequentially specifying each guidance destination in which overlapping point flag data is recorded as a processing target. Specifically, the guidance instruction unit 214 of the control unit 21 stores the required time calculated from the current location of the user and the location frequency data and the stay time recorded in the user location data 250 of the user location information storage unit 25 in association with the user ID. From the data, the average value between the two users coupled separately for each data is calculated, and the guidance destination ID stored in the guidance destination management data 260 of the same latitude and longitude as the location data of the user location data 250 is guidance destination information storage In the guide destination evaluation data 261 extracted from the unit 26 and recorded in association with the same guide destination ID, the average required time data, the average location frequency data and the average stay time data are related to the guide destination ID, the user ID and the location data. Record

次に、恋愛対象マッチングサーバ20の制御部21は、算出した各データに基づいて誘導先候補に誘導先得点を付与する処理を実行する(ステップS4ー9)。具体的には、誘導先情報記憶部26の誘導先評価データ261に記録された平均所要時間データ、平均所在頻度データ及び平均滞在時間データを抽出し、平均所要時間データに反比例して高くなる得点並びに平均所在頻度データ及び平均滞在時間データに比例して高くなる得点を算出し各得点の平均値を誘導先評価データ261の誘導先IDに関連付けて誘導先得点データとして記録する。なお、各得点を平均するのではなく、いずれかの要素又はユーザに傾斜を設定してもよい。  Next, the control unit 21 of the love target matching server 20 executes a process of giving a lead destination score to the lead destination candidate based on the calculated data (step S4-9). Specifically, the average required time data, the average location frequency data, and the average stay time data recorded in the guide destination evaluation data 261 of the guide destination information storage unit 26 are extracted, and the score increases in inverse proportion to the average required time data. And the score which increases in proportion to the average location frequency data and the average stay time data is calculated, and the average value of each score is associated with the guidance destination ID of the guidance destination evaluation data 261 and recorded as guidance destination score data. Note that instead of averaging each score, a slope may be set for any element or user.

一方、カップリングされたユーザ間で緯度・経度が一致するユーザ所在データ250がない場合(ステップS4ー6において「NO」の場合)、恋愛対象マッチングサーバ20の制御部21は、カップリングされた両ユーザ間で日常地点のカテゴリを比較する処理を実行する(ステップS4ー10)。具体的には、制御部21の誘導指示部214は、ユーザ所在地情報記憶部25からユーザID及び他ユーザIDとそれぞれ関連付けて日常地点フラグデータが記録されたユーザ所在データ250を抽出し、その緯度・経度と一致する誘導先管理データ260を誘導先情報記憶部26から抽出し、誘導先管理データ260のカテゴリデータを抽出し、カップリングされたユーザ間で一致するカテゴリがあるか否かの判定処理を実行する。そして、一致するカテゴリがある場合(ステップS4ー10において「YES」の場合)、制御部21は、そのカテゴリに属する全誘導先を誘導先候補として指定する処理を実行する。具体的には、誘導先情報記憶部26からカップリングされたユーザ間で一致したカテゴリデータと一致するカテゴリデータが記録された誘導先管理データ260の誘導先IDを抽出し、その誘導先IDに関連付けて誘導先評価データ261にカップリングID及び重複カテゴリフラグデータを記録する。  On the other hand, when there is no user location data 250 whose latitude and longitude match among the coupled users (in the case of “NO” in step S4-6), the control unit 21 of the love target matching server 20 is coupled A process is executed to compare the category of the daily spot between both users (step S4-10). Specifically, the guidance instruction unit 214 of the control unit 21 extracts the user location data 250 in which the daily spot flag data is recorded from the user location information storage unit 25 in association with the user ID and the other user ID, respectively, The guidance destination management data 260 matching the longitude is extracted from the guidance destination information storage unit 26, the category data of the guidance destination management data 260 is extracted, and it is determined whether or not there is a matching category among the coupled users. Execute the process Then, if there is a matching category (in the case of “YES” in step S4-10), control unit 21 executes a process of specifying all the guidance destinations belonging to the category as guidance destination candidates. Specifically, the guidance destination ID of the guidance destination management data 260 in which category data matching category data matched among the coupled users is recorded is extracted from the guidance destination information storage unit 26, and the guidance destination ID is extracted as the guidance destination ID. Coupling ID and overlapping category flag data are recorded in the guidance destination evaluation data 261 in association with each other.

次に、恋愛対象マッチングサーバ20の制御部21は、重複カテゴリフラグが付与された誘導先候補について、カップリングされた両ユーザの現在地から重複地点までの移動にかかる所要時間をそれぞれ算出する処理を実行する(ステップS4ー11)。この処理は、重複カテゴリフラグデータが記録された各誘導先を順次、処理対象として特定して実行される。具体的には、制御部21の誘導指示部214は、誘導先情報記憶部26から重複カテゴリデータが記録された誘導先評価データ261の誘導先IDを抽出し、その誘導先IDに関連付けて誘導先管理データ260に記録された所在地データを特定し、ユーザ所在地情報記憶部25から両ユーザの最新の時点におけるユーザ所在データ250の所在地データを抽出し、それぞれの所在地データ間の移動にかかる所要時間を、誘導指示部214に予め記憶されている地図データ及び経路検索データに基づき算出する。  Next, the control unit 21 of the love target matching server 20 calculates the required time for moving from the current location of both users who are coupled to the overlapping point, for the guidance destination candidate to which the overlapping category flag is added. Execute (step S4-11). This processing is executed by sequentially specifying each guidance destination in which the overlapping category flag data is recorded as a processing target. Specifically, the guidance instruction unit 214 of the control unit 21 extracts the guidance destination ID of the guidance destination evaluation data 261 in which the overlapping category data is recorded from the guidance destination information storage unit 26, and relates the guidance destination ID to the guidance destination ID. The location data recorded in the destination management data 260 is specified, the location data of the user location data 250 at the latest time of both users is extracted from the user location information storage unit 25, and the required time for movement between the respective location data Is calculated based on map data and route search data stored in advance in the guidance instruction unit 214.

次に、恋愛対象マッチングサーバ20の制御部21は、カップリングされたユーザ間において、重複カテゴリフラグが付与された誘導先候補について取得した所要時間、所在頻度及び滞在時間の平均値をそれぞれ算出する処理を実行する(ステップS4ー12)。この処理は、重複カテゴリフラグデータが記録された各誘導先を順次、処理対象として特定して実行される。具体的には、制御部21の誘導指示部214は、ユーザの現在地から算出した所要時間並びにユーザ所在地情報記憶部25のユーザ所在データ250にユーザIDと関連付けて記録された所在頻度データ及び滞在時間データから、各データ別にカップリングされた両ユーザ間の平均値を算出し、ユーザ所在データ250の所在地データと同じ緯度・経度の誘導先管理データ260に記録された誘導先IDを誘導先情報記憶部26から抽出し、同じ誘導先IDに関連付けて記録された誘導先評価データ261に、誘導先ID、ユーザID及び所在地データに関連付けて、平均所要時間データ、平均所在頻度データ及び平均滞在時間データを記録する。  Next, the control unit 21 of the love target matching server 20 calculates an average value of the required time, the location frequency, and the staying time acquired for the guidance destination candidate to which the overlapping category flag is added among the coupled users. The process is executed (step S4-12). This processing is executed by sequentially specifying each guidance destination in which the overlapping category flag data is recorded as a processing target. Specifically, the guidance instruction unit 214 of the control unit 21 stores the required time calculated from the current location of the user and the location frequency data and the stay time recorded in the user location data 250 of the user location information storage unit 25 in association with the user ID. From the data, the average value between the two users coupled separately for each data is calculated, and the guidance destination ID stored in the guidance destination management data 260 of the same latitude and longitude as the location data of the user location data 250 is guidance destination information storage In the guide destination evaluation data 261 extracted from the unit 26 and recorded in association with the same guide destination ID, the average required time data, the average location frequency data and the average stay time data are related to the guide destination ID, the user ID and the location data. Record

次に、恋愛対象マッチングサーバ20の制御部21は、算出した各データに基づいて誘導先候補に誘導先得点を付与する処理を実行する(ステップS4ー13)。具体的には、制御部21の誘導指示部214は、誘導先情報記憶部26の誘導先評価データ261に記録された平均所要時間データ、平均所在頻度データ及び平均滞在時間データを抽出し、平均所要時間データに反比例して高くなる得点並びに平均所在頻度データ及び平均滞在時間データに比例して高くなる得点を算出し、各得点の平均値を誘導先評価データ261の誘導先IDに関連付けて誘導先得点データとして記録する。なお、各得点を平均するのではなく、いずれかの要素又はユーザに傾斜を設定してもよい。  Next, the control unit 21 of the love target matching server 20 executes a process of giving a lead destination score to the lead destination candidate based on each calculated data (step S4-13). Specifically, the guidance instruction unit 214 of the control unit 21 extracts the average required time data, the average location frequency data, and the average stay time data recorded in the guidance destination evaluation data 261 of the guidance destination information storage unit 26, and averages A score that increases in inverse proportion to the required time data and a score that increases in proportion to the average location frequency data and the average stay time data are calculated, and the average value of each score is correlated with the guidance destination ID of the guidance destination evaluation data 261 for guidance Record as first point data. Note that instead of averaging each score, a slope may be set for any element or user.

一方、カップリングされたユーザ間で日常地点のカテゴリが一致するユーザ所在データ250がない場合(ステップS4ー10において「NO」の場合)、恋愛対象マッチングサーバ20の制御部21は、ステップS4ー3の処理から以降の処理を再実行する。  On the other hand, when there is no user location data 250 that matches the category of the everyday spot among the coupled users (in the case of "NO" in step S4-10), the control unit 21 of the love target matching server 20 performs step S4-. Re-execute processing from step 3 onwards.

次に、恋愛対象マッチングサーバ20の制御部21は、誘導先得点において最高得点を記録した誘導先を選定する処理を実行する(ステップS4ー14)。具体的には、制御部21の誘導指示部214は、誘導先候補の誘導先IDに関連付けて誘導先情報記憶部26の誘導先評価データ261に記録された誘導先得点データを抽出し、誘導先候補間で比較し、最も得点が高い誘導先候補のIDを選定する。  Next, the control unit 21 of the love target matching server 20 executes a process of selecting a lead destination where the highest score is recorded in the lead destination points (step S4-14). Specifically, the guidance instructing unit 214 of the control unit 21 extracts guidance destination score data recorded in the guidance destination evaluation data 261 of the guidance destination information storage unit 26 in association with the guidance destination ID of the guidance destination candidate, and guiding The candidate candidates are compared with each other, and the ID of the highest candidate guidance destination candidate is selected.

次に、恋愛対象マッチングサーバ20の制御部21は、選定した誘導先について誘導指示をユーザ端末10に対して送信する処理を実行する(ステップS4ー15)。具体的には、制御部21の誘導指示部214は、選定した誘導先の誘導先IDに関連付けて誘導先管理データ260に記録されたカテゴリデータを抽出し、予め誘導指示部214に記録されている誘導指示群からカテゴリデータに関連付けられた誘導指示データ262を選定し、同一の誘導先IDに関連付けて記録された誘導先評価データ261に記録されたユーザIDを抽出し、同一のユーザIDに関連付けられたユーザ端末10に対して、選定した誘導指示データ262を送信する。  Next, the control unit 21 of the love target matching server 20 executes a process of transmitting a guidance instruction to the user terminal 10 for the selected guidance destination (step S4-15). Specifically, the guidance instruction unit 214 of the control unit 21 extracts the category data recorded in the guidance destination management data 260 in association with the guidance destination ID of the selected guidance destination, and the category data is recorded in advance in the guidance instruction unit 214 The guidance instruction data 262 associated with the category data is selected from the guidance instruction group which is present, the user ID recorded in the guidance destination evaluation data 261 recorded in association with the same guidance destination ID is extracted, and the same user ID is extracted. The selected guidance instruction data 262 is transmitted to the associated user terminal 10.

次に、ユーザ端末10は、恋愛対象マッチングサーバ20の制御部21が送信した誘導指示を受信する処理を実行する(ステップS4ー16)。具体的には、ユーザ端末10は、制御部21の誘導指示部214が送信した誘導指示データ262を受信し、一時的に備えられた記憶部に記録する。  Next, the user terminal 10 executes a process of receiving the guidance instruction transmitted by the control unit 21 of the love target matching server 20 (step S4-16). Specifically, the user terminal 10 receives the guidance instruction data 262 transmitted by the guidance instruction unit 214 of the control unit 21 and records the guidance instruction data 262 in the temporarily provided storage unit.

次に、ユーザ端末10は、受信した誘導指示をユーザ端末10を介してユーザに通知する処理を実行する(ステップS4ー17)。具体的には、ユーザ端末10に備えられたイヤフォン若しくは骨伝導等を用いて自動音声をユーザに対してアナウンスする機能又は表示部として備えられた透過レンズ型ディスプレイ機能を介して誘導指示データ262の誘導指示内容データをユーザに通知する。  Next, the user terminal 10 executes processing for notifying the user of the received guidance instruction via the user terminal 10 (step S4-17). Specifically, the guidance instruction data 262 is transmitted via an audible voice or a bone conduction function provided in the user terminal 10 to announce an automatic voice to the user or a transmission lens type display function provided as a display unit. The user is notified of guidance instruction content data.

次に、ユーザ端末10は、ユーザが誘導指示を承諾したか否かの判定する処理を実行する(ステップS4ー18)。具体的には、ユーザによる誘導指示を通知する自動音声アナウンスに対する承諾の返事がユーザ端末10に入力部として備えられている指向性マイクロフォンを介して入力される又はユーザ端末10が備えるディスプレイ上のボタン表示等の入力部を介して承諾の意思を示されることにより、ユーザの承諾意思を検知する。そして、ユーザが誘導指示を承諾した場合(ステップS4ー18において「YES」の場合)、ユーザ端末10は誘導指示を承諾した情報を恋愛対象マッチングサーバ20の制御部21に対して送信する処理を実行する(ステップS4ー19)。具体的には、ユーザ端末10は、誘導指示データ262に承諾の諾否データを記録し、誘導先ID及びユーザIDと関連付けて制御部21の誘導指示部214に送信する。  Next, the user terminal 10 executes a process of determining whether the user has accepted the guidance instruction (step S4-18). Specifically, a reply to an acceptance for an automatic voice announcement notifying a guidance instruction by a user is input via a directional microphone provided as an input unit in the user terminal 10 or a button on a display provided in the user terminal 10 The intention of the user is detected by indicating the intention of acceptance through the input unit such as the display. When the user accepts the guidance instruction (in the case of “YES” in step S4-18), the user terminal 10 transmits the information for which the guidance instruction has been accepted to the control unit 21 of the love target matching server 20. Execute (step S4-19). Specifically, the user terminal 10 records acceptance / non-acceptance data of acceptance in the guidance instruction data 262, and transmits the data to the guidance instruction unit 214 of the control unit 21 in association with the guidance destination ID and the user ID.

次に、恋愛対象マッチングサーバ20の制御部21は、ユーザ端末10が送信した誘導指示承諾に関する情報を受信する処理を実行する(ステップS4ー20)。具体的には、制御部21の誘導指示部214は、ユーザ端末10が送信した誘導指示データ262を受信し、誘導先ID及びユーザIDを抽出し、誘導先情報記憶部26に予め記録されていた誘導指示データ262に対して、同一の誘導先ID及びユーザIDに関連付けて諾否データを承諾として記録する。  Next, the control unit 21 of the love target matching server 20 executes a process of receiving information on acceptance of the guidance instruction transmitted by the user terminal 10 (step S4-20). Specifically, the guidance instruction unit 214 of the control unit 21 receives the guidance instruction data 262 transmitted by the user terminal 10, extracts the guidance destination ID and the user ID, and is stored in advance in the guidance destination information storage unit 26. In the guidance instruction data 262, the acceptance / rejection data is recorded as consent in association with the same guidance destination ID and user ID.

次に、恋愛対象マッチングサーバ20の制御部21は、受信した誘導指示承諾に関する情報及び承諾したユーザの本人顔画像を法人端末30に送信する処理を実行する(ステップS4ー21)。具体的には、制御部21の誘導指示部214は、誘導先情報記憶部26の誘導指示データ262に記録されているユーザIDを抽出し、ユーザ情報記憶部22ユーザ管理データ220から同じユーザIDに関連付けられた本人顔画像データを抽出し、法人端末30に対して送信する。  Next, the control unit 21 of the love target matching server 20 executes a process of transmitting the received information regarding the guidance instruction consent and the personal face image of the consenting user to the corporation terminal 30 (step S4-21). Specifically, the guidance instruction unit 214 of the control unit 21 extracts the user ID recorded in the guidance instruction data 262 of the guidance destination information storage unit 26, and the same user ID from the user information storage unit 22 user management data 220. The face image data associated with the personal information is extracted and transmitted to the corporation terminal 30.

次に、法人端末30は、恋愛対象マッチングサーバ20の制御部21が送信した誘導指示承諾に関する情報及び承諾したユーザの本人顔画像を受信する処理を実行する(ステップS4ー22)。具体的には、法人端末30は、制御部21の誘導指示部214からユーザIDに関連付けて送信されたユーザの本人顔画像データを受信し、法人端末30に予め備えられた記憶部に記録する。  Next, the corporation terminal 30 executes a process of receiving the information on acceptance of the guidance instruction sent by the control unit 21 of the love target matching server 20 and the personal face image of the consenting user (step S4-22). Specifically, the corporation terminal 30 receives the personal face image data of the user transmitted from the guidance instructing unit 214 of the control unit 21 in association with the user ID, and records the image data in the storage unit provided in the corporation terminal 30 in advance. .

次に、法人端末30は、承諾したユーザの本人顔画像を誘導先の店舗又は施設の従業員に対して通知する処理を実行する(ステップS4ー23)。具体的には、法人端末30が備えるディスプレイ表示機能等を介して誘導先である店舗又は施設の従業員に対して、誘導指示を承諾したユーザの本人顔画像、算出された所要時間に基づいた到着予測時刻及びカップリングされたユーザを迎え入れるよう指示するメッセージ(例えば「あと10分後にこの2人のユーザが来店しますので、カウンター席で隣同士になるようご準備下さい」等)を表示する。  Next, the corporation terminal 30 executes a process of notifying the employee of the store or facility of the guide destination of the accepted personal facial image of the accepted user (step S4-23). Specifically, based on the calculated required time, the person's face image of the user who accepted the guidance instruction to the employee of the store or facility which is the guidance destination through the display display function etc. of the corporation terminal 30. Display the estimated arrival time and a message instructing you to receive a coupled user (for example, "Please prepare to be next to each other at the counter seat as these 2 users will come to the store in 10 minutes, etc.") .

一方、ユーザが誘導指示を承諾しなかった場合(ステップS4ー18において「NO」の場合)、ユーザ端末10は誘導指示が拒否された情報を恋愛対象マッチングサーバ20の制御部21に対して送信する処理を実行する(ステップS4ー24)。具体的には、ユーザ端末10は、端末に記録されているユーザIDを抽出し、ユーザIDと関連付けて誘導指示が拒否された情報を制御部21の誘導指示部214に送信する。  On the other hand, when the user does not accept the guidance instruction (in the case of “NO” in step S4-18), the user terminal 10 transmits the information for which the guidance instruction is rejected to the control unit 21 of the love target matching server 20 To execute the process (step S4-24). Specifically, the user terminal 10 extracts the user ID recorded in the terminal, and transmits the information for which the guidance instruction is rejected in association with the user ID to the guidance instruction unit 214 of the control unit 21.

次に、恋愛対象マッチングサーバ20の制御部21は、ユーザ端末10が送信した誘導指示拒否に関する情報を受信する処理を実行する(ステップS4ー25)。具体的には、制御部21の誘導指示部214は、ユーザ端末10が送信した誘導指示データ262を受信し、誘導先ID及びユーザIDを抽出し、誘導先情報記憶部26に予め記録されていた誘導指示データ262に対して、同一の誘導先ID及びユーザIDに関連付けて誘導指示承諾データを拒否として記録する。  Next, the control unit 21 of the love target matching server 20 executes a process of receiving the information on the refusal of the guidance instruction transmitted by the user terminal 10 (step S4-25). Specifically, the guidance instruction unit 214 of the control unit 21 receives the guidance instruction data 262 transmitted by the user terminal 10, extracts the guidance destination ID and the user ID, and is stored in advance in the guidance destination information storage unit 26. In the guidance instruction data 262, guidance instruction acceptance data is recorded as rejection in association with the same guidance destination ID and user ID.

次に、恋愛対象マッチングサーバ20の制御部21は、誘導指示が拒否された誘導先の評価に反映する処理を実行する(ステップS4ー26)。具体的には、制御部21の誘導指示部214は、誘導先情報記憶部26において拒否の諾否データを記録された誘導指示データ262の誘導先ID及びユーザIDに関連付けられて記録された誘導先評価データ261を抽出し、誘導先得点データに予め拒否の諾否データに関連付けられて記録されているマイナス得点を加算する。そして、ステップS4ー3から処理を再実行する。  Next, the control unit 21 of the love target matching server 20 executes a process of reflecting the evaluation of the guidance destination for which the guidance instruction has been rejected (step S4-26). Specifically, the guidance instruction unit 214 of the control unit 21 records the guidance destination ID and the guidance ID of the guidance instruction data 262 in which the acceptance / rejection data of rejection is recorded in the guidance destination information storage unit 26 in association with the user ID. The evaluation data 261 is extracted, and the negative score recorded in advance in association with the rejection data is added to the guidance destination score data. Then, the process is re-executed from step S4-3.

(行動指示処理)
次に、図7を用いて、行動指示処理の処理手順について説明する。
(Action instruction processing)
Next, the processing procedure of action instruction processing will be described using FIG. 7.

まず、図7に示すように、恋愛対象マッチングサーバ20の制御部21は、カップリング処理によって組み合わせて記録され、誘導処理によって誘導先に誘導されたユーザ同士の接近情報を、ユーザ端末10に備えられたビーコンセンサから取得する処理を実行する(ステップS5ー1)。具体的には、制御部21の行動指示部215は、ユーザ端末10に備えられたビーコンセンサからBluetooth(登録商標)等の近距離通信用電波を介してカップリングされたユーザ同士の接近を検知した場合に、接近情報を取得し、行動指示情報記憶部27において行動指示データ270を生成し、ビーコン接近フラグデータを記録する。  First, as shown in FIG. 7, the control unit 21 of the love target matching server 20 has the user terminal 10 provided with the approach information of the users who are guided to the guidance destination by the guidance processing. A process of acquiring from the designated beacon sensor is executed (step S5-1). Specifically, the action instruction unit 215 of the control unit 21 detects an approach of users coupled via a near field communication radio wave such as Bluetooth (registered trademark) from a beacon sensor provided in the user terminal 10 When it does, approach information is acquired, action indication data 270 is generated in action indication information storage section 27, beacon approach flag data is recorded.

次に、恋愛対象マッチングサーバ20の制御部21は、ユーザ端末10に対してカップリングされた相手ユーザを視認するよう行動指示を送信する処理を実行する(ステップS5ー2)。具体的には、制御部21の行動指示部215は、行動指示情報記憶部27の行動指示データ270に行動指示内容データ(例えば「隣席に座っている男性又は女性が魅力的です。声を掛けてみては?」等)をカップリングされた両ユーザのユーザIDに関連付けて記録し、両ユーザのユーザ端末10に対してそれぞれ送信し、ユーザ端末10に備えられた自動音声アナウンス機能又はディスプレイ表示機能を介してユーザに通知する。  Next, the control unit 21 of the love target matching server 20 executes a process of transmitting an action instruction to visually recognize the partner user coupled to the user terminal 10 (step S5-2). Specifically, the action instruction unit 215 of the control unit 21 causes the action instruction data 270 of the action instruction information storage unit 27 to execute the action instruction content data (for example, “male or female sitting in the next seat is attractive. Or the like) in association with the user ID of both coupled users and recorded, and transmit them to the user terminals 10 of both users respectively, and the automatic voice announcement function or display display provided on the user terminal 10 Notify the user through the function.

次に、恋愛対象マッチングサーバ20の制御部21は、ユーザ端末10から記録された画像を取得し、その画像に人物の顔が映っている場合には顔認識する処理を実行する(ステップS5ー3)。具体的には、制御部21の行動指示部215は、ユーザ端末10から受信した画像を予め記憶している顔認識判定値と比較し、基準を満たしている場合には、その画像に顔認識済みフラグを登録する。  Next, the control unit 21 of the love target matching server 20 acquires an image recorded from the user terminal 10, and executes face recognition processing when a person's face is shown in the image (step S5). 3). Specifically, the action instructing unit 215 of the control unit 21 compares the image received from the user terminal 10 with the face recognition determination value stored in advance, and if the reference is satisfied, the face recognition is performed on the image Register the completed flag.

次に、恋愛対象マッチングサーバ20の制御部21は、取得した顔画像データをカップリングされた相手ユーザの本人顔画像と比較する処理を実行する(ステップS5ー4)。具体的には、制御部21の行動指示部215は、ユーザの視点画像から取得した顔画像と、ユーザとカップリングされた相手ユーザの本人顔画像とを比較する。そして、比較した結果、一致率が所定値を超えなかった場合(ステップS5ー5において「NO」の場合)、制御部21の行動指示部215は、行動指示処理をステップS5ー1から再実行する。  Next, the control unit 21 of the love target matching server 20 executes a process of comparing the acquired face image data with the face image of the coupled user (step S5-4). Specifically, the action instruction unit 215 of the control unit 21 compares the face image acquired from the viewpoint image of the user with the face image of the other user coupled with the user. Then, as a result of comparison, when the matching rate does not exceed the predetermined value (in the case of “NO” in step S5-5), the action instructing unit 215 of the control unit 21 re-executes the action instructing process from step S5-1. Do.

一方、一致率が所定値を超えた場合(ステップS5ー5において「YES」の場合)、恋愛対象マッチングサーバ20の制御部21は、行動指示履歴を検索する処理を実行する(ステップS5ー6)具体的には、制御部21の行動指示部215は、行動指示情報記憶部27から行動指示承諾率データ及び成功率データが記録されている行動指示データ270があるか検索する。  On the other hand, when the match rate exceeds the predetermined value (in the case of “YES” in step S5-5), the control unit 21 of the love target matching server 20 executes a process of searching for the action instruction history (step S5-6) ) Specifically, the action instruction unit 215 of the control unit 21 searches the action instruction information storage unit 27 for the presence of the action instruction data 270 in which the action instruction acceptance rate data and the success rate data are recorded.

そして、行動指示履歴がある場合(ステップS5ー7において「YES」の場合)、連帯対象マッチングサーバ20の制御部21は、行動指示履歴からユーザが過去の行動指示を承諾した確率及び過去の行動指示が成功した確率を取得する処理を実行する(ステップS5ー8)。具体的には、制御部21の行動指示部215は、行動指示情報記憶部27の行動指示データ270にユーザIDに関連付けて記録されている行動指示承諾率データ及び相手ユーザのユーザIDに関連付けて記録されている成功率データを取得する。  Then, when there is an action instruction history (in the case of “YES” in step S5-7), the control unit 21 of the joint object matching server 20 determines from the action instruction history the probability that the user accepted the past action instruction and the past action A process of acquiring the probability that the instruction has succeeded is executed (step S5-8). Specifically, the action instruction unit 215 of the control unit 21 associates the action instruction acceptance rate data recorded in the action instruction data 270 of the action instruction information storage unit 27 in association with the user ID and the user ID of the other user. Obtain the recorded success rate data.

次に、恋愛対象マッチングサーバ20の制御部21は、取得した承諾率及び成功率に基づいて行動指示得点を算出する処理を実行する(ステップS5ー9)。具体的には、制御部21の行動指示部215は、取得した行動指示承諾率データと成功率データを所定の方程式によって合計値を算出し、行動指示情報記憶部27の行動指示データ270にこのユーザのユーザIDと関連付けて記録する。成功率及び合計値算出にあたって、一方のデータに重み付けを加えてもよい。  Next, the control unit 21 of the love target matching server 20 executes a process of calculating an action instruction score based on the acquired consent rate and success rate (step S5-9). Specifically, the action instructing unit 215 of the control unit 21 calculates the sum of the acquired action instructing acceptance rate data and the success rate data according to a predetermined equation, and the sum is stored in the action instructing data 270 of the action instructing information storage unit 27. It associates with the user ID of the user and records it. Weighting may be applied to one of the data in calculating the success rate and the total value.

次に、恋愛対象マッチングサーバ20の制御部21は、算出した行動指示得点に基づいて行動指示を選択する処理を実行する(ステップS5ー10)。具体的には、制御部21の行動指示部215は、行動指示情報記憶部27から最も高い行動指示得点が記録された行動指示データ270を選択する。  Next, the control unit 21 of the love target matching server 20 executes a process of selecting an action instruction based on the calculated action instruction score (step S5-10). Specifically, the action instructing unit 215 of the control unit 21 selects, from the action instructing information storage unit 27, the action instructing data 270 in which the highest action instructing score is recorded.

次に、恋愛対象マッチングサーバ20の制御部21は、最高得点の行動指示をユーザ端末10に対して送信する処理を実行する(ステップS5ー11)。具体的には、制御部21の行動指示部215は、行動指示情報記憶部27の最高得点の行動指示得点データに関連付けて記録された行動指示データ270をユーザ端末10に対して送信する。  Next, the control unit 21 of the love target matching server 20 executes a process of transmitting the action instruction of the highest score to the user terminal 10 (step S5-11). Specifically, the action instruction unit 215 of the control unit 21 transmits, to the user terminal 10, the action instruction data 270 recorded in association with the action instruction score data of the highest score in the action instruction information storage unit 27.

一方、行動指示履歴がない場合(ステップS5ー7において「NO」の場合)、過去の行動指示履歴を参照することなくステップS5ー8、ステップS5ー9及びステップS5ー10を省略し、予め記録されている行動指示群から行動指示を選択し、ユーザ端末10に送信する処理を実行する。具体的には、制御部21の行動指示部215は、行動指示情報記憶部27に記録されている複数の行動指示データ270から1つを無作為に選出し、ユーザ端末10に対して送信する。  On the other hand, when there is no action instruction history (in the case of "NO" in step S5-7), step S5-8, step S5-9 and step S5-10 are omitted without referring to the past action instruction history, and it is made in advance. The action instruction is selected from the action instruction group recorded, and the process of transmitting to the user terminal 10 is executed. Specifically, the action instruction unit 215 of the control unit 21 randomly selects one from the plurality of action instruction data 270 recorded in the action instruction information storage unit 27 and transmits it to the user terminal 10 .

次に、恋愛対象マッチングサーバ20の制御部21は、送信した行動指示がユーザによって承諾されたか否かを判定する処理を実行する(ステップS5ー12)。具体的には、制御部21の行動指示部215は、行動指示を受信後、ユーザ端末10が備えられた出力部としてのディスプレイ表示機能又は自動音声アナウンス機能を介して、ユーザに対して行動指示を通知し、ユーザは通知された行動指示に対して承諾するか否かを入力部としてのタッチディスプレイ機能又は指向性マイクロフォンを介して返答し、その結果をユーザ端末10は恋愛対象マッチングサーバ20の制御部21に対して送信する。返答がない場合は、拒否されたと判定する。  Next, the control unit 21 of the love target matching server 20 executes a process of determining whether the transmitted action instruction has been accepted by the user (step S5-12). Specifically, after receiving the action instruction, the action instructing unit 215 of the control unit 21 instructs the user to perform the action via a display display function or an automatic voice announcement function as an output unit with which the user terminal 10 is equipped. , And the user responds via the touch display function or directional microphone as an input unit whether or not to accept the notified action instruction, and the user terminal 10 sends the result to the love target matching server 20. It transmits to the control unit 21. If there is no reply, it is determined that it has been rejected.

ユーザが拒否した場合(ステップS5ー12において「NO」の場合)、恋愛対象マッチングサーバ20の制御部21は、ユーザ端末10に送信した行動指示を除外する処理を実行する(ステップS5ー13)。具体的には、制御部21の行動指示部215は、ユーザに拒否された行動指示データ270の行動指示IDを特定し、行動指示情報記憶部27に記録されている行動指示群から除外した上で、ステップS5ー6の行動指示履歴を検索する処理から再実行する。  When the user refuses (in the case of "NO" in step S5-12), the control unit 21 of the love target matching server 20 executes a process of excluding the action instruction transmitted to the user terminal 10 (step S5-13) . Specifically, the action instruction unit 215 of the control unit 21 specifies the action instruction ID of the action instruction data 270 rejected by the user and excludes it from the action instruction group recorded in the action instruction information storage unit 27. Then, the process of searching for the action instruction history in step S5-6 is re-executed.

一方、ユーザが承諾した場合(ステップS5ー12において「YES」の場合)恋愛対象マッチングサーバ20の制御部21は、行動指示承諾フラグを取得する処理を実行する。具体的には、制御部21の行動指示部215は、行動指示情報記憶部27の行動指示データ270に行動指示承諾フラグデータを記録する。  On the other hand, when the user consents (in the case of “YES” in step S5-12), the control unit 21 of the love target matching server 20 executes a process of acquiring an action instruction acceptance flag. Specifically, the action instruction unit 215 of the control unit 21 records action instruction acceptance flag data in the action instruction data 270 of the action instruction information storage unit 27.

次に、恋愛対象マッチングサーバ20の制御部21は、カップリングされた両ユーザの移動を検知する処理を実行する(ステップS5ー15)。具体的には、制御部21の行動指示部215は、カップリングされた両ユーザのユーザ端末10から位置情報を取得し、誘導先情報記憶部26の誘導先データ250に記録された所在地データを取得し、ユーザ端末10の位置情報と誘導先の所在地データ間の距離が所定値を超えた場合に、ユーザが誘導先から移動したと判定し、検知する。  Next, the control unit 21 of the love target matching server 20 executes a process of detecting the movement of both coupled users (step S5-15). Specifically, the action instructing unit 215 of the control unit 21 acquires position information from the user terminals 10 of both the coupled users, and stores the location data recorded in the guidance destination data 250 of the guidance destination information storage unit 26. When the distance between the position information of the user terminal 10 and the location data of the guidance destination exceeds a predetermined value, it is determined and detected that the user has moved from the guidance destination.

次に恋愛対象マッチングサーバ20の制御部21は、ビーコン接近情報が維持されているか否かを判定する処理を実行する(ステップS5ー16)。具体的には、制御部21の行動指示部215は、ユーザ端末10に備えられたビーコンセンサを介してカップリングされたユーザ同士の接近を検知した時点から行動指示情報記憶部27の行動指示データ270に記録されているビーコン接近フラグデータが、両ユーザの離脱によって解除されているか否か又は解除された後もビーコン接近フラグデータが再度記録されることもなく所定の連続時間数を超過しているか否かを判定する。尚、位置情報が十分に正確である場合には、ビーコン接近情報の代わりに位置情報を利用してもよい。  Next, the control unit 21 of the love target matching server 20 executes a process of determining whether the beacon approach information is maintained (step S5-16). Specifically, the action instruction unit 215 of the control unit 21 starts the action instruction data of the action instruction information storage unit 27 from the time point when the approach of the users coupled via the beacon sensor included in the user terminal 10 is detected. Whether or not beacon approach flag data recorded in 270 has been released due to the departure of both users, or after the beacon approach flag data is not recorded again, the predetermined continuous time number is exceeded Determine if there is. If the position information is sufficiently accurate, the position information may be used instead of the beacon approach information.

そして、ビーコン接近情報が維持されている場合(ステップS5ー16において「YES」の場合)、恋愛対象マッチングサーバ20の制御部21は、カップリングされた両ユーザ及び両ユーザに対して通知された行動指示について成功登録処理を実行する(ステップS5ー17)。具体的には、制御部21のカップリング処理部213は、カップリング情報記憶部24のカップリングデータ240に記録されているカップリングIDを抽出し、同カップリングIDに関連付けて成功フラグデータを記録する。また、制御部21の行動指示部215は、行動指示情報記憶部27の行動指示データ270に記録されている行動指示IDを抽出し、この行動指示IDに関連付けて成功フラグデータを記録する。  When the beacon approach information is maintained (in the case of “YES” in step S5-16), the control unit 21 of the love target matching server 20 is notified to both coupled users and both users. A success registration process is executed for the action instruction (steps S5-17). Specifically, the coupling processing unit 213 of the control unit 21 extracts the coupling ID recorded in the coupling data 240 of the coupling information storage unit 24, associates it with the coupling ID, and transmits the success flag data. Record. Further, the action instruction unit 215 of the control unit 21 extracts the action instruction ID recorded in the action instruction data 270 of the action instruction information storage unit 27 and records success flag data in association with the action instruction ID.

次に、恋愛対象マッチングサーバ20の制御部21は、成功した行動指示について行動指示成功率を算出及び反映する処理を実行する(ステップS5ー18)。具体的には、制御部21の行動指示部215は、行動指示情報記憶部27から成功フラグデータが更新された行動指示データ270を抽出し、ユーザに対して通知された件数のうち成功フラグデータが記録された件数の割合を算出し、成功率データとして記録する。  Next, the control unit 21 of the love target matching server 20 executes a process of calculating and reflecting the action instruction success rate for the successful action instruction (step S5-18). Specifically, the action instruction unit 215 of the control unit 21 extracts the action instruction data 270 in which the success flag data is updated from the action instruction information storage unit 27, and among the numbers notified to the user, the success flag data Calculate the ratio of the number of recorded cases and record it as success rate data.

本実施形態によれば、以下のような効果を得ることができる。
(1)本実施形態では、恋愛対象マッチングサーバ20の制御部21は、ユーザ端末10から取得した画像の顔認識処理を実行した場合(ステップS1ー1)、顔認識済の画像とユーザの視線が一致しているか否かの判定処理(ステップS1ー2)、顔認識済の画像が正面を向いているか否かの判定処理(ステップS1ー3)及び顔画像に写っているユーザ端末10がユーザの顔の中心線を軸として左右が反転しているか否かの判定処理(ステップS1ー4)を実行する。そして、これらの判定処理において所定の条件を満たした場合、本人顔画像登録処理を実行する。これにより、ユーザにサービス利用や会員登録を意識させることなく、鏡に映ったユーザ本人の虚像としての顔画像を記録した場合のみその顔画像を本人顔画像として検知し、記録することができ、ユーザ以外の他者の顔画像を記録した場合にはその顔画像をユーザ本人としては記録しないよう処理することができる。
According to the present embodiment, the following effects can be obtained.
(1) In the present embodiment, when the control unit 21 of the love target matching server 20 executes the face recognition processing of the image acquired from the user terminal 10 (step S1-1), the face recognition completed image and the user's gaze Of the face recognition (step S1-2), the process of determining whether the face-recognized image faces the front (step S1-3), and the user terminal 10 shown in the face image A determination process (step S1-4) is performed to determine whether the left and right sides of the face center line of the user's face are reversed. Then, if predetermined conditions are satisfied in these determination processes, the personal-person's face image registration process is executed. As a result, the face image can be detected and recorded as the face image only when the face image as the virtual image of the user in the mirror is recorded without making the user conscious of service use and member registration. When the face image of another person other than the user is recorded, the face image can be processed so as not to be recorded as the user.

(2)本実施形態では、恋愛対象マッチングサーバ20の制御部21は、ユーザ端末10から取得した画像の顔認識処理を実行した場合(ステップS2ー1)、顔認識済の画像とユーザの本人顔画像が一致しているか否かの判定処理(ステップS2ー2)を実行する。そして、本人顔画像と一致しない場合に、他者の顔画像として登録する処理を実行し(ステップS2ー3)、ユーザがその他者の顔画像を注視する時間及び回数を、ユーザ端末10を介して取得し(ステップS2ー4)、その多寡に応じて得点を付与し(ステップS2ー5)、所定の基準点を超えた他者の顔画像について顔画像を構成する各部位の座標及び面積占有率を算出する(ステップS2ー7、S2ー8)。これにより、ユーザ自ら他者の顔画像を意識的に選別することなく、無意識に長い時間又は繰り返し見てしまう他者の顔画像をユーザの嗜好対象として登録し、その顔画像を構成する各部位について分析することができる。  (2) In the present embodiment, when the control unit 21 of the love target matching server 20 executes the face recognition processing of the image acquired from the user terminal 10 (step S2-1), the face recognition completed image and the user of the user A determination process (step S2-2) is performed to determine whether or not the face images match. Then, when the user's face image does not match, a process of registering the face image of the other person is executed (step S2-3), and the time and the number of times for which the user looks at the face image of the other person are Obtain points (step S2-4), give points according to the degree (step S2-5), and the coordinates and area of each part constituting the face image of the face image of the other person who exceeds the predetermined reference point The occupancy rate is calculated (steps S2-7, S2-8). In this way, the user registers the face image of the other person who sees unknowingly for a long time or repeatedly as the preference object of the user without consciously selecting the face image of the other person himself, and each part constituting the face image Can be analyzed.

(3)本実施形態では、恋愛対象マッチングサーバ20の制御部21は、ユーザの嗜好対象として登録及び分析された顔画像各部位の形状、座標及び面積占有率について、他ユーザの本人顔画像とマッチング処理を実行し(ステップS3ー1)、その一致率が所定の基準値以上だった場合(ステップS3ー2において「YES」の場合)、そのユーザと嗜好対象の他者ユーザをカップリング登録する。これにより、ユーザが直接目視していない他者ユーザをもマッチング候補として判定処理を実行し、ユーザの無意識の嗜好を考慮しつつもインターネットを通じて膨大なユーザ同士をカップリングすることができる。  (3) In the present embodiment, the control unit 21 of the love target matching server 20 determines the shape, coordinates, and area occupancy of each part of the face image registered and analyzed as the user's preference target with the face image of another user. When the matching process is executed (step S3-1) and the matching rate is equal to or higher than a predetermined reference value (in the case of "YES" in step S3-2), the user and another user of preference object are registered for coupling Do. As a result, the determination process can be executed with other users who are not directly viewing the user as matching candidates, and a large number of users can be coupled through the Internet while considering the user's unconscious preference.

(4)本実施形態では、恋愛対象マッチングサーバ20の制御部21は、ユーザ端末10から位置情報を取得し(ステップS4ー1)、特定の緯度・経度におけるユーザの所在頻度及び滞在時間を算出し(ステップS4ー2)、カップリングされたユーザ間において互いが日常的に利用する地点又は経路を比較する処理を実行し(ステップS4ー5)、所在頻度、滞在時間、現在地からの所要時間及び地点カテゴリ等を勘案して得点を付与し(ステップS4ー9、S4ー13)、最高得点の誘導先にカップリングされたユーザを誘導する指示をユーザ端末10に対して送信する処理を実行する(ステップS4ー15)。そして、カップリングされた両ユーザが誘導指示を承諾した場合(ステップS4ー18において「YES」の場合)、承諾した事実及び両ユーザの本人顔画像を誘導先の店舗又は施設の従業員が閲覧及び操作できる法人端末30に対して送信する処理を実行する(ステップS4ー21)。これにより、カップリングされた両ユーザによって誘導指示が承諾されやすくなり、承諾後においては誘導先の店舗又は施設を運営する法人側も事前に両ユーザを受け入れ、両ユーザを隣席に配置するための情報を取得することができる。  (4) In the present embodiment, the control unit 21 of the love target matching server 20 acquires position information from the user terminal 10 (step S4-1), and calculates the location frequency and stay time of the user at a specific latitude and longitude (Step S4-2), and execute a process of comparing points or routes routinely used among the coupled users (step S4-5), the location frequency, the stay time, and the time required from the current location And give points in consideration of the point category etc. (steps S4-9, S4-13), and execute processing to transmit to the user terminal 10 an instruction to guide the user coupled to the highest score induction destination (Step S4-15). Then, when both coupled users accept the guidance instruction (in the case of “YES” in step S4-18), the employee of the store or facility who is the guidance destination browses the accepted fact and the personal face image of both users And a process of transmitting to the corporation terminal 30 which can be operated (step S4-21). As a result, the guidance instruction can be easily accepted by both of the coupled users, and after acceptance, the corporate side operating the store or facility of the induction destination accepts both users in advance, and places both users in the adjacent seat. Information can be obtained.

(5)本実施形態では、恋愛対象マッチングサーバ20の制御部21は、ユーザ端末10からビーコン接近情報を取得し(ステップS5ー1)、カップリングされた両ユーザが接近したことを検知した場合には、ユーザ端末10に対して隣席を見るよう行動指示を送信し(ステップS5ー2)、ユーザの視点の先に検知される顔画像とカップリングされた相手ユーザの本人顔画像とを比較する処理を実行する(ステップS5ー4)。そして、顔画像が一致した場合(ステップS5ー5において「YES」の場合)、過去に送信したことのある行動指示履歴からユーザによる行動指示承諾率及び行動指示成功率が高い行動指示をユーザ端末10に送信し(ステップS5ー6、S5ー7、S5ー8、S5ー9、S5ー10、S5ー11)、ユーザが行動指示を承諾した場合(ステップS5ー12において「YES」の場合)、カップリングされた両ユーザの位置情報により移動を検知する処理(ステップS5ー15)及びビーコン接近情報が維持されているか否かを判定する処理(ステップS5ー16)を実行する。これにより、カップリングされた両ユーザの接近を検知した上で、過去の履歴から成功率が最も高い行動指示を選定及び送信し、行動指示承諾後においては両ユーザ間の近距離が保たれたまま位置情報から移動を検知し、行動指示がカップリングされた両ユーザの関係発展に寄与したか否かを判定することができる。  (5) In the present embodiment, the control unit 21 of the love target matching server 20 acquires beacon approach information from the user terminal 10 (step S5-1), and detects that both coupled users approached. Sends an action instruction to the user terminal 10 to look at the next seat (step S5-2), and compares the face image detected at the end of the user's viewpoint with the face image of the coupled partner user. To execute the process (step S5-4). Then, if the face images match (in the case of "YES" in step S5-5), the action instruction having a high action instruction acceptance rate and action instruction success rate by the user from the action instruction history that has been transmitted in the past 10 (steps S5-6, S5-7, S5-8, S5-9, S5-10, S5-11), and the user accepts the action instruction ("YES" in step S5-12) ), The process of detecting movement based on the position information of both the coupled users (step S5-15), and the process of determining whether beacon approach information is maintained (step S5-16). Thus, after detecting the approach of both coupled users, the action instruction having the highest success rate is selected and transmitted from the past history, and after the action instruction is accepted, the short distance between both users is maintained. The movement can be detected from the position information as it is, and it can be determined whether the action instruction has contributed to the development of the relationship between the two coupled users.

(第2の実施形態)
次に、図8を用いて、恋愛対象マッチングシステムの第2の実施形態を説明する。上記第1の実施形態においては、他ユーザ又は非会員の顔画像におけるユーザの注視時間及び回数に基づいてユーザの嗜好を分析及びカップリングしていた。本実施形態では、他者の顔画像を視認した直後のユーザの視線の動きをも分析対象に含めることにより他者の顔画像だけでなく体型画像におけるユーザの注視時間及び回数に基づいて嗜好分析処理及びカップリング処理を実行する。本実施形態では、上記実施形態と同様の部分については、同一の符号を付し、その詳細な説明は省略する。
Second Embodiment
Next, a second embodiment of the love target matching system will be described using FIG. In the first embodiment, the preference of the user is analyzed and coupled based on the gaze time and the number of gazes of the user in the face image of another user or a nonmember. In the present embodiment, preference analysis is performed based on the gaze time and the number of times of the user not only in the face image of the other person but also in the figure image by including the movement of the user's line of sight immediately after viewing the other person's face image Perform processing and coupling processing. In the present embodiment, the same parts as those in the above-described embodiment are denoted by the same reference numerals, and the detailed description thereof is omitted.

本実施形態においては、上記第1の実施形態において恋愛対象マッチングサーバ20のユーザ情報記憶部22のユーザ管理データ220に記録されると説明した各データの他に、本人体型画像に関するデータ及び体型を嗜好するユーザのユーザIDが含まれる。
本人体型画像データ領域には、ユーザ本人の体型が写った画像に関するデータが記録される。
ユーザID領域には、各ユーザを特定するための識別子(ユーザID)のうち他ユーザのユーザIDに関するデータが記録される。
In the present embodiment, in addition to each data described as being recorded in the user management data 220 of the user information storage unit 22 of the love target matching server 20 in the first embodiment, the data and figure regarding the present humanoid image are It contains the user ID of the preferred user.
In the present human-body-type image data area, data relating to an image in which the user's own figure is photographed is recorded.
In the user ID area, data relating to the user ID of another user is recorded among identifiers (user ID) for specifying each user.

図8を用いて、本実施形態における嗜好分析処理を説明する。この処理は、ユーザ端末から顔画像及び体型画像を取得した場合に実行される。
まず、恋愛対象マッチングサーバ20の制御部21は、ステップS2ー1と同様に、ユーザ端末10から顔認識された人物の顔画像を取得する処理を実行する(ステップS6ー1)。
The preference analysis process according to the present embodiment will be described with reference to FIG. This process is performed when a face image and a figure image are acquired from a user terminal.
First, as in step S2-1, the control unit 21 of the love target matching server 20 executes a process of acquiring a face image of a person whose face is recognized from the user terminal 10 (step S6-1).

次に、恋愛対象マッチングサーバ20の制御部21は、ユーザ端末10から人物の体型として認識された画像を取得する処理を実行する(ステップS6ー2)。具体的には、手足若しくは衣服の形状又は人間の肌の色が映っていることを検知した場合に、体型画像として認識する。  Next, the control unit 21 of the love target matching server 20 executes a process of acquiring an image recognized as a figure of a person from the user terminal 10 (step S6-2). Specifically, when it is detected that the shape of the limbs or clothes or the color of human skin is reflected, the image is recognized as a figure-shaped image.

次に、恋愛対象マッチングサーバ20の制御部21は、ユーザが顔認識された顔画像を注視する連続時間及びその顔画像と体型として認識された体型画像とを反復する回数を取得する処理を実行する(ステップS6ー3)。具体的には、制御部21の嗜好分析部212は、ユーザ端末10からユーザの視点が顔画像に置かれているかを判定し、置かれている連続時間数及び置かれた回数を計測し、同時に体型画像に視点が置かれている連続時間及び置かれた回数を計測し、顔注視時間数データ及び顔視認回数データとして嗜好対象記憶部23の嗜好顔画像管理データ230に、体型注視時間数データ及び体型視認回数データとして嗜好体型画像管理データ232に記録する。  Next, the control unit 21 of the love target matching server 20 executes processing for acquiring the continuous time for which the user gazes at the face image whose face is recognized and the number of times to repeat the face image and the figure image recognized as the body type. (Step S6-3). Specifically, the preference analysis unit 212 of the control unit 21 determines from the user terminal 10 whether the viewpoint of the user is placed in the face image, and measures the number of continuous times placed and the number of times placed. At the same time, the continuous time and the number of times the viewpoint is placed in the figure image are measured, and the number of figure gaze hours is stored in the preference face image management data 230 of the preference object storage unit 23 as face gaze time number data and face sighting number data. It is recorded in the preference figure type image management data 232 as data and figure recognition frequency data.

次に、恋愛対象マッチングサーバ20の制御部21は、顔画像と体型画像を反復する視点の動きが所定範囲内であるか否かの判定処理を実行する(ステップS6ー4)。具体的には、制御部21の嗜好分析部212は、ユーザ端末10から顔画像データと体型画像データを反復するユーザの視点が顔画像の位置に対して平均的な人体の身長及び体幅の範囲内で動いているかを、ユーザとその顔画像との距離を計算しながら判定する。そして、範囲外と判定した場合(ステップS6ー4において「NO」の場合)、制御部21は、嗜好分析処理を終了する。  Next, the control unit 21 of the love target matching server 20 executes a process of determining whether the movement of the viewpoint repeating the face image and the figure image is within a predetermined range (step S6-4). Specifically, the preference analysis unit 212 of the control unit 21 determines that the viewpoint of the user who repeats the face image data and the body type image data from the user terminal 10 has an average height and width of the human body with respect to the position of the face image. Whether moving within the range is determined while calculating the distance between the user and the face image. And when it judges with out of the range (in the case [Step S6-4] of "NO"), control part 21 ends taste analysis processing.

一方、範囲内と判定した場合(ステップS6ー4)において「YES」の場合)、恋愛対象マッチングサーバ20の制御部21は、顔画像と体型画像を視点が反復する回数及び視認する連続時間数が所定基準を超えているか否かの判定処理を実行する(ステップS6ー5)。具体的には、制御部21の嗜好分析部212は、嗜好対象記憶部23の嗜好管理データ230に記録された顔視認回数データ及び体型視認回数データ並びに嗜好管理データ232に記録された顔注視時間数データ及び体型注視時間数データを、所定基準(例えば、人が他者の全身を視認する際に視点を動かす平均回数)と比較する。なお、注視時間数と反復回数の多寡だけでなく、ユーザが顔画像及び体型画像を注視する際の視点の動かし方や一回の注視時間等の特定のパターンに対して、より有効性が高いと判定する基準を追加してもよい。そして、反復回数と連続時間数の基準を超えない場合(ステップS6ー5において「NO」の場合)、制御部21は、嗜好分析処理を終了する。  On the other hand, when it is determined that the range is within the range (in the case of “YES” in step S6-4), the control unit 21 of the love target matching server 20 counts the number of times the viewpoint repeats the face image and the body type image A determination process of whether or not the value exceeds a predetermined reference is executed (step S6-5). Specifically, the preference analysis unit 212 of the control unit 21 controls the face recognition frequency data and the body shape recognition frequency data recorded in the preference management data 230 of the preference object storage unit 23 and the face gaze time recorded in the preference management data 232 The number data and the figure gaze time number data are compared to predetermined criteria (e.g., the average number of times a person moves the viewpoint when viewing another person's whole body). Note that it is more effective for specific patterns such as how to move the viewpoint when the user gazes at the face image and figure image, as well as the number of fixation times and the number of repetitions. You may add the criterion judged to be. Then, if the criteria for the number of repetitions and the number of continuous times are not exceeded (in the case of “NO” in step S6-5), the control unit 21 ends the preference analysis process.

一方、反復回数と連続時間数の基準を超えた場合(ステップS6ー5において「YES」の場合)、恋愛対象マッチングサーバ20の制御部21は、顔画像と体型画像を同一人物のものとして関連付ける処理を実行する(ステップS6ー6)。具体的には、顔画像データと体型画像データを嗜好対象記憶部23に相互に関連付けて記録する。  On the other hand, when the criteria for the number of repetitions and the number of continuous times are exceeded (in the case of “YES” in step S6-5), the control unit 21 of the love target matching server 20 associates the face image and the figure image as those of the same person. The process is executed (step S6-6). Specifically, the face image data and the figure image data are mutually associated and recorded in the preference object storage unit 23.

次に、恋愛対象マッチングサーバ20の制御部21は、体型に関する嗜好についての得点を付与する処理を実行する(ステップS6ー7)。具体的には、制御部21の嗜好分析部212は、ステップS6ー3において取得した体型注視時間数データ及び体型視認回数データの数値が大きければ大きいほど、体型画像データに対して高い得点を体型嗜好得点データとして付与し、嗜好対象記憶部23に記録する。なお、注視時間数と回数の多寡だけでなく、ユーザが体型画像を注視する際の視点の動かし方や一回の注視時間等の特定のパターンに対して、より高得点を付与するようにしてもよい。  Next, the control unit 21 of the love target matching server 20 executes a process of giving a score for the preference regarding the figure (step S6-7). Specifically, the preference analysis unit 212 of the control unit 21 sets a higher score on the figure image data as the figures of the figure gaze time number data and the figure recognition frequency data acquired in step S6-3 increase. It is given as preference score data and recorded in the preference object storage unit 23. In addition to the number of fixation times and the number of times, a higher score is given to a specific pattern such as how to move the viewpoint when the user gazes at the figure image or one fixation time. It is also good.

次に、恋愛対象マッチングサーバ20の制御部21は、体型画像データに付与された体型嗜好得点が所定基準を超えているか否かの判定処理を実行する(ステップS6ー8)。具体的には、制御部21の嗜好分析部212は、嗜好対象沖億部23において体型画像に付与された体型嗜好得点データを所定基準(例えば、全嗜好管理データに記録された体型嗜好得点データの平均値)と比較する。そして、体型嗜好得点データが所定基準を超えなかった場合(ステップS6ー8において「NO」の場合)、制御部21は、嗜好分析処理を終了する。  Next, the control unit 21 of the love target matching server 20 executes a determination process as to whether or not the body shape preference score given to the body shape image data exceeds a predetermined standard (step S6-8). Specifically, the preference analysis unit 212 of the control unit 21 performs predetermined criteria (for example, the figure preference score data recorded in all preference management data) on the figure preference score data attached to the figure image in the preference target area 23 Compare with the average value of Then, when the shape preference score data does not exceed the predetermined standard (in the case of “NO” in step S6-8), the control unit 21 ends the preference analysis process.

一方、体型嗜好得点データが所定基準を超えた場合(ステップS6ー8において「YES」の場合)、恋愛対象マッチングサーバ20の制御部21は、ステップS6ー6において体型画像と関連付けられた顔画像と、ユーザの本人顔画像が同一人物か否かの判定処理を実行する(ステップS6ー9)。具体的には、制御部21の嗜好分析部212は、嗜好対象記憶部23において体型嗜好得点が付与された体型画像データと関連付けて記録されている顔画像データを抽出し、本人顔画像登録処理によってユーザ情報記憶部22のユーザ管理データ220にユーザ本人のユーザIDに関連付けて記録された本人顔画像データとのマッチング処理を実行する。そして、同一人物と判定した場合(ステップS6ー9において「YES」の場合)、制御部21は、嗜好分析処理を終了する。  On the other hand, when the body shape preference score data exceeds the predetermined reference (in the case of “YES” in step S6-8), the control unit 21 of the love target matching server 20 detects the face image associated with the body shape image in step S6-6. Then, a process of judging whether the user's personal face image is the same person or not is executed (step S6-9). Specifically, the preference analysis unit 212 of the control unit 21 extracts face image data recorded in the preference target storage unit 23 in association with the body shape image data to which the body shape preference score is given, and the person's own face image registration processing Thus, matching processing with the personal-face image data recorded in the user management data 220 of the user information storage unit 22 in association with the user ID of the user is executed. Then, when it is determined that the person is the same person (in the case of “YES” in step S6-9), the control unit 21 ends the preference analysis process.

一方、ユーザ本人と同一人物と判定されなかった場合(ステップS6ー9において「NO」の場合)、恋愛対象マッチングサーバ20の制御部21は、顔画像データと他ユーザの本人顔画像が同一人物か否かの判定処理を実行する(ステップS6ー10)。具体的には、制御部21の嗜好分析部212は、ステップS6ー6において体型画像と関連付けられた顔画像と、本人顔画像登録処理によってユーザ情報記憶部22のユーザ管理データ220に他ユーザのユーザIDに関連付けて記録された本人顔画像データとのマッチング処理を実行する。そして、他ユーザと同一人物と判定した場合(ステップS6ー10において「YES」の場合)、制御部21の嗜好分析部212は、体型画像を他ユーザのユーザIDに関連付けて記録する処理を実行する(ステップS6ー11)。具体的には、制御部21の嗜好分析部212は、同一人物と判定した他ユーザのユーザIDをユーザ情報記憶部22のユーザ管理データ220から抽出し、そのユーザIDに関連付けて体型画像データをユーザ管理データ220に記録する。  On the other hand, when the user is not determined to be the same person as the user (in the case of “NO” in step S6-9), the control unit 21 of the love target matching server 20 determines that the face image data and the face image of the other user are the same person A determination process is performed (step S6-10). Specifically, the preference analysis unit 212 of the control unit 21 uses the face image associated with the physical image in step S6-6 and the user management data 220 of the user information storage unit 22 by the personal-face image registration processing of another user. A matching process with personal face image data recorded in association with the user ID is executed. Then, when it is determined that the same person as the other user (in the case of "YES" in step S6-10), the preference analysis unit 212 of the control unit 21 executes processing to associate the figure image with the user ID of the other user (Step S6-11). Specifically, the preference analysis unit 212 of the control unit 21 extracts the user ID of the other user who is determined to be the same person from the user management data 220 of the user information storage unit 22, associates it with the user ID, and the figure image data. The user management data 220 is recorded.

一方、他ユーザと同一人物と判定しなかった場合(ステップS6ー10において「NO」の場合)、恋愛対象マッチングサーバ20の制御部21は、既存の非会員画像に写っている人物と同一人物か否かの判定処理を実行する(ステップS6ー12)。具体的には、制御部21の嗜好分析部212は、ステップS6ー6において体型画像と関連付けられた顔画像と、既に嗜好対象記憶部23の非会員画像管理データ231に記録された非会員顔画像データとのマッチング処理を実行する。そして、非会員画像に写っている人物と同一人物と判定した場合(ステップS6ー12において「YES」の場合)、制御部21の嗜好分析部212は、体型画像を非会員画像IDに関連付けて記録する処理を実行する(ステップS6ー13)。具体的には、制御部21の嗜好分析部212は、嗜好対象記憶部23の非会員画像管理データ231から同一人物と判定した非会員顔画像に関連付けて記録された非会員画像IDを抽出し、ステップS6ー6において顔画像と関連付けられた体型画像を関連付けて、非会員画像管理データ231に記録する。  On the other hand, when it is not determined to be the same person as another user (in the case of “NO” in step S6-10), the control unit 21 of the love target matching server 20 matches the person shown in the existing nonmember image A determination process is performed (step S6-12). Specifically, the preference analysis unit 212 of the control unit 21 selects the face image associated with the physical image in step S6-6 and the non-member face already recorded in the non-member image management data 231 of the preference target storage unit 23. Execute matching processing with image data. Then, when it is determined that the person in the non-member image is the same person (in the case of “YES” in step S6-12), the preference analysis unit 212 of the control unit 21 associates the physical image with the non-member image ID. A recording process is executed (step S6-13). Specifically, the preference analysis unit 212 of the control unit 21 extracts the non-member image ID recorded in association with the non-member face image determined to be the same person from the non-member image management data 231 of the preference target storage unit 23 In step S6-6, the figure type image associated with the face image is associated and recorded in the non-member image management data 231.

一方、非会員画像と同一人物でないと判定した場合(ステップS6ー12において「NO」の場合)、恋愛対象マッチングサーバ20の制御部21は、体型画像と関連付けられた顔画像に対して非会員画像IDを新規登録する処理を実行する(ステップS6ー14)。具体的には、制御部21の嗜好分析部212は、ステップS6ー6において体型画像と関連付けられた顔画像に対して非会員画像IDを新規に発行し、嗜好対象記憶部23において非会員画像管理データ231を生成し、顔画像データから顔画像各部位を抽出し、顔画像各部位の座標及び面積占有率を算出し、非会員画像データ、非会員顔画像データ各部位データ、非会員顔画像データ各部位座標、非会員顔画像データ各部位面積占有率及び非会員体型画像データとして記録する。  On the other hand, when it is determined that the person is not the same person as the non-member image (in the case of “NO” in step S6-12), the control unit 21 of the love target matching server 20 does not become a member for the face image associated with the figure image. The process of newly registering the image ID is executed (step S6-14). Specifically, the preference analysis unit 212 of the control unit 21 newly issues a non-membership image ID to the face image associated with the figure-shaped image in step S6-6, and the preference-member storage unit 23 generates a non-membership image Management data 231 is generated, each face image part is extracted from face image data, coordinates and area occupancy of each face image part are calculated, non-member image data, non-member face image data each part data, non-member face The image data is recorded as each part coordinate, non-member face image data each part area occupancy, and non-member type image data.

次に、恋愛対象マッチングサーバ20の制御部21は、体型嗜好としてユーザ本人に他ユーザID又は非会員画像IDを関連付ける処理を実行する(ステップS6ー15)。具体的には、制御部21の嗜好分析部212は、ステップS6ー11において体型画像データに関連付けて記録された他ユーザのユーザID又はステップS6ー13若しくはステップS6ー14において体型画像データに関連付けて記録された非会員画像IDを、嗜好対象記憶部23の体型嗜好対象管理データ232に記録する。また、嗜好分析部212は、体型画像データが他ユーザのユーザIDに関連付けられた場合(ステップS6ー10において「YES」の場合)、ユーザ本人のユーザIDを、ユーザ情報記憶部22に記録された他ユーザのユーザ管理データ220に、体型を嗜好するユーザのユーザIDとして記録する。  Next, the control unit 21 of the love target matching server 20 executes a process of associating the other user ID or the non-member image ID with the user as the figure preference (step S6-15). Specifically, the preference analysis unit 212 of the control unit 21 associates the user ID of another user recorded in step S6-11 in association with the figure image data or the figure image data in step S6-13 or step S6-14. The recorded nonmember image ID is recorded in the body shape preference object management data 232 of the preference object storage unit 23. Further, when the physical image data is associated with the user ID of another user (in the case of “YES” in step S6-10), the preference analysis unit 212 records the user ID of the user in the user information storage unit 22 The user management data 220 of the other user is recorded as the user ID of the user who prefers the figure.

恋愛対象マッチングサーバ20の制御部21は、嗜好する体型の画像IDが重複又は近似する他ユーザを検索する処理を実行する(ステップS6ー16)。具体的には、制御部21の嗜好分析部212は、嗜好対象記憶部23の嗜好体型管理データ232からユーザのユーザIDに関連付けて記録された非会員画像ID又は他ユーザのユーザIDを抽出し、同じIDが嗜好体型として嗜好体型管理データ232に記録された他ユーザのユーザIDを検索する。  The control unit 21 of the love target matching server 20 executes a process of searching for another user whose image ID of the preferred physical shape overlaps or approximates (step S6-16). Specifically, the preference analysis unit 212 of the control unit 21 extracts the non-member image ID recorded in association with the user ID of the user or the user ID of another user from the preference type management data 232 of the preference target storage unit 23. The same ID is searched for the user ID of another user recorded in the preference type management data 232 as the preference type.

次に、恋愛対象マッチングサーバ20の制御部21は、嗜好する体型の画像IDの重複率が所定基準を超えるか否かの判定処理を実行する(ステップS6ー17)。具体的には、制御部21の嗜好分析部212は、嗜好する体型の画像IDが重複又は近似する他ユーザのうち重複率が所定基準を超える他ユーザを抽出する。そして、嗜好する体型の画像IDの重複率が所定基準を超えなかった場合(ステップS6ー17において「NO」の場合)、制御部21は、嗜好分析処理を終了する。  Next, the control unit 21 of the love target matching server 20 executes a process of determining whether the duplication rate of the image ID of the body type to be preferred exceeds a predetermined standard (step S6-17). Specifically, the preference analysis unit 212 of the control unit 21 extracts the other users whose overlap rate exceeds a predetermined reference, among the other users whose image IDs of preferred physical shapes overlap or approximate. Then, when the overlapping rate of the image ID of the body shape to be preferred does not exceed the predetermined reference (in the case of “NO” in steps S6-17), the control unit 21 ends the preference analysis process.

一方、重複率が所定基準を超えた場合(ステップS6ー17において「YES」の場合)、恋愛対象マッチングサーバ20の制御部21は、重複率の所定基準を超えた他ユーザの嗜好体型情報として登録された画像IDのうちユーザ本人の嗜好体型情報に未登録の画像IDを記録する処理を実行する(ステップS6ー18)。具体的には、制御部21の嗜好分析部212は、嗜好対象記憶部23の嗜好体型管理データ232に、嗜好体型の重複率が所定基準を超えた他ユーザのユーザIDに関連付けて記録された非会員画像ID及び他ユーザのユーザIDのうち、ユーザ本人のユーザIDにまだ関連付けられていないものを、ユーザ本人のユーザIDに関連付けて嗜好体型管理データ232に記録する。  On the other hand, when the overlap rate exceeds the predetermined reference (in the case of “YES” in step S6-17), the control unit 21 of the love target matching server 20 determines the preference figure information of the other user who exceeds the predetermined reference of the overlap A process of recording an unregistered image ID in the preference type information of the user of the registered image IDs is executed (step S6-18). Specifically, the preference analysis unit 212 of the control unit 21 is recorded in the preference type management data 232 of the preference target storage unit 23 in association with the user ID of another user whose preference ratio overlaps with a predetermined standard. Among the non-member image ID and the user ID of another user, one not associated with the user ID of the user is associated with the user ID of the user and recorded in the preference type management data 232.

本実施形態によれば、上記実施形態の(1)〜(5)と同様の効果に加えて、以下のような効果を得ることができる。
(6)本実施形態では、ユーザ端末10から顔画像と共に体型画像を取得し、両画像を行き来する視線の動きが範囲内である場合(ステップS6ー4において「YES」の場合)、そして両画像を視線が行き来する回数や連続時間が所定基準を超えた場合(ステップS6ー5において「YES」の場合)、恋愛対象マッチングサーバ20の制御部21は、顔画像と体型画像を相互に関連付けて記録し(ステップS6ー6)、体型画像についても嗜好に関する得点を付与することにより評価する。そして、嗜好する体型画像のパターンが重複又は近似する他ユーザの嗜好体型情報を抽出して未登録の嗜好体型情報を新たに記録する(ステップS6ー16、ステップS6ー17、ステップS6ー18)。これにより、顔画像だけでなく体型画像についての嗜好も併せて嗜好分析対象に含めることができる。
According to the present embodiment, in addition to the same effects as (1) to (5) of the above embodiment, the following effects can be obtained.
(6) In the present embodiment, when the figure image is acquired from the user terminal 10 together with the face image, and the movement of the line of sight moving between the two images is within the range (“YES” in step S6-4), When the number of times the line of sight moves back and forth or the continuous time exceeds a predetermined reference (in the case of “YES” in step S6-5), the control unit 21 of the love target matching server 20 associates the face image with the figure image Are recorded (step S6-6), and the body type image is also evaluated by giving a score regarding preference. Then, preference shape information of another user whose pattern of the preferred figure image overlaps or approximates is extracted, and unregistered preference shape information is newly recorded (steps S6-16, steps S6-17, steps S6-18). . Thus, not only the face image but also the preference for the figure type image can be included in the preference analysis target.

また、上記各実施形態は、以下のように変更してもよい。  In addition, the above embodiments may be modified as follows.

・上記第1実施形態において、恋愛対象マッチングサーバ20の制御部21は、顔画像データに顔嗜好得点を付与する処理を実行する(ステップS2ー3)。この場合、制御部21の嗜好分析部212は、ユーザが顔画像を注視する連続時間数と回数に関するデータの数値が大きければ大きいほど、顔画像データに対して高い得点を顔嗜好得点データとして付与する。これに加えて、ユーザ端末10に心拍数や体温等のユーザの心理状態が反映されるデータを取得する機能が備えられている場合には、これらのデータを併せて顔嗜好得点データを算出するようにしてもよい。
・上記第1実施形態において、恋愛対象マッチングサーバ20の制御部21は、受信した誘導指示を、ユーザ端末10を介してユーザに通知する処理を実行する(ステップS4ー17)。この場合、ユーザ端末10に備えられたイヤフォン若しくは骨伝導等を用いて自動音声をユーザに対してアナウンスする機能又は表示部として備えられた透過レンズ型ディスプレイ機能を介して誘導指示データ262の誘導指示内容データをユーザに通知する。ユーザに対する通知手段は、これらに限定するものではない。例えば、ユーザ端末10に予め備えられているカレンダー機能に誘導先へ行くという予定を登録するようにしてもよい。
In the first embodiment, the control unit 21 of the love target matching server 20 executes a process of giving a face preference score to the face image data (step S2-3). In this case, the preference analysis unit 212 of the control unit 21 assigns a higher score to the face image data as face preference score data as the numerical value of the data relating to the number of continuous times and the number of times the user gazes at the face image is larger. Do. In addition to this, when the user terminal 10 is provided with a function of acquiring data reflecting the user's mental state such as heart rate and body temperature, these data are combined to calculate face preference score data. You may do so.
In the first embodiment, the control unit 21 of the love target matching server 20 executes a process of notifying the user of the received guidance instruction via the user terminal 10 (step S4-17). In this case, the guidance instruction of the guidance instruction data 262 via the transparent lens type display function provided as a function or an announcement unit that announces an automatic voice to the user using an earphone or bone conduction etc. provided in the user terminal 10 Notify the user of content data. The means for notifying the user is not limited to these. For example, a schedule for going to a guide destination may be registered in a calendar function provided in advance in the user terminal 10.

10…ユーザ端末、20…恋愛対象マッチングサーバ、30…法人端末、21…制御部、22…ユーザ情報記憶部、23…嗜好対象記憶部、24…カップリング情報記憶部、25…ユーザ所在地情報記憶部、26…誘導先情報記憶部、27…行動指示情報記憶部、211…本人判定部、212…嗜好分析部、213…カップリング処理部、214…誘導指示部、215…行動指示部、220…ユーザ管理データ220、顔嗜好管理データ…230、非会員画像管理データ…231、体型嗜好管理データ…232、カップリング管理データ…240、ユーザ所在データ…250、誘導先データ…260、訪問実績データ…261、誘導先評価データ…262、行動指示データ…270。  DESCRIPTION OF SYMBOLS 10 ... User terminal, 20 ... Love object matching server, 30 ... Corporation terminal, 21 ... Control part, 22 ... User information storage part, 23 ... Preference object storage part, 24 ... Coupling information storage part, 25 ... User location information storage Part 26: Guidance destination information storage part 27: Behavior instruction information storage part 211: Person determination part 212: Preference analysis part 213: Coupling processing part 214: Guidance instruction part 215: Behavior instruction part 220 ... User management data 220, face preference management data ... 230, nonmember image management data ... 231, body type preference management data ... 232, coupling management data ... 240, user location data ... 250, guidance destination data ... 260, visit record data ... 261, guidance destination evaluation data ... 262, action instruction data ... 270.

Claims (7)

ユーザの顔及びそれを構成する各部位の画像情報に関連付けられた記憶領域を有したユーザ情報記憶部と、
前記ユーザの視点を捕捉し、前記ユーザが見ている対象を撮影し、前記対象が人の顔である場合には顔認識し、記録することができるユーザ端末に接続された制御部とを備えた恋愛対象マッチングシステムであって、
前記制御部は、
前記ユーザ端末が記録した顔認識された画像情報を取得し、
前記画像情報と前記ユーザとの間で視線の一致率が所定基準を超えているかを判断し、
前記画像情報に写る前記ユーザ端末が正面を向いているかを判断し、
前記画像情報に写る前記ユーザ端末が鏡面により左右反転しているかを判断し、
前記判断の全条件を満たしている場合には、前記顔認識された画像情報を本人顔画像情報として前記ユーザ情報記憶部に記録し、
前記本人顔画像情報に写っている顔を構成する各部位の画像を抽出し、
前記各部位の顔全体における座標及び面積占有率を算出し、
前記ユーザに関連付けて前記ユーザ情報記憶部に本人顔画像各部位座標及び本人顔画像面積占有率として記録することを特徴とする恋愛対象マッチングシステム。
A user information storage unit having a storage area associated with a user's face and image information of each part constituting the user;
A control unit connected to a user terminal capable of capturing the viewpoint of the user, photographing an object the user is looking at, and recognizing a face when the object is a human face and recording the object Love matching system,
The control unit
Obtaining face recognized image information recorded by the user terminal;
It is determined whether the line-of-sight coincidence rate between the image information and the user exceeds a predetermined standard,
Determining whether the user terminal appearing in the image information is facing forward;
Determining whether the user terminal reflected in the image information is mirror-reversed by a mirror surface;
When all the conditions of the determination are satisfied, the face-recognized image information is recorded as the face image information in the user information storage unit,
Extracting an image of each part constituting the face shown in the personal-face image information;
Calculating coordinates and area occupancy of the entire face of each part;
A love object matching system characterized in that it is recorded in the user information storage unit as individual face image individual part coordinates and the personal face image area occupancy rate in association with the user.
前記制御部は、前記ユーザに関連付けて他者の顔に関する嗜好を記録する嗜好対象記憶部に接続され、
前記制御部が、
前記ユーザ端末が記録した顔認識された画像情報を取得し、
前記ユーザ端末が記録した前記他者の画像情報に視点が置かれた連続時間数及び回数を取得し、
前記連続時間数及び前記回数に応じて嗜好に関する得点を付与し、
前記嗜好に関する得点が所定基準を超えた場合には、前記画像情報が前記本人顔画像情報と一致するかを判断し、
一致する場合には、他ユーザの前記本人顔画像各部位座標及び前記本人顔画像各部位面積占有率を取得し、
一致しない場合には、非会員画像IDが既に登録されているか判断し、
登録されている場合には、既存の非会員画像に関連付けて非会員顔画像各部位座標及び非会員顔画像各部位面積占有率に加算し、
登録されていない場合には、新たに非会員画像IDを登録して非会員顔画像各部位座標及び非会員顔画像各部位面積占有率を算出し、
前記ユーザに関連付けて前記嗜好対象記憶部に記録することを特徴とする請求項1に記載の恋愛対象マッチングシステム。
The control unit is connected to a preference target storage unit that records preferences related to the face of another person in association with the user,
The control unit
Obtaining face recognized image information recorded by the user terminal;
Acquiring the number of continuous times and the number of times the viewpoint is placed on the image information of the other person recorded by the user terminal;
According to the number of continuous times and the number of times, a score on preference is given
When the score regarding the preference exceeds a predetermined standard, it is determined whether the image information matches the personal-face image information.
If they match, the area coordinates of the individual face image of the other user and the area ratio of the individual face image are acquired.
If they do not match, it is determined whether a non-member image ID has already been registered,
If it is registered, it is added to the non-member face image each part coordinates and the non-member face image each part area occupancy in association with the existing non-member image,
If not registered, the non-member image ID is newly registered to calculate the non-member face image each region coordinates and the non-member face image each region area occupancy rate,
The love object matching system according to claim 1, wherein the preference object storage unit records the information in association with the user.
前記制御部は、互いに嗜好が一致又は近似する複数のユーザ同士の組合せを記録するカップリング情報記憶部に接続され、
前記制御部が、
前記嗜好対象記憶部に前記ユーザに関連付けられて記録された前記本人顔画像各部位座標及び前記本人顔画像各部位面積占有率と、前記ユーザ情報記憶部に前記他ユーザに関連付けられて記録された前記本人顔画像各部位座標及び前記本人顔画像各部位面積占有率とのマッチング処理を実行し、
一致率が互いに所定基準を超えた場合に、当該ユーザ同士の組合せについてカップリング処理を行い、前記カップリング情報記憶部に記録することを特徴とする請求項2に記載の恋愛対象マッチングシステム。
The control unit is connected to a coupling information storage unit that records a combination of a plurality of users whose preferences match or approximate each other,
The control unit
The individual face image each part coordinates and the individual face image each part area occupancy rate recorded in the preference object storage unit in association with the user, and the user information storage unit are recorded in association with the other user Executing matching processing between the individual face image each part coordinates and the individual face image each part area occupancy rate,
3. The love target matching system according to claim 2, wherein when the matching rates mutually exceed a predetermined reference, coupling processing is performed on the combination of the users, and the combination is recorded in the coupling information storage unit.
前記制御部は、前記ユーザに関連付けて所在地を記録するユーザ所在地情報記憶部と店舗及び施設並びにそれらに関連づけられたカテゴリを地図データ上にマッピングする形で記録する誘導先情報記憶部に接続され、
前記制御部が、
前記ユーザ端末から位置情報を取得し、
緯度及び経度並びにその履歴を記録し、
前記緯度及び経度における所在頻度及び滞在時間を算出し、
前記ユーザが日常的に利用する地点及び経路を特定して前記ユーザ所在地情報記憶部に記録し、
前記カップリング情報記憶部に前記ユーザと組み合わせて記録された他ユーザについても同様に利用頻度の高い地点及び移動経路を算出し、前記ユーザ所在地情報記憶部に記録し、
カップリングされた両ユーザ間で前記地点及び前記移動経路を比較し、
重複地点がある場合には、両ユーザの訪問回数及び現在位置からの所要時間に基づいて誘導先得点を付与し、
前記重複地点がない場合には、両ユーザの訪問回数が多い地点カテゴリ情報及び前記所要時間に基づいて前記誘導先得点を付与し、
前記誘導先得点がより高い地点を選定して誘導指示を前記両ユーザの前記ユーザ端末に送信し、
前記ユーザ端末は備えられた音声アナウンス機能及びディスプレイ表示機能によって前記両ユーザに前記誘導指示を通知し、
前記両ユーザが前記誘導指示を承諾した場合には、承諾情報を前記ユーザ端末から前記制御部に送信し、
前記承諾情報及び前記両ユーザの本人顔画像を誘導先に備えられた法人端末に送信し、前記法人端末を閲覧する誘導先の従業員に前記両ユーザを接近させる指示を前記法人端末に通知し、
前記両ユーザのいずれか一方又は両方が前記誘導指示を承諾しない場合には、拒否情報を前記ユーザ端末から前記制御部に送信し、
前記制御部は前記拒否情報に基づいて拒否された地点を除外して両ユーザ間で前記地点及び前記移動経路を比較する処理を再度実行することを特徴とする請求項3に記載の恋愛対象マッチングシステム。
The control unit is connected to a user location information storage unit for storing a location in association with the user, and a guidance destination information storage unit for storing a store, a facility, and a category associated with them on map data.
The control unit
Obtain location information from the user terminal,
Record the latitude and longitude and their history,
Calculate the location frequency and stay time at the latitude and longitude,
Identifying a point and a route that the user uses on a daily basis and recording the same in the user location information storage unit;
Similarly, for other users recorded in the coupling information storage unit in combination with the user, points and travel paths with high usage frequency are similarly calculated, and are recorded in the user location information storage unit.
Compare the point and the travel path between both coupled users,
If there is a duplication point, a destination score is assigned based on the number of visits of both users and the time taken from the current position,
If there is no overlapping point, the guidance destination score is assigned based on point category information where the number of visits by both users is large and the required time,
Selecting a point where the guidance destination score is higher and transmitting a guidance instruction to the user terminals of the two users;
The user terminal notifies both of the users of the guidance instruction by the provided voice announcement function and display display function.
If the two users agree to the guidance instruction, consent information is transmitted from the user terminal to the controller.
The consent information and the face image of the two users are transmitted to the corporation terminal provided at the guidance destination, and the corporation terminal is notified of an instruction to cause the employee of the guidance destination who browses the corporation terminal to approach the two users. ,
When any one or both of the two users do not accept the guidance instruction, rejection information is transmitted from the user terminal to the control unit,
The love target matching according to claim 3, wherein the control unit executes again the processing of comparing the point and the movement route between both users excluding the point rejected based on the refusal information. system.
前記制御部は、前記両ユーザに関連付けて行動指示履歴を記録する行動指示情報記憶部に接続され、
前記制御部が、
前記ユーザ端末からビーコン接近情報を取得し、
前記両ユーザが接近した場合には、前記ユーザ端末に相手ユーザを視認するよう行動指示を送信し、
前記両ユーザが前記ユーザ端末を介して見ている対象物の視点画像情報を取得し、
前記視点画像情報とカップリングされた他ユーザの本人顔画像情報についてマッチング処理を実行し、
一致率が所定基準を超える場合には、過去の行動指示履歴から前記相手ユーザに話しかけるための行動指示を検索し、
前記行動指示が見つかった場合には、前記行動指示に関連付けられた行動指示承諾率及び成功率を取得し、
前記行動指示承諾率及び前記成功率に基づいて行動指示得点を付与し、最高得点の行動指示を選定し、
前記行動指示履歴がない場合には、予め登録された行動指示群から無作為に行動指示を選択し、
前記行動指示をユーザ端末に送信し、前記ユーザ端末は前記音声アナウンス機能及び前記ディスプレイ表示機能によって前記ユーザに対して通知し、
前記行動指示を前記ユーザが承諾しない場合には、前記行動指示を除外し、前記行動指示履歴を再検索し、
前記行動指示を前記ユーザが承諾した場合には、前記ユーザ端末から前記両ユーザの位置情報を取得し、前記両ユーザの移動を検知し、
前記ユーザ端末からビーコン接近情報を取得し、前記両ユーザの接近情報が維持されているか判定し、
前記接近情報が維持されている場合には、前記ユーザが前記行動指示に従った結果としてカップリングされた相手ユーザと知り合えたと判断し、前記カップリングに成功フラグを登録し、
前記行動指示の成功率に反映する処理から再度実行することを特徴とする請求項4に記載の恋愛対象マッチングシステム。
The control unit is connected to an action instruction information storage unit that records an action instruction history in association with the both users,
The control unit
Acquiring beacon approach information from the user terminal;
When the two users approach each other, an action instruction is sent to the user terminal to visually recognize the other user,
Acquiring viewpoint image information of an object viewed by the two users via the user terminal;
Performing matching processing on the face image information of the other user coupled to the viewpoint image information;
If the coincidence rate exceeds a predetermined criterion, an action instruction for talking to the other user is retrieved from the past action instruction history,
If the action instruction is found, the action instruction acceptance rate and the success rate associated with the action instruction are acquired,
Assigning a behavioral instruction score based on the behavioral instruction acceptance rate and the success rate, and selecting a behavioral instruction with the highest score,
If there is no action instruction history, an action instruction is selected at random from a pre-registered action instruction group,
The action instruction is transmitted to the user terminal, and the user terminal notifies the user by the voice announcement function and the display display function.
When the user does not accept the action instruction, the action instruction is excluded and the action instruction history is re-searched.
When the user accepts the action instruction, position information of both users is acquired from the user terminal, and movement of both users is detected.
The beacon approach information is acquired from the user terminal, and it is determined whether the approach information of both the users is maintained,
If the approach information is maintained, it is determined that the user has met the partner user who is coupled as a result of following the action instruction, and a success flag is registered in the coupling,
The love object matching system according to claim 4, wherein the process is executed again from the process of reflecting the success rate of the action instruction.
ユーザの顔及びそれを構成する各部位の画像情報に関連付けられた記憶領域を有したユーザ情報記憶部と、
前記ユーザの視点を捕捉し、前記ユーザが見ている対象を撮影し、前記対象が人の顔である場合には顔認識し、記録することができるユーザ端末に接続された制御部とを備えた恋愛対象マッチングシステムを用いた、ユーザに意識させることなく当該ユーザの恋愛対象に関する嗜好を分析し、それに合致する恋愛対象を発見し、出会い、互いを知り合えるように誘導するための方法であって、
前記制御部は、
前記ユーザ端末が記録した顔認識された画像情報を取得し、
前記画像情報と前記ユーザとの間で視線の一致率が所定基準を超えているかを判断し、
前記画像情報に写る前記ユーザ端末が正面を向いているかを判断し、
前記画像情報に写る前記ユーザ端末が鏡面により左右反転しているかを判断し、
前記判断の条件の全てを満たしている場合には、前記顔認識された画像情報を本人顔画像情報として前記ユーザ情報記憶部に記録し、
前記本人顔画像情報に写っている顔を構成する各部位の画像を抽出し、
前記各部位の顔全体における座標及び面積占有率を算出し、
前記ユーザに関連付けて前記ユーザ情報記憶部に本人顔画像各部位座標及び本人顔画像面積占有率として記録することを特徴とする恋愛対象マッチング方法。
A user information storage unit having a storage area associated with a user's face and image information of each part constituting the user;
A control unit connected to a user terminal capable of capturing the viewpoint of the user, photographing an object the user is looking at, and recognizing a face when the object is a human face and recording the object A method for analyzing a user's preference for a love subject without making the user aware, finding a love subject matching it, and guiding the user to meet each other. ,
The control unit
Obtaining face recognized image information recorded by the user terminal;
It is determined whether the line-of-sight coincidence rate between the image information and the user exceeds a predetermined standard,
Determining whether the user terminal appearing in the image information is facing forward;
Determining whether the user terminal reflected in the image information is mirror-reversed by a mirror surface;
When all the conditions for the determination are satisfied, the face-recognized image information is recorded as the personal-face image information in the user information storage unit.
Extracting an image of each part constituting the face shown in the personal-face image information;
Calculating coordinates and area occupancy of the entire face of each part;
A love object matching method characterized in that it is stored in the user information storage unit as individual face image individual part coordinates and the personal face image area occupancy rate in association with the user.
ユーザの顔及びそれを構成する各部位の画像情報に関連付けられた記憶領域を有したユーザ情報記憶部と、
前記ユーザの視点を捕捉し、前記ユーザが見ている対象を撮影し、前記対象が人の顔である場合には顔認識し、記録することができるユーザ端末に接続された制御部とを備えた恋愛対象マッチングシステムを用いた、ユーザに意識させることなく当該ユーザの恋愛対象に関する嗜好を分析し、それに合致する恋愛対象を発見し、出会い、互いを知り合えるように誘導するためのプログラムであって、
前記制御部は、
前記ユーザ端末が記録した顔認識された画像情報を取得し、
前記画像情報と前記ユーザとの間で視線の一致率が所定基準を超えているかを判断し、
前記画像情報に写る前記ユーザ端末が正面を向いているかを判断し、
前記画像情報に写る前記ユーザ端末が鏡面により左右反転しているかを判断し、
前記判断の条件の全てを満たしている場合には、前記顔認識された画像情報を本人顔画像情報として前記ユーザ情報記憶部に記録し、
前記本人顔画像情報に写っている顔を構成する各部位の画像を抽出し、
前記各部位の顔全体における座標及び面積占有率を算出し、
前記ユーザに関連付けて前記ユーザ情報記憶部に本人顔画像各部位座標及び本人顔画像面積占有率として記録する手段として機能させることを特徴とする恋愛対象マッチングプログラム。
A user information storage unit having a storage area associated with a user's face and image information of each part constituting the user;
A control unit connected to a user terminal capable of capturing the viewpoint of the user, photographing an object the user is looking at, and recognizing a face when the object is a human face and recording the object A program for analyzing a user's preference for a love subject without making the user aware, using the love subject matching system, discovering a love subject matching it, and guiding them to meet and meet each other ,
The control unit
Obtaining face recognized image information recorded by the user terminal;
It is determined whether the line-of-sight coincidence rate between the image information and the user exceeds a predetermined standard,
Determining whether the user terminal appearing in the image information is facing forward;
Determining whether the user terminal reflected in the image information is mirror-reversed by a mirror surface;
When all the conditions for the determination are satisfied, the face-recognized image information is recorded as the personal-face image information in the user information storage unit.
Extracting an image of each part constituting the face shown in the personal-face image information;
Calculating coordinates and area occupancy of the entire face of each part;
A love object matching program, characterized in that it functions as a means for recording in the user information storage unit as individual face image part coordinates and the personal face image area occupancy rate in association with the user.
JP2017216787A 2017-10-23 2017-10-23 Love target matching system, love target matching method and love target matching program Active JP7083972B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017216787A JP7083972B2 (en) 2017-10-23 2017-10-23 Love target matching system, love target matching method and love target matching program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017216787A JP7083972B2 (en) 2017-10-23 2017-10-23 Love target matching system, love target matching method and love target matching program

Publications (2)

Publication Number Publication Date
JP2019079477A true JP2019079477A (en) 2019-05-23
JP7083972B2 JP7083972B2 (en) 2022-06-14

Family

ID=66627917

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017216787A Active JP7083972B2 (en) 2017-10-23 2017-10-23 Love target matching system, love target matching method and love target matching program

Country Status (1)

Country Link
JP (1) JP7083972B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021039487A (en) * 2019-09-02 2021-03-11 東芝テック株式会社 Matching information output device and matching information output system
JP7505201B2 (en) 2020-02-20 2024-06-25 富士フイルムビジネスイノベーション株式会社 Information processing device and information processing program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010170312A (en) * 2009-01-22 2010-08-05 Nec Corp Introduction system, method and program
US20110229016A1 (en) * 2008-12-01 2011-09-22 Nec Corporation Introduction system, method of introduction, and introduction program
JP2013251813A (en) * 2012-06-01 2013-12-12 Nikon Corp Electronic apparatus, display control system, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110229016A1 (en) * 2008-12-01 2011-09-22 Nec Corporation Introduction system, method of introduction, and introduction program
JP2010170312A (en) * 2009-01-22 2010-08-05 Nec Corp Introduction system, method and program
JP2013251813A (en) * 2012-06-01 2013-12-12 Nikon Corp Electronic apparatus, display control system, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021039487A (en) * 2019-09-02 2021-03-11 東芝テック株式会社 Matching information output device and matching information output system
JP7505201B2 (en) 2020-02-20 2024-06-25 富士フイルムビジネスイノベーション株式会社 Information processing device and information processing program

Also Published As

Publication number Publication date
JP7083972B2 (en) 2022-06-14

Similar Documents

Publication Publication Date Title
US10636159B2 (en) Devices, methods and systems for biometric user recognition utilizing neural networks
JP6550460B2 (en) System and method for identifying eye signals, and continuous biometric authentication
JP4369326B2 (en) Facility information providing system and facility information providing method
US20160262017A1 (en) Personal assistant authentication
US10223832B2 (en) Providing location occupancy analysis via a mixed reality device
KR20190075988A (en) Wearable devices and methods that analyze images and provide feedback
US11032409B1 (en) Methods for geographic gesturing using a mobile device for interactions with nearby other mobile devices
Lee et al. Pedestrian detection with wearable cameras for the blind: A two-way perspective
US20220207116A1 (en) Identity authentication management system in virtual reality world
KR20110088273A (en) Mobile terminal and method for forming human network using mobile terminal
CN102902704B (en) Message processing device, phrase output
KR20160138793A (en) User emotion state information providing apparatus using a social network service and method therefor
JP7083972B2 (en) Love target matching system, love target matching method and love target matching program
CN117012352B (en) Face recognition-based doctor-patient noninductive peer method
JP2022022083A (en) Entry/exit management device, entry/exit management method, entry/exit management program and entry/exit management system
US20080064333A1 (en) System and method for specifying observed targets and subsequent communication
EP4325383A1 (en) Techniques to provide user authentication for a near-eye display device
JP6690556B2 (en) Information processing system, information processing apparatus, control method, storage medium, and program
JP2018160213A (en) Display device and program
WO2019142664A1 (en) Information processing device, information processing method, and program
KR20220060846A (en) Method for providing pass including QR code and management server for the same
WO2021171614A1 (en) Server device, entry/exit management system, entry/exit management method and program
US20230056993A1 (en) Authentication terminal, entrance/exit management system, entrance/exit management method, and program
JP2015018489A (en) Information processor and information processing method
JP2017059002A (en) Event support system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220320

R150 Certificate of patent or registration of utility model

Ref document number: 7083972

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150