JP2019079477A - Love target matching system, love target matching method and love target matching program - Google Patents
Love target matching system, love target matching method and love target matching program Download PDFInfo
- Publication number
- JP2019079477A JP2019079477A JP2017216787A JP2017216787A JP2019079477A JP 2019079477 A JP2019079477 A JP 2019079477A JP 2017216787 A JP2017216787 A JP 2017216787A JP 2017216787 A JP2017216787 A JP 2017216787A JP 2019079477 A JP2019079477 A JP 2019079477A
- Authority
- JP
- Japan
- Prior art keywords
- user
- data
- face
- image
- recorded
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 155
- 230000009471 action Effects 0.000 claims abstract description 175
- 238000012545 processing Methods 0.000 claims abstract description 78
- 238000010168 coupling process Methods 0.000 claims abstract description 47
- 230000008878 coupling Effects 0.000 claims abstract description 39
- 238000005859 coupling reaction Methods 0.000 claims abstract description 39
- 230000008569 process Effects 0.000 claims description 144
- 230000006870 function Effects 0.000 claims description 36
- 238000013459 approach Methods 0.000 claims description 30
- 230000003542 behavioural effect Effects 0.000 claims description 4
- 238000004458 analytical method Methods 0.000 abstract description 59
- 230000006698 induction Effects 0.000 abstract description 5
- 238000007726 management method Methods 0.000 description 112
- 238000011156 evaluation Methods 0.000 description 26
- 239000000284 extract Substances 0.000 description 23
- 230000037237 body shape Effects 0.000 description 22
- 230000002354 daily effect Effects 0.000 description 19
- 210000001508 eye Anatomy 0.000 description 8
- 210000005069 ears Anatomy 0.000 description 6
- 210000004709 eyebrow Anatomy 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 210000000214 mouth Anatomy 0.000 description 4
- 210000001331 nose Anatomy 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 210000000988 bone and bone Anatomy 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000003203 everyday effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 230000000423 heterosexual effect Effects 0.000 description 1
- 230000000652 homosexual effect Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 230000006996 mental state Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、インターネットを介して異性又は同性の恋愛対象との出会いを仲介する恋愛対象マッチングシステム、恋愛対象マッチング方法及び恋愛対象マッチングプログラムに関する。 The present invention relates to a love target matching system, a love target matching method, and a love target matching program that mediates encounters with heterosexual or homosexual love targets via the Internet.
人が恋愛対象と出会う手段においては、当人が日常生活の中で得た人間関係やそこから派生する他者からの紹介等オフラインで為されるものが多い。 In the means by which a person encounters a subject of love, there are many things which are done off-line, such as the human relationship which the person obtained in daily life and the introduction from others who derive from it.
一方、インターネットが普及して以来、恋愛対象と出会う手段においても、インターネット上の掲示板やソーシャル・ネットワーキング・サービス等を介する場合が増えている。とりわけ、恋愛又は結婚を目的としたユーザに特化し、自身のプロフィール情報を登録した上で、結婚相手に望む具体的な条件を入力し、その条件と互いのプロフィール情報が相互に一致した場合には、電子的手段によって当該ユーザ間におけるコミュニケーション手段を提供するシステムも存在する(例えば、特許文献1を参照)。この文献に記載された技術においては、利用者が自らの具体的な情報を入力する入力手段と、結婚相手に望む具体的な条件を入力する入力手段と、当該データの蓄積手段と、これらのデータの中で適合する相手をマッチングする手段と、当該マッチング結果により適合する個人の情報を操作者と相手の双方に電子メールで送る送信手段とを備え、上記操作者と相手がこのシステムを通じてのみ電子メールの交換ができるようにして双方のプライバシーの保護を行う。 On the other hand, since the spread of the Internet, there have been increasing cases of using bulletin boards and social networking services on the Internet as a means of encountering love objects. Among other things, if you specialize in a user for the purpose of love or marriage, register your own profile information, and then enter the specific conditions you want for the marriage partner, and the conditions and the mutual profile information agree with each other. There is also a system that provides a means of communication between the users by electronic means (see, for example, Patent Document 1). In the technique described in this document, an input means for the user to input his / her specific information, an input means for inputting the specific conditions desired for the marriage partner, a storage means for the data, and The data processing system includes means for matching the other in the data, and transmission means for sending the information of the individual matching the result of the matching to both the operator and the other by e-mail, and the operator and the other party only through this system Enable e-mail exchange to protect the privacy of both parties.
上述したオフラインの場合においては、恋愛対象について肉眼での容姿確認の機会及び肉声での会話機会が、知り合う当初から得ることができる。しかしながら、当人の人間関係を起点とするため、得られる出会いの絶対数に限りがある。一方、オンラインの場合においては、インターネットを介して当人の人間関係を超えて多数の出会いを得られるが、オンラインで互いのプロフィールを知り合う時点では対面で相手の容姿及び実在を確認できず、直接の会話もできないため、ユーザに不信感を少なからず抱かせてしまうという課題があった。また、恋愛対象又は結婚対象を見つけることを目的としたオンラインサービスに会員登録すること自体を作為的な行為と捉え、羞恥や抵抗を感じるユーザも少なくない。 In the case of the above-described off-line, an opportunity for visual confirmation of appearance and an opportunity for speaking in a natural voice can be obtained from the beginning of the meeting. However, the absolute number of encounters obtained is limited because the relationship between the person is the starting point. On the other hand, in the case of online, you can get a large number of encounters beyond the person's relationship through the Internet, but when you get to know each other's profile online, you can not confirm the appearance and reality of the other person. In addition, there is a problem that the user may have a degree of distrust. In addition, there are not a few users who perceive shame or resistance as the act of registering themselves as an online service for the purpose of finding an object of love or an object of marriage.
本発明は、ユーザに対してオンラインサービスを利用していることを意識させることなく、ユーザの恋愛対象に関する嗜好を分析し、その嗜好に合致する恋愛対象を、インターネットを介して検索し、オンラインでマッチング処理を実行した上で、オフラインで出会えるようユーザの行動を誘導することができる恋愛対象マッチングシステム、恋愛対象マッチング方法及び恋愛対象マッチングプログラムを提供することにある。 The present invention analyzes a user's preference for a love subject without making the user aware of using the online service, searches for a love subject matching the preference via the Internet, and makes the online The object of the present invention is to provide a love target matching system, a love target matching method, and a love target matching program that can induce a user's action to meet offline after performing matching processing.
上記課題を解決するための恋愛対象マッチングシステムは、ユーザの顔及びそれを構成する各部位の画像情報に関連付けられた記憶領域を有したユーザ情報記憶部と、前記ユーザの視点を捕捉し、前記ユーザが見ている対象を撮影し、記録することができるユーザ端末に接続された制御部とを備える。前記制御部は、ユーザの顔及びそれを構成する各部位の画像情報に関連付けられた記憶領域を有したユーザ情報記憶部と、前記ユーザの視点を捕捉しながら前記ユーザが見ている対象を撮影、顔認識及び記録することができるユーザ端末に接続され、前記ユーザ端末が顔認識した顔画像情報を受信及び記録し、ユーザの視点と顔画像情報の視点が互いに一致し、顔画像情報の中に映るユーザ端末が左右対称及び左右反転している場合には、その顔画像情報が鏡に反射したユーザ本人の画像であると判断し、本人顔画像情報として前記ユーザ情報記憶部に記録する。 The romantic object matching system for solving the above problems includes: a user information storage unit having a storage area associated with a user's face and image information of each part constituting the user; and a viewpoint of the user, And a control unit connected to a user terminal capable of photographing and recording an object the user is looking at. The control unit captures a user information storage unit having a storage area associated with a user's face and image information of each part constituting the user, and capturing an object viewed by the user while capturing a viewpoint of the user Connected to a user terminal capable of face recognition and recording, the face information of the face recognized by the user terminal is received and recorded, the viewpoint of the user and the viewpoint of the face image information coincide with each other, and the face image information If the user terminal shown in the image is symmetrical and horizontally reversed, it is determined that the face image information is an image of the user himself reflected on the mirror, and is recorded in the user information storage unit as his own face image information.
前記制御部は、前記ユーザに関連付けて他者の顔又は体型に関する嗜好を記録する嗜好対象記憶部に接続され、前記制御部が、前記顔画像情報について前記ユーザの視点が置かれた回数及び連続時間数を記録し、前記回数及び前記連続時間数の多寡に応じて前記顔画像情報に対して嗜好に関する得点を付与し、前記嗜好に関する得点が所定基準を超えた場合には、前記ユーザの本人顔画像情報と一致しない顔画像情報を選別し、他ユーザの本人顔画像情報と一致する場合には、前記他ユーザの顔画像情報に関連付けて記録された顔画像各部位座標及び顔画像各部位面積占有率を取得し、他ユーザの本人顔画像情報と一致しない場合には、過去に他者の視点で記録されたが本人顔画像情報としては登録されていない非会員顔画像と一致するかを判断し、前記非会員顔画像に一致する場合には、前記非会員顔画像に関連付けて記録された顔画像各部位座標及び顔画像各部位面積占有率に加算し、前記非会員顔画像に一致しない場合には、新たに非会員画像IDを発行し、前記非会員画像IDに関連付けて記録し、非会員顔画像として各部位に分解し、顔全体における顔画像各部位座標、顔画像各部位面積占有率を、前記ユーザに関連付けて前記嗜好対象記憶部に記録する。 The control unit is connected to a preference target storage unit that records preferences related to the face or figure of another person in association with the user, and the control unit counts the number of times the viewpoint of the user is placed for the face image information The number of hours is recorded, a score regarding preference is given to the face image information according to the number of times and the number of continuous times, and when the score regarding the preference exceeds a predetermined standard, the identity of the user If the face image information which does not match the face image information is selected and the face image information of the other user is matched, the coordinates of each part of the face image and each part of the face image recorded in association with the face image information of the other user If the area occupancy rate is acquired and does not match the personal-face image information of another user, does it match a non-member face image recorded in the viewpoint of the other person in the past but not registered as the personal-face image information? The If it does not match the non-member face image, it is added to the face image region coordinates and face image region area occupancy rates recorded in association with the non-member face image, and matches the non-member face image If not, a non-member image ID is newly issued, associated with the non-member image ID, recorded, and decomposed into each portion as a non-member face image, and the coordinates of each portion of the face image in the entire face, each portion of the face image An area occupancy rate is recorded in the preference object storage unit in association with the user.
前記制御部は、相互に嗜好が一致又は近似するユーザ2名の組合せを記録するカップリング情報記憶部に接続され、前記制御部が、前記ユーザに関連付けて前記嗜好対象記憶部に記録した前記顔画像前記各部位座標及び前記顔画像各部位面積占有率と、前記ユーザ情報記憶部に前記ユーザ以外の他ユーザに関連付けられて記録された前記本人顔画像情報、抽出される各部位の画像情報及び顔全体における位置及び面積占有率とのマッチング処理を各項目別に実行し、一致率が互いに所定基準を超えた場合に、当該ユーザを組み合わせて前記カップリング情報記憶部に記録する。 The control unit is connected to a coupling information storage unit that records a combination of two users whose preferences match or approximate each other, and the control unit records the face associated with the user in the preference target storage unit. The image coordinates of each part and the face image parts area ratio, the personal face image information recorded in the user information storage unit in association with other users other than the user, image information of each part to be extracted, Matching processing with the position and area occupancy in the entire face is executed for each item, and when the coincidence exceeds each other by a predetermined reference, the users are combined and recorded in the coupling information storage unit.
前記制御部は、前記ユーザに関連付けて所在地を記録するユーザ所在地情報記憶部と店舗及び施設並びにそれらに関連づけられたカテゴリを地図データ上にマッピングする形で記録する誘導先情報記憶部と前記店舗又は前記施設の従業員が閲覧できる法人端末に接続され、前記制御部が、前記ユーザ端末から位置情報を取得し、緯度及び経度並びにその履歴を記録し、それらの統計値から前記ユーザの利用頻度の高い地点及び移動経路を算出し、前記ユーザ所在地情報記憶部に記録し、前記カップリング情報記憶部に前記ユーザと組み合わせて記録された他ユーザについても同様に利用頻度の高い地点及び移動経路を算出し、前記ユーザ所在地情報記憶部に記録し、カップリングされた両ユーザ間で前記地点及び前記移動経路を比較し、前記両ユーザ間で重複地点がある場合には、前記重複地点が複数あるかを判断し、前記重複地点が複数ない場合には、前記重複地点へ誘導する提案を前記両ユーザの前記ユーザ端末に送信し、前記重複地点が複数ある場合には、両ユーザの訪問回数及び現在位置からの所要時間に基づいて地点に関する得点を付与し、前記重複地点がない場合には、両ユーザの訪問回数が多い地点カテゴリ情報及び前記所要時間に基づいて前記地点に関する得点を付与し、前記地点に関する得点がより高い地点へ誘導する提案を前記両ユーザの前記ユーザ端末に送信し、前記ユーザ端末は備えられた自動音声アナウンス機能及びディスプレイ表示機能によって前記両ユーザに前記提案を通知し、前記両ユーザが前記提案を承諾した場合には、承諾情報を前記ユーザ端末から前記制御部、前記制御部から前記法人端末に送信し、前記両ユーザのいずれか一方が前記提案を承諾しない場合には、拒否情報を前記ユーザ端末から前記制御部に送信し、前記制御部は前記拒否情報に基づいて拒否された地点を除外し、両ユーザ間で前記地点及び前記移動経路を比較する処理を再度実行する。 The control unit stores a user location information storage unit that records a location in association with the user, a store and a facility, and a guidance destination information storage unit that records a category associated with them on map data in the form of mapping The control unit is connected to a corporate terminal that can be viewed by an employee of the facility, the control unit acquires location information from the user terminal, records latitude and longitude, and its history, and uses their statistics to determine the frequency of use of the user. Calculates high points and moving routes, records them in the user location information storage unit, and similarly calculates points and moving routes with high usage frequency for other users recorded in combination with the user in the coupling information storage unit Recording the location information in the user location information storage unit, and comparing the point and the movement route between the coupled users. If there are overlapping points between users, it is judged whether there are multiple overlapping points, and if there are multiple overlapping points, a proposal for guiding to the overlapping points is transmitted to the user terminals of the two users. If there is a plurality of overlapping points, a score regarding the point is given based on the number of visits by both users and the required time from the current position, and if there is no overlapping point, the points where the number of visits by both users is large Based on the category information and the required time, a score relating to the point is given, and a proposal for guiding to a point where the score relating to the point is higher is transmitted to the user terminal of the both users, and the user terminal is equipped with an automatic voice When both the user are notified of the proposal by the announcement function and the display display function, and the both users approve the proposal, the consent information is used as the user When the control unit and the control unit transmit from the end to the corporate terminal and either one of the two users does not accept the proposal, the user terminal transmits rejection information to the control unit, and the control is performed. The unit excludes a point rejected based on the refusal information, and executes again the processing of comparing the point and the movement route between both users.
前記制御部は、前記両ユーザに関連付けて行動指示履歴を記録する行動指示情報記憶部に接続され、前記制御部が、前記ユーザ端末からビーコン接近情報を取得し、前記両ユーザが接近した場合には、前記ユーザ端末に相手ユーザを視認するための行動指示を送信し、前記両ユーザが前記ユーザ端末を介して見ている対象物の視点画像情報を取得し、前記視点画像情報とカップリングされた他ユーザの本人顔画像情報についてマッチング処理を実行し、一致率が所定基準を超える場合には、過去の行動指示履歴から前記相手ユーザに話しかけるための行動指示を検索し、前記話しかけるための行動指示が見つかった場合には、承諾率及び成功率を取得し、前記承諾率及び前記成功率に基づいて行動指示得点を付与し、最高得点の行動指示を選定し、前記話しかけるための行動指示履歴が見つからない場合には、予め登録された行動指示群から無作為に行動指示を選択し、前記話しかけるための行動指示をユーザ端末に送信し、前記ユーザ端末は前記自動音声アナウンス機能及び前記ディスプレイ表示機能によって前記ユーザに対して通知し、前記話しかけるための行動指示を前記ユーザが承諾しない場合には、前記話しかけるための行動指示を除外し、前記行動指示履歴を再検索し、前記話しかけるための行動指示を前記ユーザが承諾した場合には、前記ユーザ端末から前記両ユーザの位置情報を取得し、前記両ユーザの移動を検知し、前記ユーザ端末からビーコン接近情報を取得し、前記両ユーザの接近情報が維持されているか判定し、前記接近情報が維持されている場合には、前記ユーザが前記行動指示に従った結果としてカップリングされた相手ユーザと出会えたと判断し、前記カップリングに成功フラグを登録し、前記話しかけるための行動指示の成功率に反映する処理から再度実行する。 The control unit is connected to an action instruction information storage unit that records an action instruction history in association with the two users, and the control unit acquires beacon approach information from the user terminal, and the two users approach each other. Transmits an action instruction for visually recognizing the other user to the user terminal, acquires viewpoint image information of an object viewed by the both users via the user terminal, and is coupled with the viewpoint image information. The matching process is performed on the face image information of the other user, and when the coincidence rate exceeds a predetermined reference, an action instruction for talking to the other user is searched from the past action instruction history, and the action for talking If an instruction is found, acquire an acceptance rate and a success rate, assign an action instruction score based on the acceptance rate and the success rate, and select an action instruction with the highest score. If the action instruction history to speak is not found, the action instruction is selected at random from the action instruction group registered in advance, and the action instruction to speak is transmitted to the user terminal, and the user terminal The automatic voice announcement function and the display display function notify the user, and when the user does not accept the action instruction for speaking, the action instruction for speaking is excluded and the action instruction history is When the user re-searches and the user accepts the action instruction to speak, the position information of both users is acquired from the user terminal, the movement of both users is detected, and the beacon approach information from the user terminal If the approach information is maintained, it is determined whether the approach information of the two users is maintained. It is determined that the user can meet the coupled user as a result of following the action instruction, and a success flag is registered in the coupling, and the process is executed again from the process of reflecting the success rate of the action instruction for talking .
これにより、ユーザは特定のオンラインサービスへの会員登録やサービス利用を意識することなく、前記ユーザ端末を介して鏡に映った自身を見るという日常的な行為を通じて自身をマッチング対象とするために必要な自身の本人顔画像情報を登録することができ、前記ユーザ端末を介して他者を見るという日常的な行為を通じて恋愛対象に関する自身の嗜好について分析されたデータを反映させることができ、顔に関する容姿についての嗜好が互いに一定程度、一致又は近似したユーザ同士でカップリングされ、自身の利用頻度が高い店舗若しくは施設又は利用頻度が高いカテゴリに属する店舗若しくは施設に誘導され、前記店舗又は前記施設において互いが同時に着目した対象物に関して出された行動指示に従った結果として自然にカップリングされた相手ユーザと対話の契機を得ることができる。 This makes it necessary for the user to match himself through the daily act of looking at himself reflected in the mirror via the user terminal without being aware of membership registration or service use for a particular online service. Personal face image information can be registered, and data analyzed about his / her preference for a love object can be reflected through the daily act of seeing another person through the user terminal Users whose preference for appearance is coupled with each other to a certain degree, match or approximate each other, are guided to a store or facility whose use frequency is high or a store or facility belonging to a category whose use frequency is high, in the store or the facility Naturally as a result of following the behavioral instructions issued for It can be obtained opportunity for interaction between the ring and the other user.
・上記恋愛対象マッチングシステムにおいて、前記制御部は、ユーザの体型に関する画像及び評価結果を記録する体型画像記憶部に接続され、前記ユーザ端末から取得した前記画像情報の中から本人顔画像情報と一致しない画像情報について他者画像情報として記録した後、前記ユーザ端末から体型画像情報を取得した場合に、前記ユーザの視線の動きが所定範囲内であるかを判断し、前記所定範囲内である場合には、前記ユーザ端末から前記ユーザの視線反復回数を取得し、前記視線反復回数が所定基準を超えている場合には、前記他者画像情報と前記他者ユーザに関連付けられた本人顔画像情報とでマッチング処理を実行し、一致した場合には、前記他者ユーザの本人顔画像情報と前記体型画像情報を関連付けて前記ユーザ情報記憶部に記録し、前記体型画像情報を前記体型画像記憶部に記録し、前記ユーザ端末から前記体型画像情報に関する前記ユーザの注視時間及び注視回数を取得し、前記注視時間及び前記注視回数の多寡に応じて前記体型画像情報に対して前記嗜好に関する得点を付与し、前記嗜好に関する得点が所定基準を超えた場合には、前記体型画像記憶部から体型比較結果を受信し、前記嗜好に関する得点と前記体型比較結果を前記ユーザに関連付けて嗜好対象記憶部に記録し、一方で、前記体型画像記憶部に記録された前記体型画像情報については、前記体型画像記憶部に記録されている他の体型画像情報から算出された平均値と比較し、前記体型比較結果を前記嗜好対象記憶部及び前記ユーザ情報記憶部に送信し、前記体型画像情報を全体平均に加算し、前記ユーザ情報記憶部に送信された前記体型比較結果は、前記他者ユーザに関連付けて本人体型情報としても記録される。これにより、ユーザはサービス利用を意識することなく、前記ユーザ端末を介して他者の顔と体型を一定の視野範囲内で交互に見るという自然な行為を通じて、恋愛対象に関する顔だけでなく体型の嗜好についても分析されたデータを反映させることができる。 -In the said love object matching system, the said control part is connected to the figure type image storage part which records the image regarding a figure of a user, and an evaluation result, It matches with a person's face image information out of the said image information acquired from the said user terminal In the case where body image information is acquired from the user terminal after recording the image information not to be generated as the other person image information, it is determined whether the movement of the user's line of sight is within the predetermined range. To obtain the number of eye gaze repetition times of the user from the user terminal, and when the eye gaze repetition number exceeds a predetermined reference, the other person image information and the personal face image information associated with the other person user The matching process is executed, and when they match, the personal-face image information of the other user and the figure image information are associated with each other and the user information storage unit Recording the figure image information in the figure image storage unit, acquiring from the user terminal the gaze time and number of gazes of the user regarding the figure image information, and according to the gaze time and the number of gazes A score relating to the preference is given to the figure image information, and when the score relating to the preference exceeds a predetermined standard, a figure comparison result is received from the figure image storage unit, and the figure relating to the preference is compared with the figure The result is stored in the preference target storage unit in association with the user, while the body type image information stored in the body type image storage unit is derived from the other body type image information stored in the body type image storage unit. The body shape comparison result is sent to the preference object storage unit and the user information storage unit in comparison with the calculated average value, and the shape image information is added to the overall average, The type comparison results transmitted to the user information storage unit is also recorded as the principal type information in association with the others user. As a result, the user can not only look at the face related to the love target, but also the body shape through the natural act of alternately viewing the face and the body shape of the other within a certain visual field range through the user terminal without being aware of the service usage. The analyzed data can also be reflected on preferences.
・上記恋愛対象マッチングシステムにおいて、前記制御部は、前記誘導先情報記憶部に記録された店舗及び施設の従業員によって操作できる法人端末に接続され、前記制御部が前記ユーザ端末に対して送信した前記提案を前記両ユーザが承諾した場合に、前記両ユーザに関連付けて前記ユーザ情報記憶部に記録されている前記本人顔画像情報を前記法人端末に対して送信し、前記法人端末に備えられたディスプレイ表示機能又は自動音声アナウンス機能によって前記従業員に対して通知する。これにより、誘導先として指定された店舗又は施設の従業員は、カップリングされたユーザに対して対話の契機を提供することができる。 -In the said romance object matching system, the said control part was connected to the corporation terminal which can be operated by the employee of the store and the facility recorded on the said guidance destination information storage part, and the said control part transmitted to the said user terminal When both the users accept the proposal, the personal-face image information recorded in the user information storage unit in association with the both users is transmitted to the corporate terminal, and the corporate terminal is equipped with the proposal. The employee is notified by a display display function or an automatic voice announcement function. As a result, the employee of the store or facility designated as the guide destination can provide an opportunity for interaction to the coupled user.
・上記恋愛対象マッチングシステムにおいて、前記制御部は、前記ユーザの顔及び各部位以外に声紋を記録する前記ユーザ情報記憶部に接続され、前記ユーザ端末の前記自動音声アナウンス機能及び前記ディスプレイ表示機能によって前記行動指示情報を前記ユーザに対して通知し、前記ユーザの視点画像を前記ユーザ端末から受信し、前記視点画像とカップリングされた相手ユーザの本人顔画像とでマッチング処理を実行する場合に、前記ユーザ端末を介して取得できる前記ユーザの至近で発せられた音声の声紋情報と、前記相手ユーザに関連付けて記録されている音声の声紋情報をも対象項目の一つとしてマッチング処理を実行する。これにより、前記ユーザが前記行動指示情報に従った結果としてカップリングされた相手ユーザと出会えたことを画像情報だけでなく音声情報によっても判断することができる。 -In the said love object matching system, the said control part is connected to the said user information storage part which records a voiceprint other than the said user's face and each part, The said automatic voice announcement function of the said user terminal and the said display display function When notifying the user of the action instruction information, receiving a viewpoint image of the user from the user terminal, and performing a matching process on the viewpoint image and a face image of the other user coupled with the viewpoint image. The matching process is performed with the voiceprint information of the voice emitted near the user, which can be acquired via the user terminal, and the voiceprint information of the voice recorded in association with the other user as one of the target items. Thus, it can be determined not only by the image information but also by the audio information that the user has encountered the coupled user as a result according to the action instruction information.
本発明によれば、容姿に関する嗜好に合致する恋愛対象とインターネットを介しつつもユーザにオンラインサービスの利用を意識させることなく、対面での会話を契機とした出会いに向けてユーザの行動を誘導することができる。 According to the present invention, the user's behavior is induced toward encounters in a face-to-face conversation without making the user conscious of using the online service while the love object matching the preference regarding appearance and the Internet be able to.
(第1の実施形態)
以下、図1〜図7を用いて、恋愛対象マッチングシステムの第1の実施形態を説明する。First Embodiment
Hereinafter, a first embodiment of a love target matching system will be described using FIGS. 1 to 7.
図1に示すように、恋愛対象マッチングシステムとしての恋愛対象マッチングサーバ20には、マッチング対象候補となるユーザが利用するユーザ端末10及び誘導先としての店舗又は施設の従業員が操作できる法人端末30に接続されている。ユーザ端末10としては、ユーザの視点を捕捉し、ユーザが見ている対象を撮影し、記録することが可能な眼鏡型又はコンタクトレンズ型等のウェアラブルコンピュータ端末を用いることができる。ユーザ端末10は、イヤフォン又は骨伝導等を用いて自動音声をユーザに対してアナウンスする機能、ユーザの体温を耳等の接触部から測定する機能、ユーザによる着脱を感知するセンサ機能、日時を測定する機能、GPS等により現在位置の情報を特定する機能、ビーコン等によりユーザ端末同士の接近又は離脱を検知する機能、ユーザの指紋や虹彩等によりユーザ個人を識別する機能等を有する。また、ユーザ端末10は、表示部としての透過レンズ型ディスプレイ及び入力部としての指向性マイクロフォンを備えている。更に、ユーザ端末10は、ユーザによって装着された場合に、ユーザの顔の中心線を軸とした左右を検知するための非対称な模様又は左右で異なる波長若しくは信号の赤外線等を発信する装置を備えている。また、ユーザ端末10は、記憶部を有している。この記憶部には、上記各機能のプログラムと、後述するユーザIDとが記録されている。 As shown in FIG. 1, in the love
恋愛対象マッチングサーバ20は、制御部21、ユーザ情報記憶部22、嗜好対象記憶部23、カップリング情報記憶部24、ユーザ所在地情報記憶部25、誘導先情報記憶部26及び行動指示情報記憶部27を備えている。嗜好対象記憶部23及びユーザ所在地情報記憶部25は、利用者個別記憶部として機能する。 The love
制御部21は、CPU、RAM、ROM等から構成された制御手段として機能し、後述する処理(本人顔画像登録処理段階、嗜好分析処理段階、カップリング処理段階、誘導処理段階、行動指示処理段階等を含む処理)を行なう。このための恋愛対象マッチングプログラムを実行することにより、制御部21は、本人判定部211、嗜好分析部212、カップリング処理部213、誘導指示部214、行動指示部215として機能する。 The
本人判定部211は、ユーザ端末10から取得した顔画像情報をユーザ本人であるかを判定する処理を実行する。この本人判定部211は、取得した画像情報に人間の顔が写っているかを判定するための顔認識判定値を記憶している。また、本人判定部211は、ユーザの視線と取得した顔画像の視線とが一致しているかを判定するための視線一致判定値を記憶している。本人判定部211は、取得した顔画像に写っているユーザ端末10の鏡像が正面を向いているかを判定するための正面判定値を記憶している。本人判定部211は、取得した画像に写っている顔画像がユーザ端末10を装着しているか、装着している場合には、その左右が判定しているかを判定するための左右反転判定値を記憶している。また、本人判定部211は、目、鼻、口、耳、頬、眉毛等の各部位の顔全体における座標及び面積占有率を記憶する。 The
嗜好分析部212は、ユーザ端末10から取得した画像情報をユーザが注視した連続時間数に応じてユーザの他者に対する容姿に関する嗜好分析処理を実行する。この嗜好分析部212は、複数の顔画像データを比較し、それらが同一人物の顔を示している場合に検知するための同一人物判定値を記憶している。また、嗜好分析部212は、ユーザが嗜好していることを連続注視時間から判定するための連続時間数判定値を記憶している。嗜好分析部212は、人間の顔を構成する各部位の画像情報を判定するための基準値を記憶している。また、嗜好分析部212は、顔全体における各部位の座標及び面積占有率を記録し、複数のパターンが記録された場合には、それらの統計値を算出する処理を実行する。 The
カップリング処理部213は、互いの容姿と互いの容姿に関する嗜好が相互に一致又は近似しているユーザの組合せを管理する処理を実行する。このカップリング処理部213は、一方のユーザの本人顔画像情報と他方のユーザの嗜好に一致又は近似するかを判定するための基準値を記憶している。カップリング処理部213は、画像情報についてマッチング処理を実行し、その一致率が所定の基準値を超えた場合に、これらのユーザを組合せとして記録する処理を実行する。 The
誘導指示部214は、ユーザに恋愛対象マッチングシステムの利用を気づかせることなくカップリングされた相手ユーザに出会えるよう誘導指示を発信する処理を実行する。この誘導指示部214は、ユーザの所在地の緯度・経度を特定するための地図データを記憶しており、また、ユーザが日常利用する地点又は経路を判定するための滞在頻度及び滞在時間に関する基準値を記憶している。 The guiding instruction unit 214 executes processing for transmitting a guiding instruction so that the user can meet the coupled partner user without noticing the use of the romantic object matching system. The guidance instruction unit 214 stores map data for specifying the latitude and longitude of the location of the user, and a reference value regarding the stay frequency and stay time for determining the point or route that the user uses daily I remember.
行動指示部215は、ユーザに恋愛対象マッチングシステムの利用を気づかせることなくカップリングされた相手ユーザと会話の契機を得られるよう行動指示を発信する処理を実行する。この行動指示部215は、ユーザ端末を介してユーザが向いている方角及び垂直角度をリアルタイムで記録し、相手ユーザの視野範囲と重複があるかを判定するための基準値を記憶している。また、行動指示部215は、ユーザ端末を介してユーザの視点画像をリアルタイムで記録し、色や形状等から一致する対象物があるかどうかを判定するための基準値を記憶している。行動指示部215は、カップリングされた両ユーザが見ている対象物の特徴に適した行動指示を選定するための基準値と行動指示群を記憶している。 The
法人端末30としては、恋愛対象マッチングサーバ20からカップリングされ、誘導提案を承諾したユーザ情報を受信し、誘導先の店舗又は施設の従業員に対して受信した情報をディスプレイ表示する表示部及び誘導されたユーザを受け入れるか否かフィードバック操作する入力部を有する。また、法人端末30は、記憶部を有している。この記憶部には、誘導提案を承諾したユーザ情報及びその受け入れ可否に関する情報が記録されている。 The
図2(a)に示すように、ユーザ情報記憶部22には、ユーザに関するユーザ管理データ220が記憶されている。このユーザ管理データ220は、ユーザがユーザ端末10を装着し、ユーザの指紋や虹彩又はパスワードを認証した場合に記録される。このユーザ管理データ220は、端末ID、ユーザID、認証データ、端末装着日時、端末装着位置、本人顔画像、本人顔画像各部位、本人顔画像各部位座標、本人顔画像各部位面積占有率に関するデータを含んで構成される。 As shown in FIG. 2A, the user
端末IDデータ領域には、ユーザ端末10の固有番号を特定するための識別子(端末ID)に関するデータが記録される。
ユーザIDデータ領域には、各ユーザを特定するための識別子(ユーザID)に関するデータが記録される。In the terminal ID data area, data relating to an identifier (terminal ID) for specifying the unique number of the
Data on an identifier (user ID) for identifying each user is recorded in the user ID data area.
認証データ領域には、このユーザを認証するためのパスワード、指紋画像又は虹彩画像等の認証情報に関するデータが記録される。 In the authentication data area, data relating to authentication information such as a password for authenticating the user, a fingerprint image or an iris image is recorded.
端末装着日時データには、このユーザがユーザ端末10を装着した年月日及び時刻並びにその履歴に関するデータが記録される。
端末装着位置データには、このユーザがユーザ端末10を装着した時点でユーザが所在する緯度・経度及びその履歴に関するデータが記録される。In the terminal attachment date and time data, data regarding the date and time when the user attached the
In the terminal mounting position data, data regarding the latitude and longitude where the user is located and the history thereof when the user mounts the
本人顔画像データには、ユーザ端末10によって撮影されたこのユーザの顔画像に関するデータが記録される。
本人顔画像各部位データには、本人顔画像を目、鼻、口、耳、眉、髪型、輪郭等の各部位に分解した画像に関するデータが記録される。
本人顔画像各部位座標データには、本人顔画像全体における本人顔画像各部位の位置を示す座標に関するデータが記録される。
本人顔画像各部位面積占有率データには、本人顔画像全体における本人顔画像各部位の面積が占める比率に関するデータが記録される。Data on the face image of the user taken by the
In the individual face image each part data, data relating to an image obtained by decomposing the person's own face image into each part such as eyes, nose, mouth, ears, eyebrows, hair style and outline is recorded.
In the personal-face image each part coordinate data, data relating to coordinates indicating the position of each part of the personal-face image in the entire personal-face image is recorded.
Data on the ratio of the area occupied by each part of the face image in the entire face image is recorded in the individual face area part occupancy ratio data.
図2(b)に示すように、嗜好対象記憶部23には、ユーザが持つ他者の顔に対する嗜好に関する顔嗜好管理データ230、恋愛対象マッチングサーバに本人顔画像データが登録されていない非会員の顔及び体型に関する非会員画像管理データ231並びにユーザが持つ他者の体型に対する嗜好に関する体型嗜好管理データ232が記憶されている。顔嗜好管理データ230は、ユーザがユーザ端末10を介して一人の他者の顔を所定の時間以上視認した場合に記録される。顔嗜好管理データ230は、ユーザID、他ユーザID又は非会員画像ID、顔注視時間数、顔視認回数、顔嗜好得点に関するデータを含んで構成される。 As shown in FIG. 2B, the preference
ユーザIDデータ領域には、ユーザ端末10を装着しているユーザ本人を特定するための識別子(ユーザID)に関するデータが記録される。このユーザIDを介して、顔嗜好管理データ230は、ユーザ管理データ220と関連付けられている。 Data on an identifier (user ID) for identifying the user who is wearing the
他ユーザIDデータ領域には、ユーザ端末10を装着しているユーザ本人以外の各ユーザを特定するための識別子(ユーザID)に関するデータが記録される。この他ユーザIDを介して、顔嗜好管理データ230は、他ユーザのユーザ管理データ220と関連付けられている。
非会員画像IDデータ領域には、後述する非会員画像管理データ231を特定するための識別子に関するデータ記録される。この非会員画像IDを介して、顔嗜好管理データ230は、非会員画像管理データ231と関連付けられている。Data on an identifier (user ID) for identifying each user other than the user himself / herself wearing the
Data regarding an identifier for specifying non-member
顔注視時間数データ領域には、このユーザがユーザ端末10を介して他者の顔に視点を置いた連続時間数に関するデータが記録される。
顔視認回数データ領域には、このユーザがユーザ端末10を介して他者の顔に視点を置いた回数に関するデータが記録される。
顔嗜好得点データ領域には、顔注視時間数及び顔視認回数の多寡に応じて付与された評価点に関するデータが記録される。In the face gaze time number data area, data relating to the number of continuous times when the user places a viewpoint on another person's face through the
In the face recognition frequency data area, data relating to the number of times the user places the viewpoint on the face of the other person via the
In the face preference score data area, data related to evaluation points given according to the number of face gaze times and the number of face recognition times is recorded.
非会員画像管理データ231は、非会員顔画像、非会員顔画像各部位、非会員顔画像各部位座標、非会員顔画像各部位面積占有率に関するデータを含んで構成される。この非会員画像管理データ231は、ユーザが視点を置き、ユーザ端末10によって顔画像が撮影及び検出され、恋愛対象マッチングサーバ上に同一人物と判定される顔画像データが登録されている会員が検出されない場合に記録される。 The nonmember
非会員顔画像データ領域には、このユーザが視点を置き、ユーザ端末10によって撮影及び検出された顔画像のうち恋愛対象マッチングサーバ上にユーザとして本人顔画像が登録されていない顔画像に関するデータが記録される。
非会員顔画像各部位データ領域には、非会員顔画像を目、鼻、口、耳、眉、髪型等の各部位に分解した画像に関するデータが記録される。
非会員顔画像各部位座標データ領域には、非会員顔画像全体における非会員顔画像各部位の座標等、位置に関するデータが記録される。
非会員顔画像各部位面積占有率データ領域には、非会員顔画像全体における非会員顔画像各部位の面積が占める比率に関するデータが記録される。In the non-member face image data area, among the face images taken and detected by the
Non-member face image In each part data area, data relating to an image obtained by decomposing a non-member face image into parts such as eyes, nose, mouth, ears, eyebrows, and hairstyle is recorded.
In the non-member face image each part coordinate data area, data on the position, such as coordinates of each part of the non-member face image in the entire non-member face image, is recorded.
In the non-member face image part area occupancy rate data area, data relating to the ratio of the area occupied by the non-member face image parts in the entire non-member face image is recorded.
体型嗜好管理データ232は、ユーザID、他ユーザID又は非会員画像ID、体型注視時間数、体型視認回数、体型嗜好得点に関するデータを含んで構成される。 The body shape
ユーザIDデータ領域には、ユーザ端末10を装着しているユーザ本人を特定するための識別子(ユーザID)に関するデータが記録される。このユーザIDを介して、顔嗜好管理データ230は、ユーザ管理データ220と関連付けられている。 Data on an identifier (user ID) for identifying the user who is wearing the
他ユーザIDデータ領域には、ユーザ端末10を装着しているユーザ本人以外の各ユーザを特定するための識別子(ユーザID)に関するデータが記録される。この他ユーザIDを介して、顔嗜好管理データ230は、他ユーザのユーザ管理データ220と関連付けられている。
非会員画像IDデータ領域には、後述する非会員画像管理データ231を特定するための識別子に関するデータ記録される。この非会員画像IDを介して、顔嗜好管理データ230は、非会員画像管理データ231と関連付けられている。Data on an identifier (user ID) for identifying each user other than the user himself / herself wearing the
Data regarding an identifier for specifying non-member
体型注視時間数データ領域には、このユーザがユーザ端末10を介して他者の体型に視点を置いた連続時間数に関するデータが記録される。
体型視認回数データ領域には、このユーザがユーザ端末10を介して他者の体型に視点を置いた回数に関するデータが記録される。
体型嗜好得点データ領域には、体型注視時間数及び体型視認回数の多寡に応じて付与された評価点に関するデータが記録される。In the figure type gaze time number data area, data concerning the number of continuous times when the user places a viewpoint on the figure of the other person via the
Data regarding the number of times this user has placed a viewpoint on another person's body shape via the
In the body type preference score data area, data relating to evaluation points given according to the number of body shape gaze times and the number of body shape visual recognition times is recorded.
図2(c)に示すように、カップリング情報記憶部24には、各ユーザ自身の容姿と各ユーザが持つ他者の容姿についての嗜好とが相互に所定の基準以上一致又は近似したユーザ同士の組合せに関するカップリング管理データ240が記録される。このカップリング管理データ240は、ユーザ管理データ220に記録された各ユーザ自身の容姿に関する分析データと顔嗜好管理データ230に記録された各ユーザが持つ他者の容姿についての嗜好に関する分析データについてマッチング処理を実行し、相互に所定の基準以上一致又は近似した場合に記録される。カップリング管理データ230は、ユーザID、他ユーザIDに関するデータを含んで構成される。 As shown in FIG. 2C, in the coupling information storage unit 24, users whose appearances of the users themselves and preferences about the appearances of the other users mutually coincide or approximate with each other by a predetermined reference or more
ユーザIDデータ領域には、各ユーザを特定するための識別子(ユーザID)に関するデータが記録される。このユーザIDを介して、カップリング管理データ240は、ユーザ管理データ220と関連付けられている。
他ユーザIDデータ領域には、このユーザとカップリング処理を実行された他者ユーザを特定するための識別子(他ユーザID)が記録される。Data on an identifier (user ID) for identifying each user is recorded in the user ID data area. The
In the other user ID data area, an identifier (other user ID) for specifying the other user who has performed the coupling process with this user is recorded.
図2(d)に示すように、ユーザ所在地情報記憶部25には、ユーザの所在地に関するユーザ所在データ250が記録される。このユーザ所在データ250は、ユーザID、所在日時、所在地、滞在時間、日常経路に関するデータを含んで構成される。 As shown in FIG. 2D, the user location
ユーザIDデータ領域には、各ユーザを特定するための識別子(ユーザID)に関するデータが記録される。このユーザIDを介して、ユーザ所在データ250は、ユーザ管理データ220と関連付けられている。 Data on an identifier (user ID) for identifying each user is recorded in the user ID data area. The
所在日時データ領域には、このユーザの所在地を特定した年月日及び時刻に関するデータが記録される。
所在地データ領域には、このユーザが所在する緯度・経度に関するデータが記録される。
所在頻度データ領域には、このユーザが同じ所在地に滞在した回数に関するデータが記録される。
滞在時間データ領域には、このユーザが同じ所在地に滞在した連続時間数に関するデータが記録される。In the location date data area, data on the date and time when the location of the user is specified is recorded.
In the location data area, data on the latitude and longitude where this user is located is recorded.
In the location frequency data area, data on the number of times this user has stayed at the same location is recorded.
In the residence time data area, data is recorded regarding the number of continuous hours in which the user has stayed at the same location.
日常地点データ領域には、このユーザが日常的に利用する地点に関するデータが記録される。この日常地点データは、所在日時データ、所在地データ、所在頻度データ、滞在時間データから算出される。
日常経路データ領域には、このユーザが日常的に利用する経路に関するデータが記録される。この日常経路データは、所在日時データ、所在地データ、所在頻度データ、滞在時間データから算出される。In the daily spot data area, data relating to the spot that the user uses regularly is recorded. The daily spot data is calculated from location date data, location data, location frequency data, and stay time data.
In the daily route data area, data relating to the daily route used by the user is recorded. The daily route data is calculated from location date data, location data, location frequency data, and stay time data.
図2(e)に示すように、誘導先情報記憶部26には、カップリングされたユーザを引き合わせるための誘導先となる店舗又は施設に関する誘導先管理データ260、誘導先評価データ261及び誘導指示データ262が記録される。誘導先管理データ260は、誘導先ID、名称、住所、カテゴリ、詳細説明に関するデータを含んで構成される。 As shown in FIG. 2 (e), the guidance destination
誘導先IDデータ領域には、各誘導先を特定するための識別子(誘導先ID)に関するデータが記録される。 In the guidance destination ID data area, data related to an identifier (a guidance destination ID) for specifying each guidance destination is recorded.
名称データ領域、住所データ領域には、それぞれ、誘導先となる店舗又は施設の名称及び住所に関するデータが記録される。 In the name data area and the address data area, data relating to the name and address of the store or facility to which the user is directed is recorded.
カテゴリデータ領域には、誘導先となる店舗又は施設の業種や種別に関するデータが記録される。
詳細説明データ領域には、誘導先となる店舗又は施設が提供するサービス内容や食事のメニュー等の詳細に関するデータが記録される。In the category data area, data on the type and type of shop or facility to which the user is directed is recorded.
In the detailed explanation data area, data relating to details such as service contents provided by a store or facility to which the user is directed and a menu of meals is recorded.
誘導先評価データ261は、ユーザ及びカップリングされた他ユーザのユーザ所在データ250が記録された場合に記録される。誘導先評価データ261は、誘導先ID、ユーザID、他ユーザID、日常経路一致率、重複地点フラグ、平均所要時間、平均所在頻度、平均滞在時間、重複カテゴリフラグ、カテゴリ平均所在頻度、カテゴリ平均所在時間、誘導先得点に関するデータを含んで構成される。 The guidance destination evaluation data 261 is recorded when the
誘導先IDデータ領域には、各誘導先を特定するための識別子(誘導先ID)に関するデータが記録される。この誘導先IDを介して、誘導先評価データ261は、誘導先管理データ260と関連付けられている。
ユーザIDデータ領域には、各ユーザを特定するための識別子(ユーザID)に関するデータが記録される。このユーザIDを介して、誘導先評価データ261は、ユーザ管理データ220と関連付けられている。
他ユーザIDデータ領域には、ユーザとカップリング処理を実行された他ユーザを特定するための識別子(他ユーザID)が記録される。In the guidance destination ID data area, data related to an identifier (a guidance destination ID) for specifying each guidance destination is recorded. The guidance destination evaluation data 261 is associated with the guidance
Data on an identifier (user ID) for identifying each user is recorded in the user ID data area. The guidance destination evaluation data 261 is associated with the
In the other user ID data area, an identifier (other user ID) for identifying the other user who has performed the coupling process with the user is recorded.
重複地点フラグデータ領域には、カップリングされた両ユーザそれぞれの日常地点又は日常経路が重複している地点を示すフラグに関するデータが記録される。
平均所要時間データ領域には、カップリングされた両ユーザの現在地から重複地点フラグ又は重複カテゴリフラグが付与された地点までの移動にかかる所要時間の平均値に関するデータが記録される。この平均所要時間データは、重複地点フラグ又は重複カテゴリフラグが記録された場合に記録される。
平均所在頻度データ領域には、カップリングされた両ユーザがそれぞれ過去に重複地点フラグが付与された地点に所在した回数の平均値に関するデータが記録される。この平均所在頻度データは、重複地点フラグが記録された場合に記録される。
平均滞在時間データ領域には、カップリングされた両ユーザが過去に重複地点フラグが付与された地点に滞在した連続時間数の平均値に関するデータが記録される。この平均滞在時間データは、重複地点フラグが記録された場合に記録される。In the overlapping point flag data area, data relating to a flag indicating a daily point or a point at which a daily route overlaps with each of the coupled users is recorded.
In the average required time data area, data relating to the average value of the required time for moving from the current location of both coupled users to the point where the overlapping point flag or the overlapping category flag is given is recorded. The average required time data is recorded when the overlapping point flag or the overlapping category flag is recorded.
In the average location frequency data area, data relating to the average value of the number of times both coupled users are located at points where duplication point flags have been assigned in the past is recorded. This average location frequency data is recorded when the overlap point flag is recorded.
In the average stay time data area, data is recorded regarding the average value of the number of continuous times in which both coupled users have stayed at a point where the overlap point flag is given in the past. The average stay time data is recorded when the overlap point flag is recorded.
重複カテゴリフラグデータ領域には、カップリングされた両ユーザそれぞれの日常地点に関連付けられているカテゴリが重複している地点を示すフラグに関するデータが記録される。
カテゴリ平均所在頻度データ領域には、カップリングされた両ユーザがそれぞれ過去に重複カテゴリフラグが付与された地点に所在した回数の平均値に関するデータが記録される。このカテゴリ平均所在頻度データは、重複カテゴリフラグデータが記録された場合に記録される。
カテゴリ平均所在時間データ領域には、カップリングされた両ユーザがそれぞれ過去に重複カテゴリフラグが付与された地点に所在した連続時間数の平均値に関するデータが記録される。このカテゴリ平均所在時間データは、重複カテゴリフラグデータが記録された場合に記録される。
誘導先得点データ領域には、カップリングされた両ユーザの誘導しやすさを点数化したデータが記録される。この誘導先得点データは、重複地点フラグ又は重複カテゴリフラグが付与された場合に記録される。In the overlapping category flag data area, data relating to a flag indicating a point at which a category associated with each of the coupled daily points of the two users is overlapping is recorded.
In the category average location frequency data area, data relating to the average value of the number of times both coupled users are located at points where duplicate category flags have been assigned in the past is recorded. This category average location frequency data is recorded when duplicate category flag data is recorded.
In the category average location time data area, data relating to the average value of the number of continuous times at which both coupled users are located at points where duplicate category flags have been assigned in the past is recorded. This category average location time data is recorded when duplicate category flag data is recorded.
In the guidance destination score data area, data in which the ease of guidance of both coupled users is scored is recorded. The guidance destination score data is recorded when the overlapping point flag or the overlapping category flag is given.
誘導指示データ262は、カップリングされた両ユーザに対して誘導指示を送信する処理を実行する場合に記録される。誘導指示データ262は、誘導先ID、ユーザID、誘導指示内容、誘導指示承諾フラグに関するデータを含んで構成される。 The guidance instruction data 262 is recorded when the process of transmitting the guidance instruction to both coupled users is performed. The guidance instruction data 262 includes data on a guidance destination ID, a user ID, guidance instruction contents, and a guidance instruction acceptance flag.
誘導先IDデータ領域には、各誘導先を特定するための識別子(誘導先ID)に関するデータが記録される。この誘導先IDを介して、誘導先評価データ262は、誘導先管理データ260と関連付けられている。
ユーザIDデータ領域には、各ユーザを特定するための識別子(ユーザID)に関するデータが記録される。このユーザIDを介して、誘導先評価データ262は、ユーザ管理データ220と関連付けられている。In the guidance destination ID data area, data related to an identifier (a guidance destination ID) for specifying each guidance destination is recorded. The guidance destination evaluation data 262 is associated with the guidance
Data on an identifier (user ID) for identifying each user is recorded in the user ID data area. The guidance destination evaluation data 262 is associated with the
誘導指示内容データ領域には、実際にユーザに通知される誘導指示メッセージテキストに関するデータが記録される。
誘導指示承諾フラグデータ領域には、誘導指示に対するユーザの承諾を示すフラグに関するデータが記録される。この誘導指示承諾フラグデータは、ユーザがユーザ端末10を介して誘導指示を承諾する意思を示した場合に記録される。In the guidance instruction content data area, data on the guidance instruction message text actually notified to the user is recorded.
In the guidance instruction consent flag data area, data regarding a flag indicating acceptance of the user for the guidance instruction is recorded. The guidance instruction acceptance flag data is recorded when the user indicates the intention to accept the guidance instruction via the
図2(f)に示すように、行動指示情報記憶部27には、同一誘導先に引き合わせたユーザ間で会話の契機となる行動指示に関する行動指示データ270が記録される。行動指示データ270は、行動指示ID、ユーザID、他ユーザID、誘導先ID、ビーコン接近フラグ、視点画像一致フラグ、行動指示内容、行動指示承諾フラグ、成功フラグ、行動指示承諾率、成功率、行動指示得点に関するデータを含んで構成される。 As shown in FIG. 2 (f), the action instruction
行動指示IDデータ領域には、各行動指示を特定するための識別子(行動指示ID)に関するデータが記録される。
ユーザIDデータ領域には、各ユーザを特定するための識別子(ユーザID)に関するデータが記録される。このユーザIDを介して、行動指示データ270は、ユーザ管理データ220と関連付けられている。
他ユーザIDデータ領域には、このユーザとカップリング処理を実行された他ユーザを特定するための識別子(他ユーザID)が記録される。この他ユーザIDを介して、行動指示データ270は、他ユーザのユーザ管理データ220と関連付けられている。
誘導先IDデータ領域には、各誘導先を特定するための識別子(誘導先ID)に関するデータが記録される。この誘導先IDを介して、行動指示データ270は、誘導先管理データ260と関連付けられている。Data on an identifier (action instruction ID) for specifying each action instruction is recorded in the action instruction ID data area.
Data on an identifier (user ID) for identifying each user is recorded in the user ID data area. The
In the other user ID data area, an identifier (other user ID) for specifying the other user who has performed the coupling process with this user is recorded. The
In the guidance destination ID data area, data related to an identifier (a guidance destination ID) for specifying each guidance destination is recorded. The
ビーコン接近フラグデータ領域には、カップリングされた両ユーザが互いに接近したことを示すフラグに関するデータが記録される。このビーコン接近フラグデータは、カップリングされた両ユーザのユーザ端末10に備えられたビーコンが発信する一意の信号を互いに検知し合った場合に記録される。
視点画像一致フラグデータ領域には、カップリングされた両ユーザのうち一方が他方の本人顔画像を視認したことを示すフラグに関するデータが記録される。この視点画像一致フラグデータは、いずれか一方のユーザ又は両方のユーザ端末10を介して、視点が置かれ、顔認識された顔画像相手の本人顔画像と同一人物と判定された場合に記録される。
行動指示内容データ領域には、実際にユーザに通知される行動指示メッセージテキストに関するデータが記録される。In the beacon approach flag data area, data on a flag indicating that both coupled users approach each other is recorded. The beacon approach flag data is recorded when the beacons of the
Data relating to a flag indicating that one of the coupled users has visually recognized the other's face image is recorded in the viewpoint image matching flag data area. The viewpoint image matching flag data is recorded when the viewpoint is set via any one user or both
In the action instruction content data area, data on action instruction message text actually notified to the user is recorded.
行動指示承諾フラグデータ領域には、行動指示に対するユーザの承諾を示すフラグに関するデータが記録される。この行動指示承諾フラグデータは、ユーザがユーザ端末10を介して行動指示を承諾する意思を示した場合に記録される。
成功フラグデータ領域には、カップリングされた両ユーザがカップルとして成立したことを示すフラグに関するデータが記録される。この成功フラグデータは、両ユーザのユーザ所在データ250が誘導先として選定された地点の位置情報から離脱し、ビーコン接近フラグデータが所定の時間又は所定の頻度において維持された場合に記録される。
行動指示承諾率データ領域には、ユーザが行動指示を承諾する確率に関するデータが記録される。この行動指示承諾率データは、ユーザに対して行動指示を発信し、ユーザが承諾又は拒否する毎に再計算され、記録される。
成功率データ領域には、カップリングされた両ユーザがその行動指示によってカップル成立まで至る確率に関するデータが記録される。この成功率データは、成功フラグデータが記録される毎に再計算され、記録される。
行動指示得点データ領域には、行動指示のユーザに承諾されやすさと、その行動指示によってカップルが成立する確率を総合して点数化したデータが記録される。この行動指示得点データは、行動指示承諾率データと成功率データを総合することにより計算され、記録される。In the action instruction acceptance flag data area, data relating to a flag indicating acceptance of the user for the action instruction is recorded. The action instruction acceptance flag data is recorded when the user indicates an intention to accept the action instruction via the
In the success flag data area, data related to a flag indicating that both coupled users are established as a couple is recorded. The success flag data is recorded when the
Data on the probability of the user accepting the action instruction is recorded in the action instruction acceptance rate data area. The action instruction acceptance rate data transmits an action instruction to the user, and is recalculated and recorded each time the user accepts or rejects.
In the success rate data area, data relating to the probability that both coupled users reach the formation of a couple by their action instructions is recorded. The success rate data is recalculated and recorded each time the success flag data is recorded.
In the action instruction score data area, data obtained by integrating and scoring the ease with which the user of the action instruction is accepted and the probability of a couple being established by the action instruction is recorded. The action instruction score data is calculated and recorded by integrating the action instruction acceptance rate data and the success rate data.
次に、図3〜図7を用いて、上記のように構成された恋愛対象マッチングサーバ20における各種処理について説明する。ここでは、まず、図3を用いて、本人顔画像登録処理について説明する。 Next, various processes in the love
(本人顔画像登録処理)
まず、眼鏡型又はコンタクトレンズ型のウェアラブル端末であるユーザ端末10は、ユーザによって装着されると、センサ機能によってそれを検知し、スリープモードから自動的にアクティブモードへと移行し、予め認証された指紋画像又は虹彩画像等の認証データによってユーザ端末10を利用するための認証処理を実行し、認証が完了した場合には、ユーザの視点を捕捉しながら、その視点の先にある対象物や光景を画像として記録する。(Person's face image registration process)
First, when worn by a user, the
次に、図3に示すように、恋愛対象マッチングサーバ20の制御部21は、ユーザ端末10から記録された画像を取得し、その画像に人物の顔が映っている場合には顔認識処理を実行する(ステップS1ー1)。具体的には、制御部21の本人判定部211は、ユーザ端末10から受信した画像を予め記憶している顔認識判定値と比較し、基準を満たしている場合には、その画像に顔認識済フラグを登録する。 Next, as shown in FIG. 3, the
次に、恋愛対象マッチングサーバ20の制御部21は、顔認識済の画像とユーザの視線が一致しているか否かの判定処理を実行する(ステップS1ー2)。具体的には、制御部21の本人判定部211は、ユーザ端末10から取得し、顔認識された顔画像の視線と、ユーザ端末10によって捕捉したユーザ自身の視線が一致しているかを比較する。比較した結果が予め記憶している視線一致判定値を超えなかった場合(ステップS1ー2において「NO」の場合)、制御部21は、本人顔画像登録処理を終了する。 Next, the
一方、比較した結果が予め記憶している視線一致判定値を超えた場合(ステップS1ー2において「YES」の場合)、恋愛対象マッチングサーバ20の制御部21は、顔認識済の画像が正面を向いているか否かの判定処理を実行する(ステップS1ー3)。具体的には、制御部21の本人判定部211は、顔画像の左右の対称性が所定の基準を超えているか否かを、左右の目及び耳の大きさ、配置及びバランス、鼻及び口が向いている角度並びに顔の中心線から左右の輪郭までの距離等を、正面を向いている顔画像と正面を向いていない顔画像を予め多量にインプットすることによって算出された正面判定値と比較する。比較した結果が所定基準を超えなかった場合(ステップS1ー3において「NO」の場合)、制御部21は、本人顔画像登録処理を終了する。 On the other hand, when the comparison result exceeds the visual line coincidence determination value stored in advance (in the case of “YES” in step S1-2), the
一方、比較した結果が所定基準を超えた場合(ステップS1ー3において「YES」の場合)、恋愛対象マッチングサーバ20の制御部21は、顔画像に写っているユーザ端末10がユーザの顔の中心線を軸として左右が反転しているか否かの判定処理を実行する(ステップS1ー4)。具体的には、制御部21の本人判定部211は、顔画像にユーザ端末10があるか否かの判定処理を実行し、ある場合には、ユーザ端末10に備えられた、ユーザの顔の中心線を軸とした左右を検知するための非対称な模様があるか否かの判定処理を実行し、ある場合には、それらの模様が左右で反転しているか否かの判定処理を実行する。なお、左右を検知するためには左右で異なる波長又は信号の赤外線等で判定してもよい。左右で反転している場合(ステップS1ー4において「YES」の場合)、制御部21は、本人顔画像登録処理を終了する。 On the other hand, when the comparison result exceeds the predetermined reference (in the case of “YES” in step S1-3), the
一方、左右で反転していない場合(ステップS1ー4において「NO」の場合)、恋愛対象マッチングサーバ20の制御部21は、顔画像を本人顔画像として登録する処理を実行する(ステップS1ー5)。具体的には、制御部21の本人判定部211は、顔画像にユーザIDを付与する。次に、顔画像を本人顔画像データとしてユーザ情報記憶部22のユーザ管理データ220に記録する。 On the other hand, when it is not reversed on the left and right (in the case of "NO" in step S1-4), the
次に、恋愛対象マッチングサーバ20の制御部21は、本人顔画像データから本人顔画像各部位データを抽出する処理を実行する(ステップS1ー6)。具体的には、本人顔画像データに写っているユーザの目、鼻、口、耳、眉、髪型、輪郭等の各部位に分解する。次に、ユーザ情報記憶部22のユーザ管理データ220から本人顔画像データに関連付けられたユーザIDを抽出し、抽出された本人顔画像各部位データに付与し、ユーザ情報記憶部22のユーザ管理データ220に記録する。 Next, the
次に、恋愛対象マッチングサーバ20の制御部21は、本人顔画像各部位データから本人顔画像各部位位置データ及び本人顔画像各部位面積占有率データを算出する処理を実行する(ステップS1ー7)。具体的には、本人顔画像全体における本人顔画像各部位データの位置を示す座標等を算出し、同時に、本人顔画像全体における本人顔画像各部位の面積が占める比率を算出する。次に、ユーザ情報記憶部22のユーザ管理データ220から本人顔画像データに関連付けられたユーザIDを抽出し、算出された本人顔画像各部位位置データ及び本人顔画像各部位面積占有率データに付与し、ユーザ情報記憶部22のユーザ管理データ220に記録する。 Next, the
(嗜好分析処理)
次に、図4を用いて、嗜好分析処理の処理手順について説明する。(Preference analysis process)
Next, a processing procedure of preference analysis processing will be described using FIG.
まず、図4に示すように、恋愛対象マッチングサーバ20の制御部21は、ステップS1ー1と同様に、ユーザ端末10から顔認識された人物の顔画像を取得する処理を実行する(ステップS2ー1)。 First, as shown in FIG. 4, the
次に、恋愛対象マッチングサーバ20の制御部21は、ユーザが顔認識された顔画像を注視する連続時間及び回数を取得する処理を実行する(ステップS2ー2)。具体的には、制御部21の嗜好分析部212は、ユーザ端末10からユーザの視点が顔画像に置かれているかを判定し、置かれている連続時間数及び置かれた回数を計測し、顔注視時間数データ及び顔視認回数データとして記録する。 Next, the
次に、恋愛対象マッチングサーバ20の制御部21は、顔画像データに顔嗜好得点を付与する処理を実行する(ステップS2ー3)。具体的には、制御部21の嗜好分析部212は、ユーザが顔画像を注視する連続時間数と回数に関するデータが大きければ大きいほど、顔画像データに対して高い得点を顔嗜好得点データとして付与し、嗜好対象記憶部23の顔嗜好管理データ230に記録する。なお、注視時間数と回数の多寡だけでなく、ユーザが顔画像を注視する際の視点の動かし方や一回の注視時間等の特定のパターンに対して、より高得点を付与するようにしてもよい。 Next, the
次に、恋愛対象マッチングサーバ20の制御部21は、顔画像データに付与された顔嗜好得点が所定基準を超えているか否かの判定処理を実行する(ステップS2ー4)。具体的には、制御部21の嗜好分析部212は、嗜好対象記憶部23の顔嗜好管理データ230に記録された顔嗜好得点データを所定基準(例えば、全嗜好管理データに記録された顔嗜好得点データの平均値)と比較する。そして、顔嗜好得点データが所定基準を超えなかった場合(ステップS2ー4において「NO」の場合)、制御部21は、嗜好分析処理を終了する。 Next, the
一方、顔嗜好得点データが所定基準を超えた場合(ステップS2ー4において「YES」の場合)、恋愛対象マッチングサーバ20の制御部21は、顔画像とユーザの本人顔画像が同一人物か否かの判定処理を実行する(ステップS2ー5)。具体的には、制御部21の嗜好分析部212は、顔嗜好得点が付与された顔画像データと、本人顔画像登録処理によってユーザ情報記憶部22のユーザ管理データ220にユーザ本人のユーザIDに関連付けて記録された本人顔画像データとのマッチング処理を実行する。そして、同一人物と判定した場合(ステップS2ー5において「YES」の場合)、制御部21は、嗜好分析処理を終了する。 On the other hand, when the face preference score data exceeds the predetermined reference (in the case of “YES” in step S2-4), the
一方、ユーザ本人と同一人物であると判定されなかった場合(ステップS2ー5において「NO」の場合)、恋愛対象マッチングサーバ20の制御部21は、顔嗜好得点が付与された顔画像データと他ユーザの本人顔画像が同一人物か否かの判定処理を実行する(ステップS2ー6)。具体的には、制御部21の嗜好分析部212は、顔嗜好得点が付与された顔画像データと、本人顔画像登録処理によってユーザ情報記憶部22のユーザ管理データ220に他ユーザのユーザIDに関連付けて記録された本人顔画像データとのマッチング処理を実行する。そして、同一人物と判定した場合(ステップS2ー6において「YES」の場合)、制御部21の嗜好分析部212は、他ユーザに関連付けて記録された本人顔画像分析データを取得する処理を実行する(ステップS2ー7)。具体的には、制御部21の嗜好分析部212は、同一人物と判定した顔画像に関連付けてユーザ情報記憶部22のユーザ管理データ220に記録されたユーザIDを抽出し、そのユーザIDに関連付けて記録された本人顔画像各部位、本人顔画像各部位位置及び本人顔画像各部位面積占有率を取得する。 On the other hand, when it is not determined that the user is the same person as the user (in the case of "NO" in step S2-5), the
一方、他ユーザと同一人物であると判定しなかった場合(ステップS2ー6において「NO」の場合)、恋愛対象マッチングサーバ20の制御部21は、顔嗜好得点が付与された顔画像データが既に非会員顔画像データとして登録されているか否かの判定処理を実行する(ステップS2ー8)。具体的には、制御部21の嗜好分析部212は、嗜好対象記憶部23の非会員画像管理データ231に記録されている非会員顔画像データと、顔嗜好得点が付与された顔画像データとのマッチング処理を実行する。そして、既に非会員顔画像データとして登録されていると判定した場合(ステップS2ー8において「YES」の場合)、制御部21の嗜好分析部212は、顔嗜好得点が付与された顔画像データを登録済みの非会員画像IDに関連付けて記録する処理を実行する(ステップS2ー9)。具体的には、嗜好対象記憶部23の非会員画像管理データ231から、顔嗜好得点が付与された顔画像と同一人物であると判定した非会員顔画像データに関連付けて記録された非会員画像IDを抽出し、顔嗜好得点が付与された顔画像データと関連付けて非会員画像管理データ231に記録する。 On the other hand, when it is not determined that the user is the same person as another user (in the case of “NO” in step S2-6), the
次に、恋愛対象マッチングサーバ20の制御部21は、顔嗜好得点が付与された画像から非会員顔画像各部位データを抽出する処理を実行する(ステップS2ー10)。具体的には、制御部21の嗜好分析部212は、非会員顔画像データに写っている目、鼻、口、耳、眉、髪型、輪郭等の各部位に分解する。 Next, the
次に、恋愛対象マッチングサーバ20の制御部21は、分解した各部位データから顔画像各部位座標及び顔画像各部位面積占有率を算出し、既存の非会員顔画像各部位座標データ及び非会員顔画像各部位面積占有率データに加算する処理を実行する(ステップS2ー11)。具体的には、非会員顔画像データ全体に座標を付与し、分解した各部位データの位置を示す座標を特定し、同時に、非会員顔画像データ全体における各部位データの面積が占める比率を算出する。次に、嗜好対象記憶部23の非会員画像管理データ231から非会員顔画像データに関連付けられた非会員画像IDを抽出し、既存の非会員顔画像各部位座標データ及び非会員顔画像各部位面積占有率データに加算して統計処理を実行する(例えば平均値を算出する等)。そして、統計処理後に算出された非会員顔画像各部位座標データ及び非会員顔画像各部位面積占有率データを、嗜好対象記憶部23の非会員画像管理データ231に記録する。 Next, the
一方、非会員画像データとして登録されていないと判定した場合(ステップS2ー8において「NO」の場合)、恋愛対象マッチングサーバ20の制御部21は、顔嗜好得点が付与された顔画像データを新規に非会員画像データとして登録する処理を実行する(ステップS2ー12)。具体的には、制御部21の嗜好分析部212は、顔嗜好得点が付与された顔画像に対して非会員画像IDを新規発行し、その非会員画像IDに関連付けて嗜好対象記憶部23の非会員画像管理データ231に記録する。 On the other hand, when it is determined that the face image data is not registered as non-member image data (in the case of “NO” in step S2-8), the
次に、恋愛対象マッチングサーバ20の制御部21は、ステップS2ー10と同様に、非会員顔画像データから非会員顔画像各部位データを抽出する処理を実行する(ステップS2ー13)。 Next, as in step S2-10, the
次に、恋愛対象マッチングサーバ20の制御部21は、非会員顔画像各部位データから非会員顔画像各部位座標データ及び非会員顔画像各部位面積占有率データを算出する処理を実行する(ステップS2ー14)。具体的には、非会員顔画像データ全体に座標を付与し、非会員顔画像全体における非会員顔画像各部位データの位置を示す座標を特定し、同時に、非会員顔画像全体における非会員顔画像各部位の面積が占める比率を算出する。次に、算出した非会員顔画像各部位座標データ及び非会員顔画像各部位面積占有率データを、嗜好対象記憶部23の非会員画像管理データ231に非会員画像IDに関連付けて記録する。 Next, the
次に、恋愛対象マッチングサーバ20の制御部21は、算出又は取得した顔画像各部位座標及び面積占有率をユーザ本人のユーザIDに関連付けて登録する処理を実行する(ステップS2ー15)。具体的には、制御部21の嗜好分析部212は、ユーザ情報記憶部22のユーザ管理データ220に記録されたユーザIDを抽出し、そのユーザIDに関連付けて、算出又は取得した顔画像各部位座標及び面積占有率データを嗜好対象記憶部23の顔嗜好管理データ230に記録する。 Next, the
(カップリング処理)
次に、図5を用いて、カップリング処理の処理手順について説明する。(Coupling process)
Next, the procedure of the coupling process will be described with reference to FIG.
まず、図5に示すように、恋愛対象マッチングサーバ20の制御部21は、嗜好分析処理によってユーザに関連付けて嗜好に関する得点が高く評価された他者画像各部位、他者画像各部位位置及び他者画像面積占有率と本人顔画像登録処理によって他者ユーザに関連付けて記録された本人顔画像各部位、本人顔画像各部位位置及び本人顔画像面積占有率とのマッチング処理を項目毎に実行する(ステップS3ー1)。具体的には、制御部21のカップリング処理部213は、嗜好対象記憶部23の顔嗜好管理データ230にユーザに関連付けて記録された他者画像各部位データとユーザ情報記憶部22のユーザ管理データ220に他者ユーザに関連付けて記録された本人顔画像各部位データ、嗜好対象記憶部23の顔嗜好管理データ230にユーザに関連付けて記録された他者画像各部位位置データとユーザ情報記憶部22のユーザ管理データ220に他者ユーザに関連付けて記録された本人顔画像各部位位置データ及び嗜好対象記憶部23の顔嗜好管理データ230にユーザに関連付けて記録された他者画像各部位面積占有率データとユーザ情報記憶部22のユーザ管理データ220に他者ユーザに関連付けて記録された本人顔画像各部位面積占有率データとをそれぞれ比較する処理を実行する。 First, as shown in FIG. 5, the
次に、恋愛対象マッチングサーバ20の制御部21は、比較した結果生じる各項目における差異が所定基準以内であるか否かの判定処理を実行する(S3ー2)。そして、所定基準を超えなかった場合(ステップS3ー2において「NO」の場合)、制御部21は、カップリング処理を終了する。 Next, the
一方、所定基準を超えた場合(ステップS3ー2において「YES」の場合)、恋愛対象マッチングサーバ20の制御部21は、ユーザに関連付けて記録された本人顔画像各部位、本人顔画像各部位位置及び本人顔画像面積占有率と他者ユーザに関連付けて嗜好に関する得点が高く評価された他者画像各部位、他者画像各部位位置及び他者画像面積占有率とのマッチング処理を各項目毎に実行する(ステップS3−3)。具体的には、制御部21のカップリング処理部213は、ユーザ情報記憶部22のユーザ管理データ220にユーザに関連付けて記録された本人顔画像各部位データと嗜好対象記憶部23の顔嗜好管理データ230に他者ユーザに関連付けて記録された他者画像各部位データ、ユーザ情報記憶部22のユーザ管理データ220にユーザに関連付けて記録された本人顔画像各部位位置データと嗜好対象記憶部23の顔嗜好管理データ230に他者ユーザに関連付けて記録された他者画像各部位位置データ及びユーザ情報記憶部22のユーザ管理データ220にユーザに関連付けて記録された本人顔画像各部位面積占有率データと嗜好対象記憶部23の顔嗜好管理データ230に他者ユーザに関連付けて記録された他者画像各部位面積占有率データとをそれぞれ比較する処理を実行する。 On the other hand, when the predetermined standard is exceeded (in the case of “YES” in step S3-2), the
次に、恋愛対象マッチングサーバ20の制御部21は、比較した結果生じる各項目における差異が所定基準以内であるか否かの判定処理を実行する(S3ー4)。そして、所定基準を超えなかった場合(ステップS3ー4において「NO」の場合)、制御部21は、カップリング処理を終了する。 Next, the
一方、所定基準を超えた場合(ステップS3ー4において「YES」の場合)、恋愛対象マッチングサーバ20の制御部21は、ユーザと他者ユーザを互いに組み合わせて登録する処理を実行する(S3−5)。具体的には、制御部21のカップリング処理部213は、ユーザ情報記憶部22のユーザ管理データ220から所定基準を超えたユーザ及び他者ユーザのユーザIDを抽出し、カップリング情報記憶部24のカップリングデータ240に組み合わせて記録する。 On the other hand, when the predetermined reference is exceeded (in the case of "YES" in step S3-4), the
(誘導処理)
次に、図6を用いて、誘導処理の処理手順について説明する。(Induction process)
Next, the procedure of the induction process will be described with reference to FIG.
まず、図6に示すように、恋愛対象マッチングサーバ20の制御部21は、ユーザ端末10からカップリング処理によって組み合わせて記録された両ユーザの位置情報を取得する処理を実行する(ステップS4ー1)。具体的には、制御部21の誘導指示部214は、ユーザ端末10からGPS等における現在位置に関する情報を、両ユーザのユーザIDとともに取得する。この処理は、定期的(例えば、1回/秒)に実行される。 First, as shown in FIG. 6, the
次に、恋愛対象マッチングサーバ20の制御部21は、緯度・経度の記録処理を実行する(ステップS4ー2)。具体的には、制御部21の誘導指示部214は、ユーザID、所在日時、所在地を記録したユーザ所在データ250を生成し、ユーザ所在地情報記憶部25に記録する。 Next, the
次に、恋愛対象マッチングサーバ20の制御部21は、緯度・経度における所在頻度及び滞在時間の算出処理を実行する(ステップS4ー3)。この処理は、ユーザ情報記憶部22に記録された各ユーザを順次、処理対象ユーザとして特定して、定期的(数回/日)に実行される。具体的には、制御部21の誘導指示部214は、処理対象ユーザのユーザIDを含む所定期間(例えば、過去3か月)のユーザ所在データ250を、ユーザ所在地情報記憶部25から抽出する。そして、誘導指示部214は、抽出したユーザ所在データ250の各緯度・経度に応じた所在頻度及び滞在時間を算出する。 Next, the
次に、恋愛対象マッチングサーバ20の制御部21は、所在頻度が高い又は滞在時間が長い緯度・経度からユーザが日常利用する地点及び経路を特定する処理を実行する(ステップS4ー4)。具体的には、制御部21の誘導指示部214は、所在頻度と滞在時間の両方が所定の基準を超えている緯度・経度をユーザIDと関連付けてユーザ所在地情報記憶部25のユーザ所在データ250に日常地点フラグデータを付与し、記録する。同時に、制御部21の誘導指示部214は、所在頻度が所定の基準を超え、滞在時間が所定の基準を超えていない緯度・経度をユーザIDと関連付けてユーザ所在地情報記憶部25のユーザ所在データ250に日常経路フラグデータを付与し、記録する。 Next, the
次に、恋愛対象マッチングサーバ20の制御部21は、カップリングされた両ユーザ間で日常地点を比較する処理を実行する(ステップS4ー5)。具体的には、制御部21の誘導指示部214は、ユーザ所在地情報記憶部25からユーザIDに関連付けて日常地点フラグデータが記録されたユーザ所在データ250を抽出し、カップリングされたユーザ間で緯度・経度が一致する所在地データがあるか否かの判定処理を実行する。そして、一致するユーザ所在データ250がある場合(ステップS4ー6において「YES」の場合)、制御部21は、そのユーザ所在データ250の所在地データと一致する誘導先について重複地点フラグデータを記録する処理を実行する。具体的には、誘導先情報記憶部26から同じ緯度・経度と一致する所在地データが記録された誘導先管理データ260を抽出し、その誘導先IDに関連付けて誘導先評価データ261を生成し、その誘導先評価データ261にカップリングされた両ユーザのユーザID及び重複地点フラグデータを記録する。 Next, the
次に、恋愛対象マッチングサーバ20の制御部21は、カップリングされた両ユーザの現在地から重複地点までの移動にかかる所要時間をそれぞれ算出する処理を実行する(ステップS4ー7)。この処理は、重複地点フラグデータが記録された各誘導先を順次、処理対象として特定して実行される。具体的には、制御部21の誘導指示部214は、誘導先情報記憶部26から重複地点に関する誘導先管理データ260の所在地データを抽出し、ユーザ所在地情報記憶部25から両ユーザの最新の時点におけるユーザ所在データ250の所在地データを抽出し、それぞれの所在地データ間の移動にかかる所要時間を、誘導指示部214に予め記憶されている地図データ及び経路検索データに基づき算出する。 Next, the
次に、恋愛対象マッチングサーバ20の制御部21は、カップリングされたユーザ間において重複地点について取得した所要時間、所在頻度及び滞在時間の平均値をそれぞれ算出する処理を実行する(ステップS4ー8)。この処理は、重複地点フラグデータが記録された各誘導先を順次、処理対象として特定して実行される。具体的には、制御部21の誘導指示部214は、ユーザの現在地から算出した所要時間並びにユーザ所在地情報記憶部25のユーザ所在データ250にユーザIDと関連付けて記録された所在頻度データ及び滞在時間データから、各データ別にカップリングされた両ユーザ間の平均値を算出し、ユーザ所在データ250の所在地データと同じ緯度・経度の誘導先管理データ260に記録された誘導先IDを誘導先情報記憶部26から抽出し、同じ誘導先IDに関連付けて記録された誘導先評価データ261に、誘導先ID、ユーザID及び所在地データに関連付けて、平均所要時間データ、平均所在頻度データ及び平均滞在時間データを記録する。 Next, the
次に、恋愛対象マッチングサーバ20の制御部21は、算出した各データに基づいて誘導先候補に誘導先得点を付与する処理を実行する(ステップS4ー9)。具体的には、誘導先情報記憶部26の誘導先評価データ261に記録された平均所要時間データ、平均所在頻度データ及び平均滞在時間データを抽出し、平均所要時間データに反比例して高くなる得点並びに平均所在頻度データ及び平均滞在時間データに比例して高くなる得点を算出し各得点の平均値を誘導先評価データ261の誘導先IDに関連付けて誘導先得点データとして記録する。なお、各得点を平均するのではなく、いずれかの要素又はユーザに傾斜を設定してもよい。 Next, the
一方、カップリングされたユーザ間で緯度・経度が一致するユーザ所在データ250がない場合(ステップS4ー6において「NO」の場合)、恋愛対象マッチングサーバ20の制御部21は、カップリングされた両ユーザ間で日常地点のカテゴリを比較する処理を実行する(ステップS4ー10)。具体的には、制御部21の誘導指示部214は、ユーザ所在地情報記憶部25からユーザID及び他ユーザIDとそれぞれ関連付けて日常地点フラグデータが記録されたユーザ所在データ250を抽出し、その緯度・経度と一致する誘導先管理データ260を誘導先情報記憶部26から抽出し、誘導先管理データ260のカテゴリデータを抽出し、カップリングされたユーザ間で一致するカテゴリがあるか否かの判定処理を実行する。そして、一致するカテゴリがある場合(ステップS4ー10において「YES」の場合)、制御部21は、そのカテゴリに属する全誘導先を誘導先候補として指定する処理を実行する。具体的には、誘導先情報記憶部26からカップリングされたユーザ間で一致したカテゴリデータと一致するカテゴリデータが記録された誘導先管理データ260の誘導先IDを抽出し、その誘導先IDに関連付けて誘導先評価データ261にカップリングID及び重複カテゴリフラグデータを記録する。 On the other hand, when there is no
次に、恋愛対象マッチングサーバ20の制御部21は、重複カテゴリフラグが付与された誘導先候補について、カップリングされた両ユーザの現在地から重複地点までの移動にかかる所要時間をそれぞれ算出する処理を実行する(ステップS4ー11)。この処理は、重複カテゴリフラグデータが記録された各誘導先を順次、処理対象として特定して実行される。具体的には、制御部21の誘導指示部214は、誘導先情報記憶部26から重複カテゴリデータが記録された誘導先評価データ261の誘導先IDを抽出し、その誘導先IDに関連付けて誘導先管理データ260に記録された所在地データを特定し、ユーザ所在地情報記憶部25から両ユーザの最新の時点におけるユーザ所在データ250の所在地データを抽出し、それぞれの所在地データ間の移動にかかる所要時間を、誘導指示部214に予め記憶されている地図データ及び経路検索データに基づき算出する。 Next, the
次に、恋愛対象マッチングサーバ20の制御部21は、カップリングされたユーザ間において、重複カテゴリフラグが付与された誘導先候補について取得した所要時間、所在頻度及び滞在時間の平均値をそれぞれ算出する処理を実行する(ステップS4ー12)。この処理は、重複カテゴリフラグデータが記録された各誘導先を順次、処理対象として特定して実行される。具体的には、制御部21の誘導指示部214は、ユーザの現在地から算出した所要時間並びにユーザ所在地情報記憶部25のユーザ所在データ250にユーザIDと関連付けて記録された所在頻度データ及び滞在時間データから、各データ別にカップリングされた両ユーザ間の平均値を算出し、ユーザ所在データ250の所在地データと同じ緯度・経度の誘導先管理データ260に記録された誘導先IDを誘導先情報記憶部26から抽出し、同じ誘導先IDに関連付けて記録された誘導先評価データ261に、誘導先ID、ユーザID及び所在地データに関連付けて、平均所要時間データ、平均所在頻度データ及び平均滞在時間データを記録する。 Next, the
次に、恋愛対象マッチングサーバ20の制御部21は、算出した各データに基づいて誘導先候補に誘導先得点を付与する処理を実行する(ステップS4ー13)。具体的には、制御部21の誘導指示部214は、誘導先情報記憶部26の誘導先評価データ261に記録された平均所要時間データ、平均所在頻度データ及び平均滞在時間データを抽出し、平均所要時間データに反比例して高くなる得点並びに平均所在頻度データ及び平均滞在時間データに比例して高くなる得点を算出し、各得点の平均値を誘導先評価データ261の誘導先IDに関連付けて誘導先得点データとして記録する。なお、各得点を平均するのではなく、いずれかの要素又はユーザに傾斜を設定してもよい。 Next, the
一方、カップリングされたユーザ間で日常地点のカテゴリが一致するユーザ所在データ250がない場合(ステップS4ー10において「NO」の場合)、恋愛対象マッチングサーバ20の制御部21は、ステップS4ー3の処理から以降の処理を再実行する。 On the other hand, when there is no
次に、恋愛対象マッチングサーバ20の制御部21は、誘導先得点において最高得点を記録した誘導先を選定する処理を実行する(ステップS4ー14)。具体的には、制御部21の誘導指示部214は、誘導先候補の誘導先IDに関連付けて誘導先情報記憶部26の誘導先評価データ261に記録された誘導先得点データを抽出し、誘導先候補間で比較し、最も得点が高い誘導先候補のIDを選定する。 Next, the
次に、恋愛対象マッチングサーバ20の制御部21は、選定した誘導先について誘導指示をユーザ端末10に対して送信する処理を実行する(ステップS4ー15)。具体的には、制御部21の誘導指示部214は、選定した誘導先の誘導先IDに関連付けて誘導先管理データ260に記録されたカテゴリデータを抽出し、予め誘導指示部214に記録されている誘導指示群からカテゴリデータに関連付けられた誘導指示データ262を選定し、同一の誘導先IDに関連付けて記録された誘導先評価データ261に記録されたユーザIDを抽出し、同一のユーザIDに関連付けられたユーザ端末10に対して、選定した誘導指示データ262を送信する。 Next, the
次に、ユーザ端末10は、恋愛対象マッチングサーバ20の制御部21が送信した誘導指示を受信する処理を実行する(ステップS4ー16)。具体的には、ユーザ端末10は、制御部21の誘導指示部214が送信した誘導指示データ262を受信し、一時的に備えられた記憶部に記録する。 Next, the
次に、ユーザ端末10は、受信した誘導指示をユーザ端末10を介してユーザに通知する処理を実行する(ステップS4ー17)。具体的には、ユーザ端末10に備えられたイヤフォン若しくは骨伝導等を用いて自動音声をユーザに対してアナウンスする機能又は表示部として備えられた透過レンズ型ディスプレイ機能を介して誘導指示データ262の誘導指示内容データをユーザに通知する。 Next, the
次に、ユーザ端末10は、ユーザが誘導指示を承諾したか否かの判定する処理を実行する(ステップS4ー18)。具体的には、ユーザによる誘導指示を通知する自動音声アナウンスに対する承諾の返事がユーザ端末10に入力部として備えられている指向性マイクロフォンを介して入力される又はユーザ端末10が備えるディスプレイ上のボタン表示等の入力部を介して承諾の意思を示されることにより、ユーザの承諾意思を検知する。そして、ユーザが誘導指示を承諾した場合(ステップS4ー18において「YES」の場合)、ユーザ端末10は誘導指示を承諾した情報を恋愛対象マッチングサーバ20の制御部21に対して送信する処理を実行する(ステップS4ー19)。具体的には、ユーザ端末10は、誘導指示データ262に承諾の諾否データを記録し、誘導先ID及びユーザIDと関連付けて制御部21の誘導指示部214に送信する。 Next, the
次に、恋愛対象マッチングサーバ20の制御部21は、ユーザ端末10が送信した誘導指示承諾に関する情報を受信する処理を実行する(ステップS4ー20)。具体的には、制御部21の誘導指示部214は、ユーザ端末10が送信した誘導指示データ262を受信し、誘導先ID及びユーザIDを抽出し、誘導先情報記憶部26に予め記録されていた誘導指示データ262に対して、同一の誘導先ID及びユーザIDに関連付けて諾否データを承諾として記録する。 Next, the
次に、恋愛対象マッチングサーバ20の制御部21は、受信した誘導指示承諾に関する情報及び承諾したユーザの本人顔画像を法人端末30に送信する処理を実行する(ステップS4ー21)。具体的には、制御部21の誘導指示部214は、誘導先情報記憶部26の誘導指示データ262に記録されているユーザIDを抽出し、ユーザ情報記憶部22ユーザ管理データ220から同じユーザIDに関連付けられた本人顔画像データを抽出し、法人端末30に対して送信する。 Next, the
次に、法人端末30は、恋愛対象マッチングサーバ20の制御部21が送信した誘導指示承諾に関する情報及び承諾したユーザの本人顔画像を受信する処理を実行する(ステップS4ー22)。具体的には、法人端末30は、制御部21の誘導指示部214からユーザIDに関連付けて送信されたユーザの本人顔画像データを受信し、法人端末30に予め備えられた記憶部に記録する。 Next, the
次に、法人端末30は、承諾したユーザの本人顔画像を誘導先の店舗又は施設の従業員に対して通知する処理を実行する(ステップS4ー23)。具体的には、法人端末30が備えるディスプレイ表示機能等を介して誘導先である店舗又は施設の従業員に対して、誘導指示を承諾したユーザの本人顔画像、算出された所要時間に基づいた到着予測時刻及びカップリングされたユーザを迎え入れるよう指示するメッセージ(例えば「あと10分後にこの2人のユーザが来店しますので、カウンター席で隣同士になるようご準備下さい」等)を表示する。 Next, the
一方、ユーザが誘導指示を承諾しなかった場合(ステップS4ー18において「NO」の場合)、ユーザ端末10は誘導指示が拒否された情報を恋愛対象マッチングサーバ20の制御部21に対して送信する処理を実行する(ステップS4ー24)。具体的には、ユーザ端末10は、端末に記録されているユーザIDを抽出し、ユーザIDと関連付けて誘導指示が拒否された情報を制御部21の誘導指示部214に送信する。 On the other hand, when the user does not accept the guidance instruction (in the case of “NO” in step S4-18), the
次に、恋愛対象マッチングサーバ20の制御部21は、ユーザ端末10が送信した誘導指示拒否に関する情報を受信する処理を実行する(ステップS4ー25)。具体的には、制御部21の誘導指示部214は、ユーザ端末10が送信した誘導指示データ262を受信し、誘導先ID及びユーザIDを抽出し、誘導先情報記憶部26に予め記録されていた誘導指示データ262に対して、同一の誘導先ID及びユーザIDに関連付けて誘導指示承諾データを拒否として記録する。 Next, the
次に、恋愛対象マッチングサーバ20の制御部21は、誘導指示が拒否された誘導先の評価に反映する処理を実行する(ステップS4ー26)。具体的には、制御部21の誘導指示部214は、誘導先情報記憶部26において拒否の諾否データを記録された誘導指示データ262の誘導先ID及びユーザIDに関連付けられて記録された誘導先評価データ261を抽出し、誘導先得点データに予め拒否の諾否データに関連付けられて記録されているマイナス得点を加算する。そして、ステップS4ー3から処理を再実行する。 Next, the
(行動指示処理)
次に、図7を用いて、行動指示処理の処理手順について説明する。(Action instruction processing)
Next, the processing procedure of action instruction processing will be described using FIG. 7.
まず、図7に示すように、恋愛対象マッチングサーバ20の制御部21は、カップリング処理によって組み合わせて記録され、誘導処理によって誘導先に誘導されたユーザ同士の接近情報を、ユーザ端末10に備えられたビーコンセンサから取得する処理を実行する(ステップS5ー1)。具体的には、制御部21の行動指示部215は、ユーザ端末10に備えられたビーコンセンサからBluetooth(登録商標)等の近距離通信用電波を介してカップリングされたユーザ同士の接近を検知した場合に、接近情報を取得し、行動指示情報記憶部27において行動指示データ270を生成し、ビーコン接近フラグデータを記録する。 First, as shown in FIG. 7, the
次に、恋愛対象マッチングサーバ20の制御部21は、ユーザ端末10に対してカップリングされた相手ユーザを視認するよう行動指示を送信する処理を実行する(ステップS5ー2)。具体的には、制御部21の行動指示部215は、行動指示情報記憶部27の行動指示データ270に行動指示内容データ(例えば「隣席に座っている男性又は女性が魅力的です。声を掛けてみては?」等)をカップリングされた両ユーザのユーザIDに関連付けて記録し、両ユーザのユーザ端末10に対してそれぞれ送信し、ユーザ端末10に備えられた自動音声アナウンス機能又はディスプレイ表示機能を介してユーザに通知する。 Next, the
次に、恋愛対象マッチングサーバ20の制御部21は、ユーザ端末10から記録された画像を取得し、その画像に人物の顔が映っている場合には顔認識する処理を実行する(ステップS5ー3)。具体的には、制御部21の行動指示部215は、ユーザ端末10から受信した画像を予め記憶している顔認識判定値と比較し、基準を満たしている場合には、その画像に顔認識済みフラグを登録する。 Next, the
次に、恋愛対象マッチングサーバ20の制御部21は、取得した顔画像データをカップリングされた相手ユーザの本人顔画像と比較する処理を実行する(ステップS5ー4)。具体的には、制御部21の行動指示部215は、ユーザの視点画像から取得した顔画像と、ユーザとカップリングされた相手ユーザの本人顔画像とを比較する。そして、比較した結果、一致率が所定値を超えなかった場合(ステップS5ー5において「NO」の場合)、制御部21の行動指示部215は、行動指示処理をステップS5ー1から再実行する。 Next, the
一方、一致率が所定値を超えた場合(ステップS5ー5において「YES」の場合)、恋愛対象マッチングサーバ20の制御部21は、行動指示履歴を検索する処理を実行する(ステップS5ー6)具体的には、制御部21の行動指示部215は、行動指示情報記憶部27から行動指示承諾率データ及び成功率データが記録されている行動指示データ270があるか検索する。 On the other hand, when the match rate exceeds the predetermined value (in the case of “YES” in step S5-5), the
そして、行動指示履歴がある場合(ステップS5ー7において「YES」の場合)、連帯対象マッチングサーバ20の制御部21は、行動指示履歴からユーザが過去の行動指示を承諾した確率及び過去の行動指示が成功した確率を取得する処理を実行する(ステップS5ー8)。具体的には、制御部21の行動指示部215は、行動指示情報記憶部27の行動指示データ270にユーザIDに関連付けて記録されている行動指示承諾率データ及び相手ユーザのユーザIDに関連付けて記録されている成功率データを取得する。 Then, when there is an action instruction history (in the case of “YES” in step S5-7), the
次に、恋愛対象マッチングサーバ20の制御部21は、取得した承諾率及び成功率に基づいて行動指示得点を算出する処理を実行する(ステップS5ー9)。具体的には、制御部21の行動指示部215は、取得した行動指示承諾率データと成功率データを所定の方程式によって合計値を算出し、行動指示情報記憶部27の行動指示データ270にこのユーザのユーザIDと関連付けて記録する。成功率及び合計値算出にあたって、一方のデータに重み付けを加えてもよい。 Next, the
次に、恋愛対象マッチングサーバ20の制御部21は、算出した行動指示得点に基づいて行動指示を選択する処理を実行する(ステップS5ー10)。具体的には、制御部21の行動指示部215は、行動指示情報記憶部27から最も高い行動指示得点が記録された行動指示データ270を選択する。 Next, the
次に、恋愛対象マッチングサーバ20の制御部21は、最高得点の行動指示をユーザ端末10に対して送信する処理を実行する(ステップS5ー11)。具体的には、制御部21の行動指示部215は、行動指示情報記憶部27の最高得点の行動指示得点データに関連付けて記録された行動指示データ270をユーザ端末10に対して送信する。 Next, the
一方、行動指示履歴がない場合(ステップS5ー7において「NO」の場合)、過去の行動指示履歴を参照することなくステップS5ー8、ステップS5ー9及びステップS5ー10を省略し、予め記録されている行動指示群から行動指示を選択し、ユーザ端末10に送信する処理を実行する。具体的には、制御部21の行動指示部215は、行動指示情報記憶部27に記録されている複数の行動指示データ270から1つを無作為に選出し、ユーザ端末10に対して送信する。 On the other hand, when there is no action instruction history (in the case of "NO" in step S5-7), step S5-8, step S5-9 and step S5-10 are omitted without referring to the past action instruction history, and it is made in advance. The action instruction is selected from the action instruction group recorded, and the process of transmitting to the
次に、恋愛対象マッチングサーバ20の制御部21は、送信した行動指示がユーザによって承諾されたか否かを判定する処理を実行する(ステップS5ー12)。具体的には、制御部21の行動指示部215は、行動指示を受信後、ユーザ端末10が備えられた出力部としてのディスプレイ表示機能又は自動音声アナウンス機能を介して、ユーザに対して行動指示を通知し、ユーザは通知された行動指示に対して承諾するか否かを入力部としてのタッチディスプレイ機能又は指向性マイクロフォンを介して返答し、その結果をユーザ端末10は恋愛対象マッチングサーバ20の制御部21に対して送信する。返答がない場合は、拒否されたと判定する。 Next, the
ユーザが拒否した場合(ステップS5ー12において「NO」の場合)、恋愛対象マッチングサーバ20の制御部21は、ユーザ端末10に送信した行動指示を除外する処理を実行する(ステップS5ー13)。具体的には、制御部21の行動指示部215は、ユーザに拒否された行動指示データ270の行動指示IDを特定し、行動指示情報記憶部27に記録されている行動指示群から除外した上で、ステップS5ー6の行動指示履歴を検索する処理から再実行する。 When the user refuses (in the case of "NO" in step S5-12), the
一方、ユーザが承諾した場合(ステップS5ー12において「YES」の場合)恋愛対象マッチングサーバ20の制御部21は、行動指示承諾フラグを取得する処理を実行する。具体的には、制御部21の行動指示部215は、行動指示情報記憶部27の行動指示データ270に行動指示承諾フラグデータを記録する。 On the other hand, when the user consents (in the case of “YES” in step S5-12), the
次に、恋愛対象マッチングサーバ20の制御部21は、カップリングされた両ユーザの移動を検知する処理を実行する(ステップS5ー15)。具体的には、制御部21の行動指示部215は、カップリングされた両ユーザのユーザ端末10から位置情報を取得し、誘導先情報記憶部26の誘導先データ250に記録された所在地データを取得し、ユーザ端末10の位置情報と誘導先の所在地データ間の距離が所定値を超えた場合に、ユーザが誘導先から移動したと判定し、検知する。 Next, the
次に恋愛対象マッチングサーバ20の制御部21は、ビーコン接近情報が維持されているか否かを判定する処理を実行する(ステップS5ー16)。具体的には、制御部21の行動指示部215は、ユーザ端末10に備えられたビーコンセンサを介してカップリングされたユーザ同士の接近を検知した時点から行動指示情報記憶部27の行動指示データ270に記録されているビーコン接近フラグデータが、両ユーザの離脱によって解除されているか否か又は解除された後もビーコン接近フラグデータが再度記録されることもなく所定の連続時間数を超過しているか否かを判定する。尚、位置情報が十分に正確である場合には、ビーコン接近情報の代わりに位置情報を利用してもよい。 Next, the
そして、ビーコン接近情報が維持されている場合(ステップS5ー16において「YES」の場合)、恋愛対象マッチングサーバ20の制御部21は、カップリングされた両ユーザ及び両ユーザに対して通知された行動指示について成功登録処理を実行する(ステップS5ー17)。具体的には、制御部21のカップリング処理部213は、カップリング情報記憶部24のカップリングデータ240に記録されているカップリングIDを抽出し、同カップリングIDに関連付けて成功フラグデータを記録する。また、制御部21の行動指示部215は、行動指示情報記憶部27の行動指示データ270に記録されている行動指示IDを抽出し、この行動指示IDに関連付けて成功フラグデータを記録する。 When the beacon approach information is maintained (in the case of “YES” in step S5-16), the
次に、恋愛対象マッチングサーバ20の制御部21は、成功した行動指示について行動指示成功率を算出及び反映する処理を実行する(ステップS5ー18)。具体的には、制御部21の行動指示部215は、行動指示情報記憶部27から成功フラグデータが更新された行動指示データ270を抽出し、ユーザに対して通知された件数のうち成功フラグデータが記録された件数の割合を算出し、成功率データとして記録する。 Next, the
本実施形態によれば、以下のような効果を得ることができる。
(1)本実施形態では、恋愛対象マッチングサーバ20の制御部21は、ユーザ端末10から取得した画像の顔認識処理を実行した場合(ステップS1ー1)、顔認識済の画像とユーザの視線が一致しているか否かの判定処理(ステップS1ー2)、顔認識済の画像が正面を向いているか否かの判定処理(ステップS1ー3)及び顔画像に写っているユーザ端末10がユーザの顔の中心線を軸として左右が反転しているか否かの判定処理(ステップS1ー4)を実行する。そして、これらの判定処理において所定の条件を満たした場合、本人顔画像登録処理を実行する。これにより、ユーザにサービス利用や会員登録を意識させることなく、鏡に映ったユーザ本人の虚像としての顔画像を記録した場合のみその顔画像を本人顔画像として検知し、記録することができ、ユーザ以外の他者の顔画像を記録した場合にはその顔画像をユーザ本人としては記録しないよう処理することができる。According to the present embodiment, the following effects can be obtained.
(1) In the present embodiment, when the
(2)本実施形態では、恋愛対象マッチングサーバ20の制御部21は、ユーザ端末10から取得した画像の顔認識処理を実行した場合(ステップS2ー1)、顔認識済の画像とユーザの本人顔画像が一致しているか否かの判定処理(ステップS2ー2)を実行する。そして、本人顔画像と一致しない場合に、他者の顔画像として登録する処理を実行し(ステップS2ー3)、ユーザがその他者の顔画像を注視する時間及び回数を、ユーザ端末10を介して取得し(ステップS2ー4)、その多寡に応じて得点を付与し(ステップS2ー5)、所定の基準点を超えた他者の顔画像について顔画像を構成する各部位の座標及び面積占有率を算出する(ステップS2ー7、S2ー8)。これにより、ユーザ自ら他者の顔画像を意識的に選別することなく、無意識に長い時間又は繰り返し見てしまう他者の顔画像をユーザの嗜好対象として登録し、その顔画像を構成する各部位について分析することができる。 (2) In the present embodiment, when the
(3)本実施形態では、恋愛対象マッチングサーバ20の制御部21は、ユーザの嗜好対象として登録及び分析された顔画像各部位の形状、座標及び面積占有率について、他ユーザの本人顔画像とマッチング処理を実行し(ステップS3ー1)、その一致率が所定の基準値以上だった場合(ステップS3ー2において「YES」の場合)、そのユーザと嗜好対象の他者ユーザをカップリング登録する。これにより、ユーザが直接目視していない他者ユーザをもマッチング候補として判定処理を実行し、ユーザの無意識の嗜好を考慮しつつもインターネットを通じて膨大なユーザ同士をカップリングすることができる。 (3) In the present embodiment, the
(4)本実施形態では、恋愛対象マッチングサーバ20の制御部21は、ユーザ端末10から位置情報を取得し(ステップS4ー1)、特定の緯度・経度におけるユーザの所在頻度及び滞在時間を算出し(ステップS4ー2)、カップリングされたユーザ間において互いが日常的に利用する地点又は経路を比較する処理を実行し(ステップS4ー5)、所在頻度、滞在時間、現在地からの所要時間及び地点カテゴリ等を勘案して得点を付与し(ステップS4ー9、S4ー13)、最高得点の誘導先にカップリングされたユーザを誘導する指示をユーザ端末10に対して送信する処理を実行する(ステップS4ー15)。そして、カップリングされた両ユーザが誘導指示を承諾した場合(ステップS4ー18において「YES」の場合)、承諾した事実及び両ユーザの本人顔画像を誘導先の店舗又は施設の従業員が閲覧及び操作できる法人端末30に対して送信する処理を実行する(ステップS4ー21)。これにより、カップリングされた両ユーザによって誘導指示が承諾されやすくなり、承諾後においては誘導先の店舗又は施設を運営する法人側も事前に両ユーザを受け入れ、両ユーザを隣席に配置するための情報を取得することができる。 (4) In the present embodiment, the
(5)本実施形態では、恋愛対象マッチングサーバ20の制御部21は、ユーザ端末10からビーコン接近情報を取得し(ステップS5ー1)、カップリングされた両ユーザが接近したことを検知した場合には、ユーザ端末10に対して隣席を見るよう行動指示を送信し(ステップS5ー2)、ユーザの視点の先に検知される顔画像とカップリングされた相手ユーザの本人顔画像とを比較する処理を実行する(ステップS5ー4)。そして、顔画像が一致した場合(ステップS5ー5において「YES」の場合)、過去に送信したことのある行動指示履歴からユーザによる行動指示承諾率及び行動指示成功率が高い行動指示をユーザ端末10に送信し(ステップS5ー6、S5ー7、S5ー8、S5ー9、S5ー10、S5ー11)、ユーザが行動指示を承諾した場合(ステップS5ー12において「YES」の場合)、カップリングされた両ユーザの位置情報により移動を検知する処理(ステップS5ー15)及びビーコン接近情報が維持されているか否かを判定する処理(ステップS5ー16)を実行する。これにより、カップリングされた両ユーザの接近を検知した上で、過去の履歴から成功率が最も高い行動指示を選定及び送信し、行動指示承諾後においては両ユーザ間の近距離が保たれたまま位置情報から移動を検知し、行動指示がカップリングされた両ユーザの関係発展に寄与したか否かを判定することができる。 (5) In the present embodiment, the
(第2の実施形態)
次に、図8を用いて、恋愛対象マッチングシステムの第2の実施形態を説明する。上記第1の実施形態においては、他ユーザ又は非会員の顔画像におけるユーザの注視時間及び回数に基づいてユーザの嗜好を分析及びカップリングしていた。本実施形態では、他者の顔画像を視認した直後のユーザの視線の動きをも分析対象に含めることにより他者の顔画像だけでなく体型画像におけるユーザの注視時間及び回数に基づいて嗜好分析処理及びカップリング処理を実行する。本実施形態では、上記実施形態と同様の部分については、同一の符号を付し、その詳細な説明は省略する。Second Embodiment
Next, a second embodiment of the love target matching system will be described using FIG. In the first embodiment, the preference of the user is analyzed and coupled based on the gaze time and the number of gazes of the user in the face image of another user or a nonmember. In the present embodiment, preference analysis is performed based on the gaze time and the number of times of the user not only in the face image of the other person but also in the figure image by including the movement of the user's line of sight immediately after viewing the other person's face image Perform processing and coupling processing. In the present embodiment, the same parts as those in the above-described embodiment are denoted by the same reference numerals, and the detailed description thereof is omitted.
本実施形態においては、上記第1の実施形態において恋愛対象マッチングサーバ20のユーザ情報記憶部22のユーザ管理データ220に記録されると説明した各データの他に、本人体型画像に関するデータ及び体型を嗜好するユーザのユーザIDが含まれる。
本人体型画像データ領域には、ユーザ本人の体型が写った画像に関するデータが記録される。
ユーザID領域には、各ユーザを特定するための識別子(ユーザID)のうち他ユーザのユーザIDに関するデータが記録される。In the present embodiment, in addition to each data described as being recorded in the
In the present human-body-type image data area, data relating to an image in which the user's own figure is photographed is recorded.
In the user ID area, data relating to the user ID of another user is recorded among identifiers (user ID) for specifying each user.
図8を用いて、本実施形態における嗜好分析処理を説明する。この処理は、ユーザ端末から顔画像及び体型画像を取得した場合に実行される。
まず、恋愛対象マッチングサーバ20の制御部21は、ステップS2ー1と同様に、ユーザ端末10から顔認識された人物の顔画像を取得する処理を実行する(ステップS6ー1)。The preference analysis process according to the present embodiment will be described with reference to FIG. This process is performed when a face image and a figure image are acquired from a user terminal.
First, as in step S2-1, the
次に、恋愛対象マッチングサーバ20の制御部21は、ユーザ端末10から人物の体型として認識された画像を取得する処理を実行する(ステップS6ー2)。具体的には、手足若しくは衣服の形状又は人間の肌の色が映っていることを検知した場合に、体型画像として認識する。 Next, the
次に、恋愛対象マッチングサーバ20の制御部21は、ユーザが顔認識された顔画像を注視する連続時間及びその顔画像と体型として認識された体型画像とを反復する回数を取得する処理を実行する(ステップS6ー3)。具体的には、制御部21の嗜好分析部212は、ユーザ端末10からユーザの視点が顔画像に置かれているかを判定し、置かれている連続時間数及び置かれた回数を計測し、同時に体型画像に視点が置かれている連続時間及び置かれた回数を計測し、顔注視時間数データ及び顔視認回数データとして嗜好対象記憶部23の嗜好顔画像管理データ230に、体型注視時間数データ及び体型視認回数データとして嗜好体型画像管理データ232に記録する。 Next, the
次に、恋愛対象マッチングサーバ20の制御部21は、顔画像と体型画像を反復する視点の動きが所定範囲内であるか否かの判定処理を実行する(ステップS6ー4)。具体的には、制御部21の嗜好分析部212は、ユーザ端末10から顔画像データと体型画像データを反復するユーザの視点が顔画像の位置に対して平均的な人体の身長及び体幅の範囲内で動いているかを、ユーザとその顔画像との距離を計算しながら判定する。そして、範囲外と判定した場合(ステップS6ー4において「NO」の場合)、制御部21は、嗜好分析処理を終了する。 Next, the
一方、範囲内と判定した場合(ステップS6ー4)において「YES」の場合)、恋愛対象マッチングサーバ20の制御部21は、顔画像と体型画像を視点が反復する回数及び視認する連続時間数が所定基準を超えているか否かの判定処理を実行する(ステップS6ー5)。具体的には、制御部21の嗜好分析部212は、嗜好対象記憶部23の嗜好管理データ230に記録された顔視認回数データ及び体型視認回数データ並びに嗜好管理データ232に記録された顔注視時間数データ及び体型注視時間数データを、所定基準(例えば、人が他者の全身を視認する際に視点を動かす平均回数)と比較する。なお、注視時間数と反復回数の多寡だけでなく、ユーザが顔画像及び体型画像を注視する際の視点の動かし方や一回の注視時間等の特定のパターンに対して、より有効性が高いと判定する基準を追加してもよい。そして、反復回数と連続時間数の基準を超えない場合(ステップS6ー5において「NO」の場合)、制御部21は、嗜好分析処理を終了する。 On the other hand, when it is determined that the range is within the range (in the case of “YES” in step S6-4), the
一方、反復回数と連続時間数の基準を超えた場合(ステップS6ー5において「YES」の場合)、恋愛対象マッチングサーバ20の制御部21は、顔画像と体型画像を同一人物のものとして関連付ける処理を実行する(ステップS6ー6)。具体的には、顔画像データと体型画像データを嗜好対象記憶部23に相互に関連付けて記録する。 On the other hand, when the criteria for the number of repetitions and the number of continuous times are exceeded (in the case of “YES” in step S6-5), the
次に、恋愛対象マッチングサーバ20の制御部21は、体型に関する嗜好についての得点を付与する処理を実行する(ステップS6ー7)。具体的には、制御部21の嗜好分析部212は、ステップS6ー3において取得した体型注視時間数データ及び体型視認回数データの数値が大きければ大きいほど、体型画像データに対して高い得点を体型嗜好得点データとして付与し、嗜好対象記憶部23に記録する。なお、注視時間数と回数の多寡だけでなく、ユーザが体型画像を注視する際の視点の動かし方や一回の注視時間等の特定のパターンに対して、より高得点を付与するようにしてもよい。 Next, the
次に、恋愛対象マッチングサーバ20の制御部21は、体型画像データに付与された体型嗜好得点が所定基準を超えているか否かの判定処理を実行する(ステップS6ー8)。具体的には、制御部21の嗜好分析部212は、嗜好対象沖億部23において体型画像に付与された体型嗜好得点データを所定基準(例えば、全嗜好管理データに記録された体型嗜好得点データの平均値)と比較する。そして、体型嗜好得点データが所定基準を超えなかった場合(ステップS6ー8において「NO」の場合)、制御部21は、嗜好分析処理を終了する。 Next, the
一方、体型嗜好得点データが所定基準を超えた場合(ステップS6ー8において「YES」の場合)、恋愛対象マッチングサーバ20の制御部21は、ステップS6ー6において体型画像と関連付けられた顔画像と、ユーザの本人顔画像が同一人物か否かの判定処理を実行する(ステップS6ー9)。具体的には、制御部21の嗜好分析部212は、嗜好対象記憶部23において体型嗜好得点が付与された体型画像データと関連付けて記録されている顔画像データを抽出し、本人顔画像登録処理によってユーザ情報記憶部22のユーザ管理データ220にユーザ本人のユーザIDに関連付けて記録された本人顔画像データとのマッチング処理を実行する。そして、同一人物と判定した場合(ステップS6ー9において「YES」の場合)、制御部21は、嗜好分析処理を終了する。 On the other hand, when the body shape preference score data exceeds the predetermined reference (in the case of “YES” in step S6-8), the
一方、ユーザ本人と同一人物と判定されなかった場合(ステップS6ー9において「NO」の場合)、恋愛対象マッチングサーバ20の制御部21は、顔画像データと他ユーザの本人顔画像が同一人物か否かの判定処理を実行する(ステップS6ー10)。具体的には、制御部21の嗜好分析部212は、ステップS6ー6において体型画像と関連付けられた顔画像と、本人顔画像登録処理によってユーザ情報記憶部22のユーザ管理データ220に他ユーザのユーザIDに関連付けて記録された本人顔画像データとのマッチング処理を実行する。そして、他ユーザと同一人物と判定した場合(ステップS6ー10において「YES」の場合)、制御部21の嗜好分析部212は、体型画像を他ユーザのユーザIDに関連付けて記録する処理を実行する(ステップS6ー11)。具体的には、制御部21の嗜好分析部212は、同一人物と判定した他ユーザのユーザIDをユーザ情報記憶部22のユーザ管理データ220から抽出し、そのユーザIDに関連付けて体型画像データをユーザ管理データ220に記録する。 On the other hand, when the user is not determined to be the same person as the user (in the case of “NO” in step S6-9), the
一方、他ユーザと同一人物と判定しなかった場合(ステップS6ー10において「NO」の場合)、恋愛対象マッチングサーバ20の制御部21は、既存の非会員画像に写っている人物と同一人物か否かの判定処理を実行する(ステップS6ー12)。具体的には、制御部21の嗜好分析部212は、ステップS6ー6において体型画像と関連付けられた顔画像と、既に嗜好対象記憶部23の非会員画像管理データ231に記録された非会員顔画像データとのマッチング処理を実行する。そして、非会員画像に写っている人物と同一人物と判定した場合(ステップS6ー12において「YES」の場合)、制御部21の嗜好分析部212は、体型画像を非会員画像IDに関連付けて記録する処理を実行する(ステップS6ー13)。具体的には、制御部21の嗜好分析部212は、嗜好対象記憶部23の非会員画像管理データ231から同一人物と判定した非会員顔画像に関連付けて記録された非会員画像IDを抽出し、ステップS6ー6において顔画像と関連付けられた体型画像を関連付けて、非会員画像管理データ231に記録する。 On the other hand, when it is not determined to be the same person as another user (in the case of “NO” in step S6-10), the
一方、非会員画像と同一人物でないと判定した場合(ステップS6ー12において「NO」の場合)、恋愛対象マッチングサーバ20の制御部21は、体型画像と関連付けられた顔画像に対して非会員画像IDを新規登録する処理を実行する(ステップS6ー14)。具体的には、制御部21の嗜好分析部212は、ステップS6ー6において体型画像と関連付けられた顔画像に対して非会員画像IDを新規に発行し、嗜好対象記憶部23において非会員画像管理データ231を生成し、顔画像データから顔画像各部位を抽出し、顔画像各部位の座標及び面積占有率を算出し、非会員画像データ、非会員顔画像データ各部位データ、非会員顔画像データ各部位座標、非会員顔画像データ各部位面積占有率及び非会員体型画像データとして記録する。 On the other hand, when it is determined that the person is not the same person as the non-member image (in the case of “NO” in step S6-12), the
次に、恋愛対象マッチングサーバ20の制御部21は、体型嗜好としてユーザ本人に他ユーザID又は非会員画像IDを関連付ける処理を実行する(ステップS6ー15)。具体的には、制御部21の嗜好分析部212は、ステップS6ー11において体型画像データに関連付けて記録された他ユーザのユーザID又はステップS6ー13若しくはステップS6ー14において体型画像データに関連付けて記録された非会員画像IDを、嗜好対象記憶部23の体型嗜好対象管理データ232に記録する。また、嗜好分析部212は、体型画像データが他ユーザのユーザIDに関連付けられた場合(ステップS6ー10において「YES」の場合)、ユーザ本人のユーザIDを、ユーザ情報記憶部22に記録された他ユーザのユーザ管理データ220に、体型を嗜好するユーザのユーザIDとして記録する。 Next, the
恋愛対象マッチングサーバ20の制御部21は、嗜好する体型の画像IDが重複又は近似する他ユーザを検索する処理を実行する(ステップS6ー16)。具体的には、制御部21の嗜好分析部212は、嗜好対象記憶部23の嗜好体型管理データ232からユーザのユーザIDに関連付けて記録された非会員画像ID又は他ユーザのユーザIDを抽出し、同じIDが嗜好体型として嗜好体型管理データ232に記録された他ユーザのユーザIDを検索する。 The
次に、恋愛対象マッチングサーバ20の制御部21は、嗜好する体型の画像IDの重複率が所定基準を超えるか否かの判定処理を実行する(ステップS6ー17)。具体的には、制御部21の嗜好分析部212は、嗜好する体型の画像IDが重複又は近似する他ユーザのうち重複率が所定基準を超える他ユーザを抽出する。そして、嗜好する体型の画像IDの重複率が所定基準を超えなかった場合(ステップS6ー17において「NO」の場合)、制御部21は、嗜好分析処理を終了する。 Next, the
一方、重複率が所定基準を超えた場合(ステップS6ー17において「YES」の場合)、恋愛対象マッチングサーバ20の制御部21は、重複率の所定基準を超えた他ユーザの嗜好体型情報として登録された画像IDのうちユーザ本人の嗜好体型情報に未登録の画像IDを記録する処理を実行する(ステップS6ー18)。具体的には、制御部21の嗜好分析部212は、嗜好対象記憶部23の嗜好体型管理データ232に、嗜好体型の重複率が所定基準を超えた他ユーザのユーザIDに関連付けて記録された非会員画像ID及び他ユーザのユーザIDのうち、ユーザ本人のユーザIDにまだ関連付けられていないものを、ユーザ本人のユーザIDに関連付けて嗜好体型管理データ232に記録する。 On the other hand, when the overlap rate exceeds the predetermined reference (in the case of “YES” in step S6-17), the
本実施形態によれば、上記実施形態の(1)〜(5)と同様の効果に加えて、以下のような効果を得ることができる。
(6)本実施形態では、ユーザ端末10から顔画像と共に体型画像を取得し、両画像を行き来する視線の動きが範囲内である場合(ステップS6ー4において「YES」の場合)、そして両画像を視線が行き来する回数や連続時間が所定基準を超えた場合(ステップS6ー5において「YES」の場合)、恋愛対象マッチングサーバ20の制御部21は、顔画像と体型画像を相互に関連付けて記録し(ステップS6ー6)、体型画像についても嗜好に関する得点を付与することにより評価する。そして、嗜好する体型画像のパターンが重複又は近似する他ユーザの嗜好体型情報を抽出して未登録の嗜好体型情報を新たに記録する(ステップS6ー16、ステップS6ー17、ステップS6ー18)。これにより、顔画像だけでなく体型画像についての嗜好も併せて嗜好分析対象に含めることができる。According to the present embodiment, in addition to the same effects as (1) to (5) of the above embodiment, the following effects can be obtained.
(6) In the present embodiment, when the figure image is acquired from the
また、上記各実施形態は、以下のように変更してもよい。 In addition, the above embodiments may be modified as follows.
・上記第1実施形態において、恋愛対象マッチングサーバ20の制御部21は、顔画像データに顔嗜好得点を付与する処理を実行する(ステップS2ー3)。この場合、制御部21の嗜好分析部212は、ユーザが顔画像を注視する連続時間数と回数に関するデータの数値が大きければ大きいほど、顔画像データに対して高い得点を顔嗜好得点データとして付与する。これに加えて、ユーザ端末10に心拍数や体温等のユーザの心理状態が反映されるデータを取得する機能が備えられている場合には、これらのデータを併せて顔嗜好得点データを算出するようにしてもよい。
・上記第1実施形態において、恋愛対象マッチングサーバ20の制御部21は、受信した誘導指示を、ユーザ端末10を介してユーザに通知する処理を実行する(ステップS4ー17)。この場合、ユーザ端末10に備えられたイヤフォン若しくは骨伝導等を用いて自動音声をユーザに対してアナウンスする機能又は表示部として備えられた透過レンズ型ディスプレイ機能を介して誘導指示データ262の誘導指示内容データをユーザに通知する。ユーザに対する通知手段は、これらに限定するものではない。例えば、ユーザ端末10に予め備えられているカレンダー機能に誘導先へ行くという予定を登録するようにしてもよい。In the first embodiment, the
In the first embodiment, the
10…ユーザ端末、20…恋愛対象マッチングサーバ、30…法人端末、21…制御部、22…ユーザ情報記憶部、23…嗜好対象記憶部、24…カップリング情報記憶部、25…ユーザ所在地情報記憶部、26…誘導先情報記憶部、27…行動指示情報記憶部、211…本人判定部、212…嗜好分析部、213…カップリング処理部、214…誘導指示部、215…行動指示部、220…ユーザ管理データ220、顔嗜好管理データ…230、非会員画像管理データ…231、体型嗜好管理データ…232、カップリング管理データ…240、ユーザ所在データ…250、誘導先データ…260、訪問実績データ…261、誘導先評価データ…262、行動指示データ…270。 DESCRIPTION OF
Claims (7)
前記ユーザの視点を捕捉し、前記ユーザが見ている対象を撮影し、前記対象が人の顔である場合には顔認識し、記録することができるユーザ端末に接続された制御部とを備えた恋愛対象マッチングシステムであって、
前記制御部は、
前記ユーザ端末が記録した顔認識された画像情報を取得し、
前記画像情報と前記ユーザとの間で視線の一致率が所定基準を超えているかを判断し、
前記画像情報に写る前記ユーザ端末が正面を向いているかを判断し、
前記画像情報に写る前記ユーザ端末が鏡面により左右反転しているかを判断し、
前記判断の全条件を満たしている場合には、前記顔認識された画像情報を本人顔画像情報として前記ユーザ情報記憶部に記録し、
前記本人顔画像情報に写っている顔を構成する各部位の画像を抽出し、
前記各部位の顔全体における座標及び面積占有率を算出し、
前記ユーザに関連付けて前記ユーザ情報記憶部に本人顔画像各部位座標及び本人顔画像面積占有率として記録することを特徴とする恋愛対象マッチングシステム。A user information storage unit having a storage area associated with a user's face and image information of each part constituting the user;
A control unit connected to a user terminal capable of capturing the viewpoint of the user, photographing an object the user is looking at, and recognizing a face when the object is a human face and recording the object Love matching system,
The control unit
Obtaining face recognized image information recorded by the user terminal;
It is determined whether the line-of-sight coincidence rate between the image information and the user exceeds a predetermined standard,
Determining whether the user terminal appearing in the image information is facing forward;
Determining whether the user terminal reflected in the image information is mirror-reversed by a mirror surface;
When all the conditions of the determination are satisfied, the face-recognized image information is recorded as the face image information in the user information storage unit,
Extracting an image of each part constituting the face shown in the personal-face image information;
Calculating coordinates and area occupancy of the entire face of each part;
A love object matching system characterized in that it is recorded in the user information storage unit as individual face image individual part coordinates and the personal face image area occupancy rate in association with the user.
前記制御部が、
前記ユーザ端末が記録した顔認識された画像情報を取得し、
前記ユーザ端末が記録した前記他者の画像情報に視点が置かれた連続時間数及び回数を取得し、
前記連続時間数及び前記回数に応じて嗜好に関する得点を付与し、
前記嗜好に関する得点が所定基準を超えた場合には、前記画像情報が前記本人顔画像情報と一致するかを判断し、
一致する場合には、他ユーザの前記本人顔画像各部位座標及び前記本人顔画像各部位面積占有率を取得し、
一致しない場合には、非会員画像IDが既に登録されているか判断し、
登録されている場合には、既存の非会員画像に関連付けて非会員顔画像各部位座標及び非会員顔画像各部位面積占有率に加算し、
登録されていない場合には、新たに非会員画像IDを登録して非会員顔画像各部位座標及び非会員顔画像各部位面積占有率を算出し、
前記ユーザに関連付けて前記嗜好対象記憶部に記録することを特徴とする請求項1に記載の恋愛対象マッチングシステム。The control unit is connected to a preference target storage unit that records preferences related to the face of another person in association with the user,
The control unit
Obtaining face recognized image information recorded by the user terminal;
Acquiring the number of continuous times and the number of times the viewpoint is placed on the image information of the other person recorded by the user terminal;
According to the number of continuous times and the number of times, a score on preference is given
When the score regarding the preference exceeds a predetermined standard, it is determined whether the image information matches the personal-face image information.
If they match, the area coordinates of the individual face image of the other user and the area ratio of the individual face image are acquired.
If they do not match, it is determined whether a non-member image ID has already been registered,
If it is registered, it is added to the non-member face image each part coordinates and the non-member face image each part area occupancy in association with the existing non-member image,
If not registered, the non-member image ID is newly registered to calculate the non-member face image each region coordinates and the non-member face image each region area occupancy rate,
The love object matching system according to claim 1, wherein the preference object storage unit records the information in association with the user.
前記制御部が、
前記嗜好対象記憶部に前記ユーザに関連付けられて記録された前記本人顔画像各部位座標及び前記本人顔画像各部位面積占有率と、前記ユーザ情報記憶部に前記他ユーザに関連付けられて記録された前記本人顔画像各部位座標及び前記本人顔画像各部位面積占有率とのマッチング処理を実行し、
一致率が互いに所定基準を超えた場合に、当該ユーザ同士の組合せについてカップリング処理を行い、前記カップリング情報記憶部に記録することを特徴とする請求項2に記載の恋愛対象マッチングシステム。The control unit is connected to a coupling information storage unit that records a combination of a plurality of users whose preferences match or approximate each other,
The control unit
The individual face image each part coordinates and the individual face image each part area occupancy rate recorded in the preference object storage unit in association with the user, and the user information storage unit are recorded in association with the other user Executing matching processing between the individual face image each part coordinates and the individual face image each part area occupancy rate,
3. The love target matching system according to claim 2, wherein when the matching rates mutually exceed a predetermined reference, coupling processing is performed on the combination of the users, and the combination is recorded in the coupling information storage unit.
前記制御部が、
前記ユーザ端末から位置情報を取得し、
緯度及び経度並びにその履歴を記録し、
前記緯度及び経度における所在頻度及び滞在時間を算出し、
前記ユーザが日常的に利用する地点及び経路を特定して前記ユーザ所在地情報記憶部に記録し、
前記カップリング情報記憶部に前記ユーザと組み合わせて記録された他ユーザについても同様に利用頻度の高い地点及び移動経路を算出し、前記ユーザ所在地情報記憶部に記録し、
カップリングされた両ユーザ間で前記地点及び前記移動経路を比較し、
重複地点がある場合には、両ユーザの訪問回数及び現在位置からの所要時間に基づいて誘導先得点を付与し、
前記重複地点がない場合には、両ユーザの訪問回数が多い地点カテゴリ情報及び前記所要時間に基づいて前記誘導先得点を付与し、
前記誘導先得点がより高い地点を選定して誘導指示を前記両ユーザの前記ユーザ端末に送信し、
前記ユーザ端末は備えられた音声アナウンス機能及びディスプレイ表示機能によって前記両ユーザに前記誘導指示を通知し、
前記両ユーザが前記誘導指示を承諾した場合には、承諾情報を前記ユーザ端末から前記制御部に送信し、
前記承諾情報及び前記両ユーザの本人顔画像を誘導先に備えられた法人端末に送信し、前記法人端末を閲覧する誘導先の従業員に前記両ユーザを接近させる指示を前記法人端末に通知し、
前記両ユーザのいずれか一方又は両方が前記誘導指示を承諾しない場合には、拒否情報を前記ユーザ端末から前記制御部に送信し、
前記制御部は前記拒否情報に基づいて拒否された地点を除外して両ユーザ間で前記地点及び前記移動経路を比較する処理を再度実行することを特徴とする請求項3に記載の恋愛対象マッチングシステム。The control unit is connected to a user location information storage unit for storing a location in association with the user, and a guidance destination information storage unit for storing a store, a facility, and a category associated with them on map data.
The control unit
Obtain location information from the user terminal,
Record the latitude and longitude and their history,
Calculate the location frequency and stay time at the latitude and longitude,
Identifying a point and a route that the user uses on a daily basis and recording the same in the user location information storage unit;
Similarly, for other users recorded in the coupling information storage unit in combination with the user, points and travel paths with high usage frequency are similarly calculated, and are recorded in the user location information storage unit.
Compare the point and the travel path between both coupled users,
If there is a duplication point, a destination score is assigned based on the number of visits of both users and the time taken from the current position,
If there is no overlapping point, the guidance destination score is assigned based on point category information where the number of visits by both users is large and the required time,
Selecting a point where the guidance destination score is higher and transmitting a guidance instruction to the user terminals of the two users;
The user terminal notifies both of the users of the guidance instruction by the provided voice announcement function and display display function.
If the two users agree to the guidance instruction, consent information is transmitted from the user terminal to the controller.
The consent information and the face image of the two users are transmitted to the corporation terminal provided at the guidance destination, and the corporation terminal is notified of an instruction to cause the employee of the guidance destination who browses the corporation terminal to approach the two users. ,
When any one or both of the two users do not accept the guidance instruction, rejection information is transmitted from the user terminal to the control unit,
The love target matching according to claim 3, wherein the control unit executes again the processing of comparing the point and the movement route between both users excluding the point rejected based on the refusal information. system.
前記制御部が、
前記ユーザ端末からビーコン接近情報を取得し、
前記両ユーザが接近した場合には、前記ユーザ端末に相手ユーザを視認するよう行動指示を送信し、
前記両ユーザが前記ユーザ端末を介して見ている対象物の視点画像情報を取得し、
前記視点画像情報とカップリングされた他ユーザの本人顔画像情報についてマッチング処理を実行し、
一致率が所定基準を超える場合には、過去の行動指示履歴から前記相手ユーザに話しかけるための行動指示を検索し、
前記行動指示が見つかった場合には、前記行動指示に関連付けられた行動指示承諾率及び成功率を取得し、
前記行動指示承諾率及び前記成功率に基づいて行動指示得点を付与し、最高得点の行動指示を選定し、
前記行動指示履歴がない場合には、予め登録された行動指示群から無作為に行動指示を選択し、
前記行動指示をユーザ端末に送信し、前記ユーザ端末は前記音声アナウンス機能及び前記ディスプレイ表示機能によって前記ユーザに対して通知し、
前記行動指示を前記ユーザが承諾しない場合には、前記行動指示を除外し、前記行動指示履歴を再検索し、
前記行動指示を前記ユーザが承諾した場合には、前記ユーザ端末から前記両ユーザの位置情報を取得し、前記両ユーザの移動を検知し、
前記ユーザ端末からビーコン接近情報を取得し、前記両ユーザの接近情報が維持されているか判定し、
前記接近情報が維持されている場合には、前記ユーザが前記行動指示に従った結果としてカップリングされた相手ユーザと知り合えたと判断し、前記カップリングに成功フラグを登録し、
前記行動指示の成功率に反映する処理から再度実行することを特徴とする請求項4に記載の恋愛対象マッチングシステム。The control unit is connected to an action instruction information storage unit that records an action instruction history in association with the both users,
The control unit
Acquiring beacon approach information from the user terminal;
When the two users approach each other, an action instruction is sent to the user terminal to visually recognize the other user,
Acquiring viewpoint image information of an object viewed by the two users via the user terminal;
Performing matching processing on the face image information of the other user coupled to the viewpoint image information;
If the coincidence rate exceeds a predetermined criterion, an action instruction for talking to the other user is retrieved from the past action instruction history,
If the action instruction is found, the action instruction acceptance rate and the success rate associated with the action instruction are acquired,
Assigning a behavioral instruction score based on the behavioral instruction acceptance rate and the success rate, and selecting a behavioral instruction with the highest score,
If there is no action instruction history, an action instruction is selected at random from a pre-registered action instruction group,
The action instruction is transmitted to the user terminal, and the user terminal notifies the user by the voice announcement function and the display display function.
When the user does not accept the action instruction, the action instruction is excluded and the action instruction history is re-searched.
When the user accepts the action instruction, position information of both users is acquired from the user terminal, and movement of both users is detected.
The beacon approach information is acquired from the user terminal, and it is determined whether the approach information of both the users is maintained,
If the approach information is maintained, it is determined that the user has met the partner user who is coupled as a result of following the action instruction, and a success flag is registered in the coupling,
The love object matching system according to claim 4, wherein the process is executed again from the process of reflecting the success rate of the action instruction.
前記ユーザの視点を捕捉し、前記ユーザが見ている対象を撮影し、前記対象が人の顔である場合には顔認識し、記録することができるユーザ端末に接続された制御部とを備えた恋愛対象マッチングシステムを用いた、ユーザに意識させることなく当該ユーザの恋愛対象に関する嗜好を分析し、それに合致する恋愛対象を発見し、出会い、互いを知り合えるように誘導するための方法であって、
前記制御部は、
前記ユーザ端末が記録した顔認識された画像情報を取得し、
前記画像情報と前記ユーザとの間で視線の一致率が所定基準を超えているかを判断し、
前記画像情報に写る前記ユーザ端末が正面を向いているかを判断し、
前記画像情報に写る前記ユーザ端末が鏡面により左右反転しているかを判断し、
前記判断の条件の全てを満たしている場合には、前記顔認識された画像情報を本人顔画像情報として前記ユーザ情報記憶部に記録し、
前記本人顔画像情報に写っている顔を構成する各部位の画像を抽出し、
前記各部位の顔全体における座標及び面積占有率を算出し、
前記ユーザに関連付けて前記ユーザ情報記憶部に本人顔画像各部位座標及び本人顔画像面積占有率として記録することを特徴とする恋愛対象マッチング方法。A user information storage unit having a storage area associated with a user's face and image information of each part constituting the user;
A control unit connected to a user terminal capable of capturing the viewpoint of the user, photographing an object the user is looking at, and recognizing a face when the object is a human face and recording the object A method for analyzing a user's preference for a love subject without making the user aware, finding a love subject matching it, and guiding the user to meet each other. ,
The control unit
Obtaining face recognized image information recorded by the user terminal;
It is determined whether the line-of-sight coincidence rate between the image information and the user exceeds a predetermined standard,
Determining whether the user terminal appearing in the image information is facing forward;
Determining whether the user terminal reflected in the image information is mirror-reversed by a mirror surface;
When all the conditions for the determination are satisfied, the face-recognized image information is recorded as the personal-face image information in the user information storage unit.
Extracting an image of each part constituting the face shown in the personal-face image information;
Calculating coordinates and area occupancy of the entire face of each part;
A love object matching method characterized in that it is stored in the user information storage unit as individual face image individual part coordinates and the personal face image area occupancy rate in association with the user.
前記ユーザの視点を捕捉し、前記ユーザが見ている対象を撮影し、前記対象が人の顔である場合には顔認識し、記録することができるユーザ端末に接続された制御部とを備えた恋愛対象マッチングシステムを用いた、ユーザに意識させることなく当該ユーザの恋愛対象に関する嗜好を分析し、それに合致する恋愛対象を発見し、出会い、互いを知り合えるように誘導するためのプログラムであって、
前記制御部は、
前記ユーザ端末が記録した顔認識された画像情報を取得し、
前記画像情報と前記ユーザとの間で視線の一致率が所定基準を超えているかを判断し、
前記画像情報に写る前記ユーザ端末が正面を向いているかを判断し、
前記画像情報に写る前記ユーザ端末が鏡面により左右反転しているかを判断し、
前記判断の条件の全てを満たしている場合には、前記顔認識された画像情報を本人顔画像情報として前記ユーザ情報記憶部に記録し、
前記本人顔画像情報に写っている顔を構成する各部位の画像を抽出し、
前記各部位の顔全体における座標及び面積占有率を算出し、
前記ユーザに関連付けて前記ユーザ情報記憶部に本人顔画像各部位座標及び本人顔画像面積占有率として記録する手段として機能させることを特徴とする恋愛対象マッチングプログラム。A user information storage unit having a storage area associated with a user's face and image information of each part constituting the user;
A control unit connected to a user terminal capable of capturing the viewpoint of the user, photographing an object the user is looking at, and recognizing a face when the object is a human face and recording the object A program for analyzing a user's preference for a love subject without making the user aware, using the love subject matching system, discovering a love subject matching it, and guiding them to meet and meet each other ,
The control unit
Obtaining face recognized image information recorded by the user terminal;
It is determined whether the line-of-sight coincidence rate between the image information and the user exceeds a predetermined standard,
Determining whether the user terminal appearing in the image information is facing forward;
Determining whether the user terminal reflected in the image information is mirror-reversed by a mirror surface;
When all the conditions for the determination are satisfied, the face-recognized image information is recorded as the personal-face image information in the user information storage unit.
Extracting an image of each part constituting the face shown in the personal-face image information;
Calculating coordinates and area occupancy of the entire face of each part;
A love object matching program, characterized in that it functions as a means for recording in the user information storage unit as individual face image part coordinates and the personal face image area occupancy rate in association with the user.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017216787A JP7083972B2 (en) | 2017-10-23 | 2017-10-23 | Love target matching system, love target matching method and love target matching program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017216787A JP7083972B2 (en) | 2017-10-23 | 2017-10-23 | Love target matching system, love target matching method and love target matching program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019079477A true JP2019079477A (en) | 2019-05-23 |
JP7083972B2 JP7083972B2 (en) | 2022-06-14 |
Family
ID=66627917
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017216787A Active JP7083972B2 (en) | 2017-10-23 | 2017-10-23 | Love target matching system, love target matching method and love target matching program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7083972B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021039487A (en) * | 2019-09-02 | 2021-03-11 | 東芝テック株式会社 | Matching information output device and matching information output system |
JP7505201B2 (en) | 2020-02-20 | 2024-06-25 | 富士フイルムビジネスイノベーション株式会社 | Information processing device and information processing program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010170312A (en) * | 2009-01-22 | 2010-08-05 | Nec Corp | Introduction system, method and program |
US20110229016A1 (en) * | 2008-12-01 | 2011-09-22 | Nec Corporation | Introduction system, method of introduction, and introduction program |
JP2013251813A (en) * | 2012-06-01 | 2013-12-12 | Nikon Corp | Electronic apparatus, display control system, and program |
-
2017
- 2017-10-23 JP JP2017216787A patent/JP7083972B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110229016A1 (en) * | 2008-12-01 | 2011-09-22 | Nec Corporation | Introduction system, method of introduction, and introduction program |
JP2010170312A (en) * | 2009-01-22 | 2010-08-05 | Nec Corp | Introduction system, method and program |
JP2013251813A (en) * | 2012-06-01 | 2013-12-12 | Nikon Corp | Electronic apparatus, display control system, and program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021039487A (en) * | 2019-09-02 | 2021-03-11 | 東芝テック株式会社 | Matching information output device and matching information output system |
JP7505201B2 (en) | 2020-02-20 | 2024-06-25 | 富士フイルムビジネスイノベーション株式会社 | Information processing device and information processing program |
Also Published As
Publication number | Publication date |
---|---|
JP7083972B2 (en) | 2022-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10636159B2 (en) | Devices, methods and systems for biometric user recognition utilizing neural networks | |
JP6550460B2 (en) | System and method for identifying eye signals, and continuous biometric authentication | |
JP4369326B2 (en) | Facility information providing system and facility information providing method | |
US20160262017A1 (en) | Personal assistant authentication | |
US10223832B2 (en) | Providing location occupancy analysis via a mixed reality device | |
KR20190075988A (en) | Wearable devices and methods that analyze images and provide feedback | |
US11032409B1 (en) | Methods for geographic gesturing using a mobile device for interactions with nearby other mobile devices | |
Lee et al. | Pedestrian detection with wearable cameras for the blind: A two-way perspective | |
US20220207116A1 (en) | Identity authentication management system in virtual reality world | |
KR20110088273A (en) | Mobile terminal and method for forming human network using mobile terminal | |
CN102902704B (en) | Message processing device, phrase output | |
KR20160138793A (en) | User emotion state information providing apparatus using a social network service and method therefor | |
JP7083972B2 (en) | Love target matching system, love target matching method and love target matching program | |
CN117012352B (en) | Face recognition-based doctor-patient noninductive peer method | |
JP2022022083A (en) | Entry/exit management device, entry/exit management method, entry/exit management program and entry/exit management system | |
US20080064333A1 (en) | System and method for specifying observed targets and subsequent communication | |
EP4325383A1 (en) | Techniques to provide user authentication for a near-eye display device | |
JP6690556B2 (en) | Information processing system, information processing apparatus, control method, storage medium, and program | |
JP2018160213A (en) | Display device and program | |
WO2019142664A1 (en) | Information processing device, information processing method, and program | |
KR20220060846A (en) | Method for providing pass including QR code and management server for the same | |
WO2021171614A1 (en) | Server device, entry/exit management system, entry/exit management method and program | |
US20230056993A1 (en) | Authentication terminal, entrance/exit management system, entrance/exit management method, and program | |
JP2015018489A (en) | Information processor and information processing method | |
JP2017059002A (en) | Event support system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180113 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200924 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210721 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210831 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220308 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220320 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7083972 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |