JP7454893B1 - Similar content management system, similar content management method, and similar content management program - Google Patents

Similar content management system, similar content management method, and similar content management program Download PDF

Info

Publication number
JP7454893B1
JP7454893B1 JP2023138155A JP2023138155A JP7454893B1 JP 7454893 B1 JP7454893 B1 JP 7454893B1 JP 2023138155 A JP2023138155 A JP 2023138155A JP 2023138155 A JP2023138155 A JP 2023138155A JP 7454893 B1 JP7454893 B1 JP 7454893B1
Authority
JP
Japan
Prior art keywords
person
image
feature point
target content
relationship
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023138155A
Other languages
Japanese (ja)
Inventor
茂樹 内田
宏哉 籾倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PocketRD Inc
Original Assignee
PocketRD Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PocketRD Inc filed Critical PocketRD Inc
Priority to JP2023138155A priority Critical patent/JP7454893B1/en
Application granted granted Critical
Publication of JP7454893B1 publication Critical patent/JP7454893B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Collating Specific Patterns (AREA)

Abstract

【課題】実在の人物の特徴を備えたアバター、アイコン等のコンテンツを効率よく抽出し、当該コンテンツと当該実在の人物との関係の有無等の情報管理を簡易かつ正確に行うことのできる技術を提供する。【解決手段】本人との関連性について判定する対象である対象コンテンツを入力するためのコンテンツ入力部1と、本人の顔画像である本人画像を入力するための本人画像入力部2と、平均的な顔画像である基準画像を入力する基準画像入力部5と、本人画像及び対象コンテンツの特徴点を抽出する特徴点抽出部6と、抽出した特徴点の位置等の情報に基づき本人画像と対象コンテンツの比較を行う特徴点比較部7と、外観面にて本人画像と類似性を有する対象コンテンツの本人との関係性について判定する関係性判定部8とを備える。【選択図】図1[Problem] To develop a technology that can efficiently extract content such as avatars and icons that have the characteristics of real people, and easily and accurately manage information such as the presence or absence of a relationship between the content and the real person. provide. [Solution] A content input unit 1 for inputting target content whose relevance to the person is to be determined, a person image input unit 2 for inputting the person's image that is the person's face image, and an average a reference image input unit 5 that inputs a reference image that is a face image; a feature point extraction unit 6 that extracts feature points of the person's image and target content; and a feature point extraction unit 6 that extracts feature points of the person's image and target content, and It includes a feature point comparison unit 7 that compares contents, and a relationship determination unit 8 that determines the relationship between the subject content and the person whose appearance is similar to the person's image. [Selection diagram] Figure 1

Description

本発明は、実在の人物の特徴を備えたアバター、アイコン等のコンテンツを効率よく抽出し、当該コンテンツと当該実在の人物との関係の有無等の情報管理を簡易かつ正確に行うことのできる技術に関するものである。 The present invention is a technology that can efficiently extract content such as avatars and icons that have the characteristics of a real person, and easily and accurately manage information such as the presence or absence of a relationship between the content and the real person. It is related to.

近年、コンピュータ等の電子計算機における処理能力向上等に伴い、ゲーム及びSNS(Social Networking Service)等のIT系のサービスにて2次元、3次元のコンピュータグラフィックスが多数活用されている。これらのサービスにおいては、架空のキャラクターを模したアイコン、アバター等が使用されるのみならず、利用者等の実在の人物を写実的に表現したアバター等や、人物の特徴を踏まえつつ抽象的に表現したアバター等が用いられるケースが増えている。これにより、たとえばゲームにて利用者の特徴を表現したアバターからなる主人公が敵キャラクターと対戦することで利用者のゲーム世界への没入感が向上する効果が発生し、SNSにおいて利用者を示すアイコンとして利用者本人を抽象的に表現したアバターを使用することで、仮想空間でありながら現実の世界と同じような感覚にて利用者間の交流が促進されるといった効果が発生することが期待される。 2. Description of the Related Art In recent years, with the improvement in processing power of electronic computers and the like, two-dimensional and three-dimensional computer graphics have been widely used in IT services such as games and SNS (Social Networking Services). These services not only use icons, avatars, etc. that imitate fictional characters, but also avatars, etc. that realistically represent real people such as users, and abstract images based on the characteristics of the person. Increasingly, avatars and the like are used. This has the effect of improving the user's sense of immersion in the game world, for example, when the main character, who is an avatar that represents the user's characteristics, fights against enemy characters in a game, and the icon representing the user on SNS. By using avatars that abstractly represent the users themselves, it is expected that interactions between users will be promoted in a virtual space that feels similar to the real world. Ru.

特許文献1、2は、いずれもヘッドマウントディスプレイを使用して仮想空間を表現するコンピュータゲームにおいて、プレイヤー自身、あるいは共同プレイヤーの実際の姿をそれぞれ模したアバターを使用する技術について開示したものである。 Patent Documents 1 and 2 both disclose technology for using avatars that imitate the actual appearance of the player himself or a co-player, respectively, in a computer game that uses a head-mounted display to represent a virtual space. .

特開2019-012509号公報JP 2019-012509 Publication 特開2019-139673号公報JP 2019-139673 Publication

しかしながら、ゲーム、SNS等のサービスには様々な種類があるところ、各サービスにおける世界観やキャラクターデザインも様々であることから、利用者は各サービスに対応した異なるデザイン等からなるアバターを用意する必要がある。利用者はこれら多数のアバターについて各サービスとの対応関係や修正を重ねた場合において最新版が何であるか等の管理を行う必要があるが、複数のアバター等を管理するための技術については、特許文献1、2共に全く開示していない。 However, since there are various types of services such as games and SNS, and each service has a different world view and character design, users need to prepare avatars with different designs for each service. There is. Users need to manage these many avatars, such as the correspondence with each service and what the latest version is in case of repeated modifications, but regarding the technology to manage multiple avatars, etc. Both Patent Documents 1 and 2 do not disclose this at all.

また、第三者にとっても、特定の利用者の特徴を備えたアバター等が、実際の当該利用者が使用しているアバター等であるか否か区別できることは重要である。たとえば著名人の特徴を備えたアバター等が当該著名人に成りすました人物であり、当該人物による詐欺等が懸念されることから、ある人物の特徴を備えたアバター等が当該人物と関連付けられたものであるか否かについて、当該人物以外の第三者においても認識できるシステムの構築が望まれる。しかしながら、かかる技術についても特許文献1、2には開示されていない。 Furthermore, it is important for a third party to be able to distinguish whether an avatar or the like having the characteristics of a specific user is an avatar or the like that is actually used by the user. For example, an avatar, etc. with the characteristics of a celebrity is a person impersonating the celebrity, and there is a concern about fraud, etc. by the person, so an avatar, etc. with the characteristics of a certain person is associated with the person in question. It is desirable to build a system that allows even a third party other than the person concerned to recognize whether or not the person in question is. However, such technology is not disclosed in Patent Documents 1 and 2.

本発明は上記の課題に鑑みてなされたものであって、実在の人物の特徴を備えたアバター、アイコン等のコンテンツを効率よく抽出し、当該コンテンツと当該実在の人物との関係の有無等の情報管理を簡易かつ正確に行うことのできる技術を提供することを目的とする。 The present invention has been made in view of the above-mentioned problems, and it efficiently extracts content such as avatars and icons that have the characteristics of a real person, and determines whether or not there is a relationship between the content and the real person. The purpose is to provide technology that allows information management to be performed easily and accurately.

上記目的を達成するため、請求項1にかかる類似コンテンツ管理システムは、本人の顔画像である本人画像と外観的な類似性を有する対象コンテンツの前記本人との間の関係性に関する情報を管理する類似コンテンツ管理システムであって、対象コンテンツの顔面画像から、顔面を構成する各要素に対応した点である特徴点を抽出する特徴点抽出手段と、前記特徴点抽出手段によって抽出された前記対象コンテンツの特徴点と、当該特徴点と対応関係にある前記本人画像の特徴点との比較結果に基づき前記対象コンテンツと前記本人画像との間の外観的な類似性の有無を判定する特徴点比較手段と、前記特徴点比較手段によって前記本人画像と外観的同一性を有すると判定された前記対象コンテンツと前記本人の関係性を判定する関係性判定手段と、前記本人と対応関係にある非代替性トークンである本人トークンに対応した分散型ネットワーク上の分散型台帳に記録される、前記対象コンテンツの識別情報及び前記本人との関係性に関する情報を生成する情報生成手段と、前記情報生成手段によって生成された情報を前記分散型ネットワークに対し出力するよう指示する出力指示手段とを備えたことを特徴とする。 In order to achieve the above object, the similar content management system according to claim 1 manages information regarding the relationship between target content that has external similarity to the person's image, which is a face image of the person. A similar content management system comprising: a feature point extracting means for extracting feature points corresponding to each element constituting the face from a facial image of the target content; and the target content extracted by the feature point extracting means. feature point comparison means for determining the presence or absence of external similarity between the target content and the person's image based on a comparison result between the feature point of the person's image and the feature point of the person's image that has a corresponding relationship with the feature point; and a relationship determining means for determining a relationship between the subject content and the subject content determined by the feature point comparing means to have the same appearance as the subject's image, and non-substitutability having a corresponding relationship with the subject content. information generating means for generating identification information of the target content and information regarding the relationship with the principal, which is recorded in a distributed ledger on a distributed network corresponding to the principal token, which is a token, and information generated by the information generating means; and an output instruction means for instructing the decentralized network to output the information obtained.

また、上記目的を達成するため、請求項2にかかる類似コンテンツ管理システムは、上記の発明において、前記特徴点比較手段は、比較対象である1以上の特徴点において、前記対象コンテンツの顔部分の画像における特徴点の位置と、前記本人画像における特徴点の位置の間の距離が第1の閾値よりも小さい場合に、前記対象コンテンツが前記本人画像と外観的な類似性を有すると判定することを特徴とする。 Further, in order to achieve the above object, in the similar content management system according to claim 2, in the above invention, the feature point comparing means compares the facial part of the target content at one or more feature points to be compared. determining that the target content has external similarity to the person's image when a distance between a position of a feature point in the image and a position of the feature point in the person's image is smaller than a first threshold; It is characterized by

また、上記目的を達成するため、請求項3にかかる類似コンテンツ管理システムは、上記の発明において、前記特徴点比較手段は、比較対象である1以上の特徴点において、基準とする顔画像である基準画像における特徴点の位置を始点とし前記本人画像における特徴点の位置を終点とする第1ベクトルと、前記基準画像における前記特徴点の位置を始点とし前記対象コンテンツにおける特徴点の位置を終点とする第2ベクトルとの内積の値が第2の閾値以上である場合に、前記対象コンテンツが前記本人画像と外観的な類似性を有すると判定することを特徴とする。 Further, in order to achieve the above object, in the similar content management system according to claim 3, in the above invention, the feature point comparison means uses a face image as a reference in one or more feature points to be compared. a first vector whose starting point is the position of the feature point in the reference image and whose end point is the position of the feature point in the personal image; and a first vector whose starting point is the position of the feature point in the reference image and whose end point is the position of the feature point in the target content. If the value of the inner product with the second vector is greater than or equal to a second threshold value, it is determined that the target content has an appearance similarity with the person's image.

また、上記目的を達成するため、請求項4にかかる類似コンテンツ管理方法は、本人の顔画像である本人画像と外観的な類似性を有する対象コンテンツの前記本人との間の関係性に関する情報を管理する類似コンテンツ管理方法であって、対象コンテンツの顔面画像から、顔面を構成する各要素に対応した点である特徴点を抽出する特徴点抽出ステップと、前記特徴点抽出ステップにおいて抽出された前記対象コンテンツの特徴点と、当該特徴点と対応関係にある前記本人画像の特徴点との比較結果に基づき前記対象コンテンツと前記本人画像との間の外観的な類似性の有無を判定する特徴点比較ステップと、前記特徴点比較ステップにおいて前記本人画像と外観的同一性を有すると判定された前記対象コンテンツと前記本人の関係性を判定する関係性判定ステップと、前記本人と対応関係にある非代替性トークンである本人トークンに対応した分散型ネットワーク上の分散型台帳に記録される、前記対象コンテンツの識別情報及び前記本人との関係性に関する情報を生成する情報生成ステップと、前記情報生成ステップにおいて生成された情報を前記分散型ネットワークに対し出力するよう指示する出力指示ステップとを含むことを特徴とする。 In addition, in order to achieve the above object, the similar content management method according to claim 4 provides information regarding the relationship between target content that has an appearance similarity to the person's image, which is a face image of the person. A similar content management method for managing similar content, comprising: a feature point extraction step of extracting feature points, which are points corresponding to each element constituting the face, from a facial image of a target content; A feature point that determines whether there is an external similarity between the target content and the person's image based on a comparison result between the feature point of the target content and a feature point of the person's image that has a corresponding relationship with the feature point. a comparison step, a relationship determination step of determining a relationship between the subject content and the subject content that was determined to have the same appearance as the person's image in the feature point comparison step; an information generation step of generating identification information of the target content and information regarding the relationship with the principal, which is recorded in a distributed ledger on a distributed network corresponding to the principal token, which is a fungibility token; and the information generating step. and an output instruction step of instructing the distributed network to output the information generated in the step.

また、上記目的を達成するため、請求項5にかかる類似コンテンツ管理方法は、上記の発明において、1以上の特徴点の中から、基準とする顔画像である基準画像における特徴点の位置と、当該特徴点と対応する前記本人画像における特徴点の位置の間の距離が第3の閾値以上である特徴点を選択する特徴点選択ステップをさらに含み、前記特徴点比較ステップにおいて、前記特徴点選択ステップにて選択された特徴点について特徴点の比較を行うことを特徴とする。 In addition, in order to achieve the above object, the similar content management method according to claim 5 provides a method for managing feature points in the reference image, which is a reference face image, from among the one or more feature points; further comprising a feature point selection step of selecting a feature point for which a distance between the feature point and the corresponding feature point position in the person's image is equal to or greater than a third threshold, and in the feature point comparison step, the feature point selection step The method is characterized in that the feature points selected in step are compared.

また、上記目的を達成するため、請求項6にかかる類似コンテンツ管理プログラムは、本人の顔画像である本人画像と外観的な類似性を有する対象コンテンツの前記本人との間の関係性に関する情報の管理をコンピュータに行わせる類似コンテンツ管理プログラムであって、前記コンピュータに対し、対象コンテンツの顔面画像から、顔面を構成する各要素に対応した点である特徴点を抽出する特徴点抽出機能と、前記特徴点抽出機能によって抽出された前記対象コンテンツの特徴点と、当該特徴点と対応関係にある前記本人画像の特徴点との比較結果に基づき前記対象コンテンツと前記本人画像との間の外観的な類似性の有無を判定する特徴点比較機能と、前記特徴点比較機能によって前記本人画像と外観的同一性を有すると判定された前記対象コンテンツと前記本人の関係性を判定する関係性判定機能と、 前記本人と対応関係にある非代替性トークンである本人トークンに対応した分散型ネットワーク上の分散型台帳に記録される、前記対象コンテンツの識別情報及び前記本人との関係性に関する情報を生成する情報生成機能と、前記情報生成機能によって生成された情報を前記分散型ネットワークに対し出力するよう指示する出力指示機能とを実行させることを特徴とする。 Further, in order to achieve the above object, the similar content management program according to claim 6 provides information regarding the relationship between the subject content and the subject content that has an appearance similarity to the subject's image, which is the face image of the subject. A similar content management program that causes a computer to manage the content, the program having a feature point extraction function that causes the computer to extract feature points, which are points corresponding to each element constituting the face, from a face image of the target content; Based on the comparison result between the feature points of the target content extracted by the feature point extraction function and the feature points of the person's image that correspond to the feature points, the appearance difference between the target content and the person's image is determined. a feature point comparison function that determines the presence or absence of similarity; and a relationship determination function that determines the relationship between the person and the target content that is determined by the feature point comparison function to have the same appearance as the person's image. , generating identification information of the target content and information regarding the relationship with the principal, which is recorded in a distributed ledger on a distributed network corresponding to the principal token, which is a non-fungible token that has a correspondence with the principal; The present invention is characterized in that an information generation function and an output instruction function for instructing the distributed network to output the information generated by the information generation function are executed.

本発明によれば、実在の人物の特徴を備えたアバター、アイコン等のコンテンツを効率よく抽出し、当該コンテンツと当該実在の人物との関係の有無等の情報管理を簡易かつ正確に行えるという効果を奏する。 According to the present invention, content such as avatars and icons that have the characteristics of a real person can be efficiently extracted, and information such as the presence or absence of a relationship between the content and the real person can be easily and accurately managed. play.

実施の形態1にかかる類似コンテンツ管理システムの構成を示す模式図である。1 is a schematic diagram showing the configuration of a similar content management system according to Embodiment 1. FIG. 実施の形態1にかかる類似コンテンツ管理システムにおける対象コンテンツと本人画像の外観的な類似性の有無に関する判定処理を示すフローチャートである。7 is a flowchart illustrating a process for determining whether or not there is external similarity between target content and a person's image in the similar content management system according to the first embodiment. 実施の形態2にかかる類似コンテンツ管理システムの構成を示す模式図である。FIG. 2 is a schematic diagram showing the configuration of a similar content management system according to a second embodiment.

以下、本発明の実施の形態を図面に基づいて詳細に説明する。以下の実施の形態においては、本発明の実施の形態として最も適切と考えられる例について記載するものであり、当然のことながら、本発明の内容を本実施の形態にて示された具体例に限定して解すべきではない。同様の作用・効果を奏する構成であれば、実施の形態にて示す具体的構成以外のものであっても、本発明の技術的範囲に含まれることは勿論である。 Hereinafter, embodiments of the present invention will be described in detail based on the drawings. The following embodiments describe examples that are considered to be the most appropriate embodiments of the present invention, and it goes without saying that the content of the present invention is not limited to the specific examples shown in this embodiment mode. It should not be interpreted in a limited manner. It goes without saying that even configurations other than the specific configurations shown in the embodiments are included in the technical scope of the present invention as long as they provide similar functions and effects.

(実施の形態1)
まず、実施の形態1にかかる類似コンテンツ管理システムについて説明する。図1に示すとおり、本実施の形態1にかかる類似コンテンツ管理システムは、本人との関連性について判定する対象である対象コンテンツを入力するためのコンテンツ入力部1と、本人の顔画像である本人画像を入力するための本人画像入力部2と、本人を特定するための氏名等の本人情報を入力するための本人情報入力部3と、入力された本人画像と1対1の対応関係を有する非代替性トークンである本人トークンを生成する本人トークン生成部4と、平均的な顔画像である基準画像を入力する基準画像入力部5と、本人画像及び対象コンテンツの特徴点を抽出する特徴点抽出部6と、抽出した特徴点の位置等の情報に基づき本人画像と対象コンテンツの比較を行う特徴点比較部7と、外観面にて本人画像と類似性を有する対象コンテンツの本人との関係性について判定する関係性判定部8と、対象コンテンツと本人の関係性に関する情報を含むトランザクションを生成するトランザクション生成部9と、トランザクションの内容が本人の意向に沿ったものであることを証明するデータである電子署名を生成する電子署名生成部10と、トランザクション及び電子署名を本人トークンと対応関係にある分散型ネットワークに対し出力するよう指示する出力指示部11とを備える。
(Embodiment 1)
First, a similar content management system according to the first embodiment will be described. As shown in FIG. 1, the similar content management system according to Embodiment 1 includes a content input unit 1 for inputting target content to be determined as to its relevance to the person, and a face image of the person. A personal image input unit 2 for inputting an image, a personal information input unit 3 for inputting personal information such as a name for identifying the person, and a one-to-one correspondence with the input personal image. A principal token generation unit 4 that generates a principal token that is a non-fungible token, a reference image input unit 5 that inputs a reference image that is an average face image, and a feature point that extracts feature points of the principal image and target content. The relationship between the extraction unit 6, the feature point comparison unit 7 that compares the person's image and the target content based on information such as the position of the extracted feature points, and the person whose target content has similarity in appearance with the person's image. a relationship determination unit 8 that determines gender, a transaction generation unit 9 that generates a transaction that includes information regarding the relationship between the target content and the person, and data that proves that the content of the transaction is in accordance with the person's intention. The present invention includes an electronic signature generation unit 10 that generates an electronic signature, and an output instruction unit 11 that instructs the distributed network to output the transaction and the electronic signature in correspondence with the person's token.

コンテンツ入力部1は、実施の形態1にかかる類似コンテンツ管理システムにて本人との関連性を判定等する対象である対象コンテンツを入力するためのものである。具体的には、コンテンツ入力部1は、ゲーム、SNS等のサービスにて利用されているアイコン、アバターに加え、人物の顔面映像が含まれるものであれば写真、動画等あらゆる映像コンテンツ(音声が伴うものも含む)を対象コンテンツとして入力する機能を有する。 The content input unit 1 is for inputting target content whose relevance to the user is to be determined in the similar content management system according to the first embodiment. Specifically, the content input unit 1 inputs all kinds of video content (with no audio), such as photos and videos, as long as it includes images of people's faces, in addition to icons and avatars used in services such as games and SNS. It has a function to input content (including accompanying content) as target content.

本人画像入力部2は、対象コンテンツとの間の関連性について判定される本人の顔画像を含む画像である本人画像を入力するためのものである。具体的には、本人画像入力部2は、顔面における特徴点(後述)の抽出が可能な程度に鮮明な画像であれば、動画・静止画の別や2次元・3次元の別を問わず入力可能な構成を有する。より好ましい態様としては、対象コンテンツの表現態様と適合することが好ましく、また、様々な表現態様にあわせて表現態様の異なる複数の本人画像を入力することとしてもよい。 The person's image input unit 2 is for inputting a person's image, which is an image including a face image of the person whose relevance with the target content is determined. Specifically, the personal image input unit 2 accepts any image, regardless of whether it is a moving image or a still image, or whether it is a two-dimensional or three-dimensional image, as long as it is clear enough to extract facial feature points (described later). It has an inputable configuration. As a more preferable aspect, it is preferable that the expression mode matches the expression mode of the target content, and it is also possible to input a plurality of personal images with different expression modes in accordance with various expression modes.

本人情報入力部3は、本人の氏名、生年月日等本人を特定するための情報を入力するためのものである。本人情報入力部3を介して入力された本人情報の内容は、本人トークンと紐づけた態様にて保存される。 The personal information input section 3 is for inputting information for identifying the person, such as the person's name and date of birth. The contents of the personal information input through the personal information input section 3 are stored in a form linked to the personal token.

本人トークン生成部4は、本人と1対1の対応関係にある非代替性トークンである本人トークンを生成するためのものである。「非代替性トークン」とはいわゆるNFT(Non-Fangible Token)、すなわち固有のデータを備えることで他のトークンと代替不能な性質を有するトークンを意味し、たとえばEthereum(登録商標)の規格であるERC721に基づいて発行されるものである。本実施の形態1にける本人トークンは、ERC721またはその他の所定の規格に基づき発行されるものであり、トークンの取引履歴その他の情報がブロックチェーン上に保存される構成となっている。 The principal token generation unit 4 is for generating principal tokens that are non-fungible tokens that have a one-to-one correspondence with the principal. "Non-fungible token" refers to a so-called NFT (Non-Fangible Token), a token that has unique data and cannot be replaced with other tokens, such as the Ethereum (registered trademark) standard. It is issued based on ERC721. The principal token in Embodiment 1 is issued based on ERC721 or other predetermined standards, and has a configuration in which the transaction history and other information of the token is stored on the blockchain.

「ブロックチェーン」とは、分散型ネットワークを構成する複数のコンピュータ間において暗号技術を活用しつつデータ同期を行う技術である。具体的には、合意された取引記録等の本人トークンに関する情報の集合体と、他のブロックと接続させるための情報(前のブロックの情報)により各ブロックが構成され、当該各ブロックが複数連結されることによってブロックチェーンが構成される。複数のコンピュータの一部でデータ改ざんが行われても他のコンピュータとの間で多数決によって正しいデータが選択されるため、データの破壊・改ざんが極めて難しいという特徴を有している。 "Blockchain" is a technology that uses cryptographic technology to synchronize data between multiple computers that make up a distributed network. Specifically, each block is composed of a collection of information related to the principal's token, such as agreed transaction records, and information for connecting with other blocks (information of the previous block), and each block is made up of multiple linked blocks. A blockchain is constructed by Even if data is tampered with on some of the computers, the correct data is selected by majority vote among the other computers, making it extremely difficult to destroy or tamper with the data.

本人トークンと本人情報の対応関係としては、本人トークンの識別子と本人の識別情報(氏名、生年月日等本人を特定する情報でもよいし、マイナンバー等の一般に使用される識別情報でもよい。)とを1対1で紐づける形式とする。より直接的に、本人トークンの識別子と本人の識別情報を同一内容とすることとしてもよいし、それぞれ異なる文字列等によって構成したものについて対応関係を設定する態様でも問題ない。また、本人情報が保存されているインターネット空間上のURL情報と紐づける形式としてもよい。 The correspondence between the principal token and the principal information is the principal token's identifier and the principal's identification information (information that identifies the principal such as name and date of birth may be used, or commonly used identification information such as My Number). The format is one-to-one linking. More directly, the identifier of the principal token and the identification information of the principal may have the same content, or there may be no problem in a mode in which a correspondence relationship is set between the identifiers of the principal token and the identification information of the principal. Alternatively, the information may be linked to URL information on the Internet where the personal information is stored.

また、本実施の形態1において、本人トークンと対応関係にある分散型台帳を構成するブロックには、本人トークンの保有名義の移転に関する取引記録の他、対象コンテンツと本人の関係性に関する情報が記録されるものとする。対象コンテンツと本人の関係性については、後述する関係性判定部8によって判別され、具体的な情報についてはトランザクション生成部9によって生成される。 In addition, in the first embodiment, the blocks constituting the distributed ledger that correspond to the principal tokens record transaction records related to the transfer of the ownership name of the principal token, as well as information regarding the relationship between the target content and the principal. shall be carried out. The relationship between the target content and the person is determined by a relationship determining section 8, which will be described later, and specific information is generated by a transaction generating section 9.

なお、本人トークンの生成については、本人トークン生成部4が自ら行う態様でもよいし、本人トークン生成部4と直接的または間接的に接続された外部システムに対し所定の指令を行うことによって、外部システムが生成する態様としてもよい。また、本人トークンの具体的形式についても、Ethereum(登録商標)の規格であるERC721に準拠したものに限定されず、非代替性の性質を有し、取引履歴がブロックチェーン上に保存されるものであれば任意の形式のものとしてよい。 The generation of the principal token may be performed by the principal token generation section 4 itself, or may be generated by an external system by issuing a predetermined command to an external system directly or indirectly connected to the principal token generation section 4. It may also be a form that is generated by the system. In addition, the specific format of the principal token is not limited to one that is compliant with ERC721, the Ethereum (registered trademark) standard, and is non-fungible and whose transaction history is stored on the blockchain. It may be in any format.

基準画像入力部5は、平均的な顔画像である基準画像を入力するためのものである。具体的には、基準画像入力部5は、単に所与の基準画像とされる画像を入力する機能を有するものとしてもよいし、不特定多数の顔画像を入力した上でその基準画像を生成する機能を有することとしてもよい。また、基準画像入力部5の機能として、異なる属性のそれぞれに応じた基準画像(一定の年齢層における男性に関する基準画像、等)を予め入力・生成し、複数の基準画像の中から本人の属性と一致・類似する基準画像を選択することとしてもよい。 The reference image input unit 5 is for inputting a reference image that is an average face image. Specifically, the reference image input unit 5 may have a function of simply inputting an image to be a given reference image, or may have a function of inputting an unspecified number of face images and then generating the reference image. It is also possible to have the function of In addition, as a function of the reference image input unit 5, reference images corresponding to different attributes (such as reference images for men in a certain age group) are input and generated in advance, and the user's attributes are selected from among the plurality of reference images. It is also possible to select a reference image that matches or is similar to the reference image.

特徴点抽出部6は、顔画像における特徴点を抽出するためのものである。「特徴点」とは顔面を構成する各要素に対応した点のことをいい、たとえば、目、鼻、口、耳等の各器官、より詳細には各器官の一部分たとえば目頭、目尻、瞳、鼻頭、口角等の各部分に対応した点をいう。また、特徴点は必ずしも外観的に特徴を有する部分についてのみ定義されるものではなく、たとえば表情筋や骨格構造に起因して表情変化時等に特徴的に動作する部分等のように、静止時に外観的な特徴を有さない部分を含めてもよい。 The feature point extraction unit 6 is for extracting feature points in a face image. "Feature points" refer to points corresponding to each element that makes up the face, for example, each organ such as the eyes, nose, mouth, ears, etc., more specifically, parts of each organ such as the inner and outer corners of the eyes, pupils, Points corresponding to the tip of the nose, the corners of the mouth, etc. In addition, feature points are not necessarily defined only for parts that have characteristics in appearance, but for example, parts that move characteristically when facial expressions change due to facial muscles or skeletal structure, etc. It is also possible to include portions that have no external features.

特徴点抽出部6の具体的構成としては、たとえば深層学習、機械学習等によって実現した画像認識技術を利用してもよいし、複数の画像認識技術を組み合わせたものとしてもよい。また、たとえば対象コンテンツが3次元コンピュータグラフィックスにより構成されている場合は、モデリング処理された表面における頂点のうち、特徴点抽出部6が特徴部分に対応したものを抽出することとしてもよい。また、特徴点抽出部6は、各特徴点について、位置及び意味内容(たとえば、当該特徴点が目頭に対応するものである、等)を抽出するものとするが、意味内容のかわりに特徴点ごとに予め定められた識別符号(たとえば、左目の瞳の中心点に対応する特徴点をa、鼻頭の頂点に対応する特徴点をb)を付すこととしてもよい。意味内容ないし識別符号は、対象コンテンツ、基準画像及び本人画像間において各特徴点の対応関係を明らかにするためのものであり、対応関係を明らかにできるものであれば、他の情報を付加することとしてもよい。 As a specific configuration of the feature point extracting section 6, for example, an image recognition technique realized by deep learning, machine learning, etc. may be used, or a plurality of image recognition techniques may be combined. Further, for example, when the target content is composed of three-dimensional computer graphics, the feature point extraction unit 6 may extract those corresponding to the feature portions from among the vertices on the surface subjected to the modeling process. Furthermore, the feature point extracting unit 6 extracts the position and semantic content (for example, that the feature point corresponds to the inner corner of the eye) for each feature point, but instead of the semantic content, the feature point A predetermined identification code (for example, a for the feature point corresponding to the center point of the pupil of the left eye and b for the feature point corresponding to the apex of the nasal tip) may be attached to each point. The semantic content or identification code is used to clarify the correspondence of each feature point between the target content, reference image, and person's image, and other information may be added if the correspondence can be clarified. It may also be a thing.

特徴点比較部7は、特徴点抽出部6によって抽出された対象コンテンツ及び本人画像の特徴点を相互に比較するためのものである。具体的には、特徴点比較部7は、対象コンテンツ及び本人画像の特徴点の位置を導出する位置導出部13と、対象コンテンツ及び本人画像における各特徴点及び当該各特徴点と対応関係にある基準画像の特徴点の間の距離を導出する距離導出部14と、各特徴点について基準画像において対応する特徴点からの変位方向を導出する方位導出部15と、導出した各特徴点の位置、距離及び方位を比較し対象コンテンツと本人画像にて示される人物の外観面における類似性を判定する類似性判定部16とを備える。 The feature point comparison unit 7 is for comparing the feature points of the target content and the person's image extracted by the feature point extraction unit 6 with each other. Specifically, the feature point comparison unit 7 has a corresponding relationship with the position derivation unit 13 that derives the positions of the feature points of the target content and the person's image, and each feature point and each feature point in the target content and the person's image. a distance derivation unit 14 that derives the distance between the feature points of the reference image; a direction derivation unit 15 that derives the displacement direction of each feature point from the corresponding feature point in the reference image; a position of each derived feature point; It includes a similarity determination unit 16 that compares the distance and direction and determines the similarity in appearance between the target content and the person shown in the person's image.

位置導出部13は、対象コンテンツ及び本人画像の特徴点の位置を導出するためのものである。位置導出部13によって導出された各特徴点の位置情報は類似性判定部16に対し出力され、類似性判定部16は、対応する特徴点間の位置のずれが所定の閾値(特許請求の範囲における第1の閾値に相当する)未満に留まる場合に、対応関係にある当該特徴点の位置が同一であると判定する。 The position deriving unit 13 is for deriving the positions of the feature points of the target content and the person's image. The position information of each feature point derived by the position derivation unit 13 is output to the similarity determination unit 16, and the similarity determination unit 16 determines whether the positional deviation between the corresponding feature points is a predetermined threshold value (claims (corresponding to the first threshold value), it is determined that the positions of the corresponding feature points are the same.

なお本実施の形態1において、特徴点の位置は、対象コンテンツ・本人画像の顔画像について各々正規化(たとえば、3次元画像であれば顔部分の体積が、2次元画像であれば顔部分の面積が、それぞれ一定の基準値と等しい値となるよう拡大・縮小する。)した上で、予め定めた原点及び座標系に基づき特定されるものとする。また、本実施の形態1においては、いずれの特徴点抽出においても同一の正規化処理、原点および座標系を用いるものとする。このような基準に基づき特定される特徴点の位置は、特許請求の範囲における「対象コンテンツの顔部分の画像における特徴点の位置」、「本人画像における特徴点の位置」及び「基準画像における特徴点の位置」の一例に相当するものとする。 In Embodiment 1, the positions of the feature points are normalized for each face image of the target content and the person's image (for example, the volume of the face part for a three-dimensional image, and the volume of the face part for a two-dimensional image). (The area is enlarged or reduced so that each area becomes equal to a certain reference value.) Then, the area is specified based on a predetermined origin and coordinate system. Furthermore, in the first embodiment, the same normalization process, origin, and coordinate system are used in all feature point extractions. The positions of feature points specified based on such criteria are defined as "positions of feature points in the image of the face part of the target content", "positions of the feature points in the person's image", and "features in the reference image" in the claims. This corresponds to an example of "point position".

距離導出部14は、本人画像及び対象コンテンツにおける各特徴点について、当該各特徴点と対応関係にある基準画像の特徴点との間の距離を導出するためのものである。具体的には、距離導出部14は、対応関係にある特徴点、たとえば右目の目頭に対応した特徴点について、本人画像と基準画像のそれぞれにおける当該特徴点間の距離を導出すると共に、対象コンテンツと基準画像のそれぞれにおける当該特徴点間の距離を導出する機能を有する。たとえば本人画像における特徴点の位置座標が(x、y、z)であり、基準画像における対応特徴点の位置座標が(x、y、z)の場合において、両特徴点間の距離は{(x-x+(y-y+(z-z1/2となる。なお、本実施の形態1においては、基準画像についても対象コンテンツ・本人画像と同様に正規化がなされ共通の原点、座標系を用いて特徴点の位置が表現されるものとする。距離導出部14によって導出された特徴点間距離に関する情報は類似性判定部16に出力され、後述する特徴点方位に関する情報とセットで類似性の判定に使用される。 The distance derivation unit 14 is for deriving the distance between each feature point in the person's image and the target content and the corresponding feature point in the reference image. Specifically, the distance derivation unit 14 derives the distance between the corresponding feature points, for example, the feature point corresponding to the inner corner of the right eye, in each of the person's image and the reference image, and also calculates the distance between the feature points in the person's image and the reference image. It has a function of deriving the distance between the feature points in each of the and reference images. For example, if the position coordinates of a feature point in the person's image are (x 1 , y 1 , z 1 ) and the position coordinates of the corresponding feature point in the reference image are (x 0 , y 0 , z 0 ), both feature points The distance between them is {(x 1 −x 0 ) 2 +(y 1 −y 0 ) 2 +(z 1 −z 0 ) 2 } 1/2 . In the first embodiment, it is assumed that the reference image is also normalized in the same way as the target content/person image, and the positions of feature points are expressed using a common origin and coordinate system. The information regarding the distance between feature points derived by the distance deriving unit 14 is output to the similarity determining unit 16, and is used in combination with information regarding the orientation of the feature points, which will be described later, for determining similarity.

方位導出部15は、本人画像及び対象コンテンツにおける各特徴点について、当該各特徴点と対応関係にある基準画像の特徴点と結んだ線分の方向を導出するためのものである。具体的には、方位導出部15は、本人画像及び対象コンテンツにおける各特徴点について、当該各特徴点と対応関係にある基準画像の特徴点との間で形成される線分の方位を導出する機能を有する。たとえば本人画像における特徴点の位置座標が(x、y、z)であり、基準画像における対応特徴点の位置座標が(x、y、z)の場合において、両者の間で形成される線分の方位は(x-x、y-y、z-z)/{(x-x+(y-y+(z-z1/2となる。方位導出部15によって導出された特徴点間方位に関する情報は類似性判定部16に出力され、距離導出部14によって導出された特徴点間距離に関する情報とセットで類似性判定に使用される。より具体的には、類似性判定部16は、距離及び方位を組み合わせたベクトルを用いて判定処理を行うこととする。すなわち、基準画像の特徴点を始点とし本人画像の特徴点を終点とする第1ベクトル(x-x、y-y、z-z)と、同じく基準画像の特徴点を始点とし対象コンテンツの特徴点(x、y、z)を終点とする第2ベクトル(x-x、y-y、z-z)に基づき判定処理が行われる。 The orientation deriving unit 15 is for deriving, for each feature point in the person's image and the target content, the direction of a line segment connecting each feature point to a feature point in a reference image that has a corresponding relationship. Specifically, the orientation deriving unit 15 derives, for each feature point in the person's image and the target content, the orientation of a line segment formed between each feature point and the corresponding feature point of the reference image. Has a function. For example, if the positional coordinates of a feature point in the person's image are (x 1 , y 1 , z 1 ) and the positional coordinates of the corresponding feature point in the reference image are (x 0 , y 0 , z 0 ), the The orientation of the line segment formed by is (x 1 - x 0 , y 1 - y 0 , z 1 - z 0 ) / {( x 1 - 1 - z 0 ) 2 } 1/2 . The information regarding the inter-feature point orientation derived by the orientation deriving section 15 is output to the similarity determining section 16, and is used in combination with the information regarding the inter-feature point distance derived by the distance deriving section 14 for similarity determination. More specifically, the similarity determination unit 16 performs the determination process using a vector that is a combination of distance and direction. That is, the first vector (x 1 - x 0 , y 1 - y 0 , z 1 -z 0 ) whose starting point is the feature point of the reference image and the end point is the feature point of the person's image, and Determination processing is performed based on a second vector (x 2 −x 0 , y 2 −y 0 , z 2 −z 0 ) whose starting point is the feature point (x 2 , y 2 , z 2 ) of the target content. .

類似性判定部16は、対象コンテンツ及び本人画像における各特徴点の位置と、各特徴点と基準画像の特徴点との間の距離及び方位とに基づき、対象コンテンツと本人画像のそれぞれで示される人物の類似性の有無について判定するためのものである。具体的には、類似性判定部16は、対象コンテンツの各特徴点について、対応関係にある本人画像の特徴点との位置のずれが所定の閾値(特許請求の範囲における「第1の閾値」に相当する。)未満である場合に対応関係にある特徴点の位置が同一であると判定する。また、類似性判定部16は、距離導出部14及び方位導出部15の導出結果に基づき、基準画像上の特徴点を始点とし、本人画像上の特徴点を終点とする第1ベクトルと、基準画像上の特徴点を始点とし、対象コンテンツ上の特徴点を終点とする第2ベクトルを生成し、第1ベクトルと第2ベクトルの内積が一定の閾値(特許請求の範囲における「第2の閾値」に相当する。)以上の値となる場合に、対象コンテンツと本人画像が基準画像に対し同じ特異性を有するものと判定する。類似性判定の対象とする対象コンテンツの特徴点について、本人画像の特徴点と位置が同一又は基準画像に対する特徴点の特異性が同一であると判定された場合、類似性判定部16は、対象コンテンツが表す人物は本人画像に示される人物と外観的に類似性を有すると判定する。 The similarity determining unit 16 determines whether each feature point is indicated by the target content or the person's image, based on the position of each feature point in the target content and the person's image, and the distance and orientation between each feature point and the feature point of the reference image. This is for determining the presence or absence of similarity between persons. Specifically, the similarity determination unit 16 determines that the positional deviation of each feature point of the target content from the corresponding feature point of the person's image is a predetermined threshold ("first threshold" in the claims). ), it is determined that the positions of the corresponding feature points are the same. Further, based on the derivation results of the distance deriving unit 14 and the direction deriving unit 15, the similarity determining unit 16 generates a first vector having the feature point on the reference image as the starting point and the feature point on the person's image as the end point, and the reference A second vector is generated with the feature point on the image as the starting point and the feature point on the target content as the end point, and the inner product of the first vector and the second vector is a constant threshold (“second threshold ), it is determined that the target content and the person's image have the same specificity with respect to the reference image. When it is determined that the feature points of the target content to be subjected to similarity determination are the same in position as the feature points in the person's image or the specificity of the feature points with respect to the reference image is the same, the similarity determination unit 16 It is determined that the person represented by the content is similar in appearance to the person shown in the person's image.

なお、類似性判定部16において、対応関係にある特徴点の基準画像に対する特異性の類似性判定については、対象コンテンツと基準画像の間における特徴点間距離と本人画像と基準画像の間における特徴点間距離の差分値が所定の閾値未満であり、かつ、対象コンテンツの特徴点と基準画像の特徴点を結んだ線分と本人画像の特徴点と基準画像の特徴点を結んだ線分のなす角度が所定の閾値未満である場合に、特徴点の特異性が同一であると判定してもよい。 Note that the similarity determination unit 16 determines the similarity of the specificity of corresponding feature points with respect to the reference image based on the distance between feature points between the target content and the reference image and the features between the person's image and the reference image. The difference value of the distance between points is less than a predetermined threshold, and the line segment connecting the feature point of the target content and the feature point of the reference image and the line segment connecting the feature point of the person's image and the feature point of the reference image If the angles formed are less than a predetermined threshold, it may be determined that the feature points have the same specificity.

関係性判定部8は、類似性判定部16によって本人画像と外観的に類似性を有すると判定された対象コンテンツについて、本人画像にて示される本人との関係、すなわち当該本人に関するコンテンツであるか否か、たとえば対象コンテンツが人物のアイコン、アバター等であった場合に本人のアイコン、アバター等であるか否かを判定するためのものである。 The relationship determination unit 8 determines whether the target content determined by the similarity determination unit 16 to have a similar appearance to the person's image has a relationship with the person shown in the person's image, that is, whether the content is related to the person concerned. For example, when the target content is a person's icon, avatar, etc., this is to determine whether or not it is the person's icon, avatar, etc.

具体的には、関係性判定部8は、本人情報入力部3を介して入力された本人情報と、外観的に類似性を有すると判定された対象コンテンツに関する情報(対象コンテンツの生成過程、使用内容、対象コンテンツが使用されているサービスの特徴等)とを照合し、当該対象コンテンツが本人情報と整合する場合(たとえば対象コンテンツの使用者ないし作成者の名称、性別、年齢、出身地等の属性情報が本人情報と一定数以上一致又は類似する場合、等)は関係性ありと推定し、本人情報と整合しない場合(重要情報にて矛盾する場合、または属性情報が一定数以上相違する場合、等)は関係性なしと判定する。関係性判定部8は、関係性ありと推定した対象コンテンツについて、本人情報を利用して本人の管理する携帯型端末等の情報機器に対し情報を出力し、当該情報機器からの応答内容に基づき本人との関係性の有無について最終的な判断を行う。情報機器からの応答としては、たとえば情報機器内に記録された本人の機微情報等に基づき自動的に関係性の有無について回答を出力する構成としてもよいし、対象コンテンツに関する情報を確認した本人の操作により回答が生成・出力される構成としてもよい。 Specifically, the relationship determination unit 8 stores information regarding the target content that has been determined to have similar appearance to the personal information input through the personal information input unit 3 (including the generation process and usage of the target content). content, characteristics of the service in which the target content is used, etc.), and if the target content matches the personal information (for example, the name, gender, age, birthplace, etc. of the user or creator of the target content) If the attribute information matches or resembles the personal information more than a certain number, etc.), it is presumed that there is a relationship, and if it does not match the personal information (if there is a contradiction in important information, or if the attribute information differs more than a certain number) , etc.) are determined to have no relationship. The relationship determining unit 8 outputs information to an information device such as a portable terminal managed by the person using the person's information regarding the target content estimated to be related, and based on the content of the response from the information device. Make the final judgment as to whether or not there is a relationship with the person. The response from the information device may be configured to automatically output an answer regarding the presence or absence of a relationship based on sensitive information of the person recorded in the information device, or a response from the person who has confirmed the information regarding the target content. A configuration may also be adopted in which answers are generated and output through operations.

トランザクション生成部9は、分散型台帳内のブロックに格納されるトランザクションを生成する機能を有し、特許請求の範囲における情報生成手段の一例に相当するものである。具体的には、トランザクション生成部9は、トランザクションの内容として、本人トークンの保有名義の変更に関する情報に加え、類似性判定部16において外観的に本人と類似性を有すると判定された対象コンテンツに関する関係性判定部8による判定結果に関する情報を生成するものとする。トランザクション生成部9は、外観的に本人と類似性を有すると判定された対象コンテンツを特定するための情報(対象コンテンツと1対1で対応する非代替性トークンが生成されていれば当該トークンを特定する情報。そのほか、対象コンテンツが記録されたウェブサイトのURL情報や、対象コンテンツの識別符号等でもよい。)と、本人との関係性の有無に関する情報を含むトランザクションを生成する機能を有する。 The transaction generation unit 9 has a function of generating transactions to be stored in blocks in the distributed ledger, and corresponds to an example of information generation means in the claims. Specifically, the transaction generation unit 9 includes, as the content of the transaction, information related to the change in the name of the owner of the person's token, as well as information regarding the target content that has been determined by the similarity determination unit 16 to be similar in appearance to the person himself/herself. It is assumed that information regarding the determination result by the relationship determination unit 8 is generated. The transaction generation unit 9 generates information for identifying the target content that is determined to have similarity in appearance to the principal (if a non-fungible token that corresponds one-to-one with the target content is generated, the token is It has a function to generate a transaction that includes identifying information (in addition, it may also be the URL information of the website where the target content is recorded, the identification code of the target content, etc.) and information regarding the presence or absence of a relationship with the person.

電子署名生成部10は、トランザクションに含まれる情報の作成・出力が本人トークンの保有者の意向に従ったものであることを証明するデータである電子署名を生成する機能を有する。具体的には、電子署名生成部10は、トランザクション生成部9によって生成されたトランザクションのハッシュ値を生成し、本人トークンの保有者が保有する秘密鍵にて当該ハッシュ値を暗号化することにより電子署名を生成する機能を有する。なお、「ハッシュ値」とは元データに対し一定計算手順を施すことにより得られた固定長の値である。当該計算手順が不可逆なものであるため、ハッシュ値から元データを復元することは不可能とされている。また、「秘密鍵」とは暗号化処理に用いられる数列であって、対応関係にある「公開鍵」により復号することが可能な構成となっている。なお、本実施の形態1においてはトランザクション生成部9及び電子署名生成部10は、保有名義変更情報の一態様であるトランザクション及び電子署名の作成まで自ら行う構成としているがこれに限定する必要はなく、トランザクション生成部9及び電子署名生成部10が外部の所定機器に対しトランザクション及び電子署名の作成を指示するのみの機能を有することとしてもよい。 The electronic signature generation unit 10 has a function of generating an electronic signature, which is data that proves that the creation and output of information included in a transaction is in accordance with the intention of the principal token holder. Specifically, the electronic signature generation unit 10 generates a hash value of the transaction generated by the transaction generation unit 9, and encrypts the hash value with a private key held by the holder of the principal token. It has a function to generate signatures. Note that the "hash value" is a fixed-length value obtained by performing a certain calculation procedure on the original data. Since the calculation procedure is irreversible, it is considered impossible to restore the original data from the hash value. Further, the "private key" is a sequence of numbers used for encryption processing, and is configured to be able to be decrypted using the corresponding "public key." Note that in the first embodiment, the transaction generation unit 9 and the electronic signature generation unit 10 are configured to independently create transactions and electronic signatures, which are one aspect of the retained name change information, but the present invention is not limited to this. , the transaction generation unit 9 and the electronic signature generation unit 10 may have the function of only instructing a predetermined external device to create a transaction and an electronic signature.

出力指示部11は、トランザクション生成部9にて生成されたトランザクション及び電子署名生成部10にて生成された電子署名を、本人トークンと関連付けられた分散型ネットワークに対し出力するよう指示するためのものである。なお本実施の形態1において出力指示部11は出力機能そのものも備えることとし、具体的には出力指示部11は、分散型ネットワークに対し直接的または間接的に接続されており、分散型ネットワークに対し所定のデータを出力可能な態様にて構成されている。分散型ネットワークは、出力されたトランザクションのハッシュ値を生成するとともに、電子署名を公開鍵にて復号したデータ(=トランザクションのハッシュ値)と対比し、両者が異なる値となる場合は対象となる有体物の所有者によるトランザクションではないと判定して登録を拒否し、両者が一致する場合は所有者によるトランザクションと判定し、トランザクションにより構成される情報を、分散型台帳を構成するブロックに格納する。出力指示部11が出力するトランザクションには保有名義の変更に関する情報が含まれており、トランザクションが分散型ネットワークに対し出力されることにより、これらの情報が分散型ネットワーク上に設けられた分散型台帳を構成するブロックに格納される。 The output instruction unit 11 is for instructing the distributed network associated with the principal token to output the transaction generated by the transaction generation unit 9 and the electronic signature generated by the electronic signature generation unit 10. It is. Note that in the first embodiment, the output instruction section 11 is also provided with an output function itself, and specifically, the output instruction section 11 is connected directly or indirectly to the distributed network, and is connected to the distributed network. On the other hand, it is configured in such a manner that it can output predetermined data. The decentralized network generates a hash value of the output transaction, and compares the digital signature with the data (= hash value of the transaction) decrypted using the public key, and if the two values are different, the target tangible object is It is determined that the transaction is not by the owner of the transaction, and registration is rejected. If the two match, the transaction is determined to be by the owner, and the information constituted by the transaction is stored in the blocks that constitute the distributed ledger. The transaction output by the output instruction unit 11 includes information regarding the change of ownership name, and by outputting the transaction to the distributed network, this information is transferred to the distributed ledger provided on the distributed network. is stored in the blocks that make up the .

次に、本実施の形態1にかかる類似コンテンツ管理システムのうち、類似性判定部16の動作について説明する。図2に示すとおり、類似性判定部16は、位置導出部13によって導出された、互いに対応関係にある対象コンテンツの特徴点の位置及び本人画像の特徴点の位置に基づき、両特徴点間の距離を導出し(ステップS101)、当該距離が所定の閾値L以上であるか否かを判定する(ステップS102)。閾値L未満である場合(ステップS102、No)はステップS106に移動し、閾値L以上である場合(ステップS102、Yes)はステップS103に移動する。 Next, the operation of the similarity determination unit 16 in the similar content management system according to the first embodiment will be explained. As shown in FIG. 2, the similarity determining unit 16 determines the distance between the two feature points based on the positions of the feature points of the target content and the positions of the feature points of the person's image, which are in a corresponding relationship with each other, derived by the position deriving unit 13. A distance is derived (step S101), and it is determined whether the distance is greater than or equal to a predetermined threshold L0 (step S102). If it is less than the threshold L 0 (step S102, No), the process moves to step S106, and if it is greater than or equal to the threshold L 0 (step S102, Yes), the process moves to step S103.

その後、類似性判定部16は、本人画像及び基準画像にて互いに対応関係にある特徴点に関する距離導出部14及び方位導出部15の導出結果に基づき、基準画像上の特徴点を始点とし、本人画像上の特徴点を終点とする第1ベクトルを生成する(ステップS103)。また、類似性判定部16は、対象コンテンツ及び基準画像にて互いに対応関係にある特徴点に関する距離導出部14及び方位導出部15の導出結果に基づき、基準画像上の特徴点を始点とし、対象コンテンツ上の特徴点を終点とする第2ベクトルを生成する(ステップS104)。 Thereafter, the similarity determination unit 16 uses the feature points on the reference image as a starting point, based on the derivation results of the distance derivation unit 14 and direction derivation unit 15 regarding the feature points that correspond to each other in the person image and the reference image, and determines whether the person A first vector whose end point is a feature point on the image is generated (step S103). Further, the similarity determining unit 16 uses the feature points on the reference image as a starting point, based on the derivation results of the distance deriving unit 14 and the orientation deriving unit 15 regarding the feature points that correspond to each other in the target content and the reference image, and A second vector whose end point is a feature point on the content is generated (step S104).

その後、類似性判定部16は第1ベクトル及び第2ベクトルの内積について計算を行い、計算結果があらかじめ定めた閾値M以上であるか否かを判定する(ステップS105)。閾値M未満である場合(ステップS105、No)、類似性判定部16は対象コンテンツが本人画像と外観的に類似性を有さないと判定し(ステップS106)、処理を終了する。閾値M以上である場合(ステップS105、Yes)、全ての特徴点について処理を完了したかを判定し(ステップS107)、完了していなかった場合(ステップS107、No)、ステップS101に戻って他の特徴点について上記の処理を繰り返す。完了していた場合(ステップS107、Yes)、類似性判定部16は対象コンテンツが本人画像と外観的に類似性を有すると判定して(ステップS108)、全ての処理を終了する。 After that, the similarity determination unit 16 calculates the inner product of the first vector and the second vector, and determines whether the calculation result is equal to or greater than a predetermined threshold value M0 (step S105). If it is less than the threshold M 0 (step S105, No), the similarity determination unit 16 determines that the target content has no similarity in appearance to the person's image (step S106), and ends the process. If the threshold value M is greater than or equal to 0 (step S105, Yes), it is determined whether the processing has been completed for all feature points (step S107), and if it has not been completed (step S107, No), the process returns to step S101. The above process is repeated for other feature points. If it has been completed (Step S107, Yes), the similarity determining unit 16 determines that the target content has similarity in appearance to the person's image (Step S108), and ends all processing.

次に、本実施の形態1にかかる類似コンテンツ管理システムの利点について説明する。まず、本実施の形態1にかかる類似コンテンツ管理システムでは、本人画像と外観的に類似性を有する対象コンテンツについて、関係性判定部8により本人との関係性を判定し、対象コンテンツ及び当該対象コンテンツと本人の関係性に関する判定結果を含む情報をトランザクションとして生成する構成を有する。かかる構成を採用することにより本人及び他のサービス利用者は、本人と類似性を有する外観からなる対象コンテンツが本人と関係性を有するのか、それとも偶然の一致あるいは第三者が意図的に混同を狙ったに過ぎない無関係なものであるかを正確に認識できるという利点を有する。 Next, advantages of the similar content management system according to the first embodiment will be explained. First, in the similar content management system according to the first embodiment, the relationship determining unit 8 determines the relationship between the target content and the person who has an appearance similarity to the person's image, and determines the relationship between the target content and the target content. It has a configuration that generates information including determination results regarding the relationship between the person and the person as a transaction. By adopting such a configuration, the user and other service users will be able to determine whether the target content, which has a similar appearance to the user, has a relationship with the user, or whether it is a coincidence or a third party has intentionally caused confusion. It has the advantage of being able to accurately recognize whether it is an unrelated object that was merely aimed at.

また、本実施の形態1にかかる類似コンテンツ管理システムは、対象コンテンツと本人画像の外観的な類似性を判定するにあたって、双方における互いに対応関係にある特徴点の位置が類似性の範囲内にあるか否かを判定する構成を有する。特徴点とは顔面上の各部位の形状等に対応して配置されるものであるため、対応関係にある特徴点の位置のずれが所定の閾値内であり類似性の範囲内にあると判定される場合は、当該特徴点に対応した顔面上の各部位の形状についても類似性が認められることとなる。かかる構成を採用することにより、本実施の形態1にかかる類似コンテンツ管理システムは簡易かつ迅速に、本人画像と対象コンテンツの外観的な類似性を判定できるという利点を有する。 In addition, in determining the external similarity between the target content and the person's image, the similar content management system according to the first embodiment determines that the positions of feature points that correspond to each other in both are within the range of similarity. It has a configuration for determining whether or not. Since feature points are arranged corresponding to the shape of each part on the face, it is determined that the positional deviation of the corresponding feature points is within a predetermined threshold and within the range of similarity. In this case, similarity is also recognized in the shape of each part on the face corresponding to the feature point. By adopting such a configuration, the similar content management system according to the first embodiment has the advantage of being able to easily and quickly determine the similarity in appearance between the person's image and the target content.

さらに、本実施の形態1にかかる類似コンテンツ管理システムは、互いに対応関係にある特徴点間において、基準画像の特徴点を始点とし本人画像の特徴点を終点とした第1ベクトルと、基準画像の特徴点を始点とし対象コンテンツの特徴点を終点とした第2ベクトルとを設定し、第1ベクトルと第2ベクトルの内積が所定の閾値以上の値となった場合に、当該特徴点に対応した顔面上の各部位の形状が類似性を有するものと判定する構成を有する。 Further, in the similar content management system according to the first embodiment, a first vector whose starting point is the feature point of the reference image and an end point of the feature point of the person's image, and a first vector whose starting point is the feature point of the reference image and an end point of the feature point of the person's image, are created between the feature points that have a correspondence relationship with each other. A second vector is set with the feature point as the starting point and the feature point of the target content as the end point, and when the inner product of the first vector and the second vector is a value greater than or equal to a predetermined threshold, It has a configuration in which it is determined that the shapes of various parts on the face have similarity.

内積が所定の閾値以上の値となる場合、両ベクトルの長さが一定以上の値であることに加え、両ベクトルがなす角度が小さな値になるところ、ベクトルの長さが一定以上の値である場合、当該特徴点に対応する顔面上の部位の形状は基準画像と大きく異なるものとなる。加えて、両ベクトルのなす角度が小さな値である場合、本人画像の特徴点と対象コンテンツの特徴点は、基準画像の特徴点と比較して互いに類似する方向に移動していることになるから、基準画像における顔面部位との比較において、本人画像の顔面部位と対象コンテンツの顔面部位の形状は同じ程度相違する、すなわち同様に特徴的な形状を有することとなる。 本実施の形態1では、かかる場合についても当該特徴点に対応した顔面上の各部位の形状が外観的に類似性を有するものと判定する構成を採用することにより、基準画像と相違する本人の特徴的部分について、的確な類似性判断ができるという利点を有する。かかる利点はベクトルの内積を算出する場合のみならず、両ベクトルがなす角度が一定の閾値未満となり、かつ両ベクトルの長さの差が一定の閾値未満となった場合に類似性を認めることとした場合にも同様に生じる。 If the inner product is a value greater than a predetermined threshold, the length of both vectors must be greater than a certain value, and the angle formed by both vectors is a small value. In some cases, the shape of the part on the face corresponding to the feature point will be significantly different from the reference image. In addition, if the angle formed by both vectors is a small value, the feature points of the person's image and the feature points of the target content are moving in similar directions compared to the feature points of the reference image. , in comparison with the facial area in the reference image, the facial area in the person's image and the facial area in the target content are different in shape to the same degree, that is, they have similar characteristic shapes. In this first embodiment, even in such a case, by adopting a configuration in which it is determined that the shape of each part on the face corresponding to the feature point has similarity in appearance, it is possible to This method has the advantage of being able to accurately determine the similarity of characteristic parts. This advantage lies not only in calculating the inner product of vectors, but also in recognizing similarity when the angle formed by both vectors is less than a certain threshold and the difference in length of both vectors is less than a certain threshold. The same problem occurs when

さらに、本実施の形態1にかかる類似コンテンツ管理システムは、対象コンテンツに関する本人との関係性に関する情報をトランザクションとして生成し、本人トークンと対応関係にある分散型台帳を構成するブロックに記録する構成を有する。かかる構成を採用することにより、記録が第三者によって改変・偽造等されることを防止することが可能となり、本人及び他のサービス利用者等の第三者は、対象コンテンツと本人の関係性について正確な情報を得ることが可能となる。 Furthermore, the similar content management system according to the first embodiment has a configuration in which information regarding the relationship between the target content and the principal is generated as a transaction, and is recorded in a block constituting a distributed ledger that corresponds to the principal token. have By adopting such a configuration, it is possible to prevent records from being altered or forged by a third party, and third parties such as the user and other service users can check the relationship between the target content and the user. It becomes possible to obtain accurate information about

(実施の形態2)
次に、実施の形態2にかかる類似コンテンツ管理システムについて説明する。実施の形態2において、実施の形態1と同一名称かつ同一符号を付した構成要素に関しては、特に言及しない限り、実施の形態1における構成要素と同一の機能を発揮するものとする。
(Embodiment 2)
Next, a similar content management system according to a second embodiment will be described. In the second embodiment, components having the same names and the same reference numerals as those in the first embodiment are assumed to exhibit the same functions as the components in the first embodiment, unless otherwise specified.

図3は、実施の形態2にかかる類似コンテンツ管理システムの構成を示す模式図である。図3に示すとおり、実施の形態2にかかる類似コンテンツ管理システムは、本人画像と基準画像を比較して、対応関係にある特徴点同士の距離に基づき本人画像において特異な位置にある特徴点を選択する特徴点選択部18と、特徴点選択部18にて選択された特徴点と対応関係にある特徴点について、対象コンテンツ、本人画像及び基準画像における位置の導出を行う位置導出部20と、距離を導出する距離導出部21と、方位を導出する方位導出部22と、導出された位置、距離及び方位に基づき対象コンテンツと本人画像の外観的な類似性の有無について判定する類似性判定部23とを備える。 FIG. 3 is a schematic diagram showing the configuration of a similar content management system according to the second embodiment. As shown in FIG. 3, the similar content management system according to the second embodiment compares the person's image and the reference image, and identifies feature points at unique positions in the person's image based on the distances between corresponding feature points. a feature point selection unit 18 to select, and a position derivation unit 20 that derives positions in the target content, personal image, and reference image for feature points that have a correspondence relationship with the feature points selected by the feature point selection unit 18; A distance derivation unit 21 that derives a distance, an orientation derivation unit 22 that derives an orientation, and a similarity determination unit that determines whether there is external similarity between the target content and the person's image based on the derived position, distance, and orientation. 23.

特徴点選択部18は、顔画像について設定されている複数の特徴点の中から、本人画像において特異な位置に存する特徴点を抽出するためのものである。具体的には、特徴点選択部18は、基準画像において対応関係にある特徴点の位置と比較して特異な位置、具体的には所定の閾値(特許請求の範囲における「第3の閾値」に相当)以上離隔した位置にある特徴点を抽出する機能を有する。 The feature point selection unit 18 is for extracting feature points located at unique positions in the person's image from among a plurality of feature points set for the face image. Specifically, the feature point selection unit 18 selects a position that is unique compared to the position of a corresponding feature point in the reference image, specifically, a predetermined threshold value (“third threshold value” in the claims). It has the function of extracting feature points located at a distance of more than

基準画像における目、鼻、口等の顔面部位は平均的な形状を有していることから、これら各部位に対応して配置される特徴点の位置は、平均的な位置に存する。したがって、本人画像における特徴点の位置が基準画像のものと著しく相違する場合、当該特徴点に関する顔面部位は基準画像におけるものと顕著に異なる形状を有することとなり、かかる異なる形状が本人における容貌上の特徴となる。本実施の形態2において、特徴点選択部18はかかる容貌上の特徴に対応した特徴点を抽出し、特徴点比較部19にてかかる特徴点について対象コンテンツとの比較等を行うこととしている。 Since facial parts such as eyes, nose, and mouth in the reference image have an average shape, the positions of the feature points arranged corresponding to these parts exist at average positions. Therefore, if the position of a feature point in the person's image is significantly different from that in the reference image, the facial region related to the feature point will have a shape that is significantly different from that in the reference image, and this different shape will affect the person's physical appearance. Becomes a feature. In the second embodiment, the feature point selection unit 18 extracts feature points corresponding to such physical features, and the feature point comparison unit 19 compares the feature points with the target content.

次に、本実施の形態2にかかる類似コンテンツ管理システムの利点について説明する。本実施の形態2にかかる類似コンテンツ管理システムは、多数存在する特徴点のうち特徴点選択部18が選択した特徴点についてのみ特徴点比較部19における比較対象とすることによって、迅速かつ実態に即した外観的な類似性判定を可能としている。特徴点選択部18が選択した特徴点は、基準画像における特徴点と比較して逸脱した位置にある本人画像上の特徴点であるところ、かかる特徴点は、本人画像において基準画像と異なっている特徴部分に対応するものである。したがって、かかる特徴点について類似性判定を行うことにより、本人の顔画像における特徴部分について類似性判定を行うことが可能となる。似顔絵等のように本人をモデルとしたコンテンツでは、本人の容貌上の特徴を維持しつつ創作的なコンテンツが創作される(たとえば、目、鼻の特徴は維持しつつ特定のクリエイターの画風に合わせた顔画像にする、あるいは特徴を維持しつつ他の動物の外観を有する全身画像にする、等)。このような場合、全ての特徴点について比較すると対象コンテンツの創作的な部分における本人画像との相違を根拠に類似性が否定される可能性があるところ、本実施の形態2では本人画像における特徴部分に対応した特徴点についてのみ特徴点比較を行うことにより、的確に外観的な類似性の有無を判定できるという利点を有する。 Next, advantages of the similar content management system according to the second embodiment will be explained. The similar content management system according to the second embodiment allows the feature point comparison unit 19 to compare only the feature points selected by the feature point selection unit 18 out of a large number of feature points, thereby quickly and accurately responding to the actual situation. This makes it possible to determine the visual similarity. The feature point selected by the feature point selection unit 18 is a feature point on the person's image that is located at a position deviated from the feature point in the reference image, and the feature point is different from the reference image in the person's image. This corresponds to the characteristic part. Therefore, by performing similarity determination on such feature points, it becomes possible to perform similarity determination on the characteristic portions of the person's face image. In content that is modeled after a person, such as a portrait, creative content is created while maintaining the physical characteristics of the person (for example, maintaining the features of the eyes and nose, but matching the drawing style of a specific creator). (e.g., creating a facial image with a different shape, or creating a full-body image with the appearance of another animal while maintaining its features, etc.) In such a case, if all feature points are compared, similarity may be denied based on the difference between the creative part of the target content and the person's image, but in the second embodiment, the features in the person's image By comparing feature points only with respect to feature points corresponding to parts, there is an advantage that it is possible to accurately determine the presence or absence of external similarity.

また、本実施の形態2にかかる類似コンテンツ管理システムでは、全ての特徴点ではなく特徴点選択部18によって選択された特徴点についてのみ比較処理を行う構成を採用することにより、情報処理の分量が大幅に削減されるという利点がある。これにより本実施の形態2にかかる類似コンテンツ管理システムは、簡易かつ迅速に外観的な類似性の有無の判定を行うことができるという利点を有する。 Further, in the similar content management system according to the second embodiment, the amount of information processing is reduced by adopting a configuration in which comparison processing is performed only on feature points selected by the feature point selection unit 18 instead of all feature points. This has the advantage of being significantly reduced. As a result, the similar content management system according to the second embodiment has the advantage of being able to easily and quickly determine whether there is any similarity in appearance.

以上、実施の形態1、2にわたり本発明の内容について説明したが、もとより本発明の技術的範囲は実施の形態に記載した具体的構成に限定して解釈されるべきではない。本発明の機能を実現できるものであれば、上記実施の形態に対する様々な変形例、応用例についても、本発明の技術的範囲に属することはもちろんである。 Although the content of the present invention has been described above in Embodiments 1 and 2, the technical scope of the present invention should not be construed as being limited to the specific configuration described in the embodiments. It goes without saying that various modifications and applications of the above embodiments fall within the technical scope of the present invention as long as they can realize the functions of the present invention.

たとえば、実施の形態1、2にかかる類似コンテンツ管理システムは対応関係にある対象コンテンツと本人画像の特徴点間の距離及び上述の第1ベクトル・第2ベクトルの内積の双方を利用して外観的な類似性を判定することとしているが、特徴点間の距離のみ、あるいは第1ベクトル・第2ベクトルの内積(または両ベクトルのなす角及びベクトルの長さの差)のみによって外観的な類似性を判定することとしてもよい。 For example, the similar content management system according to the first and second embodiments uses both the distance between the corresponding target content and the feature points of the person's image and the inner product of the first vector and the second vector to determine the appearance. However, the visual similarity is determined only by the distance between feature points or the inner product of the first vector and the second vector (or the angle formed by both vectors and the difference in the length of the vectors). It is also possible to determine.

また、実施の形態1、2にかかる類似コンテンツ管理システムは本人画像及び基準画像をそれぞれ入力し両画像の特徴点を特徴点抽出部6にて抽出する構成を採用するところ、画像入力をせず予め抽出された特徴点のみを入力し保存する構成としてもよい。かかる構成を採用しても、外観的な類似性判定の機能が低下することはなく、むしろ記憶すべきデータ量を低減できるという利点がある。 Furthermore, the similar content management systems according to the first and second embodiments adopt a configuration in which the personal image and the reference image are respectively input, and the feature points of both images are extracted by the feature point extraction unit 6, but the image input is not required. A configuration may be adopted in which only feature points extracted in advance are input and saved. Even if such a configuration is adopted, the function of determining the similarity in appearance does not deteriorate, but rather has the advantage that the amount of data to be stored can be reduced.

さらに、実施の形態1、2にかかる類似コンテンツ管理システムにおいて、特徴点比較部7、19による特徴点比較処理について、特徴点間の距離に関する閾値や、上述の第1ベクトルと第2ベクトルの内積に関する閾値について、それぞれ一律の値とするのではなく、特徴点ごとに異なる閾値を定めることとしてもよい。このような構成を採用することで、たとえば目のようにわずかな相違でも形状に関する印象が一変する部位については閾値を小さな値とすることで、より正確な類似性判定を行うことが可能となる。 Furthermore, in the similar content management systems according to the first and second embodiments, regarding the feature point comparison processing by the feature point comparison units 7 and 19, a threshold value regarding the distance between feature points and an inner product of the above-mentioned first vector and second vector are used. Regarding the threshold values for each feature point, instead of setting them to a uniform value, a different threshold value may be determined for each feature point. By adopting such a configuration, it is possible to perform more accurate similarity judgments by setting the threshold to a small value for parts such as eyes where even a slight difference can completely change the impression of the shape. .

また、実施の形態1、2にかかる類似コンテンツ管理システムにおいて、本人画像と外観的に類似性を有する対象コンテンツと本人の関係性に関する情報を記録する対象として本人トークンと対応関係にある分散型台帳とするのではなく、本人画像とは無関係に本人情報と対応付けた非代替性トークンを生成し、これと対応関係にある分散型台帳に記録することとしてもよい。さらに、対象コンテンツごとに非代替性トークンを生成し、それぞれの非代替性トークンと対応する分散型台帳に本人との関係性に関する情報を記録することとしてもよい。 Further, in the similar content management system according to the first and second embodiments, a distributed ledger that is in correspondence with the principal token is used as an object for recording information regarding the relationship between the principal and the target content that is similar in appearance to the principal's image. Instead, it is also possible to generate a non-fungible token that is associated with personal information regardless of the personal image and record it in a distributed ledger that has a corresponding relationship with the non-fungible token. Furthermore, a non-fungible token may be generated for each target content, and information regarding the relationship with the principal may be recorded in a distributed ledger corresponding to each non-fungible token.

本発明は、実在の人物の特徴を備えたアバター、アイコン等のコンテンツを効率よく抽出し、当該コンテンツと当該実在の人物との関係の有無等の情報管理を簡易かつ正確に行うことのできる技術として利用可能である。 The present invention is a technology that can efficiently extract content such as avatars and icons that have the characteristics of a real person, and easily and accurately manage information such as the presence or absence of a relationship between the content and the real person. It is available as.

1 コンテンツ入力部
2 本人画像入力部
3 本人情報入力部
4 本人トークン生成部
5 基準画像入力部
6 特徴点抽出部
7、19 特徴点比較部
8 関係性判定部
9 トランザクション生成部
10 電子署名生成部
11 出力指示部
13、20 位置導出部
14、21 距離導出部
15、22 方位導出部
16、23 類似性判定部
18 特徴点選択部
1 Content input section 2 Personal image input section 3 Principal information input section 4 Principal token generation section 5 Reference image input section 6 Feature point extraction section 7, 19 Feature point comparison section 8 Relationship determination section 9 Transaction generation section 10 Electronic signature generation section 11 Output instruction section 13, 20 Position derivation section 14, 21 Distance derivation section 15, 22 Orientation derivation section 16, 23 Similarity determination section 18 Feature point selection section

Claims (6)

本人の顔画像である本人画像と外観的な類似性を有する対象コンテンツの前記本人との間の関係性に関する情報を管理する類似コンテンツ管理システムであって、
対象コンテンツの顔面画像から、顔面を構成する各要素に対応した点である特徴点を抽出する特徴点抽出手段と、
前記特徴点抽出手段によって抽出された前記対象コンテンツの特徴点と、当該特徴点と対応関係にある前記本人画像の特徴点との比較結果に基づき前記対象コンテンツと前記本人画像との間の外観的な類似性の有無を判定する特徴点比較手段と、
前記特徴点比較手段によって前記本人画像と外観的同一性を有すると判定された前記対象コンテンツと前記本人の関係性を判定する関係性判定手段と、
前記本人と対応関係にある非代替性トークンである本人トークンに対応した分散型ネットワーク上の分散型台帳に記録される、前記対象コンテンツの識別情報及び前記本人との関係性に関する情報を生成する情報生成手段と、
前記情報生成手段によって生成された情報を前記分散型ネットワークに対し出力するよう指示する出力指示手段と、
を備えたことを特徴とする類似コンテンツ管理システム。
A similar content management system that manages information regarding the relationship between target content that has external similarity to a person's image, which is a face image of the person, and the person,
Feature point extraction means for extracting feature points, which are points corresponding to each element constituting the face, from the facial image of the target content;
Based on the comparison result between the feature points of the target content extracted by the feature point extracting means and the feature points of the person's image that correspond to the feature points, the difference in appearance between the target content and the person's image is determined. feature point comparison means for determining the presence or absence of similarity;
relationship determination means for determining the relationship between the subject content and the person, which is determined by the feature point comparison means to have the same appearance as the image of the person;
Information that generates identification information of the target content and information regarding the relationship with the principal, which is recorded in a distributed ledger on a distributed network corresponding to the principal token, which is a non-fungible token that corresponds to the principal. a generating means;
output instruction means for instructing the distributed network to output the information generated by the information generation means;
A similar content management system comprising:
前記特徴点比較手段は、比較対象である1以上の特徴点において、前記対象コンテンツの顔部分の画像における特徴点の位置と、前記本人画像における特徴点の位置の間の距離が第1の閾値よりも小さい場合に、前記対象コンテンツが前記本人画像と外観的な類似性を有すると判定することを特徴とする請求項1記載の類似コンテンツ管理システム。 The feature point comparing means is configured such that, among one or more feature points to be compared, a distance between a position of the feature point in the image of the face part of the target content and a position of the feature point in the person's image is a first threshold value. 2. The similar content management system according to claim 1, wherein if the content is smaller than , it is determined that the target content has an appearance similarity with the person's image. 前記特徴点比較手段は、比較対象である1以上の特徴点において、基準とする顔画像である基準画像における特徴点の位置を始点とし前記本人画像における特徴点の位置を終点とする第1ベクトルと、前記基準画像における前記特徴点の位置を始点とし前記対象コンテンツにおける特徴点の位置を終点とする第2ベクトルとの内積の値が第2の閾値以上である場合に、前記対象コンテンツが前記本人画像と外観的な類似性を有すると判定することを特徴とする請求項1又は2記載の類似コンテンツ管理システム。 The feature point comparison means is configured to calculate, among one or more feature points to be compared, a first vector whose starting point is the position of the feature point in a reference image, which is a reference face image, and whose end point is the position of the feature point in the person's image. and a second vector whose starting point is the position of the feature point in the reference image and whose end point is the position of the feature point in the target content is greater than or equal to a second threshold, if the target content is 3. The similar content management system according to claim 1 or 2, wherein the similar content management system determines that the content has external similarity to the person's image. 本人の顔画像である本人画像と外観的な類似性を有する対象コンテンツの前記本人との間の関係性に関する情報を管理する類似コンテンツ管理方法であって、
対象コンテンツの顔面画像から、顔面を構成する各要素に対応した点である特徴点を抽出する特徴点抽出ステップと、
前記特徴点抽出ステップにおいて抽出された前記対象コンテンツの特徴点と、当該特徴点と対応関係にある前記本人画像の特徴点との比較結果に基づき前記対象コンテンツと前記本人画像との間の外観的な類似性の有無を判定する特徴点比較ステップと、
前記特徴点比較ステップにおいて前記本人画像と外観的同一性を有すると判定された前記対象コンテンツと前記本人の関係性を判定する関係性判定ステップと、
前記本人と対応関係にある非代替性トークンである本人トークンに対応した分散型ネットワーク上の分散型台帳に記録される、前記対象コンテンツの識別情報及び前記本人との関係性に関する情報を生成する情報生成ステップと、
前記情報生成ステップにおいて生成された情報を前記分散型ネットワークに対し出力するよう指示する出力指示ステップと、
を含むことを特徴とする類似コンテンツ管理方法。
A similar content management method for managing information regarding a relationship between target content that has external similarity to a person's image, which is a face image of the person, and the person, the method comprising:
a feature point extraction step of extracting feature points, which are points corresponding to each element constituting the face, from the facial image of the target content;
Based on the comparison result between the feature points of the target content extracted in the feature point extraction step and the feature points of the person's image that have a corresponding relationship with the feature points, the appearance difference between the target content and the person's image is determined. a feature point comparison step for determining the presence or absence of similarity;
a relationship determination step of determining a relationship between the target content that is determined to have the same appearance as the person's image in the feature point comparison step, and the person;
Information that generates identification information of the target content and information regarding the relationship with the principal, which is recorded in a distributed ledger on a distributed network corresponding to the principal token, which is a non-fungible token that corresponds to the principal. a generation step;
an output instruction step of instructing the distributed network to output the information generated in the information generation step;
A similar content management method characterized by comprising:
1以上の特徴点の中から、基準とする顔画像である基準画像における特徴点の位置と、当該特徴点と対応する前記本人画像における特徴点の位置の間の距離が第3の閾値以上である特徴点を選択する特徴点選択ステップをさらに含み、
前記特徴点比較ステップにおいて、前記特徴点選択ステップにて選択された特徴点について特徴点の比較を行うことを特徴とする請求項4記載の類似コンテンツ管理方法。
Among the one or more feature points, the distance between the position of the feature point in a reference image that is a reference face image and the position of the feature point in the person's image that corresponds to the feature point is equal to or greater than a third threshold. further comprising a feature point selection step of selecting a certain feature point;
5. The similar content management method according to claim 4, wherein in the feature point comparison step, feature points are compared for the feature points selected in the feature point selection step.
本人の顔画像である本人画像と外観的な類似性を有する対象コンテンツの前記本人との間の関係性に関する情報の管理をコンピュータに行わせる類似コンテンツ管理プログラムであって、
前記コンピュータに対し、
対象コンテンツの顔面画像から、顔面を構成する各要素に対応した点である特徴点を抽出する特徴点抽出機能と、
前記特徴点抽出機能によって抽出された前記対象コンテンツの特徴点と、当該特徴点と対応関係にある前記本人画像の特徴点との比較結果に基づき前記対象コンテンツと前記本人画像との間の外観的な類似性の有無を判定する特徴点比較機能と、
前記特徴点比較機能によって前記本人画像と外観的同一性を有すると判定された前記対象コンテンツと前記本人の関係性を判定する関係性判定機能と、
前記本人と対応関係にある非代替性トークンである本人トークンに対応した分散型ネットワーク上の分散型台帳に記録される、前記対象コンテンツの識別情報及び前記本人との関係性に関する情報を生成する情報生成機能と、
前記情報生成機能によって生成された情報を前記分散型ネットワークに対し出力するよう指示する出力指示機能と、
を実行させることを特徴とする類似コンテンツ管理プログラム
A similar content management program that causes a computer to manage information regarding a relationship between target content that has external similarity to a person's image, which is a face image of the person, and the person,
to the computer,
a feature point extraction function that extracts feature points, which are points corresponding to each element that makes up the face, from the facial image of the target content;
Based on the comparison result between the feature points of the target content extracted by the feature point extraction function and the feature points of the person's image that have a corresponding relationship with the feature points, the appearance difference between the target content and the person's image is determined. feature point comparison function that determines the presence or absence of similarity;
a relationship determination function that determines a relationship between the subject content and the person, which is determined to have the same appearance as the person's image by the feature point comparison function;
Information that generates identification information of the target content and information regarding the relationship with the principal, which is recorded in a distributed ledger on a distributed network corresponding to the principal token, which is a non-fungible token that corresponds to the principal. generation function,
an output instruction function that instructs the distributed network to output the information generated by the information generation function;
A similar content management program characterized by executing the following.
JP2023138155A 2023-08-28 2023-08-28 Similar content management system, similar content management method, and similar content management program Active JP7454893B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023138155A JP7454893B1 (en) 2023-08-28 2023-08-28 Similar content management system, similar content management method, and similar content management program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023138155A JP7454893B1 (en) 2023-08-28 2023-08-28 Similar content management system, similar content management method, and similar content management program

Publications (1)

Publication Number Publication Date
JP7454893B1 true JP7454893B1 (en) 2024-03-25

Family

ID=90367090

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023138155A Active JP7454893B1 (en) 2023-08-28 2023-08-28 Similar content management system, similar content management method, and similar content management program

Country Status (1)

Country Link
JP (1) JP7454893B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109862401A (en) 2018-12-21 2019-06-07 深圳创维-Rgb电子有限公司 Real name register method, device, television set and the readable storage medium storing program for executing of account
CN109978552A (en) 2019-03-29 2019-07-05 吴伟运 A kind of payment processing method, device and the equipment of identity-based card information

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109862401A (en) 2018-12-21 2019-06-07 深圳创维-Rgb电子有限公司 Real name register method, device, television set and the readable storage medium storing program for executing of account
CN109978552A (en) 2019-03-29 2019-07-05 吴伟运 A kind of payment processing method, device and the equipment of identity-based card information

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
河合 洋弥,認証可能アバタへの変換に向けた顔認証モデルの解析,2021年 暗号と情報セキュリティシンポジウム予稿集 [online] 2021 Symposium on Cryptography and Information Security,日本,電子情報通信学会情報セキュリティ(ISEC)研究会,2021年01月22日,1-8頁

Similar Documents

Publication Publication Date Title
US11290449B2 (en) Systems and methods for providing block chain-based multifactor personal identity verification
US20200183557A1 (en) Virtual teller systems and methods
US9547763B1 (en) Authentication using facial recognition
CN108108012B (en) Information interaction method and device
US20150269692A1 (en) Electronic Contract Creator
KR102030322B1 (en) Methods, systems, and media for detecting stereoscopic videos by generating fingerprints for multiple portions of a video frame
CN109816543B (en) Image searching method and device
CN106503655A (en) A kind of electric endorsement method and sign test method based on face recognition technology
CN113014471A (en) Session processing method, device, terminal and storage medium
US20230409679A1 (en) Systems and methods for a tokenized virtual persona for use with a plurality of software applications
JP2012133565A (en) Authentication processing apparatus, authentication processing method and program
CN111598051A (en) Face verification method, device and equipment and readable storage medium
Goh et al. A framework for multimodal biometric authentication systems with template protection
JP7454893B1 (en) Similar content management system, similar content management method, and similar content management program
CN116341006A (en) 3D data system, server and method for processing 3D data
CN109858219A (en) User registering method, device, electronic equipment and computer readable storage medium
Tubbs et al. Facial expression analysis as a means for additional biometric security in recognition systems
CN106250737A (en) Access control method, device and user terminal
US11880922B2 (en) Agent providing system, agent providing method, and recording medium
KR102594497B1 (en) Method for generating user's wallet address based on face recognition to provide NFT experiences to the user who visit offline NFT stores, and NFT system for performing the same
CN116204931B (en) Method, equipment and medium for generating and signing-checking encryption digital signature based on original handwriting
CN116912902A (en) Method and device for generating face pictures in multiple attack styles
Xynogalas et al. The Metaverse: searching for compliance with the General Data Protection Regulation
CN116204931A (en) Method, equipment and medium for generating and signing-checking encryption digital signature based on original handwriting
KR20230163140A (en) The System and Method for Providing a Depression Diagnosis Chatbot within the Metaverse Platform

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230828

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240305

R150 Certificate of patent or registration of utility model

Ref document number: 7454893

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150