JP2021099835A - Retrieval device, retrieval method and program - Google Patents
Retrieval device, retrieval method and program Download PDFInfo
- Publication number
- JP2021099835A JP2021099835A JP2021028604A JP2021028604A JP2021099835A JP 2021099835 A JP2021099835 A JP 2021099835A JP 2021028604 A JP2021028604 A JP 2021028604A JP 2021028604 A JP2021028604 A JP 2021028604A JP 2021099835 A JP2021099835 A JP 2021099835A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- search
- similarity
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像データから特定人物を検索する検索装置、検索方法、およびプログラムに関する。 The present invention relates to a search device, a search method, and a program for searching a specific person from image data.
Webベースのシステムを用いて、多数の人が参加するイベントにおいて撮影された画像を販売する用途がある。そのような用途では、多人数の人物が写っている多数の画像を1枚ずつ順番にユーザが確認し、特定の人物が写っている画像(以下、目的画像と呼ぶ)を選別する作業が必要である。しかしながら、画像の数が多くなると、そのような選別作業には手間が発生する。そのため、多数の画像の中から目的画像を効率的かつ高精度に抽出する方法が求められる。 There is an application of selling images taken at an event in which a large number of people participate using a Web-based system. In such an application, it is necessary for the user to check a large number of images showing a large number of people one by one in order and select an image showing a specific person (hereinafter referred to as a target image). Is. However, as the number of images increases, such sorting work becomes troublesome. Therefore, a method for efficiently and highly accurately extracting a target image from a large number of images is required.
多数の画像から特定の人物が写っている画像を抽出する際に、目的の人物が写っている画像の候補(以下、候補画像と呼ぶ)を顔認識技術によって自動で抽出できれば、ユーザの手間が省ける。しかしながら、一般的な顔認識技術を用いて候補画像を抽出する際には、目的画像の抽出漏れが発生する可能性がある。例えば、顔認識技術を用いた人物検索では、正面を向いていない顔は、認識精度が低いために検索結果から漏れやすい。また、写真の明るさや影などの影響で、目的の人物を確実に検出できないこともある。そのため、画像だけではなく、画像以外の何らかの情報を用いて人物を特定する技術が求められる。 When extracting an image showing a specific person from a large number of images, if a candidate image (hereinafter referred to as a candidate image) showing the target person can be automatically extracted by face recognition technology, the user's trouble will be saved. Can be omitted. However, when extracting a candidate image using a general face recognition technique, there is a possibility that the extraction of the target image may be omitted. For example, in a person search using face recognition technology, a face that is not facing the front tends to be omitted from the search result because the recognition accuracy is low. In addition, it may not be possible to reliably detect the target person due to the influence of the brightness and shadow of the photograph. Therefore, a technique for identifying a person using not only an image but also some information other than the image is required.
特許文献1には、画像から得られる視覚的な類似度に加えて、種々のアプリケーション(以下、アプリと呼ぶ)から得られる社会的なつながりを人物の特定のランク付けに用いる方法について開示されている。特許文献1には、通信アプリやSNS(Social Networking Service)アプリ、カレンダーアプリ、共同アプリなどから得られる社会的つながりメトリクスを人物特定のランク付けに用いる例が開示されている。
特許文献2には、人物の顔画像に加えて、生年月日や勤務先、学歴、趣味、特技、サークルなどの属性・分類を用いて人間関係の強度を推測し、コンテンツをシェアすべき人物を評価する方法が開示されている。
In
特許文献3には、特定対象画像に写った検索対象人物を特定する装置について開示されている。特許文献3の装置は、複数の画像の撮像時刻および撮像場所に基づいてそれらの画像に写った人物の移動パターンを推定し、画像に写った人物の移動パターンと特定対象画像の撮像時間とに基づいて当該人物が存在する蓋然性の高い場所を推定する。そして、特許文献3の装置は、当該人物が存在する蓋然性の高い場所の推定結果に基づいて、特定対象画像の撮像時刻にその撮像場所に存在した蓋然性が高い人物を推定し、撮像画像に写った人物と検索対象人物とを比較することによって検索対象人物を特定する。 Patent Document 3 discloses a device for identifying a search target person in a specific target image. The apparatus of Patent Document 3 estimates the movement pattern of the person captured in the images based on the imaging time and the imaging location of the plurality of images, and determines the movement pattern of the person captured in the image and the imaging time of the specific target image. Based on this, the place where the person is likely to exist is estimated. Then, the apparatus of Patent Document 3 estimates a person who is likely to be present at the imaging location at the time of capturing the specific target image based on the estimation result of the location where the person is likely to exist, and is reflected in the captured image. The search target person is identified by comparing the search target person with the search target person.
特許文献1の方法では、SNSアプリやカレンダーアプリなどのアプリを用いて得られる社会的つながりメトリクスを利用して画像に写った人物の特定を促進するため、そのような外部システムとして構築されるアプリと連携する必要がある。そのため、特許文献1の方法には、外部システムと連携できない環境では、人物の特定を行うことができないという問題点があった。また、特許文献1の方法では、社会的つながりメトリクスといった個人情報を用いて人物を特定するため、プライバシーの観点における安全性が十分ではない。
In the method of
特許文献2の方法では、人物の属性・分類に関する情報を用いて人間関係の強度を推定するため、事前に登録されている情報が誤っていたり古かったりした場合に、人間関係を精度よく検索できない可能性があるという問題点があった。
In the method of
特許文献3の方法では、特定対象画像に写った検索対象人物を特定するために、その特定対象画像よりも前に撮影された画像を用いて検索対象人物の候補の人物を抽出する必要がある。そのため、特定対象画像よりも前に撮影された画像に写っている人物が横や斜めを向いていた場合、その人物の移動パターンを推定できなくなり、検索対象人物の候補を精度よく抽出できない可能性があるという問題点があった。 In the method of Patent Document 3, in order to identify the search target person in the specific target image, it is necessary to extract the candidate person of the search target person by using the image taken before the specific target image. .. Therefore, if the person in the image taken before the specific target image is facing sideways or diagonally, the movement pattern of that person cannot be estimated, and the candidates for the search target person may not be extracted accurately. There was a problem that there was.
本発明の目的は、上述した課題を解決し、外部システムと連携せずに、人間関係に基づいて、安全かつ高精度で特定人物を検索できる検索装置を提供することにある。 An object of the present invention is to solve the above-mentioned problems and to provide a search device capable of searching for a specific person safely and with high accuracy based on human relationships without coordinating with an external system.
本発明の一態様の検索装置は、第1の対象を示す第1画像と、第1の対象とは異なる対象を示す第2画像とを取得する取得部と、判定対象となる画像データと第1画像との類似度と、当該画像データと第2画像との類似度とに基づき、当該画像データに第1の対象が写っているかを判定する判定部と、第1の対象が写っている画像データを表示するよう出力する出力部と、を備える。 The search device according to one aspect of the present invention includes an acquisition unit that acquires a first image indicating a first object and a second image indicating an object different from the first object, image data to be determined, and a first image. Based on the degree of similarity with the first image and the degree of similarity between the image data and the second image, a determination unit for determining whether or not the first object is included in the image data and the first object are shown. It includes an output unit that outputs to display image data.
本発明の一態様の検索方法は、コンピュータにより実行される検索方法であって、第1の対象を示す第1画像と、第1の対象とは異なる対象を示す第2画像とを取得し、判定対象となる画像データと第1画像との類似度と、当該画像データと第2画像との類似度とに基づき、当該画像データに第1の対象が写っているかを判定し、第1の対象が写っている画像データを表示するよう出力する。 The search method of one aspect of the present invention is a search method executed by a computer, and acquires a first image showing a first target and a second image showing a target different from the first target. Based on the degree of similarity between the image data to be determined and the first image and the degree of similarity between the image data and the second image, it is determined whether or not the first object is reflected in the image data, and the first Output so that the image data showing the target is displayed.
本発明の一態様のプログラムは、第1の対象を示す第1画像と、第1の対象とは異なる対象を示す第2画像とを取得する処理と、判定対象となる画像データと第1画像との類似度と、当該画像データと第2画像との類似度とに基づき、当該画像データに第1の対象が写っているかを判定する処理と、第1の対象が写っている画像データを表示するよう出力する処理とをコンピュータに実行させる。 The program of one aspect of the present invention includes a process of acquiring a first image showing a first object and a second image showing an object different from the first object, image data to be determined, and a first image. Based on the degree of similarity with and the degree of similarity between the image data and the second image, a process of determining whether or not the first object is reflected in the image data and the image data in which the first object is reflected are obtained. Have the computer perform the process of outputting to display.
本発明によれば、外部システムと連携せずに、人間関係に基づいて、安全かつ高精度で特定人物を検索できる検索装置を提供することが可能になる。 According to the present invention, it is possible to provide a search device capable of searching for a specific person safely and with high accuracy based on human relationships without coordinating with an external system.
以下に、本発明を実施するための形態について図面を用いて説明する。ただし、以下に述べる実施形態には、本発明を実施するために技術的に好ましい限定がされているが、発明の範囲を以下に限定するものではない。なお、以下の実施形態の説明に用いる全図においては、特に理由がない限り、同様箇所には同一符号を付す。また、以下の実施形態において、同様の構成・動作に関しては繰り返しの説明を省略する場合がある。 Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. However, although the embodiments described below have technically preferable limitations for carrying out the present invention, the scope of the invention is not limited to the following. In all the drawings used in the following embodiments, the same reference numerals are given to the same parts unless there is a specific reason. Further, in the following embodiments, repeated explanations may be omitted for similar configurations and operations.
(第1の実施形態)
まず、本発明の第1の実施形態に係る検索装置について図面を参照しながら説明する。本実施形態の検索装置は、データベース(DB:Database)に格納された画像や類似度を用いて、少なくとも一つの選択対象の画像データの中から検索対象人物が写っている画像データを検索する。
(First Embodiment)
First, the search device according to the first embodiment of the present invention will be described with reference to the drawings. The search device of the present embodiment searches for image data in which a person to be searched is shown from at least one image data to be selected by using images and similarities stored in a database (DB: Database).
(構成)
図1は、本実施形態の検索装置10の構成の一例を示すブロック図である。図1のように、検索装置10は、顔認識部11、画像DB12、類似度計算部13、類似度DB14、および検索結果出力部15を備える。検索装置10は、入力装置110と出力装置150に接続される。
(Constitution)
FIG. 1 is a block diagram showing an example of the configuration of the
検索装置10は、入力装置110から入力されるターゲット画像111および補助画像群112を用いて、画像DB12に格納された画像データの中から検索対象人物が写っている画像データを検索する。検索装置10は、検索した画像データを含む出力データ(検索結果とも呼ぶ)を生成し、生成した出力データの集合である出力データ群151を出力装置150に出力する。
The
入力装置110は、顔認識部11に接続される。入力装置110には、ユーザによって、検索対象人物を示す画像であるターゲット画像111と、ターゲット画像111の検索を補助する少なくとも一つの補助画像の集合である補助画像群112とが入力される。入力装置110は、入力されたターゲット画像111および補助画像群112を顔認識部11に出力する。補助画像は、検索対象人物の関連人物を示す画像である。例えば、入力装置110は、モニタを有する端末装置と、その端末装置に接続されるキーボードやマウス、タッチパネルなどの周辺機器とによって実現される。
The
顔認識部11は、入力装置110に接続される。また、顔認識部11は、画像DB12および類似度計算部13に接続される。顔認識部11には、入力装置110からターゲット画像111および補助画像群112が入力される。
The
ターゲット画像111と補助画像群112が入力されると、顔認識部11は、少なくとも一つの選択対象の画像データを画像DB12から順次取り出す。顔認識部11は、画像DB12から取り出したそれぞれの画像データから顔を検出する。顔認識部11は、画像データから検出した顔と、ターゲット画像111および補助画像群112との一致度の計算を行う。顔認識部11は、画像データから検出した顔と、ターゲット画像111および補助画像群112との一致度の計算結果(評価結果とも呼ぶ)を類似度計算部13に出力する。なお、顔検出や顔認識については、一般的な技術を用いればよい。
When the
例えば、ユーザは、入力装置110を用いて、検索対象人物の人物画像をターゲット画像111として入力し、検索を補助する少なくとも一人の人物画像を補助画像として検索装置10に入力する。例えば、学校の遠足の写真を販売するサイトを想定すると、検索装置10には、ユーザの子供の画像がターゲット画像111として入力され、その子供と同じ班で行動を共にした友達の画像が補助画像として入力される。
For example, the user inputs the person image of the person to be searched as the
画像DB12(第1のデータベースとも呼ぶ)は、顔認識部11、類似度計算部13、および検索結果出力部15に接続される。画像DB12は、選択対象の画像データが格納されたデータベースである。例えば、検索装置10が学校の遠足で撮影された写真を販売する用途に用いられる場合、その遠足で撮影された画像の画像データが選択対象の画像データとして画像DB12に蓄積される。
The image DB 12 (also referred to as a first database) is connected to the
例えば、画像DB12には、選択対象の画像データと、その画像データが撮影されたときの撮影条件(メタデータ)とが関連付けられて格納される。例えば、画像DB12には、Exif(Exchangeable image file format)の形式の画像データが格納される。例えば、選択対象の画像データのメタデータには、その画像データが撮影された撮影日時や、撮影位置の位置情報に相当するGPS(Global Positioning System)情報が含まれる。
For example, the
類似度計算部13は、顔認識部11、画像DB12、および類似度DB14に接続される。類似度計算部13は、顔認識部11から顔認識の評価結果を取得する。類似度計算部13は、顔認識の評価結果を取得すると、画像DB12に格納された当該画像データのメタデータを用いて、当該画像データに検索対象人物が写っているかどうか判定する。類似度計算部13は、類似度DB14に判定結果を格納する。
The
類似度DB14(第2のデータベースとも呼ぶ)は、類似度計算部13および検索結果出力部15に接続される。類似度DB14は、類似度計算部13による類似度の判定結果が格納されるデータベースである。
The similarity DB 14 (also referred to as a second database) is connected to the
検索結果出力部15は、画像DB12および類似度DB14に接続される。検索結果出力部15は、類似度計算部13による判定結果を類似度DB14から取得する。検索結果出力部15は、類似度DB14から取得した判定結果に基づいて、画像DB12から画像データを取得する。そして、検索結果出力部15は、類似度DB14から取得した判定結果に対応する画像データを画像DB12から取得する。検索結果出力部15は、画像DB12から取得した画像データを用いて、出力装置150で処理できる形式の出力データ(検索結果とも呼ぶ)を生成する。なお、検索結果出力部15は、判定結果に対応する画像データのメタデータを出力データに含めてもよい。検索結果出力部15は、生成した出力データの集合である出力データ群151を出力装置150に出力する。
The search
出力装置150は、検索結果出力部15に接続される。出力装置150には、検索結果出力部15から出力データ群151が入力される。出力装置150は、検索装置10の検索結果をユーザに提示するための装置である。例えば、出力装置150は、ディスプレイを有する表示装置によって実現される。出力装置150が表示装置によって実現される場合、出力装置150は、検索装置10の検索結果を自装置のモニタに表示する。また、例えば、出力装置150は、プリンターによって実現される。出力装置150がプリンターによって実現される場合、出力装置150は、検索装置10の検索結果を紙に印刷する。なお、検索装置10の検索結果の出力方法は、ユーザがその検索結果を確認できさえすれば、その形態には特に限定を加えない。
The
以上が、本実施形態の検索装置10の構成についての説明である。なお、図1の検索装置10の構成は一例であって、本実施形態の検索装置10の構成をそのままの形態に限定するものではない。
The above is the description of the configuration of the
〔判定結果〕
次に、類似度DB14に格納される判定結果について一例を挙げて説明する。図2は、類似度DB14に格納される判定結果の一例の判定結果テーブル140である。判定結果テーブル140には、一例として、n個の選択対象の画像データ(画像1〜n)に関する判定結果が格納される。
〔judgment result〕
Next, the determination result stored in the
判定結果テーブル140において、ターゲット画像111、補助画像群112(補助画像1、補助画像2、補助画像3)の各列は、ターゲット画像111および補助画像群112と、各画像データとの一致度の計算結果である。
In the determination result table 140, each column of the
判定結果テーブル140において、時刻情報の列は、選択対象の画像データのメタデータに含まれる当該画像データの撮影時刻に関する情報を示す。なお、判定結果テーブル140において、T1、T1’、およびT1’’はほぼ同じ時刻であり、その他の時刻は互いに離れているものとする。 In the determination result table 140, the time information column indicates information regarding the shooting time of the image data included in the metadata of the image data to be selected. In the determination result table 140, it is assumed that T1, T1 ′, and T1 ″ are substantially the same time, and the other times are separated from each other.
判定結果テーブル140において、位置情報の各列は、選択対象の画像データのメタデータに含まれる当該画像データの撮影場所(ジオタグ等)に関する情報を示す。判定結果テーブル140において、P1およびP1’はほぼ同じ位置であり、その他の位置は互いに離れているものとする。 In the determination result table 140, each column of the position information indicates information regarding the shooting location (geotag, etc.) of the image data included in the metadata of the image data to be selected. In the determination result table 140, it is assumed that P1 and P1'are substantially the same position, and the other positions are separated from each other.
判定結果テーブル140において、類似度判定の列は、一致度やメタデータに基づいて、検索対象人物が各画像に写っているかどうかの判定結果を示す。類似度判定は、検索対象人物がその画像データに写っている確度を示す。判定結果テーブル140には、判定結果を「高」、「中」、「低」の3段階で判定する例を示す。 In the determination result table 140, the similarity determination column indicates the determination result of whether or not the person to be searched is included in each image based on the degree of agreement and the metadata. The similarity determination indicates the probability that the person to be searched appears in the image data. The determination result table 140 shows an example in which the determination result is determined in three stages of “high”, “medium”, and “low”.
画像1については、判定結果テーブル140を参照すると、ターゲット画像111との一致度が90%(パーセント)である。画像1に関しては、検索対象人物が写っている可能性が高いと判定され、類似度判定は「高」に設定される。
Regarding the
画像2については、判定結果テーブル140を参照すると、ターゲット画像111との一致度が70%である。画像2に関しては、一致度は70%と比較的高いが、画像1の撮影時刻T1と画像2の撮影時刻T1’がほぼ同時刻でありながら撮影場所が異なるため、検索対象人物が写っている可能性が低いと判定され、類似度判定は「低」に設定される。
Regarding the
画像3については、判定結果テーブル140を参照すると、ターゲット画像111との類似度が50%である。画像3は、一致度は50%と低いが、画像1とほぼ同時刻にほぼ同じ位置に撮像されている。また、補助画像1〜3との類似度が高い人物が同時に写っている。例えば、小学生の遠足において撮影された画像の場合、検索対象である子供の班が当該時刻に当該位置で活動していれば、同じ画像に一緒に写っている可能性が高い。そのような理由により、画像3に関しては、当該画像データの類似度判定は「中」に設定されている。
Regarding the image 3, referring to the determination result table 140, the similarity with the
画像nについては、判定結果テーブル140を参照すると、補助画像2〜3との一致度が低いが、時刻と位置が共に画像1〜3などとは離れていることから別の場面で撮影されたものと判断される。そのため、画像nに関しては、補助画像との一致度は類似度判定に影響を与えず、ターゲット画像との一致度が80%と高いことから類似度判定は「高」に設定されている。
Regarding the image n, referring to the determination result table 140, the degree of coincidence with the
検索結果出力部15は、類似度DB14に格納された類似度判定を参照し、類似度判定が「高」と「中」の画像データを画像DB12から取り出す。検索結果出力部15は、画像DB12から取り出した画像データを用いて、出力装置150のモニタに表示可能な出力データを生成する。検索結果出力部15は、生成した出力データを出力装置150に出力する。
The search
例えば、検索結果出力部15は、類似度判定が「高」と「中」の画像のそれぞれのサムネイルと、そのサムネイルから原寸画像を表示することが可能となるhtml形式の出力データを生成する。なお、サムネイルから参照される原寸画像は、実際の原寸画像ではなく、ユーザが判断することができる拡大画像であればよい。
For example, the search
出力装置150は、検索結果出力部15から出力データを取得する。出力装置150は、検索装置10の検索結果を自装置のモニタに表示する。例えば、出力装置150は、類似度判定が「高」と「中」の画像とを異なる表示領域に表示する。出力装置150のモニタを見たユーザは、類似度判定に応じて画像を確認することができるので、選択対象となる全ての画像を確認する負担から解放される。なお、類似度判定の区分を「高」と「中」とに細分化すると、類似度判定が「高」の画像と「中」の画像とを区別することにユーザが新たな負担を感じる可能性もある。そのため、ユーザに確認させる画像の類似度判定は、「高」と「中」の2段階に設定せずに、1段階に設定してもよい。その一方で、類似度判定の区分をより詳細に細分化した方がよい場面もあり得る。その場合は、類似度判定の分類分けをより詳細に設定すればよい。すなわち、類似度判定の区分は、用途に応じて適切な分類に調整可能である。
The
図3および図4は、類似度判定に応じて、検索された画像データを選択させるユーザインタフェース155(第1のユーザインタフェースとも呼ぶ)を出力装置150のモニタに表示させる例である。図3および図4には、類似度判定が「高」の画像データ群と、「中」の画像データ群とに分けて、購入希望の画像データをユーザに選択させるユーザインタフェース155をモニタに表示させる例を示す。
3 and 4 are examples in which a user interface 155 (also referred to as a first user interface) for selecting the searched image data according to the similarity determination is displayed on the monitor of the
図3のユーザインタフェース155には、一例として、類似度判定が「高」の画像データを拡大表示させる。図3においては、一例として、類似度判定が「高」の画像データが7枚選択されており、類似度判定が「中」の画像データは選択されていないものとする。画像データを1枚100円で購入できる場合、選択されている画像の総枚数は7なので、購入金額は700円と表示される。
As an example, the
図4のユーザインタフェース155には、一例として、類似度判定が「中」の画像データを拡大表示させる。図4においては、一例として、類似度判定が「中」の画像データが3枚選択されており、類似度判定が「高」の画像データが既に7枚選択されているものとする。画像データを1枚100円で購入できる場合、選択されている画像の総枚数は10枚なので、購入金額は1000円と表示される。
As an example, the
以上の図2〜図4には、全ての画像データに対して、「高」、「中」、「低」の3段階の類似度判定を類似度DB14に格納する例を示した。しかし、類似度判定は、段階的な判定ではなく、パーセンテージなどによって細分化してもよい。類似度判定を細分化すれば、検索精度をより細かく設定できる。
FIGS. 2 to 4 above show an example in which the similarity determination of three stages of “high”, “medium”, and “low” is stored in the
例えば、検索装置10は、ユーザが操作する端末装置にローカルなシステムとして構成できる。また、一例として、ターゲット画像111と補助画像群112の入力や、検索結果の表示は、ユーザが操作するパーソナルコンピュータやスマートフォンなどの端末装置で行うように構成できる。また、検索装置10は、ユーザが操作する端末装置にインターネットを介して接続されたコンピュータ資源に構成してもよい。
For example, the
(動作)
次に、本実施形態の検索装置10の動作について図面を参照しながら説明する。図5は、検索装置10の動作について説明するためのフローチャートである。図5のフローチャートに沿った説明においては、検索装置10を動作の主体とする。
(motion)
Next, the operation of the
図5において、まず、検索装置10は、入力装置110から入力されたターゲット画像111および補助画像群112を取得する(ステップS11)。
In FIG. 5, first, the
次に、検索装置10は、選択対象の画像データを画像DB12から取り出す(ステップS12)。なお、複数の画像データをまとめて処理する場合は、複数の画像データを一括して画像DB12から取り出してもよい。
Next, the
次に、検索装置10は、画像DB12から取り出した画像データから顔を検出する(ステップS13)。なお、複数の選択対象をまとめて処理する場合は、画像DB12から取り出した複数の画像データから一括して顔を検出するようにしてもよい。
Next, the
次に、検索装置10は、選択対象の画像データから検出した顔と、ターゲット画像111および補助画像群112との一致度を計算する(ステップS14)。なお、複数の画像をまとめて処理する場合は、複数の画像データから検出した顔と、ターゲット画像111および補助画像群112との一致度を一括して計算するようにしてもよい。
Next, the
次に、検索装置10は、算出した一致度と、画像DB12に格納された当該画像データのメタデータとを用いて、当該画像データに検索対象人物が写っているかどうか判定する(ステップS15)。なお、選択対象の画像データに検索対象人物が写っているかどうかの判定において、当該画像データのメタデータを用いない場合、検索装置10は、算出した一致度を用いて判定する。
Next, the
次に、検索装置10は、選択対象の画像データに検索対象人物が写っているかどうかの判定結果を類似度DB14に格納する(ステップS16)。
Next, the
検索対象の画像データが残っている場合(ステップS17でYes)、ステップS13に戻る。一方、選択対象の画像データが残っていない場合(ステップS17でNo)、類似度DB14に格納された判定結果に基づいて、画像DB12から画像データを取得する(ステップS18)。そして、検索装置10は、画像DB12から取得した画像データを用いて出力データを生成し、生成した出力データを出力装置150に出力する(ステップS19)。
If the image data to be searched remains (Yes in step S17), the process returns to step S13. On the other hand, when the image data to be selected does not remain (No in step S17), the image data is acquired from the
以上が、図5のフローチャートに沿った検索装置10の動作についての説明である。なお、図5のフローチャートに沿った検索装置10の動作は一例であって、本実施形態の検索装置10の動作をそのままの手順に限定するものではない。
The above is a description of the operation of the
以上のように、本実施形態の検索装置は、第1のデータベース、顔認識部、類似度計算部、第2のデータベース、および検索結果出力部を備える。 As described above, the search device of the present embodiment includes a first database, a face recognition unit, a similarity calculation unit, a second database, and a search result output unit.
第1のデータベースには、少なくとも一つの選択対象の画像データが格納される。顔認識部は、第1のデータベースに格納された選択対象の画像データから顔を検出する。顔認識部は、検索対象人物を示すターゲット画像と、検索対象人物の検索を補助する少なくとも一つの補助画像を含む補助画像群とが指定された際に、選択対象の画像データから検出された顔がターゲット画像および補助画像群に含まれるかを評価する。類似度計算部は、顔認識部による評価結果を用いて検索対象人物が画像データに写っているかを判定する。第2のデータベースには、類似度計算部による判定結果が格納される。検索結果出力部は、第2のデータベースに格納された判定結果に基づいて、検索対象人物が写っていると判定された画像データを第1のデータベースから取得し、取得した画像データを含む出力データを生成して出力する。 At least one image data to be selected is stored in the first database. The face recognition unit detects a face from the image data to be selected stored in the first database. The face recognition unit detects a face from the image data to be selected when a target image indicating the search target person and an auxiliary image group including at least one auxiliary image that assists the search of the search target person are specified. Is included in the target image and the auxiliary image group. The similarity calculation unit determines whether or not the person to be searched is included in the image data by using the evaluation result by the face recognition unit. The second database stores the determination result by the similarity calculation unit. The search result output unit acquires image data determined to indicate the person to be searched from the first database based on the determination result stored in the second database, and outputs data including the acquired image data. Is generated and output.
本実施形態の一態様として、顔認識部には、検索対象人物の関連人物を示す画像が補助画像として入力される。 As one aspect of the present embodiment, an image showing a related person of the search target person is input to the face recognition unit as an auxiliary image.
本実施形態の一態様として、顔認識部は、画像データから検出した顔と、ターゲット画像および補助画像群に含まれる人物の顔との一致度を計算する。類似度計算部は、ターゲット画像および補助画像群について算出された一致度に基づいて、検索対象人物が画像データに写っているか否かを判定する。 As one aspect of the present embodiment, the face recognition unit calculates the degree of coincidence between the face detected from the image data and the face of a person included in the target image and the auxiliary image group. The similarity calculation unit determines whether or not the search target person is included in the image data based on the matching degree calculated for the target image and the auxiliary image group.
本実施形態の一態様として、第1のデータベースには、選択対象の画像データのメタデータが格納される。類似度計算部は、選択対象の画像データのメタデータを第1のデータベースから取得する。類似度計算部は、取得した選択対象の画像データのメタデータと、ターゲット画像および補助画像群について算出された一致度とに基づいて検索対象人物が画像データに写っているかを判定する。 As one aspect of the present embodiment, the metadata of the image data to be selected is stored in the first database. The similarity calculation unit acquires the metadata of the image data to be selected from the first database. The similarity calculation unit determines whether or not the person to be searched is included in the image data based on the acquired metadata of the image data to be selected and the degree of matching calculated for the target image and the auxiliary image group.
本実施形態の一態様として、類似度計算部は、選択対象の画像データのメタデータと、ターゲット画像および補助画像群について算出された一致度とに基づいて、検索対象人物が写っている確度を示す類似度判定を画像データに付与する。 As one aspect of the present embodiment, the similarity calculation unit determines the probability that the person to be searched is captured based on the metadata of the image data to be selected and the degree of matching calculated for the target image and the auxiliary image group. The indicated similarity determination is given to the image data.
本実施形態の一態様として、検索結果出力部は、モニタを有する出力装置に接続される。検索結果出力部は、出力データを出力装置に出力する。出力装置は、出力データに含まれる画像データを選択させるための第1のユーザインタフェースをモニタに表示させる。 As one aspect of the present embodiment, the search result output unit is connected to an output device having a monitor. The search result output unit outputs the output data to the output device. The output device causes the monitor to display a first user interface for selecting image data included in the output data.
本実施形態の検索装置には、検索対象人物を示す画像であるターゲット画像と、ターゲット画像の検索を補助する少なくとも一人の人物画像である補助画像を含む補助画像群とが入力される。例えば、検索装置には、ユーザの子供の顔画像がターゲット画像として入力され、その子供の友人の顔画像が補助画像として入力される。本実施形態の検索装置は、ターゲット画像および補助画像群が入力されると、第1のデータベースに格納された検索対象の画像データに対して顔認識を実行する。本実施形態の検索装置は、顔認識の評価結果と、検索対象画像の画像データのメタデータとを用いて、その画像データに検索対象人物が写っているか否かを類似度評価に基づいて判定する。 In the search device of the present embodiment, a target image which is an image showing a person to be searched and an auxiliary image group including an auxiliary image which is at least one person image which assists the search of the target image are input. For example, the face image of the user's child is input to the search device as the target image, and the face image of the child's friend is input as the auxiliary image. When the target image and the auxiliary image group are input, the search device of the present embodiment performs face recognition on the image data to be searched stored in the first database. The search device of the present embodiment uses the evaluation result of face recognition and the metadata of the image data of the search target image to determine whether or not the search target person appears in the image data based on the similarity evaluation. To do.
例えば、子供の遠足写真の販売をWebベースのシステムで行うようなケースでは、検索対象人物である子供は、親しい友人や班のメンバーなどの関連人物と一緒に撮影される可能性が高い。本実施形態によれば、検索対象人物が写っているのに顔認識の一致度が低い画像データに関しても、関連人物の顔認識の一致度に基づいて、検索対象人物が写っているか否かを検証できる。 For example, in a case where a child's excursion photo is sold by a Web-based system, the child to be searched is likely to be photographed together with a related person such as a close friend or a member of a group. According to the present embodiment, even for image data in which the search target person is shown but the face recognition match degree is low, whether or not the search target person is shown is based on the face recognition match degree of the related person. Can be verified.
また、本実施形態によれば、画像データのメタ情報(時刻情報や位置情報)を含めて、検索対象人物がその画像データに写っているか検証することができる。例えば、同時刻に異なる場所で撮影された複数の画像データに検索対象人物が写っていることはない。そのため、同時刻に異なる場所で撮影された複数の画像データのうちいずれかを検索結果から外すことができる。 Further, according to the present embodiment, it is possible to verify whether or not the person to be searched is included in the image data, including the meta information (time information and position information) of the image data. For example, a person to be searched does not appear in a plurality of image data taken at different places at the same time. Therefore, any one of a plurality of image data taken at different places at the same time can be excluded from the search results.
本実施形態においては、これらの各評価による判定結果を第2のデータベースに蓄積する。本実施形態によれば、第2のデータベースに蓄積された判定結果に従って、検索対象人物が写っている画像を画像データベースから選別して出力することによって、ユーザが確認する画像を選定することができる。 In the present embodiment, the determination results of each of these evaluations are stored in the second database. According to the present embodiment, an image to be confirmed by the user can be selected by selecting and outputting an image showing the person to be searched from the image database according to the determination result accumulated in the second database. ..
本実施形態の検索装置は、多数の画像データから検索対象人物が写っている画像データを抽出する際に、その検索対象人物の関連人物の存在有無を示す判定結果や、時刻情報や位置情報などのメタデータを併用する。そのため、本実施形態の検索装置によれば、検索対象人物の顔認識だけを用いる検索よりも検索精度を高めることができる。 When the search device of the present embodiment extracts image data in which a search target person appears from a large number of image data, a determination result indicating the existence or nonexistence of a related person of the search target person, time information, position information, etc. Use the metadata of. Therefore, according to the search device of the present embodiment, the search accuracy can be improved as compared with the search using only the face recognition of the search target person.
例えば、ユーザの子供が参加した学校行事で撮影された画像を購入する際に、子供の顔が正面を向いていない画像であっても、そのユーザにとってはその画像を購入したいという親心があるものである。本実施形態では、検索対象人物の顔画像認識結果だけではなく、その検索対象人物と行動を共にしている可能性の高い関連人物の検索結果や、行動履歴(時刻情報や位置情報)を併せて参照する。そのため、本実施形態によれば、検索対象人物の写っている画像を見落とす可能性を高精度で排除し、より精度の高い検索結果を与えることが可能である。 For example, when purchasing an image taken at a school event in which a user's child participates, even if the child's face is not facing the front, the user has an intimacy to purchase the image. Is. In the present embodiment, not only the face image recognition result of the search target person but also the search result of the related person who is likely to be acting with the search target person and the action history (time information and position information) are combined. Refer to. Therefore, according to the present embodiment, it is possible to eliminate the possibility of overlooking the image of the person to be searched with high accuracy and to give a search result with higher accuracy.
また、プライバシー保護規制が厳しくなりつつある社会情勢から、ソーシャルネットワークサービスや共有カレンダーアプリなどの外部システムを用いる社会的人間関係図(ソーシャルグラフ)を利用して検索精度を向上させることには限界がある。本実施形態によれば、外部システムとの連携を必要とせず、閉じた環境で人間関係の検索精度を向上することができるので、プライバシー保護の観点において安全である。 In addition, due to the social situation where privacy protection regulations are becoming stricter, there is a limit to improving search accuracy by using social relationships diagrams (social graphs) that use external systems such as social network services and shared calendar apps. is there. According to this embodiment, it is safe from the viewpoint of privacy protection because the search accuracy of human relations can be improved in a closed environment without the need for cooperation with an external system.
すなわち、本実施形態の検索装置によれば、外部システムと連携せずに、人間関係に基づいて、安全かつ高精度で特定人物を検索できる。 That is, according to the search device of the present embodiment, it is possible to search for a specific person safely and with high accuracy based on human relationships without coordinating with an external system.
(第2の実施形態)
次に、本発明の第2の実施形態に係る検索装置について図面を参照しながら説明する。本実施形態は、画像DBに格納された画像データの中からターゲット画像や補助画像の候補の画像(候補画像とも呼ぶ)を生成し、生成した候補画像をユーザに提案する点で第1の実施形態とは異なる。
(Second embodiment)
Next, the search device according to the second embodiment of the present invention will be described with reference to the drawings. The first embodiment is the first embodiment in that a candidate image (also referred to as a candidate image) of a target image or an auxiliary image is generated from the image data stored in the image DB, and the generated candidate image is proposed to the user. It is different from the form.
図6は、本実施形態の検索装置20の構成の一例を示すブロック図である。図6のように、検索装置20は、顔認識部21、画像DB22、類似度計算部23、類似度DB24、検索結果出力部25、および候補画像提案部26を備える。検索装置20は、入力装置210と出力装置250に接続される。
FIG. 6 is a block diagram showing an example of the configuration of the
検索装置20は、画像DB22に格納された少なくとも一つの選択対象の画像データから顔を検出する。検索装置20は、ターゲット画像や補助画像の候補画像として、検出した顔を含む画像を入力装置210に出力する。ユーザは、入力装置210に表示された候補画像の中からターゲット画像や補助画像を選択し、選択したターゲット画像や補助画像を指定する。検索装置20は、入力装置210を介してユーザに指定されたターゲット画像211および補助画像群212を用いて、画像DB22に格納された画像データの中から検索対象人物が写っている画像データを検索する。検索装置20は、検索した画像データを含む出力データを生成し、生成した出力データの集合である出力データ群251を出力装置250に出力する。
The
入力装置210は、顔認識部21および候補画像提案部26に接続される。入力装置210には、ターゲット画像や補助画像の候補画像が候補画像提案部26から入力される。入力装置210は、入力された候補画像の中からターゲット画像211や補助画像を選択するためのユーザインタフェースをモニタに表示させる。入力装置210は、ユーザインタフェースを介して選択された候補画像をターゲット画像211または補助画像群212に指定する。このとき、入力装置210は、いずれの候補画像がターゲット画像211または補助画像群212に指定されたのかを示す情報を検索装置20に出力する。また、入力装置210が、ターゲット画像211および補助画像群212に指定された画像データを検索装置20に出力するようにしてもよい。
The
図7は、入力装置210のモニタに候補画像をユーザに提示するためのユーザインタフェース215(第2のユーザインタフェースとも呼ぶ)の一例を示す概念図である。図7のユーザインタフェース215には、複数の候補画像が表示される。ユーザインタフェース215には、各候補画像に対応付けて、ターゲット画像か補助画像を選択するためのチェックボックスが表示される。
FIG. 7 is a conceptual diagram showing an example of a user interface 215 (also referred to as a second user interface) for presenting a candidate image to the user on the monitor of the
図8は、図7のユーザインタフェース215を確認したユーザがターゲット画像や補助画像を選択した後の状態の一例である。図8では、一例として、No.2の候補画像がターゲット画像211として選択され、No.1、3、7の候補画像が補助画像として選択される。入力装置210は、ユーザインタフェース215において選択された候補画像を、ターゲット画像211または補助画像群212を構成する補助画像として指定する。
FIG. 8 is an example of a state after the user who has confirmed the
候補画像提案部26は、選択対象の画像データから検出した顔を含む画像を顔認識部21から取得する。候補画像提案部26は、取得した画像を用いて検索対象画像および補助画像の候補画像を生成する。候補画像提案部26は、生成した候補画像を入力装置210に出力する。
The candidate
顔認識部21は、入力装置210に接続される。また、顔認識部21は、画像DB22類似度計算部23、および候補画像提案部26に接続される。
The
顔認識部21は、画像DB22に格納された少なくとも一つの選択対象の画像データを取得し、取得した画像データから顔を検出する。顔認識部21は、選択対象の画像データから検出した顔を含む画像を候補画像提案部26に出力する。顔認識部21は、選択対象の画像データから検出した顔を含む画像を画像DB22に格納しておいてもよいし、一旦消去してもよい。
The
また、顔認識部21には、いずれの候補画像がターゲット画像211および補助画像群212に指定されたのかを示す情報が入力装置210から入力される。ターゲット画像211および補助画像群212の指定を受けると、顔認識部21は、選択対象の画像データから検出された顔と、ターゲット画像211および補助画像群212との一致度の計算を行う。顔認識部21は、選択対象の画像データから検出された顔と、ターゲット画像211および補助画像群212との一致度の計算結果(評価結果とも呼ぶ)を類似度計算部23に出力する。
Further, information indicating which candidate image is designated as the
画像DB22(第1のデータベースとも呼ぶ)は、顔認識部21、類似度計算部23、および検索結果出力部25に接続される。画像DB22は、選択対象の画像データが格納されたデータベースである。
The image DB 22 (also referred to as a first database) is connected to the
類似度計算部23は、顔認識部21、画像DB22、および類似度DB24に接続される。類似度計算部23は、顔認識部21から顔認識の評価結果を取得する。類似度計算部23は、顔認識の評価結果を取得すると、画像DB22に格納された当該画像データのメタデータを用いて、当該画像データに検索対象人物が写っているかどうか判定する。類似度計算部23は、類似度DB24に判定結果を格納する。
The
類似度DB24(第2のデータベースとも呼ぶ)は、類似度計算部23および検索結果出力部25に接続される。類似度DB24は、類似度計算部23による類似度の判定結果が格納されるデータベースである。
The similarity DB 24 (also referred to as a second database) is connected to the
検索結果出力部25は、画像DB22および類似度DB24に接続される。検索結果出力部25は、類似度計算部23による判定結果を類似度DB24から取得する。検索結果出力部25は、類似度DB24から取得した判定結果に基づいて、画像DB22から画像データを取得する。そして、検索結果出力部25は、類似度DB24から取得した判定結果に対応する画像データを画像DB22から取得する。検索結果出力部25は、画像DB22から取得した画像データを用いて、出力装置230で処理できる形式の出力データ(検索結果とも呼ぶ)を生成する。なお、検索結果出力部25は、判定結果に対応する画像データのメタデータを出力データに含めてもよい。検索結果出力部25は、生成した出力データの集合である出力データ群231を出力装置230に出力する。
The search
出力装置230は、検索結果出力部25に接続される。出力装置230には、検索結果出力部25から出力データ群231が入力される。出力装置230は、検索装置20の検索結果をユーザに提示するための装置である。なお、検索装置20の検索結果の出力方法は、ユーザがその検索結果を確認できさえすれば、その形態には特に限定を加えない。
The output device 230 is connected to the search
以上が、本実施形態の検索装置20の構成についての説明である。なお、図6の検索装置20の構成は一例であって、本実施形態の検索装置20の構成をそのままの形態に限定するものではない。
The above is the description of the configuration of the
(動作)
次に、本実施形態の検索装置20の動作について図面を参照しながら説明する。図9は、検索装置20の動作について説明するためのフローチャートである。図9のフローチャートに沿った説明においては、検索装置20を動作の主体とする。
(motion)
Next, the operation of the
図9において、まず、検索装置20は、画像DB22に格納された選択対象の画像データから候補画像を生成する(ステップS21)。
In FIG. 9, first, the
次に、検索装置20は、生成した候補画像を入力装置210に出力する(ステップS22)。
Next, the
次に、検索装置20は、いずれの候補画像がターゲット画像211および補助画像群212に指定されたのかを示す情報を入力装置210から取得する(ステップS23)。
Next, the
次に、検索装置20は、選択対象の画像データから検出した顔と、ターゲット画像111および補助画像群112との一致度を計算する(ステップS24)。
Next, the
次に、検索装置20は、算出した一致度と、画像DB22に格納された当該画像データのメタデータとを用いて、当該画像データに検索対象人物が写っているかどうか判定する(ステップS25)。なお、選択対象の画像データに検索対象人物が写っているかどうかの判定において、当該画像データのメタデータを用いない場合、検索装置20は、算出した一致度を用いて判定する。
Next, the
次に、検索装置20は、選択対象の画像データに検索対象人物が写っているかどうかの判定結果を類似度DB14に格納する(ステップS26)。
Next, the
検索対象となる画像データが残っている場合(ステップS27でYes)、ステップS24に戻る。一方、選択対象となる画像データが残っていない場合(ステップS27でNo)、類似度DB24に格納された判定結果に基づいて、画像DB22から画像データを取得する(ステップS28)。そして、検索装置20は、画像DB22から取得した画像データを用いて出力データを生成し、生成した出力データを出力装置230に出力する(ステップS29)。
If the image data to be searched remains (Yes in step S27), the process returns to step S24. On the other hand, when the image data to be selected does not remain (No in step S27), the image data is acquired from the
以上が、図9のフローチャートに沿った検索装置20の動作についての説明である。なお、図9のフローチャートに沿った検索装置20の動作は一例であって、本実施形態の検索装置20の動作をそのままの手順に限定するものではない。
The above is a description of the operation of the
以上のように、本実施形態の検索装置は、第1のデータベース、顔認識部、類似度計算部、第2のデータベース、および検索結果出力部に加えて、候補画像提案部を備える。 As described above, the search device of the present embodiment includes a candidate image proposal unit in addition to the first database, the face recognition unit, the similarity calculation unit, the second database, and the search result output unit.
顔認識部は、第1のデータベースに格納された少なくとも一つの画像データを取得し、取得した画像データから顔を検出し、検出された顔を含む画像データを候補画像提案部に出力する。候補画像提案部は、顔認識部によって検出される顔を含む画像を用いてターゲット画像および補助画像の候補画像を生成し、生成した候補画像を出力する。 The face recognition unit acquires at least one image data stored in the first database, detects a face from the acquired image data, and outputs image data including the detected face to the candidate image proposal unit. The candidate image proposal unit generates a candidate image of a target image and an auxiliary image using an image including a face detected by the face recognition unit, and outputs the generated candidate image.
本実施形態の一形態として、候補画像提案部は、モニタを有する入力装置に接続され、候補画像を入力装置に出力する。入力装置は、候補画像の中からターゲット画像および補助画像を選択させるための第2のユーザインタフェースをモニタに表示させる。入力装置は、第2のユーザインタフェースを介して選択された候補画像のそれぞれをターゲット画像および補助画像のいずれかに指定し、指定されたターゲット画像および補助画像に関する情報を顔認識部に出力する。 As one embodiment of the present embodiment, the candidate image proposal unit is connected to an input device having a monitor and outputs the candidate image to the input device. The input device causes the monitor to display a second user interface for selecting a target image and an auxiliary image from the candidate images. The input device designates each of the candidate images selected via the second user interface as either the target image or the auxiliary image, and outputs information about the designated target image and the auxiliary image to the face recognition unit.
一般に、ユーザの子供の画像データは手元にあるが、補助画像とするべき友達の適切な画像データが手元にないというケースは多い。本実施形態では、第1のデータベースに格納された選択対象の画像データから検出された顔画像を用いて生成された候補画像をユーザに提示し、それぞれの候補画像の中からターゲット画像と補助画像をユーザに選択させる。その結果、ユーザは、手元にない補助画像を調達する手間が省ける。 In general, the image data of the user's child is at hand, but there are many cases where the appropriate image data of the friend who should be the auxiliary image is not at hand. In the present embodiment, a candidate image generated by using the face image detected from the image data to be selected stored in the first database is presented to the user, and the target image and the auxiliary image are presented from the respective candidate images. Let the user select. As a result, the user can save the trouble of procuring an auxiliary image that is not at hand.
例えば、本実施形態の検索装置は、別人物と想定される複数の人物画像を第1のデータベースから取り出し、それらの人物画像のサムネイルや原寸画像をリンク形式としてhtml形式のデータで出力・表示する。ユーザは、モニタに表示された画像を見て、検索対象人物やその関連人物の写真をクリックやタップして選択する。この際、対象人物が多数である場合は、複数のページに分けて候補画像を表示する。例えば、類似度計算によって関係が深いと判断される人物画像を優先的に表示させれば、ユーザの操作負担を軽減することも可能である。 For example, the search device of the present embodiment extracts a plurality of person images assumed to be different persons from the first database, and outputs / displays thumbnails and full-scale images of those person images as link format data in html format. .. The user looks at the image displayed on the monitor and clicks or taps the picture of the person to be searched or its related person to select it. At this time, if the number of target persons is large, the candidate images are displayed on a plurality of pages. For example, it is possible to reduce the operational burden on the user by preferentially displaying a person image that is determined to be closely related by the similarity calculation.
本発明の各実施形態の手法は、遠足、学芸会などの学校イベントで撮影された写真をWebベースシステムで販売する場合のように、比較的閉じた人間関係であるが、検索対象が多人数に及ぶ人物画像検索の際に効果的である。 The method of each embodiment of the present invention is a relatively closed human relationship as in the case of selling a photograph taken at a school event such as an excursion or a school event on a Web-based system, but a large number of people are searched. It is effective when searching for human images.
例えば、目的としていない人物が写りこんだ多数の画像データを1枚ずつ参照しながら、特定人物が写っている目的画像を検索するのには大変な労力が発生する。顔認識技術を用いれば、全ての画像データを1枚ずつ参照しながら目的画像を検索するのと比較して労力を省くことができる。しかしながら、現状の顔認識技術の検出精度では、特定人物が横や斜めを向いている場合などには、目的画像を精度よく検出できない。 For example, it takes a lot of labor to search for a target image in which a specific person is captured while referring to a large number of image data in which a non-target person is captured one by one. If the face recognition technique is used, labor can be saved as compared with searching for a target image while referring to all the image data one by one. However, with the detection accuracy of the current face recognition technology, it is not possible to accurately detect the target image when a specific person is facing sideways or diagonally.
人間関係や行動履歴が蓄積された大人であれば、ソーシャルネットワークサービスや共有カレンダーアプリなどから抽出される人間関係や行動履歴を用いて目的画像を検索できるため、検索精度を向上させることができる。しかしながら、人間関係や行動履歴が蓄積されていない子供の画像を検索する際には、ソーシャルネットワークサービスや共有カレンダーアプリなどを用いても、目的画像の検索精度が向上するとは限らない。また、プライバシー保護規制が厳しくなる社会情勢から、ソーシャルネットワークサービスや共有カレンダーアプリなどの情報を公に利用することは難しくなりつつある。 Adults who have accumulated human relationships and behavior history can search for target images using human relationships and behavior history extracted from social network services and shared calendar apps, so search accuracy can be improved. However, when searching for images of children for which human relationships and behavior history are not accumulated, the search accuracy of the target image is not always improved even if a social network service or a shared calendar application is used. In addition, due to the social situation where privacy protection regulations are becoming stricter, it is becoming difficult to publicly use information such as social network services and shared calendar applications.
また、本発明の各実施形態の手法によれば、ソーシャルネットワークサービスや共有カレンダーアプリなどの外部システムの情報を用いずに、検索対象人物の顔とともにその検索対象人物の関連人物の顔を用いてターゲット画像を検索することができる。 Further, according to the method of each embodiment of the present invention, the face of the person to be searched and the face of the person related to the person to be searched are used without using the information of the external system such as the social network service or the shared calendar application. You can search for the target image.
すなわち、本実施形態の検索装置によれば、外部システムと連携せずに、人間関係に基づいて、安全かつ高精度で特定人物を検索できる。 That is, according to the search device of the present embodiment, it is possible to search for a specific person safely and with high accuracy based on human relationships without coordinating with an external system.
(ハードウェア)
ここで、本発明の各実施形態に係る検索装置の処理を実行するハードウェア構成について、図10の情報処理装置90を一例として挙げて説明する。なお、図10の情報処理装置90は、各実施形態の検索装置の処理を実行するための構成例であって、本発明の範囲を限定するものではない。
(hardware)
Here, the hardware configuration for executing the processing of the search device according to each embodiment of the present invention will be described by taking the
図10のように、情報処理装置90は、プロセッサ91、主記憶装置92、補助記憶装置93、入出力インターフェース95および通信インターフェース96を備える。図10においては、インターフェースをI/F(Interface)と略して表記する。プロセッサ91、主記憶装置92、補助記憶装置93、入出力インターフェース95および通信インターフェース96は、バス99を介して互いにデータ通信可能に接続される。また、プロセッサ91、主記憶装置92、補助記憶装置93および入出力インターフェース95は、通信インターフェース96を介して、インターネットやイントラネットなどのネットワークに接続される。
As shown in FIG. 10, the
プロセッサ91は、補助記憶装置93等に格納されたプログラムを主記憶装置92に展開し、展開されたプログラムを実行する。本実施形態においては、情報処理装置90にインストールされたソフトウェアプログラムを用いる構成とすればよい。プロセッサ91は、本実施形態に係る検索装置による処理を実行する。
The
主記憶装置92は、プログラムが展開される領域を有する。主記憶装置92は、例えばDRAM(Dynamic Random Access Memory)などの揮発性メモリとすればよい。また、MRAM(Magnetoresistive Random Access Memory)などの不揮発性メモリを主記憶装置92として構成・追加してもよい。
The
補助記憶装置93は、種々のデータを記憶する。補助記憶装置93は、ハードディスクやフラッシュメモリなどのローカルディスクによって構成される。なお、種々のデータを主記憶装置92に記憶させる構成とし、補助記憶装置93を省略することも可能である。
The
入出力インターフェース95は、情報処理装置90と周辺機器とを接続するためのインターフェースである。通信インターフェース96は、規格や仕様に基づいて、インターネットやイントラネットなどのネットワークを通じて、外部のシステムや装置に接続するためのインターフェースである。入出力インターフェース95および通信インターフェース96は、外部機器と接続するインターフェースとして共通化してもよい。
The input /
情報処理装置90には、必要に応じて、キーボードやマウス、タッチパネルなどの入力機器を接続するように構成してもよい。それらの入力機器は、情報や設定の入力に使用される。なお、タッチパネルを入力機器として用いる場合は、表示機器の表示画面が入力機器のインターフェースを兼ねる構成とすればよい。プロセッサ91と入力機器との間のデータ通信は、入出力インターフェース95に仲介させればよい。
The
また、情報処理装置90には、情報を表示するための表示機器を備え付けてもよい。表示機器を備え付ける場合、情報処理装置90には、表示機器の表示を制御するための表示制御装置(図示しない)が備えられていることが好ましい。表示機器は、入出力インターフェース95を介して情報処理装置90に接続すればよい。
Further, the
また、情報処理装置90には、必要に応じて、ディスクドライブを備え付けてもよい。ディスクドライブは、バス99に接続される。ディスクドライブは、プロセッサ91と図示しない記録媒体(プログラム記録媒体)との間で、記録媒体からのデータ・プログラムの読み出し、情報処理装置90の処理結果の記録媒体への書き込みなどを仲介する。記録媒体は、例えば、CD(Compact Disc)やDVD(Digital Versatile Disc)などの光学記録媒体で実現できる。また、記録媒体は、USB(Universal Serial Bus)メモリやSD(Secure Digital)カードなどの半導体記録媒体や、フレキシブルディスクなどの磁気記録媒体、その他の記録媒体によって実現してもよい。
Further, the
以上が、本発明の各実施形態に係る検索装置を可能とするためのハードウェア構成の一例である。なお、図10のハードウェア構成は、各実施形態に係る検索装置の演算処理を実行するためのハードウェア構成の一例であって、本発明の範囲を限定するものではない。また、各実施形態に係る検索装置に関する処理をコンピュータに実行させるプログラムも本発明の範囲に含まれる。さらに、各実施形態に係るプログラムを記録したプログラム記録媒体も本発明の範囲に含まれる。 The above is an example of the hardware configuration for enabling the search device according to each embodiment of the present invention. The hardware configuration of FIG. 10 is an example of a hardware configuration for executing arithmetic processing of the search device according to each embodiment, and does not limit the scope of the present invention. Further, the scope of the present invention also includes a program for causing a computer to execute processing related to the search device according to each embodiment. Further, a program recording medium on which the program according to each embodiment is recorded is also included in the scope of the present invention.
各実施形態の検索装置の構成要素は、任意に組み合わせることができる。また、各実施形態の検索装置の構成要素は、ソフトウェアによって実現してもよいし、回路によって実現してもよい。 The components of the search device of each embodiment can be arbitrarily combined. Further, the components of the search device of each embodiment may be realized by software or by a circuit.
以上、実施形態を参照して本発明を説明してきたが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。 Although the present invention has been described above with reference to the embodiments, the present invention is not limited to the above embodiments. Various changes that can be understood by those skilled in the art can be made to the structure and details of the present invention within the scope of the present invention.
10、20 検索装置
11、21 顔認識部
12、22 画像DB
13、23 類似度計算部
14、24 類似度DB
15、25 検索結果出力部
26 候補画像提案部
110、210 入力装置
150、250 出力装置
10, 20
13, 23
15, 25 Search
Claims (12)
判定対象となる画像データと前記第1画像との類似度と、当該画像データと前記第2画像との類似度とに基づき、当該画像データに前記第1の対象が写っているかを判定する判定手段と、
前記第1の対象が写っている前記画像データを表示するよう出力する出力手段と、
を備える検索装置。 An acquisition means for acquiring a first image showing a first object and a second image showing an object different from the first object.
Judgment to determine whether or not the first object is reflected in the image data based on the degree of similarity between the image data to be determined and the first image and the degree of similarity between the image data and the second image. Means and
An output means for outputting the image data in which the first object is captured, and an output means for displaying the image data.
A search device equipped with.
前記第1の対象の関連人物を示す画像を前記第2画像として取得する
請求項1に記載の検索装置。 The acquisition means
The search device according to claim 1, wherein an image showing a related person of the first target is acquired as the second image.
前記画像データから検出した顔と、前記第1画像および前記第2画像に含まれる人物の顔との一致度を計算し、
前記第1画像および前記第2画像について算出された前記一致度に基づいて、前記第1の対象が前記画像データに写っているか否かを判定する
請求項1または2に記載の検索装置。 The determination means
The degree of coincidence between the face detected from the image data and the face of the person included in the first image and the second image is calculated.
The search device according to claim 1 or 2, wherein it is determined whether or not the first object is reflected in the image data based on the degree of coincidence calculated for the first image and the second image.
前記画像データのメタデータを格納し、
前記判定手段は、
前記メタデータと、前記第1画像および前記第2画像について算出された前記一致度とに基づいて、前記第1の対象が前記画像データに写っているかを判定する
請求項3に記載の検索装置。 The acquisition means
The metadata of the image data is stored,
The determination means
The search device according to claim 3, wherein it is determined whether or not the first object is reflected in the image data based on the metadata and the degree of matching calculated for the first image and the second image. ..
前記メタデータと、前記第1画像および前記第2画像について算出された前記一致度とに基づいて、前記第1の対象が写っている確度を示す類似度判定を前記画像データに付与する
請求項4に記載の検索装置。 The determination means
A claim that imparts a similarity determination indicating the certainty that the first object is captured to the image data based on the metadata and the matching degree calculated for the first image and the second image. The search device according to 4.
前記出力手段は、
前記第1の対象と前記第2画像における被写体とが映る前記画像データを前記出力装置に出力し、
前記出力装置は、
前記第1の対象と前記第2画像における被写体とが映る前記画像データを選択させるための第1のユーザインタフェースを前記モニタに表示させる
請求項5に記載の検索装置。 Connected to an output device with a monitor
The output means
The image data showing the first object and the subject in the second image is output to the output device, and the image data is output to the output device.
The output device is
The search device according to claim 5, wherein a first user interface for selecting the image data in which the first object and the subject in the second image are displayed is displayed on the monitor.
前記判定手段は、
少なくとも一つの前記画像データを前記候補画像提案手段に出力し、
前記候補画像提案手段は、
前記判定手段が出力した前記画像データを用いて前記候補画像を出力する
請求項1乃至6のいずれか一項に記載の検索装置。 A candidate image proposing means for outputting the first image and the candidate image of the second image is provided.
The determination means
Output at least one of the image data to the candidate image proposing means,
The candidate image proposing means is
The search device according to any one of claims 1 to 6, which outputs the candidate image using the image data output by the determination means.
モニタを有する入力装置に接続され、前記候補画像を前記入力装置に出力し、
前記入力装置は、
前記候補画像の中から前記第1画像および前記第2画像を選択させるための第2のユーザインタフェースを前記モニタに表示させ、前記第2のユーザインタフェースを介して選択された前記候補画像のそれぞれを前記第1画像および前記第2画像のいずれかに指定し、指定された前記第1画像および前記第2画像に関する情報を前記判定手段に出力する
請求項7に記載の検索装置。 The candidate image proposing means is
It is connected to an input device having a monitor, and the candidate image is output to the input device.
The input device is
A second user interface for selecting the first image and the second image from the candidate images is displayed on the monitor, and each of the candidate images selected via the second user interface is displayed. The search device according to claim 7, which is designated as either the first image or the second image and outputs information about the designated first image and the second image to the determination means.
請求項1乃至8のいずれか一項に記載の検索装置。 Based on the degree of similarity between the image data and the first image and the degree of similarity between the second image showing the related person of the first object and the image data, the subject and the first in the second image. The search device according to any one of claims 1 to 8, further comprising a classification means for classifying the image data in which the target of the image is displayed into a plurality of levels of priority.
請求項9に記載の検索装置。 The search device according to claim 9, further comprising an output means for outputting the image data in which the first object and the subject are projected so as to be displayed for each priority.
第1の対象を示す第1画像と、前記第1の対象とは異なる対象を示す第2画像とを取得し、
判定対象となる画像データと前記第1画像との類似度と、当該画像データと前記第2画像との類似度とに基づき、当該画像データに前記第1の対象が写っているかを判定し、
前記第1の対象が写っている画像データを表示するよう出力する
検索方法。 A search method performed by a computer
A first image showing the first object and a second image showing an object different from the first object are acquired.
Based on the degree of similarity between the image data to be determined and the first image and the degree of similarity between the image data and the second image, it is determined whether or not the first object is reflected in the image data.
A search method for outputting image data in which the first target is captured.
判定対象となる画像データと前記第1画像との類似度と、当該画像データと前記第2画像との類似度とに基づき、当該画像データに前記第1の対象が写っているかを判定する処理と、
前記第1の対象が写っている画像データを表示するよう出力する処理と
をコンピュータに実行させるプログラム。 A process of acquiring a first image showing a first object and a second image showing an object different from the first object.
A process of determining whether or not the first object is reflected in the image data based on the degree of similarity between the image data to be determined and the first image and the degree of similarity between the image data and the second image. When,
A program that causes a computer to execute a process of outputting image data in which the first object is captured so as to display the image data.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021028604A JP7188478B2 (en) | 2019-12-17 | 2021-02-25 | SEARCH DEVICE, SEARCH METHOD, AND PROGRAM |
JP2022192537A JP7529006B2 (en) | 2019-12-17 | 2022-12-01 | Program, search device, and search method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019227490A JP6844681B2 (en) | 2019-12-17 | 2019-12-17 | Search device, search method, and program |
JP2021028604A JP7188478B2 (en) | 2019-12-17 | 2021-02-25 | SEARCH DEVICE, SEARCH METHOD, AND PROGRAM |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019227490A Division JP6844681B2 (en) | 2019-12-17 | 2019-12-17 | Search device, search method, and program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022192537A Division JP7529006B2 (en) | 2019-12-17 | 2022-12-01 | Program, search device, and search method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021099835A true JP2021099835A (en) | 2021-07-01 |
JP7188478B2 JP7188478B2 (en) | 2022-12-13 |
Family
ID=72263381
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019227490A Active JP6844681B2 (en) | 2019-12-17 | 2019-12-17 | Search device, search method, and program |
JP2021028604A Active JP7188478B2 (en) | 2019-12-17 | 2021-02-25 | SEARCH DEVICE, SEARCH METHOD, AND PROGRAM |
JP2022192537A Active JP7529006B2 (en) | 2019-12-17 | 2022-12-01 | Program, search device, and search method |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019227490A Active JP6844681B2 (en) | 2019-12-17 | 2019-12-17 | Search device, search method, and program |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022192537A Active JP7529006B2 (en) | 2019-12-17 | 2022-12-01 | Program, search device, and search method |
Country Status (1)
Country | Link |
---|---|
JP (3) | JP6844681B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009059042A (en) * | 2007-08-30 | 2009-03-19 | Olympus Imaging Corp | Image handling device, image handling method, and image handling program |
WO2015107640A1 (en) * | 2014-01-15 | 2015-07-23 | 富士通株式会社 | Album creation program, album creation method, and album creation device |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008148053A (en) * | 2006-12-11 | 2008-06-26 | Seiko Epson Corp | Apparatus, server and method for image processing, and control program |
JP2010231744A (en) | 2009-03-30 | 2010-10-14 | Nec Personal Products Co Ltd | Information processing apparatus, program and image data management method |
JP2011128992A (en) | 2009-12-18 | 2011-06-30 | Canon Inc | Information processing apparatus and information processing method |
JP2012150626A (en) | 2011-01-19 | 2012-08-09 | Dainippon Printing Co Ltd | Image output reception terminal, method, and program |
JP2014102715A (en) * | 2012-11-21 | 2014-06-05 | Dainippon Printing Co Ltd | School photo management server, school photo management system, school photo management method, program and recording medium |
JP6570840B2 (en) | 2015-01-29 | 2019-09-04 | Dynabook株式会社 | Electronic apparatus and method |
JP6172551B1 (en) | 2016-06-09 | 2017-08-02 | パナソニックIpマネジメント株式会社 | Image search device, image search system, and image search method |
-
2019
- 2019-12-17 JP JP2019227490A patent/JP6844681B2/en active Active
-
2021
- 2021-02-25 JP JP2021028604A patent/JP7188478B2/en active Active
-
2022
- 2022-12-01 JP JP2022192537A patent/JP7529006B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009059042A (en) * | 2007-08-30 | 2009-03-19 | Olympus Imaging Corp | Image handling device, image handling method, and image handling program |
WO2015107640A1 (en) * | 2014-01-15 | 2015-07-23 | 富士通株式会社 | Album creation program, album creation method, and album creation device |
Also Published As
Publication number | Publication date |
---|---|
JP2020135855A (en) | 2020-08-31 |
JP7188478B2 (en) | 2022-12-13 |
JP2023021176A (en) | 2023-02-09 |
JP7529006B2 (en) | 2024-08-06 |
JP6844681B2 (en) | 2021-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101346539B1 (en) | Organizing digital images by correlating faces | |
JP5386007B2 (en) | Image clustering method | |
EP2894634A1 (en) | Electronic device and image compostition method thereof | |
JP2008165701A (en) | Image processing device, electronics equipment, image processing method, and program | |
JP2006268843A (en) | Electronic album editing system, electronic album editing method, and electronic album editing program | |
JP2010267030A (en) | Apparatus and method for processing information | |
US20200250401A1 (en) | Computer system and computer-readable storage medium | |
KR20220098030A (en) | Method for constructing target motion trajectory, device and computer storage medium | |
JP2024079797A (en) | Image candidate determination device, image candidate determination method, program for controlling image candidate determination device, and storage medium in which the program is stored | |
JP6635208B1 (en) | Search device, search method, and program | |
Bacci et al. | Development of the Wits Face Database: An African database of high-resolution facial photographs and multimodal closed-circuit television (CCTV) recordings | |
US9195312B2 (en) | Information processing apparatus, conference system, and information processing method | |
US20150100577A1 (en) | Image processing apparatus and method, and non-transitory computer readable medium | |
JP7104292B2 (en) | Information processing equipment, information processing method, program | |
JP6410427B2 (en) | Information processing apparatus, information processing method, and program | |
JP7409134B2 (en) | Image processing method, image processing program, and image processing device | |
JP6844681B2 (en) | Search device, search method, and program | |
WO2018000299A1 (en) | Method for assisting acquisition of picture by device | |
JP6499750B2 (en) | Face matching system and face matching method | |
JP6784519B2 (en) | Information processing equipment, its control method, and programs | |
US20180189602A1 (en) | Method of and system for determining and selecting media representing event diversity | |
JP6773144B2 (en) | Content selection device, content selection method, content selection system and program | |
WO2019080257A1 (en) | Electronic device, vehicle accident scene panoramic image display method and storage medium | |
US20240185641A1 (en) | Fingerprint information processing apparatus, fingerprint information processing method, and non-transitory storage medium | |
JP7546881B2 (en) | Video shooting support system, and control method and program for video shooting support system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210225 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20211020 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220325 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220426 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220622 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221101 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221114 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7188478 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |