JP6635208B1 - 検索装置、検索方法、およびプログラム - Google Patents

検索装置、検索方法、およびプログラム Download PDF

Info

Publication number
JP6635208B1
JP6635208B1 JP2019030099A JP2019030099A JP6635208B1 JP 6635208 B1 JP6635208 B1 JP 6635208B1 JP 2019030099 A JP2019030099 A JP 2019030099A JP 2019030099 A JP2019030099 A JP 2019030099A JP 6635208 B1 JP6635208 B1 JP 6635208B1
Authority
JP
Japan
Prior art keywords
image
search
image data
target
auxiliary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019030099A
Other languages
English (en)
Other versions
JP2020135580A (ja
Inventor
山崎 茂雄
茂雄 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2019030099A priority Critical patent/JP6635208B1/ja
Application granted granted Critical
Publication of JP6635208B1 publication Critical patent/JP6635208B1/ja
Priority to US16/789,521 priority patent/US11308151B2/en
Publication of JP2020135580A publication Critical patent/JP2020135580A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/535Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/538Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/50Maintenance of biometric data or enrolment thereof

Abstract

【課題】外部システムと連携せずに、安全かつ高精度で人間関係を検索できる検索装置を提供する。【解決手段】選択対象の画像データが格納される第1のデータベースと、検索対象人物を示すターゲット画像と、検索対象人物の検索を補助する補助画像を含む補助画像群とが指定された際に、第1のデータベースに格納された選択対象の画像データから顔を検出された顔がターゲット画像および補助画像群に含まれるかを評価する顔認識部と、顔認識部による評価結果を用いて検索対象人物が画像データに写っているかを判定する類似度計算部と、類似度計算部による判定結果が格納される第2のデータベースと、第2のデータベースに格納された判定結果に基づいて、検索対象人物が写っていると判定された画像データを第1のデータベースから取得し、取得した画像データを含む検索結果を出力する検索結果出力部と、を備える検索装置とする。【選択図】 図1

Description

本発明は、画像データから特定人物を検索する検索装置、検索方法、およびプログラムに関する。
Webベースのシステムを用いて、多数の人が参加するイベントにおいて撮影された画像を販売する用途がある。そのような用途では、多人数の人物が写っている多数の画像を1枚ずつ順番にユーザが確認し、特定の人物が写っている画像(以下、目的画像と呼ぶ)を選別する作業が必要である。しかしながら、画像の数が多くなると、そのような選別作業には手間が発生する。そのため、多数の画像の中から目的画像を効率的かつ高精度に抽出する方法が求められる。
多数の画像から特定の人物が写っている画像を抽出する際に、目的の人物が写っている画像の候補(以下、候補画像と呼ぶ)を顔認識技術によって自動で抽出できれば、ユーザの手間が省ける。しかしながら、一般的な顔認識技術を用いて候補画像を抽出する際には、目的画像の抽出漏れが発生する可能性がある。例えば、顔認識技術を用いた人物検索では、正面を向いていない顔は、認識精度が低いために検索結果から漏れやすい。また、写真の明るさや影などの影響で、目的の人物を確実に検出できないこともある。そのため、画像だけではなく、画像以外の何らかの情報を用いて人物を特定する技術が求められる。
特許文献1には、画像から得られる視覚的な類似度に加えて、種々のアプリケーション(以下、アプリと呼ぶ)から得られる社会的なつながりを人物の特定のランク付けに用いる方法について開示されている。特許文献1には、通信アプリやSNS(Social Networking Service)アプリ、カレンダーアプリ、共同アプリなどから得られる社会的つながりメトリクスを人物特定のランク付けに用いる例が開示されている。
特許文献2には、人物の顔画像に加えて、生年月日や勤務先、学歴、趣味、特技、サークルなどの属性・分類を用いて人間関係の強度を推測し、コンテンツをシェアすべき人物を評価する方法が開示されている。
特許文献3には、特定対象画像に写った検索対象人物を特定する装置について開示されている。特許文献3の装置は、複数の画像の撮像時刻および撮像場所に基づいてそれらの画像に写った人物の移動パターンを推定し、画像に写った人物の移動パターンと特定対象画像の撮像時間とに基づいて当該人物が存在する蓋然性の高い場所を推定する。そして、特許文献3の装置は、当該人物が存在する蓋然性の高い場所の推定結果に基づいて、特定対象画像の撮像時刻にその撮像場所に存在した蓋然性が高い人物を推定し、撮像画像に写った人物と検索対象人物とを比較することによって検索対象人物を特定する。
特許第5557911号公報 特許第5477017号公報 特許第6139364号公報
特許文献1の方法では、SNSアプリやカレンダーアプリなどのアプリを用いて得られる社会的つながりメトリクスを利用して画像に写った人物の特定を促進するため、そのような外部システムとして構築されるアプリと連携する必要がある。そのため、特許文献1の方法には、外部システムと連携できない環境では、人物の特定を行うことができないという問題点があった。また、特許文献1の方法では、社会的つながりメトリクスといった個人情報を用いて人物を特定するため、プライバシーの観点における安全性が十分ではない。
特許文献2の方法では、人物の属性・分類に関する情報を用いて人間関係の強度を推定するため、事前に登録されている情報が誤っていたり古かったりした場合に、人間関係を精度よく検索できない可能性があるという問題点があった。
特許文献3の方法では、特定対象画像に写った検索対象人物を特定するために、その特定対象画像よりも前に撮影された画像を用いて検索対象人物の候補の人物を抽出する必要がある。そのため、特定対象画像よりも前に撮影された画像に写っている人物が横や斜めを向いていた場合、その人物の移動パターンを推定できなくなり、検索対象人物の候補を精度よく抽出できない可能性があるという問題点があった。
本発明の目的は、上述した課題を解決し、外部システムと連携せずに、人間関係に基づいて、安全かつ高精度で特定人物を検索できる検索装置を提供することにある。
本発明の一態様の検索装置は、少なくとも一つの選択対象の画像データが格納される第1のデータベースと、第1のデータベースに格納された選択対象の画像データから顔を検出し、検索対象人物を示すターゲット画像と、検索対象人物の検索を補助する少なくとも一つの補助画像を含む補助画像群とが指定された際に、選択対象の画像データから検出された顔がターゲット画像および補助画像群に含まれるかを評価する顔認識部と、顔認識部による評価結果を用いて検索対象人物が画像データに写っているかを判定する類似度計算部と、類似度計算部による判定結果が格納される第2のデータベースと、第2のデータベースに格納された判定結果に基づいて、検索対象人物が写っていると判定された画像データを第1のデータベースから取得し、取得した画像データを含む検索結果を出力する検索結果出力部と、を備える。
本発明の一態様の検索方法においては、第1のデータベースに格納された少なくとも一つの選択対象の画像データから顔を検出し、検索対象人物を示すターゲット画像と、検索対象人物の検索を補助する少なくとも一つの補助画像を含む補助画像群とが指定された際に、選択対象の画像データから検出された顔がターゲット画像および補助画像群に含まれるかを評価し、評価結果を用いて検索対象人物が画像データに写っているかを判定し、第2のデータベースに判定結果を格納し、第2のデータベースに格納された判定結果に基づいて、検索対象人物が写っていると判定された画像データを第1のデータベースから取得し、取得した画像データを含む検索結果を出力する。
本発明の一態様のプログラムは、第1のデータベースに格納された少なくとも一つの選択対象の画像データから顔を検出する処理と、検索対象人物を示すターゲット画像と、検索対象人物の検索を補助する少なくとも一つの補助画像を含む補助画像群とが指定された際に、選択対象の画像データから検出された顔がターゲット画像および補助画像群に含まれるかを評価する処理と、評価結果を用いて検索対象人物が画像データに写っているかを判定する処理と、第2のデータベースに判定結果を格納する処理と、第2のデータベースに格納された判定結果に基づいて、検索対象人物が写っていると判定された画像データを第1のデータベースから取得し、取得した画像データを含む検索結果を出力する処理とをコンピュータに実行させる。
本発明によれば、外部システムと連携せずに、人間関係に基づいて、安全かつ高精度で特定人物を検索できる検索装置を提供することが可能になる。
本発明の第1の実施形態に係る検索装置の構成の一例を示すブロック図である。 本発明の第1の実施形態に係る検索装置の類似度DBに格納される検索結果テーブルの一例を示すテーブルである。 本発明の第1の実施形態に係る検索装置の出力データをモニタに表示させる一例を示す概念図である。 本発明の第1の実施形態に係る検索装置の出力データをモニタに表示させる別の一例を示す概念図である。 本発明の第1の実施形態に係る検索装置の動作について説明するためのフローチャートである。 本発明の第2の実施形態に係る検索装置の構成の一例を示すブロック図である。 本発明の第2の実施形態に係る検索装置が出力する候補画像をモニタに表示させる一例を示す概念図である。 本発明の第2の実施形態に係る検索装置が出力する候補画像をモニタに表示させる別の一例を示す概念図である。 本発明の第2の実施形態に係る検索装置の動作について説明するためのフローチャートである。 本発明の各実施形態に係る検索装置を実現するハードウェア構成の一例を示すブロック図である。
以下に、本発明を実施するための形態について図面を用いて説明する。ただし、以下に述べる実施形態には、本発明を実施するために技術的に好ましい限定がされているが、発明の範囲を以下に限定するものではない。なお、以下の実施形態の説明に用いる全図においては、特に理由がない限り、同様箇所には同一符号を付す。また、以下の実施形態において、同様の構成・動作に関しては繰り返しの説明を省略する場合がある。
(第1の実施形態)
まず、本発明の第1の実施形態に係る検索装置について図面を参照しながら説明する。本実施形態の検索装置は、データベース(DB:Database)に格納された画像や類似度を用いて、少なくとも一つの選択対象の画像データの中から検索対象人物が写っている画像データを検索する。
(構成)
図1は、本実施形態の検索装置10の構成の一例を示すブロック図である。図1のように、検索装置10は、顔認識部11、画像DB12、類似度計算部13、類似度DB14、および検索結果出力部15を備える。検索装置10は、入力装置110と出力装置150に接続される。
検索装置10は、入力装置110から入力されるターゲット画像111および補助画像群112を用いて、画像DB12に格納された画像データの中から検索対象人物が写っている画像データを検索する。検索装置10は、検索した画像データを含む出力データ(検索結果とも呼ぶ)を生成し、生成した出力データの集合である出力データ群151を出力装置150に出力する。
入力装置110は、顔認識部11に接続される。入力装置110には、ユーザによって、検索対象人物を示す画像であるターゲット画像111と、ターゲット画像111の検索を補助する少なくとも一つの補助画像の集合である補助画像群112とが入力される。入力装置110は、入力されたターゲット画像111および補助画像群112を顔認識部11に出力する。補助画像は、検索対象人物の関連人物を示す画像である。例えば、入力装置110は、モニタを有する端末装置と、その端末装置に接続されるキーボードやマウス、タッチパネルなどの周辺機器とによって実現される。
顔認識部11は、入力装置110に接続される。また、顔認識部11は、画像DB12および類似度計算部13に接続される。顔認識部11には、入力装置110からターゲット画像111および補助画像群112が入力される。
ターゲット画像111と補助画像群112が入力されると、顔認識部11は、少なくとも一つの選択対象の画像データを画像DB12から順次取り出す。顔認識部11は、画像DB12から取り出したそれぞれの画像データから顔を検出する。顔認識部11は、画像データから検出した顔と、ターゲット画像111および補助画像群112との一致度の計算を行う。顔認識部11は、画像データから検出した顔と、ターゲット画像111および補助画像群112との一致度の計算結果(評価結果とも呼ぶ)を類似度計算部13に出力する。なお、顔検出や顔認識については、一般的な技術を用いればよい。
例えば、ユーザは、入力装置110を用いて、検索対象人物の人物画像をターゲット画像111として入力し、検索を補助する少なくとも一人の人物画像を補助画像として検索装置10に入力する。例えば、学校の遠足の写真を販売するサイトを想定すると、検索装置10には、ユーザの子供の画像がターゲット画像111として入力され、その子供と同じ班で行動を共にした友達の画像が補助画像として入力される。
画像DB12(第1のデータベースとも呼ぶ)は、顔認識部11、類似度計算部13、および検索結果出力部15に接続される。画像DB12は、選択対象の画像データが格納されたデータベースである。例えば、検索装置10が学校の遠足で撮影された写真を販売する用途に用いられる場合、その遠足で撮影された画像の画像データが選択対象の画像データとして画像DB12に蓄積される。
例えば、画像DB12には、選択対象の画像データと、その画像データが撮影されたときの撮影条件(メタデータ)とが関連付けられて格納される。例えば、画像DB12には、Exif(Exchangeable image file format)の形式の画像データが格納される。例えば、選択対象の画像データのメタデータには、その画像データが撮影された撮影日時や、撮影位置の位置情報に相当するGPS(Global Positioning System)情報が含まれる。
類似度計算部13は、顔認識部11、画像DB12、および類似度DB14に接続される。類似度計算部13は、顔認識部11から顔認識の評価結果を取得する。類似度計算部13は、顔認識の評価結果を取得すると、画像DB12に格納された当該画像データのメタデータを用いて、当該画像データに検索対象人物が写っているかどうか判定する。類似度計算部13は、類似度DB14に判定結果を格納する。
類似度DB14(第2のデータベースとも呼ぶ)は、類似度計算部13および検索結果出力部15に接続される。類似度DB14は、類似度計算部13による類似度の判定結果が格納されるデータベースである。
検索結果出力部15は、画像DB12および類似度DB14に接続される。検索結果出力部15は、類似度計算部13による判定結果を類似度DB14から取得する。検索結果出力部15は、類似度DB14から取得した判定結果に基づいて、画像DB12から画像データを取得する。そして、検索結果出力部15は、類似度DB14から取得した判定結果に対応する画像データを画像DB12から取得する。検索結果出力部15は、画像DB12から取得した画像データを用いて、出力装置150で処理できる形式の出力データ(検索結果とも呼ぶ)を生成する。なお、検索結果出力部15は、判定結果に対応する画像データのメタデータを出力データに含めてもよい。検索結果出力部15は、生成した出力データの集合である出力データ群151を出力装置150に出力する。
出力装置150は、検索結果出力部15に接続される。出力装置150には、検索結果出力部15から出力データ群151が入力される。出力装置150は、検索装置10の検索結果をユーザに提示するための装置である。例えば、出力装置150は、ディスプレイを有する表示装置によって実現される。出力装置150が表示装置によって実現される場合、出力装置150は、検索装置10の検索結果を自装置のモニタに表示する。また、例えば、出力装置150は、プリンターによって実現される。出力装置150がプリンターによって実現される場合、出力装置150は、検索装置10の検索結果を紙に印刷する。なお、検索装置10の検索結果の出力方法は、ユーザがその検索結果を確認できさえすれば、その形態には特に限定を加えない。
以上が、本実施形態の検索装置10の構成についての説明である。なお、図1の検索装置10の構成は一例であって、本実施形態の検索装置10の構成をそのままの形態に限定するものではない。
〔判定結果〕
次に、類似度DB14に格納される判定結果について一例を挙げて説明する。図2は、類似度DB14に格納される判定結果の一例の判定結果テーブル140である。判定結果テーブル140には、一例として、n個の選択対象の画像データ(画像1〜n)に関する判定結果が格納される。
判定結果テーブル140において、ターゲット画像111、補助画像群112(補助画像1、補助画像2、補助画像3)の各列は、ターゲット画像111および補助画像群112と、各画像データとの一致度の計算結果である。
判定結果テーブル140において、時刻情報の列は、選択対象の画像データのメタデータに含まれる当該画像データの撮影時刻に関する情報を示す。なお、判定結果テーブル140において、T1、T1’、およびT1’’はほぼ同じ時刻であり、その他の時刻は互いに離れているものとする。
判定結果テーブル140において、位置情報の各列は、選択対象の画像データのメタデータに含まれる当該画像データの撮影場所(ジオタグ等)に関する情報を示す。判定結果テーブル140において、P1およびP1’はほぼ同じ位置であり、その他の位置は互いに離れているものとする。
判定結果テーブル140において、類似度判定の列は、一致度やメタデータに基づいて、検索対象人物が各画像に写っているかどうかの判定結果を示す。類似度判定は、検索対象人物がその画像データに写っている確度を示す。判定結果テーブル140には、判定結果を「高」、「中」、「低」の3段階で判定する例を示す。
画像1については、判定結果テーブル140を参照すると、ターゲット画像111との一致度が90%(パーセント)である。画像1に関しては、検索対象人物が写っている可能性が高いと判定され、類似度判定は「高」に設定される。
画像2については、判定結果テーブル140を参照すると、ターゲット画像111との一致度が70%である。画像2に関しては、一致度は70%と比較的高いが、画像1の撮影時刻T1と画像2の撮影時刻T1’がほぼ同時刻でありながら撮影場所が異なるため、検索対象人物が写っている可能性が低いと判定され、類似度判定は「低」に設定される。
画像3については、判定結果テーブル140を参照すると、ターゲット画像111との類似度が50%である。画像3は、一致度は50%と低いが、画像1とほぼ同時刻にほぼ同じ位置に撮像されている。また、補助画像1〜3との類似度が高い人物が同時に写っている。例えば、小学生の遠足において撮影された画像の場合、検索対象である子供の班が当該時刻に当該位置で活動していれば、同じ画像に一緒に写っている可能性が高い。そのような理由により、画像3に関しては、当該画像データの類似度判定は「中」に設定されている。
画像nについては、判定結果テーブル140を参照すると、補助画像2〜3との一致度が低いが、時刻と位置が共に画像1〜3などとは離れていることから別の場面で撮影されたものと判断される。そのため、画像nに関しては、補助画像との一致度は類似度判定に影響を与えず、ターゲット画像との一致度が80%と高いことから類似度判定は「高」に設定されている。
検索結果出力部15は、類似度DB14に格納された類似度判定を参照し、類似度判定が「高」と「中」の画像データを画像DB12から取り出す。検索結果出力部15は、画像DB12から取り出した画像データを用いて、出力装置150のモニタに表示可能な出力データを生成する。検索結果出力部15は、生成した出力データを出力装置150に出力する。
例えば、検索結果出力部15は、類似度判定が「高」と「中」の画像のそれぞれのサムネイルと、そのサムネイルから原寸画像を表示することが可能となるhtml形式の出力データを生成する。なお、サムネイルから参照される原寸画像は、実際の原寸画像ではなく、ユーザが判断することができる拡大画像であればよい。
出力装置150は、検索結果出力部15から出力データを取得する。出力装置150は、検索装置10の検索結果を自装置のモニタに表示する。例えば、出力装置150は、類似度判定が「高」と「中」の画像とを異なる表示領域に表示する。出力装置150のモニタを見たユーザは、類似度判定に応じて画像を確認することができるので、選択対象となる全ての画像を確認する負担から解放される。なお、類似度判定の区分を「高」と「中」とに細分化すると、類似度判定が「高」の画像と「中」の画像とを区別することにユーザが新たな負担を感じる可能性もある。そのため、ユーザに確認させる画像の類似度判定は、「高」と「中」の2段階に設定せずに、1段階に設定してもよい。その一方で、類似度判定の区分をより詳細に細分化した方がよい場面もあり得る。その場合は、類似度判定の分類分けをより詳細に設定すればよい。すなわち、類似度判定の区分は、用途に応じて適切な分類に調整可能である。
図3および図4は、類似度判定に応じて、検索された画像データを選択させるユーザインタフェース155(第1のユーザインタフェースとも呼ぶ)を出力装置150のモニタに表示させる例である。図3および図4には、類似度判定が「高」の画像データ群と、「中」の画像データ群とに分けて、購入希望の画像データをユーザに選択させるユーザインタフェース155をモニタに表示させる例を示す。
図3のユーザインタフェース155には、一例として、類似度判定が「高」の画像データを拡大表示させる。図3においては、一例として、類似度判定が「高」の画像データが7枚選択されており、類似度判定が「中」の画像データは選択されていないものとする。画像データを1枚100円で購入できる場合、選択されている画像の総枚数は7なので、購入金額は700円と表示される。
図4のユーザインタフェース155には、一例として、類似度判定が「中」の画像データを拡大表示させる。図4においては、一例として、類似度判定が「中」の画像データが3枚選択されており、類似度判定が「高」の画像データが既に7枚選択されているものとする。画像データを1枚100円で購入できる場合、選択されている画像の総枚数は10枚なので、購入金額は1000円と表示される。
以上の図2〜図4には、全ての画像データに対して、「高」、「中」、「低」の3段階の類似度判定を類似度DB14に格納する例を示した。しかし、類似度判定は、段階的な判定ではなく、パーセンテージなどによって細分化してもよい。類似度判定を細分化すれば、検索精度をより細かく設定できる。
例えば、検索装置10は、ユーザが操作する端末装置にローカルなシステムとして構成できる。また、一例として、ターゲット画像111と補助画像群112の入力や、検索結果の表示は、ユーザが操作するパーソナルコンピュータやスマートフォンなどの端末装置で行うように構成できる。また、検索装置10は、ユーザが操作する端末装置にインターネットを介して接続されたコンピュータ資源に構成してもよい。
(動作)
次に、本実施形態の検索装置10の動作について図面を参照しながら説明する。図5は、検索装置10の動作について説明するためのフローチャートである。図5のフローチャートに沿った説明においては、検索装置10を動作の主体とする。
図5において、まず、検索装置10は、入力装置110から入力されたターゲット画像111および補助画像群112を取得する(ステップS11)。
次に、検索装置10は、選択対象の画像データを画像DB12から取り出す(ステップS12)。なお、複数の画像データをまとめて処理する場合は、複数の画像データを一括して画像DB12から取り出してもよい。
次に、検索装置10は、画像DB12から取り出した画像データから顔を検出する(ステップS13)。なお、複数の選択対象をまとめて処理する場合は、画像DB12から取り出した複数の画像データから一括して顔を検出するようにしてもよい。
次に、検索装置10は、選択対象の画像データから検出した顔と、ターゲット画像111および補助画像群112との一致度を計算する(ステップS14)。なお、複数の画像をまとめて処理する場合は、複数の画像データから検出した顔と、ターゲット画像111および補助画像群112との一致度を一括して計算するようにしてもよい。
次に、検索装置10は、算出した一致度と、画像DB12に格納された当該画像データのメタデータとを用いて、当該画像データに検索対象人物が写っているかどうか判定する(ステップS15)。なお、選択対象の画像データに検索対象人物が写っているかどうかの判定において、当該画像データのメタデータを用いない場合、検索装置10は、算出した一致度を用いて判定する。
次に、検索装置10は、選択対象の画像データに検索対象人物が写っているかどうかの判定結果を類似度DB14に格納する(ステップS16)。
検索対象の画像データが残っている場合(ステップS17でYes)、ステップS13に戻る。一方、選択対象の画像データが残っていない場合(ステップS17でNo)、類似度DB14に格納された判定結果に基づいて、画像DB12から画像データを取得する(ステップS18)。そして、検索装置10は、画像DB12から取得した画像データを用いて出力データを生成し、生成した出力データを出力装置150に出力する(ステップS19)。
以上が、図5のフローチャートに沿った検索装置10の動作についての説明である。なお、図5のフローチャートに沿った検索装置10の動作は一例であって、本実施形態の検索装置10の動作をそのままの手順に限定するものではない。
以上のように、本実施形態の検索装置は、第1のデータベース、顔認識部、類似度計算部、第2のデータベース、および検索結果出力部を備える。
第1のデータベースには、少なくとも一つの選択対象の画像データが格納される。顔認識部は、第1のデータベースに格納された選択対象の画像データから顔を検出する。顔認識部は、検索対象人物を示すターゲット画像と、検索対象人物の検索を補助する少なくとも一つの補助画像を含む補助画像群とが指定された際に、選択対象の画像データから検出された顔がターゲット画像および補助画像群に含まれるかを評価する。類似度計算部は、顔認識部による評価結果を用いて検索対象人物が画像データに写っているかを判定する。第2のデータベースには、類似度計算部による判定結果が格納される。検索結果出力部は、第2のデータベースに格納された判定結果に基づいて、検索対象人物が写っていると判定された画像データを第1のデータベースから取得し、取得した画像データを含む出力データを生成して出力する。
本実施形態の一態様として、顔認識部には、検索対象人物の関連人物を示す画像が補助画像として入力される。
本実施形態の一態様として、顔認識部は、画像データから検出した顔と、ターゲット画像および補助画像群に含まれる人物の顔との一致度を計算する。類似度計算部は、ターゲット画像および補助画像群について算出された一致度に基づいて、検索対象人物が画像データに写っているか否かを判定する。
本実施形態の一態様として、第1のデータベースには、選択対象の画像データのメタデータが格納される。類似度計算部は、選択対象の画像データのメタデータを第1のデータベースから取得する。類似度計算部は、取得した選択対象の画像データのメタデータと、ターゲット画像および補助画像群について算出された一致度とに基づいて検索対象人物が画像データに写っているかを判定する。
本実施形態の一態様として、類似度計算部は、選択対象の画像データのメタデータと、ターゲット画像および補助画像群について算出された一致度とに基づいて、検索対象人物が写っている確度を示す類似度判定を画像データに付与する。
本実施形態の一態様として、検索結果出力部は、モニタを有する出力装置に接続される。検索結果出力部は、出力データを出力装置に出力する。出力装置は、出力データに含まれる画像データを選択させるための第1のユーザインタフェースをモニタに表示させる。
本実施形態の検索装置には、検索対象人物を示す画像であるターゲット画像と、ターゲット画像の検索を補助する少なくとも一人の人物画像である補助画像を含む補助画像群とが入力される。例えば、検索装置には、ユーザの子供の顔画像がターゲット画像として入力され、その子供の友人の顔画像が補助画像として入力される。本実施形態の検索装置は、ターゲット画像および補助画像群が入力されると、第1のデータベースに格納された検索対象の画像データに対して顔認識を実行する。本実施形態の検索装置は、顔認識の評価結果と、検索対象画像の画像データのメタデータとを用いて、その画像データに検索対象人物が写っているか否かを類似度評価に基づいて判定する。
例えば、子供の遠足写真の販売をWebベースのシステムで行うようなケースでは、検索対象人物である子供は、親しい友人や班のメンバーなどの関連人物と一緒に撮影される可能性が高い。本実施形態によれば、検索対象人物が写っているのに顔認識の一致度が低い画像データに関しても、関連人物の顔認識の一致度に基づいて、検索対象人物が写っているか否かを検証できる。
また、本実施形態によれば、画像データのメタ情報(時刻情報や位置情報)を含めて、検索対象人物がその画像データに写っているか検証することができる。例えば、同時刻に異なる場所で撮影された複数の画像データに検索対象人物が写っていることはない。そのため、同時刻に異なる場所で撮影された複数の画像データのうちいずれかを検索結果から外すことができる。
本実施形態においては、これらの各評価による判定結果を第2のデータベースに蓄積する。本実施形態によれば、第2のデータベースに蓄積された判定結果に従って、検索対象人物が写っている画像を画像データベースから選別して出力することによって、ユーザが確認する画像を選定することができる。
本実施形態の検索装置は、多数の画像データから検索対象人物が写っている画像データを抽出する際に、その検索対象人物の関連人物の存在有無を示す判定結果や、時刻情報や位置情報などのメタデータを併用する。そのため、本実施形態の検索装置によれば、検索対象人物の顔認識だけを用いる検索よりも検索精度を高めることができる。
例えば、ユーザの子供が参加した学校行事で撮影された画像を購入する際に、子供の顔が正面を向いていない画像であっても、そのユーザにとってはその画像を購入したいという親心があるものである。本実施形態では、検索対象人物の顔画像認識結果だけではなく、その検索対象人物と行動を共にしている可能性の高い関連人物の検索結果や、行動履歴(時刻情報や位置情報)を併せて参照する。そのため、本実施形態によれば、検索対象人物の写っている画像を見落とす可能性を高精度で排除し、より精度の高い検索結果を与えることが可能である。
また、プライバシー保護規制が厳しくなりつつある社会情勢から、ソーシャルネットワークサービスや共有カレンダーアプリなどの外部システムを用いる社会的人間関係図(ソーシャルグラフ)を利用して検索精度を向上させることには限界がある。本実施形態によれば、外部システムとの連携を必要とせず、閉じた環境で人間関係の検索精度を向上することができるので、プライバシー保護の観点において安全である。
すなわち、本実施形態の検索装置によれば、外部システムと連携せずに、人間関係に基づいて、安全かつ高精度で特定人物を検索できる。
(第2の実施形態)
次に、本発明の第2の実施形態に係る検索装置について図面を参照しながら説明する。本実施形態は、画像DBに格納された画像データの中からターゲット画像や補助画像の候補の画像(候補画像とも呼ぶ)を生成し、生成した候補画像をユーザに提案する点で第1の実施形態とは異なる。
図6は、本実施形態の検索装置20の構成の一例を示すブロック図である。図6のように、検索装置20は、顔認識部21、画像DB22、類似度計算部23、類似度DB24、検索結果出力部25、および候補画像提案部26を備える。検索装置20は、入力装置210と出力装置250に接続される。
検索装置20は、画像DB22に格納された少なくとも一つの選択対象の画像データから顔を検出する。検索装置20は、ターゲット画像や補助画像の候補画像として、検出した顔を含む画像を入力装置210に出力する。ユーザは、入力装置210に表示された候補画像の中からターゲット画像や補助画像を選択し、選択したターゲット画像や補助画像を指定する。検索装置20は、入力装置210を介してユーザに指定されたターゲット画像211および補助画像群212を用いて、画像DB22に格納された画像データの中から検索対象人物が写っている画像データを検索する。検索装置20は、検索した画像データを含む出力データを生成し、生成した出力データの集合である出力データ群251を出力装置250に出力する。
入力装置210は、顔認識部21および候補画像提案部26に接続される。入力装置210には、ターゲット画像や補助画像の候補画像が候補画像提案部26から入力される。入力装置210は、入力された候補画像の中からターゲット画像211や補助画像を選択するためのユーザインタフェースをモニタに表示させる。入力装置210は、ユーザインタフェースを介して選択された候補画像をターゲット画像211または補助画像群212に指定する。このとき、入力装置210は、いずれの候補画像がターゲット画像211または補助画像群212に指定されたのかを示す情報を検索装置20に出力する。また、入力装置210が、ターゲット画像211および補助画像群212に指定された画像データを検索装置20に出力するようにしてもよい。
図7は、入力装置210のモニタに候補画像をユーザに提示するためのユーザインタフェース215(第2のユーザインタフェースとも呼ぶ)の一例を示す概念図である。図7のユーザインタフェース215には、複数の候補画像が表示される。ユーザインタフェース215には、各候補画像に対応付けて、ターゲット画像か補助画像を選択するためのチェックボックスが表示される。
図8は、図7のユーザインタフェース215を確認したユーザがターゲット画像や補助画像を選択した後の状態の一例である。図8では、一例として、No.2の候補画像がターゲット画像211として選択され、No.1、3、7の候補画像が補助画像として選択される。入力装置210は、ユーザインタフェース215において選択された候補画像を、ターゲット画像211または補助画像群212を構成する補助画像として指定する。
候補画像提案部26は、選択対象の画像データから検出した顔を含む画像を顔認識部21から取得する。候補画像提案部26は、取得した画像を用いて検索対象画像および補助画像の候補画像を生成する。候補画像提案部26は、生成した候補画像を入力装置210に出力する。
顔認識部21は、入力装置210に接続される。また、顔認識部21は、画像DB22類似度計算部23、および候補画像提案部26に接続される。
顔認識部21は、画像DB22に格納された少なくとも一つの選択対象の画像データを取得し、取得した画像データから顔を検出する。顔認識部21は、選択対象の画像データから検出した顔を含む画像を候補画像提案部26に出力する。顔認識部21は、選択対象の画像データから検出した顔を含む画像を画像DB22に格納しておいてもよいし、一旦消去してもよい。
また、顔認識部21には、いずれの候補画像がターゲット画像211および補助画像群212に指定されたのかを示す情報が入力装置210から入力される。ターゲット画像211および補助画像群212の指定を受けると、顔認識部21は、選択対象の画像データから検出された顔と、ターゲット画像211および補助画像群212との一致度の計算を行う。顔認識部21は、選択対象の画像データから検出された顔と、ターゲット画像211および補助画像群212との一致度の計算結果(評価結果とも呼ぶ)を類似度計算部23に出力する。
画像DB22(第1のデータベースとも呼ぶ)は、顔認識部21、類似度計算部23、および検索結果出力部25に接続される。画像DB22は、選択対象の画像データが格納されたデータベースである。
類似度計算部23は、顔認識部21、画像DB22、および類似度DB24に接続される。類似度計算部23は、顔認識部21から顔認識の評価結果を取得する。類似度計算部23は、顔認識の評価結果を取得すると、画像DB22に格納された当該画像データのメタデータを用いて、当該画像データに検索対象人物が写っているかどうか判定する。類似度計算部23は、類似度DB24に判定結果を格納する。
類似度DB24(第2のデータベースとも呼ぶ)は、類似度計算部23および検索結果出力部25に接続される。類似度DB24は、類似度計算部23による類似度の判定結果が格納されるデータベースである。
検索結果出力部25は、画像DB22および類似度DB24に接続される。検索結果出力部25は、類似度計算部23による判定結果を類似度DB24から取得する。検索結果出力部25は、類似度DB24から取得した判定結果に基づいて、画像DB22から画像データを取得する。そして、検索結果出力部25は、類似度DB24から取得した判定結果に対応する画像データを画像DB22から取得する。検索結果出力部25は、画像DB22から取得した画像データを用いて、出力装置230で処理できる形式の出力データ(検索結果とも呼ぶ)を生成する。なお、検索結果出力部25は、判定結果に対応する画像データのメタデータを出力データに含めてもよい。検索結果出力部25は、生成した出力データの集合である出力データ群231を出力装置230に出力する。
出力装置230は、検索結果出力部25に接続される。出力装置230には、検索結果出力部25から出力データ群231が入力される。出力装置230は、検索装置20の検索結果をユーザに提示するための装置である。なお、検索装置20の検索結果の出力方法は、ユーザがその検索結果を確認できさえすれば、その形態には特に限定を加えない。
以上が、本実施形態の検索装置20の構成についての説明である。なお、図6の検索装置20の構成は一例であって、本実施形態の検索装置20の構成をそのままの形態に限定するものではない。
(動作)
次に、本実施形態の検索装置20の動作について図面を参照しながら説明する。図9は、検索装置20の動作について説明するためのフローチャートである。図9のフローチャートに沿った説明においては、検索装置20を動作の主体とする。
図9において、まず、検索装置20は、画像DB22に格納された選択対象の画像データから候補画像を生成する(ステップS21)。
次に、検索装置20は、生成した候補画像を入力装置210に出力する(ステップS22)。
次に、検索装置20は、いずれの候補画像がターゲット画像211および補助画像群212に指定されたのかを示す情報を入力装置210から取得する(ステップS23)。
次に、検索装置20は、選択対象の画像データから検出した顔と、ターゲット画像111および補助画像群112との一致度を計算する(ステップS24)。
次に、検索装置20は、算出した一致度と、画像DB22に格納された当該画像データのメタデータとを用いて、当該画像データに検索対象人物が写っているかどうか判定する(ステップS25)。なお、選択対象の画像データに検索対象人物が写っているかどうかの判定において、当該画像データのメタデータを用いない場合、検索装置20は、算出した一致度を用いて判定する。
次に、検索装置20は、選択対象の画像データに検索対象人物が写っているかどうかの判定結果を類似度DB14に格納する(ステップS26)。
検索対象となる画像データが残っている場合(ステップS27でYes)、ステップS24に戻る。一方、選択対象となる画像データが残っていない場合(ステップS27でNo)、類似度DB24に格納された判定結果に基づいて、画像DB22から画像データを取得する(ステップS28)。そして、検索装置20は、画像DB22から取得した画像データを用いて出力データを生成し、生成した出力データを出力装置230に出力する(ステップS29)。
以上が、図9のフローチャートに沿った検索装置20の動作についての説明である。なお、図9のフローチャートに沿った検索装置20の動作は一例であって、本実施形態の検索装置20の動作をそのままの手順に限定するものではない。
以上のように、本実施形態の検索装置は、第1のデータベース、顔認識部、類似度計算部、第2のデータベース、および検索結果出力部に加えて、候補画像提案部を備える。
顔認識部は、第1のデータベースに格納された少なくとも一つの画像データを取得し、取得した画像データから顔を検出し、検出された顔を含む画像データを候補画像提案部に出力する。候補画像提案部は、顔認識部によって検出される顔を含む画像を用いてターゲット画像および補助画像の候補画像を生成し、生成した候補画像を出力する。
本実施形態の一形態として、候補画像提案部は、モニタを有する入力装置に接続され、候補画像を入力装置に出力する。入力装置は、候補画像の中からターゲット画像および補助画像を選択させるための第2のユーザインタフェースをモニタに表示させる。入力装置は、第2のユーザインタフェースを介して選択された候補画像のそれぞれをターゲット画像および補助画像のいずれかに指定し、指定されたターゲット画像および補助画像に関する情報を顔認識部に出力する。
一般に、ユーザの子供の画像データは手元にあるが、補助画像とするべき友達の適切な画像データが手元にないというケースは多い。本実施形態では、第1のデータベースに格納された選択対象の画像データから検出された顔画像を用いて生成された候補画像をユーザに提示し、それぞれの候補画像の中からターゲット画像と補助画像をユーザに選択させる。その結果、ユーザは、手元にない補助画像を調達する手間が省ける。
例えば、本実施形態の検索装置は、別人物と想定される複数の人物画像を第1のデータベースから取り出し、それらの人物画像のサムネイルや原寸画像をリンク形式としてhtml形式のデータで出力・表示する。ユーザは、モニタに表示された画像を見て、検索対象人物やその関連人物の写真をクリックやタップして選択する。この際、対象人物が多数である場合は、複数のページに分けて候補画像を表示する。例えば、類似度計算によって関係が深いと判断される人物画像を優先的に表示させれば、ユーザの操作負担を軽減することも可能である。
本発明の各実施形態の手法は、遠足、学芸会などの学校イベントで撮影された写真をWebベースシステムで販売する場合のように、比較的閉じた人間関係であるが、検索対象が多人数に及ぶ人物画像検索の際に効果的である。
例えば、目的としていない人物が写りこんだ多数の画像データを1枚ずつ参照しながら、特定人物が写っている目的画像を検索するのには大変な労力が発生する。顔認識技術を用いれば、全ての画像データを1枚ずつ参照しながら目的画像を検索するのと比較して労力を省くことができる。しかしながら、現状の顔認識技術の検出精度では、特定人物が横や斜めを向いている場合などには、目的画像を精度よく検出できない。
人間関係や行動履歴が蓄積された大人であれば、ソーシャルネットワークサービスや共有カレンダーアプリなどから抽出される人間関係や行動履歴を用いて目的画像を検索できるため、検索精度を向上させることができる。しかしながら、人間関係や行動履歴が蓄積されていない子供の画像を検索する際には、ソーシャルネットワークサービスや共有カレンダーアプリなどを用いても、目的画像の検索精度が向上するとは限らない。また、プライバシー保護規制が厳しくなる社会情勢から、ソーシャルネットワークサービスや共有カレンダーアプリなどの情報を公に利用することは難しくなりつつある。
また、本発明の各実施形態の手法によれば、ソーシャルネットワークサービスや共有カレンダーアプリなどの外部システムの情報を用いずに、検索対象人物の顔とともにその検索対象人物の関連人物の顔を用いてターゲット画像を検索することができる。
すなわち、本実施形態の検索装置によれば、外部システムと連携せずに、人間関係に基づいて、安全かつ高精度で特定人物を検索できる。
(ハードウェア)
ここで、本発明の各実施形態に係る検索装置の処理を実行するハードウェア構成について、図10の情報処理装置90を一例として挙げて説明する。なお、図10の情報処理装置90は、各実施形態の検索装置の処理を実行するための構成例であって、本発明の範囲を限定するものではない。
図10のように、情報処理装置90は、プロセッサ91、主記憶装置92、補助記憶装置93、入出力インターフェース95および通信インターフェース96を備える。図10においては、インターフェースをI/F(Interface)と略して表記する。プロセッサ91、主記憶装置92、補助記憶装置93、入出力インターフェース95および通信インターフェース96は、バス99を介して互いにデータ通信可能に接続される。また、プロセッサ91、主記憶装置92、補助記憶装置93および入出力インターフェース95は、通信インターフェース96を介して、インターネットやイントラネットなどのネットワークに接続される。
プロセッサ91は、補助記憶装置93等に格納されたプログラムを主記憶装置92に展開し、展開されたプログラムを実行する。本実施形態においては、情報処理装置90にインストールされたソフトウェアプログラムを用いる構成とすればよい。プロセッサ91は、本実施形態に係る検索装置による処理を実行する。
主記憶装置92は、プログラムが展開される領域を有する。主記憶装置92は、例えばDRAM(Dynamic Random Access Memory)などの揮発性メモリとすればよい。また、MRAM(Magnetoresistive Random Access Memory)などの不揮発性メモリを主記憶装置92として構成・追加してもよい。
補助記憶装置93は、種々のデータを記憶する。補助記憶装置93は、ハードディスクやフラッシュメモリなどのローカルディスクによって構成される。なお、種々のデータを主記憶装置92に記憶させる構成とし、補助記憶装置93を省略することも可能である。
入出力インターフェース95は、情報処理装置90と周辺機器とを接続するためのインターフェースである。通信インターフェース96は、規格や仕様に基づいて、インターネットやイントラネットなどのネットワークを通じて、外部のシステムや装置に接続するためのインターフェースである。入出力インターフェース95および通信インターフェース96は、外部機器と接続するインターフェースとして共通化してもよい。
情報処理装置90には、必要に応じて、キーボードやマウス、タッチパネルなどの入力機器を接続するように構成してもよい。それらの入力機器は、情報や設定の入力に使用される。なお、タッチパネルを入力機器として用いる場合は、表示機器の表示画面が入力機器のインターフェースを兼ねる構成とすればよい。プロセッサ91と入力機器との間のデータ通信は、入出力インターフェース95に仲介させればよい。
また、情報処理装置90には、情報を表示するための表示機器を備え付けてもよい。表示機器を備え付ける場合、情報処理装置90には、表示機器の表示を制御するための表示制御装置(図示しない)が備えられていることが好ましい。表示機器は、入出力インターフェース95を介して情報処理装置90に接続すればよい。
また、情報処理装置90には、必要に応じて、ディスクドライブを備え付けてもよい。ディスクドライブは、バス99に接続される。ディスクドライブは、プロセッサ91と図示しない記録媒体(プログラム記録媒体)との間で、記録媒体からのデータ・プログラムの読み出し、情報処理装置90の処理結果の記録媒体への書き込みなどを仲介する。記録媒体は、例えば、CD(Compact Disc)やDVD(Digital Versatile Disc)などの光学記録媒体で実現できる。また、記録媒体は、USB(Universal Serial Bus)メモリやSD(Secure Digital)カードなどの半導体記録媒体や、フレキシブルディスクなどの磁気記録媒体、その他の記録媒体によって実現してもよい。
以上が、本発明の各実施形態に係る検索装置を可能とするためのハードウェア構成の一例である。なお、図10のハードウェア構成は、各実施形態に係る検索装置の演算処理を実行するためのハードウェア構成の一例であって、本発明の範囲を限定するものではない。また、各実施形態に係る検索装置に関する処理をコンピュータに実行させるプログラムも本発明の範囲に含まれる。さらに、各実施形態に係るプログラムを記録したプログラム記録媒体も本発明の範囲に含まれる。
各実施形態の検索装置の構成要素は、任意に組み合わせることができる。また、各実施形態の検索装置の構成要素は、ソフトウェアによって実現してもよいし、回路によって実現してもよい。
以上、実施形態を参照して本発明を説明してきたが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
10、20 検索装置
11、21 顔認識部
12、22 画像DB
13、23 類似度計算部
14、24 類似度DB
15、25 検索結果出力部
26 候補画像提案部
110、210 入力装置
150、250 出力装置

Claims (10)

  1. 少なくとも一つの選択対象の画像データが格納されるデータベースと、
    記データベースに格納された前記選択対象の画像データから顔を検出し、検索対象人物を示すターゲット画像と、前記検索対象人物の検索を補助する少なくとも一つの補助画像を含む補助画像群とが指定された際に、前記選択対象の画像データから検出された顔が前記ターゲット画像および前記補助画像群に含まれるかを評価する顔認識手段と、
    前記顔認識手段による評価結果を用いて前記検索対象人物が前記画像データに写っているかを判定する類似度計算手段と、
    前記類似度計算手段による判定結果に基づいて、前記検索対象人物が写っていると判定された前記画像データを前記データベースから取得し、取得した前記画像データを含む検索結果を出力する検索結果出力手段と、を備える検索装置。
  2. 前記顔認識手段には、
    前記検索対象人物の関連人物を示す画像が前記補助画像として入力される請求項1に記載の検索装置。
  3. 前記顔認識手段は、
    前記画像データから検出した顔と、前記ターゲット画像および前記補助画像群に含まれる人物の顔との一致度を計算し、
    前記類似度計算手段は、
    前記ターゲット画像および前記補助画像群について算出された前記一致度に基づいて、前記検索対象人物が前記画像データに写っているか否かを判定する請求項1または2に記載の検索装置。
  4. 記データベースには、
    前記選択対象の画像データのメタデータが格納され、
    前記類似度計算手段は、
    前記選択対象の画像データのメタデータを前記データベースから取得し、取得した前記選択対象の画像データのメタデータと、前記ターゲット画像および前記補助画像群について算出された前記一致度とに基づいて前記検索対象人物が前記画像データに写っているかを判定する請求項3に記載の検索装置。
  5. 前記類似度計算手段は、
    前記選択対象の画像データのメタデータと、前記ターゲット画像および前記補助画像群について算出された前記一致度とに基づいて、前記検索対象人物が写っている確度を示す類似度判定を前記画像データに付与する請求項4に記載の検索装置。
  6. モニタを有する出力装置に接続され、
    前記検索結果出力手段は、
    前記検索結果を前記出力装置に出力し、
    前記出力装置は、
    前記検索結果に含まれる前記画像データを選択させるための第1のユーザインタフェースを前記モニタに表示させる請求項5に記載の検索装置。
  7. 前記顔認識手段によって検出される顔を含む画像を用いて前記ターゲット画像および前記補助画像の候補画像を生成し、生成した前記候補画像を出力する候補画像提案手段を備え、
    前記顔認識手段は、
    記データベースに格納された少なくとも一つの前記画像データを取得し、取得した前記画像データから顔を検出し、検出された顔を含む前記画像データを前記候補画像提案手段に出力し、
    前記候補画像提案手段は、
    前記顔認識手段が出力した前記画像データを用いて前記候補画像を生成する請求項1乃至6のいずれか一項に記載の検索装置。
  8. 前記候補画像提案手段は、
    モニタを有する入力装置に接続され、前記候補画像を前記入力装置に出力し、
    前記入力装置は、
    前記候補画像の中から前記ターゲット画像および前記補助画像を選択させるための第2のユーザインタフェースを前記モニタに表示させ、前記第2のユーザインタフェースを介して選択された前記候補画像のそれぞれを前記ターゲット画像および前記補助画像のいずれかに指定し、指定された前記ターゲット画像および前記補助画像に関する情報を前記顔認識手段に出力する請求項7に記載の検索装置。
  9. コンピュータにより実行される検索方法であって、
    ータベースに格納された少なくとも一つの選択対象の画像データから顔を検出し、
    検索対象人物を示すターゲット画像と、前記検索対象人物の検索を補助する少なくとも一つの補助画像を含む補助画像群とが指定された際に、前記選択対象の画像データから検出された顔が前記ターゲット画像および前記補助画像群に含まれるかを評価し、
    評価結果を用いて前記検索対象人物が前記画像データに写っているかを判定し、
    定結果に基づいて、前記検索対象人物が写っていると判定された前記画像データを前記データベースから取得し、取得した前記画像データを含む検索結果を出力する検索方法。
  10. ータベースに格納された少なくとも一つの選択対象の画像データから顔を検出する処理と、
    検索対象人物を示すターゲット画像と、前記検索対象人物の検索を補助する少なくとも一つの補助画像を含む補助画像群とが指定された際に、前記選択対象の画像データから検出された顔が前記ターゲット画像および前記補助画像群に含まれるかを評価する処理と、
    評価結果を用いて前記検索対象人物が前記画像データに写っているかを判定する処理と、
    定結果に基づいて、前記検索対象人物が写っていると判定された前記画像データを前記データベースから取得し、取得した前記画像データを含む検索結果を出力する処理とをコンピュータに実行させるプログラム。
JP2019030099A 2019-02-22 2019-02-22 検索装置、検索方法、およびプログラム Active JP6635208B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019030099A JP6635208B1 (ja) 2019-02-22 2019-02-22 検索装置、検索方法、およびプログラム
US16/789,521 US11308151B2 (en) 2019-02-22 2020-02-13 Search system, search method, and program recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019030099A JP6635208B1 (ja) 2019-02-22 2019-02-22 検索装置、検索方法、およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019227490A Division JP6844681B2 (ja) 2019-12-17 2019-12-17 検索装置、検索方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP6635208B1 true JP6635208B1 (ja) 2020-01-22
JP2020135580A JP2020135580A (ja) 2020-08-31

Family

ID=69166814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019030099A Active JP6635208B1 (ja) 2019-02-22 2019-02-22 検索装置、検索方法、およびプログラム

Country Status (2)

Country Link
US (1) US11308151B2 (ja)
JP (1) JP6635208B1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7463853B2 (ja) 2020-05-29 2024-04-09 日本電気株式会社 ビンゴシステム、ビンゴカード生成装置、方法、およびプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11227007B2 (en) * 2019-07-23 2022-01-18 Obayashi Corporation System, method, and computer-readable medium for managing image

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008148053A (ja) * 2006-12-11 2008-06-26 Seiko Epson Corp 画像処理装置、画像処理サーバ、画像処理方法および制御プログラム
JP5128880B2 (ja) 2007-08-30 2013-01-23 オリンパスイメージング株式会社 画像取扱装置
US8670597B2 (en) 2009-08-07 2014-03-11 Google Inc. Facial recognition with social network aiding
JP5477017B2 (ja) 2010-01-26 2014-04-23 ソニー株式会社 電子機器、コンテンツ送信方法及びプログラム
US9225701B2 (en) * 2011-04-18 2015-12-29 Intelmate Llc Secure communication systems and methods
KR101936802B1 (ko) * 2012-07-20 2019-01-09 한국전자통신연구원 얼굴인식 기반의 개인정보보호 장치 및 방법
JP2014102715A (ja) * 2012-11-21 2014-06-05 Dainippon Printing Co Ltd スクールフォト管理サーバ、スクールフォト管理システム、スクールフォト管理方法、プログラム、及び記録媒体
JP6139364B2 (ja) 2013-10-02 2017-05-31 株式会社東芝 人物特定装置、人物特定方法及びプログラム
GB2516512B (en) * 2013-10-23 2015-10-14 Imagination Tech Ltd Face detection
US9177194B2 (en) * 2014-01-29 2015-11-03 Sony Corporation System and method for visually distinguishing faces in a digital image
CN104133899B (zh) * 2014-08-01 2017-10-13 百度在线网络技术(北京)有限公司 图片搜索库的生成方法和装置、图片搜索方法和装置
CN105374306A (zh) * 2015-12-17 2016-03-02 英业达科技有限公司 广告装置及具有身份识别功能的广告播放方法
US9918006B2 (en) * 2016-05-20 2018-03-13 International Business Machines Corporation Device, system and method for cognitive image capture
US10734027B2 (en) * 2017-02-16 2020-08-04 Fusit, Inc. System and methods for concatenating video sequences using face detection
JP6648769B2 (ja) * 2018-01-12 2020-02-14 日本電気株式会社 顔認証装置
US10642886B2 (en) * 2018-02-14 2020-05-05 Commvault Systems, Inc. Targeted search of backup data using facial recognition
WO2020026367A1 (ja) * 2018-07-31 2020-02-06 日本電気株式会社 情報処理装置、情報処理方法及び記録媒体
US10455365B1 (en) * 2018-09-06 2019-10-22 Cognizant Technology Solutions India Pvt. Ltd. System and method for optimized tracking and identification of user equipment
CN109753927A (zh) * 2019-01-02 2019-05-14 腾讯科技(深圳)有限公司 一种人脸检测方法和装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7463853B2 (ja) 2020-05-29 2024-04-09 日本電気株式会社 ビンゴシステム、ビンゴカード生成装置、方法、およびプログラム

Also Published As

Publication number Publication date
US11308151B2 (en) 2022-04-19
JP2020135580A (ja) 2020-08-31
US20200272654A1 (en) 2020-08-27

Similar Documents

Publication Publication Date Title
JP5403838B2 (ja) 顔を相関させることによるデジタル画像の編成
US9665959B2 (en) Composite image creation assist apparatus using images of users other than target user, and non-transitory computer readable recording medium
US11250605B2 (en) Image processing device, image processing method, program, and recording medium
CN110175849B (zh) 收款方法、装置、设备、服务器及系统
JP2008131330A (ja) 画像表示装置および画像表示方法
JP6635208B1 (ja) 検索装置、検索方法、およびプログラム
US11244186B2 (en) Information processing apparatus, method and storage medium
US9195312B2 (en) Information processing apparatus, conference system, and information processing method
US9832439B2 (en) Device for determining principal facial image in photographic image, and method and program for controlling same
JP6410427B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN106169057B (zh) 信息处理装置及方法
JP2006277441A (ja) 画像管理装置及びプログラム
JPWO2015140922A1 (ja) 情報処理システム、情報処理方法、および情報処理プログラム
JP6499750B2 (ja) 顔照合システムおよび顔照合方法
JP6844681B2 (ja) 検索装置、検索方法、およびプログラム
US20220122341A1 (en) Target detection method and apparatus, electronic device, and computer storage medium
JP6784519B2 (ja) 情報処理装置、その制御方法、およびプログラム
US20180189602A1 (en) Method of and system for determining and selecting media representing event diversity
CN113674313A (zh) 一种行人跟踪方法、装置、存储介质和电子设备
KR20210047749A (ko) 시각적으로 코딩된 패턴 인식 방법 및 장치
JP6773144B2 (ja) コンテンツ選択装置、コンテンツ選択方法、コンテンツ選択システム及びプログラム
KR102469244B1 (ko) 이미지 프로세싱에 기반하여 오프라인 광고 성과 데이터를 수집하는 방법
US11659104B2 (en) Generation of an electronic document capable of receiving user input
US20230126712A1 (en) Image processing device, image processing method, program, and recording medium
KR102079483B1 (ko) 지문들을 변환하여 비인가된 미디어 콘텐츠 아이템들을 검출하기 위한 방법들, 시스템들 및 매체들

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190917

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191202

R150 Certificate of patent or registration of utility model

Ref document number: 6635208

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150