JP6713153B1 - 情報処理装置、情報処理方法、プログラム及びカメラシステム - Google Patents

情報処理装置、情報処理方法、プログラム及びカメラシステム Download PDF

Info

Publication number
JP6713153B1
JP6713153B1 JP2019207468A JP2019207468A JP6713153B1 JP 6713153 B1 JP6713153 B1 JP 6713153B1 JP 2019207468 A JP2019207468 A JP 2019207468A JP 2019207468 A JP2019207468 A JP 2019207468A JP 6713153 B1 JP6713153 B1 JP 6713153B1
Authority
JP
Japan
Prior art keywords
information
registered
image
camera
postal code
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019207468A
Other languages
English (en)
Other versions
JP2021081880A (ja
Inventor
哲央 丸山
哲央 丸山
吉一 加藤
吉一 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Patic Trust Co Ltd
Original Assignee
Patic Trust Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Patic Trust Co Ltd filed Critical Patic Trust Co Ltd
Priority to JP2019207468A priority Critical patent/JP6713153B1/ja
Application granted granted Critical
Publication of JP6713153B1 publication Critical patent/JP6713153B1/ja
Priority to US17/607,732 priority patent/US11494942B2/en
Priority to EP20886743.2A priority patent/EP4060605A4/en
Priority to PCT/JP2020/041954 priority patent/WO2021095732A1/ja
Publication of JP2021081880A publication Critical patent/JP2021081880A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/179Human faces, e.g. facial parts, sketches or expressions metadata assisted face recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32128Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title attached to the image data, e.g. file header, transmitted message header, information on the same page or in the same computer file as the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3253Position information, e.g. geographical position at time of capture, GPS data

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Library & Information Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

【課題】カメラで撮影した画像から得られる情報を用いて対象物を判別する場合に、カメラの撮影条件などに起因した判別精度の低下を抑制できる情報処理装置を提供する。【解決手段】情報処理装置1は、カメラ2が撮影した画像に含まれる対象物の特徴情報を取得する取得部161と、登録された対象物についての特徴情報を含んだ登録情報51を記憶する記憶部150と、取得部161で取得された特徴情報と登録情報51に含まれた特徴情報とを照合し、その照合結果に基づいて、画像中の対象物に該当する登録された対象物を判別する判別部162とを有する。登録情報51は、登録された対象物に関連した場所の郵便番号を含む。判別部162は、画像中の対象物に関連した場所の郵便番号と登録情報51に含まれた郵便番号とを照合し、特徴情報についての照合結果と郵便番号についての照合結果とに基づいて、画像中の対象物に該当する登録された対象物を判別する。【選択図】図1

Description

本発明は、カメラで撮影された対象物の判別に関する処理を行う情報処理装置、情報処理方法、プログラム及びカメラシステムに関するものである。
カメラで撮影された画像に含まれる人物の顔の特徴を抽出し、予めデータベースに登録された人物の顔画像と抽出した顔の特徴とを照合することにより、カメラで撮影された人物を判別する技術が知られている(例えば特許文献1を参照)。近年、AI(artificial intelligence)を用いた画像認識技術の進展によって、カメラが撮影した画像に基づく人や物の判別を高精度に行うことが可能になってきている。
特開2003−187229号公報
カメラが撮影した顔の画像などから人物を自動的に判別する技術は、例えば、施設の入口における入場者のチェック、窓口業務における登録済のユーザの受け付け処理、店舗におけるリピータ数のカウントなどに応用可能である。しかしながら、カメラの設置場所に制約がある場合、カメラと被写体との距離や、カメラの撮影方向、周囲の照明の状況などの条件が顔の撮影に適していないことがある。そのような場合、顔画像による人物の判別を十分な精度で行えない可能性がある。また、顔の特徴が近似した複数の人物が存在する場合も、顔画像による人物の判別が困難となる可能性がある。
本発明はかかる事情に鑑みてなされたものであり、その目的は、カメラで撮影した画像から得られる情報を用いて対象物を判別する場合に、カメラの撮影条件や対象物の外観の類似に起因して判別精度が低下することを抑制できる情報処理装置、情報処理方法及びプログラムを提供すること、並びに、そのような情報処理装置を備えるカメラシステムを提供することにある。
本発明の第1の観点に係る情報処理装置は、特定の対象物を撮影可能な1以上のカメラが撮影した画像に基づいて生成された特徴情報であって、前記対象物を含む前記画像から抽出された前記対象物の特徴に関する前記特徴情報を取得する取得部と、1以上の登録された前記対象物の特徴に関する前記特徴情報を含んだ登録情報を記憶する記憶部と、前記取得部において取得された前記特徴情報と前記登録情報に含まれた前記特徴情報とを照合し、前記特徴情報についての照合結果に基づいて、前記特徴情報が生成された前記画像中の前記対象物に該当する前記登録された対象物を判別する判別部とを有し、前記登録情報は、前記登録された対象物に関連した場所の郵便番号である登録郵便番号を含んでおり、前記判別部は、前記画像中の対象物に関連した場所の郵便番号を入力し、前記登録情報に含まれた前記登録郵便番号と前記入力した郵便番号とを照合し、前記特徴情報についての照合結果と前記郵便番号についての照合結果とに基づいて、前記画像中の対象物に該当する前記登録された対象物を判別する。
本発明の第2の観点に係る情報処理方法は、特定の対象物を撮影可能な1以上のカメラが撮影した画像に基づいて生成された特徴情報であって、前記対象物を含む前記画像から抽出された前記対象物の特徴に関する前記特徴情報をコンピュータによって処理する情報処理方法であって、前記コンピュータの記憶部には、1以上の登録された前記対象物の特徴に関する前記特徴情報を含んだ登録情報が記憶されており、前記特徴情報を取得する取得工程と、前記取得工程において取得された前記特徴情報と前記登録情報に含まれた前記特徴情報とを照合し、前記特徴情報についての照合結果に基づいて、前記特徴情報が生成された前記画像中の前記対象物に該当する前記登録された対象物を判別する判別工程とを有し、前記登録情報は、前記登録された対象物に関連した場所の郵便番号である登録郵便番号を含んでおり、前記判別工程は、前記画像中の対象物に関連した場所の郵便番号を入力し、前記登録情報に含まれた前記登録郵便番号と前記入力した郵便番号とを照合し、前記特徴情報についての照合結果と前記郵便番号についての照合結果とに基づいて、前記画像中の対象物に該当する前記登録された対象物を判別することを含む。
本発明の第3の観点に係るプログラムは、上記第2の観点に係る情報処理方法をコンピュータに実行させるためのプログラムである。
本発明の第4の観点に係るカメラシステムは、上記第1の観点に係る情報処理装置と複数の前記カメラとを備えるカメラシステムである。
本発明の第5の観点に係る情報処理装置は、特定の対象物を撮影可能な1以上のカメラが撮影した画像に基づいて生成された特徴情報であって、前記対象物を含む前記画像から抽出された前記対象物の特徴に関する前記特徴情報を取得する取得部と、1以上の登録された前記対象物の特徴に関する前記特徴情報を含んだ登録情報を記憶する記憶部と、前記取得部において取得された前記特徴情報と前記登録情報に含まれた前記特徴情報とを照合し、前記特徴情報についての照合結果に基づいて、前記特徴情報が生成された前記画像中の前記対象物に該当する前記登録された対象物を判別する判別部とを有し、前記記憶部は、複数の前記カメラがそれぞれ撮影を行う場所の郵便番号を含んだカメラ情報を記憶する。
本発明によれば、カメラで撮影した画像から得られる情報を用いて対象物を判別する場合に、カメラの撮影条件や対象物の外観の類似に起因して判別精度が低下することを抑制できる。
図1は、第1の実施形態に係るカメラシステムの構成の一例を示す図である。 図2は、登録情報の一例を示す図である。 図3は、カメラ情報の一例を示す図である。 図4は、履歴情報の一例を示す図である。 図5は、カメラの構成の一例を示す図である。 図6は、第1の実施形態に係る情報処理装置における処理の一例を説明するためのフローチャートである。 図7は、第2の実施形態に係る情報処理装置で用いられる登録情報の一例を示す図である。 図8は、第2の実施形態に係る情報処理装置における処理の一例を説明するための第1のフローチャートである。 図9は、第2の実施形態に係る情報処理装置における処理の一例を説明するための第2のフローチャートである。
<第1の実施形態>
図1は、第1の実施形態に係るカメラシステムの構成の一例を示す図である。図1に示すカメラシステムは、複数のカメラ2と、各カメラ2が撮影した画像に基づいて人や物などの対象物を判別する処理を行う情報処理装置1とを有する。カメラ2は、特定の対象物(例えば特定の場所を訪れた人物)を撮影可能な位置に設置されており、撮影した画像に含まれる特定の対象物についての特徴(例えば人物の顔の特徴)を抽出する処理を行う。情報処理装置1は、カメラ2で生成された対象物の特徴に関する情報(特徴情報)と、予め登録された対象物の特徴情報とを照合することにより、カメラ2で撮影された対象物に該当する登録済の対象物を判別する。図1の例において、複数のカメラ2はインターネットなどのネットワーク9に接続されており、情報処理装置1はネットワーク9を介して各カメラ2からの情報を取得する。
[情報処理装置1]
情報処理装置1は、図1の例において、通信部110と、入力部120と、表示部130と、インターフェース部140と、記憶部150と、処理部160を含む。
通信部110は、ネットワーク9を介して他の装置(カメラ2など)と通信を行うための装置であり、例えばイーサネット(登録商標)や無線LANなどの所定の通信規格に準拠して通信を行う装置(ネットワークインターフェースカードなど)を含む。
入力部120は、ユーザの操作に応じた指示や情報を入力するための装置であり、例えばキーボード、マウス、タッチパッド、タッチパネルなどの任意の入力装置を含む。
表示部130は、処理部160から入力される画像データに応じた画像を表示する装置であり、例えば液晶ディスプレイや有機ELディスプレイなどを含む。
インターフェース部140は、処理部160において種々のデータを入出力するための装置であり、例えばUSBなどの汎用的なインターフェース装置や、記録媒体(例えばメモリカード)のリーダーライター装置などを含む。
記憶部150は、処理部160のプロセッサによって実行されるプログラムを記憶するとともに、処理部160の処理の過程で一時的に保存されるデータ、処理部160の処理に利用されるデータ、処理部160の処理結果として得られたデータなどを記憶する。例えば記憶部150は、後述する登録情報51(図2)、カメラ情報52(図3)、履歴情報53(図4)を記憶する。
記憶部150は、例えば、主記憶装置(ROM、RAMなど)と補助記憶装置(フラッシュメモリ、ハードディスク、光ディスクなど)を含む。記憶部150は、1つの記憶装置から構成されてもよいし、1種類以上の複数の記憶装置から構成されてもよい。記憶部150を構成する各記憶装置は、コンピュータのバスや他の通信手段を介して処理部160と接続される。
処理部160は、情報処理装置1の全体的な動作を統括的に司り、所定の情報処理を実行する。処理部160は、例えば、記憶部150に格納された1以上のプログラムの命令コードに従って処理を実行する1以上のプロセッサ(CPU,MPUなど)を含む。処理部160は、記憶部150の1以上のプログラムを1以上のプロセッサが実行することにより、1以上のコンピュータとして動作する。
なお、処理部160は、特定の機能を実現するように構成された1以上の専用のハードウェア(ASIC、FPGAなど)を含んでもよい。この場合、処理部160は、対象物の判別に関わる処理を、上述した1以上のコンピュータにおいて実行してもよいし、当該処理の少なくとも一部を専用のハードウェアにおいて実行してもよい。
処理部160は、対象物の判別に関連する処理を行う構成要素として、例えば図1に示すように、取得部161と、判別部162と、登録部163と、履歴更新部164と、カメラ管理部165とを含む。
取得部161は、特定の対象物(人物など)を撮影可能なカメラ2が撮影した画像に基づいて生成される対象物の特徴情報を取得する。特徴情報は、対象物を含む画像(カメラ2が撮影した画像)から抽出された対象物の特徴(人物の顔の特徴など)に関する情報である。本実施形態では、一例として、対象物を撮影するカメラ2において特徴情報が生成されるものとする。カメラ2において特徴情報が生成される場合、取得部161は、カメラ2から特徴情報を直接取得してもよいし、ネットワーク9に接続された1以上のサーバ装置(クラウドサーバなど)を介して間接的に特徴情報を取得してもよい。取得部161において取得する特徴情報は、カメラ2で生成された特徴情報と同一でもよいし、カメラ2と情報処理装置1との間に介在するサーバ装置などによって所定の変換が施されたものでもよい。
判別部162は、取得部161において取得された特徴情報(以下、「取得特徴情報」と記す場合がある。)と、記憶部150に記憶された登録情報51に含まれる特徴情報(以下、「登録特徴情報」と記す場合がある。)とを照合する。登録情報51に含まれる登録特徴情報は、登録情報51に登録された個々の対象物について予め生成された特徴情報であり、例えば、予め撮影された対象物の画像から対象物の特徴を抽出することにより得られた情報である。判別部162は、この登録特徴情報と取得特徴情報との照合結果に基づいて、取得特徴情報が抽出された画像(カメラ2が撮影した画像)に含まれる対象物(以下、「画像中の対象物」と記す場合がある。)に該当する、登録情報51に登録された対象物(以下、「登録された対象物」と記す場合がある。)を判別する。
図2は、記憶部150に記憶される登録情報51の一例を示す図である。登録情報51は、登録された個々の対象物に関する所定の情報を含む。図2の例において、登録情報51に登録される対象物は人物である。図2における符号510は、一人の人物について登録される一群の情報を表す。図2の例に示す一群の情報510は、個々の人物を識別するための個人ID、登録を行った日付(登録日)、人物に関する個人情報(氏名,性別,生年月日,住所,当該住所の郵便番号,Eメールアドレス)、人物に割り当てられた種別(例えば会員の種別など)、現在のステータス(登録が有効か否かなど)、人物の顔画像のデータ、当該顔画像から抽出された人物の顔の特徴を示す特徴情報を含む。登録情報51は、登録された一人以上の人物の各々について、図2に示すような一群の情報510を含む。
なお判別部162は、画像中の対象物に該当する登録された対象物を判別する処理(以下、「判別処理」と記す場合がある。)を実行する際に、これらの対象物に関連した場所の郵便番号について照合を行う場合がある。すなわち、判別部162は、画像中の対象物に関連した場所の郵便番号(例えば、カメラ2が撮影した画像に含まれる人物の住所の郵便番号)を入力し、この入力した郵便番号と登録情報51に含まれた郵便番号(以下、「登録郵便番号」と記す場合がある。)とを照合する。この場合、判別部162は、特徴情報についての照合結果と郵便番号についての照合結果とに基づいて、画像中の対象物に該当する登録された対象物を判別する。
例えば、判別部162は、特徴情報についての照合結果(取得特徴情報と登録特徴情報とを照合した結果)において、画像中の対象物に該当する登録された対象物の候補を2以上判別した場合、画像中の対象物に関連した場所の郵便番号(例えば、カメラ2が撮影した画像に含まれる人物の住所の郵便番号)を入力部120において入力する。そして判別部162は、当該2以上の候補について登録情報51に含まれた登録郵便番号と、入力部120から入力した郵便番号とを照合し、この照合の結果に基づいて、当該2以上の候補の中から、画像中の対象物に該当する登録された対象物を判別する。例えば、判別部162は、当該2以上の候補の中から、入力部120で入力した郵便番号と同一の登録郵便番号が登録情報51に含まれている対象物を、画像中の対象物に該当する登録された対象物として判別する。これにより、特徴情報の照合だけでは対象物を判別し切れない場合でも、郵便番号の照合結果を利用して精度よく対象物を判別することが可能になる。
登録部163は、登録すべき対象物の情報(例えば図2に示す一群の情報510)を記憶部150の登録情報51に追加する処理を行う。例えば登録部163は、対象物に関する情報の入力を促す登録用画面を表示部130において表示する。登録部163は、この登録用画面の案内に従って入力部120により入力された情報を登録情報51に追加する。また登録部163は、通信部110において通信可能な他の装置から提供される対象物の情報や、インターフェース部140において記録媒体などから入力される対象物の情報を、登録情報51に追加してもよい。
履歴更新部164は、画像中の対象物に該当する登録された対象物が判別部162において判別された場合、登録された対象物の撮影履歴に関する情報を記憶部150に格納する。
本実施形態では、一例として、個々のカメラ2に関する情報を含んだカメラ情報52と、登録情報51に登録された個々の対象物の撮影履歴に関する履歴情報53とを記憶部150に記憶するものとする。カメラ情報52は、個々のカメラ2が撮影を行う場所の郵便番号(以下、「撮影場所郵便番号」と記す場合がある。)を含む。履歴情報53は、判別処理によって判別された対象物を撮影したカメラ2の撮影場所の郵便番号を含む。履歴更新部164は、画像中の対象物に該当する登録された対象物が判別部162において判別された場合、当該判別された対象物を撮影したカメラ2についてカメラ情報52に含まれる撮影場所郵便番号を、当該判別された対象物の撮影履歴に関する郵便番号として履歴情報53に追加する。登録された対象物の撮影履歴に関する情報として、カメラ2の撮影場所の郵便番号が履歴情報53に含まれるため、登録情報51に登録された各対象物の地理的及び時間的な移動パターン(対象物が人物である場合は、人物の行動パターン)を把握できる。
図3は、記憶部150に記憶されるカメラ情報52の一例を示す図である。図3における符号520は、1台のカメラ2に関する一群の情報を表す。図3の例に示す一群の情報520は、個々のカメラ2を識別するためのカメラID、個々のカメラ2に付与された名称、カメラ2の型式、カメラ2が備える機能(例えば性別判定機能、年齢判定機能、表情判定機能など)、ネットワーク9上におけるカメラ2のアドレス(例えばIPアドレス)、現在のステータス(ネットワーク9に接続中か否かなど)、撮影を行う場所の住所、当該住所の郵便番号(撮影場所郵便番号)を含む。カメラ情報52は、カメラシステムが有する1台以上のカメラ2の各々について、図3に示すような一群の情報520を含む。
図4は、記憶部150に記憶される履歴情報53の一例を示す図である。図4に示す履歴情報53において撮影の履歴を記録される対象物は人物である(図2に示す登録情報51と同じ)。図4における符号530は、判別処理によって一人の人物が判別された場合に記録される一群の情報を示す。図4の例に示す一群の情報530は、撮影された人物の個人ID、撮影された日時、撮影を行ったカメラ2のカメラID、撮影を行った場所の住所の郵便番号を含む。履歴情報53中の個人IDは登録情報51中の個人IDと同じであり、履歴情報53中のカメラIDはカメラ情報52中のカメラIDと同じである。
履歴更新部164は、判別処理によって対象物が判別される度に、判別された対象物について登録情報51に含まれる情報(個人IDなど)と、判別された対象物を撮影したカメラ2についてカメラ情報52に含まれる情報(カメラID、撮影場所郵便番号など)とに基づいて、図4に示すような一群の情報530を生成し、これを履歴情報53に追加する。
カメラ管理部165は、カメラシステムが備えるカメラ2の管理に関わる処理を行う。例えばカメラ管理部165は、カメラシステムに新規のカメラ2を追加する場合、新規に追加するカメラ2の情報の入力を促すカメラ追加用画面を表示部130に表示する。カメラ管理部165は、このカメラ追加用画面の案内に従って入力部120により入力された情報を、図3に示すカメラ情報52に追加する。
また、カメラ管理部165は、特定の条件を満たしたカメラ2を検索する場合、カメラ2の検索条件の入力を促すカメラ検索用画面を表示部130において表示する。カメラ管理部165は、このカメラ検索用画面の案内に従って入力部120により検索条件が入力されると、カメラ情報52(図3)において検索条件を満たしたカメラ2の情報を抽出し、抽出したカメラ2の情報を表示部130に表示する。例えば検索条件が特定の郵便番号である場合、カメラ管理部165は、カメラ情報52においてこの特定の郵便番号と同一の撮影場所郵便番号が含まれたカメラ2の情報を抽出し、表示部130において表示する。これにより、特定の郵便番号の地域に設置されたカメラ2の情報を容易に把握することができる。
[カメラ2]
図5は、カメラ2の構成の一例を示す図である。図5に示すカメラ2は、撮像部220と、通信部210と、インターフェース部230と、記憶部240と、処理部250を有する。
通信部210は、ネットワーク9を介して他の装置(情報処理装置1など)と通信を行うための装置であり、例えばイーサネット(登録商標)や無線LANなどの所定の通信規格に準拠して通信を行う装置(ネットワークインターフェースカードなど)を含む。
撮像部220は、画像を撮像する装置であり、CMOSイメージセンサなどの撮像素子、被写体の光を撮像素子へ導く光学系、撮像素子において撮像した画像を処理する画像処理装置などを含む。
インターフェース部230は、処理部250において種々のデータを入出力するための装置であり、例えばUSBなどの汎用的なインターフェース装置や、記録媒体(メモリカードなど)のリーダーライター装置などを含む。
記憶部240は、処理部250のプロセッサによって実行されるプログラムを記憶するとともに、処理部250の処理の過程で一時的に保存されるデータ、処理部250の処理に利用されるデータ、処理部250の処理結果として得られたデータなどを記憶する。記憶部240は、例えば、主記憶装置(ROM、RAMなど)と補助記憶装置(フラッシュメモリ、ハードディスク、光ディスクなど)を含む。記憶部240は、1つの記憶装置から構成されてもよいし、1種類以上の複数の記憶装置から構成されてもよい。
処理部250は、カメラ2の全体的な動作を統括的に制御する装置であり、例えば、記憶部240に格納された1以上のプログラムの命令コードに従って処理を実行する1以上のプロセッサ(CPU,MPUなど)を含む。処理部250は、記憶部240の1以上のプログラムを1以上のプロセッサが実行することにより、1以上のコンピュータとして動作する。処理部250は、特定の機能を実現するように構成された1以上の専用のハードウェア(ASIC、FPGAなど)を含んでもよい。処理部250は、全ての処理を1以上のコンピュータにおいて実行してもよいし、少なくとも一部の処理を専用のハードウェアにおいて実行してもよい。
処理部250は、撮像部220において画像(静止画や動画)を撮影するとともに、その撮影データ31を記憶部240に格納する。また、処理部250は、撮像部220において撮影した画像から、画像に含まれる特定の対象物の特徴に関する特徴情報32を抽出し、記憶部240に格納する。対象物が人物であり、人物の顔の特徴を特徴情報32として抽出する場合、例えば処理部250は、撮像部220が撮影した画像における人物の眼、鼻、口、顔、輪郭などの特徴点に基づいて特徴情報32を生成する。特徴情報32は、例えば多次元のベクトルでもよい。この場合、判別部162は、取得特徴情報が示すベクトルと登録特徴情報が示すベクトルとの相関係数などに基づいて、これらの特徴情報が示す顔の特徴が一致している度合いを算出し、算出した一致の度合いを所定のしきい値と比較することにより、画像中の人物と登録された人物とが一致しているか否か判定してもよい。
処理部250は、通信部210によって情報処理装置1と通信を行い、記憶部240に記憶した特徴情報32を情報処理装置1へ適宜送信する。処理部250は、特徴情報32が生成された画像の撮影日時に関する情報を、特徴情報32とともに情報処理装置1へ送信してもよい。
ここで、上述した構成を有する第1の実施形態に係る情報処理装置1の動作について説明する。
図6は、第1の実施形態に係る情報処理装置1における処理の一例を説明するためのフローチャートである。情報処理装置1は、カメラ2から特徴情報を取得する度に、図6のフローチャートに示した処理を実行する。図6の例において、情報処理装置1で判別される対象物は人物である。以下では、登録情報51に登録される人物を「登録者」と記し、カメラ2が撮影した画像中の人物を「被撮影者」と記す。
取得部161が被撮影者の特徴情報(取得特徴情報)をカメラ2から取得すると(ST100)、判別部162は、登録情報51に含まれる登録者の特徴情報(登録特徴情報)と、被撮影者の取得特徴情報とを照合する(ST105)。取得特徴情報と登録特徴情報とを照合した結果、被撮影者に該当する登録者が見つからなかった場合(ST110のNo)、処理部160は判別処理を終了する。
ステップST105の照合によって被撮影者に該当する登録者が1名のみ見つかった場合(ST110のYes、及び、ST115のNo)、判別部162は、この1名の登録者を、被撮影者に該当する登録者の判別結果として確定する(ST135)。情報処理装置1は、この判別結果を任意の処理(例:所定の登録者がカメラ2で撮影されたことを電子メールなどの所定の通知手段によって所定の宛先に通知する処理)に利用する。
履歴更新部164は、被撮影者に該当する登録者の判別結果が確定した場合(ST135)、この登録者の撮影履歴に関する情報を履歴情報53(図4)に追加する(ST140)。すなわち、履歴更新部164は、判別された登録者について登録情報51に含まれる情報(個人ID)と、判別された登録者を撮影したカメラ2についてカメラ情報52に含まれる情報(カメラID、撮影場所郵便番号など)とに基づいて、図4に示す一群の情報530を生成し、これを履歴情報53に追加する。
ステップST105の照合によって被撮影者に該当する登録者の候補が2名以上見つかった場合(ST110のYes、及び、ST115のYes)、判別部162は、被撮影者の住所の郵便番号を入力部120において入力する(ST120)。例えば、情報処理装置1を操作するユーザが窓口業務の担当者であり、窓口に訪れた被撮影者と直接対面している場合、被撮影者の住所の郵便番号をユーザが被撮影者から口頭で聞き取って、それを入力部120により情報処理装置1に入力してもよい。
入力部120において郵便番号を入力すると(ST120)、判別部162は、2名以上の候補について登録情報51に含まれる登録郵便番号(図2)と、入力部120において入力した郵便番号とを照合する(ST125)。入力部120において入力した郵便番号と登録郵便番号とを照合した結果、2名以上の候補の中に、入力した郵便番号と同一の登録郵便番号が登録情報51に含まれた登録者(すなわち、入力した郵便番号と同一の登録郵便番号の地区に住んでいる登録者)が1名のみ存在する場合(ST130のYes)、判別部162は、その1名の登録者を、被撮影者に該当する登録者の判別結果として確定する(ST135)。履歴更新部164は、当該確定した登録者の撮影履歴に関する情報を履歴情報53(図4)に追加する(ST140)。他方、ステップST125における郵便番号の照合の結果、入力部120において入力した郵便番号と同一の登録郵便番号の地区に住んでいる登録者が全く存在しないか、若しくは2名以上存在する場合(ST130のNo)、処理部160は判別処理を終了する。
以上説明したように、本実施形態によれば、特徴情報についての照合結果(取得特徴情報と登録特徴情報との照合結果)と郵便番号についての照合結果(画像中の対象物に関連した場所の郵便番号と登録された対象物に関連した場所の登録郵便番号との照合結果)とに基づいて、画像中の対象物に該当する登録された対象物が判別される。例えば、取得特徴情報と登録特徴情報との照合結果において、画像中の対象物に該当する登録された対象物の候補が2以上判別された場合、当該2以上の候補について登録情報51に含まれる登録郵便番号と入力部120において入力した郵便番号(画像中の対象物に関連した場所の郵便番号)との照合が行われ、この照合の結果に基づいて、当該2以上の候補の中から、画像中の対象物に該当する登録された対象物が判別される。従って、カメラ2の撮影条件や対象物の外観の類似などに起因して、特徴情報についての照合結果に基づく対象物の判別精度が低下する場合でも、郵便番号についての照合結果を判別処理に利用することにより、判別精度の低下を効果的に抑制することができる。
また、本実施形態によれば、画像中の対象物に該当する登録された対象物が判別部162において判別された場合、当該判別された対象物を含む画像を撮影したカメラ2についてカメラ情報52に含まれる撮影場所郵便番号が、当該判別された対象物の撮影履歴に関する郵便番号として履歴情報53に追加される。従って、登録情報51に登録された各対象物の地理的及び時間的な移動パターン(対象物が人物である場合は、人物の行動パターン)を有効に把握することができる。
更に、本実施形態によれば、各カメラ2が撮影を行う場所の郵便番号がカメラ情報52(図3)に含まれるため、郵便番号が表す地区ごとにカメラ2を管理し易くなる。例えば、地区ごとのカメラ2の設定を容易に行うことができる。特に郵便番号は、ほぼ全世界で使用されているため、地区ごとのカメラ2の管理に郵便番号を用いることで、世界各国にカメラ2が分散して設置されている場合でも、それぞれの国において地区ごとのカメラ2の管理を容易に行うことができる。
また、本実施形態によれば、各カメラ2で生成された対象物の特徴情報が情報処理装置1に提供され、カメラ2が撮影した対象物の画像はカメラ2の内部に留まるため、情報処理装置1のユーザ以外の他者に対象物の画像が漏洩することを効果的に防止できる。
<第2の実施形態>
次に、第2の実施形態に係る情報処理装置1について説明する。第2の実施形態に係る情報処理装置1の構成は、第1の実施形態に係る情報処理装置1と概ね同じであるが、処理部160の一部の動作に関して、第1の実施形態に係る情報処理装置1と異なる。すなわち、第2の実施形態に係る情報処理装置1では、画像中の対象物に該当する登録された対象物を判別できない場合に、この画像中の対象物を新規の対象物として自動的に登録する。例えばカメラ2で撮影された不特定の人物を対象物として自動的に登録することにより、各カメラ2で撮影された対象物(不特定の人物)の判別結果をマーケティングなどに活用することが可能となる。以下では、第1の実施形態に係る情報処理装置1との相違点(特に、判別部162及び登録部163の動作の相違点)を中心に説明する。
図7は、第2の実施形態に係る情報処理装置1において記憶部150に記憶される登録情報51Aの一例を示す図である。図7の例において、登録情報51Aに登録される対象物は、氏名などが不明な人物(不特定の人物)である。図7における符号510Aは、一人の人物について登録される一群の情報を表す。図7の例に示す一群の情報510Aは、個々の人物を識別するための個人ID、登録を行った日付(登録日)、推定性別、推定年齢、撮影された場所の郵便番号、撮影された人物の特徴情報を含む。登録情報51Aは、登録された一人以上の人物の各々について、図7に示すような一群の情報510Aを含む。
一群の情報510A(図7)に含まれる「推定性別」及び「推定年齢」は、それぞれカメラ2が推定する。すなわち、カメラ2の処理部250が、撮像部220の撮像画像に含まれる人物の画像に基づいて(例えば画像における顔の特徴などに基づいて)、人物の性別と年齢を推定する。性別及び年齢の推定結果は、人物の特徴情報と共にカメラ2から情報処理装置1へ提供される。情報処理装置1の取得部161は、特徴情報と共に性別及び年齢の推定結果を取得する。
登録部163は、画像中の対象物に該当する登録された対象物が判別部162において判別不能であった場合、取得部161において取得された取得特徴情報を、新規に登録する対象物の特徴情報として登録情報51Aに追加するともに、当該判別不能であった対象物を含む画像を撮影したカメラ2についてカメラ情報52に含まれる撮影場所郵便番号を登録情報51Aに追加する。例えば、登録部163は、画像中の対象物(人物)に該当する登録された対象物(人物)が判別部162において判別不能であった場合、取得部161において取得された「特徴情報」「推定性別」「推定年齢」を含む一群の情報510A(図7)を生成し、これを登録情報51Aに追加する。
判別部162は、既に説明した第1の実施形態と同様に、特徴情報についての照合結果(取得特徴情報と登録特徴情報との照合結果)と郵便番号についての照合結果(画像中の対象物に関連した場所の郵便番号と登録された対象物に関連した場所の登録郵便番号との照合結果)とに基づいて、判別処理を行う。ただし、第2の実施形態における判別部162は、画像中の対象物に関連した場所の郵便番号を入力する場合に、第1の実施形態のように入力部120から郵便番号を入力するのではなく、特徴情報を生成したカメラ2についてカメラ情報52に含まれる撮影場所郵便番号(カメラ2で撮影が行われた場所の郵便番号)を入力する。これにより、ユーザが入力部120を操作して郵便番号を入力する必要がなくなり、撮影した対象物に関連した場所の郵便番号をカメラ情報52から自動的に入力することが可能となる。
例えば、判別部162は、特徴情報についての照合結果において、画像中の対象物に該当する登録された対象物の候補を2以上判別した場合、2以上の候補について登録情報51Aに含まれた郵便番号(登録郵便番号)と、特徴情報を生成したカメラ2についてカメラ情報52に含まれた郵便番号(撮影場所郵便番号)とを照合する。判別部162は、登録郵便番号と撮影場所郵便番号とを照合した結果に基づいて、2以上の候補の中から、画像中の対象物に該当する登録された対象物を判別する。例えば、判別部162は、2以上の候補の中から、特徴情報を生成したカメラ2についてカメラ情報52に含まれる撮影場所郵便番号と同一の登録郵便番号が登録情報51Aに含まれている対象物を、画像中の対象物に該当する登録された対象物として判別する。これにより、特徴情報の照合では対象物を判別し切れない場合でも、登録郵便番号と撮影場所郵便番号との照合結果を利用して精度よく対象物を判別することが可能になる。
更に、判別部162は、登録郵便番号と撮影場所郵便番号との照合結果において、2以上の候補について登録情報51Aに含まれた登録郵便番号が、特徴情報を生成したカメラ2についてカメラ情報52に含まれた撮影場所郵便番号と一致しない場合、2以上の候補について履歴情報53(図4)に含まれる郵便番号(以下、「履歴郵便番号」と記す場合がある。)と、特徴情報を生成したカメラ2についてカメラ情報52に含まれる撮影場所郵便番号とを更に照合する。例えば、判別部162は、2以上の候補の中から、特徴情報を生成したカメラ2についてカメラ情報52に含まれた撮影場所郵便番号と同一の履歴郵便番号が履歴情報53に含まれている対象物を、画像中の対象物に該当する登録された対象物として判別する。
対象物が複数のカメラ2で撮影され得る場合、登録情報51Aに登録された対象物が登録情報51Aに含まれる登録郵便番号の地区と異なる場所のカメラ2で撮影される可能性がある。この場合、登録情報51Aに含まれる登録郵便番号とカメラ情報52に含まれる撮影場所郵便番号とが異なるため、これらの郵便番号の照合結果では対象物を正しく判別できない。しかしながら、履歴情報53は過去に対象物が撮影された場所の履歴郵便番号を含んでいるため、履歴情報53に含まれる履歴郵便番号は、カメラ情報52に含まれる撮影場所郵便番号と一致する可能性がある。従って、登録情報51Aに含まれる登録郵便番号とカメラ情報52に含まれる撮影場所郵便番号との照合結果で対象物を判別し切れない場合でも、履歴情報53に含まれる履歴郵便番号とカメラ情報52に含まれる撮影場所郵便番号との照合結果を更に判別処理に利用することによって、複数のカメラ2で撮影され得る対象物(例えば不特定の人物)を精度よく判別することが可能となる。
ここで、上述した構成を有する第2の実施形態に係る情報処理装置1の動作について説明する。
図8及び図9は、第2の実施形態に係る情報処理装置1における処理の一例を説明するためのフローチャートである。情報処理装置1は、カメラ2から特徴情報を取得する度に、これらのフローチャートに示した処理を実行する。図6と同様に、情報処理装置1で判別される対象物は人物であり、登録情報51Aに登録される人物を「登録者」、カメラ2が撮影した画像中の人物を「被撮影者」と記す。
取得部161が被撮影者の特徴情報(取得特徴情報)をカメラ2から取得すると(ST200)、判別部162は、登録情報51Aに含まれる登録者の特徴情報(登録特徴情報)と、被撮影者の取得特徴情報とを照合する(ST205)。
取得特徴情報と登録特徴情報とを照合した結果、特徴情報が生成された画像中の被撮影者に該当する登録者が判別部162において判別不能であった場合(ST210のNo)、登録部163は、取得部161において取得された取得特徴情報を、新規に登録する登録者の特徴情報として登録情報51Aに追加する。また登録部163は、判別不能であった被撮影者を撮影したカメラ2についてカメラ情報52に含まれる郵便番号を、この新規に登録する登録者の登録情報51Aに追加する(ST215)。例えば、登録部163は、画像中の被撮影者に該当する登録者が判別部162において判別不能であった場合、取得部161において取得された「特徴情報」「推定性別」「推定年齢」と、判別不能であった被撮影者を撮影したカメラ2についてカメラ情報52に含まれる撮影場所郵便番号とを含んだ一群の情報510A(図7)を生成し、これを登録情報51Aに追加する。
ステップST205の照合によって被撮影者に該当する登録者が1名のみ見つかった場合(ST210のYes、及び、ST220のNo)、判別部162は、この1名の登録者を、被撮影者に該当する登録者の判別結果として確定する(ST255)。情報処理装置1は、この判別結果を任意の処理に利用する。
履歴更新部164は、被撮影者に該当する登録者の判別結果が確定した場合(ST255)、この登録者の撮影履歴に関する情報を履歴情報53(図4)に追加する(ST260)。すなわち、履歴更新部164は、判別された登録者について登録情報51Aに含まれる情報(個人ID)と、判別された登録者を含む画像を撮影したカメラ2についてカメラ情報52に含まれる情報(カメラID、撮影場所郵便番号など)とに基づいて、図4に示す一群の情報530を生成し、これを履歴情報53に追加する。
ステップST205の照合によって被撮影者に該当する登録者の候補が2名以上見つかった場合(ST210のYes、及び、ST220のYes)、判別部162は、2以上の候補について登録情報51Aに含まれた登録郵便番号と、特徴情報を生成したカメラ2についてカメラ情報52に含まれた撮影場所郵便番号とを照合する(ST225)。例えば判別部162は、2以上の候補の中から、撮影場所郵便番号と同一の登録郵便番号が登録情報51Aに含まれている登録者を検索する。
ステップST225の郵便番号の照合結果、2名以上の候補の中に、撮影場所郵便番号と同一の登録郵便番号が登録情報51Aに含まれた登録者が1名のみ存在する場合(ST230のYes、及び、ST235のYes)、判別部162は、その1名の登録者を、被撮影者に該当する登録者の判別結果として確定する(ST255)。履歴更新部164は、当該確定した登録者の撮影履歴に関する情報を履歴情報53(図4)に追加する(ST260)。
他方、ステップST225の郵便番号の照合結果、2名以上の候補の中に、撮影場所郵便番号と同一の登録郵便番号が登録情報51Aに含まれた登録者が2名以上存在する場合や、当該登録者が存在しない場合(ST230のNo、又は、ST235のNo)、判別部162は、2以上の候補について履歴情報53(図4)に含まれる履歴郵便番号と、特徴情報を生成したカメラ2についてカメラ情報52に含まれた撮影場所郵便番号とを照合する(ST240)。例えば判別部162は、2以上の候補の中から、撮影場所郵便番号と同一の履歴郵便番号が履歴情報53に含まれている登録者を検索する。
ステップST240の照合の結果、2名以上の候補の中に、撮影場所郵便番号と同一の履歴郵便番号が履歴情報53に含まれている登録者が1名のみ見つかった場合(ST245のYes、及び、ST250のYes)、判別部162は、その1名の登録者を、被撮影者に該当する登録者の判別結果として確定する(ST255)。履歴更新部164は、当該確定した登録者の撮影履歴に関する情報を履歴情報53(図4)に追加する(ST260)。他方、ステップST240の照合の結果、2名以上の候補の中に、撮影場所郵便番号と同一の履歴郵便番号が履歴情報53に含まれている登録者が2名以上存在する場合や、当該登録者が存在しない場合(ST245のNo、又は、ST250のNo)、処理部160は、被撮影者に該当する登録者を確定せずに判別処理を終了する。
以上説明したように、本実施形態によれば、画像中の対象物に該当する登録された対象物が判別部162において判別不能であった場合、取得部161において取得された取得特徴情報が、新規に登録する対象物の特徴情報として登録情報51Aに追加される。またこの場合、判別不能であった対象物を含む画像を撮影したカメラ2についてカメラ情報52に含まれる郵便番号が、登録情報51Aに追加される。これにより、カメラ2が撮影した画像に含まれる対象物の特徴情報と、この対象物が撮影された場所の郵便番号とを、登録情報51Aへ自動的に登録できる。例えば、カメラ2で撮影された不特定の人物の情報として、人物の顔の特徴を示す特徴情報と、その人物が撮影された場所の郵便番号とを、登録情報51Aへ自動的に登録し、マーケティングなどに活用することが可能となる。
また、本実施形態によれば、特徴情報についての照合結果において、画像中の対象物に該当する登録された対象物の候補が2以上判別された場合、2以上の候補について登録情報51Aに含まれた登録郵便番号と、特徴情報を生成したカメラ2についてカメラ情報52に含まれた撮影場所郵便番号との照合が行われ、この照合結果に基づいて、画像中の対象物に該当する登録された対象物が判別される。このように、登録郵便番号と撮影場所郵便番号との照合結果を判別処理に利用することにより、対象物の判別精度の低下を効果的に抑制できる。
更に、本実施形態によれば、登録郵便番号と撮像場所郵便番号との照合を行った結果、2以上の候補の登録郵便番号がいずれも撮像場所郵便番号と一致しない場合、2以上の候補について履歴情報53に含まれる履歴郵便番号と、特徴情報を生成したカメラ2についてカメラ情報52に含まれた撮影場所郵便番号とが更に照合され、この照合結果に基づいて、画像中の対象物に該当する登録された対象物が判別される。従って、登録郵便番号と撮像場所郵便番号との照合結果では判別し切れない対象物を、履歴郵便番号と撮影場所郵便番号との照合結果に基づいて的確に判別することが可能となる。
なお、本発明は上述した実施形態にのみ限定されるものではなく、種々のバリエーションを含んでいる。
例えば、上述した実施形態では、カメラ2が撮影した画像に含まれる人物の顔の特徴を特徴情報として抽出する例を挙げているが、顔に限定されない任意の身体部位の特徴を特徴情報として抽出してもよいし、身体全体の特徴を特徴情報として抽出してよい。
また、上述した実施形態では、判別処理により人物を判別する例を挙げているが、判別処理の対象物は人間以外の生き物でもよいし、物体(非生物)でもよい。例えば、車両などの任意の移動体を判別処理の対象物としてもよい。
また、上述した実施形態では、カメラ2において対象物の特徴情報を生成する例を挙げているが、本発明はこの例に限定されない。本発明の他の実施形態では、カメラ2以外の装置(例えば情報処理装置1や、ネットワーク9に接続される任意のサーバ装置)において、カメラ2が撮影した画像に基づいて対象物の特徴情報を生成してもよい。
1…情報処理装置、110…通信部、120…入力部、130…表示部、140…インターフェース部、150…記憶部、160…処理部、161…取得部、162…判別部、163…登録部、164…履歴更新部、165…カメラ管理部、51,51A…登録情報、52…カメラ情報、53…履歴情報、2…カメラ、210…通信部、220…撮像部、230…インターフェース部、240…記憶部、250…処理部、9…ネットワーク

Claims (10)

  1. 特定の対象物を撮影可能な1以上のカメラが撮影した画像に基づいて生成された特徴情報であって、前記対象物を含む前記画像から抽出された前記対象物の特徴に関する前記特徴情報を取得する取得部と、
    1以上の登録された前記対象物の特徴に関する前記特徴情報を含んだ登録情報を記憶する記憶部と、
    前記取得部において取得された前記特徴情報と前記登録情報に含まれた前記特徴情報とを照合し、前記特徴情報についての照合結果に基づいて、前記特徴情報が生成された前記画像中の前記対象物に該当する前記登録された対象物を判別する判別部とを有し、
    前記登録情報は、前記登録された対象物に関連した場所の郵便番号である登録郵便番号を含んでおり、
    前記判別部は、前記画像中の対象物に関連した場所の郵便番号を入力し、前記登録情報に含まれた前記登録郵便番号と前記入力した郵便番号とを照合し、前記特徴情報についての照合結果と前記郵便番号についての照合結果とに基づいて、前記画像中の対象物に該当する前記登録された対象物を判別する、
    情報処理装置。
  2. ユーザの操作に応じて情報を入力する入力部を有し、
    前記判別部は、前記特徴情報についての照合結果において、前記画像中の対象物に該当する前記登録された対象物の候補を2以上判別した場合、前記画像中の対象物に関連した場所の郵便番号を前記入力部において入力し、前記2以上の候補について前記登録情報に含まれた前記登録郵便番号と前記入力した郵便番号とを照合し、当該照合の結果に基づいて、前記2以上の候補の中から、前記画像中の対象物に該当する前記登録された対象物を判別する、
    請求項1に記載の情報処理装置。
  3. 前記記憶部は、
    複数の前記カメラがそれぞれ撮影を行う場所の郵便番号である撮影場所郵便番号を含んだカメラ情報と、
    前記登録された対象物の撮影履歴に関する履歴情報と
    を記憶し、
    前記画像中の対象物に該当する前記登録された対象物が前記判別部において判別された場合、当該判別された対象物を含む前記画像を撮影した前記カメラについて前記カメラ情報に含まれる前記撮影場所郵便番号を、当該判別された対象物の撮影履歴に関する郵便番号として前記履歴情報に追加する履歴更新部を有する、
    請求項1又は2に記載の情報処理装置。
  4. 前記記憶部は、複数の前記カメラがそれぞれ撮影を行う場所の郵便番号である撮影場所郵便番号を含んだカメラ情報を記憶し、
    前記画像中の対象物に該当する前記登録された対象物が前記判別部において判別不能であった場合、前記取得部において取得された前記特徴情報を、新規に登録する前記対象物の前記特徴情報として前記登録情報に追加するともに、当該判別不能であった対象物を含む前記画像を撮影した前記カメラについて前記カメラ情報に含まれる前記撮影場所郵便番号を、前記新規に登録する対象物に関連した場所の前記登録郵便番号として前記登録情報に追加する登録部を有し、
    前記判別部は、前記特徴情報が生成された前記画像を撮影した前記カメラについて前記カメラ情報に含まれる前記撮影場所郵便番号を、前記画像中の対象物に関連した場所の郵便番号として入力する、
    請求項1に記載の情報処理装置。
  5. 前記判別部は、前記特徴情報についての照合結果において、前記画像中の対象物に該当する前記登録された対象物の候補を2以上判別した場合、前記2以上の候補について前記登録情報に含まれた前記登録郵便番号と、前記特徴情報が生成された前記画像を撮影した前記カメラについて前記カメラ情報に含まれた前記撮影場所郵便番号とを照合し、当該照合の結果に基づいて、前記2以上の候補の中から、前記画像中の対象物に該当する前記登録された対象物を判別する、
    請求項4に記載の情報処理装置。
  6. 前記記憶部は、前記登録された対象物の撮影履歴に関する履歴情報を記憶し、
    前記画像中の対象物に該当する前記登録された対象物が前記判別部において判別された場合、当該判別された対象物を含む前記画像を撮影した前記カメラについて前記カメラ情報に含まれる前記撮影場所郵便番号を、当該判別された対象物の撮影履歴に関する郵便番号として前記履歴情報に追加する履歴更新部を有する、
    請求項5に記載の情報処理装置。
  7. 前記判別部は、前記登録郵便番号と前記撮影場所郵便番号との照合結果において、前記2以上の候補について前記登録情報に含まれた前記登録郵便番号が、前記特徴情報が生成された前記画像を撮影した前記カメラについて前記カメラ情報に含まれた前記撮影場所郵便番号と一致しない場合、前記2以上の候補について前記履歴情報に含まれた郵便番号である履歴郵便番号と、前記特徴情報が生成された前記画像を撮影した前記カメラについて前記カメラ情報に含まれた前記撮影場所郵便番号とを照合し、前記履歴郵便番号と前記撮影場所郵便番号との照合結果に基づいて、前記2以上の候補の中から、前記画像中の対象物に該当する前記登録された対象物を判別する、
    請求項6に記載の情報処理装置。
  8. 特定の対象物を撮影可能な1以上のカメラが撮影した画像に基づいて生成された特徴情報であって、前記対象物を含む前記画像から抽出された前記対象物の特徴に関する前記特徴情報をコンピュータによって処理する情報処理方法であって、
    前記コンピュータの記憶部には、1以上の登録された前記対象物の特徴に関する前記特徴情報を含んだ登録情報が記憶されており、
    前記特徴情報を取得する取得工程と、
    前記取得工程において取得された前記特徴情報と前記登録情報に含まれた前記特徴情報とを照合し、前記特徴情報についての照合結果に基づいて、前記特徴情報が生成された前記画像中の前記対象物に該当する前記登録された対象物を判別する判別工程とを有し、
    前記登録情報は、前記登録された対象物に関連した場所の郵便番号である登録郵便番号を含んでおり、
    前記判別工程は、前記画像中の対象物に関連した場所の郵便番号を入力し、前記登録情報に含まれた前記登録郵便番号と前記入力した郵便番号とを照合し、前記特徴情報についての照合結果と前記郵便番号についての照合結果とに基づいて、前記画像中の対象物に該当する前記登録された対象物を判別することを含む、
    情報処理方法。
  9. 請求項8に記載された情報処理方法をコンピュータに実行させるためのプログラム。
  10. 請求項1〜7のいずれか一項に記載された情報処理装置と複数の前記カメラとを備えるカメラシステム。
JP2019207468A 2019-11-15 2019-11-15 情報処理装置、情報処理方法、プログラム及びカメラシステム Active JP6713153B1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019207468A JP6713153B1 (ja) 2019-11-15 2019-11-15 情報処理装置、情報処理方法、プログラム及びカメラシステム
US17/607,732 US11494942B2 (en) 2019-11-15 2020-11-10 Information processing device, information processing method, program, recording medium, and camera system
EP20886743.2A EP4060605A4 (en) 2019-11-15 2020-11-10 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, PROGRAM, RECORDING MEDIA AND CAMERA SYSTEM
PCT/JP2020/041954 WO2021095732A1 (ja) 2019-11-15 2020-11-10 情報処理装置、情報処理方法、プログラム、記録媒体及びカメラシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019207468A JP6713153B1 (ja) 2019-11-15 2019-11-15 情報処理装置、情報処理方法、プログラム及びカメラシステム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020084493A Division JP2021083071A (ja) 2020-05-13 2020-05-13 情報処理装置

Publications (2)

Publication Number Publication Date
JP6713153B1 true JP6713153B1 (ja) 2020-06-24
JP2021081880A JP2021081880A (ja) 2021-05-27

Family

ID=71104025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019207468A Active JP6713153B1 (ja) 2019-11-15 2019-11-15 情報処理装置、情報処理方法、プログラム及びカメラシステム

Country Status (4)

Country Link
US (1) US11494942B2 (ja)
EP (1) EP4060605A4 (ja)
JP (1) JP6713153B1 (ja)
WO (1) WO2021095732A1 (ja)

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7301569B2 (en) * 2001-09-28 2007-11-27 Fujifilm Corporation Image identifying apparatus and method, order processing apparatus, and photographing system and method
JP3903783B2 (ja) 2001-12-14 2007-04-11 日本電気株式会社 顔メタデータ生成方法および装置、並びに顔類似度算出方法および装置
JP2004166024A (ja) * 2002-11-14 2004-06-10 Hitachi Ltd 監視カメラシステムおよび監視方法
FR2907244B1 (fr) * 2006-10-12 2009-03-13 Solystic Sas Procede de traitement d'envois postaux utilisant un "intercalaire" representant une region d'interet (roi)
DE102008003775A1 (de) * 2007-09-18 2009-03-26 Siemens Aktiengesellschaft Verfahren und Vorrichtung zum Transportieren und Bearbeiten mehrerer Gegenstände
US7941378B2 (en) * 2008-05-16 2011-05-10 Siemens Industry, Inc. Stamp testing and monitoring
GB0810734D0 (en) * 2008-06-12 2008-07-16 Redzebra Mobile Ltd Digital camera system and method of operation thereof
JP5109836B2 (ja) * 2008-07-01 2012-12-26 株式会社ニコン 撮像装置
JP2010257450A (ja) * 2009-03-31 2010-11-11 Sogo Keibi Hosho Co Ltd 人物検索装置、人物検索方法、及び人物検索プログラム
EP2259210A2 (de) * 2009-06-05 2010-12-08 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Analyse einer Datenbank
US8818049B2 (en) * 2011-05-18 2014-08-26 Google Inc. Retrieving contact information based on image recognition searches
JP2013149034A (ja) 2012-01-18 2013-08-01 Canon Inc 画像表示装置、画像表示方法及びプログラム
US20150140526A1 (en) * 2013-11-21 2015-05-21 The Language Epress, Inc. Systems and methods for career preferences assessment
US20150261866A1 (en) * 2014-03-12 2015-09-17 Grace Maria Cerrone Device, system and method for facilitating communications
US9082099B1 (en) * 2014-07-18 2015-07-14 Dmitriy Kolchin System and method for context-sensitive delivery notification
US20160019495A1 (en) * 2014-07-18 2016-01-21 Dmitriy Kolchin System and method for context-sensitive delivery notification
US9833097B2 (en) * 2015-02-13 2017-12-05 Cisco Technology, Inc. Smart postal box in support of autonomous delivery nodes
JP6115874B2 (ja) 2015-02-20 2017-04-19 パナソニックIpマネジメント株式会社 ウェアラブルカメラシステム及び録画制御方法
US20180260777A1 (en) * 2017-03-09 2018-09-13 Daniel Judge Secure postal delivery system having a personal delivery code and method
JP6974032B2 (ja) * 2017-05-24 2021-12-01 シャープ株式会社 画像表示装置、画像形成装置、制御プログラムおよび制御方法
US10650391B2 (en) * 2017-07-18 2020-05-12 Mastercard International Incorporated System and method for determining population movement
US20190340663A1 (en) * 2018-05-01 2019-11-07 Merge In, LLC Technologies for real time communications
US11216773B1 (en) * 2021-04-27 2022-01-04 Postal Partners, LLC Resource efficient interactions with data corresponding to physical parcel

Also Published As

Publication number Publication date
WO2021095732A1 (ja) 2021-05-20
JP2021081880A (ja) 2021-05-27
US11494942B2 (en) 2022-11-08
EP4060605A4 (en) 2023-02-08
EP4060605A1 (en) 2022-09-21
US20220207774A1 (en) 2022-06-30

Similar Documents

Publication Publication Date Title
JP6013241B2 (ja) 人物認識装置、及び方法
US9875425B2 (en) Individual identification device, and identification threshold setting method
US8705813B2 (en) Identification device, identification method, and storage medium
JP6268960B2 (ja) 画像認識装置及び画像認識装置に対するデータ登録方法
JP5434708B2 (ja) 照合装置、デジタル画像処理システム、照合装置制御プログラム、コンピュータ読み取り可能な記録媒体、および照合装置の制御方法
JP6573311B2 (ja) 顔認識システム、顔認識サーバ及び顔認識方法
JP6969878B2 (ja) 識別器学習装置および識別器学習方法
JP2017151832A (ja) 待ち時間算出システム
JP5618295B2 (ja) 認証システム及び認証の信頼度の判定方法
JP5423740B2 (ja) 映像提供装置、映像利用装置、映像提供システム、映像提供方法、および、コンピュータ・プログラム
CN112771522A (zh) 生物体认证装置、生物体认证方法以及生物体认证程序
JP2022003526A (ja) 情報処理装置、検出システム、情報処理方法、及びプログラム
JP6713153B1 (ja) 情報処理装置、情報処理方法、プログラム及びカメラシステム
JP7020567B2 (ja) 情報処理システム、情報処理装置、情報処理方法、およびプログラム
JP6815667B1 (ja) 情報処理装置、情報処理方法、プログラム及びカメラシステム
JP7298729B2 (ja) 情報処理システム、情報処理装置、情報処理方法、およびプログラム
JP2021083071A (ja) 情報処理装置
JP4222066B2 (ja) 顔照合装置
JP6905653B2 (ja) 顔認識システム、顔認識サーバ及び顔認識方法
JP7248348B2 (ja) 顔認証装置、顔認証方法、及びプログラム
JP7302329B2 (ja) 画像処理装置、人物判別方法、およびプログラム
JP2023074751A (ja) 情報処理システム、情報処理装置、情報処理方法及びプログラム
JP2022073249A (ja) 情報処理システム、情報処理システムの制御方法、およびプログラム
JP2023115087A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2022146036A (ja) 忘れ物検出装置、忘れ物検出システム及び忘れ物検出プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191223

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191224

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200305

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200414

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200513

R150 Certificate of patent or registration of utility model

Ref document number: 6713153

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250