JP2021083071A - Information processing device - Google Patents

Information processing device Download PDF

Info

Publication number
JP2021083071A
JP2021083071A JP2020084493A JP2020084493A JP2021083071A JP 2021083071 A JP2021083071 A JP 2021083071A JP 2020084493 A JP2020084493 A JP 2020084493A JP 2020084493 A JP2020084493 A JP 2020084493A JP 2021083071 A JP2021083071 A JP 2021083071A
Authority
JP
Japan
Prior art keywords
information
camera
unit
registered
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020084493A
Other languages
Japanese (ja)
Inventor
哲央 丸山
Tetsuhisa Maruyama
哲央 丸山
吉一 加藤
Yoshikazu Kato
吉一 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Patic Trust Co Ltd
Original Assignee
Patic Trust Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Patic Trust Co Ltd filed Critical Patic Trust Co Ltd
Priority to JP2020084493A priority Critical patent/JP2021083071A/en
Publication of JP2021083071A publication Critical patent/JP2021083071A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To provide an information processing device for easily managing a camera in each zone with the camera established.SOLUTION: An image processing device 1 includes an acquisition part 161 for acquiring feature information generated on the basis of an image photographed by a camera 2 capable of photographing a specific object, the feature information related to a feature of the object extracted from an image including the object, a storage part 150 for storing registration information 51 including feature information on a feature of a registered object, and a discrimination part 162 for collating the feature information acquired by the acquisition part 161 with the feature information included in the registration information 51, and discriminating the registered object corresponding to the object in the image with the feature information generated therefrom on the basis of a collation result about the feature information. The storage part 150 stores camera information including a postal code number of a place where a plurality of cameras 2 respectively perform photographing.SELECTED DRAWING: Figure 1

Description

本発明は、カメラで撮影された対象物の判別に関する処理を行う情報処理装置、情報処理方法、プログラム及びカメラシステムに関するものである。 The present invention relates to an information processing device, an information processing method, a program, and a camera system that perform processing related to discrimination of an object photographed by a camera.

カメラで撮影された画像に含まれる人物の顔の特徴を抽出し、予めデータベースに登録された人物の顔画像と抽出した顔の特徴とを照合することにより、カメラで撮影された人物を判別する技術が知られている(例えば特許文献1を参照)。近年、AI(artificial intelligence)を用いた画像認識技術の進展によって、カメラが撮影した画像に基づく人や物の判別を高精度に行うことが可能になってきている。 The person photographed by the camera is identified by extracting the facial features of the person included in the image taken by the camera and collating the face image of the person registered in the database in advance with the extracted facial features. The technique is known (see, for example, Patent Document 1). In recent years, advances in image recognition technology using AI (artificial intelligence) have made it possible to discriminate people and objects with high accuracy based on images taken by a camera.

特開2003−187229号公報Japanese Unexamined Patent Publication No. 2003-187229

カメラが撮影した顔の画像などから人物を自動的に判別する技術は、例えば、施設の入口における入場者のチェック、窓口業務における登録済のユーザの受け付け処理、店舗におけるリピータ数のカウントなどに応用可能である。しかしながら、カメラの設置場所に制約がある場合、カメラと被写体との距離や、カメラの撮影方向、周囲の照明の状況などの条件が顔の撮影に適していないことがある。そのような場合、顔画像による人物の判別を十分な精度で行えない可能性がある。また、顔の特徴が近似した複数の人物が存在する場合も、顔画像による人物の判別が困難となる可能性がある。 Technology that automatically identifies a person from a face image taken by a camera is applied to, for example, checking visitors at the entrance of a facility, accepting registered users at the counter, counting the number of repeaters in a store, and so on. It is possible. However, when there are restrictions on the installation location of the camera, conditions such as the distance between the camera and the subject, the shooting direction of the camera, and the surrounding lighting conditions may not be suitable for face shooting. In such a case, it may not be possible to identify the person based on the face image with sufficient accuracy. Further, even when there are a plurality of persons having similar facial features, it may be difficult to distinguish the persons by the facial image.

本発明はかかる事情に鑑みてなされたものであり、その目的は、カメラで撮影した画像から得られる情報を用いて対象物を判別する場合に、カメラの撮影条件や対象物の外観の類似に起因して判別精度が低下することを抑制できる情報処理装置、情報処理方法及びプログラムを提供すること、並びに、そのような情報処理装置を備えるカメラシステムを提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is to resemble the shooting conditions of a camera and the appearance of an object when the object is discriminated by using the information obtained from the image taken by the camera. It is an object of the present invention to provide an information processing device, an information processing method and a program capable of suppressing a decrease in discrimination accuracy due to the cause, and to provide a camera system provided with such an information processing device.

本発明の第1の観点に係る情報処理装置は、特定の対象物を撮影可能な1以上のカメラが撮影した画像に基づいて生成された特徴情報であって、前記対象物を含む前記画像から抽出された前記対象物の特徴に関する前記特徴情報を取得する取得部と、1以上の登録された前記対象物の特徴に関する前記特徴情報を含んだ登録情報を記憶する記憶部と、前記取得部において取得された前記特徴情報と前記登録情報に含まれた前記特徴情報とを照合し、前記特徴情報についての照合結果に基づいて、前記特徴情報が生成された前記画像中の前記対象物に該当する前記登録された対象物を判別する判別部とを有し、前記登録情報は、前記登録された対象物に関連した場所の郵便番号である登録郵便番号を含んでおり、前記判別部は、前記画像中の対象物に関連した場所の郵便番号を入力し、前記登録情報に含まれた前記登録郵便番号と前記入力した郵便番号とを照合し、前記特徴情報についての照合結果と前記郵便番号についての照合結果とに基づいて、前記画像中の対象物に該当する前記登録された対象物を判別する。 The information processing apparatus according to the first aspect of the present invention is feature information generated based on an image taken by one or more cameras capable of photographing a specific object, and is derived from the image including the object. In the acquisition unit that acquires the feature information regarding the extracted features of the object, a storage unit that stores the registration information including the feature information regarding one or more registered features of the object, and the acquisition unit. The acquired feature information is collated with the feature information included in the registration information, and based on the collation result of the feature information, the feature information corresponds to the object in the generated image. It has a discriminating unit for discriminating the registered object, and the registration information includes a registered postal code which is a postal code of a place related to the registered object, and the discriminating unit includes the discriminating unit. Enter the postal code of the place related to the object in the image, collate the registered postal code included in the registration information with the entered postal code, and check the collation result for the feature information and the postal code. Based on the collation result of, the registered object corresponding to the object in the image is determined.

本発明の第2の観点に係る情報処理方法は、特定の対象物を撮影可能な1以上のカメラが撮影した画像に基づいて生成された特徴情報であって、前記対象物を含む前記画像から抽出された前記対象物の特徴に関する前記特徴情報をコンピュータによって処理する情報処理方法であって、前記コンピュータの記憶部には、1以上の登録された前記対象物の特徴に関する前記特徴情報を含んだ登録情報が記憶されており、前記特徴情報を取得する取得工程と、前記取得工程において取得された前記特徴情報と前記登録情報に含まれた前記特徴情報とを照合し、前記特徴情報についての照合結果に基づいて、前記特徴情報が生成された前記画像中の前記対象物に該当する前記登録された対象物を判別する判別工程とを有し、前記登録情報は、前記登録された対象物に関連した場所の郵便番号である登録郵便番号を含んでおり、前記判別工程は、前記画像中の対象物に関連した場所の郵便番号を入力し、前記登録情報に含まれた前記登録郵便番号と前記入力した郵便番号とを照合し、前記特徴情報についての照合結果と前記郵便番号についての照合結果とに基づいて、前記画像中の対象物に該当する前記登録された対象物を判別することを含む。 The information processing method according to the second aspect of the present invention is feature information generated based on an image taken by one or more cameras capable of photographing a specific object, and is obtained from the image including the object. An information processing method for processing the extracted feature information related to the feature of the object by a computer, and the storage unit of the computer includes the feature information related to one or more registered features of the object. The registration information is stored, and the acquisition step of acquiring the feature information is collated with the feature information acquired in the acquisition step and the feature information included in the registration information, and the feature information is collated. Based on the result, it has a determination step of discriminating the registered object corresponding to the object in the image in which the feature information is generated, and the registration information is applied to the registered object. The registered postal code, which is the postal code of the related place, is included, and in the determination step, the postal code of the place related to the object in the image is input, and the registered postal code included in the registration information is used. It is determined that the registered object corresponding to the object in the image is determined based on the collation result of the feature information and the collation result of the postal code by collating with the input postal code. Including.

本発明の第3の観点に係るプログラムは、上記第2の観点に係る情報処理方法をコンピュータに実行させるためのプログラムである。 The program according to the third aspect of the present invention is a program for causing a computer to execute the information processing method according to the second aspect.

本発明の第4の観点に係るカメラシステムは、上記第1の観点に係る情報処理装置と複数の前記カメラとを備えるカメラシステムである。 The camera system according to the fourth aspect of the present invention is a camera system including the information processing device according to the first aspect and the plurality of the cameras.

本発明の第5の観点に係る情報処理装置は、特定の対象物を撮影可能な1以上のカメラが撮影した画像に基づいて生成された特徴情報であって、前記対象物を含む前記画像から抽出された前記対象物の特徴に関する前記特徴情報を取得する取得部と、1以上の登録された前記対象物の特徴に関する前記特徴情報を含んだ登録情報を記憶する記憶部と、前記取得部において取得された前記特徴情報と前記登録情報に含まれた前記特徴情報とを照合し、前記特徴情報についての照合結果に基づいて、前記特徴情報が生成された前記画像中の前記対象物に該当する前記登録された対象物を判別する判別部とを有し、前記記憶部は、複数の前記カメラがそれぞれ撮影を行う場所の郵便番号を含んだカメラ情報を記憶する。 The information processing apparatus according to the fifth aspect of the present invention is feature information generated based on an image taken by one or more cameras capable of photographing a specific object, and is derived from the image including the object. In the acquisition unit that acquires the feature information regarding the extracted features of the object, a storage unit that stores the registration information including the feature information regarding one or more registered features of the object, and the acquisition unit. The acquired feature information is collated with the feature information included in the registration information, and based on the collation result of the feature information, the feature information corresponds to the object in the generated image. It has a discriminating unit for discriminating the registered object, and the storage unit stores camera information including a postal code of a place where each of the plurality of cameras takes a picture.

本発明によれば、カメラで撮影した画像から得られる情報を用いて対象物を判別する場合に、カメラの撮影条件や対象物の外観の類似に起因して判別精度が低下することを抑制できる。 According to the present invention, when an object is discriminated by using information obtained from an image taken by a camera, it is possible to suppress a decrease in discrimination accuracy due to similarities in the shooting conditions of the camera and the appearance of the object. ..

図1は、第1の実施形態に係るカメラシステムの構成の一例を示す図である。FIG. 1 is a diagram showing an example of the configuration of the camera system according to the first embodiment. 図2は、登録情報の一例を示す図である。FIG. 2 is a diagram showing an example of registration information. 図3は、カメラ情報の一例を示す図である。FIG. 3 is a diagram showing an example of camera information. 図4は、履歴情報の一例を示す図である。FIG. 4 is a diagram showing an example of history information. 図5は、カメラの構成の一例を示す図である。FIG. 5 is a diagram showing an example of the configuration of the camera. 図6は、第1の実施形態に係る情報処理装置における処理の一例を説明するためのフローチャートである。FIG. 6 is a flowchart for explaining an example of processing in the information processing apparatus according to the first embodiment. 図7は、第2の実施形態に係る情報処理装置で用いられる登録情報の一例を示す図である。FIG. 7 is a diagram showing an example of registration information used in the information processing apparatus according to the second embodiment. 図8は、第2の実施形態に係る情報処理装置における処理の一例を説明するための第1のフローチャートである。FIG. 8 is a first flowchart for explaining an example of processing in the information processing apparatus according to the second embodiment. 図9は、第2の実施形態に係る情報処理装置における処理の一例を説明するための第2のフローチャートである。FIG. 9 is a second flowchart for explaining an example of processing in the information processing apparatus according to the second embodiment.

<第1の実施形態>
図1は、第1の実施形態に係るカメラシステムの構成の一例を示す図である。図1に示すカメラシステムは、複数のカメラ2と、各カメラ2が撮影した画像に基づいて人や物などの対象物を判別する処理を行う情報処理装置1とを有する。カメラ2は、特定の対象物(例えば特定の場所を訪れた人物)を撮影可能な位置に設置されており、撮影した画像に含まれる特定の対象物についての特徴(例えば人物の顔の特徴)を抽出する処理を行う。情報処理装置1は、カメラ2で生成された対象物の特徴に関する情報(特徴情報)と、予め登録された対象物の特徴情報とを照合することにより、カメラ2で撮影された対象物に該当する登録済の対象物を判別する。図1の例において、複数のカメラ2はインターネットなどのネットワーク9に接続されており、情報処理装置1はネットワーク9を介して各カメラ2からの情報を取得する。
<First Embodiment>
FIG. 1 is a diagram showing an example of the configuration of the camera system according to the first embodiment. The camera system shown in FIG. 1 includes a plurality of cameras 2 and an information processing device 1 that performs processing for discriminating an object such as a person or an object based on an image taken by each camera 2. The camera 2 is installed at a position where a specific object (for example, a person who has visited a specific place) can be photographed, and features of the specific object included in the photographed image (for example, features of a person's face). Is processed to extract. The information processing device 1 corresponds to an object photographed by the camera 2 by collating the information (characteristic information) about the characteristics of the object generated by the camera 2 with the characteristic information of the object registered in advance. Determine the registered object to be processed. In the example of FIG. 1, a plurality of cameras 2 are connected to a network 9 such as the Internet, and the information processing device 1 acquires information from each camera 2 via the network 9.

[情報処理装置1]
情報処理装置1は、図1の例において、通信部110と、入力部120と、表示部130と、インターフェース部140と、記憶部150と、処理部160を含む。
[Information processing device 1]
In the example of FIG. 1, the information processing device 1 includes a communication unit 110, an input unit 120, a display unit 130, an interface unit 140, a storage unit 150, and a processing unit 160.

通信部110は、ネットワーク9を介して他の装置(カメラ2など)と通信を行うための装置であり、例えばイーサネット(登録商標)や無線LANなどの所定の通信規格に準拠して通信を行う装置(ネットワークインターフェースカードなど)を含む。 The communication unit 110 is a device for communicating with another device (camera 2, etc.) via the network 9, and performs communication in accordance with a predetermined communication standard such as Ethernet (registered trademark) or wireless LAN. Includes equipment (such as network interface cards).

入力部120は、ユーザの操作に応じた指示や情報を入力するための装置であり、例えばキーボード、マウス、タッチパッド、タッチパネルなどの任意の入力装置を含む。 The input unit 120 is a device for inputting instructions and information according to a user's operation, and includes an arbitrary input device such as a keyboard, a mouse, a touch pad, and a touch panel.

表示部130は、処理部160から入力される画像データに応じた画像を表示する装置であり、例えば液晶ディスプレイや有機ELディスプレイなどを含む。 The display unit 130 is a device that displays an image according to the image data input from the processing unit 160, and includes, for example, a liquid crystal display and an organic EL display.

インターフェース部140は、処理部160において種々のデータを入出力するための装置であり、例えばUSBなどの汎用的なインターフェース装置や、記録媒体(例えばメモリカード)のリーダーライター装置などを含む。 The interface unit 140 is a device for inputting and outputting various data in the processing unit 160, and includes, for example, a general-purpose interface device such as USB, a reader / writer device for a recording medium (for example, a memory card), and the like.

記憶部150は、処理部160のプロセッサによって実行されるプログラムを記憶するとともに、処理部160の処理の過程で一時的に保存されるデータ、処理部160の処理に利用されるデータ、処理部160の処理結果として得られたデータなどを記憶する。例えば記憶部150は、後述する登録情報51(図2)、カメラ情報52(図3)、履歴情報53(図4)を記憶する。 The storage unit 150 stores a program executed by the processor of the processing unit 160, data temporarily stored in the process of the processing unit 160, data used for the processing of the processing unit 160, and the processing unit 160. The data obtained as a result of the processing of is stored. For example, the storage unit 150 stores the registration information 51 (FIG. 2), the camera information 52 (FIG. 3), and the history information 53 (FIG. 4), which will be described later.

記憶部150は、例えば、主記憶装置(ROM、RAMなど)と補助記憶装置(フラッシュメモリ、ハードディスク、光ディスクなど)を含む。記憶部150は、1つの記憶装置から構成されてもよいし、1種類以上の複数の記憶装置から構成されてもよい。記憶部150を構成する各記憶装置は、コンピュータのバスや他の通信手段を介して処理部160と接続される。 The storage unit 150 includes, for example, a main storage device (ROM, RAM, etc.) and an auxiliary storage device (flash memory, hard disk, optical disk, etc.). The storage unit 150 may be composed of one storage device, or may be composed of a plurality of storage devices of one or more types. Each storage device constituting the storage unit 150 is connected to the processing unit 160 via a computer bus or other communication means.

処理部160は、情報処理装置1の全体的な動作を統括的に司り、所定の情報処理を実行する。処理部160は、例えば、記憶部150に格納された1以上のプログラムの命令コードに従って処理を実行する1以上のプロセッサ(CPU,MPUなど)を含む。処理部160は、記憶部150の1以上のプログラムを1以上のプロセッサが実行することにより、1以上のコンピュータとして動作する。 The processing unit 160 controls the overall operation of the information processing device 1 and executes predetermined information processing. The processing unit 160 includes, for example, one or more processors (CPU, MPU, etc.) that execute processing according to the instruction code of one or more programs stored in the storage unit 150. The processing unit 160 operates as one or more computers by executing one or more programs of the storage unit 150 by one or more processors.

なお、処理部160は、特定の機能を実現するように構成された1以上の専用のハードウェア(ASIC、FPGAなど)を含んでもよい。この場合、処理部160は、対象物の判別に関わる処理を、上述した1以上のコンピュータにおいて実行してもよいし、当該処理の少なくとも一部を専用のハードウェアにおいて実行してもよい。 The processing unit 160 may include one or more dedicated hardware (ASIC, FPGA, etc.) configured to realize a specific function. In this case, the processing unit 160 may execute the processing related to the determination of the object on one or more computers described above, or may execute at least a part of the processing on dedicated hardware.

処理部160は、対象物の判別に関連する処理を行う構成要素として、例えば図1に示すように、取得部161と、判別部162と、登録部163と、履歴更新部164と、カメラ管理部165とを含む。 As a component that performs processing related to determination of an object, the processing unit 160 includes, for example, acquisition unit 161, determination unit 162, registration unit 163, history update unit 164, and camera management, as shown in FIG. Includes part 165.

取得部161は、特定の対象物(人物など)を撮影可能なカメラ2が撮影した画像に基づいて生成される対象物の特徴情報を取得する。特徴情報は、対象物を含む画像(カメラ2が撮影した画像)から抽出された対象物の特徴(人物の顔の特徴など)に関する情報である。本実施形態では、一例として、対象物を撮影するカメラ2において特徴情報が生成されるものとする。カメラ2において特徴情報が生成される場合、取得部161は、カメラ2から特徴情報を直接取得してもよいし、ネットワーク9に接続された1以上のサーバ装置(クラウドサーバなど)を介して間接的に特徴情報を取得してもよい。取得部161において取得する特徴情報は、カメラ2で生成された特徴情報と同一でもよいし、カメラ2と情報処理装置1との間に介在するサーバ装置などによって所定の変換が施されたものでもよい。 The acquisition unit 161 acquires the feature information of the object generated based on the image captured by the camera 2 capable of photographing a specific object (person or the like). The feature information is information on the features (characteristics of a person's face, etc.) of the object extracted from the image including the object (image taken by the camera 2). In the present embodiment, as an example, it is assumed that feature information is generated in the camera 2 that captures an object. When the feature information is generated in the camera 2, the acquisition unit 161 may acquire the feature information directly from the camera 2 or indirectly via one or more server devices (cloud server or the like) connected to the network 9. Characteristic information may be acquired. The feature information acquired by the acquisition unit 161 may be the same as the feature information generated by the camera 2, or may be subjected to predetermined conversion by a server device or the like interposed between the camera 2 and the information processing device 1. Good.

判別部162は、取得部161において取得された特徴情報(以下、「取得特徴情報」と記す場合がある。)と、記憶部150に記憶された登録情報51に含まれる特徴情報(以下、「登録特徴情報」と記す場合がある。)とを照合する。登録情報51に含まれる登録特徴情報は、登録情報51に登録された個々の対象物について予め生成された特徴情報であり、例えば、予め撮影された対象物の画像から対象物の特徴を抽出することにより得られた情報である。判別部162は、この登録特徴情報と取得特徴情報との照合結果に基づいて、取得特徴情報が抽出された画像(カメラ2が撮影した画像)に含まれる対象物(以下、「画像中の対象物」と記す場合がある。)に該当する、登録情報51に登録された対象物(以下、「登録された対象物」と記す場合がある。)を判別する。 The determination unit 162 includes the feature information acquired by the acquisition unit 161 (hereinafter, may be referred to as "acquired feature information") and the feature information included in the registration information 51 stored in the storage unit 150 (hereinafter, "" It may be described as "registered feature information"). The registered feature information included in the registration information 51 is feature information generated in advance for each object registered in the registration information 51. For example, the feature of the object is extracted from the image of the object photographed in advance. This is the information obtained by doing so. The determination unit 162 is an object (hereinafter, "object in the image") included in the image (image taken by the camera 2) from which the acquired feature information is extracted based on the collation result of the registered feature information and the acquired feature information. The object registered in the registration information 51 (hereinafter, may be described as "registered object") corresponding to "object") is determined.

図2は、記憶部150に記憶される登録情報51の一例を示す図である。登録情報51は、登録された個々の対象物に関する所定の情報を含む。図2の例において、登録情報51に登録される対象物は人物である。図2における符号510は、一人の人物について登録される一群の情報を表す。図2の例に示す一群の情報510は、個々の人物を識別するための個人ID、登録を行った日付(登録日)、人物に関する個人情報(氏名,性別,生年月日,住所,当該住所の郵便番号,Eメールアドレス)、人物に割り当てられた種別(例えば会員の種別など)、現在のステータス(登録が有効か否かなど)、人物の顔画像のデータ、当該顔画像から抽出された人物の顔の特徴を示す特徴情報を含む。登録情報51は、登録された一人以上の人物の各々について、図2に示すような一群の情報510を含む。 FIG. 2 is a diagram showing an example of registration information 51 stored in the storage unit 150. The registration information 51 includes predetermined information about each registered object. In the example of FIG. 2, the object registered in the registration information 51 is a person. Reference numeral 510 in FIG. 2 represents a group of information registered for one person. The group of information 510 shown in the example of FIG. 2 includes a personal ID for identifying an individual person, a date of registration (registration date), personal information about the person (name, gender, date of birth, address, address). (Postal code, e-mail address), type assigned to a person (for example, member type), current status (whether registration is valid, etc.), person's face image data, extracted from the face image Includes feature information that indicates the features of a person's face. The registration information 51 includes a group of information 510 as shown in FIG. 2 for each of one or more registered persons.

なお判別部162は、画像中の対象物に該当する登録された対象物を判別する処理(以下、「判別処理」と記す場合がある。)を実行する際に、これらの対象物に関連した場所の郵便番号について照合を行う場合がある。すなわち、判別部162は、画像中の対象物に関連した場所の郵便番号(例えば、カメラ2が撮影した画像に含まれる人物の住所の郵便番号)を入力し、この入力した郵便番号と登録情報51に含まれた郵便番号(以下、「登録郵便番号」と記す場合がある。)とを照合する。この場合、判別部162は、特徴情報についての照合結果と郵便番号についての照合結果とに基づいて、画像中の対象物に該当する登録された対象物を判別する。 Note that the discrimination unit 162 is related to these objects when executing a process of discriminating the registered objects corresponding to the objects in the image (hereinafter, may be referred to as “discrimination process”). We may check the postal code of the place. That is, the discriminating unit 162 inputs a postal code of a place related to the object in the image (for example, a postal code of the address of a person included in the image taken by the camera 2), and the input postal code and registration information. The postal code included in 51 (hereinafter, may be referred to as "registered postal code") is collated. In this case, the discrimination unit 162 discriminates the registered object corresponding to the object in the image based on the collation result for the feature information and the collation result for the zip code.

例えば、判別部162は、特徴情報についての照合結果(取得特徴情報と登録特徴情報とを照合した結果)において、画像中の対象物に該当する登録された対象物の候補を2以上判別した場合、画像中の対象物に関連した場所の郵便番号(例えば、カメラ2が撮影した画像に含まれる人物の住所の郵便番号)を入力部120において入力する。そして判別部162は、当該2以上の候補について登録情報51に含まれた登録郵便番号と、入力部120から入力した郵便番号とを照合し、この照合の結果に基づいて、当該2以上の候補の中から、画像中の対象物に該当する登録された対象物を判別する。例えば、判別部162は、当該2以上の候補の中から、入力部120で入力した郵便番号と同一の登録郵便番号が登録情報51に含まれている対象物を、画像中の対象物に該当する登録された対象物として判別する。これにより、特徴情報の照合だけでは対象物を判別し切れない場合でも、郵便番号の照合結果を利用して精度よく対象物を判別することが可能になる。 For example, when the discrimination unit 162 discriminates two or more candidates of the registered object corresponding to the object in the image in the collation result of the feature information (the result of collating the acquired feature information with the registered feature information). , The postal code of the place related to the object in the image (for example, the postal code of the address of the person included in the image taken by the camera 2) is input in the input unit 120. Then, the discrimination unit 162 collates the registered zip code included in the registration information 51 with the zip code input from the input unit 120 for the two or more candidates, and based on the result of this collation, the two or more candidates. From among, the registered object corresponding to the object in the image is determined. For example, the discrimination unit 162 corresponds to an object in the image in which the registration information 51 contains the same registered zip code as the zip code input by the input unit 120 from the two or more candidates. Determine as a registered object. As a result, even if the object cannot be discriminated only by collating the feature information, it is possible to accurately discriminate the object by using the collation result of the zip code.

登録部163は、登録すべき対象物の情報(例えば図2に示す一群の情報510)を記憶部150の登録情報51に追加する処理を行う。例えば登録部163は、対象物に関する情報の入力を促す登録用画面を表示部130において表示する。登録部163は、この登録用画面の案内に従って入力部120により入力された情報を登録情報51に追加する。また登録部163は、通信部110において通信可能な他の装置から提供される対象物の情報や、インターフェース部140において記録媒体などから入力される対象物の情報を、登録情報51に追加してもよい。 The registration unit 163 performs a process of adding information on an object to be registered (for example, a group of information 510 shown in FIG. 2) to the registration information 51 of the storage unit 150. For example, the registration unit 163 displays a registration screen on the display unit 130 that prompts the input of information about the object. The registration unit 163 adds the information input by the input unit 120 to the registration information 51 according to the guidance on the registration screen. Further, the registration unit 163 adds the information of the object provided by another device capable of communicating in the communication unit 110 and the information of the object input from the recording medium or the like in the interface unit 140 to the registration information 51. May be good.

履歴更新部164は、画像中の対象物に該当する登録された対象物が判別部162において判別された場合、登録された対象物の撮影履歴に関する情報を記憶部150に格納する。 When the registered object corresponding to the object in the image is determined by the determination unit 162, the history update unit 164 stores the information regarding the shooting history of the registered object in the storage unit 150.

本実施形態では、一例として、個々のカメラ2に関する情報を含んだカメラ情報52と、登録情報51に登録された個々の対象物の撮影履歴に関する履歴情報53とを記憶部150に記憶するものとする。カメラ情報52は、個々のカメラ2が撮影を行う場所の郵便番号(以下、「撮影場所郵便番号」と記す場合がある。)を含む。履歴情報53は、判別処理によって判別された対象物を撮影したカメラ2の撮影場所の郵便番号を含む。履歴更新部164は、画像中の対象物に該当する登録された対象物が判別部162において判別された場合、当該判別された対象物を撮影したカメラ2についてカメラ情報52に含まれる撮影場所郵便番号を、当該判別された対象物の撮影履歴に関する郵便番号として履歴情報53に追加する。登録された対象物の撮影履歴に関する情報として、カメラ2の撮影場所の郵便番号が履歴情報53に含まれるため、登録情報51に登録された各対象物の地理的及び時間的な移動パターン(対象物が人物である場合は、人物の行動パターン)を把握できる。 In the present embodiment, as an example, the camera information 52 including information about each camera 2 and the history information 53 regarding the shooting history of each object registered in the registration information 51 are stored in the storage unit 150. To do. The camera information 52 includes a postal code of a place where each camera 2 takes a picture (hereinafter, may be referred to as a “shooting place postal code”). The history information 53 includes the postal code of the shooting location of the camera 2 that has shot the object determined by the discrimination process. When the registered object corresponding to the object in the image is determined by the determination unit 162, the history update unit 164 sets the shooting location mail included in the camera information 52 for the camera 2 that has taken the determined object. The number is added to the history information 53 as a postal code related to the shooting history of the determined object. Since the postal code of the shooting location of the camera 2 is included in the history information 53 as the information regarding the shooting history of the registered object, the geographical and temporal movement pattern of each object registered in the registration information 51 (target). When an object is a person, the behavior pattern of the person) can be grasped.

図3は、記憶部150に記憶されるカメラ情報52の一例を示す図である。図3における符号520は、1台のカメラ2に関する一群の情報を表す。図3の例に示す一群の情報520は、個々のカメラ2を識別するためのカメラID、個々のカメラ2に付与された名称、カメラ2の型式、カメラ2が備える機能(例えば性別判定機能、年齢判定機能、表情判定機能など)、ネットワーク9上におけるカメラ2のアドレス(例えばIPアドレス)、現在のステータス(ネットワーク9に接続中か否かなど)、撮影を行う場所の住所、当該住所の郵便番号(撮影場所郵便番号)を含む。カメラ情報52は、カメラシステムが有する1台以上のカメラ2の各々について、図3に示すような一群の情報520を含む。 FIG. 3 is a diagram showing an example of camera information 52 stored in the storage unit 150. Reference numeral 520 in FIG. 3 represents a group of information about one camera 2. The group of information 520 shown in the example of FIG. 3 includes a camera ID for identifying each camera 2, a name given to each camera 2, a model of the camera 2, and a function provided by the camera 2 (for example, a gender determination function, etc.). Age judgment function, facial expression judgment function, etc.), camera 2 address on network 9 (for example, IP address), current status (whether or not it is connected to network 9), address of the place where shooting is performed, mail of the address. Includes number (shooting location postal code). The camera information 52 includes a group of information 520 as shown in FIG. 3 for each of the one or more cameras 2 included in the camera system.

図4は、記憶部150に記憶される履歴情報53の一例を示す図である。図4に示す履歴情報53において撮影の履歴を記録される対象物は人物である(図2に示す登録情報51と同じ)。図4における符号530は、判別処理によって一人の人物が判別された場合に記録される一群の情報を示す。図4の例に示す一群の情報530は、撮影された人物の個人ID、撮影された日時、撮影を行ったカメラ2のカメラID、撮影を行った場所の住所の郵便番号を含む。履歴情報53中の個人IDは登録情報51中の個人IDと同じであり、履歴情報53中のカメラIDはカメラ情報52中のカメラIDと同じである。 FIG. 4 is a diagram showing an example of the history information 53 stored in the storage unit 150. In the history information 53 shown in FIG. 4, the object for which the shooting history is recorded is a person (same as the registration information 51 shown in FIG. 2). Reference numeral 530 in FIG. 4 indicates a group of information recorded when one person is discriminated by the discriminating process. The group of information 530 shown in the example of FIG. 4 includes the personal ID of the person who took the picture, the date and time when the picture was taken, the camera ID of the camera 2 which took the picture, and the postal code of the address of the place where the picture was taken. The personal ID in the history information 53 is the same as the personal ID in the registration information 51, and the camera ID in the history information 53 is the same as the camera ID in the camera information 52.

履歴更新部164は、判別処理によって対象物が判別される度に、判別された対象物について登録情報51に含まれる情報(個人IDなど)と、判別された対象物を撮影したカメラ2についてカメラ情報52に含まれる情報(カメラID、撮影場所郵便番号など)とに基づいて、図4に示すような一群の情報530を生成し、これを履歴情報53に追加する。 Each time the object is determined by the determination process, the history update unit 164 sets the information (personal ID, etc.) included in the registration information 51 for the determined object and the camera 2 for photographing the determined object. Based on the information (camera ID, shooting location postal code, etc.) included in the information 52, a group of information 530 as shown in FIG. 4 is generated, and this is added to the history information 53.

カメラ管理部165は、カメラシステムが備えるカメラ2の管理に関わる処理を行う。例えばカメラ管理部165は、カメラシステムに新規のカメラ2を追加する場合、新規に追加するカメラ2の情報の入力を促すカメラ追加用画面を表示部130に表示する。カメラ管理部165は、このカメラ追加用画面の案内に従って入力部120により入力された情報を、図3に示すカメラ情報52に追加する。 The camera management unit 165 performs processing related to the management of the camera 2 included in the camera system. For example, when a new camera 2 is added to the camera system, the camera management unit 165 displays a camera addition screen prompting the input of information of the newly added camera 2 on the display unit 130. The camera management unit 165 adds the information input by the input unit 120 to the camera information 52 shown in FIG. 3 according to the guidance on the camera addition screen.

また、カメラ管理部165は、特定の条件を満たしたカメラ2を検索する場合、カメラ2の検索条件の入力を促すカメラ検索用画面を表示部130において表示する。カメラ管理部165は、このカメラ検索用画面の案内に従って入力部120により検索条件が入力されると、カメラ情報52(図3)において検索条件を満たしたカメラ2の情報を抽出し、抽出したカメラ2の情報を表示部130に表示する。例えば検索条件が特定の郵便番号である場合、カメラ管理部165は、カメラ情報52においてこの特定の郵便番号と同一の撮影場所郵便番号が含まれたカメラ2の情報を抽出し、表示部130において表示する。これにより、特定の郵便番号の地域に設置されたカメラ2の情報を容易に把握することができる。 Further, when searching for a camera 2 satisfying a specific condition, the camera management unit 165 displays a camera search screen prompting the input of the search condition of the camera 2 on the display unit 130. When the search condition is input by the input unit 120 according to the guidance on the camera search screen, the camera management unit 165 extracts the information of the camera 2 that satisfies the search condition in the camera information 52 (FIG. 3), and the extracted camera. The information of 2 is displayed on the display unit 130. For example, when the search condition is a specific zip code, the camera management unit 165 extracts the information of the camera 2 including the same shooting location zip code as the specific zip code in the camera information 52, and displays the information on the display unit 130. indicate. As a result, the information of the camera 2 installed in the area of the specific zip code can be easily grasped.

[カメラ2]
図5は、カメラ2の構成の一例を示す図である。図5に示すカメラ2は、撮像部220と、通信部210と、インターフェース部230と、記憶部240と、処理部250を有する。
[Camera 2]
FIG. 5 is a diagram showing an example of the configuration of the camera 2. The camera 2 shown in FIG. 5 has an imaging unit 220, a communication unit 210, an interface unit 230, a storage unit 240, and a processing unit 250.

通信部210は、ネットワーク9を介して他の装置(情報処理装置1など)と通信を行うための装置であり、例えばイーサネット(登録商標)や無線LANなどの所定の通信規格に準拠して通信を行う装置(ネットワークインターフェースカードなど)を含む。 The communication unit 210 is a device for communicating with another device (information processing device 1 or the like) via the network 9, and communicates in accordance with a predetermined communication standard such as Ethernet (registered trademark) or wireless LAN. Includes devices that perform (such as network interface cards).

撮像部220は、画像を撮像する装置であり、CMOSイメージセンサなどの撮像素子、被写体の光を撮像素子へ導く光学系、撮像素子において撮像した画像を処理する画像処理装置などを含む。 The image pickup unit 220 is a device that captures an image, and includes an image pickup element such as a CMOS image sensor, an optical system that guides the light of a subject to the image pickup element, an image processing device that processes an image captured by the image pickup element, and the like.

インターフェース部230は、処理部250において種々のデータを入出力するための装置であり、例えばUSBなどの汎用的なインターフェース装置や、記録媒体(メモリカードなど)のリーダーライター装置などを含む。 The interface unit 230 is a device for inputting and outputting various data in the processing unit 250, and includes, for example, a general-purpose interface device such as USB, a reader / writer device for a recording medium (memory card, etc.), and the like.

記憶部240は、処理部250のプロセッサによって実行されるプログラムを記憶するとともに、処理部250の処理の過程で一時的に保存されるデータ、処理部250の処理に利用されるデータ、処理部250の処理結果として得られたデータなどを記憶する。記憶部240は、例えば、主記憶装置(ROM、RAMなど)と補助記憶装置(フラッシュメモリ、ハードディスク、光ディスクなど)を含む。記憶部240は、1つの記憶装置から構成されてもよいし、1種類以上の複数の記憶装置から構成されてもよい。 The storage unit 240 stores a program executed by the processor of the processing unit 250, data temporarily stored in the process of the processing unit 250, data used for the processing of the processing unit 250, and the processing unit 250. The data obtained as a result of the processing of is stored. The storage unit 240 includes, for example, a main storage device (ROM, RAM, etc.) and an auxiliary storage device (flash memory, hard disk, optical disk, etc.). The storage unit 240 may be composed of one storage device, or may be composed of a plurality of storage devices of one or more types.

処理部250は、カメラ2の全体的な動作を統括的に制御する装置であり、例えば、記憶部240に格納された1以上のプログラムの命令コードに従って処理を実行する1以上のプロセッサ(CPU,MPUなど)を含む。処理部250は、記憶部240の1以上のプログラムを1以上のプロセッサが実行することにより、1以上のコンピュータとして動作する。処理部250は、特定の機能を実現するように構成された1以上の専用のハードウェア(ASIC、FPGAなど)を含んでもよい。処理部250は、全ての処理を1以上のコンピュータにおいて実行してもよいし、少なくとも一部の処理を専用のハードウェアにおいて実行してもよい。 The processing unit 250 is a device that comprehensively controls the overall operation of the camera 2. For example, one or more processors (CPU,) that execute processing according to the instruction code of one or more programs stored in the storage unit 240. MPU etc.) is included. The processing unit 250 operates as one or more computers by executing one or more programs of the storage unit 240 by one or more processors. The processing unit 250 may include one or more dedicated hardware (ASIC, FPGA, etc.) configured to realize a specific function. The processing unit 250 may execute all the processing on one or more computers, or may execute at least a part of the processing on dedicated hardware.

処理部250は、撮像部220において画像(静止画や動画)を撮影するとともに、その撮影データ31を記憶部240に格納する。また、処理部250は、撮像部220において撮影した画像から、画像に含まれる特定の対象物の特徴に関する特徴情報32を抽出し、記憶部240に格納する。対象物が人物であり、人物の顔の特徴を特徴情報32として抽出する場合、例えば処理部250は、撮像部220が撮影した画像における人物の眼、鼻、口、顔、輪郭などの特徴点に基づいて特徴情報32を生成する。特徴情報32は、例えば多次元のベクトルでもよい。この場合、判別部162は、取得特徴情報が示すベクトルと登録特徴情報が示すベクトルとの相関係数などに基づいて、これらの特徴情報が示す顔の特徴が一致している度合いを算出し、算出した一致の度合いを所定のしきい値と比較することにより、画像中の人物と登録された人物とが一致しているか否か判定してもよい。 The processing unit 250 captures an image (still image or moving image) in the imaging unit 220, and stores the captured data 31 in the storage unit 240. Further, the processing unit 250 extracts the feature information 32 related to the feature of the specific object included in the image from the image captured by the imaging unit 220 and stores it in the storage unit 240. When the object is a person and the features of the face of the person are extracted as the feature information 32, for example, the processing unit 250 may use the feature points such as the eyes, nose, mouth, face, and contour of the person in the image captured by the imaging unit 220. Feature information 32 is generated based on. The feature information 32 may be, for example, a multidimensional vector. In this case, the discrimination unit 162 calculates the degree of matching of the facial features indicated by these feature information based on the correlation coefficient between the vector indicated by the acquired feature information and the vector indicated by the registered feature information. By comparing the calculated degree of matching with a predetermined threshold value, it may be determined whether or not the person in the image and the registered person match.

処理部250は、通信部210によって情報処理装置1と通信を行い、記憶部240に記憶した特徴情報32を情報処理装置1へ適宜送信する。処理部250は、特徴情報32が生成された画像の撮影日時に関する情報を、特徴情報32とともに情報処理装置1へ送信してもよい。 The processing unit 250 communicates with the information processing device 1 by the communication unit 210, and appropriately transmits the feature information 32 stored in the storage unit 240 to the information processing device 1. The processing unit 250 may transmit information regarding the shooting date and time of the image in which the feature information 32 is generated to the information processing device 1 together with the feature information 32.

ここで、上述した構成を有する第1の実施形態に係る情報処理装置1の動作について説明する。
図6は、第1の実施形態に係る情報処理装置1における処理の一例を説明するためのフローチャートである。情報処理装置1は、カメラ2から特徴情報を取得する度に、図6のフローチャートに示した処理を実行する。図6の例において、情報処理装置1で判別される対象物は人物である。以下では、登録情報51に登録される人物を「登録者」と記し、カメラ2が撮影した画像中の人物を「被撮影者」と記す。
Here, the operation of the information processing apparatus 1 according to the first embodiment having the above-described configuration will be described.
FIG. 6 is a flowchart for explaining an example of processing in the information processing apparatus 1 according to the first embodiment. Each time the information processing device 1 acquires the feature information from the camera 2, the information processing device 1 executes the process shown in the flowchart of FIG. In the example of FIG. 6, the object determined by the information processing device 1 is a person. In the following, the person registered in the registration information 51 will be referred to as a "registrant", and the person in the image captured by the camera 2 will be referred to as a "photographed person".

取得部161が被撮影者の特徴情報(取得特徴情報)をカメラ2から取得すると(ST100)、判別部162は、登録情報51に含まれる登録者の特徴情報(登録特徴情報)と、被撮影者の取得特徴情報とを照合する(ST105)。取得特徴情報と登録特徴情報とを照合した結果、被撮影者に該当する登録者が見つからなかった場合(ST110のNo)、処理部160は判別処理を終了する。 When the acquisition unit 161 acquires the feature information (acquired feature information) of the photographed person from the camera 2 (ST100), the determination unit 162 includes the feature information (registered feature information) of the registrant included in the registration information 51 and the photographed person. It is collated with the acquired feature information of the person (ST105). As a result of collating the acquired feature information with the registered feature information, if the registrant corresponding to the photographed person is not found (No of ST110), the processing unit 160 ends the discrimination process.

ステップST105の照合によって被撮影者に該当する登録者が1名のみ見つかった場合(ST110のYes、及び、ST115のNo)、判別部162は、この1名の登録者を、被撮影者に該当する登録者の判別結果として確定する(ST135)。情報処理装置1は、この判別結果を任意の処理(例:所定の登録者がカメラ2で撮影されたことを電子メールなどの所定の通知手段によって所定の宛先に通知する処理)に利用する。 When only one registrant corresponding to the photographed person is found by the collation in step ST105 (Yes of ST110 and No of ST115), the discriminating unit 162 corresponds to this one registrant as the photographed person. It is confirmed as the determination result of the registrant (ST135). The information processing device 1 uses this determination result for arbitrary processing (eg, a process of notifying a predetermined destination of a photograph taken by a predetermined registrant by a predetermined notification means such as an e-mail).

履歴更新部164は、被撮影者に該当する登録者の判別結果が確定した場合(ST135)、この登録者の撮影履歴に関する情報を履歴情報53(図4)に追加する(ST140)。すなわち、履歴更新部164は、判別された登録者について登録情報51に含まれる情報(個人ID)と、判別された登録者を撮影したカメラ2についてカメラ情報52に含まれる情報(カメラID、撮影場所郵便番号など)とに基づいて、図4に示す一群の情報530を生成し、これを履歴情報53に追加する。 When the determination result of the registrant corresponding to the photographed person is confirmed (ST135), the history updating unit 164 adds the information regarding the photographing history of the registrant to the history information 53 (FIG. 4) (ST140). That is, the history update unit 164 includes information (individual ID) included in the registration information 51 for the determined registrant and information (camera ID, shooting) included in the camera information 52 for the camera 2 that captured the determined registrant. Based on the location postal code, etc.), a group of information 530 shown in FIG. 4 is generated, and this is added to the history information 53.

ステップST105の照合によって被撮影者に該当する登録者の候補が2名以上見つかった場合(ST110のYes、及び、ST115のYes)、判別部162は、被撮影者の住所の郵便番号を入力部120において入力する(ST120)。例えば、情報処理装置1を操作するユーザが窓口業務の担当者であり、窓口に訪れた被撮影者と直接対面している場合、被撮影者の住所の郵便番号をユーザが被撮影者から口頭で聞き取って、それを入力部120により情報処理装置1に入力してもよい。 When two or more registrant candidates corresponding to the photographed person are found by the collation in step ST105 (Yes in ST110 and Yes in ST115), the determination unit 162 inputs the postal code of the address of the photographed person. Input at 120 (ST120). For example, when the user who operates the information processing device 1 is in charge of the counter business and directly faces the photographed person who visits the window, the user verbally gives the postal code of the photographed person's address from the photographed person. You may listen to it and input it to the information processing device 1 by the input unit 120.

入力部120において郵便番号を入力すると(ST120)、判別部162は、2名以上の候補について登録情報51に含まれる登録郵便番号(図2)と、入力部120において入力した郵便番号とを照合する(ST125)。入力部120において入力した郵便番号と登録郵便番号とを照合した結果、2名以上の候補の中に、入力した郵便番号と同一の登録郵便番号が登録情報51に含まれた登録者(すなわち、入力した郵便番号と同一の登録郵便番号の地区に住んでいる登録者)が1名のみ存在する場合(ST130のYes)、判別部162は、その1名の登録者を、被撮影者に該当する登録者の判別結果として確定する(ST135)。履歴更新部164は、当該確定した登録者の撮影履歴に関する情報を履歴情報53(図4)に追加する(ST140)。他方、ステップST125における郵便番号の照合の結果、入力部120において入力した郵便番号と同一の登録郵便番号の地区に住んでいる登録者が全く存在しないか、若しくは2名以上存在する場合(ST130のNo)、処理部160は判別処理を終了する。 When the postal code is input in the input unit 120 (ST120), the discriminating unit 162 collates the registered postal code (FIG. 2) included in the registration information 51 for two or more candidates with the postal code input in the input unit 120. (ST125). As a result of collating the zip code entered in the input unit 120 with the registered zip code, the registrant whose registration information 51 includes the same registered zip code as the entered zip code among two or more candidates (that is, If there is only one registrant (registrant living in the area with the same registered zip code as the entered zip code) (Yes in ST130), the discriminating unit 162 corresponds to that one registrant as the photographed person. It is confirmed as the determination result of the registrant (ST135). The history update unit 164 adds information regarding the shooting history of the confirmed registrant to the history information 53 (FIG. 4) (ST140). On the other hand, as a result of collating the postal code in step ST125, if there is no registrant living in the area of the same registered postal code as the postal code input in the input unit 120, or if there are two or more (ST130). No), the processing unit 160 ends the discrimination process.

以上説明したように、本実施形態によれば、特徴情報についての照合結果(取得特徴情報と登録特徴情報との照合結果)と郵便番号についての照合結果(画像中の対象物に関連した場所の郵便番号と登録された対象物に関連した場所の登録郵便番号との照合結果)とに基づいて、画像中の対象物に該当する登録された対象物が判別される。例えば、取得特徴情報と登録特徴情報との照合結果において、画像中の対象物に該当する登録された対象物の候補が2以上判別された場合、当該2以上の候補について登録情報51に含まれる登録郵便番号と入力部120において入力した郵便番号(画像中の対象物に関連した場所の郵便番号)との照合が行われ、この照合の結果に基づいて、当該2以上の候補の中から、画像中の対象物に該当する登録された対象物が判別される。従って、カメラ2の撮影条件や対象物の外観の類似などに起因して、特徴情報についての照合結果に基づく対象物の判別精度が低下する場合でも、郵便番号についての照合結果を判別処理に利用することにより、判別精度の低下を効果的に抑制することができる。 As described above, according to the present embodiment, the collation result for the feature information (the collation result between the acquired feature information and the registered feature information) and the collation result for the zip code (the place related to the object in the image). Based on the collation result of the postal code and the registered postal code of the place related to the registered object), the registered object corresponding to the object in the image is determined. For example, when two or more registered object candidates corresponding to the objects in the image are determined in the collation result between the acquired feature information and the registered feature information, the two or more candidates are included in the registration information 51. The registered zip code and the zip code entered in the input unit 120 (the zip code of the place related to the object in the image) are collated, and based on the result of this collation, from the two or more candidates, The registered object corresponding to the object in the image is determined. Therefore, even if the accuracy of discriminating the object based on the collation result of the feature information is lowered due to the shooting conditions of the camera 2 or the similarity of the appearance of the object, the collation result of the postal code is used for the discrimination process. By doing so, it is possible to effectively suppress a decrease in discrimination accuracy.

また、本実施形態によれば、画像中の対象物に該当する登録された対象物が判別部162において判別された場合、当該判別された対象物を含む画像を撮影したカメラ2についてカメラ情報52に含まれる撮影場所郵便番号が、当該判別された対象物の撮影履歴に関する郵便番号として履歴情報53に追加される。従って、登録情報51に登録された各対象物の地理的及び時間的な移動パターン(対象物が人物である場合は、人物の行動パターン)を有効に把握することができる。 Further, according to the present embodiment, when the registered object corresponding to the object in the image is determined by the determination unit 162, the camera information 52 is obtained for the camera 2 that has captured the image including the determined object. The shooting location postal code included in is added to the history information 53 as a postal code related to the shooting history of the determined object. Therefore, the geographical and temporal movement patterns of each object registered in the registration information 51 (when the object is a person, the behavior pattern of the person) can be effectively grasped.

更に、本実施形態によれば、各カメラ2が撮影を行う場所の郵便番号がカメラ情報52(図3)に含まれるため、郵便番号が表す地区ごとにカメラ2を管理し易くなる。例えば、地区ごとのカメラ2の設定を容易に行うことができる。特に郵便番号は、ほぼ全世界で使用されているため、地区ごとのカメラ2の管理に郵便番号を用いることで、世界各国にカメラ2が分散して設置されている場合でも、それぞれの国において地区ごとのカメラ2の管理を容易に行うことができる。 Further, according to the present embodiment, since the postal code of the place where each camera 2 takes a picture is included in the camera information 52 (FIG. 3), it becomes easy to manage the camera 2 for each district represented by the postal code. For example, the camera 2 can be easily set for each district. In particular, zip codes are used almost all over the world, so by using zip codes to manage cameras 2 in each district, even if cameras 2 are installed in various countries around the world, in each country. The camera 2 can be easily managed for each district.

また、本実施形態によれば、各カメラ2で生成された対象物の特徴情報が情報処理装置1に提供され、カメラ2が撮影した対象物の画像はカメラ2の内部に留まるため、情報処理装置1のユーザ以外の他者に対象物の画像が漏洩することを効果的に防止できる。 Further, according to the present embodiment, the feature information of the object generated by each camera 2 is provided to the information processing device 1, and the image of the object captured by the camera 2 stays inside the camera 2, so that the information processing is performed. It is possible to effectively prevent the image of the object from being leaked to others other than the user of the device 1.

<第2の実施形態>
次に、第2の実施形態に係る情報処理装置1について説明する。第2の実施形態に係る情報処理装置1の構成は、第1の実施形態に係る情報処理装置1と概ね同じであるが、処理部160の一部の動作に関して、第1の実施形態に係る情報処理装置1と異なる。すなわち、第2の実施形態に係る情報処理装置1では、画像中の対象物に該当する登録された対象物を判別できない場合に、この画像中の対象物を新規の対象物として自動的に登録する。例えばカメラ2で撮影された不特定の人物を対象物として自動的に登録することにより、各カメラ2で撮影された対象物(不特定の人物)の判別結果をマーケティングなどに活用することが可能となる。以下では、第1の実施形態に係る情報処理装置1との相違点(特に、判別部162及び登録部163の動作の相違点)を中心に説明する。
<Second embodiment>
Next, the information processing device 1 according to the second embodiment will be described. The configuration of the information processing device 1 according to the second embodiment is substantially the same as that of the information processing device 1 according to the first embodiment, but the operation of a part of the processing unit 160 is related to the first embodiment. It is different from the information processing device 1. That is, in the information processing apparatus 1 according to the second embodiment, when the registered object corresponding to the object in the image cannot be determined, the object in the image is automatically registered as a new object. To do. For example, by automatically registering an unspecified person photographed by the camera 2 as an object, it is possible to utilize the discrimination result of the object (unspecified person) photographed by each camera 2 for marketing or the like. It becomes. Hereinafter, the differences from the information processing apparatus 1 according to the first embodiment (particularly, the differences in the operations of the discrimination unit 162 and the registration unit 163) will be mainly described.

図7は、第2の実施形態に係る情報処理装置1において記憶部150に記憶される登録情報51Aの一例を示す図である。図7の例において、登録情報51Aに登録される対象物は、氏名などが不明な人物(不特定の人物)である。図7における符号510Aは、一人の人物について登録される一群の情報を表す。図7の例に示す一群の情報510Aは、個々の人物を識別するための個人ID、登録を行った日付(登録日)、推定性別、推定年齢、撮影された場所の郵便番号、撮影された人物の特徴情報を含む。登録情報51Aは、登録された一人以上の人物の各々について、図7に示すような一群の情報510Aを含む。 FIG. 7 is a diagram showing an example of registration information 51A stored in the storage unit 150 in the information processing device 1 according to the second embodiment. In the example of FIG. 7, the object registered in the registration information 51A is a person whose name or the like is unknown (unspecified person). Reference numeral 510A in FIG. 7 represents a group of information registered for one person. The group of information 510A shown in the example of FIG. 7 includes a personal ID for identifying an individual person, a date of registration (registration date), an estimated gender, an estimated age, a zip code of the place where the image was taken, and a photographed place. Includes personal feature information. The registration information 51A includes a group of information 510A as shown in FIG. 7 for each of one or more registered persons.

一群の情報510A(図7)に含まれる「推定性別」及び「推定年齢」は、それぞれカメラ2が推定する。すなわち、カメラ2の処理部250が、撮像部220の撮像画像に含まれる人物の画像に基づいて(例えば画像における顔の特徴などに基づいて)、人物の性別と年齢を推定する。性別及び年齢の推定結果は、人物の特徴情報と共にカメラ2から情報処理装置1へ提供される。情報処理装置1の取得部161は、特徴情報と共に性別及び年齢の推定結果を取得する。 The "estimated gender" and "estimated age" included in the group of information 510A (FIG. 7) are estimated by the camera 2, respectively. That is, the processing unit 250 of the camera 2 estimates the gender and age of the person based on the image of the person included in the image captured by the image pickup unit 220 (for example, based on the facial features in the image). The estimation results of gender and age are provided from the camera 2 to the information processing device 1 together with the characteristic information of the person. The acquisition unit 161 of the information processing device 1 acquires the estimation results of gender and age together with the feature information.

登録部163は、画像中の対象物に該当する登録された対象物が判別部162において判別不能であった場合、取得部161において取得された取得特徴情報を、新規に登録する対象物の特徴情報として登録情報51Aに追加するともに、当該判別不能であった対象物を含む画像を撮影したカメラ2についてカメラ情報52に含まれる撮影場所郵便番号を登録情報51Aに追加する。例えば、登録部163は、画像中の対象物(人物)に該当する登録された対象物(人物)が判別部162において判別不能であった場合、取得部161において取得された「特徴情報」「推定性別」「推定年齢」を含む一群の情報510A(図7)を生成し、これを登録情報51Aに追加する。 When the registered object corresponding to the object in the image cannot be discriminated by the discriminating unit 162, the registration unit 163 newly registers the acquired feature information acquired by the acquisition unit 161 as the feature of the object. It is added to the registration information 51A as information, and the shooting location postal code included in the camera information 52 is added to the registration information 51A for the camera 2 that has taken an image including the indistinguishable object. For example, when the registered object (person) corresponding to the object (person) in the image cannot be discriminated by the discriminating unit 162, the registration unit 163 obtains "feature information" and "feature information" in the acquisition unit 161. A group of information 510A (FIG. 7) including "estimated gender" and "estimated age" is generated and added to the registration information 51A.

判別部162は、既に説明した第1の実施形態と同様に、特徴情報についての照合結果(取得特徴情報と登録特徴情報との照合結果)と郵便番号についての照合結果(画像中の対象物に関連した場所の郵便番号と登録された対象物に関連した場所の登録郵便番号との照合結果)とに基づいて、判別処理を行う。ただし、第2の実施形態における判別部162は、画像中の対象物に関連した場所の郵便番号を入力する場合に、第1の実施形態のように入力部120から郵便番号を入力するのではなく、特徴情報を生成したカメラ2についてカメラ情報52に含まれる撮影場所郵便番号(カメラ2で撮影が行われた場所の郵便番号)を入力する。これにより、ユーザが入力部120を操作して郵便番号を入力する必要がなくなり、撮影した対象物に関連した場所の郵便番号をカメラ情報52から自動的に入力することが可能となる。 Similar to the first embodiment described above, the determination unit 162 has a collation result for the feature information (a collation result between the acquired feature information and the registered feature information) and a collation result for the zip code (for the object in the image). The discrimination process is performed based on the collation result of the postal code of the related place and the registered postal code of the place related to the registered object). However, when the determination unit 162 in the second embodiment inputs the zip code of the place related to the object in the image, the zip code may be input from the input unit 120 as in the first embodiment. Instead, the shooting location zip code (postal code of the place where the shooting was performed by the camera 2) included in the camera information 52 is input for the camera 2 that generated the feature information. As a result, the user does not have to operate the input unit 120 to input the zip code, and the zip code of the place related to the photographed object can be automatically input from the camera information 52.

例えば、判別部162は、特徴情報についての照合結果において、画像中の対象物に該当する登録された対象物の候補を2以上判別した場合、2以上の候補について登録情報51Aに含まれた郵便番号(登録郵便番号)と、特徴情報を生成したカメラ2についてカメラ情報52に含まれた郵便番号(撮影場所郵便番号)とを照合する。判別部162は、登録郵便番号と撮影場所郵便番号とを照合した結果に基づいて、2以上の候補の中から、画像中の対象物に該当する登録された対象物を判別する。例えば、判別部162は、2以上の候補の中から、特徴情報を生成したカメラ2についてカメラ情報52に含まれる撮影場所郵便番号と同一の登録郵便番号が登録情報51Aに含まれている対象物を、画像中の対象物に該当する登録された対象物として判別する。これにより、特徴情報の照合では対象物を判別し切れない場合でも、登録郵便番号と撮影場所郵便番号との照合結果を利用して精度よく対象物を判別することが可能になる。 For example, when the discrimination unit 162 discriminates two or more registered object candidates corresponding to the objects in the image in the collation result for the feature information, the mail included in the registration information 51A for the two or more candidates. The number (registered zip code) is collated with the zip code (shooting location zip code) included in the camera information 52 for the camera 2 that generated the feature information. The discrimination unit 162 discriminates the registered object corresponding to the object in the image from two or more candidates based on the result of collating the registered zip code with the shooting location zip code. For example, the determination unit 162 is an object in which the registration information 51A contains the same registered zip code as the shooting location zip code included in the camera information 52 for the camera 2 that generated the feature information from two or more candidates. Is determined as a registered object corresponding to the object in the image. As a result, even if the object cannot be completely determined by the collation of the feature information, the object can be accurately discriminated by using the collation result of the registered zip code and the shooting location zip code.

更に、判別部162は、登録郵便番号と撮影場所郵便番号との照合結果において、2以上の候補について登録情報51Aに含まれた登録郵便番号が、特徴情報を生成したカメラ2についてカメラ情報52に含まれた撮影場所郵便番号と一致しない場合、2以上の候補について履歴情報53(図4)に含まれる郵便番号(以下、「履歴郵便番号」と記す場合がある。)と、特徴情報を生成したカメラ2についてカメラ情報52に含まれる撮影場所郵便番号とを更に照合する。例えば、判別部162は、2以上の候補の中から、特徴情報を生成したカメラ2についてカメラ情報52に含まれた撮影場所郵便番号と同一の履歴郵便番号が履歴情報53に含まれている対象物を、画像中の対象物に該当する登録された対象物として判別する。 Further, in the collation result between the registered zip code and the shooting location zip code, the discriminating unit 162 uses the registered zip code included in the registration information 51A for two or more candidates as the camera information 52 for the camera 2 that generated the feature information. If it does not match the included shooting location zip code, the zip code included in the history information 53 (FIG. 4) (hereinafter, may be referred to as "history zip code") and feature information are generated for two or more candidates. The camera 2 is further collated with the shooting location postal code included in the camera information 52. For example, the discriminating unit 162 is a target in which the history information 53 includes the same history zip code as the shooting location zip code included in the camera information 52 for the camera 2 that generated the feature information from among two or more candidates. The object is discriminated as a registered object corresponding to the object in the image.

対象物が複数のカメラ2で撮影され得る場合、登録情報51Aに登録された対象物が登録情報51Aに含まれる登録郵便番号の地区と異なる場所のカメラ2で撮影される可能性がある。この場合、登録情報51Aに含まれる登録郵便番号とカメラ情報52に含まれる撮影場所郵便番号とが異なるため、これらの郵便番号の照合結果では対象物を正しく判別できない。しかしながら、履歴情報53は過去に対象物が撮影された場所の履歴郵便番号を含んでいるため、履歴情報53に含まれる履歴郵便番号は、カメラ情報52に含まれる撮影場所郵便番号と一致する可能性がある。従って、登録情報51Aに含まれる登録郵便番号とカメラ情報52に含まれる撮影場所郵便番号との照合結果で対象物を判別し切れない場合でも、履歴情報53に含まれる履歴郵便番号とカメラ情報52に含まれる撮影場所郵便番号との照合結果を更に判別処理に利用することによって、複数のカメラ2で撮影され得る対象物(例えば不特定の人物)を精度よく判別することが可能となる。 When the object can be photographed by a plurality of cameras 2, the object registered in the registration information 51A may be photographed by the cameras 2 in a place different from the area of the registered zip code included in the registration information 51A. In this case, since the registered zip code included in the registration information 51A and the shooting location zip code included in the camera information 52 are different, the object cannot be correctly determined from the collation result of these zip codes. However, since the history information 53 includes the history postal code of the place where the object was photographed in the past, the history postal code included in the history information 53 may match the shooting place postal code included in the camera information 52. There is sex. Therefore, even if the object cannot be determined based on the collation result between the registered zip code included in the registration information 51A and the shooting location zip code included in the camera information 52, the history zip code and the camera information 52 included in the history information 53 By further using the collation result with the postal code of the shooting place included in the above for the discriminating process, it is possible to accurately discriminate an object (for example, an unspecified person) that can be photographed by a plurality of cameras 2.

ここで、上述した構成を有する第2の実施形態に係る情報処理装置1の動作について説明する。
図8及び図9は、第2の実施形態に係る情報処理装置1における処理の一例を説明するためのフローチャートである。情報処理装置1は、カメラ2から特徴情報を取得する度に、これらのフローチャートに示した処理を実行する。図6と同様に、情報処理装置1で判別される対象物は人物であり、登録情報51Aに登録される人物を「登録者」、カメラ2が撮影した画像中の人物を「被撮影者」と記す。
Here, the operation of the information processing apparatus 1 according to the second embodiment having the above-described configuration will be described.
8 and 9 are flowcharts for explaining an example of processing in the information processing apparatus 1 according to the second embodiment. Each time the information processing device 1 acquires feature information from the camera 2, the information processing device 1 executes the processes shown in these flowcharts. Similar to FIG. 6, the object determined by the information processing device 1 is a person, the person registered in the registration information 51A is the "registrant", and the person in the image taken by the camera 2 is the "photographed person". Write.

取得部161が被撮影者の特徴情報(取得特徴情報)をカメラ2から取得すると(ST200)、判別部162は、登録情報51Aに含まれる登録者の特徴情報(登録特徴情報)と、被撮影者の取得特徴情報とを照合する(ST205)。 When the acquisition unit 161 acquires the feature information (acquired feature information) of the photographed person from the camera 2 (ST200), the determination unit 162 includes the feature information (registered feature information) of the registrant included in the registration information 51A and the photographed person. It is collated with the acquired feature information of the person (ST205).

取得特徴情報と登録特徴情報とを照合した結果、特徴情報が生成された画像中の被撮影者に該当する登録者が判別部162において判別不能であった場合(ST210のNo)、登録部163は、取得部161において取得された取得特徴情報を、新規に登録する登録者の特徴情報として登録情報51Aに追加する。また登録部163は、判別不能であった被撮影者を撮影したカメラ2についてカメラ情報52に含まれる郵便番号を、この新規に登録する登録者の登録情報51Aに追加する(ST215)。例えば、登録部163は、画像中の被撮影者に該当する登録者が判別部162において判別不能であった場合、取得部161において取得された「特徴情報」「推定性別」「推定年齢」と、判別不能であった被撮影者を撮影したカメラ2についてカメラ情報52に含まれる撮影場所郵便番号とを含んだ一群の情報510A(図7)を生成し、これを登録情報51Aに追加する。 As a result of collating the acquired feature information with the registered feature information, if the registrant corresponding to the photographed person in the image in which the feature information is generated cannot be discriminated by the discriminating unit 162 (No of ST210), the registration unit 163 Adds the acquired feature information acquired by the acquisition unit 161 to the registration information 51A as the feature information of the newly registered registrant. Further, the registration unit 163 adds the postal code included in the camera information 52 for the camera 2 that photographed the photographed person who could not be discriminated to the registration information 51A of the newly registered registrant (ST215). For example, when the registrant corresponding to the photographed person in the image cannot be discriminated by the discriminating unit 162, the registration unit 163 determines the "feature information", "estimated gender", and "estimated age" acquired by the acquisition unit 161. A group of information 510A (FIG. 7) including the shooting location postal code included in the camera information 52 is generated for the camera 2 that has taken a picture of the photographed person who could not be discriminated, and this is added to the registration information 51A.

ステップST205の照合によって被撮影者に該当する登録者が1名のみ見つかった場合(ST210のYes、及び、ST220のNo)、判別部162は、この1名の登録者を、被撮影者に該当する登録者の判別結果として確定する(ST255)。情報処理装置1は、この判別結果を任意の処理に利用する。 When only one registrant corresponding to the photographed person is found by the collation in step ST205 (Yes of ST210 and No of ST220), the discriminating unit 162 corresponds to this one registrant as the photographed person. It is confirmed as the determination result of the registrant (ST255). The information processing device 1 uses this determination result for arbitrary processing.

履歴更新部164は、被撮影者に該当する登録者の判別結果が確定した場合(ST255)、この登録者の撮影履歴に関する情報を履歴情報53(図4)に追加する(ST260)。すなわち、履歴更新部164は、判別された登録者について登録情報51Aに含まれる情報(個人ID)と、判別された登録者を含む画像を撮影したカメラ2についてカメラ情報52に含まれる情報(カメラID、撮影場所郵便番号など)とに基づいて、図4に示す一群の情報530を生成し、これを履歴情報53に追加する。 When the determination result of the registrant corresponding to the photographed person is confirmed (ST255), the history updating unit 164 adds the information regarding the photographing history of the registrant to the history information 53 (FIG. 4) (ST260). That is, the history update unit 164 includes information (personal ID) included in the registration information 51A for the determined registrant and information (camera) included in the camera information 52 for the camera 2 that captured the image including the determined registrant. Based on the ID, the postal code of the shooting location, etc.), a group of information 530 shown in FIG. 4 is generated, and this is added to the history information 53.

ステップST205の照合によって被撮影者に該当する登録者の候補が2名以上見つかった場合(ST210のYes、及び、ST220のYes)、判別部162は、2以上の候補について登録情報51Aに含まれた登録郵便番号と、特徴情報を生成したカメラ2についてカメラ情報52に含まれた撮影場所郵便番号とを照合する(ST225)。例えば判別部162は、2以上の候補の中から、撮影場所郵便番号と同一の登録郵便番号が登録情報51Aに含まれている登録者を検索する。 When two or more registrant candidates corresponding to the photographed person are found by the collation in step ST205 (Yes in ST210 and Yes in ST220), the discriminating unit 162 is included in the registration information 51A for two or more candidates. The registered zip code is collated with the shooting location zip code included in the camera information 52 for the camera 2 that generated the feature information (ST225). For example, the determination unit 162 searches for a registrant whose registration information 51A contains the same registered zip code as the shooting location zip code from two or more candidates.

ステップST225の郵便番号の照合結果、2名以上の候補の中に、撮影場所郵便番号と同一の登録郵便番号が登録情報51Aに含まれた登録者が1名のみ存在する場合(ST230のYes、及び、ST235のYes)、判別部162は、その1名の登録者を、被撮影者に該当する登録者の判別結果として確定する(ST255)。履歴更新部164は、当該確定した登録者の撮影履歴に関する情報を履歴情報53(図4)に追加する(ST260)。 As a result of collating the postal code in step ST225, when there is only one registrant whose registration information 51A contains the same registered postal code as the shooting location postal code among two or more candidates (Yes, in ST230). And, Yes) of ST235, the determination unit 162 determines the one registrant as the determination result of the registrant corresponding to the photographed person (ST255). The history update unit 164 adds information regarding the shooting history of the confirmed registrant to the history information 53 (FIG. 4) (ST260).

他方、ステップST225の郵便番号の照合結果、2名以上の候補の中に、撮影場所郵便番号と同一の登録郵便番号が登録情報51Aに含まれた登録者が2名以上存在する場合や、当該登録者が存在しない場合(ST230のNo、又は、ST235のNo)、判別部162は、2以上の候補について履歴情報53(図4)に含まれる履歴郵便番号と、特徴情報を生成したカメラ2についてカメラ情報52に含まれた撮影場所郵便番号とを照合する(ST240)。例えば判別部162は、2以上の候補の中から、撮影場所郵便番号と同一の履歴郵便番号が履歴情報53に含まれている登録者を検索する。 On the other hand, as a result of collating the postal code in step ST225, if there are two or more registrants whose registration information 51A contains the same registered postal code as the shooting location postal code, or if there are two or more candidates. When the registrant does not exist (No of ST230 or No of ST235), the discriminating unit 162 uses the history postal code included in the history information 53 (FIG. 4) for two or more candidates and the camera 2 that generates the feature information. Is collated with the shooting location postal code included in the camera information 52 (ST240). For example, the determination unit 162 searches for a registrant whose history information 53 includes a history zip code that is the same as the shooting location zip code from among two or more candidates.

ステップST240の照合の結果、2名以上の候補の中に、撮影場所郵便番号と同一の履歴郵便番号が履歴情報53に含まれている登録者が1名のみ見つかった場合(ST245のYes、及び、ST250のYes)、判別部162は、その1名の登録者を、被撮影者に該当する登録者の判別結果として確定する(ST255)。履歴更新部164は、当該確定した登録者の撮影履歴に関する情報を履歴情報53(図4)に追加する(ST260)。他方、ステップST240の照合の結果、2名以上の候補の中に、撮影場所郵便番号と同一の履歴郵便番号が履歴情報53に含まれている登録者が2名以上存在する場合や、当該登録者が存在しない場合(ST245のNo、又は、ST250のNo)、処理部160は、被撮影者に該当する登録者を確定せずに判別処理を終了する。 As a result of collation in step ST240, when only one registrant whose history information 53 contains the same history zip code as the shooting location zip code is found among two or more candidates (Yes of ST245 and Yes). , ST250 Yes), the determination unit 162 determines the one registrant as the determination result of the registrant corresponding to the photographed person (ST255). The history update unit 164 adds information regarding the shooting history of the confirmed registrant to the history information 53 (FIG. 4) (ST260). On the other hand, as a result of the collation in step ST240, when there are two or more registrants whose history information 53 contains the same history zip code as the shooting location zip code, or the registration thereof. When there is no person (No of ST245 or No of ST250), the processing unit 160 ends the discrimination process without determining the registrant corresponding to the photographed person.

以上説明したように、本実施形態によれば、画像中の対象物に該当する登録された対象物が判別部162において判別不能であった場合、取得部161において取得された取得特徴情報が、新規に登録する対象物の特徴情報として登録情報51Aに追加される。またこの場合、判別不能であった対象物を含む画像を撮影したカメラ2についてカメラ情報52に含まれる郵便番号が、登録情報51Aに追加される。これにより、カメラ2が撮影した画像に含まれる対象物の特徴情報と、この対象物が撮影された場所の郵便番号とを、登録情報51Aへ自動的に登録できる。例えば、カメラ2で撮影された不特定の人物の情報として、人物の顔の特徴を示す特徴情報と、その人物が撮影された場所の郵便番号とを、登録情報51Aへ自動的に登録し、マーケティングなどに活用することが可能となる。 As described above, according to the present embodiment, when the registered object corresponding to the object in the image cannot be discriminated by the discriminating unit 162, the acquired feature information acquired by the acquiring unit 161 is obtained. It is added to the registration information 51A as the feature information of the newly registered object. Further, in this case, the postal code included in the camera information 52 for the camera 2 that has captured the image including the indistinguishable object is added to the registration information 51A. As a result, the feature information of the object included in the image taken by the camera 2 and the postal code of the place where the object was taken can be automatically registered in the registration information 51A. For example, as information on an unspecified person photographed by the camera 2, feature information indicating the facial features of the person and the postal code of the place where the person was photographed are automatically registered in the registration information 51A. It can be used for marketing.

また、本実施形態によれば、特徴情報についての照合結果において、画像中の対象物に該当する登録された対象物の候補が2以上判別された場合、2以上の候補について登録情報51Aに含まれた登録郵便番号と、特徴情報を生成したカメラ2についてカメラ情報52に含まれた撮影場所郵便番号との照合が行われ、この照合結果に基づいて、画像中の対象物に該当する登録された対象物が判別される。このように、登録郵便番号と撮影場所郵便番号との照合結果を判別処理に利用することにより、対象物の判別精度の低下を効果的に抑制できる。 Further, according to the present embodiment, when two or more registered object candidates corresponding to the objects in the image are determined in the collation result for the feature information, the two or more candidates are included in the registration information 51A. The registered zip code is collated with the shooting location zip code included in the camera information 52 for the camera 2 that generated the feature information, and based on this collation result, the registered zip code corresponding to the object in the image is registered. The target object is determined. In this way, by using the collation result between the registered zip code and the shooting location zip code for the discrimination process, it is possible to effectively suppress a decrease in the discrimination accuracy of the object.

更に、本実施形態によれば、登録郵便番号と撮像場所郵便番号との照合を行った結果、2以上の候補の登録郵便番号がいずれも撮像場所郵便番号と一致しない場合、2以上の候補について履歴情報53に含まれる履歴郵便番号と、特徴情報を生成したカメラ2についてカメラ情報52に含まれた撮影場所郵便番号とが更に照合され、この照合結果に基づいて、画像中の対象物に該当する登録された対象物が判別される。従って、登録郵便番号と撮像場所郵便番号との照合結果では判別し切れない対象物を、履歴郵便番号と撮影場所郵便番号との照合結果に基づいて的確に判別することが可能となる。 Further, according to the present embodiment, as a result of collating the registered zip code with the imaging location zip code, if neither of the registered zip codes of the two or more candidates matches the imaging location zip code, the two or more candidates The historical postal code included in the history information 53 is further collated with the shooting location postal code included in the camera information 52 for the camera 2 that generated the feature information, and based on this collation result, it corresponds to the object in the image. The registered object to be registered is determined. Therefore, it is possible to accurately discriminate an object that cannot be discriminated by the collation result of the registered zip code and the imaging location zip code based on the collation result of the history zip code and the photographing location zip code.

なお、本発明は上述した実施形態にのみ限定されるものではなく、種々のバリエーションを含んでいる。 The present invention is not limited to the above-described embodiment, but includes various variations.

例えば、上述した実施形態では、カメラ2が撮影した画像に含まれる人物の顔の特徴を特徴情報として抽出する例を挙げているが、顔に限定されない任意の身体部位の特徴を特徴情報として抽出してもよいし、身体全体の特徴を特徴情報として抽出してよい。 For example, in the above-described embodiment, the facial features of a person included in the image captured by the camera 2 are extracted as feature information, but the features of any body part not limited to the face are extracted as feature information. Alternatively, the characteristics of the entire body may be extracted as characteristic information.

また、上述した実施形態では、判別処理により人物を判別する例を挙げているが、判別処理の対象物は人間以外の生き物でもよいし、物体(非生物)でもよい。例えば、車両などの任意の移動体を判別処理の対象物としてもよい。 Further, in the above-described embodiment, an example of discriminating a person by a discriminating process is given, but the object of the discriminating process may be a creature other than a human being or an object (non-living body). For example, an arbitrary moving object such as a vehicle may be an object of discrimination processing.

また、上述した実施形態では、カメラ2において対象物の特徴情報を生成する例を挙げているが、本発明はこの例に限定されない。本発明の他の実施形態では、カメラ2以外の装置(例えば情報処理装置1や、ネットワーク9に接続される任意のサーバ装置)において、カメラ2が撮影した画像に基づいて対象物の特徴情報を生成してもよい。 Further, in the above-described embodiment, an example of generating feature information of an object in the camera 2 is given, but the present invention is not limited to this example. In another embodiment of the present invention, in a device other than the camera 2 (for example, an information processing device 1 or an arbitrary server device connected to the network 9), feature information of an object is obtained based on an image taken by the camera 2. It may be generated.

以下、原出願の願書に最初に添付した特許請求の範囲の記載を付記する。以下に記載した請求項の項番は、原出願の願書に最初に添付した特許請求の範囲のとおりである。
<請求項1>
特定の対象物を撮影可能な1以上のカメラが撮影した画像に基づいて生成された特徴情報であって、前記対象物を含む前記画像から抽出された前記対象物の特徴に関する前記特徴情報を取得する取得部と、
1以上の登録された前記対象物の特徴に関する前記特徴情報を含んだ登録情報を記憶する記憶部と、
前記取得部において取得された前記特徴情報と前記登録情報に含まれた前記特徴情報とを照合し、前記特徴情報についての照合結果に基づいて、前記特徴情報が生成された前記画像中の前記対象物に該当する前記登録された対象物を判別する判別部とを有し、
前記登録情報は、前記登録された対象物に関連した場所の郵便番号である登録郵便番号を含んでおり、
前記判別部は、前記画像中の対象物に関連した場所の郵便番号を入力し、前記登録情報に含まれた前記登録郵便番号と前記入力した郵便番号とを照合し、前記特徴情報についての照合結果と前記郵便番号についての照合結果とに基づいて、前記画像中の対象物に該当する前記登録された対象物を判別する、
情報処理装置。
<請求項2>
ユーザの操作に応じて情報を入力する入力部を有し、
前記判別部は、前記特徴情報についての照合結果において、前記画像中の対象物に該当する前記登録された対象物の候補を2以上判別した場合、前記画像中の対象物に関連した場所の郵便番号を前記入力部において入力し、前記2以上の候補について前記登録情報に含まれた前記登録郵便番号と前記入力した郵便番号とを照合し、当該照合の結果に基づいて、前記2以上の候補の中から、前記画像中の対象物に該当する前記登録された対象物を判別する、
請求項1に記載の情報処理装置。
<請求項3>
前記記憶部は、
複数の前記カメラがそれぞれ撮影を行う場所の郵便番号である撮影場所郵便番号を含んだカメラ情報と、
前記登録された対象物の撮影履歴に関する履歴情報と
を記憶し、
前記画像中の対象物に該当する前記登録された対象物が前記判別部において判別された場合、当該判別された対象物を含む前記画像を撮影した前記カメラについて前記カメラ情報に含まれる前記撮影場所郵便番号を、当該判別された対象物の撮影履歴に関する郵便番号として前記履歴情報に追加する履歴更新部を有する、
請求項1又は2に記載の情報処理装置。
<請求項4>
前記記憶部は、複数の前記カメラがそれぞれ撮影を行う場所の郵便番号である撮影場所郵便番号を含んだカメラ情報を記憶し、
前記画像中の対象物に該当する前記登録された対象物が前記判別部において判別不能であった場合、前記取得部において取得された前記特徴情報を、新規に登録する前記対象物の前記特徴情報として前記登録情報に追加するともに、当該判別不能であった対象物を含む前記画像を撮影した前記カメラについて前記カメラ情報に含まれる前記撮影場所郵便番号を、前記新規に登録する対象物に関連した場所の前記登録郵便番号として前記登録情報に追加する登録部を有し、
前記判別部は、前記特徴情報が生成された前記画像を撮影した前記カメラについて前記カメラ情報に含まれる前記撮影場所郵便番号を、前記画像中の対象物に関連した場所の郵便番号として入力する、
請求項1に記載の情報処理装置。
<請求項5>
前記判別部は、前記特徴情報についての照合結果において、前記画像中の対象物に該当する前記登録された対象物の候補を2以上判別した場合、前記2以上の候補について前記登録情報に含まれた前記登録郵便番号と、前記特徴情報が生成された前記画像を撮影した前記カメラについて前記カメラ情報に含まれた前記撮影場所郵便番号とを照合し、当該照合の結果に基づいて、前記2以上の候補の中から、前記画像中の対象物に該当する前記登録された対象物を判別する、
請求項4に記載の情報処理装置。
<請求項6>
前記記憶部は、前記登録された対象物の撮影履歴に関する履歴情報を記憶し、
前記画像中の対象物に該当する前記登録された対象物が前記判別部において判別された場合、当該判別された対象物を含む前記画像を撮影した前記カメラについて前記カメラ情報に含まれる前記撮影場所郵便番号を、当該判別された対象物の撮影履歴に関する郵便番号として前記履歴情報に追加する履歴更新部を有する、
請求項5に記載の情報処理装置。
<請求項7>
前記判別部は、前記登録郵便番号と前記撮影場所郵便番号との照合結果において、前記2以上の候補について前記登録情報に含まれた前記登録郵便番号が、前記特徴情報が生成された前記画像を撮影した前記カメラについて前記カメラ情報に含まれた前記撮影場所郵便番号と一致しない場合、前記2以上の候補について前記履歴情報に含まれた郵便番号である履歴郵便番号と、前記特徴情報が生成された前記画像を撮影した前記カメラについて前記カメラ情報に含まれた前記撮影場所郵便番号とを照合し、前記履歴郵便番号と前記撮影場所郵便番号との照合結果に基づいて、前記2以上の候補の中から、前記画像中の対象物に該当する前記登録された対象物を判別する、
請求項6に記載の情報処理装置。
<請求項8>
特定の対象物を撮影可能な1以上のカメラが撮影した画像に基づいて生成された特徴情報であって、前記対象物を含む前記画像から抽出された前記対象物の特徴に関する前記特徴情報をコンピュータによって処理する情報処理方法であって、
前記コンピュータの記憶部には、1以上の登録された前記対象物の特徴に関する前記特徴情報を含んだ登録情報が記憶されており、
前記特徴情報を取得する取得工程と、
前記取得工程において取得された前記特徴情報と前記登録情報に含まれた前記特徴情報とを照合し、前記特徴情報についての照合結果に基づいて、前記特徴情報が生成された前記画像中の前記対象物に該当する前記登録された対象物を判別する判別工程とを有し、
前記登録情報は、前記登録された対象物に関連した場所の郵便番号である登録郵便番号を含んでおり、
前記判別工程は、前記画像中の対象物に関連した場所の郵便番号を入力し、前記登録情報に含まれた前記登録郵便番号と前記入力した郵便番号とを照合し、前記特徴情報についての照合結果と前記郵便番号についての照合結果とに基づいて、前記画像中の対象物に該当する前記登録された対象物を判別することを含む、
情報処理方法。
<請求項9>
請求項8に記載された情報処理方法をコンピュータに実行させるためのプログラム。
<請求項10>
請求項1〜7のいずれか一項に記載された情報処理装置と複数の前記カメラとを備えるカメラシステム。
Below, the description of the scope of claims attached first to the application of the original application is added. The claims listed below are the scope of the claims originally attached to the application of the original application.
<Claim 1>
Feature information generated based on an image taken by one or more cameras capable of photographing a specific object, and the feature information regarding the feature of the object extracted from the image including the object is acquired. Acquisition department and
A storage unit that stores registration information including the feature information regarding one or more registered features of the object, and a storage unit.
The target in the image in which the feature information is generated by collating the feature information acquired by the acquisition unit with the feature information included in the registration information and based on the collation result of the feature information. It has a discriminating unit for discriminating the registered object corresponding to the object, and has a discriminating unit.
The registration information includes a registered zip code, which is the zip code of the place associated with the registered object.
The discriminating unit inputs the zip code of the place related to the object in the image, collates the registered zip code included in the registration information with the input zip code, and collates the feature information. Based on the result and the collation result for the zip code, the registered object corresponding to the object in the image is determined.
Information processing device.
<Claim 2>
It has an input unit for inputting information according to the user's operation.
When the discriminating unit discriminates two or more candidates for the registered object corresponding to the object in the image in the collation result for the feature information, the postal code of the place related to the object in the image. The number is input in the input unit, the registered zip code included in the registration information is collated with the entered zip code for the two or more candidates, and the two or more candidates are collated based on the result of the collation. The registered object corresponding to the object in the image is determined from the above.
The information processing device according to claim 1.
<Claim 3>
The storage unit
Camera information including the shooting location zip code, which is the zip code of the place where each of the plurality of cameras shoots,
The history information and the history information about the shooting history of the registered object are memorized.
When the registered object corresponding to the object in the image is discriminated by the discriminating unit, the shooting location included in the camera information for the camera that has taken the image including the discriminated object. It has a history update unit that adds a zip code to the history information as a zip code related to the shooting history of the determined object.
The information processing device according to claim 1 or 2.
<Claim 4>
The storage unit stores camera information including a shooting location zip code, which is a zip code of a place where each of the plurality of cameras shoots.
When the registered object corresponding to the object in the image cannot be discriminated by the discriminating unit, the feature information acquired by the acquisition unit is newly registered as the feature information of the object. The shooting location postal code included in the camera information for the camera that captured the image including the indistinguishable object was related to the newly registered object. It has a registration unit that is added to the registration information as the registration zip code of the place.
The discriminating unit inputs the shooting location zip code included in the camera information for the camera that captured the image for which the feature information is generated as the zip code of the location related to the object in the image.
The information processing device according to claim 1.
<Claim 5>
When the discriminating unit discriminates two or more candidates for the registered object corresponding to the object in the image in the collation result for the feature information, the two or more candidates are included in the registration information. The registered zip code is collated with the shooting location zip code included in the camera information for the camera that captured the image for which the feature information was generated, and based on the result of the collation, the above two or more. The registered object corresponding to the object in the image is determined from the candidates of.
The information processing device according to claim 4.
<Claim 6>
The storage unit stores history information regarding the shooting history of the registered object, and stores the history information.
When the registered object corresponding to the object in the image is discriminated by the discriminating unit, the shooting location included in the camera information for the camera that has taken the image including the discriminated object. It has a history update unit that adds a zip code to the history information as a zip code related to the shooting history of the determined object.
The information processing device according to claim 5.
<Claim 7>
In the collation result of the registered zip code and the shooting location zip code, the discriminating unit uses the registered zip code included in the registration information for the two or more candidates to display the image from which the feature information is generated. If the photographed camera does not match the shooting location zip code included in the camera information, the historical zip code, which is the zip code included in the history information, and the feature information are generated for the two or more candidates. The camera that captured the image is collated with the shooting location zip code included in the camera information, and based on the collation result between the history zip code and the shooting location zip code, the two or more candidates From the inside, the registered object corresponding to the object in the image is determined.
The information processing device according to claim 6.
<Claim 8>
Characteristic information generated based on an image taken by one or more cameras capable of photographing a specific object, and the feature information regarding the feature of the object extracted from the image including the object is computerized. It is an information processing method that is processed by
The storage unit of the computer stores registration information including the feature information regarding one or more registered features of the object.
The acquisition process for acquiring the feature information and
The target in the image in which the feature information is generated by collating the feature information acquired in the acquisition step with the feature information included in the registration information and based on the collation result of the feature information. It has a discrimination step of discriminating the registered object corresponding to the object.
The registration information includes a registered zip code, which is the zip code of the place associated with the registered object.
In the determination step, the postal code of the place related to the object in the image is input, the registered postal code included in the registration information is collated with the input postal code, and the feature information is collated. Including determining the registered object corresponding to the object in the image based on the result and the collation result for the zip code.
Information processing method.
<Claim 9>
A program for causing a computer to execute the information processing method according to claim 8.
<Claim 10>
A camera system including the information processing device according to any one of claims 1 to 7 and a plurality of the cameras.

1…情報処理装置、110…通信部、120…入力部、130…表示部、140…インターフェース部、150…記憶部、160…処理部、161…取得部、162…判別部、163…登録部、164…履歴更新部、165…カメラ管理部、51,51A…登録情報、52…カメラ情報、53…履歴情報、2…カメラ、210…通信部、220…撮像部、230…インターフェース部、240…記憶部、250…処理部、9…ネットワーク
1 ... Information processing device, 110 ... Communication unit, 120 ... Input unit, 130 ... Display unit, 140 ... Interface unit, 150 ... Storage unit, 160 ... Processing unit, 161 ... Acquisition unit, 162 ... Discrimination unit, 163 ... Registration unit 164 ... History update unit, 165 ... Camera management unit, 51, 51A ... Registration information, 52 ... Camera information, 53 ... History information, 2 ... Camera, 210 ... Communication unit, 220 ... Imaging unit, 230 ... Interface unit, 240 ... storage unit, 250 ... processing unit, 9 ... network

Claims (1)

特定の対象物を撮影可能な1以上のカメラが撮影した画像に基づいて生成された特徴情報であって、前記対象物を含む前記画像から抽出された前記対象物の特徴に関する前記特徴情報を取得する取得部と、
1以上の登録された前記対象物の特徴に関する前記特徴情報を含んだ登録情報を記憶する記憶部と、
前記取得部において取得された前記特徴情報と前記登録情報に含まれた前記特徴情報とを照合し、前記特徴情報についての照合結果に基づいて、前記特徴情報が生成された前記画像中の前記対象物に該当する前記登録された対象物を判別する判別部とを有し、
前記記憶部は、複数の前記カメラがそれぞれ撮影を行う場所の郵便番号を含んだカメラ情報を記憶する、
情報処理装置。
Feature information generated based on an image taken by one or more cameras capable of photographing a specific object, and the feature information regarding the feature of the object extracted from the image including the object is acquired. Acquisition department and
A storage unit that stores registration information including the feature information regarding one or more registered features of the object, and a storage unit.
The target in the image in which the feature information is generated by collating the feature information acquired by the acquisition unit with the feature information included in the registration information and based on the collation result of the feature information. It has a discriminating unit for discriminating the registered object corresponding to the object, and has a discriminating unit.
The storage unit stores camera information including the postal code of the place where the plurality of cameras take pictures.
Information processing device.
JP2020084493A 2020-05-13 2020-05-13 Information processing device Pending JP2021083071A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020084493A JP2021083071A (en) 2020-05-13 2020-05-13 Information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020084493A JP2021083071A (en) 2020-05-13 2020-05-13 Information processing device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019207468A Division JP6713153B1 (en) 2019-11-15 2019-11-15 Information processing apparatus, information processing method, program, and camera system

Publications (1)

Publication Number Publication Date
JP2021083071A true JP2021083071A (en) 2021-05-27

Family

ID=75965495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020084493A Pending JP2021083071A (en) 2020-05-13 2020-05-13 Information processing device

Country Status (1)

Country Link
JP (1) JP2021083071A (en)

Similar Documents

Publication Publication Date Title
JP6013241B2 (en) Person recognition apparatus and method
US20230401915A1 (en) Information processing apparatus, information processing system, and information processing method
WO2014050281A1 (en) Method for updating personal authentication dictionary, device for updating personal authentication dictionary, recording medium, and personal authentication system
JP2006293644A (en) Information processing device and information processing method
JP2000306095A (en) Image collation/retrieval system
JPWO2019038965A1 (en) Store device, store management method, program
JP6969878B2 (en) Discriminator learning device and discriminator learning method
JP2017151832A (en) Wait time calculation system
JP5423740B2 (en) Video providing apparatus, video using apparatus, video providing system, video providing method, and computer program
US20180018520A1 (en) Control apparatus, control system, and control method
WO2021095732A1 (en) Information processing device, information processing method, program, recording medium, and camera system
JP2021083071A (en) Information processing device
JP6815667B1 (en) Information processing equipment, information processing methods, programs and camera systems
JP7020567B2 (en) Information processing systems, information processing equipment, information processing methods, and programs
JP7298729B2 (en) Information processing system, information processing device, information processing method, and program
JP2005293399A (en) Personal authentication method and device
JP7067593B2 (en) Information processing system, management method for authentication, and program
JP4222066B2 (en) Face matching device
JP6438693B2 (en) Authentication apparatus, authentication method, and program
JPWO2021199114A5 (en) Recommendation device, system, method and program
JP7248348B2 (en) Face authentication device, face authentication method, and program
KR102435581B1 (en) Attendance check system using face recognition and attendance check method using same
JP6905653B2 (en) Face recognition system, face recognition server and face recognition method
Grabovskyi et al. Facial recognition with using of the microsoft face API Service
JP2023074751A (en) Information processing system, information processing device, information processing method, and program