JP2011060024A - Apparatus for selecting feature information applied for image recognition processing, and image recognition processing apparatus - Google Patents

Apparatus for selecting feature information applied for image recognition processing, and image recognition processing apparatus Download PDF

Info

Publication number
JP2011060024A
JP2011060024A JP2009209525A JP2009209525A JP2011060024A JP 2011060024 A JP2011060024 A JP 2011060024A JP 2009209525 A JP2009209525 A JP 2009209525A JP 2009209525 A JP2009209525 A JP 2009209525A JP 2011060024 A JP2011060024 A JP 2011060024A
Authority
JP
Japan
Prior art keywords
feature information
information
feature
reliability
importance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009209525A
Other languages
Japanese (ja)
Other versions
JP5085621B2 (en
Inventor
Yoshihiko Suzuki
美彦 鈴木
Akira Sawada
彰 澤田
Kenji Baba
賢二 馬場
Yusuke Takahashi
雄介 高橋
Nobutaka Nishimura
信孝 西村
Ryoichi Kurata
亮一 倉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2009209525A priority Critical patent/JP5085621B2/en
Publication of JP2011060024A publication Critical patent/JP2011060024A/en
Application granted granted Critical
Publication of JP5085621B2 publication Critical patent/JP5085621B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an apparatus for selecting feature information capable of selecting feature information effective in image recognition processing for achieving of chasing and identifying a person even when there are variations in environmental conditions. <P>SOLUTION: In an image forming apparatus 10 with the apparatus for selecting the feature information to extract a recognition target from image information photographed by cameras 11A-11C, there is provided a function for selecting the feature information effective in the image recognition processing from a plurality of feature information based on information in importance and reliability. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、カメラにより撮影された画像情報から認識対象を抽出するための画像認識処理技術に関し、特に認識対象の特徴情報を選択するための技術に関する。   The present invention relates to an image recognition processing technique for extracting a recognition target from image information captured by a camera, and more particularly to a technique for selecting feature information of a recognition target.

近年、カメラにより撮影された画像(映像)情報を利用した監視システムが普及している。特に、多数の人が通行するようなエリアを監視対象とする広域監視システムに対する需要が高まっている。   In recent years, monitoring systems using image (video) information captured by a camera have become widespread. In particular, there is an increasing demand for a wide area monitoring system that monitors an area where many people pass.

監視システムでは、カメラにより撮影された画像情報を処理して、監視対象である人の特徴を抽出するための画像認識処理装置が適用されている。広域監視システムでは、複数のカメラを使用し、監視対象である人の特徴に基づいて、移動している人を同定し、追跡するための画像認識処理装置が必要となる。   In the monitoring system, an image recognition processing apparatus for processing image information captured by a camera and extracting characteristics of a person to be monitored is applied. In the wide area monitoring system, an image recognition processing device is required for identifying and tracking a moving person based on the characteristics of the person to be monitored using a plurality of cameras.

従来では、人の複数の特徴情報に基づいて個人認証を行なう先行技術が提案されている(例えば、特許文献1、2を参照)。これらの先行技術は、指紋、虹彩、顔、声紋、筆跡などの複数種類の生体情報を取得し、事前に登録しておいた生体情報と照合することで個人認証を行なう構成である。これらの先行技術は、個人認証装置への生体情報の事前登録を前提としており、理想的な環境で収集した生体情報を用いる処理を実行するものである。   Conventionally, prior art that performs personal authentication based on a plurality of feature information of a person has been proposed (see, for example, Patent Documents 1 and 2). These prior arts are configured to acquire a plurality of types of biometric information such as fingerprints, irises, faces, voiceprints, handwriting, etc., and perform personal authentication by collating with biometric information registered in advance. These prior arts are based on pre-registration of biometric information in a personal authentication device, and execute processing using biometric information collected in an ideal environment.

画像処理技術に含まれるパターン認識技術に関する先行技術が提案されている(例えば、特許文献3、4を参照)。特許文献3に記載されている先行技術は、文字認識等を想定し、画像から過多の特徴を生成しておき、その中から必要な特徴を選択する仕組みに関するものである。この先行技術は、認識対象について事前に多くの特徴を装置に入力しておき、平均パターンを辞書データとして登録することを基本としている。また、特許文献4に記載されている先行技術は、ニューラルネットワークなどのパターン学習機能を組み込むことで、画像からパターン識別に必要な特徴を抽出するものである。   Prior art relating to pattern recognition technology included in image processing technology has been proposed (see, for example, Patent Documents 3 and 4). The prior art described in Patent Document 3 relates to a mechanism for generating excessive features from an image and selecting necessary features from the image assuming character recognition and the like. This prior art is based on the fact that many features are input to the apparatus in advance for the recognition target, and the average pattern is registered as dictionary data. In addition, the prior art described in Patent Document 4 extracts features necessary for pattern identification from an image by incorporating a pattern learning function such as a neural network.

特許第3827600号公報Japanese Patent No. 3827600 特許第4196973号公報Japanese Patent No. 4196973 特許第3060922号公報Japanese Patent No. 3060922 特許第3480563号公報Japanese Patent No. 3480563

前述したように、例えば、特に多数の人が通行するエリアなどを対象とする広域監視システムでは、画像情報から得られる人に関する特徴に基づいて、人を追跡、同定するための画像認識処理技術が要求される。しかし、人の特徴は、カメラから人までの距離、カメラに対する人の向きなどの環境条件の変動により大きく変動する。前述の特許文献1、2の先行技術は、環境条件が変動するような状況に適応することは困難である。また、特許文献3、4の先行技術は、認識対象について事前学習が必要であり、人毎に特徴情報を事前学習できない広域監視システムへの適用は困難である。   As described above, for example, in a wide area monitoring system that targets an area where a large number of people pass, image recognition processing technology for tracking and identifying a person based on characteristics related to the person obtained from image information is available. Required. However, human characteristics vary greatly due to changes in environmental conditions such as the distance from the camera to the person and the orientation of the person with respect to the camera. The prior arts of Patent Documents 1 and 2 described above are difficult to adapt to situations in which environmental conditions vary. In addition, the prior arts of Patent Documents 3 and 4 require prior learning for a recognition target, and are difficult to apply to a wide-area monitoring system in which feature information cannot be learned in advance for each person.

そこで、本発明の目的は、環境条件の変動がある場合でも人の追跡、同定を確実に実現できる画像認識処理に有効な特徴情報を選択できる特徴情報選択装置を提供することにある。   Accordingly, an object of the present invention is to provide a feature information selection device capable of selecting feature information effective for image recognition processing capable of reliably realizing tracking and identification of a person even when environmental conditions vary.

本発明の観点は、画像処理を利用した人の追跡、同定に用いる特徴情報を重要度と信頼度の2つの属性で定義し、人の追跡、同定を確実に実現できる画像認識処理に有効な特徴情報を選択する特徴情報選択装置である。   An aspect of the present invention is effective for image recognition processing in which feature information used for tracking and identification of a person using image processing is defined by two attributes of importance and reliability, and the tracking and identification of a person can be realized with certainty. This is a feature information selection device that selects feature information.

本発明の観点に従った特徴情報選択装置は、カメラにより撮影された画像情報から認識対象を抽出するための画像認識処理に適用する特徴情報選択装置において、前記認識対象の複数の特徴情報を抽出する特徴抽出手段と、前記特徴情報に含まれる属性として平均的特徴から外れた特徴を示す重要度を定義し、前記特徴情報の前記重要度を示す重要度情報を設定する重要度設定手段と、前記特徴情報に含まれる属性として前記カメラの撮影環境に基づいて設定される信頼度を定義し、前記特徴情報の前記信頼度を示す信頼度情報を設定する信頼度設定手段と、前記特徴情報に基づいて認識対象を抽出するときに、前記重要度情報及び前記信頼度情報に基づいて前記複数の特徴情報から前記画像認識処理に有効な特徴情報を選択する選択手段とを備えた構成である。   A feature information selection device according to an aspect of the present invention extracts a plurality of feature information of a recognition target in a feature information selection device applied to an image recognition process for extracting a recognition target from image information captured by a camera. Defining the importance indicating the feature deviating from the average feature as the attribute included in the feature information, and setting the importance level information indicating the importance level of the feature information, A reliability setting unit that defines reliability set based on a shooting environment of the camera as an attribute included in the feature information, and sets reliability information indicating the reliability of the feature information; and Selection means for selecting feature information effective for the image recognition processing from the plurality of feature information based on the importance information and the reliability information when extracting a recognition target based on It is configured to include.

本発明によれば、環境条件の変動がある場合でも人の追跡、同定を確実に実現できる画像認識処理に有効な特徴情報を選択することができる。   According to the present invention, it is possible to select feature information effective for image recognition processing that can reliably realize tracking and identification of a person even when environmental conditions vary.

本発明の実施形態に関する画像処理装置及び監視システムの要部を示すブロック図。The block diagram which shows the principal part of the image processing apparatus and monitoring system regarding embodiment of this invention. 本実施形態に関する画像処理装置において人を同定する仕組みの一例を説明するための図。The figure for demonstrating an example of the mechanism which identifies a person in the image processing apparatus regarding this embodiment. 本実施形態に関する画像処理装置の追跡及び同定の処理を説明するためのフローチャート。6 is a flowchart for explaining tracking and identification processing of the image processing apparatus according to the embodiment. 本実施形態に関する重要度の定義を説明するための図。The figure for demonstrating the definition of the importance regarding this embodiment. 本実施形態に関する重要度の定義を説明するための図。The figure for demonstrating the definition of the importance regarding this embodiment. 本実施形態に関する重要度の設定処理を説明するためのフローチャート。The flowchart for demonstrating the setting process of the importance regarding this embodiment. 本実施形態に関する信頼度の設定処理を説明するためのフローチャート。The flowchart for demonstrating the setting process of the reliability regarding this embodiment. 本実施形態に関する環境変動を説明するための図。The figure for demonstrating the environmental fluctuation | variation regarding this embodiment. 本実施形態に関する信頼度の設定方法を説明するための図。The figure for demonstrating the setting method of the reliability regarding this embodiment. 本実施形態に関する同定処理を説明するための図。The figure for demonstrating the identification process regarding this embodiment. 本実施形態に関する特徴情報選択の方法を説明するための図。The figure for demonstrating the method of the feature information selection regarding this embodiment. 本実施形態に関する同定処理を説明するためのフローチャート。The flowchart for demonstrating the identification process regarding this embodiment.

以下図面を参照して、本発明の実施形態を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(画像処理装置の構成)
図1は、本実施形態に関する画像処理装置の要部を示すブロック図である。
(Configuration of image processing apparatus)
FIG. 1 is a block diagram illustrating a main part of the image processing apparatus according to the present embodiment.

本実施形態は、複数のカメラ11A〜11Cを使用する監視システムに適用する画像処理装置10である。画像処理装置10は、画像入力部12と、画像処理部13と、記憶部14と、表示装置15を有し、具体的にはパーソナルコンピュータなどのコンピュータシステムから構成されている。   The present embodiment is an image processing apparatus 10 applied to a monitoring system that uses a plurality of cameras 11A to 11C. The image processing apparatus 10 includes an image input unit 12, an image processing unit 13, a storage unit 14, and a display device 15, and specifically includes a computer system such as a personal computer.

画像入力部12は、カメラ11A〜11Cにより撮影された画像(映像)を入力し、各種の前処理を実行して画像処理部13に送出する。画像処理部13は、マイクロプロセッサ(CPU)及び画像処理用ソフトウェアからなり、後述する画像認識処理を含む画像処理を実行する。記憶部14は、画像処理部13の処理結果や画像処理部13の画像処理に必要な情報などを格納する。表示装置15は、画像処理部13からの処理結果を表示する表示画面を有する。また、表示装置15は、カメラ11A〜11Cにより撮影された画像を表示する監視用モニタを構成する。   The image input unit 12 inputs images (videos) taken by the cameras 11 </ b> A to 11 </ b> C, executes various preprocessing, and sends them to the image processing unit 13. The image processing unit 13 includes a microprocessor (CPU) and image processing software, and executes image processing including image recognition processing described later. The storage unit 14 stores processing results of the image processing unit 13 and information necessary for image processing of the image processing unit 13. The display device 15 has a display screen that displays the processing result from the image processing unit 13. The display device 15 constitutes a monitoring monitor that displays images taken by the cameras 11A to 11C.

(監視システムの動作)
本実施形態の監視システムは、図1に示すように、例えば大規模店舗内に設置されたカメラ11A〜11C及び画像処理装置10から構成されている。カメラ11A〜11Cは、店舗フロア100に割り当てられた監視エリア110A〜110C毎に配置される。画像処理装置10は、異なるカメラ11A〜11Cにより撮影された各画像から人120を抽出する。さらに、画像処理装置10は、人120の特徴情報に基づいて、点線130で示すように店舗フロア100を移動する人120を、追跡及び同定するための画像認識処理を実行する。
(Operation of monitoring system)
As shown in FIG. 1, the monitoring system according to the present embodiment includes cameras 11 </ b> A to 11 </ b> C and an image processing device 10 installed in a large-scale store, for example. The cameras 11A to 11C are arranged for each of the monitoring areas 110A to 110C assigned to the store floor 100. The image processing apparatus 10 extracts a person 120 from each image taken by different cameras 11A to 11C. Further, the image processing apparatus 10 performs image recognition processing for tracking and identifying the person 120 moving on the store floor 100 as indicated by a dotted line 130 based on the feature information of the person 120.

図2は、画像処理装置10が、異なるカメラ11A〜11Cからの画像情報を使用して人120を同定する仕組みの一例を示す図である。画像処理装置10は、図2(A)に示すように、カメラ11Aにより撮影された画像200Aから、後ろ姿の人を抽出する。また、画像処理装置10は、図2(B)に示すように、カメラ11Bにより撮影された画像200Bから、前からの人を抽出する。   FIG. 2 is a diagram illustrating an example of a mechanism in which the image processing apparatus 10 identifies a person 120 using image information from different cameras 11A to 11C. As shown in FIG. 2A, the image processing apparatus 10 extracts a person in the back from an image 200A taken by the camera 11A. Further, as shown in FIG. 2B, the image processing apparatus 10 extracts a person from the front from an image 200B photographed by the camera 11B.

さらに、画像処理装置10は、カメラ11Aにより撮影された画像200Aから、抽出した人の特徴情報として、例えばオレンジ色の服とグレーのズボンを検出する。また、画像処理装置10は、カメラ11Bにより撮影された画像200Bから、抽出した人の特徴情報として、例えばオレンジ色の服とグレーのズボンを検出する。   Furthermore, the image processing apparatus 10 detects, for example, orange clothes and gray pants as extracted person characteristic information from the image 200A captured by the camera 11A. Further, the image processing apparatus 10 detects, for example, orange clothes and gray pants as extracted person characteristic information from the image 200B taken by the camera 11B.

画像処理装置10は、異なるカメラ11A,11Bの画像情報から取得した特徴情報として、抽出した人のオレンジ色の服とグレーのズボンとが合致しているため、同一人物として同定する。従って、画像処理装置10は、異なるカメラ11A,11Bの監視範囲(撮影範囲)間を移動している人を同定し、追跡することができる。   The image processing apparatus 10 identifies the same person as the extracted person's orange clothes and gray pants as the feature information acquired from the image information of the different cameras 11A and 11B. Therefore, the image processing apparatus 10 can identify and track a person moving between the monitoring ranges (shooting ranges) of the different cameras 11A and 11B.

次に図3のフローチャートを参照して、画像処理装置10の追跡及び同定するための画像認識処理を含む画像処理を説明する。   Next, image processing including image recognition processing for tracking and identifying the image processing apparatus 10 will be described with reference to the flowchart of FIG.

まず、画像入力部12は、ここでは2台のカメラ11A,11Bにより撮影された画像を入力し、各種の前処理を実行して画像処理部13に送出する。画像処理部13は、画像入力部12からの各画像情報から人の領域(人領域)を切り出す処理を実行する(ステップS1A,S1B)。画像処理部13は、切り出した人領域の特徴量(特徴情報)を抽出する(ステップS2A,S2B)。   First, the image input unit 12 inputs images taken by the two cameras 11A and 11B here, executes various pre-processes, and sends them to the image processing unit 13. The image processing unit 13 executes a process of cutting out a human region (human region) from each image information from the image input unit 12 (steps S1A and S1B). The image processing unit 13 extracts the feature amount (feature information) of the cut-out human region (Steps S2A and S2B).

次に、画像処理部13は、抽出した複数の特徴量(特徴情報)間の類似度を判定する(ステップS3)。画像処理部13は、類似度が基準値より高い場合には、2台のカメラ11A,11Bにより撮影された人領域が同一人物であると同定する処理結果を出力する。これにより、監視システムは、画像処理部13の画像処理結果に基づいて、同一人物がカメラ11A,11Bの監視範囲110A,110B間を移動している人を同定し、追跡する監視処理を実行できる(ステップS4)。   Next, the image processing unit 13 determines the degree of similarity between the extracted feature quantities (feature information) (step S3). When the similarity is higher than the reference value, the image processing unit 13 outputs a processing result for identifying that the human regions photographed by the two cameras 11A and 11B are the same person. Accordingly, the monitoring system can execute a monitoring process for identifying and tracking a person who is moving between the monitoring ranges 110A and 110B of the cameras 11A and 11B based on the image processing result of the image processing unit 13. (Step S4).

(特徴情報選択)
前述したように、広域監視システムでは、画像処理装置10は、複数のカメラ11A〜11Cにより撮影された画像を画像処理し、この画像処理結果から人に関する複数の特徴情報を取得する。画像処理装置10は、取得した複数の特徴情報から有効な特徴情報を選択することで、監視対象の人を同定、追跡することができる。
(Select feature information)
As described above, in the wide area monitoring system, the image processing apparatus 10 performs image processing on images captured by the plurality of cameras 11A to 11C, and acquires a plurality of feature information about a person from the image processing result. The image processing apparatus 10 can identify and track a person to be monitored by selecting effective feature information from a plurality of acquired feature information.

しかし、実際には人の追跡、同定を実現する場合、カメラから人までの距離や、カメラに対する人の向きなどの環境条件(環境パラメータ)の変動により、監視性能が低下し易い状況が発生する。即ち、具体的に、環境条件とは、カメラ11A〜11Cの撮影における環境条件である。本実施形態は、環境条件の変動がある場合でも、高性能の追跡、同定を実現するための有効な特徴情報選択の仕組みを実現する。以下、特徴情報選択の仕組みを具体的に説明する。   However, in reality, when tracking and identifying a person, the monitoring performance tends to deteriorate due to changes in environmental conditions (environmental parameters) such as the distance from the camera to the person and the orientation of the person with respect to the camera. . Specifically, the environmental condition is an environmental condition for photographing with the cameras 11A to 11C. This embodiment realizes an effective feature information selection mechanism for realizing high-performance tracking and identification even when there is a change in environmental conditions. Hereinafter, the feature information selection mechanism will be described in detail.

本実施形態は、画像処理を利用して人の追跡、同定を行なう場合の有効な特徴情報(特徴量)として、重要度と信頼度の2種類の属性を定義する。重要度は、ある特徴情報を平均と比較した場合に、その特徴情報の特異の程度を示す数値情報である。また、信頼度は、ある特徴情報が他の特徴情報と比較した場合に、信頼の高低の程度を示す情報である。   In the present embodiment, two types of attributes of importance and reliability are defined as effective feature information (feature amount) when tracking and identifying a person using image processing. The importance is numerical information indicating the degree of peculiarity of feature information when the feature information is compared with the average. The reliability is information indicating a degree of reliability when certain feature information is compared with other feature information.

人を追跡、同定する監視動作では、監視範囲に類似した特徴を有する人が多く存在する場合には、監視対象の識別が困難になるため、当該監視性能が低下する。このような場合、人に関する複数の特徴情報の中から特異なものを選択し、その情報に重きを置くことで、監視性能の低下を抑制することが可能となる。   In a monitoring operation for tracking and identifying a person, when there are many persons having characteristics similar to the monitoring range, it becomes difficult to identify the monitoring target, and thus the monitoring performance deteriorates. In such a case, it is possible to suppress a decrease in monitoring performance by selecting unique information from among a plurality of feature information about a person and placing importance on the information.

特徴情報の特異性を判断する方法として、図4に示すように、特徴量の標準的な分布を予め用意し、得られた特徴量が平均値400から外れた値410であれば特異性があると判断し、重要度を高く設定する。また、別の方法として、図5に示すように、特徴量の標準的な空間500を予め用意し、得られる特徴量から空間までの距離が離れている外れた値510がある場合に特異性があると判断し、重要度を高く設定する。図5において、符号520は超平面を意味する。   As a method for determining the specificity of feature information, as shown in FIG. 4, a standard distribution of feature amounts is prepared in advance, and if the obtained feature amount is a value 410 that deviates from the average value 400, the specificity is high. Judge that there is, and set the importance high. As another method, as shown in FIG. 5, when a standard space 500 of feature quantities is prepared in advance and there is a deviated value 510 where the distance from the obtained feature quantities to the space is different, the specificity is unique. It is judged that there is, and the importance is set high. In FIG. 5, reference numeral 520 denotes a hyperplane.

図6は、画像処理部13において、特徴情報の重要度を設定する処理を説明するためのフローチャートである。   FIG. 6 is a flowchart for explaining processing for setting the importance of feature information in the image processing unit 13.

まず、画像処理部13は、画像入力部12を介してカメラ11A〜11Cにより撮影された画像を取込む(ステップS11)。画像処理部13は、画像入力部12からの各画像情報から人領域を切り出す(ステップS12)。画像処理部13は、切り出した人領域の複数の特徴情報(特徴量)を抽出する(ステップS13)。   First, the image processing unit 13 takes in images captured by the cameras 11A to 11C via the image input unit 12 (step S11). The image processing unit 13 cuts out a human area from each image information from the image input unit 12 (step S12). The image processing unit 13 extracts a plurality of feature information (feature amounts) of the cut-out human region (step S13).

次に、画像処理部13は、抽出した複数の特徴情報毎の特異性を判定する(ステップS14)。この特異性を判定結果に基づいて、画像処理部13は、特徴情報毎に数値である重要度を設定し、この重要度を付加した特徴情報(特徴データ)を記憶装置14に格納して登録する(ステップS16)。   Next, the image processing unit 13 determines the specificity for each of the extracted pieces of feature information (step S14). Based on the determination result of the specificity, the image processing unit 13 sets an importance that is a numerical value for each feature information, and stores and registers the feature information (feature data) to which the importance is added in the storage device 14. (Step S16).

次に、特徴情報(特徴量)の属性として、特徴情報の信頼性の高低を示す信頼度に関して、図7から図9を参照して具体的に説明する。   Next, as an attribute of the feature information (feature amount), the reliability indicating the level of reliability of the feature information will be specifically described with reference to FIGS.

監視システムの環境変動が発生した場合、複数の特徴情報の中に人同士の差異を示す情報が含まれないものが存在する。また、環境変動の内容により、信頼度の高い特徴情報と信頼度の低い特徴情報が変化することがある。   When an environmental change of the monitoring system occurs, there is information that does not include information indicating a difference between people among a plurality of feature information. Moreover, feature information with high reliability and feature information with low reliability may change depending on the contents of environmental changes.

図8は、環境パラメータ、その変動の種類、及び環境変動の発生を検知する変動検知方法のルールを示す図である。図8に示すように、環境パラメータ(カメラの撮影条件)としては、例えばカメラの撮影時の照度、コントラスト、映像(画像)の色み、カメラの俯角、カメラレンズの焦点距離、カメラと人との距離などがある。また、変動の種類としては、低下、変動、増大、変化がある。   FIG. 8 is a diagram illustrating rules of a variation detection method for detecting environmental parameters, types of variations thereof, and the occurrence of environmental variations. As shown in FIG. 8, the environmental parameters (camera shooting conditions) include, for example, illuminance, contrast, video (image) color, camera depression angle, camera lens focal length, camera and humanity when shooting with the camera. There are distances. In addition, types of fluctuation include reduction, fluctuation, increase, and change.

図7に示すように、画像処理部13は、画像入力部12からの各画像情報から人領域を切り出し、この人領域の複数の特徴情報(特徴量)を抽出する(ステップS21)。画像処理部13は、抽出した複数の特徴情報に対して信頼度の高低を設定する(ステップS22)。ここで、信頼度の設定は、図9に示すようなルールにより、複数の特徴情報に対して信頼度の高低を設定する方法で行なわれる。この場合、人の特徴量を示す特徴情報として、輝度分布情報、輝度輪郭情報、及び色分布情報の3種類がある。   As shown in FIG. 7, the image processing unit 13 cuts out a human region from each piece of image information from the image input unit 12, and extracts a plurality of feature information (feature amounts) of the human region (step S21). The image processing unit 13 sets the level of reliability for the extracted plurality of feature information (step S22). Here, the reliability is set by a method of setting the level of reliability for a plurality of feature information according to the rules shown in FIG. In this case, there are three types of feature information indicating the human feature quantity: luminance distribution information, luminance contour information, and color distribution information.

次に、画像処理部13は、図8に示すような変動検知方法により、環境パラメータの変動の発生を検知する(ステップS23)。画像処理部13は、環境パラメータの変動を検知すると、それに連動して特徴情報の信頼度を変更する処理を実行する(ステップS24のYES,S25)。具体的には、環境パラメータの中で、例えばカメラ撮影時の照度の低下が発生した場合には、3種類の特徴情報の中で、輝度輪郭情報の信頼度を相対的に高くし、輝度分布情報と色分布情報を信頼度を相対的に低くするように変更設定する。   Next, the image processing unit 13 detects the occurrence of a change in the environmental parameter by a change detection method as shown in FIG. 8 (step S23). When detecting a change in the environmental parameter, the image processing unit 13 executes a process of changing the reliability of the feature information in conjunction with the change (YES in step S24, S25). Specifically, among the environmental parameters, for example, when a decrease in illuminance during camera shooting occurs, among the three types of feature information, the reliability of the luminance contour information is relatively increased, and the luminance distribution The information and color distribution information are changed and set so that the reliability is relatively low.

以上のように特徴情報(特徴量)の2種類の属性として定義、設定した重要度と信頼度の情報に基づいて、図10から図12を参照して人の追跡、同定を行なう具体的方法を説明する。   Specific method for tracking and identifying a person with reference to FIGS. 10 to 12 based on importance and reliability information defined and set as two types of attributes of feature information (feature amount) as described above Will be explained.

画像処理部13は、異なるカメラにより撮影された異なる画像間で、人を追跡、同定するときに、図10に示すように、見かけの大きさやカメラに対する向きが異なる人の画像を比較し、それらの人が同一であるか否かを判断する。図10(A)は、カメラの撮影条件が相対的に良い場合であって、サイズの大きい人の画像600Aである。一方、図10(B)は、カメラの撮影条件が相対的に悪い場合であって、サイズの小さい人の画像600Bである。即ち、画像処理部13は、図10(A),(B)に示すように、環境条件、例えば照度やコントラストが異なる画像同士を比較して、同一人物であるか否かの同定処理を実行する。   When the image processing unit 13 tracks and identifies a person between different images taken by different cameras, as shown in FIG. 10, the image processing unit 13 compares images of people having different apparent sizes and orientations with respect to the camera. It is determined whether or not the same person is the same. FIG. 10A shows an image 600A of a large person when the shooting conditions of the camera are relatively good. On the other hand, FIG. 10B shows an image 600B of a small person when the shooting conditions of the camera are relatively poor. That is, as shown in FIGS. 10A and 10B, the image processing unit 13 compares images having different environmental conditions, for example, illuminance and contrast, and executes identification processing for determining whether or not they are the same person. To do.

ここで、異なる画像間で人を追跡、同定するときに、一方の画像で有効と想定される人の特徴情報と、他方の画像で有効と想定される特徴情報は異なる可能性が高い。人の同定、追跡は、2つの画像間で同一の特徴情報を用いて実行することになるため、重要度や信頼度の設定が異なる特徴情報を用いることになり監視性能が低下し易い。   Here, when tracking and identifying a person between different images, it is highly possible that the feature information of a person assumed to be effective in one image and the feature information assumed to be effective in the other image are different. Since person identification and tracking are performed using the same feature information between two images, feature information having different importance and reliability settings is used, and monitoring performance is likely to deteriorate.

そこで、本実施形態の画像処理装置10は、設定された特徴情報選択基準に基づいて、複数の特徴情報を選択し、それらを組み合わせて用いることで人の追跡、同定処理を実行する。特徴情報選択基準とは、2枚の画像の中で撮影条件の悪い方の画像を基準として、信頼度が高い特徴情報を選択する場合と、重要度の高い特徴情報を選択する場合である。   Therefore, the image processing apparatus 10 according to the present embodiment selects a plurality of pieces of feature information based on the set feature information selection criteria, and executes a human tracking and identification process by using them in combination. The feature information selection criteria are when selecting feature information with high reliability and selecting feature information with high importance on the basis of an image with poorer shooting conditions among two images.

図11(A),(B)は、異なる画像間で人を追跡、同定するときに、特徴情報(特徴量)選択の具体例を示す図である。図11(A),(B)において、符号700は、選択した特徴情報を示す。符号710は、重要度の高い特徴情報を選択したことを示す。また、符号720は、撮影条件の悪い画像の主要な特徴情報を基準として選択したことを示す。   FIGS. 11A and 11B are diagrams illustrating specific examples of feature information (feature amount) selection when tracking and identifying a person between different images. 11A and 11B, reference numeral 700 indicates selected feature information. Reference numeral 710 indicates that feature information having a high degree of importance has been selected. Reference numeral 720 indicates that the main feature information of an image with poor shooting conditions is selected as a reference.

図12(A),(B)は、選択基準の異なる特徴情報を用いた人の追跡、同定の処理をパターンA,Bに分けて説明するフローチャートである。   FIGS. 12A and 12B are flowcharts for explaining the process of tracking and identifying a person using feature information having different selection criteria in patterns A and B. FIG.

図12(A)に示すように、パターンAとして、画像処理装置10は、重要度の高い特徴情報に基づいて同定候補の人物を選択する処理を実行し、この同定候補から信頼度の高い特徴情報に基づいて人物を同定する処理を実行する。一方、図12(B)に示すように、パターンBとして、画像処理装置10は、重要度の高い特徴情報に基づいて同定候補の人物を選択する処理を実行し、この同定候補から信頼度の高い特徴情報に基づいて人物を同定する処理を実行する。   As shown in FIG. 12A, as the pattern A, the image processing apparatus 10 executes a process of selecting an identification candidate person based on feature information having a high importance level, and a feature having high reliability from the identification candidate. A process of identifying a person based on the information is executed. On the other hand, as shown in FIG. 12B, as the pattern B, the image processing apparatus 10 executes a process of selecting an identification candidate person based on feature information having a high degree of importance. A process of identifying a person based on high feature information is executed.

以上要するに本実施形態によれば、画像認識処理を利用して人の追跡、同定を行なう場合の有効な特徴情報(特徴量)として重要度と信頼度の2種類の属性を定義し、カメラの撮影条件などの環境変動に応じて当該属性の設定をダイナミックに変更する。ここで、重要度とは、換言すれば、平均的な特徴から外れた特徴であり、色、外形(体型)、性別などの個別情報や、歩き方(歩様または歩容)などの時系列情報に相当する。例えば、デパート等の大規模店舗の建物に出入する人の中で、夏に黒い色の服を着ている人や、女性が出入する場所での男性などの人の特徴に対する重み付けとなる。また、信頼度は、換言すれば、カメラの撮影における環境条件に基づいて設定される信頼性情報である。   In short, according to the present embodiment, two types of attributes, importance and reliability, are defined as effective feature information (feature amount) when tracking and identifying a person using image recognition processing. The setting of the attribute is dynamically changed according to environmental changes such as shooting conditions. Here, the importance is, in other words, a feature that deviates from the average feature, and is a time series such as individual information such as color, outline (body shape), gender, and how to walk (gait or gait). It corresponds to information. For example, among people who go in and out of a large-scale store building such as a department store, the weight is given to the characteristics of a person such as a person wearing black clothes in summer or a man in a place where a woman goes in and out. In other words, the reliability is reliability information that is set based on environmental conditions in photographing by the camera.

このような本実施形態の画像認識処理であれば、環境条件の変動がある場合でも、人の追跡、同定を確実に行なうことが可能となる。従って、複数のカメラを使用する特に広域監視システムに対して有効に適用できる。   With such an image recognition process of the present embodiment, it is possible to reliably track and identify a person even when there is a change in environmental conditions. Therefore, the present invention can be effectively applied to a wide area monitoring system that uses a plurality of cameras.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

10…画像処理装置、11A〜11C…カメラ、12…画像入力部、
13…画像処理部、14…記憶装置、15…表示装置、
100…店舗フロア、110A〜110C…監視エリア(撮影範囲)。
DESCRIPTION OF SYMBOLS 10 ... Image processing apparatus, 11A-11C ... Camera, 12 ... Image input part,
13 ... Image processing unit, 14 ... Storage device, 15 ... Display device,
100 ... Store floor, 110A to 110C ... Monitoring area (shooting range).

Claims (13)

カメラにより撮影された画像情報から認識対象を抽出するための画像認識処理に適用する特徴情報選択装置において、
前記認識対象の複数の特徴情報を抽出する特徴抽出手段と、
前記特徴情報に含まれる属性として平均的特徴から外れた特徴を示す重要度を定義し、前記特徴情報の前記重要度を示す重要度情報を設定する重要度設定手段と、
前記特徴情報に含まれる属性として前記カメラの撮影環境に基づいて設定される信頼度を定義し、前記特徴情報の前記信頼度を示す信頼度情報を設定する信頼度設定手段と、
前記特徴情報に基づいて認識対象を抽出するときに、前記重要度情報及び前記信頼度情報に基づいて前記複数の特徴情報から前記画像認識処理に有効な特徴情報を選択する選択手段と
を具備したことを特徴とする特徴情報選択装置。
In a feature information selection device applied to image recognition processing for extracting a recognition target from image information photographed by a camera,
Feature extraction means for extracting a plurality of feature information of the recognition target;
An importance setting means for defining importance indicating a feature deviating from an average feature as an attribute included in the feature information, and setting importance information indicating the importance of the feature information;
A reliability setting unit that defines reliability set based on a shooting environment of the camera as an attribute included in the feature information, and sets reliability information indicating the reliability of the feature information;
Selecting means for selecting feature information effective for the image recognition process from the plurality of feature information based on the importance information and the reliability information when extracting a recognition target based on the feature information; A feature information selection device characterized by that.
前記重要度情報は、平均と比較した場合の前記特徴情報の特異の程度を示す数値情報であり、
前記信頼度情報は、他の特徴情報と比較した場合の前記特徴情報の信頼の程度を示す情報であることを特徴とする請求項1に記載の特徴情報選択装置。
The importance information is numerical information indicating the degree of peculiarity of the feature information when compared with the average,
The feature information selection device according to claim 1, wherein the reliability information is information indicating a degree of reliability of the feature information when compared with other feature information.
前記重要度設定手段は、前記特徴情報毎の特異性を判定し、この判定結果に基づいて前記特徴情報毎に前記重要度情報を算出して設定するように構成されていることを特徴とする請求項1または請求項2のいずれか1項に記載の特徴情報選択装置。   The importance setting means is configured to determine specificity for each feature information, and to calculate and set the importance information for each feature information based on the determination result. The feature information selection device according to claim 1 or 2. 前記信頼度設定手段は、前記特徴情報毎に信頼度の高低を判定し、この判定結果に基づいて前記特徴情報毎に前記信頼度情報を設定するように構成されていることを特徴とする請求項1から請求項3のいずれか1項に記載の特徴情報選択装置。   The reliability setting means is configured to determine the level of reliability for each feature information and to set the reliability information for each feature information based on the determination result. The feature information selection device according to any one of claims 1 to 3. 前記信頼度設定手段は、
前記撮影環境の変動に応じて、前記特徴情報毎に設定した前記信頼度情報を変更する手段を含むことを特徴とする請求項4に記載の特徴情報選択装置。
The reliability setting means includes:
5. The feature information selection apparatus according to claim 4, further comprising means for changing the reliability information set for each feature information in accordance with a change in the photographing environment.
前記特徴抽出手段は、
前記複数の特徴情報として、輝度分布情報、輝度輪郭情報、色分布情報のそれぞれを抽出することを特徴とする請求項1から請求項5のいずれか1項に記載の特徴情報選択装置。
The feature extraction means includes
6. The feature information selection apparatus according to claim 1, wherein brightness distribution information, brightness contour information, and color distribution information are extracted as the plurality of feature information.
前記撮影環境は、照度、コントラスト、映像の色み、カメラの俯角、レンズの焦点距離、カメラと人の距離に関する複数のパラメータを含むことを特徴とする請求項1から請求項6のいずれか1項に記載の特徴情報選択装置。   7. The photographing environment according to claim 1, wherein the photographing environment includes a plurality of parameters relating to illuminance, contrast, image color, camera depression angle, lens focal length, and camera-to-person distance. The feature information selection device according to item. 請求項1から請求項7のいずれか1項に記載の特徴情報選択装置を有し、
前記カメラにより撮影された画像情報を入力する画像入力手段と、
前記選択手段により選択された特徴情報に基づいて、認識対象を抽出するための画像認識処理を実行する画像認識処理手段と
を具備したことを特徴とする画像認識処理装置。
It has the feature information selection device according to any one of claims 1 to 7,
Image input means for inputting image information photographed by the camera;
An image recognition processing apparatus comprising: an image recognition processing unit that executes an image recognition process for extracting a recognition target based on the feature information selected by the selection unit.
カメラにより撮影された画像情報から認識対象を抽出するための画像認識処理に適用する特徴情報を選択する方法であって、
前記認識対象の複数の特徴情報を抽出する処理と、
前記特徴情報に含まれる属性として平均的特徴から外れた特徴を示す重要度を定義し、前記特徴情報の前記重要度を示す重要度情報を設定する処理と、
前記特徴情報に含まれる属性として前記カメラの撮影環境に基づいて設定される信頼度を定義し、前記特徴情報の前記信頼度を示す信頼度情報を設定する処理と、
前記特徴情報に基づいて認識対象を抽出するときに、前記重要度情報及び前記信頼度情報に基づいて前記複数の特徴情報から前記画像認識処理に有効な特徴情報を選択する処理と
を実行することを特徴とする特徴情報選択方法。
A method of selecting feature information to be applied to image recognition processing for extracting a recognition target from image information captured by a camera,
A process of extracting a plurality of feature information of the recognition target;
A process of defining importance indicating a feature deviating from an average feature as an attribute included in the feature information, and setting importance information indicating the importance of the feature information;
Defining reliability set based on the shooting environment of the camera as an attribute included in the feature information, and setting reliability information indicating the reliability of the feature information;
When extracting a recognition target based on the feature information, executing a process of selecting feature information effective for the image recognition process from the plurality of feature information based on the importance information and the reliability information Feature information selection method characterized by
請求項9に記載の特徴情報選択方法を有し、
前記カメラにより撮影された画像情報を入力する処理と、
前記選択された特徴情報に基づいて、前記認識対象を抽出するための画像認識処理を実行する画像処理と
を実行することを特徴とする画像認識処理方法。
It has the feature information selection method according to claim 9,
Processing for inputting image information taken by the camera;
An image recognition processing method that executes image processing for executing image recognition processing for extracting the recognition target based on the selected feature information.
カメラにより撮影された画像情報から認識対象を抽出するための画像認識処理に適用する特徴情報を選択するためのプログラムであって、
前記認識対象の複数の特徴情報を抽出する処理と、
前記特徴情報に含まれる属性として平均的特徴から外れた特徴を示す重要度を定義し、前記特徴情報の前記重要度を示す重要度情報を設定する処理と、
前記特徴情報に含まれる属性として前記カメラの撮影環境に基づいて設定される信頼度を定義し、前記特徴情報の前記信頼度を示す信頼度情報を設定する処理と、
前記特徴情報に基づいて認識対象を抽出するときに、前記重要度情報及び前記信頼度情報に基づいて前記複数の特徴情報から前記画像認識処理に有効な特徴情報を選択する処理と
を有する手順をコンピュータに実行させるプログラム。
A program for selecting feature information to be applied to image recognition processing for extracting a recognition target from image information photographed by a camera,
A process of extracting a plurality of feature information of the recognition target;
A process of defining importance indicating a feature deviating from an average feature as an attribute included in the feature information, and setting importance information indicating the importance of the feature information;
Defining reliability set based on the shooting environment of the camera as an attribute included in the feature information, and setting reliability information indicating the reliability of the feature information;
A process of selecting feature information effective for the image recognition processing from the plurality of feature information based on the importance information and the reliability information when extracting a recognition target based on the feature information. A program to be executed by a computer.
前記選択された特徴情報に基づいて、前記認識対象を抽出するための画像認識処理を実行する画像認識処理の手順をさらにコンピュータに実行させる請求項11に記載のプログラム。   The program according to claim 11, further causing the computer to execute a procedure of an image recognition process for executing an image recognition process for extracting the recognition target based on the selected feature information. 複数のカメラと、
前記各カメラにより撮影された画像情報を入力する手段と、
前記画像情報から人領域を抽出する手段と、
前記人領域の複数の特徴情報を抽出する手段と、
前記特徴情報に含まれる属性として平均的特徴から外れた特徴を示す重要度を定義し、前記特徴情報の前記重要度を示す重要度情報を設定する手段と、
前記特徴情報に含まれる属性として前記カメラの撮影環境に基づいて設定される信頼度を定義し、前記特徴情報の前記信頼度を示す信頼度情報を設定する手段と、
前記特徴情報に基づいて人の追跡、同定を実行するときに、前記重要度情報及び前記信頼度情報に基づいて前記複数の特徴情報から画像認識処理に有効な特徴情報を選択する手段と、
前記選択された特徴情報に基づいて、人の追跡、同定を実行するための画像認識処理を実行する手段と
を具備したことを特徴とする監視システム。
Multiple cameras,
Means for inputting image information taken by each camera;
Means for extracting a human region from the image information;
Means for extracting a plurality of feature information of the human area;
Means for defining importance indicating a feature deviating from an average feature as an attribute included in the feature information, and setting importance information indicating the importance of the feature information;
Means for defining reliability set based on a shooting environment of the camera as an attribute included in the feature information, and setting reliability information indicating the reliability of the feature information;
Means for selecting feature information effective for image recognition processing from the plurality of feature information based on the importance information and the reliability information when performing tracking and identification of a person based on the feature information;
A monitoring system comprising: an image recognition process for executing tracking and identification of a person based on the selected feature information.
JP2009209525A 2009-09-10 2009-09-10 Feature information selection device, image recognition processing device, monitoring system, method, and program applied to image recognition processing Expired - Fee Related JP5085621B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009209525A JP5085621B2 (en) 2009-09-10 2009-09-10 Feature information selection device, image recognition processing device, monitoring system, method, and program applied to image recognition processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009209525A JP5085621B2 (en) 2009-09-10 2009-09-10 Feature information selection device, image recognition processing device, monitoring system, method, and program applied to image recognition processing

Publications (2)

Publication Number Publication Date
JP2011060024A true JP2011060024A (en) 2011-03-24
JP5085621B2 JP5085621B2 (en) 2012-11-28

Family

ID=43947571

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009209525A Expired - Fee Related JP5085621B2 (en) 2009-09-10 2009-09-10 Feature information selection device, image recognition processing device, monitoring system, method, and program applied to image recognition processing

Country Status (1)

Country Link
JP (1) JP5085621B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013099368A1 (en) * 2011-12-28 2013-07-04 Necソフト株式会社 Image recognition device, image recognition method, program, recording medium, and image recognition system
WO2014175356A1 (en) * 2013-04-26 2014-10-30 日本電気株式会社 Information processing system, information processing method, and program
JP2017041022A (en) * 2015-08-18 2017-02-23 キヤノン株式会社 Information processor, information processing method and program
JP2017063266A (en) * 2015-09-24 2017-03-30 富士通株式会社 Information processing method, information processing apparatus, and program
JP2018006910A (en) * 2016-06-29 2018-01-11 キヤノン株式会社 Imaging apparatus, and control method and program of imaging apparatus
US10140555B2 (en) 2013-10-30 2018-11-27 Nec Corporation Processing system, processing method, and recording medium
JP2019045969A (en) * 2017-08-30 2019-03-22 富士通株式会社 Biological image processing apparatus, biological image processing method and biological image processing program
WO2019069814A1 (en) * 2017-10-04 2019-04-11 オムロン株式会社 Identification device, matching method, and matching program
JP2019087824A (en) * 2017-11-02 2019-06-06 日本信号株式会社 Monitoring system
JP2020095757A (en) * 2020-03-23 2020-06-18 キヤノン株式会社 Information processing device, information processing method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004054888A (en) * 2002-05-31 2004-02-19 Omron Corp Face collating device
JP2005157906A (en) * 2003-11-27 2005-06-16 Konica Minolta Holdings Inc Device and method for detecting object, and computer program
JP2006221668A (en) * 2006-04-13 2006-08-24 Victor Co Of Japan Ltd Information search device and information search program
JP2007058393A (en) * 2005-08-23 2007-03-08 Konica Minolta Holdings Inc Authentication device, authentication method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004054888A (en) * 2002-05-31 2004-02-19 Omron Corp Face collating device
JP2005157906A (en) * 2003-11-27 2005-06-16 Konica Minolta Holdings Inc Device and method for detecting object, and computer program
JP2007058393A (en) * 2005-08-23 2007-03-08 Konica Minolta Holdings Inc Authentication device, authentication method and program
JP2006221668A (en) * 2006-04-13 2006-08-24 Victor Co Of Japan Ltd Information search device and information search program

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013099368A1 (en) * 2011-12-28 2013-07-04 Necソフト株式会社 Image recognition device, image recognition method, program, recording medium, and image recognition system
US11367330B2 (en) 2013-04-26 2022-06-21 Nec Corporation Information processing system, method and computer readable medium for determining whether moving bodies appearing in first and second videos are the same or not using histogram
JPWO2014175356A1 (en) * 2013-04-26 2017-02-23 日本電気株式会社 Information processing system, information processing method, and program
WO2014175356A1 (en) * 2013-04-26 2014-10-30 日本電気株式会社 Information processing system, information processing method, and program
US11908293B2 (en) 2013-04-26 2024-02-20 Nec Corporation Information processing system, method and computer readable medium for determining whether moving bodies appearing in first and second videos are the same or not using histogram
US10854057B2 (en) 2013-04-26 2020-12-01 Nec Corporation Information processing system, method and computer readable medium for determining whether moving bodies appearing in first and second videos are the same or not
US10854056B2 (en) 2013-04-26 2020-12-01 Nec Corporation Information processing system, method and computer readable medium for determining whether moving bodies appearing in first and second videos are the same or not
US10347100B2 (en) 2013-04-26 2019-07-09 Nec Corporation Information processing system, method and computer readable medium for determining whether moving bodies appearing in first and second videos are the same or not
US10140555B2 (en) 2013-10-30 2018-11-27 Nec Corporation Processing system, processing method, and recording medium
JP2017041022A (en) * 2015-08-18 2017-02-23 キヤノン株式会社 Information processor, information processing method and program
US10121068B2 (en) 2015-08-18 2018-11-06 Canon Kabushiki Kaisha Information processing apparatus, information processing method and program
US10860846B2 (en) 2015-08-18 2020-12-08 Canon Kabushiki Kaisha Information processing apparatus, information processing method and program
JP2017063266A (en) * 2015-09-24 2017-03-30 富士通株式会社 Information processing method, information processing apparatus, and program
JP2018006910A (en) * 2016-06-29 2018-01-11 キヤノン株式会社 Imaging apparatus, and control method and program of imaging apparatus
JP7011152B2 (en) 2017-08-30 2022-01-26 富士通株式会社 Bioimage processing device, bioimage processing method, and bioimage processing program
JP2019045969A (en) * 2017-08-30 2019-03-22 富士通株式会社 Biological image processing apparatus, biological image processing method and biological image processing program
JP2019067294A (en) * 2017-10-04 2019-04-25 オムロン株式会社 Identification apparatus, matching method, and matching program
JP7081108B2 (en) 2017-10-04 2022-06-07 オムロン株式会社 Identification device, matching method, and matching program
WO2019069814A1 (en) * 2017-10-04 2019-04-11 オムロン株式会社 Identification device, matching method, and matching program
JP2019087824A (en) * 2017-11-02 2019-06-06 日本信号株式会社 Monitoring system
JP7149063B2 (en) 2017-11-02 2022-10-06 日本信号株式会社 Monitoring system
JP2020095757A (en) * 2020-03-23 2020-06-18 キヤノン株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP5085621B2 (en) 2012-11-28

Similar Documents

Publication Publication Date Title
JP5085621B2 (en) Feature information selection device, image recognition processing device, monitoring system, method, and program applied to image recognition processing
JP4241763B2 (en) Person recognition apparatus and method
JP6013241B2 (en) Person recognition apparatus and method
Ahmed et al. Vision based hand gesture recognition using dynamic time warping for Indian sign language
JP6268960B2 (en) Image recognition apparatus and data registration method for image recognition apparatus
Kim et al. Face liveness detection using variable focusing
JP5010905B2 (en) Face recognition device
JP7463052B2 (en) Information processing device, information processing system, information processing method, and program
US9477876B2 (en) Person recognition apparatus and method thereof
US8929611B2 (en) Matching device, digital image processing system, matching device control program, computer-readable recording medium, and matching device control method
US20130329970A1 (en) Image authentication apparatus, image processing system, control program for image authentication apparatus, computer-readable recording medium, and image authentication method
EP2336949B1 (en) Apparatus and method for registering plurality of facial images for face recognition
WO2017212813A1 (en) Image search device, image search system, and image search method
KR20160120238A (en) Clothes recommendation system
WO2020195732A1 (en) Image processing device, image processing method, and recording medium in which program is stored
JP2016157420A (en) Image template masking
KR101957677B1 (en) System for learning based real time guidance through face recognition and the method thereof
JP2008009689A (en) Face registering device, face authentication device, and face registration method
JP2007300185A (en) Image monitoring apparatus
JP2011089784A (en) Device for estimating direction of object
JP2022003526A (en) Information processor, detection system, method for processing information, and program
Mosayyebi et al. Gender recognition in masked facial images using EfficientNet and transfer learning approach
WO2018173848A1 (en) Object tracking system, intelligent imaging device, object feature quantity extraction device, object feature quantity extraction method, and recording medium
WO2021250808A1 (en) Image processing device, image processing method, and program
JP2019215728A (en) Information processing apparatus, information processing method and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120313

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120807

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120905

R151 Written notification of patent or utility model registration

Ref document number: 5085621

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150914

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees