JP4652101B2 - Object recognition device and object recognition method - Google Patents

Object recognition device and object recognition method Download PDF

Info

Publication number
JP4652101B2
JP4652101B2 JP2005103351A JP2005103351A JP4652101B2 JP 4652101 B2 JP4652101 B2 JP 4652101B2 JP 2005103351 A JP2005103351 A JP 2005103351A JP 2005103351 A JP2005103351 A JP 2005103351A JP 4652101 B2 JP4652101 B2 JP 4652101B2
Authority
JP
Japan
Prior art keywords
image
image data
filter
feature information
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005103351A
Other languages
Japanese (ja)
Other versions
JP2006285543A (en
Inventor
マーテー サルヴァシュ
顕 吉澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Priority to JP2005103351A priority Critical patent/JP4652101B2/en
Publication of JP2006285543A publication Critical patent/JP2006285543A/en
Application granted granted Critical
Publication of JP4652101B2 publication Critical patent/JP4652101B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、撮影された画像に写った物体が所望の対象物であるか否かを認識する対象物認識装置及び対象物認識方法に関する。   The present invention relates to an object recognition apparatus and an object recognition method for recognizing whether an object shown in a photographed image is a desired object.

従来から撮影された物体が所望の対象物であるか否かを認識する技術(以下、従来の対象物認識装置とも言う)が下記の非特許文献1に開示されている。従来の対象物認識装置では、撮影された画像に対して、精度の異なる複数の画像処理をそれぞれ行い、それぞれの画像処理がなされた画像のすべてに基づいて、撮影された画像に写った物体が所望の対象物であるか否かを認識していた。
Y.LeCun,T.Bengio“Convolutional Networks for Images,Speech,and Time-Series”In M.A.Arbib,editor,The Handbook of Brain Theory and Neural Networks,MIT Press,Cambridge,Massachusetts,1995,pp.255-258
Non-Patent Document 1 below discloses a technique for recognizing whether or not a conventionally photographed object is a desired object (hereinafter also referred to as a conventional object recognition device). In the conventional object recognition device, a plurality of image processes with different accuracy are performed on the captured image, and an object reflected in the captured image is based on all the images that have been subjected to the respective image processing. It was recognized whether it was a desired object.
Y. LeCun, T. Bengio “Convolutional Networks for Images, Speech, and Time-Series” In MAArbib, editor, The Handbook of Brain Theory and Neural Networks, MIT Press, Cambridge, Massachusetts, 1995, pp. 255-258

しかしながら、従来の対象物認識装置では、撮影された画像に対して、複数の画像処理を行い、複数の画像処理がなされた画像のすべてに基づいて認識していたため、計算負荷が膨大となってしまうという問題があった。   However, in the conventional object recognition apparatus, a plurality of image processing is performed on a captured image and recognition is performed based on all the images that have been subjected to the plurality of image processing. There was a problem that.

本発明は、上記問題を解決するためのものであり、計算負荷を低減して撮影された画像に写った物体が所望の対象物であるか否かを認識できる対象物認識装置及び対象物認識方法を提供することを目的とする。   The present invention is intended to solve the above-described problem, and an object recognition apparatus and object recognition capable of recognizing whether an object shown in a photographed image with a reduced calculation load is a desired object. It aims to provide a method.

上記目的を達成するために、本発明によれば、画像を示す画像データを取得する画像データ取得手段と、取得された前記画像データに対して、所望の対象物を認識するために、レベルの異なる複数の画像処理手続きを施す画像処理手段と、前記レベルの異なる複数の画像処理手続きが施された前記画像データの情報に基づいて、各々が特徴的な性質を有する複数の認識器が出力する出力結果によって、前記画像に写っているものが所望の前記対象物であるか否かを認識する認識手段とを備える対象物認識装置において、前記画像処理手段は、所望の前記対象物の認識を可能とさせるため、取得された前記画像データに対して、各々が特徴的な性質を有するフィルターの第1のフィルター集合のうち所定のフィルターを設定する第1のフィルター設定手段と、前記第1のフィルター集合のうち所定のフィルターが設定された前記画像データの特徴を示す第1の特徴情報を生成する第1の特徴情報生成手段と、所望の前記対象物の認識をさらに可能とさせるため、生成された前記第1の特徴情報及び/又は過去に生成された前記第1の特徴情報に対して、各々が特徴的な性質を有するフィルターの第2のフィルター集合のうち所定のフィルターを設定する第2のフィルター設定手段と、前記第2のフィルター集合のうち所定のフィルターが設定された前記第1の特徴情報の特徴を示す第2の特徴情報である前記画像処理手続きが施された前記画像データを生成する第2の特徴情報生成手段とを備え、前記認識手段は、前記画像処理手続きが施された前記画像データのうちの一部の画像データを選択し、選択された前記画像データに基づいて前記画像に写っているものが所望の前記対象物であるか否かを認識し、認識できない場合には認識できるまで、選択された前記画像データ以外の前記画像処理手続きが施された画像データのうちの一部の画像データを選択し、過去に選択された前記画像データ及び新たに選択された前記画像データに基づいて認識を続行することを特徴とする対象物認識装置が提供される。この構成により、計算負荷を低減して撮影された画像に写った物体が所望の対象物であるか否かを認識できる。 In order to achieve the above object, according to the present invention, an image data acquisition unit that acquires image data indicating an image, and a level of a level for recognizing a desired object with respect to the acquired image data. Based on information of the image processing means that performs a plurality of different image processing procedures and information of the image data that has been subjected to the plurality of image processing procedures at different levels, a plurality of recognizers each having a characteristic property output And a recognition unit that recognizes whether or not an object reflected in the image is a desired object, according to an output result, wherein the image processing unit recognizes the desired object. In order to make it possible, for the acquired image data, a first filter that sets a predetermined filter in a first filter set of filters each having a characteristic property Setting means; first feature information generating means for generating first feature information indicating characteristics of the image data in which a predetermined filter is set in the first filter set; and recognition of the desired object The second filter set of filters each having a characteristic property with respect to the generated first feature information and / or the first feature information generated in the past. Of the second filter information, the second filter setting means sets a predetermined filter, and the second feature information indicates a feature of the first feature information in which the predetermined filter is set in the second filter set. and a second feature information generating means for generating the image data procedure is performed, the recognition means, part of the image data of one of the image data pre-outs image processing procedure has been performed Based on the selected image data, it is recognized whether or not what is reflected in the image is the desired object, and if it cannot be recognized, the selected image is recognized until it can be recognized. Selecting part of the image data that has been subjected to the image processing procedure other than the data, and continuing recognition based on the previously selected image data and the newly selected image data An object recognition apparatus characterized by the above is provided. With this configuration, it is possible to recognize whether or not an object shown in an image taken with a reduced calculation load is a desired object.

また、本発明によれば、画像を示す画像データを取得する画像データ取得手段と、取得された前記画像データに対して、所望の対象物を認識するために、レベルの異なる複数の画像処理手続きを施す画像処理手段と、前記レベルの異なる複数の画像処理手続きが施された前記画像データの情報に基づいて、各々が特徴的な性質を有する複数の認識器が出力する出力結果によって、前記画像に写っているものが所望の前記対象物であるか否かを認識する認識手段とを備える対象物認識装置において、前記画像処理手段は、所望の前記対象物の認識を可能とさせるため、取得された前記画像データに対して、各々が特徴的な性質を有するフィルターの第1のフィルター集合のフィルターを設定する第1のフィルター設定手段と、前記第1のフィルター集合のフィルターが設定された前記画像データの特徴を示す第1の特徴情報を生成する第1の特徴情報生成手段と、所望の前記対象物の認識をさらに可能とさせるため、生成された前記第1の特徴情報に対して、各々が特徴的な性質を有するフィルターの第2のフィルター集合のフィルターを設定する第2のフィルター設定手段と、前記第2のフィルター集合のフィルターが設定された前記第1の特徴情報の特徴を示す第2の特徴情報である前記画像処理手続きが施された前記画像データを生成する第2の特徴情報生成手段とを備え、前記認識手段は、前記複数の認識器のうちの一部の認識器の出力結果によって、前記画像に写っているものが所望の前記対象物であるか否かを認識し、認識できない場合は認識できるまで、前記出力結果が用いられた前記認識器以外の前記複数の認識器のうちの一部の認識器の出力結果及び過去に用いられた前記出力結果に基づいて認識することを特徴とする対象物認識装置が提供される。この構成により、計算負荷を低減して撮影された画像に写った物体が所望の対象物であるか否かを認識できる。 According to the present invention, the image data acquisition means for acquiring image data representing an image, and a plurality of image processing procedures having different levels for recognizing a desired object with respect to the acquired image data. The image processing means for performing the image processing, and the output result output by the plurality of recognizers each having a characteristic property based on the information of the image data subjected to the plurality of image processing procedures having different levels, And a recognition means for recognizing whether or not the object reflected in the image is the desired object, the image processing means obtains the recognition to enable the recognition of the desired object. First filter setting means for setting a filter of a first filter set of filters each having a characteristic property with respect to the image data, and the first filter A first feature information generating means for generating first feature information indicating the characteristics of the image data in which a set filter is set; and the generated feature information to further enable recognition of the desired object. Second filter setting means for setting a filter of a second filter set of filters each having a characteristic property with respect to the first feature information, and the filter of the second filter set being set Second feature information generating means for generating the image data subjected to the image processing procedure, which is second feature information indicating the feature of the first feature information, and the recognition means includes the plurality of recognitions Depending on the output result of some of the recognizers, it is recognized whether or not what is reflected in the image is the desired object. An object recognition device is provided, wherein recognition is performed based on an output result of a part of the plurality of recognizers other than the recognizer used and an output result used in the past. The With this configuration, it is possible to recognize whether or not an object shown in an image taken with a reduced calculation load is a desired object.

また、本発明によれば、画像を示す画像データを取得する画像データ取得手段と、取得された前記画像データに対して、所望の対象物を認識するために、レベルの異なる複数の画像処理手続きを施す画像処理手段と、前記レベルの異なる複数の画像処理手続きが施された前記画像データの情報に基づいて、各々が特徴的な性質を有する複数の認識器が出力する出力結果によって、前記画像に写っているものが所望の前記対象物であるか否かを認識する認識手段とを備える対象物認識装置において、前記画像処理手段は、所望の前記対象物の認識を可能とさせるため、取得された前記画像データの一部に対して、各々が特徴的な性質を有するフィルターの第1のフィルター集合のフィルターをそれぞれ設定する第1のフィルター設定手段と、前記第1のフィルター集合のフィルターが設定された前記画像データの特徴を示す第1の特徴情報を生成する第1の特徴情報生成手段と、所望の前記対象物の認識をさらに可能とさせるため、生成された前記第1の特徴情報の一部に対して、各々が特徴的な性質を有するフィルターの第2のフィルター集合のフィルターを設定する第2のフィルター設定手段と、前記第2のフィルター集合のフィルターが設定された前記第1の特徴情報の特徴を示す第2の特徴情報である前記画像処理手続きが施された前記画像データを生成する第2の特徴情報生成手段とを備え、前記認識手段は、前記画像処理手続きが一部に施された前記画像データの情報に基づいて、各々が特徴的な性質を有する複数の認識器が出力する出力結果によって、前記画像に写っているものが所望の前記対象物であるか否かを認識し、認識できない場合には認識できるまで、前記複数の画像処理手続きが施された前記画像データの一部及び前記複数の画像処理手続きが施された前記画像データの一部以外に新たに前記複数の画像処理手続きが施された部分の情報に基づいて認識することを特徴とする対象物認識装置が提供される。この構成により、計算負荷を低減して撮影された画像に写った物体が所望の対象物であるか否かを認識できる。 According to the present invention, the image data acquisition means for acquiring image data representing an image, and a plurality of image processing procedures having different levels for recognizing a desired object with respect to the acquired image data. The image processing means for performing the image processing, and the output result output by the plurality of recognizers each having a characteristic property based on the information of the image data subjected to the plurality of image processing procedures having different levels, And a recognition means for recognizing whether or not the object reflected in the image is the desired object , the image processing means obtains the recognition to enable the recognition of the desired object. First filter setting means for setting a filter of a first filter set of filters each having a characteristic property with respect to a part of the image data, First feature information generating means for generating first feature information indicating the characteristics of the image data in which a filter of the first filter set is set, and generation to further enable recognition of the desired object Second filter setting means for setting a filter of a second filter set of filters each having a characteristic property with respect to a part of the first characteristic information, and the second filter set A second feature information generating unit configured to generate the image data subjected to the image processing procedure, which is second feature information indicating a feature of the first feature information in which a filter is set, and the recognition unit is pre-outs image processing procedure on the basis of the information of the image data subjected to some, the output result, each output from the plurality of recognizers having characteristic properties, appearing in the image A part of the image data subjected to the plurality of image processing procedures and the plurality of image processing procedures until the recognition is possible. There is provided an object recognition apparatus that performs recognition based on information on a part that has been newly subjected to the plurality of image processing procedures in addition to a part of the applied image data. With this configuration, it is possible to recognize whether or not an object shown in an image taken with a reduced calculation load is a desired object.

また、本発明によれば、画像を示す画像データを取得する画像データ取得手段と、取得された前記画像データに対して、所望の対象物を認識するために、レベルの異なる複数の画像処理手続きを施す画像処理手段と、前記レベルの異なる複数の画像処理手続きが施された前記画像データの情報に基づいて、各々が特徴的な性質を有する複数の認識器が出力する出力結果によって、前記画像に写っているものが所望の前記対象物であるか否かを認識する認識手段とを備える対象物認識装置において、前記画像処理手段は、所望の前記対象物の認識を可能とさせるため、取得された前記画像データに対して、各々が特徴的な性質を有するフィルターの第1のフィルター集合のフィルターをそれぞれ設定する第1のフィルター設定手段と、前記第1のフィルター集合のフィルターが設定された前記画像を縮小し、縮小された前記画像の特徴を示す第1の特徴情報を生成する第1の特徴情報生成手段と、所望の前記対象物の認識をさらに可能とさせるため、生成された前記第1の特徴情報に対して、各々が特徴的な性質を有するフィルターの第2のフィルター集合のフィルターを設定する第2のフィルター設定手段と、前記第2のフィルター集合のフィルターが設定された前記第1の特徴情報の特徴を示す第2の特徴情報である前記画像処理手続きが施された前記画像データを生成する第2の特徴情報生成手段とを備え、前記認識手段は、前記画像処理手続きが施された前記画像データの情報に基づいて、各々が特徴的な性質を有する複数の認識器が出力する出力結果によって、前記画像に写っているものが所望の前記対象物であるか否かを認識し、認識できない場合には認識できるまで、縮小された前記画像を前記画像処理手段によって順次拡大される画像の画像データの情報に基づいて認識することを特徴とする対象物認識装置が提供される。この構成により、計算負荷を低減して撮影された画像に写った物体が所望の対象物であるか否かを認識できる。 According to the present invention, the image data acquisition means for acquiring image data representing an image, and a plurality of image processing procedures having different levels for recognizing a desired object with respect to the acquired image data. The image processing means for performing the image processing, and the output result output by the plurality of recognizers each having a characteristic property based on the information of the image data subjected to the plurality of image processing procedures having different levels, And a recognition means for recognizing whether or not the object reflected in the image is the desired object , the image processing means obtains the recognition to enable the recognition of the desired object. First filter setting means for setting filters of a first filter set of filters each having a characteristic property with respect to the image data obtained, and the first A first feature information generating unit that reduces the image in which a filter of a filter set is set and generates first feature information indicating the feature of the reduced image, and further enables recognition of the desired object Therefore, a second filter setting means for setting a filter of a second filter set of filters each having a characteristic property with respect to the generated first feature information, and the second filter Second feature information generating means for generating the image data subjected to the image processing procedure, which is second feature information indicating the feature of the first feature information in which a set filter is set, recognition means, on the basis of the image data information which the image processing procedure has been performed, each with an output result of a plurality of recognizers are output having the characteristic properties, the image It is recognized whether or not the object is the desired object, and if it cannot be recognized, the reduced image is converted into image data information of images sequentially enlarged by the image processing means until it can be recognized. There is provided an object recognition device characterized by recognition based on the above. With this configuration, it is possible to recognize whether or not an object shown in an image taken with a reduced calculation load is a desired object.

また、本発明によれば、画像を示す画像データを取得するステップと、取得された前記画像データに対して、所望の対象物を認識するために、レベルの異なる複数の画像処理手続きを施すステップと、前記レベルの異なる複数の画像処理手続きが施された前記画像データの情報に基づいて、各々が特徴的な性質を有する複数の認識器が出力する出力結果によって、前記画像に写っているものが所望の前記対象物であるか否かを認識するステップとを有する対象物認識方法において、前記画像処理手続きを施すステップは、所望の前記対象物の認識を可能とさせるため、取得された前記画像データに対して、各々が特徴的な性質を有するフィルターの第1のフィルター集合のうち所定のフィルターを設定するステップと、前記第1のフィルター集合のうち所定のフィルターが設定された前記画像データの特徴を示す第1の特徴情報を生成するステップと、所望の前記対象物の認識をさらに可能とさせるため、生成された前記第1の特徴情報及び/又は過去に生成された前記第1の特徴情報に対して、各々が特徴的な性質を有するフィルターの第2のフィルター集合のうち所定のフィルターを設定するステップと、前記第2のフィルター集合のうち所定のフィルターが設定された前記第1の特徴情報の特徴を示す第2の特徴情報である前記画像処理手続きが施された前記画像データを生成するステップとからなり、前記認識するステップにおいては、前記画像処理手続きが施された前記画像データのうちの一部の画像データを選択し、選択された前記画像データに基づいて前記画像に写っているものが所望の前記対象物であるか否かを認識し、認識できない場合には認識できるまで、選択された前記画像データ以外の前記画像処理手続きが施された画像データのうちの一部の画像データを選択し、過去に選択された前記画像データ及び新たに選択された前記画像データに基づいて認識を続行することを特徴とする対象物認識方法が提供される。この構成により、計算負荷を低減して撮影された画像に写った物体が所望の対象物であるか否かを認識できる。 Further, according to the present invention, a step of acquiring image data indicating an image, and a step of performing a plurality of image processing procedures at different levels in order to recognize a desired object with respect to the acquired image data And based on the information of the image data that has been subjected to a plurality of image processing procedures at different levels, each of which is reflected in the image by an output result output by a plurality of recognizers each having a characteristic property A step of recognizing whether the object is a desired object or not, wherein the step of performing the image processing procedure is performed in order to enable recognition of the desired object. Setting a predetermined filter among first filter sets of filters each having a characteristic property for image data; and the first filter Generating a first feature information indicating a feature of the image data in which a predetermined filter is set, and the generated first feature to further enable recognition of the desired object. Setting a predetermined filter in a second filter set of filters each having a characteristic property with respect to the information and / or the first feature information generated in the past, and the second filter Generating the image data subjected to the image processing procedure that is the second feature information indicating the feature of the first feature information in which a predetermined filter is set in the set, and the step of recognizing in selects a part of the image data among the image data pre-outs image processing procedure has been performed, copy the image based on the image data selected A part of the image data subjected to the image processing procedure other than the selected image data until it can be recognized if it is not recognized. An object recognition method is provided, in which recognition is continued based on the previously selected image data and the newly selected image data. With this configuration, it is possible to recognize whether or not an object shown in an image taken with a reduced calculation load is a desired object.

また、本発明によれば、画像を示す画像データを取得するステップと、取得された前記画像データに対して、所望の対象物を認識するために、レベルの異なる複数の画像処理手続きを施すステップと、前記レベルの異なる複数の画像処理手続きが施された前記画像データの情報に基づいて、各々が特徴的な性質を有する複数の認識器が出力する出力結果によって、前記画像に写っているものが所望の前記対象物であるか否かを認識するステップとを有する対象物認識方法において、前記画像処理手続きを施すステップは、所望の前記対象物の認識を可能とさせるため、取得された前記画像データに対して、各々が特徴的な性質を有するフィルターの第1のフィルター集合のフィルターを設定するステップと、前記第1のフィルター集合のフィルターが設定された前記画像データの特徴を示す第1の特徴情報を生成するステップと、所望の前記対象物の認識をさらに可能とさせるため、生成された前記第1の特徴情報に対して、各々が特徴的な性質を有するフィルターの第2のフィルター集合のフィルターを設定するステップと、前記第2のフィルター集合のフィルターが設定された前記第1の特徴情報の特徴を示す第2の特徴情報である前記画像処理手続きが施された前記画像データを生成するステップとからなり、前記認識するステップにおいては、前記複数の認識器のうちの一部の認識器の出力結果によって、前記画像に写っているものが所望の前記対象物であるか否かを認識し、認識できない場合は認識できるまで、前記出力結果が用いられた前記認識器以外の前記複数の認識器のうちの一部の認識器の出力結果及び過去に用いられた前記出力結果に基づいて認識することを特徴とする対象物認識方法が提供される。この構成により、計算負荷を低減して撮影された画像に写った物体が所望の対象物であるか否かを認識できる。 Further, according to the present invention, a step of acquiring image data indicating an image, and a step of performing a plurality of image processing procedures at different levels in order to recognize a desired object with respect to the acquired image data And based on the information of the image data that has been subjected to a plurality of image processing procedures at different levels, each of which is reflected in the image by an output result output by a plurality of recognizers each having a characteristic property A step of recognizing whether the object is a desired object or not, wherein the step of performing the image processing procedure is performed in order to enable recognition of the desired object. Setting a filter of a first filter set of filters each having a characteristic property for image data; and a filter of the first filter set. Generating the first feature information indicating the feature of the image data set with the data, and in order to further enable recognition of the desired object, for the generated first feature information, A step of setting a filter of a second filter set of filters each having a characteristic property; and a second feature information indicating a feature of the first feature information in which a filter of the second filter set is set Generating the image data that has been subjected to the image processing procedure. In the step of recognizing, the image is reflected in the image according to an output result of some of the plurality of recognizers. Whether or not the object is a desired object. If the object cannot be recognized, the plurality of recognition devices other than the recognizer in which the output result is used are recognized. Object recognition method and recognizes based on the output result of the output results of some of the recognizer and has been used in the past within the vessel is provided. With this configuration, it is possible to recognize whether or not an object shown in an image taken with a reduced calculation load is a desired object.

また、本発明によれば、画像を示す画像データを取得するステップと、取得された前記画像データに対して、所望の対象物を認識するために、レベルの異なる複数の画像処理手続きを施すステップと、前記レベルの異なる複数の画像処理手続きが施された前記画像データの情報に基づいて、各々が特徴的な性質を有する複数の認識器が出力する出力結果によって、前記画像に写っているものが所望の前記対象物であるか否かを認識するステップとを有する対象物認識方法において、前記画像処理手続きを施すステップは所望の前記対象物の認識を可能とさせるため、取得された前記画像データの一部に対して、各々が特徴的な性質を有するフィルターの第1のフィルター集合のフィルターをそれぞれ設定するステップと、前記第1のフィルター集合のフィルターが設定された前記画像データの特徴を示す第1の特徴情報を生成するステップと、所望の前記対象物の認識をさらに可能とさせるため、生成された前記第1の特徴情報の一部に対して、各々が特徴的な性質を有するフィルターの第2のフィルター集合のフィルターを設定するステップと、前記第2のフィルター集合のフィルターが設定された前記第1の特徴情報の特徴を示す第2の特徴情報である前記画像処理手続きが施された前記画像データを生成するステップとからなり、前記認識するステップにおいては、前記画像処理手続きが一部に施された前記画像データの情報に基づいて、各々が特徴的な性質を有する複数の認識器が出力する出力結果によって、前記画像に写っているものが所望の前記対象物であるか否かを認識し、認識できない場合には認識できるまで、前記複数の画像処理手続きが施された前記画像データの一部及び前記複数の画像処理手続きが施された前記画像データの一部以外に新たに前記複数の画像処理手続きが施された部分の情報に基づいて認識することを特徴とする対象物認識方法が提供される。この構成により、計算負荷を低減して撮影された画像に写った物体が所望の対象物であるか否かを認識できる。 Further, according to the present invention, a step of acquiring image data indicating an image, and a step of performing a plurality of image processing procedures at different levels in order to recognize a desired object with respect to the acquired image data And based on the information of the image data that has been subjected to a plurality of image processing procedures at different levels, each of which is reflected in the image by an output result output by a plurality of recognizers each having a characteristic property in but the object recognition method and a step 121 determines whether the desired the object, steps of applying the image processing procedure, in order to enable the recognition of the desired the object was acquired Setting a filter of a first filter set of filters each having a characteristic property for a part of the image data, and the first filter A step of generating first feature information indicating the characteristics of the image data in which a set filter is set, and in order to further enable recognition of the desired object, the generated first feature information For a part, a step of setting a filter of a second filter set of filters each having a characteristic property, and a feature of the first feature information in which the filter of the second filter set is set the image data consists of a step of generating a second said image data by the image processing procedure has been performed is characteristic information of, in said recognizing step, the pre-outs image processing procedure is applied to a portion shown Whether or not the object shown in the image is the desired object based on the output results output from the plurality of recognizers each having a characteristic property based on the information of Recognizing and recognizing until it can be recognized, in addition to a part of the image data subjected to the plurality of image processing procedures and a part of the image data subjected to the plurality of image processing procedures There is provided an object recognition method characterized in that recognition is performed based on information of a part subjected to a plurality of image processing procedures. With this configuration, it is possible to recognize whether or not an object shown in an image taken with a reduced calculation load is a desired object.

また、本発明によれば、画像を示す画像データを取得するステップと、取得された前記画像データに対して、所望の対象物を認識するために、レベルの異なる複数の画像処理手続きを施すステップと、前記レベルの異なる複数の画像処理手続きが施された前記画像データの情報に基づいて、各々が特徴的な性質を有する複数の認識器が出力する出力結果によって、前記画像に写っているものが所望の前記対象物であるか否かを認識するステップとを有する対象物認識装置において、前記画像処理手続きを施すステップは所望の前記対象物の認識を可能とさせるため、取得された前記画像データに対して、各々が特徴的な性質を有するフィルターの第1のフィルター集合のフィルターをそれぞれ設定するステップと、前記第1のフィルター集合のフィルターが設定された前記画像を縮小し、縮小された前記画像の特徴を示す第1の特徴情報を生成するステップと、所望の前記対象物の認識をさらに可能とさせるため、生成された前記第1の特徴情報に対して、各々が特徴的な性質を有するフィルターの第2のフィルター集合のフィルターを設定するステップと、前記第2のフィルター集合のフィルターが設定された前記第1の特徴情報の特徴を示す第2の特徴情報である前記画像処理手続きが施された前記画像データを生成するステップとからなり、前記認識するステップにおいては、前記画像処理手続きが施された前記画像データの情報に基づいて、各々が特徴的な性質を有する複数の認識器が出力する出力結果によって、前記画像に写っているものが所望の前記対象物であるか否かを認識し、認識できない場合には認識できるまで、縮小された前記画像を前記画像処理手段によって順次拡大される画像の画像データの情報に基づいて認識することを特徴とする対象物認識方法が提供される。この構成により、計算負荷を低減して撮影された画像に写った物体が所望の対象物であるか否かを認識できる。 Further, according to the present invention, a step of acquiring image data indicating an image, and a step of performing a plurality of image processing procedures at different levels in order to recognize a desired object with respect to the acquired image data And based on the information of the image data that has been subjected to a plurality of image processing procedures at different levels, each of which is reflected in the image by an output result output by a plurality of recognizers each having a characteristic property in but the object recognition device and a step 121 determines whether the desired the object, steps of applying the image processing procedure, in order to enable the recognition of the desired the object was acquired Setting each filter of a first filter set of filters each having a characteristic property for the image data; and Generating the first feature information indicating the characteristics of the reduced image, and further enabling the recognition of the desired object. A step of setting a filter of a second filter set of filters each having a characteristic property with respect to the first feature information, and the first feature information in which the filter of the second filter set is set Generating the image data that has been subjected to the image processing procedure, which is second feature information indicating the characteristics of the image, and in the step of recognizing, the information of the image data that has been subjected to the image processing procedure Whether the object shown in the image is the desired object based on the output results output by a plurality of recognizers each having a characteristic property. An object recognition method characterized by recognizing the image and recognizing the reduced image based on image data information of images sequentially enlarged by the image processing means until the image can be recognized. Provided. With this configuration, it is possible to recognize whether or not an object shown in an image taken with a reduced calculation load is a desired object.

本発明の対象物認識装置及び対象物認識方法は、上記構成を有し、計算負荷を低減して撮影された画像に写った物体が所望の対象物であるか否かを認識できる。   The object recognition apparatus and object recognition method of the present invention have the above-described configuration, and can recognize whether or not an object shown in a photographed image with a reduced calculation load is a desired object.

<第1の実施の形態>
以下、本発明の第1の実施の形態に係る対象物認識装置及び対象物認識方法について、図1から図7Bを用いて説明する。図1は本発明の第1の実施の形態に係る対象物認識装置の構成を示す構成図である。図2は本発明の第1の実施の形態に係る対象物認識装置における処理のフローを説明するための図である。図3は本発明の第1の実施の形態に係る対象物認識装置における画像の切出し処理について説明するための図である。図4は本発明の第1の実施の形態に係る対象物認識装置における候補となる画像の抽出について説明するための図である。図5は本発明の第1の実施の形態に係る対象物認識装置における第1の特徴情報の生成について説明するための図である。図6は本発明の第1の実施の形態に係る対象物認識装置における第2の特徴情報の生成について説明するための図である。図7Aは本発明の第1の実施の形態に係る対象物認識装置における対象物認識フローの一部について説明するためのフローチャートである。図7Bは本発明の第1の実施の形態に係る対象物認識装置における対象物認識フローの一部について説明するためのフローチャートである。
<First Embodiment>
Hereinafter, the object recognition apparatus and the object recognition method according to the first embodiment of the present invention will be described with reference to FIGS. 1 to 7B. FIG. 1 is a configuration diagram showing the configuration of the object recognition apparatus according to the first embodiment of the present invention. FIG. 2 is a diagram for explaining the flow of processing in the object recognition apparatus according to the first embodiment of the present invention. FIG. 3 is a diagram for explaining image cutting processing in the object recognition apparatus according to the first embodiment of the present invention. FIG. 4 is a diagram for explaining extraction of a candidate image in the object recognition apparatus according to the first embodiment of the present invention. FIG. 5 is a diagram for explaining generation of first feature information in the object recognition apparatus according to the first embodiment of the present invention. FIG. 6 is a diagram for explaining generation of second feature information in the object recognition apparatus according to the first embodiment of the present invention. FIG. 7A is a flowchart for explaining a part of the object recognition flow in the object recognition apparatus according to the first embodiment of the present invention. FIG. 7B is a flowchart for explaining a part of the object recognition flow in the object recognition apparatus according to the first embodiment of the present invention.

まず、本発明の第1の実施の形態に係る対象物認識装置の構成について図1及び図2を用いて説明する。図1に示すように、対象物認識装置100は、画像データ取得手段101、切出し画像抽出手段102、第1のフィルター設定手段103、第1の特徴情報生成手段104、第2のフィルター設定手段105、第2の特徴情報生成手段106、認識手段107から構成されている。画像データ取得手段101は、外部の撮影手段109(カメラなど)によって撮影された画像を取得する手段である。なお、本発明の第1の実施の形態では撮影手段109は対象物認識装置100の構成要素ではないが、対象物認識装置100の構成要素としてもよい。   First, the configuration of the object recognition apparatus according to the first embodiment of the present invention will be described using FIG. 1 and FIG. As illustrated in FIG. 1, the object recognition apparatus 100 includes an image data acquisition unit 101, a cutout image extraction unit 102, a first filter setting unit 103, a first feature information generation unit 104, and a second filter setting unit 105. , Second feature information generation means 106 and recognition means 107. The image data acquisition unit 101 is a unit that acquires an image shot by an external shooting unit 109 (such as a camera). In the first embodiment of the present invention, the photographing unit 109 is not a component of the object recognition device 100, but may be a component of the object recognition device 100.

切出し画像抽出手段102は、画像データ取得手段101によって取得された画像を所定のサイズに切出す手段である。以下では、画像の切出し処理について図3及び図4を用いて説明する。図3に示すように、ここでの処理ははじめに取得された画像をあらためてスケール化(画像のサイズ変更)をする。この処理は異なったサイズの物体を発見するために必要な処理である。取得された画像をあらかじめ決められた画像の最大サイズscale_maxにサイズ変更し、スケール化された画像を取得する。そして、最大サイズから所定の倍率scale_stepで画像サイズを変更していき、あらかじめ決められた画像の最小サイズまで繰り返してスケール化された画像を取得する。そして、切出し画像抽出手段102は、スケール化された画像から候補となる画像を切出す。この切出しの方法について図4を用いて説明する。図4に示すように、候補となる画像は、画像のx軸、y軸両方向に窓(ウインドウ)を走査することによって得られる。ここで、走査する領域の1単位となる領域のx軸、y軸の単位をstep_x、step_yとした場合、step_x>=1、step_y>=1であり、これらが同一であっても同一でなくてもよい。候補となる画像の切出し位置は、上述のように画像を走査する以外にレーダーなどの他の手段の情報に基づいてもよい。   The cut-out image extraction unit 102 is a unit that cuts out the image acquired by the image data acquisition unit 101 into a predetermined size. Hereinafter, the image cutting process will be described with reference to FIGS. 3 and 4. As shown in FIG. 3, in this process, the first acquired image is rescaled (image size change). This process is necessary for finding objects of different sizes. The acquired image is resized to a predetermined maximum image size scale_max, and a scaled image is acquired. Then, the image size is changed from the maximum size at a predetermined magnification scale_step, and a scaled image is acquired repeatedly up to a predetermined minimum size of the image. Then, the cutout image extraction unit 102 cuts out candidate images from the scaled image. This cutting method will be described with reference to FIG. As shown in FIG. 4, a candidate image is obtained by scanning a window in both the x-axis and y-axis directions of the image. Here, when the units of the x-axis and y-axis of the region that is one unit of the scanning region are set to step_x and step_y, step_x> = 1 and step_y> = 1. Even if they are the same, they are not the same. May be. The extraction position of the candidate image may be based on information of other means such as a radar other than scanning the image as described above.

以下では対象物を人として説明しているが人に限られるものではない。第1のフィルター設定手段103は、図2に示すように、各々が特徴的な性質を有するフィルター(コンボリューションカーネルとも言う)の第1のフィルター集合200のうち所定のフィルターを設定する手段である。ここで、第1のフィルター集合200は、人を検出するために与えられた情報(データ)に基づいてあらかじめ生成されたフィルターの集合であり、数に関してはここでは12個であるがこの数に限られるものではない。また、各々が特徴的な性質を有するフィルターとは、例えば人の特徴を抽出するためのフィルターであって、頭部の特徴を抽出することを得意とするフィルターや脚部の特徴を抽出することを得意とするフィルターなどを言う。図2で言えば、例えばフィルター201が頭部の特徴を抽出することを得意とするフィルターに相当し、フィルター202が脚部の特徴を抽出することを得意とするフィルターに相当する。   In the following description, the object is described as a person, but is not limited to a person. As shown in FIG. 2, the first filter setting means 103 is a means for setting a predetermined filter in a first filter set 200 of filters (also called convolution kernels) each having a characteristic property. . Here, the first filter set 200 is a set of filters generated in advance based on information (data) given in order to detect a person. The number is 12 here, but this number It is not limited. In addition, each filter having a characteristic property is, for example, a filter for extracting a human feature, and a filter that specializes in extracting a head feature or a feature of a leg. Says a filter that is good at it. In FIG. 2, for example, the filter 201 corresponds to a filter that is good at extracting features of the head, and the filter 202 is equivalent to a filter that is good at extracting features of the legs.

第1の特徴情報生成手段104は、第1のフィルター設定手段103によって第1のフィルター集合200のうち所定のフィルターが設定された画像の特徴を示す第1の特徴情報300を生成する手段である。ここで、第1の特徴情報300の生成について図5を用いて説明する。図5に示すように、第1の特徴情報生成手段104は、フィルターがかけられた候補となる画像のそれぞれの画素に線形若しくは非線形関数を用いて第1の特徴情報300を生成する。例えば、非線形関数の場合、図5に示すようなタンジェントの双曲関数が使われる。ここで、pはフィルターがかけられた候補となる画像の画素の値であり、qは第1の特徴情報300の画素の値であり、f(p)は線形若しくは非線形関数である。この例の場合、f(p)にはタンジェントの双曲関数が使われている。この場合、−1<=f(p)<=1であるが、出力値が異なる範囲をもつ関数であってもよい。このことから、第1の特徴情報生成手段104は、例えばフィルター201が設定された画像における第1の特徴情報301を生成し、生成された第1の特徴情報301を第2のフィルター設定手段105に引き渡す。なお、選択されるフィルターは、ここでは1つであるが1つに限られるものではない。また、第1の特徴情報300とは、フィルターが設定されることにより生成される画像情報であり、第1の特徴マップ300とも言う。   The first feature information generation unit 104 is a unit that generates first feature information 300 indicating the features of an image in which a predetermined filter is set in the first filter set 200 by the first filter setting unit 103. . Here, generation of the first feature information 300 will be described with reference to FIG. As shown in FIG. 5, the first feature information generation unit 104 generates first feature information 300 using a linear or nonlinear function for each pixel of a candidate image that has been filtered. For example, in the case of a nonlinear function, a tangent hyperbolic function as shown in FIG. 5 is used. Here, p is a pixel value of a candidate image to be filtered, q is a pixel value of the first feature information 300, and f (p) is a linear or nonlinear function. In this example, a tangent hyperbolic function is used for f (p). In this case, although -1 <= f (p) <= 1, it may be a function having a range in which output values are different. Accordingly, the first feature information generation unit 104 generates, for example, the first feature information 301 in the image in which the filter 201 is set, and the generated first feature information 301 is used as the second filter setting unit 105. To hand over. Note that the number of filters selected is one here, but the number is not limited to one. The first feature information 300 is image information generated by setting a filter, and is also referred to as a first feature map 300.

第2のフィルター設定手段105は、所望の対象物(人)の認識をさらに可能とさせるため、第1の特徴情報生成手段104によって生成された第1の特徴情報300に対して、各々が特徴的な性質を有するフィルター(コンボリューションカーネル)の第2のフィルター集合400のうち所定のフィルターを設定する手段である。ここで、第2のフィルター集合400は、第1のフィルター集合200と同様に、人を検出するために与えられた情報(データ)に基づいてあらかじめ生成されたフィルターの集合であり、数に関してはここでは12個であるがこの数に限られるものではない。   The second filter setting unit 105 is characterized by each of the first feature information 300 generated by the first feature information generation unit 104 in order to further recognize a desired object (person). This is means for setting a predetermined filter in the second filter set 400 of a filter (convolution kernel) having a natural property. Here, like the first filter set 200, the second filter set 400 is a set of filters generated in advance based on information (data) given to detect a person. Although the number is 12 here, the number is not limited to this.

また、各々が特徴的な性質を有するフィルターとは、例えば人の動く方向の特徴を抽出するためのフィルターであって、垂直方向の特徴を抽出することを得意とするフィルターや水平方向の特徴を抽出することを得意とするフィルターなどを言う。図2で言えば、例えばフィルター401が垂直方向の特徴を抽出することを得意とするフィルターに相当し、フィルター402が水平方向の特徴を抽出することを得意とするフィルターに相当する。具体的に、第2のフィルター設定手段105は、第1の特徴情報生成手段104によって生成された第1の特徴情報301に対してフィルター401を設定し、フィルター401が設定された第1の特徴情報301を第2の特徴情報生成手段106に引き渡す。   In addition, each filter having a characteristic property is, for example, a filter for extracting a feature in the direction of movement of a person, such as a filter that is good at extracting a feature in the vertical direction or a feature in the horizontal direction. A filter that is good at extracting. In FIG. 2, for example, the filter 401 corresponds to a filter that is good at extracting vertical features, and the filter 402 is equivalent to a filter that is good at extracting horizontal features. Specifically, the second filter setting unit 105 sets the filter 401 for the first feature information 301 generated by the first feature information generation unit 104, and the first feature in which the filter 401 is set. The information 301 is transferred to the second feature information generation unit 106.

第2の特徴情報生成手段106は、第2のフィルター集合400のうち所定のフィルターが設定された第1の特徴情報の特徴を示す第2の特徴情報500を生成する手段である。ここで、第2の特徴情報500の生成について図6を用いて説明する。図6に示すように、第2の特徴情報生成手段106は、第2のフィルター設定手段105によってフィルターがかけられた第1の特徴情報のそれぞれの画素に線形若しくは非線形関数を用いて第2の特徴情報500を生成する。例えば、非線形関数の場合、タンジェントの双曲関数が使われる。ここで、pはフィルターがかけられた候補となる画像の画素の値であり、qは第2の特徴情報500の画素の値であり、f(p)は線形若しくは非線形関数である。この例の場合、f(p)にはタンジェントの双曲関数が使われている。この場合、−1<=f(p)<=1であるが、出力値が異なる範囲をもつ関数であってもよい。なお、第2の特徴情報500を生成する際、既に計算された、1つ若しくは複数の第1の特徴情報を用いて第2の特徴情報500を生成することが可能である。このことから、第2の特徴情報生成手段106は、例えばフィルター401が設定された第1の特徴情報301及びフィルター402が設定された第1の特徴情報302における第2の特徴情報501を生成し、生成された第2の特徴情報501を認識手段107に引き渡す。また、第2の特徴情報500とは、フィルターが設定されることにより生成される画像情報であり、第2の特徴マップ500とも言う。   The second feature information generating unit 106 is a unit that generates second feature information 500 indicating the feature of the first feature information in which a predetermined filter is set in the second filter set 400. Here, generation of the second feature information 500 will be described with reference to FIG. As shown in FIG. 6, the second feature information generation unit 106 uses the linear or nonlinear function for each pixel of the first feature information filtered by the second filter setting unit 105. Feature information 500 is generated. For example, in the case of a nonlinear function, a tangent hyperbolic function is used. Here, p is the pixel value of the candidate image that has been filtered, q is the pixel value of the second feature information 500, and f (p) is a linear or nonlinear function. In this example, a tangent hyperbolic function is used for f (p). In this case, although -1 <= f (p) <= 1, it may be a function having a range in which output values are different. When generating the second feature information 500, it is possible to generate the second feature information 500 using one or a plurality of first feature information that has already been calculated. From this, the second feature information generation unit 106 generates, for example, the first feature information 301 in which the filter 401 is set and the second feature information 501 in the first feature information 302 in which the filter 402 is set. Then, the generated second feature information 501 is transferred to the recognition unit 107. The second feature information 500 is image information generated by setting a filter, and is also referred to as a second feature map 500.

認識手段107は、第2の特徴情報生成手段106によって生成された第2の特徴情報に基づいて、取得された画像に写っているものが所望の対象物(人)であるか否かを認識する。なお、認識手段107による認識については後述する。具体的には、認識手段107は、第2の特徴情報生成手段106によって生成された第2の特徴情報501に基づいて、取得された画像に写っているものが所望の対象物(人)であるか否かを認識する。認識できた場合には、その画像に関しては認識の処理を終了させて次の画像について認識を行う。   Based on the second feature information generated by the second feature information generating unit 106, the recognizing unit 107 recognizes whether or not what is shown in the acquired image is a desired object (person). To do. The recognition by the recognition unit 107 will be described later. Specifically, the recognition means 107 is a desired object (person) that is reflected in the acquired image based on the second feature information 501 generated by the second feature information generation means 106. Recognize whether there is. If the image can be recognized, the recognition process for the image is terminated and the next image is recognized.

一方、第2の特徴情報501のみでは認識できない場合には、第1のフィルター設定手段103が切出し画像抽出手段102によって切出された画像にフィルター202を設定し、第1の特徴情報生成手段104がフィルター202が設定された画像の特徴を示す第1の特徴情報302を生成する。そして、第2のフィルター設定手段105が生成された第1の特徴情報302にフィルター402を設定し、第2の特徴情報生成手段106が第1の特徴情報301と第2のフィルター集合のフィルター401、402を用いて、第1の特徴情報302の特徴を示す第2の特徴情報502を生成する。そして、認識手段107は、生成された第2の特徴情報502と既に生成された第2の特徴情報501とに基づいて認識する。これでも認識できない場合には、上述したような処理を繰り返し、認識できるまで続けられる。これにより、あらかじめすべてのフィルターを画像に設定し、設定された画像を処理するよりも処理負荷を低減することが可能となる。   On the other hand, when the second feature information 501 alone cannot be recognized, the first filter setting unit 103 sets the filter 202 to the image cut out by the cut-out image extraction unit 102, and the first feature information generation unit 104. Generates first feature information 302 indicating the features of the image for which the filter 202 is set. Then, the second filter setting unit 105 sets the filter 402 to the first feature information 302 generated, and the second feature information generation unit 106 sets the first feature information 301 and the filter 401 of the second filter set. , 402 is used to generate second feature information 502 indicating the features of the first feature information 302. Then, the recognition unit 107 recognizes based on the generated second feature information 502 and the already generated second feature information 501. If this cannot be recognized, the above-described process is repeated until the recognition is possible. As a result, it is possible to reduce the processing load as compared to setting all the filters in the image in advance and processing the set image.

ここで、認識手段107について説明する。認識手段107は、図2に示すように、隠れレイヤと呼ばれる複数のユニットから出力される結果に基づいて認識結果を出力する。この認識手段107には、例えばニューラルネットワークなどを用いることができる。以下、後述する図9、図12、図13、図16、図17に示す認識手段(認識器)についても同様である。ユニットはそれぞれ人の所定の部分を認識するノードであって、例えば顔の認識をするためのノードや足を認識するためのノードなどである。これらのノードは、例えば重みが付加され線形結合している。例えば線形結合された結果が所定の閾値を上回った場合に人であると判断する。なお、ここではユニットは40としているが40に限られるものではない。なお、認識手段107の詳細については、公知の技術であるため詳細な説明は省略する。   Here, the recognition means 107 will be described. As shown in FIG. 2, the recognition means 107 outputs a recognition result based on the results output from a plurality of units called hidden layers. As the recognition means 107, for example, a neural network can be used. The same applies to the recognition means (recognition device) shown in FIG. 9, FIG. 12, FIG. 13, FIG. Each unit is a node for recognizing a predetermined part of a person, for example, a node for recognizing a face or a node for recognizing a foot. These nodes are, for example, weighted and linearly coupled. For example, if the result of the linear combination exceeds a predetermined threshold, it is determined that the person is a person. Although the unit is 40 here, it is not limited to 40. Note that the details of the recognition unit 107 are well-known techniques, and thus detailed description thereof is omitted.

次に、本発明の第1の実施の形態に係る対象物認識装置における対象物認識フローについて図7A及び図7Bを用いて説明する。図7A及び図7Bに示すように、まず、画像データ取得手段101は、外部の撮影手段109(カメラなど)によって撮影された画像を取得する(ステップS701)。次に、切出し画像抽出手段102は、画像データ取得手段101によって取得された画像を上述したscale_maxのサイズに変更する(ステップS702)。そして、サイズ変更された画像からスケール化された画像を取得する(ステップS703)。スケール化された画像から次の候補となる画像を切出し、候補となる画像を取得する(ステップS704)。そして、f=1をセットする(ステップS705)。ここで、fとは対象物認識フローの繰り返し処理の回数を示すものである。次に、第1のフィルター設定手段103は、第1のフィルター集合200のフィルターFil1_fを切出された候補となる画像に設定する(ステップS706)。ここで、Fil1_fは、第1のフィルター集合のf番目のフィルターを意味する。第1の特徴情報生成手段104は、候補とされた画像と第1のフィルター集合のフィルターFil1_fとを用いて、第1の特徴情報FM1_fを生成する(ステップS707)。ここで、FM1_fは、f番目の第1の特徴情報を意味する。   Next, an object recognition flow in the object recognition apparatus according to the first embodiment of the present invention will be described with reference to FIGS. 7A and 7B. As shown in FIGS. 7A and 7B, first, the image data acquisition unit 101 acquires an image shot by an external shooting unit 109 (such as a camera) (step S701). Next, the cutout image extraction unit 102 changes the image acquired by the image data acquisition unit 101 to the size of scale_max described above (step S702). Then, a scaled image is acquired from the resized image (step S703). The next candidate image is cut out from the scaled image, and the candidate image is acquired (step S704). Then, f = 1 is set (step S705). Here, f indicates the number of repetitions of the object recognition flow. Next, the first filter setting unit 103 sets the filter Fil1_f of the first filter set 200 as an extracted candidate image (step S706). Here, Fil1_f means the f-th filter of the first filter set. The first feature information generation unit 104 generates the first feature information FM1_f using the candidate image and the filter Fil1_f of the first filter set (step S707). Here, FM1_f means the f-th first feature information.

第2のフィルター設定手段105は、第1の特徴情報生成手段104によって生成された第1の特徴情報FM1_f及び/又は過去に生成された第1の特徴情報に対して、第2のフィルター集合400のフィルターFil2_fを設定する(ステップS708)。第2の特徴情報生成手段106は、第1の特徴情報FM1_1、FM1_2、・・・、FM1_fと第2のフィルター集合のフィルターFil2_1、Fil2_2、・・・、Fil2_fの少なくとも1つ以上を用いて第2の特徴情報FM2_fを生成する(ステップS709)。認識手段107は、第2の特徴情報生成手段106によって生成された第2の特徴情報FM2_1、FM2_2、・・・、FM2_fに基づいて、認識するための出力値を算出する(ステップS710)。そして、認識手段107は、出力値があらかじめ決められた認識をするための第1の閾値(候補とされた画像が人物(歩行者)のものか否かを判断するための閾値)よりも大きいか否かを判断する(ステップS711)。出力値が第1の閾値より大きいと判断された場合には、候補とされた画像は人物(歩行者)と認識される。   The second filter setting unit 105 applies the second filter set 400 to the first feature information FM1_f generated by the first feature information generation unit 104 and / or the first feature information generated in the past. The filter Fil2_f is set (step S708). The second feature information generation means 106 uses the first feature information FM1_1, FM1_2,..., FM1_f and at least one of the filters Fil2_1, Fil2_2,. 2 feature information FM2_f is generated (step S709). The recognition unit 107 calculates an output value for recognition based on the second feature information FM2_1, FM2_2,..., FM2_f generated by the second feature information generation unit 106 (step S710). The recognizing unit 107 has an output value larger than a first threshold value for performing a predetermined recognition (threshold value for determining whether a candidate image is a person (pedestrian)). Whether or not (step S711). If it is determined that the output value is greater than the first threshold, the candidate image is recognized as a person (pedestrian).

一方、出力値が第1の閾値以下であると判断された場合には、出力値があらかじめ決められた第2の閾値(候補とされた画像が人物(歩行者)のものでないと判断するための閾値)よりも小さいか否かを判断する(ステップS712)。出力値が第2の閾値より小さいと判断された場合には、人物(歩行者)ではないと認識される。一方、出力値が第2の閾値以上であると判断された場合には、fがFよりも小さいか否かを判断する(ステップS713)。ここで、Fは第1及び第2の特徴情報の最大数である。fがFより小さい場合にfに1を加えそれをfとし(ステップS714)、ステップS706に戻る。一方、fがF以上である場合には候補とされた画像を人物(歩行者)でないと認識する。そして、スケール化された画像に候補とされる画像があるか否かを判断する(ステップS715)。あると判断された場合にはステップ704に戻り、ないと判断された場合にはscale_factorがscale_minより大きいか否かを判断する(ステップS716)。scale_factorがscale_minより大きいと判断された場合にはscale_factorにscale_stepを掛けてそれをscale_factorとして(ステップS717)ステップS703に戻る。一方、ステップS716においてscale_factorがscale_min以下であると判断された場合には終了し、画像の取得準備にかかる。   On the other hand, when it is determined that the output value is equal to or lower than the first threshold, the output value is determined to be a second threshold (a candidate image is not a person (pedestrian)). It is judged whether it is smaller than (threshold value) (step S712). When it is determined that the output value is smaller than the second threshold, it is recognized that the person is not a person (pedestrian). On the other hand, if it is determined that the output value is greater than or equal to the second threshold value, it is determined whether f is smaller than F (step S713). Here, F is the maximum number of first and second feature information. When f is smaller than F, 1 is added to f to make it f (step S714), and the process returns to step S706. On the other hand, when f is F or more, it recognizes that the candidate image is not a person (pedestrian). Then, it is determined whether or not there is a candidate image in the scaled image (step S715). If it is determined that there is, the process returns to step 704. If it is determined that there is no scale_factor, it is determined whether or not scale_factor is larger than scale_min (step S716). If it is determined that scale_factor is larger than scale_min, scale_factor is multiplied by scale_step to set it as scale_factor (step S717), and the process returns to step S703. On the other hand, if it is determined in step S716 that scale_factor is less than or equal to scale_min, the process ends and preparation for image acquisition is performed.

<第2の実施の形態>
次に、本発明の第2の実施の形態に係る対象物認識装置について図8から図10Bを用いて説明する。図8は本発明の第2の実施の形態に係る対象物認識装置の構成を示す構成図である。図9は本発明の第2の実施の形態に係る対象物認識装置の処理のフローを説明するための図である。図10Aは本発明の第2の実施の形態に係る対象物認識装置における対象物認識フローの一部について説明するためのフローチャートである。図10Bは本発明の第2の実施の形態に係る対象物認識装置における対象物認識フローの一部について説明するためのフローチャートである。図8に示すように、第2の実施の形態に係る対象物認識装置600は、第1の実施の形態に係る対象物認識装置100と同様の構成をしているが、一部の構成要素における処理の仕方が相違する。以下では第2の実施の形態に係る対象物認識装置の処理について図9を用いて説明する。
<Second Embodiment>
Next, an object recognition apparatus according to a second embodiment of the present invention will be described with reference to FIGS. 8 to 10B. FIG. 8 is a block diagram showing the configuration of the object recognition apparatus according to the second embodiment of the present invention. FIG. 9 is a diagram for explaining a processing flow of the object recognition apparatus according to the second embodiment of the present invention. FIG. 10A is a flowchart for explaining a part of the object recognition flow in the object recognition apparatus according to the second embodiment of the present invention. FIG. 10B is a flowchart for explaining a part of the object recognition flow in the object recognition apparatus according to the second embodiment of the present invention. As shown in FIG. 8, the object recognition apparatus 600 according to the second embodiment has the same configuration as the object recognition apparatus 100 according to the first embodiment, but some components. The processing method is different. Below, the process of the target object recognition apparatus which concerns on 2nd Embodiment is demonstrated using FIG.

第2の実施の形態に係る対象物認識装置600における画像データ取得手段601及び切出し画像抽出手段602の処理は第1の実施の形態と同様である。第1のフィルター設定手段603は、切出し画像抽出手段602から抽出された候補とされた画像に対して、図9に示す第1のフィルター集合210のフィルター(フィルター211、212など)それぞれを設定する。そして、第1の特徴情報生成手段604は、それぞれのフィルターが設定された画像の特徴を示す第1の特徴情報310(第1の特徴情報311、312など)を生成する。第1の特徴情報の生成に関しては第1の実施の形態を参照する。第2のフィルター設定手段605は、第1の特徴情報生成手段604によって生成された第1の特徴情報310に対して、第2のフィルター集合410のフィルター(フィルター411、412など)を設定する。第2の特徴情報生成手段606は、第2のフィルター集合410のフィルター(フィルター411、412など)が設定された第1の特徴情報の特徴を示す第2の特徴情報510(第2の特徴情報511、512など)を生成する。第2の特徴情報の生成に関しては第1の実施の形態を参照する。   The processing of the image data acquisition unit 601 and the cutout image extraction unit 602 in the object recognition apparatus 600 according to the second embodiment is the same as that of the first embodiment. The first filter setting unit 603 sets each of the filters (filters 211, 212, etc.) of the first filter set 210 shown in FIG. 9 with respect to the candidate image extracted from the cut-out image extraction unit 602. . Then, the first feature information generation unit 604 generates first feature information 310 (first feature information 311, 312, etc.) indicating the feature of the image in which each filter is set. Regarding the generation of the first feature information, the first embodiment is referred to. The second filter setting unit 605 sets the filters (filters 411, 412 and the like) of the second filter set 410 with respect to the first feature information 310 generated by the first feature information generation unit 604. The second feature information generating unit 606 is configured to provide second feature information 510 (second feature information) indicating the feature of the first feature information in which the filters (filters 411, 412 and the like) of the second filter set 410 are set. 511, 512, etc.). For the generation of the second feature information, the first embodiment is referred to.

そして、認識手段607は、第1の実施の形態とは違い、まず、隠れレイヤのうちの1つのノード700のみで認識をし、認識できない場合には、隠れレイヤのうちの他の1つのノード701とノード700とに基づいて認識をする。それでも認識できない場合にはノード702を加えて認識する。このように、認識できるまでノードを付加して認識する。このように、切出し画像の認識の困難さに応じて計算量を変えることにより、認識手段全体の負荷を低減することが可能となる。なお、第1の実施の形態と第2の実施の形態とを組み合わせたものであってもよい。すなわち、1つの第2の特徴情報に基づいて1つのノードが出力する結果によって認識するものである。   Unlike the first embodiment, the recognizing unit 607 first recognizes only one node 700 in the hidden layer, and if it cannot recognize the other one node in the hidden layer. Recognition is performed based on 701 and the node 700. If it still cannot be recognized, the node 702 is added for recognition. Thus, it recognizes by adding a node until it can recognize. Thus, by changing the amount of calculation according to the difficulty of recognizing the cut-out image, it is possible to reduce the load on the entire recognition unit. Note that the first embodiment and the second embodiment may be combined. That is, recognition is performed based on a result output by one node based on one second feature information.

次に、本発明の第2の実施の形態に係る対象物認識装置における対象物認識フローについて図10A及び図10Bを用いて説明する。図10A及び図10Bに示すように、まず、画像データ取得手段601は、外部の撮影手段109(カメラなど)によって撮影された画像を取得する(ステップS1001)。次に、切出し画像抽出手段102は、画像データ取得手段601によって取得された画像を上述したscale_maxのサイズに変更する(ステップS1002)。そして、サイズ変更された画像からスケール化された画像を取得する(ステップS1003)。スケール化された画像から次の候補となる画像を切出し、候補となる画像を取得する(ステップS1004)。次に、第1のフィルター設定手段603は、第1のフィルター集合210のフィルターFil1_1からFil1_nを切出された候補となる画像にそれぞれ設定する(ステップS1005)。ここで、Fil1_nのnは第1のフィルター集合210の個数である。第1の特徴情報生成手段604は、候補とされた画像と第1のフィルター集合のフィルターFil1_1からFil1_nとを用いて、第1の特徴情報FM1_1からFM1_nを生成する(ステップS1006)。   Next, an object recognition flow in the object recognition apparatus according to the second embodiment of the present invention will be described with reference to FIGS. 10A and 10B. As shown in FIGS. 10A and 10B, first, the image data acquisition unit 601 acquires an image shot by an external shooting unit 109 (such as a camera) (step S1001). Next, the cutout image extraction unit 102 changes the image acquired by the image data acquisition unit 601 to the size of scale_max described above (step S1002). Then, a scaled image is acquired from the resized image (step S1003). The next candidate image is cut out from the scaled image, and the candidate image is acquired (step S1004). Next, the first filter setting unit 603 sets the filters Fil1_1 to Fil1_n of the first filter set 210 to the extracted candidate images (step S1005). Here, n of Fil1_n is the number of first filter sets 210. The first feature information generation unit 604 generates first feature information FM1_1 to FM1_n using the image that is a candidate and the filters Fil1_1 to Fil1_n of the first filter set (step S1006).

第2のフィルター設定手段605は、第1の特徴情報生成手段604によって生成された第1の特徴情報に対して、第2のフィルター集合410のフィルターFil2_1からFil2_nを設定する(ステップS1007)。第2の特徴情報生成手段606は、生成された第1の特徴情報FM1_1からFM1_nと、第2のフィルター集合410のフィルターFil2_1からFil2_nとを用いて第2の特徴情報FM2_1からFM2_nを生成する(ステップS1008)。そして、g=1をセットする(ステップS1009)。ここで、gは後述する隠れレイヤのノードを示す数である。すなわち、g=1は、1番目のノードを意味する。認識手段607は、第2の特徴情報生成手段606によって生成された第2の特徴情報FM2_1からFM2_nに基づいて、隠れレイヤのノードNode_1からNode_gのノードによって出力値を算出する(ステップS1010)。ここで、Node_gはg番目の隠れレイヤのノードを意味する。そして、認識手段607は、出力値があらかじめ決められた認識をするための第1の閾値(候補とされた画像が人物(歩行者)のものか否かを判断するための閾値)よりも大きいか否かを判断する(ステップS1011)。出力値が第1の閾値より大きいと判断された場合には、候補とされた画像は人物(歩行者)と認識される。   The second filter setting unit 605 sets the filters Fil2_1 to Fil2_n of the second filter set 410 for the first feature information generated by the first feature information generation unit 604 (step S1007). The second feature information generating unit 606 generates second feature information FM2_1 to FM2_n using the generated first feature information FM1_1 to FM1_n and the filters Fil2_1 to Fil2_n of the second filter set 410 ( Step S1008). Then, g = 1 is set (step S1009). Here, g is a number indicating a node of a hidden layer to be described later. That is, g = 1 means the first node. Based on the second feature information FM2_1 to FM2_n generated by the second feature information generating unit 606, the recognizing unit 607 calculates an output value from the nodes Node_1 to Node_g of the hidden layer (step S1010). Here, Node_g means a node of the g-th hidden layer. And the recognition means 607 is larger than the 1st threshold value (threshold value for judging whether the image made into a candidate is a person (pedestrian)) for the recognition whose output value was decided beforehand. Whether or not (step S1011). If it is determined that the output value is greater than the first threshold, the candidate image is recognized as a person (pedestrian).

一方、出力値が第1の閾値以下であると判断された場合には、出力値があらかじめ決められた第2の閾値(候補とされた画像が人物(歩行者)のものでないと判断するための閾値)よりも小さいか否かを判断する(ステップS1012)。出力値が第2の閾値より小さいと判断された場合には、人物(歩行者)ではないと認識される。一方、出力値が第2の閾値以上であると判断された場合には、gがGよりも小さいか否かを判断する(ステップS1013)。ここで、Gは隠れレイヤのノード数を示している。gがGよりも小さい場合にgに1を加え(ステップS1014)、ステップS1010に戻る。一方、gがG以上である場合には候補とされた画像を人物(歩行者)でないと認識する。そして、スケール化された画像に候補とされる画像があるか否かを判断する(ステップS1015)。あると判断された場合にはステップ1004に戻り、ないと判断された場合にはscale_factorがscale_minより大きいか否かを判断する(ステップS1016)。scale_factorがscale_minより大きいと判断された場合にはscale_factorにscale_stepを掛けてそれをscale_factorとして(ステップS1017)ステップS1003に戻る。一方、ステップS1016においてscale_factorがscale_min以下であると判断された場合には終了し、画像の取得準備にかかる。   On the other hand, when it is determined that the output value is equal to or lower than the first threshold, the output value is determined to be a second threshold (a candidate image is not a person (pedestrian)). It is judged whether it is smaller than (threshold value) (step S1012). When it is determined that the output value is smaller than the second threshold, it is recognized that the person is not a person (pedestrian). On the other hand, if it is determined that the output value is greater than or equal to the second threshold, it is determined whether g is smaller than G (step S1013). Here, G indicates the number of nodes in the hidden layer. When g is smaller than G, 1 is added to g (step S1014), and the process returns to step S1010. On the other hand, when g is G or more, the candidate image is recognized as not a person (pedestrian). Then, it is determined whether or not there is a candidate image in the scaled image (step S1015). If it is determined that there is, the process returns to step 1004. If it is determined that there is no scale_factor, it is determined whether or not scale_factor is larger than scale_min (step S1016). When it is determined that scale_factor is larger than scale_min, scale_factor is multiplied by scale_step to set it as scale_factor (step S1017), and the process returns to step S1003. On the other hand, if it is determined in step S1016 that scale_factor is less than or equal to scale_min, the process ends and preparation for image acquisition is performed.

<第3の実施の形態>
次に、本発明の第3の実施の形態に係る対象物認識装置について図11から図14Bを用いて説明する。図11は本発明の第3の実施の形態に係る対象物認識装置の構成を示す構成図である。図12は本発明の第3の実施の形態に係る対象物認識装置の処理のフローを説明するための図である。図13は本発明の第3の実施の形態に係る対象物認識装置の処理のフローを説明するための図である。図14Aは本発明の第3の実施の形態に係る対象物認識装置における対象物認識フローの一部について説明するためのフローチャートである。図14Bは本発明の第3の実施の形態に係る対象物認識装置における対象物認識フローの一部について説明するためのフローチャートである。図11に示すように、第3の実施の形態に係る対象物認識装置800は、第1の実施の形態に係る対象物認識装置100と同様の構成をしているが、一部の構成要素における処理の仕方が相違する。以下では第3の実施の形態に係る対象物認識装置の処理について図12及び図13を用いて説明する。
<Third Embodiment>
Next, an object recognition apparatus according to a third embodiment of the present invention will be described with reference to FIGS. 11 to 14B. FIG. 11 is a block diagram showing the configuration of the object recognition apparatus according to the third embodiment of the present invention. FIG. 12 is a diagram for explaining a processing flow of the object recognition apparatus according to the third embodiment of the present invention. FIG. 13 is a diagram for explaining the processing flow of the object recognition apparatus according to the third embodiment of the present invention. FIG. 14A is a flowchart for explaining a part of the object recognition flow in the object recognition apparatus according to the third embodiment of the present invention. FIG. 14B is a flowchart for explaining a part of the object recognition flow in the object recognition apparatus according to the third embodiment of the present invention. As shown in FIG. 11, the object recognition apparatus 800 according to the third embodiment has the same configuration as the object recognition apparatus 100 according to the first embodiment, but some components. The processing method is different. Below, the process of the target object recognition apparatus which concerns on 3rd Embodiment is demonstrated using FIG.12 and FIG.13.

第3の実施の形態に係る対象物認識装置800における画像データ取得手段801及び切出し画像抽出手段802の処理は第1の実施の形態と同様である。第1のフィルター設定手段803は、切出し画像抽出手段802から抽出された候補とされる画像の一部に対して、図12に示す第1のフィルター集合220のフィルター(フィルター221、222など)それぞれを設定する。そして、第1の特徴情報生成手段804は、それぞれのフィルターが候補とされる画像の一部に設定された画像の特徴を示す第1の特徴情報320(第1の特徴情報321、322など)を生成する。第1の特徴情報の生成に関しては第1の実施の形態を参照する。第2のフィルター設定手段805は、第1の特徴情報生成手段804によって生成された第1の特徴情報320の一部(第1のフィルター集合220のフィルターが設定された部分)に対して、第2のフィルター集合420のフィルター(フィルター421、422など)を設定する。第2の特徴情報生成手段806は、第2のフィルター集合420のフィルター(フィルター421、422など)が設定された第1の特徴情報の特徴を示す第2の特徴情報520(第2の特徴情報521、522など)を生成する。第2の特徴情報の生成に関しては第1の実施の形態を参照する。   The processing of the image data acquisition unit 801 and the cutout image extraction unit 802 in the object recognition apparatus 800 according to the third embodiment is the same as that of the first embodiment. The first filter setting unit 803 applies each of the filters (filters 221, 222, etc.) of the first filter set 220 shown in FIG. 12 to a part of the candidate images extracted from the cutout image extraction unit 802. Set. Then, the first feature information generation unit 804 includes first feature information 320 (first feature information 321, 322, etc.) indicating the features of the image set as a part of the image for which each filter is a candidate. Is generated. Regarding the generation of the first feature information, the first embodiment is referred to. The second filter setting unit 805 applies the first filter to the part of the first feature information 320 generated by the first feature information generation unit 804 (the part where the filter of the first filter set 220 is set). The filters (filters 421, 422, etc.) of the second filter set 420 are set. The second feature information generation unit 806 is configured to provide second feature information 520 (second feature information) indicating the feature of the first feature information in which the filters (filters 421, 422, etc.) of the second filter set 420 are set. 521, 522, etc.). For the generation of the second feature information, the first embodiment is referred to.

そして、認識手段807は、第2の特徴情報生成手段806によって生成された第2の特徴情報520に基づいて、第1の実施の形態のように、線形結合されたノードから出力される結果に基づいて認識する。なお、第2の実施の形態にように、個々のノードによる出力結果に基づいて認識するようにしてもよい。認識できない場合には、第1のフィルター設定手段803は、既に画像に対して第1のフィルター集合220を設定した部分以外の部分に第1のフィルター集合220のフィルターをそれぞれ設定する。そして、第1の特徴情報生成手段804は、図13に示すように、再度第1のフィルター集合220のそれぞれのフィルターが画像の一部に設定された画像の特徴を示す第1の特徴情報320´(第1の特徴情報321´、322´など)を生成する。   Based on the second feature information 520 generated by the second feature information generating unit 806, the recognizing unit 807 outputs the result output from the linearly coupled nodes as in the first embodiment. Recognize based on. Note that, as in the second embodiment, recognition may be performed based on output results from individual nodes. If it cannot be recognized, the first filter setting means 803 sets the filters of the first filter set 220 in parts other than the part where the first filter set 220 has already been set for the image. Then, as shown in FIG. 13, the first feature information generation unit 804 again includes first feature information 320 indicating the features of the image in which each filter of the first filter set 220 is set as a part of the image. '(First feature information 321', 322 ', etc.) is generated.

第2のフィルター設定手段805は、生成された第1の特徴情報320´の新たに第1のフィルター集合220のフィルターが設定された部分に対して、第2のフィルター集合420のフィルターを設定する。第2の特徴情報生成手段806は、図13に示すように、再度第2のフィルター集合420のそれぞれのフィルターが画像の一部に設定された画像の特徴を示す第2の特徴情報520´(第2の特徴情報521´、522´など)を生成する。そして、認識手段807は、生成された第2の特徴情報520´に基づいて、線形結合されたノードから出力される結果に基づいて認識する。これでも認識できない場合には、認識できるまで上述した処理を続ける。これにより、はじめから画像全体にフィルターを設定して処理するよりも効率的に認識することが可能となる。   The second filter setting means 805 sets the filter of the second filter set 420 for the part of the generated first feature information 320 ′ where the filter of the first filter set 220 is newly set. . As shown in FIG. 13, the second feature information generation unit 806 again includes second feature information 520 ′ (representing the feature of the image in which each filter of the second filter set 420 is set as a part of the image. Second feature information 521 ′, 522 ′, etc.) is generated. Then, the recognition unit 807 recognizes based on the result output from the linearly coupled nodes based on the generated second feature information 520 ′. If this cannot be recognized, the above processing is continued until it can be recognized. As a result, it is possible to recognize more efficiently than setting and processing a filter on the entire image from the beginning.

次に、本発明の第3の実施の形態に係る対象物認識装置における対象物認識フローについて図14A及び図14Bを用いて説明する。図14A及び図14Bに示すように、まず、画像データ取得手段801は、外部の撮影手段109(カメラなど)によって撮影された画像を取得する(ステップS1401)。次に、切出し画像抽出手段802は、画像データ取得手段801によって取得された画像を上述したscale_maxのサイズに変更する(ステップS1402)。そして、サイズ変更された画像からスケール化された画像を取得する(ステップS1403)。スケール化された画像から次の候補となる画像を切出し、候補となる画像を取得する(ステップS1404)。ここで、h=1をセットする(ステップS1405)。hは候補とされる画像をH個に分割した際の分割領域の番号を示すものである。すなわち、h=1は、H個に分割されたうちの1番目の分割領域を示す。次に、第1のフィルター設定手段803は、第1のフィルター集合220のフィルターFil1_1からFil1_nを切出された候補となる画像の一部にそれぞれ設定する(ステップS1406)。ここで、Fil1_nのnは第1のフィルター集合220の個数である。第1の特徴情報生成手段804は、候補とされた画像と第1のフィルター集合のフィルターFil1_1からFil1_nとを用いて、第1の特徴情報FM1_1からFM1_nを生成する(ステップS1407)。   Next, an object recognition flow in the object recognition apparatus according to the third embodiment of the present invention will be described with reference to FIGS. 14A and 14B. As shown in FIGS. 14A and 14B, first, the image data acquisition unit 801 acquires an image shot by an external shooting unit 109 (camera or the like) (step S1401). Next, the cutout image extraction unit 802 changes the image acquired by the image data acquisition unit 801 to the size of scale_max described above (step S1402). Then, a scaled image is acquired from the resized image (step S1403). The next candidate image is cut out from the scaled image, and the candidate image is acquired (step S1404). Here, h = 1 is set (step S1405). h indicates the number of the divided area when the candidate image is divided into H pieces. That is, h = 1 indicates the first divided area among the H divided areas. Next, the first filter setting unit 803 sets the filters Fil1_1 to Fil1_n of the first filter set 220 as a part of the extracted candidate images (step S1406). Here, n of Fil1_n is the number of first filter sets 220. The first feature information generation unit 804 generates first feature information FM1_1 to FM1_n using the candidate image and the filters Fil1_1 to Fil1_n of the first filter set (step S1407).

第2のフィルター設定手段805は、第1の特徴情報生成手段804によって生成された第1の特徴情報に対して、第2のフィルター集合420のフィルターFil2_1からFil2_nを設定する(ステップS1408)。第2の特徴情報生成手段806は、生成された第1の特徴情報FM1_1からFM1_nと、第2のフィルター集合420のフィルターFil2_1からFil2_nとを用いて第2の特徴情報FM2_1からFM2_nを生成する(ステップS1409)。認識手段807は、第2の特徴情報生成手段806によって生成された第2の特徴情報FM2_1からFM2_nに基づいて、認識するための出力値を算出する(ステップS1410)。そして、認識手段807は、出力値があらかじめ決められた認識をするための第1の閾値(候補とされた画像が人物(歩行者)のものか否かを判断するための閾値)よりも大きいか否かを判断する(ステップS1411)。出力値が第1の閾値より大きいと判断された場合には、候補とされた画像は人物(歩行者)と認識される。   The second filter setting unit 805 sets the filters Fil2_1 to Fil2_n of the second filter set 420 for the first feature information generated by the first feature information generation unit 804 (step S1408). The second feature information generating unit 806 generates second feature information FM2_1 to FM2_n using the generated first feature information FM1_1 to FM1_n and the filters Fil2_1 to Fil2_n of the second filter set 420 ( Step S1409). The recognition unit 807 calculates an output value for recognition based on the second feature information FM2_1 to FM2_n generated by the second feature information generation unit 806 (step S1410). The recognizing unit 807 has an output value larger than a first threshold value for performing a predetermined recognition (threshold value for determining whether or not a candidate image belongs to a person (pedestrian)). It is determined whether or not (step S1411). If it is determined that the output value is greater than the first threshold, the candidate image is recognized as a person (pedestrian).

一方、出力値が第1の閾値以下であると判断された場合には、出力値があらかじめ決められた第2の閾値(候補とされた画像が人物(歩行者)のものでないと判断するための閾値)よりも小さいか否かを判断する(ステップS1412)。出力値が第2の閾値より小さいと判断された場合には、人物(歩行者)ではないと認識される。一方、出力値が第2の閾値以上であると判断された場合には、hがHよりも小さいか否かを判断する(ステップS1413)。ここで、Hは候補とされた画像を分割する際の分割数を示す。hがHより小さい場合にhに1を加え(ステップS1414)、ステップS1406に戻る。一方、hがH以上である場合には候補とされた画像を人物(歩行者)でないと認識する。そして、スケール化された画像に候補とされる画像があるか否かを判断する(ステップS1415)。あると判断された場合にはステップ1404に戻り、ないと判断された場合にはscale_factorがscale_minよりも大きいか否かを判断する(ステップS1416)。scale_factorがscale_minよりも大きいと判断された場合にはscale_factorにscale_stepを掛けてそれをscale_factorとして(ステップS1417)ステップS1403に戻る。一方、ステップS1416においてscale_factorがscale_min以下であると判断された場合には終了し、画像の取得準備にかかる。   On the other hand, when it is determined that the output value is equal to or lower than the first threshold, the output value is determined to be a second threshold (a candidate image is not a person (pedestrian)). It is determined whether it is smaller than the threshold value (step S1412). When it is determined that the output value is smaller than the second threshold, it is recognized that the person is not a person (pedestrian). On the other hand, if it is determined that the output value is greater than or equal to the second threshold, it is determined whether h is smaller than H (step S1413). Here, H indicates the number of divisions when the candidate image is divided. If h is smaller than H, 1 is added to h (step S1414), and the process returns to step S1406. On the other hand, if h is H or more, the candidate image is recognized as not a person (pedestrian). Then, it is determined whether or not there is a candidate image in the scaled image (step S1415). If it is determined that there is, the process returns to step 1404. If it is determined that there is no scale_factor, it is determined whether or not scale_factor is larger than scale_min (step S1416). When it is determined that scale_factor is larger than scale_min, scale_factor is multiplied by scale_step, which is set as scale_factor (step S1417), and the process returns to step S1403. On the other hand, if it is determined in step S1416 that scale_factor is less than or equal to scale_min, the process ends and preparation for image acquisition is performed.

<第4の実施の形態>
次に、本発明の第4の実施の形態に係る対象物認識装置について図15から図18Bを用いて説明する。図15は本発明の第4の実施の形態に係る対象物認識装置の構成を示す構成図である。図16は本発明の第4の実施の形態に係る対象物認識装置の処理のフローを説明するための図である。図17は本発明の第4の実施の形態に係る対象物認識装置の処理のフローを説明するための図である。図18Aは本発明の第4の実施の形態に係る対象物認識装置における対象物認識フローの一部について説明するためのフローチャートである。図18Bは本発明の第4の実施の形態に係る対象物認識装置における対象物認識フローの一部について説明するためのフローチャートである。図15に示すように、第4の実施の形態に係る対象物認識装置900は、第1の実施の形態に係る対象物認識装置100と同様の構成をしているが、一部の構成要素における処理の仕方が相違する。以下では第4の実施の形態に係る対象物認識装置の処理について図16及び図17を用いて説明する。
<Fourth embodiment>
Next, an object recognition apparatus according to a fourth embodiment of the present invention will be described with reference to FIGS. 15 to 18B. FIG. 15: is a block diagram which shows the structure of the target object recognition apparatus which concerns on the 4th Embodiment of this invention. FIG. 16 is a diagram for explaining a process flow of the object recognition apparatus according to the fourth embodiment of the present invention. FIG. 17 is a diagram for explaining the processing flow of the object recognition apparatus according to the fourth embodiment of the present invention. FIG. 18A is a flowchart for explaining a part of the object recognition flow in the object recognition apparatus according to the fourth embodiment of the present invention. FIG. 18B is a flowchart for explaining a part of the object recognition flow in the object recognition apparatus according to the fourth embodiment of the present invention. As shown in FIG. 15, the object recognition apparatus 900 according to the fourth embodiment has the same configuration as the object recognition apparatus 100 according to the first embodiment, but some components The processing method is different. Below, the process of the target object recognition apparatus which concerns on 4th Embodiment is demonstrated using FIG.16 and FIG.17.

第4の実施の形態に係る対象物認識装置900における画像データ取得手段901及び切出し画像抽出手段902の処理は第1の実施の形態と同様である。第1のフィルター設定手段903は、切出し画像抽出手段902から抽出された画像に対して、図16に示す第1のフィルター集合230のフィルター(フィルター231、232など)それぞれを設定する。そして、第1の特徴情報生成手段904は、それぞれのフィルターが設定された画像を縮小し、縮小された画像の特徴を示す第1の特徴情報330(第1の特徴情報331、332など)を生成する。第2のフィルター設定手段905は、第1の特徴情報生成手段904によって生成された第1の特徴情報330に対して、第2のフィルター集合430のフィルター(フィルター431、432など)を設定する。第2の特徴情報生成手段906は、第2のフィルター集合430のフィルター(フィルター431、432など)が設定された第1の特徴情報の特徴を示す第2の特徴情報530(第2の特徴情報531、532など)を生成する。   The processing of the image data acquisition unit 901 and the cutout image extraction unit 902 in the object recognition apparatus 900 according to the fourth embodiment is the same as that of the first embodiment. The first filter setting unit 903 sets the filters (filters 231 and 232, etc.) of the first filter set 230 shown in FIG. 16 for the image extracted from the cutout image extraction unit 902. Then, the first feature information generation unit 904 reduces the image in which each filter is set, and the first feature information 330 (first feature information 331, 332, etc.) indicating the feature of the reduced image. Generate. The second filter setting unit 905 sets the filters (filters 431, 432, etc.) of the second filter set 430 for the first feature information 330 generated by the first feature information generation unit 904. The second feature information generation unit 906 includes second feature information 530 (second feature information) indicating the feature of the first feature information in which the filters (filters 431, 432, etc.) of the second filter set 430 are set. 531, 532, etc.).

認識手段907は、第2の特徴情報生成手段906によって生成された第2の特徴情報530に基づいて、第1の実施の形態のように、線形結合されたノードから出力される結果に基づいて認識する。なお、第2の実施の形態にように、個々のノードによる出力結果に基づいて認識するようにしてもよい。認識できない場合には、第1の特徴情報生成手段904は、図17に示すように、前回フィルターが設定された縮小された画像を所定の率で拡大し、その拡大された画像の特徴を示す第1の特徴情報330´(第1の特徴情報331´、332´など)を生成する。ここで、所定の率で拡大するとは、例えばはじめに縮小された画像のサイズが1である場合、そのサイズを2倍、3倍、・・・と拡大することを言う。   Based on the second feature information 530 generated by the second feature information generating unit 906, the recognizing unit 907 is based on the result output from the linearly coupled nodes as in the first embodiment. recognize. Note that, as in the second embodiment, recognition may be performed based on output results from individual nodes. If it cannot be recognized, the first feature information generation unit 904 enlarges the reduced image set with the previous filter at a predetermined rate, as shown in FIG. 17, and shows the features of the enlarged image. First feature information 330 ′ (first feature information 331 ′, 332 ′, etc.) is generated. Here, enlarging at a predetermined rate means, for example, that when the size of the first reduced image is 1, the size is enlarged by 2 times, 3 times,.

第2のフィルター設定手段905は、第1の特徴情報生成手段904によって生成された第1の特徴情報330´に対して、第2のフィルター集合430のフィルター(フィルター431、432など)を設定する。第2の特徴情報生成手段906は、第2のフィルター集合430のフィルター(フィルター431、432など)が設定された第1の特徴情報の特徴を示す第2の特徴情報530´(第2の特徴情報531´、532´など)を生成する。そして、認識手段907は、生成された第2の特徴情報530´に基づいて、線形結合されたノードから出力される結果に基づいて認識する。これでも認識できない場合には、認識できるまで上述した処理を続ける。これにより、縮小した画像は解像度が落ち、その分処理負荷が低減され、全体として効率的に認識をすることが可能となる。   The second filter setting unit 905 sets the filters (filters 431, 432, etc.) of the second filter set 430 for the first feature information 330 ′ generated by the first feature information generation unit 904. . The second feature information generating unit 906 is configured to provide second feature information 530 ′ (second feature) indicating the feature of the first feature information in which the filters (filters 431, 432, etc.) of the second filter set 430 are set. Information 531 ′, 532 ′, etc.). Then, the recognition unit 907 recognizes based on the result output from the linearly coupled node based on the generated second feature information 530 ′. If this cannot be recognized, the above processing is continued until it can be recognized. As a result, the resolution of the reduced image is reduced, the processing load is reduced correspondingly, and the entire image can be recognized efficiently.

次に、本発明の第4の実施の形態に係る対象物認識装置における対象物認識フローについて図18A及び図18Bを用いて説明する。図18A及び図18Bに示すように、まず、画像データ取得手段901は、外部の撮影手段109(カメラなど)によって撮影された画像を取得する(ステップS1801)。次に、切出し画像抽出手段902は、画像データ取得手段901によって取得された画像を上述したscale_maxのサイズに変更する(ステップS1802)。そして、サイズ変更された画像からスケール化された画像を取得する(ステップS1803)。スケール化された画像から次の候補となる画像を切出し、候補となる画像を取得する(ステップS1804)。ここで、j=1をセットする(ステップS1805)。jは候補とされる画像をそれぞれ異なった率で縮小された複数の画像(J個)のうちの1つの画像を示しており、j=1は複数の画像中で最も倍率の低い画像を指している。次に、第1のフィルター設定手段903は、第1のフィルター集合230のフィルターFil1_1からFil1_nを切出された候補となる画像にそれぞれ設定する(ステップS1806)。ここで、Fil1_nのnは第1のフィルター集合230の個数である。第1の特徴情報生成手段904は、候補とされた画像と第1のフィルター集合のフィルターFil1_1からFil1_nとを用いて、j番目に相当する倍率で縮小された第1の特徴情報FM1_1からFM1_nを生成する(ステップS1807)。   Next, an object recognition flow in the object recognition apparatus according to the fourth embodiment of the present invention will be described with reference to FIGS. 18A and 18B. As shown in FIGS. 18A and 18B, first, the image data acquisition unit 901 acquires an image captured by an external imaging unit 109 (camera or the like) (step S1801). Next, the cutout image extraction unit 902 changes the image acquired by the image data acquisition unit 901 to the size of scale_max described above (step S1802). Then, a scaled image is acquired from the resized image (step S1803). The next candidate image is cut out from the scaled image, and the candidate image is acquired (step S1804). Here, j = 1 is set (step S1805). j indicates one image among a plurality of images (J images) obtained by reducing candidate images at different rates, and j = 1 indicates the image with the lowest magnification among the plurality of images. ing. Next, the first filter setting unit 903 sets the filters Fil1_1 to Fil1_n of the first filter set 230 to the extracted candidate images (step S1806). Here, n of Fil1_n is the number of first filter sets 230. The first feature information generation unit 904 uses the image as a candidate and the filters Fil1_1 to Fil1_n of the first filter set to obtain the first feature information FM1_1 to FM1_n reduced at a magnification corresponding to the jth. Generate (step S1807).

第2のフィルター設定手段905は、第1の特徴情報生成手段904によって生成された第1の特徴情報に対して、第2のフィルター集合430のフィルターFil2_1からFil2_nを設定する(ステップS1808)。第2の特徴情報生成手段906は、生成された第1の特徴情報FM1_1からFM1_nと、第2のフィルター集合430のフィルターFil2_1からFil2_nとを用いて第2の特徴情報FM2_1からFM2_nを生成する(ステップS1809)。認識手段907は、第2の特徴情報生成手段906によって生成された第2の特徴情報FM2_1からFM2_nに基づいて、認識するための出力値を算出する(ステップS1810)。そして、認識手段907は、出力値があらかじめ決められた認識をするための第1の閾値(候補とされた画像が人物(歩行者)のものか否かを判断するための閾値)よりも大きいか否かを判断する(ステップS1811)。出力値が第1の閾値より大きいと判断された場合には、候補とされた画像は人物(歩行者)と認識される。   The second filter setting unit 905 sets the filters Fil2_1 to Fil2_n of the second filter set 430 for the first feature information generated by the first feature information generation unit 904 (step S1808). The second feature information generation unit 906 generates the second feature information FM2_1 to FM2_n using the generated first feature information FM1_1 to FM1_n and the filters Fil2_1 to Fil2_n of the second filter set 430 ( Step S1809). The recognition unit 907 calculates an output value for recognition based on the second feature information FM2_1 to FM2_n generated by the second feature information generation unit 906 (step S1810). And the recognition means 907 is larger than the 1st threshold value (threshold value for judging whether the image made into a candidate is a person (pedestrian)) for the recognition whose output value was decided beforehand. It is determined whether or not (step S1811). If it is determined that the output value is greater than the first threshold, the candidate image is recognized as a person (pedestrian).

一方、出力値が第1の閾値以下であると判断された場合には、出力値があらかじめ決められた第2の閾値(候補とされた画像が人物(歩行者)のものでないと判断するための閾値)よりも小さいか否かを判断する(ステップS1812)。出力値が第2の閾値より小さいと判断された場合には、人物(歩行者)ではないと認識される。一方、出力値が第2の閾値以上であると判断された場合には、jがJよりも小さいか否かを判断する(ステップS1813)。ここで、Jは、候補とされる画像をそれぞれ異なった率で縮小した際の画像の数を示す。jがJよりも小さい場合にjに1を加え(ステップS1814)、ステップS1806に戻る。一方、jがJ以上である場合には候補とされた画像を人物(歩行者)でないと認識する。そして、スケール化された画像に候補とされる画像があるか否かを判断する(ステップS1815)。あると判断された場合にはステップ1804に戻り、ないと判断された場合にはscale_factorがscale_minより大きいか否かを判断する(ステップS1816)。scale_factorがscale_minより大きいと判断された場合にはscale_factorにscale_stepを掛けてそれをscale_factorとして(ステップS1817)ステップS1803に戻る。一方、ステップS1816においてscale_factorがscale_min以下であると判断された場合には終了し、画像の取得準備にかかる。   On the other hand, when it is determined that the output value is equal to or lower than the first threshold, the output value is determined to be a second threshold (a candidate image is not a person (pedestrian)). It is judged whether it is smaller than (threshold value) (step S1812). When it is determined that the output value is smaller than the second threshold, it is recognized that the person is not a person (pedestrian). On the other hand, if it is determined that the output value is equal to or greater than the second threshold value, it is determined whether j is smaller than J (step S1813). Here, J indicates the number of images when the candidate images are reduced at different rates. When j is smaller than J, 1 is added to j (step S1814), and the process returns to step S1806. On the other hand, if j is greater than or equal to J, the candidate image is recognized as not a person (pedestrian). Then, it is determined whether or not there is a candidate image in the scaled image (step S1815). If it is determined that there is, the process returns to step 1804. If it is determined that there is no scale_factor, it is determined whether or not scale_factor is larger than scale_min (step S1816). When it is determined that scale_factor is larger than scale_min, scale_factor is multiplied by scale_step to set it as scale_factor (step S1817), and the process returns to step S1803. On the other hand, if it is determined in step S1816 that scale_factor is less than or equal to scale_min, the process ends and preparation for image acquisition is performed.

本発明に係る対象物認識装置及び対象物認識方法は、計算負荷を低減して撮影された画像に写った物体が所望の対象物であるか否かを認識できるため、撮影された画像に写った物体が所望の対象物であるか否かを認識する対象物認識装置及び対象物認識方法などに有用である。   The object recognition apparatus and the object recognition method according to the present invention can recognize whether or not an object shown in a photographed image with a reduced calculation load is a desired object. This is useful for an object recognition apparatus and an object recognition method for recognizing whether or not an object is a desired object.

本発明の第1の実施の形態に係る対象物認識装置の構成を示す構成図である。It is a block diagram which shows the structure of the target object recognition apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る対象物認識装置における処理のフローを説明するための図である。It is a figure for demonstrating the flow of the process in the target object recognition apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る対象物認識装置における画像の切出し処理について説明するための図である。It is a figure for demonstrating the cutting-out process of the image in the target object recognition apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る対象物認識装置における候補となる画像の抽出について説明するための図である。It is a figure for demonstrating extraction of the image used as the candidate in the target object recognition apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る対象物認識装置における第1の特徴情報の生成について説明するための図である。It is a figure for demonstrating the production | generation of the 1st feature information in the target object recognition apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る対象物認識装置における第2の特徴情報の生成について説明するための図である。It is a figure for demonstrating the production | generation of the 2nd feature information in the target object recognition apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る対象物認識装置における対象物認識フローの一部について説明するためのフローチャートである。It is a flowchart for demonstrating a part of target object recognition flow in the target object recognition apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る対象物認識装置における対象物認識フローの一部について説明するためのフローチャートである。It is a flowchart for demonstrating a part of target object recognition flow in the target object recognition apparatus which concerns on the 1st Embodiment of this invention. 本発明の第2の実施の形態に係る対象物認識装置の構成を示す構成図である。It is a block diagram which shows the structure of the target object recognition apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施の形態に係る対象物認識装置における処理のフローを説明するための図である。It is a figure for demonstrating the flow of the process in the target object recognition apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施の形態に係る対象物認識装置における対象物認識フローの一部について説明するためのフローチャートである。It is a flowchart for demonstrating a part of target object recognition flow in the target object recognition apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施の形態に係る対象物認識装置における対象物認識フローの一部について説明するためのフローチャートである。It is a flowchart for demonstrating a part of target object recognition flow in the target object recognition apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施の形態に係る対象物認識装置の構成を示す構成図である。It is a block diagram which shows the structure of the target object recognition apparatus which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施の形態に係る対象物認識装置における処理のフローを説明するための図である。It is a figure for demonstrating the flow of the process in the target object recognition apparatus which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施の形態に係る対象物認識装置における処理のフローを説明するための図である。It is a figure for demonstrating the flow of the process in the target object recognition apparatus which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施の形態に係る対象物認識装置における対象物認識フローの一部について説明するためのフローチャートである。It is a flowchart for demonstrating a part of target object recognition flow in the target object recognition apparatus which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施の形態に係る対象物認識装置における対象物認識フローの一部について説明するためのフローチャートである。It is a flowchart for demonstrating a part of target object recognition flow in the target object recognition apparatus which concerns on the 3rd Embodiment of this invention. 本発明の第4の実施の形態に係る対象物認識装置の構成を示す構成図である。It is a block diagram which shows the structure of the target object recognition apparatus which concerns on the 4th Embodiment of this invention. 本発明の第4の実施の形態に係る対象物認識装置における処理のフローを説明するための図である。It is a figure for demonstrating the flow of the process in the target object recognition apparatus which concerns on the 4th Embodiment of this invention. 本発明の第4の実施の形態に係る対象物認識装置における処理のフローを説明するための図である。It is a figure for demonstrating the flow of the process in the target object recognition apparatus which concerns on the 4th Embodiment of this invention. 本発明の第4の実施の形態に係る対象物認識装置における対象物認識フローの一部について説明するためのフローチャートである。It is a flowchart for demonstrating a part of target object recognition flow in the target object recognition apparatus which concerns on the 4th Embodiment of this invention. 本発明の第4の実施の形態に係る対象物認識装置における対象物認識フローの一部について説明するためのフローチャートである。It is a flowchart for demonstrating a part of target object recognition flow in the target object recognition apparatus which concerns on the 4th Embodiment of this invention.

符号の説明Explanation of symbols

100、600、800、900 対象物認識装置
101、601、801、901 画像データ取得手段
102、602、802、902 切出し画像抽出手段
103、603、803、903 第1のフィルター設定手段
104、604、804、904 第1の特徴情報生成手段
105、605、805、905 第2のフィルター設定手段
106、606、806、906 第2の特徴情報生成手段
107、607、807、907 認識手段
109 撮影手段(カメラ)
200、210、220、230 第1のフィルター集合
10、11、12、13、201、202、211、212、221、222、231、232、401、402、411、412、421、422、431、432 フィルター
300、301、302、310、311、312、320、320´、321、321´、322、322´、330、330´、331、331´、332、332´ 第1の特徴情報(特徴マップ)
400、410、420、430 第2のフィルター集合
500、501、502、510、511、512、520、520´、521、521´、522、522´、530、530´、531、531´、532、532´、540 第2の特徴情報(特徴マップ)
700、701、702 ノード
100, 600, 800, 900 Object recognition device 101, 601, 801, 901 Image data acquisition means 102, 602, 802, 902 Cut image extraction means 103, 603, 803, 903 First filter setting means 104, 604, 804, 904 First feature information generating means 105, 605, 805, 905 Second filter setting means 106, 606, 806, 906 Second feature information generating means 107, 607, 807, 907 Recognizing means 109 Imaging means ( camera)
200, 210, 220, 230 First filter set 10, 11, 12, 13, 201, 202, 211, 212, 221, 222, 231, 232, 401, 402, 411, 412, 421, 422, 431, 432 Filter 300, 301, 302, 310, 311, 312, 320, 320 ', 321, 321', 322, 322 ', 330, 330', 331, 331 ', 332, 332' First feature information (feature map)
400, 410, 420, 430 Second filter set 500, 501, 502, 510, 511, 512, 520, 520 ′, 521, 521 ′, 522, 522 ′, 530, 530 ′, 531, 531 ′, 532 532 ′, 540 Second feature information (feature map)
700, 701, 702 nodes

Claims (8)

画像を示す画像データを取得する画像データ取得手段と、
取得された前記画像データに対して、所望の対象物を認識するために、レベルの異なる複数の画像処理手続きを施す画像処理手段と、
前記レベルの異なる複数の画像処理手続きが施された前記画像データの情報に基づいて、各々が特徴的な性質を有する複数の認識器が出力する出力結果によって、前記画像に写っているものが所望の前記対象物であるか否かを認識する認識手段とを備える対象物認識装置において、
前記画像処理手段は、
所望の前記対象物の認識を可能とさせるため、取得された前記画像データに対して、各々が特徴的な性質を有するフィルターの第1のフィルター集合のうち所定のフィルターを設定する第1のフィルター設定手段と、
前記第1のフィルター集合のうち所定のフィルターが設定された前記画像データの特徴を示す第1の特徴情報を生成する第1の特徴情報生成手段と、
所望の前記対象物の認識をさらに可能とさせるため、生成された前記第1の特徴情報及び/又は過去に生成された前記第1の特徴情報に対して、各々が特徴的な性質を有するフィルターの第2のフィルター集合のうち所定のフィルターを設定する第2のフィルター設定手段と、
前記第2のフィルター集合のうち所定のフィルターが設定された前記第1の特徴情報の特徴を示す第2の特徴情報である前記画像処理手続きが施された前記画像データを生成する第2の特徴情報生成手段とを備え、
前記認識手段は、前記画像処理手続きが施された前記画像データのうちの一部の画像データを選択し、選択された前記画像データに基づいて前記画像に写っているものが所望の前記対象物であるか否かを認識し、認識できない場合には認識できるまで、選択された前記画像データ以外の前記画像処理手続きが施された画像データのうちの一部の画像データを選択し、過去に選択された前記画像データ及び新たに選択された前記画像データに基づいて認識を続行することを特徴とする対象物認識装置。
Image data acquisition means for acquiring image data indicating an image;
Image processing means for performing a plurality of image processing procedures at different levels in order to recognize a desired object with respect to the acquired image data;
Based on information of the image data subjected to a plurality of image processing procedures at different levels, it is desirable that the image is reflected in the image according to output results output from a plurality of recognizers each having a characteristic property An object recognition device comprising: a recognition means for recognizing whether or not the object is
The image processing means includes
In order to enable recognition of a desired object, a first filter that sets a predetermined filter in a first filter set of filters each having a characteristic property with respect to the acquired image data. Setting means;
First feature information generating means for generating first feature information indicating a feature of the image data in which a predetermined filter is set in the first filter set;
Filters each having a characteristic property with respect to the first feature information generated and / or the first feature information generated in the past in order to further enable recognition of the desired object. Second filter setting means for setting a predetermined filter in the second filter set;
A second feature for generating the image data subjected to the image processing procedure, which is second feature information indicating a feature of the first feature information in which a predetermined filter is set in the second filter set. Information generating means,
Said recognition means, pre-outs image processing procedure to select a portion of image data among the image data that has been subjected, the one that is reflected in the image is desired on the basis of the image data selected Recognizing whether or not it is an object, until it can be recognized, select some image data of the image data subjected to the image processing procedure other than the selected image data until it can be recognized, An object recognition apparatus characterized in that recognition is continued based on the image data selected in the past and the newly selected image data.
画像を示す画像データを取得する画像データ取得手段と、
取得された前記画像データに対して、所望の対象物を認識するために、レベルの異なる複数の画像処理手続きを施す画像処理手段と、
前記レベルの異なる複数の画像処理手続きが施された前記画像データの情報に基づいて、各々が特徴的な性質を有する複数の認識器が出力する出力結果によって、前記画像に写っているものが所望の前記対象物であるか否かを認識する認識手段とを備える対象物認識装置において、
前記画像処理手段は、
所望の前記対象物の認識を可能とさせるため、取得された前記画像データに対して、各々が特徴的な性質を有するフィルターの第1のフィルター集合のフィルターを設定する第1のフィルター設定手段と、
前記第1のフィルター集合のフィルターが設定された前記画像データの特徴を示す第1の特徴情報を生成する第1の特徴情報生成手段と、
所望の前記対象物の認識をさらに可能とさせるため、生成された前記第1の特徴情報に対して、各々が特徴的な性質を有するフィルターの第2のフィルター集合のフィルターを設定する第2のフィルター設定手段と、
前記第2のフィルター集合のフィルターが設定された前記第1の特徴情報の特徴を示す第2の特徴情報である前記画像処理手続きが施された前記画像データを生成する第2の特徴情報生成手段とを備え、
前記認識手段は、前記複数の認識器のうちの一部の認識器の出力結果によって、前記画像に写っているものが所望の前記対象物であるか否かを認識し、認識できない場合は認識できるまで、前記出力結果が用いられた前記認識器以外の前記複数の認識器のうちの一部の認識器の出力結果及び過去に用いられた前記出力結果に基づいて認識することを特徴とする対象物認識装置。
Image data acquisition means for acquiring image data indicating an image;
Image processing means for performing a plurality of image processing procedures at different levels in order to recognize a desired object with respect to the acquired image data;
Based on information of the image data subjected to a plurality of image processing procedures at different levels, it is desirable that the image is reflected in the image according to output results output from a plurality of recognizers each having a characteristic property An object recognition device comprising: a recognition means for recognizing whether or not the object is
The image processing means includes
First filter setting means for setting a filter of a first filter set of filters each having a characteristic property for the acquired image data in order to enable recognition of a desired object; ,
First feature information generating means for generating first feature information indicating a feature of the image data in which a filter of the first filter set is set;
In order to further enable recognition of the desired object, a second filter set of a second filter set of filters each having a characteristic property is set for the generated first feature information. Filter setting means;
Second feature information generating means for generating the image data subjected to the image processing procedure, which is second feature information indicating the feature of the first feature information in which the filter of the second filter set is set And
The recognizing unit recognizes whether or not an object reflected in the image is a desired object based on an output result of a part of the plurality of recognizing devices. Until possible, the recognition is performed based on the output results of some of the plurality of recognizers other than the recognizer in which the output result is used and the output results used in the past. Object recognition device.
画像を示す画像データを取得する画像データ取得手段と、
取得された前記画像データに対して、所望の対象物を認識するために、レベルの異なる複数の画像処理手続きを施す画像処理手段と、
前記レベルの異なる複数の画像処理手続きが施された前記画像データの情報に基づいて、各々が特徴的な性質を有する複数の認識器が出力する出力結果によって、前記画像に写っているものが所望の前記対象物であるか否かを認識する認識手段とを備える対象物認識装置において、
前記画像処理手段は、
所望の前記対象物の認識を可能とさせるため、取得された前記画像データの一部に対して、各々が特徴的な性質を有するフィルターの第1のフィルター集合のフィルターをそれぞれ設定する第1のフィルター設定手段と、
前記第1のフィルター集合のフィルターが設定された前記画像データの特徴を示す第1の特徴情報を生成する第1の特徴情報生成手段と、
所望の前記対象物の認識をさらに可能とさせるため、生成された前記第1の特徴情報の一部に対して、各々が特徴的な性質を有するフィルターの第2のフィルター集合のフィルターを設定する第2のフィルター設定手段と、
前記第2のフィルター集合のフィルターが設定された前記第1の特徴情報の特徴を示す第2の特徴情報である前記画像処理手続きが施された前記画像データを生成する第2の特徴情報生成手段とを備え、
前記認識手段は、前記画像処理手続きが一部に施された前記画像データの情報に基づいて、各々が特徴的な性質を有する複数の認識器が出力する出力結果によって、前記画像に写っているものが所望の前記対象物であるか否かを認識し、認識できない場合には認識できるまで、前記複数の画像処理手続きが施された前記画像データの一部及び前記複数の画像処理手続きが施された前記画像データの一部以外に新たに前記複数の画像処理手続きが施された部分の情報に基づいて認識することを特徴とする対象物認識装置。
Image data acquisition means for acquiring image data indicating an image;
Image processing means for performing a plurality of image processing procedures at different levels in order to recognize a desired object with respect to the acquired image data;
Based on information of the image data subjected to a plurality of image processing procedures at different levels, it is desirable that the image is reflected in the image according to output results output from a plurality of recognizers each having a characteristic property An object recognition device comprising: a recognition means for recognizing whether or not the object is
The image processing means includes
In order to enable recognition of a desired object, a first filter set of a first filter set of filters each having a characteristic property is set for each part of the acquired image data. Filter setting means;
First feature information generating means for generating first feature information indicating a feature of the image data in which a filter of the first filter set is set;
In order to further enable recognition of the desired object, a filter of a second filter set of filters each having a characteristic property is set for a part of the generated first characteristic information. A second filter setting means;
Second feature information generating means for generating the image data subjected to the image processing procedure, which is second feature information indicating the feature of the first feature information in which the filter of the second filter set is set And
It said recognition means, pre-outs image processing procedure on the basis of the information of the image data subjected to the part by each resulting output to output a plurality of recognizers having characteristic properties, appearing in the image A part of the image data subjected to the plurality of image processing procedures and the plurality of image processing procedures until it can be recognized. And recognizing based on information of a part newly subjected to the plurality of image processing procedures in addition to a part of the image data subjected to.
画像を示す画像データを取得する画像データ取得手段と、
取得された前記画像データに対して、所望の対象物を認識するために、レベルの異なる複数の画像処理手続きを施す画像処理手段と、
前記レベルの異なる複数の画像処理手続きが施された前記画像データの情報に基づいて、各々が特徴的な性質を有する複数の認識器が出力する出力結果によって、前記画像に写っているものが所望の前記対象物であるか否かを認識する認識手段とを備える対象物認識装置において、
前記画像処理手段は、
所望の前記対象物の認識を可能とさせるため、取得された前記画像データに対して、各々が特徴的な性質を有するフィルターの第1のフィルター集合のフィルターをそれぞれ設定する第1のフィルター設定手段と、
前記第1のフィルター集合のフィルターが設定された前記画像を縮小し、縮小された前記画像の特徴を示す第1の特徴情報を生成する第1の特徴情報生成手段と、
所望の前記対象物の認識をさらに可能とさせるため、生成された前記第1の特徴情報に対して、各々が特徴的な性質を有するフィルターの第2のフィルター集合のフィルターを設定する第2のフィルター設定手段と、
前記第2のフィルター集合のフィルターが設定された前記第1の特徴情報の特徴を示す第2の特徴情報である前記画像処理手続きが施された前記画像データを生成する第2の特徴情報生成手段とを備え、
前記認識手段は、前記画像処理手続きが施された前記画像データの情報に基づいて、各々が特徴的な性質を有する複数の認識器が出力する出力結果によって、前記画像に写っているものが所望の前記対象物であるか否かを認識し、認識できない場合には認識できるまで、縮小された前記画像を前記画像処理手段によって順次拡大される画像の画像データの情報に基づいて認識することを特徴とする対象物認識装置。
Image data acquisition means for acquiring image data indicating an image;
Image processing means for performing a plurality of image processing procedures at different levels in order to recognize a desired object with respect to the acquired image data;
Based on information of the image data subjected to a plurality of image processing procedures at different levels, it is desirable that the image is reflected in the image according to output results output from a plurality of recognizers each having a characteristic property An object recognition device comprising: a recognition means for recognizing whether or not the object is
The image processing means includes
First filter setting means for setting a filter of a first filter set of filters each having a characteristic property for the acquired image data in order to enable recognition of a desired object. When,
First feature information generating means for reducing the image in which the filter of the first filter set is set, and generating first feature information indicating the feature of the reduced image;
In order to further enable recognition of the desired object, a second filter set of a second filter set of filters each having a characteristic property is set for the generated first feature information. Filter setting means;
Second feature information generating means for generating the image data subjected to the image processing procedure, which is second feature information indicating the feature of the first feature information in which the filter of the second filter set is set And
Desirably, the recognition means is reflected in the image based on output results output from a plurality of recognizers each having a characteristic property based on information of the image data subjected to the image processing procedure. Whether or not it is the object, and if it cannot be recognized, the reduced image is recognized based on image data information of images sequentially enlarged by the image processing means. Feature object recognition device.
画像を示す画像データを取得するステップと、
取得された前記画像データに対して、所望の対象物を認識するために、レベルの異なる複数の画像処理手続きを施すステップと、
前記レベルの異なる複数の画像処理手続きが施された前記画像データの情報に基づいて、各々が特徴的な性質を有する複数の認識器が出力する出力結果によって、前記画像に写っているものが所望の前記対象物であるか否かを認識するステップとを有する対象物認識方法において、
前記画像処理手続きを施すステップは、
所望の前記対象物の認識を可能とさせるため、取得された前記画像データに対して、各々が特徴的な性質を有するフィルターの第1のフィルター集合のうち所定のフィルターを設定するステップと、
前記第1のフィルター集合のうち所定のフィルターが設定された前記画像データの特徴を示す第1の特徴情報を生成するステップと、
所望の前記対象物の認識をさらに可能とさせるため、生成された前記第1の特徴情報及び/又は過去に生成された前記第1の特徴情報に対して、各々が特徴的な性質を有するフィルターの第2のフィルター集合のうち所定のフィルターを設定するステップと、
前記第2のフィルター集合のうち所定のフィルターが設定された前記第1の特徴情報の特徴を示す第2の特徴情報である前記画像処理手続きが施された前記画像データを生成するステップとからなり、
前記認識するステップにおいては、前記画像処理手続きが施された前記画像データのうちの一部の画像データを選択し、選択された前記画像データに基づいて前記画像に写っているものが所望の前記対象物であるか否かを認識し、認識できない場合には認識できるまで、選択された前記画像データ以外の前記画像処理手続きが施された画像データのうちの一部の画像データを選択し、過去に選択された前記画像データ及び新たに選択された前記画像データに基づいて認識を続行することを特徴とする対象物認識方法。
Obtaining image data representing an image;
Performing a plurality of image processing procedures at different levels in order to recognize a desired object with respect to the acquired image data;
Based on information of the image data subjected to a plurality of image processing procedures at different levels, it is desirable that the image is reflected in the image according to output results output from a plurality of recognizers each having a characteristic property Recognizing whether or not the object is a target object,
The step of applying the image processing procedure includes:
Setting a predetermined filter in a first filter set of filters each having a characteristic property for the acquired image data in order to enable recognition of a desired object;
Generating first characteristic information indicating characteristics of the image data in which a predetermined filter is set in the first filter set;
Filters each having a characteristic property with respect to the first feature information generated and / or the first feature information generated in the past in order to further enable recognition of the desired object. Setting a predetermined filter in the second filter set of:
Generating the image data subjected to the image processing procedure, which is second feature information indicating the feature of the first feature information in which a predetermined filter is set in the second filter set. ,
In the step of recognizing, selecting a part of the image data among the image data pre-outs image processing procedure has been performed, what is reflected in the image based on the image data selected desired If it cannot be recognized, select some image data of the image data subjected to the image processing procedure other than the selected image data until it can be recognized. Then, recognition is continued based on the image data selected in the past and the newly selected image data.
画像を示す画像データを取得するステップと、
取得された前記画像データに対して、所望の対象物を認識するために、レベルの異なる複数の画像処理手続きを施すステップと、
前記レベルの異なる複数の画像処理手続きが施された前記画像データの情報に基づいて、各々が特徴的な性質を有する複数の認識器が出力する出力結果によって、前記画像に写っているものが所望の前記対象物であるか否かを認識するステップとを有する対象物認識方法において、
前記画像処理手続きを施すステップは、
所望の前記対象物の認識を可能とさせるため、取得された前記画像データに対して、各々が特徴的な性質を有するフィルターの第1のフィルター集合のフィルターを設定するステップと、
前記第1のフィルター集合のフィルターが設定された前記画像データの特徴を示す第1の特徴情報を生成するステップと、
所望の前記対象物の認識をさらに可能とさせるため、生成された前記第1の特徴情報に対して、各々が特徴的な性質を有するフィルターの第2のフィルター集合のフィルターを設定するステップと、
前記第2のフィルター集合のフィルターが設定された前記第1の特徴情報の特徴を示す第2の特徴情報である前記画像処理手続きが施された前記画像データを生成するステップとからなり、
前記認識するステップにおいては、前記複数の認識器のうちの一部の認識器の出力結果によって、前記画像に写っているものが所望の前記対象物であるか否かを認識し、認識できない場合は認識できるまで、前記出力結果が用いられた前記認識器以外の前記複数の認識器のうちの一部の認識器の出力結果及び過去に用いられた前記出力結果に基づいて認識することを特徴とする対象物認識方法。
Obtaining image data representing an image;
Performing a plurality of image processing procedures at different levels in order to recognize a desired object with respect to the acquired image data;
Based on information of the image data subjected to a plurality of image processing procedures at different levels, it is desirable that the image is reflected in the image according to output results output from a plurality of recognizers each having a characteristic property Recognizing whether or not the object is a target object,
The step of applying the image processing procedure includes:
Setting a filter of a first filter set of filters each having a characteristic property for the acquired image data to enable recognition of the desired object;
Generating first feature information indicating features of the image data in which a filter of the first filter set is set;
Setting a filter of a second filter set of filters each having a characteristic property for the generated first feature information to further enable recognition of the desired object;
Generating the image data subjected to the image processing procedure that is the second feature information indicating the feature of the first feature information in which the filter of the second filter set is set,
In the step of recognizing, if it is not possible to recognize whether or not what is reflected in the image is the desired object based on the output result of some of the plurality of recognizers Is recognized based on the output results of some recognizers of the plurality of recognizers other than the recognizer in which the output result is used and the output results used in the past until it can be recognized. The object recognition method.
画像を示す画像データを取得するステップと、
取得された前記画像データに対して、所望の対象物を認識するために、レベルの異なる複数の画像処理手続きを施すステップと、
前記レベルの異なる複数の画像処理手続きが施された前記画像データの情報に基づいて、各々が特徴的な性質を有する複数の認識器が出力する出力結果によって、前記画像に写っているものが所望の前記対象物であるか否かを認識するステップとを有する対象物認識方法において、
前記画像処理手続きを施すステップは
所望の前記対象物の認識を可能とさせるため、取得された前記画像データの一部に対して、各々が特徴的な性質を有するフィルターの第1のフィルター集合のフィルターをそれぞれ設定するステップと、
前記第1のフィルター集合のフィルターが設定された前記画像データの特徴を示す第1の特徴情報を生成するステップと、
所望の前記対象物の認識をさらに可能とさせるため、生成された前記第1の特徴情報の一部に対して、各々が特徴的な性質を有するフィルターの第2のフィルター集合のフィルターを設定するステップと、
前記第2のフィルター集合のフィルターが設定された前記第1の特徴情報の特徴を示す第2の特徴情報である前記画像処理手続きが施された前記画像データを生成するステップとからなり、
前記認識するステップにおいては、前記画像処理手続きが一部に施された前記画像データの情報に基づいて、各々が特徴的な性質を有する複数の認識器が出力する出力結果によって、前記画像に写っているものが所望の前記対象物であるか否かを認識し、認識できない場合には認識できるまで、前記複数の画像処理手続きが施された前記画像データの一部及び前記複数の画像処理手続きが施された前記画像データの一部以外に新たに前記複数の画像処理手続きが施された部分の情報に基づいて認識することを特徴とする対象物認識方法。
Obtaining image data representing an image;
Performing a plurality of image processing procedures at different levels in order to recognize a desired object with respect to the acquired image data;
Based on information of the image data subjected to a plurality of image processing procedures at different levels, it is desirable that the image is reflected in the image according to output results output from a plurality of recognizers each having a characteristic property Recognizing whether or not the object is a target object,
Steps to perform the image processing procedure,
Setting a filter of a first filter set of filters each having a characteristic property for a part of the acquired image data in order to enable recognition of a desired object;
Generating first feature information indicating features of the image data in which a filter of the first filter set is set;
In order to further enable recognition of the desired object, a filter of a second filter set of filters each having a characteristic property is set for a part of the generated first characteristic information. Steps,
Generating the image data subjected to the image processing procedure that is the second feature information indicating the feature of the first feature information in which the filter of the second filter set is set,
In the step of recognizing, by pre-outs image processing procedure on the basis of the information of the image data subjected to some, each of which outputs a plurality of recognizers with characteristic properties output result, the image The part of the image data that has been subjected to the plurality of image processing procedures and the plurality of images until it can be recognized if it can not be recognized. An object recognition method comprising: recognizing based on information on a part newly subjected to the plurality of image processing procedures in addition to a part of the image data subjected to the processing procedure.
画像を示す画像データを取得するステップと、
取得された前記画像データに対して、所望の対象物を認識するために、レベルの異なる複数の画像処理手続きを施すステップと、
前記レベルの異なる複数の画像処理手続きが施された前記画像データの情報に基づいて、各々が特徴的な性質を有する複数の認識器が出力する出力結果によって、前記画像に写っているものが所望の前記対象物であるか否かを認識するステップとを有する対象物認識装置において、
前記画像処理手続きを施すステップは
所望の前記対象物の認識を可能とさせるため、取得された前記画像データに対して、各々が特徴的な性質を有するフィルターの第1のフィルター集合のフィルターをそれぞれ設定するステップと、
前記第1のフィルター集合のフィルターが設定された前記画像を縮小し、縮小された前記画像の特徴を示す第1の特徴情報を生成するステップと、
所望の前記対象物の認識をさらに可能とさせるため、生成された前記第1の特徴情報に対して、各々が特徴的な性質を有するフィルターの第2のフィルター集合のフィルターを設定するステップと、
前記第2のフィルター集合のフィルターが設定された前記第1の特徴情報の特徴を示す第2の特徴情報である前記画像処理手続きが施された前記画像データを生成するステップとからなり、
前記認識するステップにおいては、前記画像処理手続きが施された前記画像データの情報に基づいて、各々が特徴的な性質を有する複数の認識器が出力する出力結果によって、前記画像に写っているものが所望の前記対象物であるか否かを認識し、認識できない場合には認識できるまで、縮小された前記画像を前記画像処理手段によって順次拡大される画像の画像データの情報に基づいて認識することを特徴とする対象物認識方法。
Obtaining image data representing an image;
Performing a plurality of image processing procedures at different levels in order to recognize a desired object with respect to the acquired image data;
Based on information of the image data subjected to a plurality of image processing procedures at different levels, it is desirable that the image is reflected in the image according to output results output from a plurality of recognizers each having a characteristic property Recognizing whether or not the object is a target object,
Steps to perform the image processing procedure,
Setting each filter of a first filter set of filters each having a characteristic property for the acquired image data in order to enable recognition of a desired object;
Reducing the image in which the filter of the first filter set is set, and generating first feature information indicating features of the reduced image;
Setting a filter of a second filter set of filters each having a characteristic property for the generated first feature information to further enable recognition of the desired object;
Generating the image data subjected to the image processing procedure that is the second feature information indicating the feature of the first feature information in which the filter of the second filter set is set,
In the recognizing step, based on the information of the image data subjected to the image processing procedure , the image is reflected in the image by output results output from a plurality of recognizers each having a characteristic property Is recognized based on the information of the image data of the images sequentially enlarged by the image processing means until it can be recognized if it cannot be recognized. An object recognition method characterized by the above.
JP2005103351A 2005-03-31 2005-03-31 Object recognition device and object recognition method Expired - Fee Related JP4652101B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005103351A JP4652101B2 (en) 2005-03-31 2005-03-31 Object recognition device and object recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005103351A JP4652101B2 (en) 2005-03-31 2005-03-31 Object recognition device and object recognition method

Publications (2)

Publication Number Publication Date
JP2006285543A JP2006285543A (en) 2006-10-19
JP4652101B2 true JP4652101B2 (en) 2011-03-16

Family

ID=37407419

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005103351A Expired - Fee Related JP4652101B2 (en) 2005-03-31 2005-03-31 Object recognition device and object recognition method

Country Status (1)

Country Link
JP (1) JP4652101B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005044330A (en) * 2003-07-24 2005-02-17 Univ Of California San Diego Weak hypothesis generation device and method, learning device and method, detection device and method, expression learning device and method, expression recognition device and method, and robot device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005044330A (en) * 2003-07-24 2005-02-17 Univ Of California San Diego Weak hypothesis generation device and method, learning device and method, detection device and method, expression learning device and method, expression recognition device and method, and robot device

Also Published As

Publication number Publication date
JP2006285543A (en) 2006-10-19

Similar Documents

Publication Publication Date Title
CN111461319B (en) CNN-based object detection method and device capable of adapting to user requirements
CN114758383A (en) Expression recognition method based on attention modulation context spatial information
CN110163213B (en) Remote sensing image segmentation method based on disparity map and multi-scale depth network model
JP2006059351A (en) Deterioration dictionary generation program, method and device
CN110580704A (en) ET cell image automatic segmentation method and system based on convolutional neural network
CN113033553B (en) Multi-mode fusion fire detection method, device, related equipment and storage medium
CN114943963A (en) Remote sensing image cloud and cloud shadow segmentation method based on double-branch fusion network
EP3686794A1 (en) Learning method and learning device for cnn using 1xk or kx1 convolution to be used for hardware optimization, and testing method and testing device using the same
CN113066089B (en) Real-time image semantic segmentation method based on attention guide mechanism
CN115375999B (en) Target detection model, method and device applied to hazardous chemical vehicle detection
CN114332133A (en) New coronary pneumonia CT image infected area segmentation method and system based on improved CE-Net
CN114037640A (en) Image generation method and device
CN116469100A (en) Dual-band image semantic segmentation method based on Transformer
CN112580381A (en) Two-dimensional code super-resolution reconstruction enhancing method and system based on deep learning
CN114255456A (en) Natural scene text detection method and system based on attention mechanism feature fusion and enhancement
CN115424017A (en) Building internal and external contour segmentation method, device and storage medium
CN117496347A (en) Remote sensing image building extraction method, device and medium
CN115588013A (en) Image segmentation method based on full-scale fusion and flow field attention
CN115526777A (en) Blind over-separation network establishing method, blind over-separation method and storage medium
CN115984714B (en) Cloud detection method based on dual-branch network model
JP4652101B2 (en) Object recognition device and object recognition method
CN116778165A (en) Remote sensing image disaster detection method based on multi-scale self-adaptive semantic segmentation
CN116665053A (en) High-resolution remote sensing image building identification method and system considering shadow information
CN115423788A (en) Digestive tract recognition system and method based on deep learning
Yasser et al. Egyart_classify: an approach to classify outpainted Egyptian monuments images using GAN and ResNet

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101126

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101215

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4652101

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131224

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131224

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees