JP2007072665A - Object discrimination device, object discrimination method and object discrimination program - Google Patents

Object discrimination device, object discrimination method and object discrimination program Download PDF

Info

Publication number
JP2007072665A
JP2007072665A JP2005257721A JP2005257721A JP2007072665A JP 2007072665 A JP2007072665 A JP 2007072665A JP 2005257721 A JP2005257721 A JP 2005257721A JP 2005257721 A JP2005257721 A JP 2005257721A JP 2007072665 A JP2007072665 A JP 2007072665A
Authority
JP
Japan
Prior art keywords
template
distance
image
templates
discriminating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005257721A
Other languages
Japanese (ja)
Other versions
JP2007072665A5 (en
Inventor
Katsumi Sakata
克己 阪田
Minoru Fujioka
稔 藤岡
Koji Yamashita
浩嗣 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2005257721A priority Critical patent/JP2007072665A/en
Publication of JP2007072665A publication Critical patent/JP2007072665A/en
Publication of JP2007072665A5 publication Critical patent/JP2007072665A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To efficiently discriminate an object by a pattern matching method. <P>SOLUTION: This object discrimination device stores a plurality of templates for each distance to an object to be discriminated. Then, when detecting the object to be discriminated from an image by a background difference method or a conspicuous calculation method, the object discrimination device detects the distance to the object, and selects the template corresponding to the distance. Then, the object discrimination device discriminates the object by applying the template to the object detected from the image as the object to be discriminated. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は、画像内の所定の領域にテンプレートをあてはめて当該領域内の物体を判別する物体判別装置、物体判別方法および物体判別プログラムに関する。   The present invention relates to an object discriminating apparatus, an object discriminating method, and an object discriminating program for applying a template to a predetermined area in an image and discriminating an object in the area.

従来より、例えば、車両走行の障害となりうる物体を検出し、その物体との衝突を回避する技術が開発されてきている。そこで、そのような車両周辺にある障害物となるような物体を検出するために、カメラなどを用いて車両周辺を撮影しておき、撮像した画像を処理する技術が存在する。その画像内に映し出された物体を検出する方法として、例えば、背景差分法がある。このような、背景差分法では、現入力されている現画像とその直前に入力されていた直前画像との各画素を比較し、差分が抽出された領域に直前画像では見られなかった物体が存在するものとし、その物体を走行障害の候補になるものとして画像内から検出している。このような方法を用いれば、走行障害の候補となる物体は検出されるが、検出された物体がどのようなものであるかが未だ判明しない。   2. Description of the Related Art Conventionally, for example, a technique for detecting an object that can be an obstacle to vehicle travel and avoiding a collision with the object has been developed. Therefore, in order to detect such an object that is an obstacle around the vehicle, there is a technique for photographing the periphery of the vehicle using a camera or the like and processing the captured image. As a method for detecting an object projected in the image, for example, there is a background subtraction method. In such a background difference method, each pixel of the current image currently input and the immediately preceding image input immediately before is compared, and an object that is not seen in the immediately preceding image is found in the region where the difference is extracted. It is assumed that the object exists, and the object is detected from the image as a candidate for a travel obstacle. If such a method is used, an object that is a candidate for a running obstacle is detected, but it is still unclear what the detected object is.

そこで、画像内から検出された走行障害の候補となる物体に対し、その物体が何であるかを判別する画像処理手法としてパターンマッチング手法(テンプレートマッチング手法)がある(例えば、特許文献1参照)。このパターンマッチング方法では、画像内から検出された走行障害の候補となる物体にテンプレートをあてはめて、その物体が特定の物体(例えば、歩行者)であるか否かをテンプレートと候補物体との一致度合によって判別する画像処理を行っている。   Thus, there is a pattern matching method (template matching method) as an image processing method for determining what the object is as a candidate for a running obstacle detected from within an image (see, for example, Patent Document 1). In this pattern matching method, a template is applied to an object that is a candidate for a running obstacle detected from within an image, and whether or not the object is a specific object (for example, a pedestrian) matches the template and the candidate object. Image processing is performed to determine the degree.

特開昭59−226981号公報JP 59-226981 A 特開2002−99997号公報JP 2002-99997 A

ところで、上記した従来の技術は、以下に説明するように、パターンマッチング手法による物体判別の効率性に問題がある。   By the way, the above-described conventional technique has a problem in the efficiency of object discrimination by the pattern matching method as described below.

すなわち、上記した従来の技術であるパターンマッチング手法では、あらかじめ記憶しているテンプレートの中から、判別の対象となる物体までの距離に合わせてテンプレートを選択することなく、全てのテンプレートをあてはめて判別を行っていたので、その効率性に問題がある。   That is, in the conventional pattern matching method described above, discrimination is performed by applying all templates without selecting a template according to the distance to the object to be discriminated from templates stored in advance. There is a problem with its efficiency.

なお、車載用の監視カメラなどで撮像された画像内に映し出された物体をパターンマッチング手法によって判別する場合に、一定間隔で入力される画像に対して物体判別を効率的に行えないのでは、画像内の物体判別が間に合わない場合も考えられ、車両運転中に危険を予測し、いち早く危険を回避する上でも問題がある。   In addition, when discriminating an object projected in an image captured by an in-vehicle surveillance camera or the like by a pattern matching method, it is not possible to efficiently discriminate the object from images input at a fixed interval. There may be a case where the object discrimination in the image is not in time, and there is a problem in predicting the danger while driving the vehicle and avoiding the danger as soon as possible.

また、道路上の歩行者などをテンプレートマッチングで認識する技術も存在する(例えば、特許文献2参照)。これによれば、画像内で認識された道路を所定の領域に分割し、その領域ごとに見合ったテンプレートをあてはめるようにする技術が開示されている。   There is also a technique for recognizing a pedestrian on a road by template matching (see, for example, Patent Document 2). According to this, a technique is disclosed in which a road recognized in an image is divided into predetermined regions and a template suitable for each region is applied.

しかしながら、このような手法では、道路領域を検出することが前提であるため、例えば、駐車場や夜間などでは、画像内で道路領域を検出するのが困難であるため、結局そのような場合、道路領域に応じたテンプレートマッチングができないという問題点がある。さらに、画像内に物体が存在しなくてもテンプレートマッチングを行うので、処理が非効率になるという問題点もある。   However, in such a method, since it is premised on detecting a road area, for example, in a parking lot or at night, it is difficult to detect a road area in an image. There is a problem that template matching according to the road area cannot be performed. Furthermore, since template matching is performed even if no object exists in the image, there is a problem that processing becomes inefficient.

そこで、この発明は、上述した従来技術の課題を解決するためになされたものであり、パターンマッチング手法による物体判別を効率的に行うことが可能な物体判別装置、物体判別方法および物体判別プログラムを提供することを目的とする。   Accordingly, the present invention has been made to solve the above-described problems of the prior art, and provides an object discrimination device, an object discrimination method, and an object discrimination program capable of efficiently performing object discrimination by a pattern matching technique. The purpose is to provide.

上述した課題を解決し、目的を達成するため、請求項1に係る発明は、画像内にテンプレートをあてはめて、検出された物体を判別する物体判別装置において、前記判別の対象となる物体までの距離ごとに複数のテンプレートを記憶するテンプレート記憶手段と、前記テンプレート記憶手段に記憶されたテンプレートの中から、前記物体までの距離を検出し、当該距離に対応したテンプレートを選択するテンプレート選択手段と、前記テンプレート選択手段によって選択されたテンプレートを、前記画像内にあてはめて前記物体を判別する物体判別手段と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, the invention according to claim 1 is an object discrimination device that applies a template in an image and discriminates a detected object, up to the object to be discriminated. A template storage means for storing a plurality of templates for each distance; a template selection means for detecting a distance to the object from the templates stored in the template storage means; and selecting a template corresponding to the distance; And an object discriminating unit that discriminates the object by applying the template selected by the template selecting unit in the image.

また、請求項2に係る発明は、上記の発明において、前記テンプレート記憶手段は、前記判別の対象となる物体までの距離および物体の種別ごとに複数のテンプレートを記憶し、前記テンプレート選択手段は、前記テンプレート記憶手段に記憶されたテンプレートの中から、前記画像内の物体までの距離を検出し、当該距離に対応したテンプレートを前記物体の種別ごとに選択し、前記物体判別手段は、前記テンプレート選択手段によって選択された各種別のテンプレートを、前記画像内にあてはめて前記物体を判別することを特徴とする。   In the invention according to claim 2, in the above invention, the template storage unit stores a plurality of templates for each distance to the object to be determined and the type of the object, and the template selection unit includes: A distance to an object in the image is detected from the templates stored in the template storage means, a template corresponding to the distance is selected for each type of the object, and the object determination means is the template selection Various types of templates selected by the means are applied in the image to discriminate the object.

また、請求項3に係る発明は、上記の発明において、前記テンプレート記憶手段は、前記判別の対象となる物体までの距離および物体の大きさごとに複数のテンプレートを記憶し、前記テンプレート選択手段は、前記テンプレート記憶手段に記憶されたテンプレートの中から、前記物体までの距離および大きさを検出し、当該距離および大きさに対応したテンプレートを選択し、前記物体判別手段は、前記テンプレート選択手段によって選択されたテンプレートを、前記画像内にあてはめて前記物体を判別することを特徴とする。   According to a third aspect of the present invention, in the above invention, the template storage means stores a plurality of templates for each distance to the object to be determined and the size of the object, and the template selection means Detecting the distance and size to the object from the templates stored in the template storage means, selecting a template corresponding to the distance and size, and the object determination means by the template selection means The selected template is applied to the image to discriminate the object.

また、請求項4に係る発明は、上記の発明において、前記テンプレート記憶手段は、前記判別の対象となる物体について態様の異なる一群のテンプレートを所定の距離ごとに記憶し、前記テンプレート選択手段は、前記テンプレート記憶手段に記憶されたテンプレートの中から、前記物体までの距離を検出し、当該距離に対応した前記態様の異なる一群のテンプレートを選択し、前記物体判別手段は、前記テンプレート選択手段によって選択された前記態様の異なる一群のテンプレートを、前記画像内にあてはめて前記物体を判別することを特徴とする。   According to a fourth aspect of the present invention, in the above invention, the template storage unit stores a group of templates having different aspects with respect to the object to be determined for each predetermined distance, and the template selection unit includes: The distance to the object is detected from the templates stored in the template storage means, and a group of templates having different modes corresponding to the distance is selected, and the object determination means is selected by the template selection means. The group of different templates having different modes is applied to the image to discriminate the object.

また、請求項5に係る発明は、上記の発明において、前記画像内に前記判別の対象となる複数の物体がそれぞれ存在する場合に、いずれの物体から順次優先的に前記テンプレートをあてはめるかを規定した優先情報と、前記テンプレート選択手段によって選択されたテンプレートを、前記優先情報に基づいて、前記画像内で順次優先的にあてはめるように制御する優先制御手段と、をさらに備えたことを特徴とする。   According to a fifth aspect of the present invention, in the above invention, when there are a plurality of objects to be discriminated in the image, from which object the template is preferentially applied. And priority control means for controlling the templates selected by the template selection means so as to be preferentially applied within the image based on the priority information. .

また、請求項6に係る発明は、上記の発明において、前記優先情報は、前記判別の対象となる物体までの距離が最小である当該物体から順次優先的に前記テンプレートをあてはめる旨を規定し、前記優先制御手段は、前記テンプレート選択手段によって選択されたテンプレートを、前記優先情報に基づいて、前記判別の対象となる物体までの距離が最小である当該物体から順次優先的にあてはめるように制御することを特徴とする。   Further, in the invention according to claim 6, in the above invention, the priority information prescribes that the template is sequentially applied preferentially from the object having the smallest distance to the object to be determined, The priority control means controls the templates selected by the template selection means so as to be preferentially assigned based on the priority information from the object having the smallest distance to the object to be determined. It is characterized by that.

また、請求項7に係る発明は、上記の発明において、前記優先制御手段は、前記テンプレート選択手段によって選択されたテンプレートを、次画像が入力されるまで、前記優先情報に基づいて、前記画像内の所定の領域にあてはめるように制御することを特徴とする。   The invention according to claim 7 is the above invention, wherein the priority control means selects the template selected by the template selection means based on the priority information until the next image is input. The control is performed so as to be applied to a predetermined area.

また、請求項8に係る発明は、上記の発明において、画像内にテンプレートをあてはめて、検出された物体を判別する物体判別方法において、前記判別の対象となる物体までの距離ごとに複数のテンプレートを記憶するテンプレート記憶工程と、前記テンプレート記憶手段に記憶されたテンプレートの中から、前記物体までの距離を検出し、当該距離に対応したテンプレートを選択するテンプレート選択工程と、前記テンプレート選択手段によって選択されたテンプレートを、前記画像内にあてはめて前記物体を判別する物体判別工程と、を備えたことを特徴とする。   The invention according to claim 8 is the object discrimination method for discriminating a detected object by applying a template in an image according to the above invention, wherein a plurality of templates are provided for each distance to the object to be discriminated. A template storing step for storing the template, a template selecting step for detecting a distance to the object from the templates stored in the template storing means, and selecting a template corresponding to the distance, and selecting by the template selecting means And an object discriminating step for discriminating the object by applying the template to the image.

また、請求項9に係る発明は、上記の発明において、画像内にテンプレートをあてはめて、検出された物体を判別する方法をコンピュータに実行させる物体判別プログラムにおいて、前記判別の対象となる物体までの距離ごとに複数のテンプレートを記憶するテンプレート記憶手順と、前記テンプレート記憶手段に記憶されたテンプレートの中から、前記物体までの距離を検出し、当該距離に対応したテンプレートを選択するテンプレート選択手順と、前記テンプレート選択手段によって選択されたテンプレートを、前記画像内にあてはめて前記物体を判別する物体判別手順と、をコンピュータに実行させることを特徴とする。   According to a ninth aspect of the present invention, in the above-described invention, in the object determination program for applying a template in an image and causing a computer to execute a method of determining a detected object, the object to the object to be determined is determined. A template storage procedure for storing a plurality of templates for each distance; a template selection procedure for detecting a distance to the object from the templates stored in the template storage means; and selecting a template corresponding to the distance; An object discriminating procedure for discriminating the object by applying the template selected by the template selecting means in the image is executed by a computer.

請求項1、8および9の発明によれば、この物体判別装置は、判別の対象となる画像内の物体までの距離ごとに複数のテンプレート記憶し、画像内に映し出された物体までの距離を検出し、その距離に合わせたテンプレートを選択してから、そのテンプレートをあてはめることにより物体判別を行うので、パターンマッチング手法による物体判別を効率的に行うことが可能となる。さらに、この物体判別装置は、画像内の物体を検出し、検出された物体までの距離に基づいてパターンマッチングを行うので、道路領域が特定できなくとも効率よくテンプレートマッチングを行うことができ、物体が検出されたかどうかに関わらずテンプレートマッチングを行うのに比べ処理効率をよくすることが可能となる。   According to the first, eighth, and ninth aspects of the invention, the object discriminating apparatus stores a plurality of templates for each distance to the object in the image to be discriminated, and calculates the distance to the object displayed in the image. Since the object is discriminated by applying the template after detecting and selecting a template according to the distance, the object discrimination by the pattern matching method can be performed efficiently. Furthermore, since this object discrimination device detects an object in the image and performs pattern matching based on the distance to the detected object, template matching can be performed efficiently even if the road region cannot be specified. Regardless of whether or not is detected, the processing efficiency can be improved as compared with the template matching.

また、請求項2の発明によれば、この物体判別装置は、判別の対象となる画像内の物体までの距離および物体の種別ごとに複数のテンプレート(例えば、人を判別するテンプレートとして子供用や大人用テンプレート)記憶し、画像内に映し出された物体までの距離を検出し、その距離に合わせたテンプレートを種類別に選択してから、それらのテンプレートをあてはめることにより物体判別を行うので、パターンマッチング手法による物体判別を種別の異なるものについても効率的に行うことが可能となる。   Further, according to the invention of claim 2, the object discriminating device is provided with a plurality of templates (for example, for children as templates for discriminating people, for each distance to the object in the image to be discriminated and for each type of the object. (Template for adult) Memorize and detect the distance to the object shown in the image, select the template according to the distance, and then apply the template to perform object discrimination, so pattern matching It is possible to efficiently perform object discrimination by the method even for different types.

また、請求項3の発明によれば、この物体判別装置は、判別の対象となる画像内の物体までの距離および物体の大きさごとに複数のテンプレートを記憶し、画像内に映し出された物体までの距離および大きさを検出し、その距離および大きさに合わせたテンプレートを選択してから、そのテンプレートをあてはめることにより物体判別を行うので、パターンマッチング手法による物体判別を物体の大きさも考慮してより効率的に行うことが可能となる。   According to the invention of claim 3, the object discriminating apparatus stores a plurality of templates for each distance to the object in the image to be discriminated and the size of the object, and the object displayed in the image The object is discriminated by applying the template after selecting the template according to the distance and size, and then selecting the template according to the distance and size. More efficiently.

また、請求項4の発明によれば、この物体判別装置は、判別の対象となる物体について態様の異なる一群のテンプレート(例えば、立ち止まっている人を判別するテンプレートや走っている人を判別するテンプレート)を判別の対象となる画像内の物体までの距離ごとに記憶し、画像内に映し出された物体までの距離を検出し、その距離に合わせてこれら態様の異なる一群のテンプレートを選択してから、これら一群のテンプレートをあてはめることにより物体判別を行うので、パターンマッチング手法による物体判別を物体の態様も踏まえて効率的に行うことが可能となる。   According to the invention of claim 4, this object discriminating apparatus is a group of templates having different modes with respect to an object to be discriminated (for example, a template for discriminating a person who is stopped or a template for discriminating a running person). ) Is stored for each distance to the object in the image to be discriminated, the distance to the object shown in the image is detected, and a group of templates having different modes is selected according to the distance. Since the object discrimination is performed by applying these group of templates, the object discrimination by the pattern matching method can be efficiently performed based on the object mode.

また、請求項5の発明によれば、この物体判別装置は、画像内に判別の対象となる物体が複数存在する場合に、いずれの領域から優先的にテンプレートをあてはめて物体判別を行うかを規定した優先情報(例えば、優先テーブル)に基づいて、順次優先的に上記のような様々な要因(例えば、物体までの距離や物体の大きさ)に合わせて選択したテンプレートをあてはめることにより物体判別を行うので、優先的に物体判別を行うべき画像内の領域からテンプレートをあてはめて物体判別を行うことができ、物体判別をより効率的に行うことが可能となる。   According to the invention of claim 5, the object discriminating apparatus determines from which region a template is preferentially applied to perform object discrimination when there are a plurality of objects to be discriminated in the image. Based on the specified priority information (for example, priority table), the object is discriminated by applying a template selected according to various factors (for example, the distance to the object and the size of the object) in order. Therefore, it is possible to perform object discrimination by applying a template from a region in the image where the object discrimination should be performed with priority, and the object discrimination can be performed more efficiently.

また、請求項6の発明によれば、この物体判別装置は、画像内に判別の対象となる物体が複数存在する場合に、物体までの距離が最小である物体から優先的にテンプレートをあてはめて物体判別を行うように規定した優先情報に基づいて、順次優先的にテンプレートをあてはめて物体判別を行うので、物体判別の必要性の高い近距離の物体からより効率的に物体判別を行うことが可能となる。   According to the invention of claim 6, when there are a plurality of objects to be discriminated in the image, the object discriminating device preferentially applies the template from the object having the smallest distance to the object. Based on the priority information specified to perform object discrimination, templates are preferentially assigned to perform object discrimination, so that it is possible to more efficiently perform object discrimination from near-distance objects that have high object discrimination needs. It becomes possible.

また、請求項7の発明によれば、この物体判別装置は、次の画像が入力されるまで、優先情報に基づいて、順次優先的に上記のような様々な要因(例えば、物体までの距離や物体の大きさ)に合わせて選択したテンプレートをあてはめることにより物体判別を行うので、現時点で行っている処理より優先すべき次の画像に対して物体判別を開始することが可能となる。   Further, according to the invention of claim 7, the object discriminating apparatus sequentially gives priority to various factors as described above (for example, the distance to the object) based on the priority information until the next image is input. Since the object determination is performed by applying a template selected in accordance with the size of the object and the size of the object, it is possible to start the object determination for the next image that should be prioritized over the current processing.

以下に添付図面を参照して、この発明に係る物体判別装置、物体判別方法および物体判別プログラムの実施例を詳細に説明する。   Exemplary embodiments of an object discrimination device, an object discrimination method, and an object discrimination program according to the present invention will be described below in detail with reference to the accompanying drawings.

以下の実施例1では、実施例1に係る物体判別装置の概要および特徴、物体判別装置の構成および処理の流れを順に説明し、最後に実施例1による効果を説明する。なお、以下では、車載の撮像装置によって撮像された画像内の物体を判別する場合の実施例について説明する。   In the following first embodiment, the outline and features of the object discriminating apparatus according to the first embodiment, the configuration of the object discriminating apparatus, and the flow of processing will be described in order, and finally the effects of the first embodiment will be described. In the following, an example in which an object in an image captured by an in-vehicle imaging device is determined will be described.

[物体判別装置の概要および特徴(実施例1)]
まず最初に、図1を用いて、実施例1に係る物体判別装置の概要および特徴を説明する。図1は、実施例1に係る物体判別装置の概要を説明するための図である。同図に示すように、実施例1に係る物体判別装置は、画像内にテンプレートをあてはめて、検出された物体を判別するものであるが、画像内から判別の対象として検出された物体までの距離を検出し、その距離に合わせて選択したテンプレートをあてはめて物体判別を行う点に主たる特徴があり、これにより物体判別を効率的に行うことができるようにしている。
[Outline and Features of Object Discriminating Device (Example 1)]
First, the outline and features of the object discrimination device according to the first embodiment will be described with reference to FIG. FIG. 1 is a diagram for explaining the outline of the object determination device according to the first embodiment. As shown in the figure, the object discriminating apparatus according to the first embodiment applies a template in an image to discriminate a detected object, but from the image to an object detected as a discrimination target. The main feature is that the object is discriminated by detecting the distance and applying the template selected according to the distance, so that the object discrimination can be performed efficiently.

この主たる特徴について簡単に説明すると、例えば、図1に例示するように、この物体判別装置は、判別の対象となり得る物体までの距離ごと(例えば、1mごと)に複数のテンプレートを記憶している。また、現フレーム画像から判別の対象となる物体を検出する(図1の(1)参照)。ここで、現フレーム画像から判別の対象となる物体を検出する際には、背景差分法(フレーム間差分法)あるいは顕著性算出法により行う。   This main feature will be briefly described. For example, as illustrated in FIG. 1, the object discrimination device stores a plurality of templates for each distance (for example, every 1 m) to an object that can be a discrimination target. . Also, an object to be discriminated is detected from the current frame image (see (1) in FIG. 1). Here, when an object to be discriminated is detected from the current frame image, the background difference method (interframe difference method) or the saliency calculation method is used.

背景差分法とは、現に入力されている画像における各画素とその直前に入力されていた画像における各画素とを比較して差分を抽出する処理を行い、画像内から候補物体(走行障害の候補となる物体)を検出する方法をいう。これによれば、微小な画素変化に左右されないので、過度に反応することを防止することができる。   In the background subtraction method, each pixel in the currently input image is compared with each pixel in the image that was input immediately before, and a difference is extracted. This is a method for detecting an object. According to this, since it is not influenced by a minute pixel change, it is possible to prevent an excessive reaction.

また、顕著性算出方法とは、画像各部の明度や彩度、線方向等の部分的な変位量を各部の特徴として予め学習しておき、学習しておいたバックグラウンドには見られない顕著な特徴(例えば、線方向等)が現画像で現れているかどうかに基づいて候補物体が画像内に位置する領域を検出する方法をいう。これによれば、画素値の変化が少なくても、線方向(例えば、ベクトル)等で特異なものがあれば、顕著な特徴が現れているので、候補物体として検出できる。   In addition, the saliency calculation method is a saliency that is not seen in the learned background by learning in advance the partial displacement amount such as brightness, saturation, and line direction of each part of the image as the feature of each part. This is a method for detecting a region where a candidate object is located in an image based on whether or not a special feature (eg, line direction) appears in the current image. According to this, even if the change of the pixel value is small, if there is something unique in the line direction (for example, vector) or the like, a remarkable feature appears and it can be detected as a candidate object.

続いて、この物体判別装置は、上記した方法により現フレーム画像から判別の対象となる物体を検出すると、その物体までの距離を求める(図1の(2)参照)。ここで、物体までの距離は、各種測距方式(ステレオ方式、単眼方式、アクティブセンサ方式)により求めるか、あるいは、現フレーム画像における各画素の物体の縦位置(例えば、画像上の間隔あるいは画素数)からおおよその距離を予測して求める。   Subsequently, when the object discriminating apparatus detects an object to be discriminated from the current frame image by the above-described method, the object discriminating apparatus obtains a distance to the object (see (2) in FIG. 1). Here, the distance to the object is obtained by various ranging methods (stereo method, monocular method, active sensor method), or the vertical position of the object of each pixel in the current frame image (for example, an interval on the image or a pixel) Calculate the approximate distance from (number).

そして、この物体判別装置は、先ほど求めた物体までの距離に対応したテンプレートを記憶している複数のテンプレートの中から選択する(例えば、物体までの距離が10mであれば、10mに対応したテンプレートを選択する)。そして、現フレーム画像内から判別対象として検出された物体が、その画像内において位置する領域に対してこのテンプレートをあてはめて物体判別を行う(図1の(3)参照)。   Then, the object discrimination device selects from a plurality of templates that store templates corresponding to the distance to the object obtained earlier (for example, if the distance to the object is 10 m, the template corresponding to 10 m is selected). Select). Then, this template is applied to an area where an object detected as a discrimination target in the current frame image is located in the image to perform object discrimination (see (3) in FIG. 1).

このように、この物体判別装置は、判別の対象となる画像内の物体までの距離ごとに複数のテンプレート記憶し、画像内に映し出された物体までの距離を検出し、その距離に合わせたテンプレートを選択してから、そのテンプレートをあてはめることにより物体判別を行うので、パターンマッチング手法による物体判別を効率的に行うことが可能となる。さらに、この物体判別装置は、画像内の物体を検出し、検出された物体までの距離に基づいてパターンマッチングを行うので、道路領域が特定できなくとも効率よくテンプレートマッチングを行うことができ、物体が検出されたかどうかに関わらずテンプレートマッチングを行うのに比べ処理効率をよくすることが可能となる。   As described above, this object discriminating apparatus stores a plurality of templates for each distance to an object in the image to be discriminated, detects the distance to the object shown in the image, and matches the distance to the template. Since the object is discriminated by applying the template after selecting the object, the object discrimination by the pattern matching method can be performed efficiently. Furthermore, since this object discrimination device detects an object in the image and performs pattern matching based on the distance to the detected object, template matching can be performed efficiently even if the road region cannot be specified. Regardless of whether or not is detected, the processing efficiency can be improved as compared with the template matching.

[物体判別装置の構成(実施例1)]
次に、図2を用いて、図1を用いて概要を説明した物体判別装置30の構成を説明する。図2は、実施例1に係る物体判別装置30の構成を示すブロック図である。同図に示すように、この物体判別装置30は、ナビ部11、レーダ部12、前処理部13、物体検出装置14、衝突危険度判定部15に接続される。また、物体判別装置30は、記憶部31と、制御部32とから構成される。
[Configuration of Object Discriminating Device (Example 1)]
Next, the configuration of the object discrimination device 30 whose outline has been described with reference to FIG. 1 will be described with reference to FIG. FIG. 2 is a block diagram illustrating the configuration of the object discrimination device 30 according to the first embodiment. As shown in the figure, the object determination device 30 is connected to a navigation unit 11, a radar unit 12, a preprocessing unit 13, an object detection device 14, and a collision risk determination unit 15. The object discrimination device 30 includes a storage unit 31 and a control unit 32.

このうち、ナビ(ナビゲーション)部11は、GPS(Global Positioning System)人工衛星と通信を行って、特定した自動車の位置と地図データとから走行経路の設定および誘導を行う手段である。また、ナビ部11は、自動車の位置情報や道路形状、路幅、傾斜など車両運転操作に有用な各種の情報を運転者に供給する。   Among them, the navigation (navigation) unit 11 is a means for setting and guiding a travel route from the specified vehicle position and map data by communicating with a GPS (Global Positioning System) artificial satellite. The navigation unit 11 also supplies the driver with various types of information useful for vehicle driving operations such as vehicle position information, road shape, road width, and inclination.

レーダ部12は、レーダ(例えば、76.5GHzのミリ波)を照射して、前方の車両や障害物との距離や速度、方向などを測定する手段である。前処理部13は、撮像装置10(例えば、可視光カメラ、単眼カメラ、ステレオカメラ)から送信されてくる画像に前処理を行う処理部であり、フィルタ部13aと輪郭抽出部13bとから構成される。このうち、フィルタ部13aは、画像内に映し出された物体の輪郭を強調するための前処理(例えば、シャープネス、コントラスト調整、彩度調整)を行う手段である。また、輪郭抽出部13bは、フィルタ部13aによって施されたフィルタリングに基づいて、画像内の物体の輪郭を抽出する手段である。   The radar unit 12 is means for irradiating a radar (for example, 76.5 GHz millimeter wave) and measuring a distance, speed, direction, and the like with a vehicle or an obstacle ahead. The preprocessing unit 13 is a processing unit that performs preprocessing on an image transmitted from the imaging device 10 (for example, a visible light camera, a monocular camera, or a stereo camera), and includes a filter unit 13a and a contour extraction unit 13b. The Among these, the filter unit 13a is means for performing preprocessing (for example, sharpness, contrast adjustment, and saturation adjustment) for enhancing the outline of an object displayed in the image. The contour extracting unit 13b is means for extracting the contour of the object in the image based on the filtering performed by the filter unit 13a.

物体検出装置14は、撮像装置10から前処理部13を介して受け付けた画像から物体を検出する(画像内の領域を絞り込む)装置である。例えば、背景差分法(フレーム間差分法)あるいは顕著性算出方法を用いた画像処理により画像内に映し出された物体が占める領域を検出する(テンプレートをあてはめる領域を絞り込む)。そして、この領域に対して、後述する物体判別装置30は、テンプレートマッチング手法を用いた画像処理を行う。なお、物体検出装置14による処理結果は、物体判別装置30および衝突危険度判定部15に送信される。   The object detection device 14 is a device that detects an object from an image received from the imaging device 10 via the preprocessing unit 13 (restricts an area in the image). For example, an area occupied by an object projected in an image is detected by image processing using a background difference method (interframe difference method) or a saliency calculation method (a region to which a template is applied is narrowed down). And the object discrimination device 30 mentioned later performs image processing using the template matching method for this region. Note that the processing result by the object detection device 14 is transmitted to the object determination device 30 and the collision risk determination unit 15.

衝突危険度判定部15は、物体検出装置14および物体判別装置30から受け付けた処理結果に基づいて、画像から検出された物体との衝突危険度を予測して判定する処理部である。例えば、物体判別装置30により検出された物体が歩行者であると判定され、画像内の位置から車両の近くを移動中である場合や、物体判別装置30による判定結果が子供の場合には衝突危険度は高いと判定し、車両から離れた位置に静止中の場合には衝突危険度は低いと判定する。なお、この衝突危険度判定部15による処理結果は、車両制御部16および報知制御部17に送信される。   The collision risk determination unit 15 is a processing unit that predicts and determines the collision risk with the object detected from the image based on the processing results received from the object detection device 14 and the object determination device 30. For example, when the object detected by the object determination device 30 is determined to be a pedestrian and is moving near the vehicle from the position in the image, or when the determination result by the object determination device 30 is a child, a collision occurs. It is determined that the risk level is high, and it is determined that the collision risk level is low when the vehicle is stationary at a position away from the vehicle. The processing result by the collision risk determination unit 15 is transmitted to the vehicle control unit 16 and the notification control unit 17.

このうち、車両制御部16は、衝突危険度判定処理部15から受け付けた処理結果に基づいて、車両制御を行う処理部である。例えば、物体検出装置14により検出された物体との衝突危険度が高いとの判定結果を受け付けた場合には、車両を停止する制御を行う(例えば、運転者がブレーキを踏まなくとも、自動的に車両制御に介入して安全に車両を停止させる)。また、物体検出装置14により検出された物体との衝突危険度が低いとの判定結果を受け付けた場合には、車両を減速する制御または車両制御のアシスト(例えば、ブレーキのあそびを少なくして、車両の制動準備をする)を行う。   Among these, the vehicle control unit 16 is a processing unit that performs vehicle control based on the processing result received from the collision risk determination processing unit 15. For example, when a determination result that the risk of collision with an object detected by the object detection device 14 is high is received, control for stopping the vehicle is performed (for example, automatically even if the driver does not step on the brake). To stop the vehicle safely by intervening in vehicle control). Further, when the determination result that the risk of collision with the object detected by the object detection device 14 is low is received, the control for decelerating the vehicle or the assist of the vehicle control (for example, reducing the play of the brake, Prepare to brake the vehicle).

報知制御部17は、衝突危険度判定処理部15から受け付けた処理結果に基づいて、警告の報知を行う処理部である。例えば、物体検出装置14により検出された物体との衝突危険度が高いとの判定結果を受け付けた場合には、車内通知部18からアラーム音や音声などにより警告を報知する。また、物体検出装置14により検出された物体との衝突危険度が低いとの判定結果を受け付けた場合には、車内通知部18から音声や画像により注意を促す。   The notification control unit 17 is a processing unit that notifies a warning based on the processing result received from the collision risk determination processing unit 15. For example, when a determination result that the risk of collision with an object detected by the object detection device 14 is high is received, a warning is notified from the in-vehicle notification unit 18 by an alarm sound or voice. Further, when a determination result indicating that the risk of collision with an object detected by the object detection device 14 is low, attention is urged from the in-vehicle notification unit 18 by voice or image.

車内通知部18は、ナビ部11や報知制御部17からの情報を通知する手段であり、ディスプレイやスピーカなどで構成される。例えば、ディスプレイの一部を点滅させて運転者の注意を促したり、スピーカからメッセージやアラーム音を流すことにより運転者に対して警告を行ったりする。   The in-vehicle notification unit 18 is a means for notifying information from the navigation unit 11 and the notification control unit 17 and includes a display, a speaker, and the like. For example, a part of the display blinks to alert the driver, or a warning or warning is given to the driver by sending a message or an alarm sound from a speaker.

物体判別装置30の記憶部31は、制御部32による各種処理に必要なデータおよびプログラムを格納する格納手段(記憶手段)であり、特に本発明に密接に関連するものとしては、テンプレート記憶部31aを備える。   The storage unit 31 of the object discrimination device 30 is a storage unit (storage unit) that stores data and programs necessary for various processes performed by the control unit 32. In particular, the template storage unit 31a is closely related to the present invention. Is provided.

このテンプレート記憶部31aは、画像内から物体検出装置14によって検出された物体にあてはめるテンプレートに関する各種の情報を記憶する手段であり、具体的には、図3に例示するように、画像内から判別の対象として検出された(絞込まれた)物体までの距離(即ち、自車両先端から物体までの距離)ごとに複数のテンプレートを記憶して構成される。なお、図3では、このテンプレート記憶部31aは1mごとにテンプレートを記憶して構成されているが、1mごとに限らず数mあるいは数cmごとにテンプレートを記憶して構成するようにしてもよい。   The template storage unit 31a is a means for storing various types of information related to the template applied to the object detected by the object detection device 14 from within the image. Specifically, as illustrated in FIG. A plurality of templates are stored for each distance to the object detected (narrowed down) as the target of (i.e., the distance from the front end of the host vehicle to the object). In FIG. 3, the template storage unit 31a is configured to store templates every 1 m. However, the template storage unit 31a is not limited to each 1 m and may be configured to store templates every several m or several cm. .

物体判別装置30の制御部32は、所定の制御プログラム、各種の処理手順などを規定したプログラムおよび所要データを格納するための内部メモリを有し、これらによって種々の処理を実行する処理部であり、特に本発明に密接に関連するものとしては、テンプレート選択部32aと、物体判別部32bとを備える。   The control unit 32 of the object discrimination device 30 is a processing unit that has a predetermined control program, a program that defines various processing procedures, and an internal memory for storing required data, and executes various processes using these. Particularly, those closely related to the present invention include a template selection unit 32a and an object determination unit 32b.

このうち、テンプレート選択部32aは、テンプレート記憶部31aからテンプレート選択する処理部であり、具体的には、物体検出装置14によって画像内から判別の対象として検出された物体までの距離を、各種測距方式(ステレオ方式、単眼方式、アクティブセンサ)や画像内における物体の縦位置からの予測によって求め、その距離に対応したテンプレートをテンプレート記憶部31aから選択する。   Of these, the template selection unit 32a is a processing unit that selects a template from the template storage unit 31a. Specifically, the object selection unit 14 measures various distances from the image to the object detected as a discrimination target. A template corresponding to the distance is selected from the template storage unit 31a based on the distance method (stereo method, monocular method, active sensor) or prediction from the vertical position of the object in the image.

この場合、例えば、画像上の下端から画像内の物体までの画像上の間隔に基づき、実際の自車両先端から物体までの距離を求めるようにしてもよいし、レーダ(例えば、ミリ波レーダ)により自車両先端から物体までの距離を求めるようにしてもよい。   In this case, for example, the distance from the actual front end of the vehicle to the object may be obtained based on the interval on the image from the lower end of the image to the object in the image, or a radar (for example, a millimeter wave radar). Thus, the distance from the front end of the host vehicle to the object may be obtained.

物体判別部32bは、画像内から判別の対象として検出された物体にテンプレートをあてはめて、その物体が何であるかを判別する処理部であり、具体的には、物体検出装置14によって画像内から判別の対象として検出された物体に、テンプレート選択部32aによってテンプレート記憶部31aから選択されたテンプレートをあてはめる。そして、テンプレートと物体のマッチングの有無からその物体がテンプレートに示す物体であるか否かを判別する(例えば、照合度が所定の閾値より高いか低いかにより判別)。その際、照合度が所定の閾値より低ければ不一致として、次に優先度の低い大きさのテンプレートをあてはめるようにして順次優先度の高いものから照合していく。   The object discriminating unit 32b is a processing unit that discriminates what the object is by applying a template to an object detected as a discrimination target from within the image. The template selected from the template storage unit 31a by the template selection unit 32a is applied to the object detected as the discrimination target. And it is discriminate | determined from the presence or absence of matching of a template and an object whether the object is an object shown in a template (for example, discrimination | determination is based on whether a collation degree is higher or lower than a predetermined threshold value). At that time, if the collation degree is lower than a predetermined threshold, it is judged that there is no match, and the templates with the next highest priority are collated in order by applying a template with the next lowest priority.

[物体判別装置による処理(実施例1)]
次に、図4を用いて、実施例1に係る物体判別装置による処理を説明する。図4は、実施例1に係る物体判別装置の処理の流れを示すフローチャートである。同図に示すように、画像の入力を受け付けると(ステップS401肯定)、物体検出装置14は、現フレーム画像内から物体の検出を実行する(ステップS402)。
[Processing by Object Discriminating Device (Example 1)]
Next, processing performed by the object discrimination device according to the first embodiment will be described with reference to FIG. FIG. 4 is a flowchart illustrating a process flow of the object determination device according to the first embodiment. As shown in the figure, upon receiving an image input (Yes at step S401), the object detection device 14 detects an object from the current frame image (step S402).

その結果、現フレーム画像内から判別の対象となる物体を検出すると(ステップS403肯定)、テンプレート選択部32aは、その物体までの距離を求める(ステップS404)。ここで、物体までの距離は、各種測距方式(ステレオ方式、単眼方式、アクティブセンサ方式)により求めるか、あるいは、現フレーム画像における物体の縦位置からおおよその距離を予測して求める。   As a result, when an object to be discriminated is detected from the current frame image (Yes at Step S403), the template selection unit 32a obtains a distance to the object (Step S404). Here, the distance to the object is obtained by various ranging methods (stereo method, monocular method, active sensor method), or is obtained by predicting an approximate distance from the vertical position of the object in the current frame image.

続いて、テンプレート選択部32aは、判別の対象となる物体までの距離に対応したテンプレートをテンプレート記憶部31aから選択する(ステップS405)。そして、このテンプレートを物体判別部32bに送る。   Subsequently, the template selection unit 32a selects a template corresponding to the distance to the object to be determined from the template storage unit 31a (step S405). Then, this template is sent to the object discriminating unit 32b.

テンプレート選択部32aからテンプレートを受け付けた物体判別部32bは、現フレーム画像から検出された判別対象となる物体に、このテンプレートをあてはめて物体判別処理を実行する(ステップS406)。   The object discriminating unit 32b that has received the template from the template selection unit 32a assigns this template to the object to be discriminated detected from the current frame image, and executes the object discriminating process (step S406).

ここで、ステップS403の説明に戻ると、物体検出装置14によって、現フレーム画像内から判別の対象となる物体を検出されなければ(ステップS403否定)、次の画像が入力されるのを待つ。   Here, returning to the description of step S403, if the object detection device 14 does not detect an object to be discriminated from within the current frame image (No at step S403), it waits for the next image to be input.

なお、以上に説明した処理は、画像の入力がある限り繰り返し行われ、画像の入力がなければ、物体判別装置30は処理を終了する。また、物体判別処理(テンプレートのあてはめ)の途中で次の画像が入力された場合には、物体判別処理を中止し次の画像に対して処理を開始する。   Note that the processing described above is repeated as long as an image is input. If there is no image input, the object discrimination device 30 ends the processing. When the next image is input during the object discrimination process (template fitting), the object discrimination process is stopped and the process is started for the next image.

[実施例1の効果]
上述してきたように、実施例1によれば、この物体判別装置30は、判別の対象となる画像内の物体までの距離ごとに複数のテンプレート記憶し、画像内に映し出された物体までの距離を検出し、その距離に合わせたテンプレートを選択してから、そのテンプレートをあてはめることにより物体判別を行うので、パターンマッチング手法による物体判別を効率的に行うことが可能となる。さらに、この物体判別装置は、画像内の物体を検出し、検出された物体までの距離に基づいてパターンマッチングを行うので、道路領域が特定できなくとも効率よくテンプレートマッチングを行うことができ、物体が検出されたかどうかに関わらずテンプレートマッチングを行うのに比べ処理効率をよくすることが可能となる。
[Effect of Example 1]
As described above, according to the first embodiment, the object discriminating device 30 stores a plurality of templates for each distance to an object in the image to be discriminated, and the distance to the object displayed in the image. Is detected, and a template matching the distance is selected, and then object identification is performed by applying the template. Therefore, it is possible to efficiently perform object identification using the pattern matching method. Furthermore, since this object discrimination device detects an object in the image and performs pattern matching based on the distance to the detected object, template matching can be performed efficiently even if the road region cannot be specified. Regardless of whether or not is detected, the processing efficiency can be improved as compared with the template matching.

また、実施例1によれば、この物体判別装置は、次の画像が入力されるまで、優先テーブルに基づいて、様々な要因(例えば、物体までの距離や物体の大きさ)に合わせて選択したテンプレートを順にあてはめることにより物体判別を行うので、現時点で行っている処理より優先すべき次の画像に対して物体判別を開始することが可能となる。   Further, according to the first embodiment, the object discrimination device selects according to various factors (for example, the distance to the object and the size of the object) based on the priority table until the next image is input. Since the object discrimination is performed by sequentially applying the templates that have been performed, it is possible to start the object discrimination for the next image that should be prioritized over the current processing.

さて、これまで実施例1に係る物体判別装置について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では実施例2として、種々の異なる実施例を(1)〜(6)に区分けして説明する。   The object discrimination device according to the first embodiment has been described so far, but the present invention may be implemented in various different forms other than the above-described embodiments. Therefore, in the following, as the second embodiment, various different embodiments are divided into (1) to (6) and described.

(1)テンプレートの種別
上記の実施例では、画像内の物体までの距離ごとに複数のテンプレートを記憶し、物体までの距離を検出し、その距離に合わせて選択したテンプレートをあてはめて物体判別を行う場合について説明したが、本発明はこれに限定されるものではなく、画像内の物体までの距離および種別ごとに複数のテンプレートを記憶し、物体までの距離を検出し、その距離に合わせたテンプレートを種類別に選択して、これらのテンプレートをあてはめて物体判別を行うようにしてもよい。以下に、この場合の物体判別装置について説明する。
(1) Template type In the above embodiment, a plurality of templates are stored for each distance to the object in the image, the distance to the object is detected, and the object selected by applying the template selected according to the distance is used for object discrimination. Although the case where it performs is demonstrated, this invention is not limited to this, The several template is memorize | stored for every distance and classification to the object in an image, the distance to an object is detected, and it matched with the distance It is also possible to select templates by type and perform object discrimination by applying these templates. Hereinafter, the object discrimination device in this case will be described.

具体的には、図5に例示するように、この物体判別装置は、画像内の物体までの距離および種別(子供用および大人用)ごとに複数のテンプレートを記憶する。そして、この物体判別装置は、画像内の物体までの距離(例えば、10m)を検出し、その距離に合わせて子供用および大人用のテンプレートを選択し、判別の対象として検出された物体に両者のテンプレートをあてはめて物体判別を行う。これにより、パターンマッチング手法による物体判別を種別の異なるものについても効率的に行うことが可能となる。   Specifically, as illustrated in FIG. 5, the object discrimination device stores a plurality of templates for each distance and type (for children and adults) to an object in the image. Then, this object discrimination device detects the distance (for example, 10 m) to the object in the image, selects the template for children and adults according to the distance, and both the objects detected as the targets of discrimination. The object is identified by applying the template. As a result, it is possible to efficiently perform object discrimination using a pattern matching method even for different types.

(2)物体の大きさに合わせたテンプレート
上記の実施例では、画像内の物体までの距離ごとに複数のテンプレートを記憶し、物体までの距離を検出し、その距離に合わせて選択したテンプレートをあてはめて物体判別を行う場合について説明したが、本発明はこれに限定されるものではなく、画像内の物体までの距離および物体の大きさごとに複数のテンプレート記憶し、物体までの距離および物体の大きさを検出し、その距離および大きさに合わせて選択したテンプレートを、判別の対象として検出された物体にあてはめて物体判別を行うようにしてもよい。以下に、この場合の物体判別装置について説明する。
(2) Template according to the size of the object In the above embodiment, a plurality of templates are stored for each distance to the object in the image, the distance to the object is detected, and the template selected according to the distance is selected. Although the case where object discrimination is performed by applying is described, the present invention is not limited to this, and a plurality of templates are stored for each distance to the object and the size of the object in the image, and the distance to the object and the object are stored. It is also possible to detect the size of the object and apply the template selected according to the distance and the size to the object detected as a determination target to perform the object determination. Hereinafter, the object discrimination device in this case will be described.

具体的には、図6に例示するように、この物体判別装置は、画像内の物体までの距離および物体の大きさ(例えば、160cmあるいは180cm)ごとに複数のテンプレートを記憶する。そして、この物体判別装置は、画像内の物体までの距離(例えば、10m)および大きさ(例えば、180cm、画像内の物体までの距離および画像内に撮像されているその物体の縦方向の画像上の間隔、あるいは、画素数からテンプレート選択部が割り出す)を検出し、その距離および大きさに合わせてテンプレートを選択し、判別の対象として検出された物体にこのテンプレートをあてはめて物体判別を行う。これにより、パターンマッチング手法による物体判別をより効率的に行うことが可能となる。   Specifically, as illustrated in FIG. 6, the object determination apparatus stores a plurality of templates for each distance to the object and the size of the object (for example, 160 cm or 180 cm) in the image. And this object discrimination device is the distance (for example, 10 m) and the size (for example, 180 cm, the distance to the object in the image and the vertical image of the object imaged in the image. The template selection unit calculates from the upper interval or the number of pixels), selects a template according to the distance and size, and applies this template to the object detected as a discrimination target to perform object discrimination. . This makes it possible to more efficiently perform object discrimination using the pattern matching method.

(3)テンプレートの態様
上記の実施例では、画像内の物体までの距離ごとに複数のテンプレートを記憶し、物体までの距離を検出し、その距離に合わせて選択したテンプレートをあてはめて物体判別を行う場合について説明したが、本発明はこれに限定されるものではなく、画像内の物体までの距離ごとに態様の異なる一群のテンプレートを記憶し、画像内の物体までの距離を検出し、その距離に合わせて選択した態様の異なる一群のテンプレートをあてはめて物体判別を行うようにしてもよい。以下にこの場合の物体判別装置について説明する。
(3) Aspect of template In the above embodiment, a plurality of templates are stored for each distance to the object in the image, the distance to the object is detected, and the object discriminated by applying the template selected according to the distance. However, the present invention is not limited to this. A group of templates having different modes is stored for each distance to an object in the image, and the distance to the object in the image is detected. Object discrimination may be performed by applying a group of templates having different modes selected according to the distance. The object discrimination device in this case will be described below.

具体的には、図7に例示するように、この物体判別装置は、画像内の物体までの距離ごとに態様の異なる一群のテンプレート(例えば、立っている人を判別するテンプレートや走っている人を判別するテンプレートなど)を記憶する。そして、この物体判別装置は、画像内までの距離(例えば、10m)を検出し、その距離に合わせてこれら態様の異なる一群のテンプレートを選択し、判別の対象として検出された物体にこれら一群のテンプレートをあてはめて物体判別を行う。これにより、パターンマッチング手法による物体判別を物体の態様も踏まえて効率的に行うことが可能となる。   Specifically, as illustrated in FIG. 7, this object discrimination device is a group of templates having different aspects for each distance to an object in an image (for example, a template for discriminating a standing person or a running person). For example, a template for determining the And this object discrimination device detects the distance (for example, 10 m) to the inside of the image, selects a group of templates having different modes in accordance with the distance, and sets the group of objects detected as a discrimination target to these groups. Object identification is performed by applying a template. As a result, it is possible to efficiently perform the object discrimination by the pattern matching method based on the object mode.

なお、上記の(1)〜(3)において、物体までの距離および物体の種別ごとにテンプレートを記憶する場合、物体までの距離および物体の大きさごとにテンプレートを記憶する場合、あるいは、物体までの距離ごとに態様の異なる一群のテンプレートを記憶する場合について説明したが、本発明はこれに限定されるものではなく、具体的には、この物体判別装置は、図8に例示するように、物体までの距離、物体の種別、物体の大きさおよび物体の態様に合わせてテンプレート記憶するようにしてもよい。これにより、物体判別を様々な状況を踏まえてより効率的に行うことが可能となる。   In the above (1) to (3), when storing a template for each distance to the object and each type of object, when storing a template for each distance to the object and the size of the object, However, the present invention is not limited to this, and more specifically, the object discriminating apparatus, as illustrated in FIG. The template may be stored according to the distance to the object, the type of the object, the size of the object, and the form of the object. Thereby, it becomes possible to perform object discrimination more efficiently based on various situations.

(4)テンプレートをあてはめの優先制御
上記の実施例では、画像内から物体を検出すると、物体までの距離に合わせて選択したテンプレートをあてはめて物体判別を行う場合について説明したが、本発明はこれに限定されるものではなく、画像内から判別の対象となる物体が複数検出された場合に、いずれの物体から優先的に判別を行うかを制御するようにしてもよい。以下に、この場合の物体判別装置について説明する。
(4) Precedence control for fitting a template In the above embodiment, when an object is detected from an image, a template selected according to the distance to the object is applied to perform object discrimination. However, the present invention is not limited to this, and when a plurality of objects to be discriminated are detected from within the image, it may be controlled from which object the discrimination is performed preferentially. Hereinafter, the object discrimination device in this case will be described.

具体的には、図9に例示するように、この物体判別装置は、現フレーム画像から判別の対象となる物体の検出を行う(図9の(1)参照)。続いて、この物体判別装置は、画像内から検出された物体までの距離を求めて、物体までの距離の近い順にラベリングを行う(図9の(2)参照)。ここで、ラベリングは、図10に例示すような優先テーブルに基づいて行う。この優先テーブルは、画像内に判別の対象となる物体が複数存在する場合に、いずれの領域から順次優先的にテンプレートあてはめるかを規定し、例えば、テンプレートあてはめる順番(距離が近いものから遠い順に)を記憶して構成される。そして、この物体判別装置は、画像内の物体までの距離に応じたテンプレートを選択して、画像内の物体にラベリング順にそのテンプレートをあてはめて物体判別を行う(図9の(3)参照)。   Specifically, as illustrated in FIG. 9, the object discrimination device detects an object to be discriminated from the current frame image (see (1) in FIG. 9). Subsequently, the object discriminating apparatus obtains the distance to the detected object from the image and performs labeling in the order of the closest distance to the object (see (2) in FIG. 9). Here, the labeling is performed based on a priority table as illustrated in FIG. This priority table prescribes from which region a template is applied in priority when there are a plurality of objects to be discriminated in the image. For example, the order in which templates are applied (from the shortest to the longest) Is stored and configured. Then, this object discrimination device selects a template corresponding to the distance to the object in the image, and applies the template to the object in the image in the order of labeling to perform object discrimination (see (3) in FIG. 9).

このように、物体が検出されたいずれの領域から優先的にテンプレートをあてはめて物体判別を行うかを規定した優先テーブルに基づいて、順次優先的に様々な要因(例えば、物体までの距離や物体の大きさ)に合わせて選択したテンプレートをあてはめることにより物体判別を行うので、優先的に物体判別を行うべき画像内の領域からテンプレートをあてはめて物体判別を行うことができ、物体判別をより効率的に行うことが可能となる。また、画像内の物体までの距離が最小である領域から優先的にテンプレートのあてはめを行うように規定した優先テーブルに基づいて、順次優先的にテンプレートをあてはめて物体判別を行うので、物体判別の必要性の高い近距離の物体からより効率的に物体判別を行うことが可能となる。   In this way, various factors (for example, distance to an object and object) are sequentially preferentially based on a priority table that prescribes from which region in which an object is detected a template is preferentially applied to perform object discrimination. Since the object is determined by applying the template selected according to the size of the object), the object can be determined by applying the template from the area in the image where the object should be determined with priority. Can be performed automatically. In addition, based on the priority table that preferentially applies the template from the region where the distance to the object in the image is the smallest, object identification is performed by sequentially applying the template. It becomes possible to perform object discrimination more efficiently from a close object with high necessity.

(5)装置構成
図2に示した物体判別装置30の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、物体判別装置30の分散・統合の具体的形態は図示のものに限られず、例えば、テンプレート選択部32aと物体判別部32bを統合し、あるいは、物体検出装置14と物体判別装置30を統合するなど、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、物体判別装置30にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
(5) Device Configuration Each component of the object discrimination device 30 shown in FIG. 2 is functionally conceptual and does not necessarily need to be physically configured as illustrated. That is, the specific form of dispersion / integration of the object discriminating apparatus 30 is not limited to the one shown in the figure. For example, the template selecting section 32a and the object discriminating section 32b are integrated, or the object detecting apparatus 14 and the object discriminating apparatus 30 are integrated. For example, all or a part thereof can be configured to be functionally or physically distributed / integrated in arbitrary units according to various loads or usage conditions. Further, all or a part of each processing function performed in the object discrimination device 30 is realized by a CPU and a program analyzed and executed by the CPU, or is realized as hardware by wired logic. obtain.

(6)物体判別プログラム
ところで、上記の実施例1で説明した各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーション(例えば、車載用のコンピュータ)などのコンピュータシステムで実行することによって実現することができる。そこで、以下では、図10を用いて、上記の実施例1と同様の機能を有する物体判別プログラムを実行するコンピュータの一例を説明する。図11は、物体判別プログラムを実行するコンピュータを示す図である。
(6) Object Discriminating Program By the way, various processes described in the first embodiment are realized by executing a program prepared in advance on a computer system such as a personal computer or a workstation (for example, a vehicle-mounted computer). can do. Therefore, in the following, an example of a computer that executes an object determination program having the same function as in the first embodiment will be described with reference to FIG. FIG. 11 is a diagram illustrating a computer that executes an object determination program.

同図に示すように、物体判別装置としてのコンピュータ40は、HDD41、RAM42、ROM43およびCPU44をバス50で接続して構成される。   As shown in the figure, a computer 40 as an object discrimination device is configured by connecting an HDD 41, a RAM 42, a ROM 43, and a CPU 44 via a bus 50.

そして、ROM43には、上記の実施例1に示した物体判別装置30と同様の機能を発揮する物体判別プログラム、つまり、図11に示すように、テンプレート選択プログラム43aおよび物体判別プログラム43bがあらかじめ記憶されている。なお、これらのプログラム43aおよび43bについては、図2に示した物体判別装置30の各構成要素と同様、適宜統合または分散してもよい。なお、ROM43は、不揮発性の「RAM」でもよい。   The ROM 43 stores in advance an object discrimination program that exhibits the same function as the object discrimination device 30 shown in the first embodiment, that is, a template selection program 43a and an object discrimination program 43b as shown in FIG. Has been. Note that these programs 43a and 43b may be appropriately integrated or distributed in the same manner as each component of the object determination device 30 shown in FIG. The ROM 43 may be a nonvolatile “RAM”.

そして、CPU44が、これらのプログラム43aおよび43bをROM43から読み出して実行することで、図11に示すように、各プログラム43aおよび43bは、テンプレート選択プロセス44aおよび物体判別プロセス44bとして機能するようになる。なお、各プロセス44aおよび44bは、図2に示したテンプレート選択部32aおよび物体判別部32bにそれぞれ対応する。   Then, the CPU 44 reads out these programs 43a and 43b from the ROM 43 and executes them, so that each program 43a and 43b functions as a template selection process 44a and an object discrimination process 44b as shown in FIG. . Each process 44a and 44b corresponds to the template selection unit 32a and the object determination unit 32b shown in FIG. 2, respectively.

また、HDD41には、図11に示すように、テンプレートテーブル41aが設けられる。このテンプレートテーブル41aは、図2に示したテンプレート記憶部31aに対応する。そして、CPU44はテンプレートテーブル41aから、テンプレートデータ42aを読み出してRAM42に格納し、RAM42に格納されたテンプレートデータ42aに基づいて物体判別処理を実行する。   The HDD 41 is provided with a template table 41a as shown in FIG. This template table 41a corresponds to the template storage unit 31a shown in FIG. Then, the CPU 44 reads the template data 42a from the template table 41a, stores it in the RAM 42, and executes an object discrimination process based on the template data 42a stored in the RAM 42.

なお、上記した各プログラム43aおよび43bについては、必ずしも最初からROM43に記憶させておく必要はなく、例えば、コンピュータ40に挿入されるフレキシブルディスク(FD)、CD−ROM、MOディスク、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」、または、コンピュータ40の内外に備えられるHDDなどの「固定用の物理媒体」、さらには、公衆回線、インターネット、LAN、WANなどを介してコンピュータ40に接続される「他のコンピュータ(またはサーバ)」などに各プログラムを記憶させておき、コンピュータ40がこれらから各プログラムを読み出して実行するようにしてもよい。   The above-described programs 43a and 43b do not necessarily need to be stored in the ROM 43 from the beginning. Via a “portable physical medium” such as a magnetic disk or an IC card, or a “fixed physical medium” such as an HDD provided inside or outside the computer 40, or via a public line, the Internet, a LAN, a WAN, etc. Each program may be stored in “another computer (or server)” connected to the computer 40, and the computer 40 may read and execute each program therefrom.

また、上記の実施例では、車載の撮像装置で撮像された画像内の物体を判別する場合について説明したが、本発明はこれに限定されるものではなく、固定式の撮像装置(例えば、交差点に取り付けられた交通流監視カメラ)で撮像された物体を判別するようにしてもよい。   In the above-described embodiment, the case where an object in an image captured by an in-vehicle imaging device is determined has been described. However, the present invention is not limited to this, and a fixed imaging device (for example, an intersection) You may make it discriminate | determine the object imaged with the traffic flow monitoring camera attached to (3).

以上のように、本発明に係る物体判別装置、物体判別方法および物体判別プログラムは、画像内の所定の領域にテンプレートをあてはめて当該領域内の物体を判別する場合に有用であり、特に、パターンマッチング手法による物体判別を効率的に行うことに適する。   As described above, the object discriminating apparatus, the object discriminating method, and the object discriminating program according to the present invention are useful when a template is applied to a predetermined area in an image and an object in the area is discriminated. It is suitable for efficiently performing object discrimination by a matching method.

実施例1に係る物体判別装置の概要を説明するための図である。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a diagram for explaining an overview of an object determination device according to a first embodiment. 実施例1に係る物体判別装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an object discrimination device according to Embodiment 1. FIG. 実施例1に係るテンプレートの構成例を示す図である。6 is a diagram illustrating a configuration example of a template according to Embodiment 1. FIG. 実施例1に係る物体判別装置の処理の流れを示すフローチャートである。3 is a flowchart illustrating a processing flow of the object determination device according to the first embodiment. 実施例2に係る物体の種別を考慮した記憶したテンプレートの構成例を示す図である。It is a figure which shows the structural example of the memorize | stored template which considered the classification of the object which concerns on Example 2. FIG. 実施例2に係る物体の大きさを考慮した記憶したテンプレート構成例を示す図である。It is a figure which shows the memorize | stored template structural example which considered the magnitude | size of the object which concerns on Example 2. FIG. 実施例2に係る物体の態様を考慮した記憶したテンプレートの構成例を示す図である。It is a figure which shows the structural example of the memorize | stored template which considered the aspect of the object which concerns on Example 2. FIG. 実施例2に係る種々の要因を考慮した記憶したテンプレートの構成例を示す図である。It is a figure which shows the structural example of the memorize | stored template which considered the various factors based on Example 2. FIG. 実施例2に係る判別の対象となる複数の領域に対してテンプレートをあてはめる順番を制御する場合の概要を説明するための図である。FIG. 10 is a diagram for explaining an outline in the case of controlling the order in which templates are applied to a plurality of regions to be determined according to the second embodiment. 実施例2に係る優先テーブルの構成例を示す図である。It is a figure which shows the structural example of the priority table which concerns on Example 2. FIG. 物体判別プログラムを実行するコンピュータを示す図である。It is a figure which shows the computer which performs an object discrimination | determination program.

符号の説明Explanation of symbols

10 撮像装置
11 ナビ(ナビゲーション)部
12 レーダ部
13 前処理部
13a フィルタ部
13b 輪郭抽出部
14 物体検出装置
15 衝突危険度判定部
16 車両制御部
17 報知制御部
18 車内通知部
30 物体判別装置
31 記憶部
31a テンプレート記憶部
32 制御部
32a テンプレート選択部
32b 物体判別部
40 コンピュータ
41 HDD(Hard disk drive)
42 RAM(Random Access Memory)
43 ROM(Read Only Memory)
44 CPU(Central Processing Unit)
50 バス
DESCRIPTION OF SYMBOLS 10 Imaging device 11 Navigation (navigation) part 12 Radar part 13 Preprocessing part 13a Filter part 13b Contour extraction part 14 Object detection apparatus 15 Collision risk determination part 16 Vehicle control part 17 Notification control part 18 In-car notification part 30 Object discrimination apparatus 31 Storage unit 31a Template storage unit 32 Control unit 32a Template selection unit 32b Object discrimination unit 40 Computer 41 HDD (Hard disk drive)
42 RAM (Random Access Memory)
43 ROM (Read Only Memory)
44 CPU (Central Processing Unit)
50 buses

Claims (9)

画像内にテンプレートをあてはめて、検出された物体を判別する物体判別装置において、
前記判別の対象となる物体までの距離ごとに複数のテンプレートを記憶するテンプレート記憶手段と、
前記テンプレート記憶手段に記憶されたテンプレートの中から、前記物体までの距離を検出し、当該距離に対応したテンプレートを選択するテンプレート選択手段と、
前記テンプレート選択手段によって選択されたテンプレートを、前記画像内にあてはめて前記物体を判別する物体判別手段と、
を備えたことを特徴とする物体判別装置。
In an object discriminating apparatus that applies a template in an image and discriminates a detected object,
Template storage means for storing a plurality of templates for each distance to the object to be determined;
A template selection means for detecting a distance to the object from the templates stored in the template storage means and selecting a template corresponding to the distance;
Object discriminating means for discriminating the object by applying the template selected by the template selecting means in the image;
An object discrimination device comprising:
前記テンプレート記憶手段は、前記判別の対象となる物体までの距離および物体の種別ごとに複数のテンプレートを記憶し、
前記テンプレート選択手段は、前記テンプレート記憶手段に記憶されたテンプレートの中から、前記画像内の物体までの距離を検出し、当該距離に対応したテンプレートを前記物体の種別ごとに選択し、
前記物体判別手段は、前記テンプレート選択手段によって選択された各種別のテンプレートを、前記画像内にあてはめて前記物体を判別することを特徴とする請求項1に記載の物体判別装置。
The template storage means stores a plurality of templates for each distance to the object to be determined and the type of the object,
The template selection means detects the distance to the object in the image from the templates stored in the template storage means, and selects a template corresponding to the distance for each type of the object,
2. The object discriminating apparatus according to claim 1, wherein the object discriminating unit discriminates the object by applying various types of templates selected by the template selecting unit to the image.
前記テンプレート記憶手段は、前記判別の対象となる物体までの距離および物体の大きさごとに複数のテンプレートを記憶し、
前記テンプレート選択手段は、前記テンプレート記憶手段に記憶されたテンプレートの中から、前記物体までの距離および大きさを検出し、当該距離および大きさに対応したテンプレートを選択し、
前記物体判別手段は、前記テンプレート選択手段によって選択されたテンプレートを、前記画像内にあてはめて前記物体を判別することを特徴とする請求項1に記載の物体判別装置。
The template storage means stores a plurality of templates for each distance to the object to be determined and the size of the object,
The template selection means detects the distance and size to the object from the templates stored in the template storage means, selects a template corresponding to the distance and size,
The object discriminating apparatus according to claim 1, wherein the object discriminating unit discriminates the object by applying a template selected by the template selecting unit to the image.
前記テンプレート記憶手段は、前記判別の対象となる物体について態様の異なる一群のテンプレートを所定の距離ごとに記憶し、
前記テンプレート選択手段は、前記テンプレート記憶手段に記憶されたテンプレートの中から、前記物体までの距離を検出し、当該距離に対応した前記態様の異なる一群のテンプレートを選択し、
前記物体判別手段は、前記テンプレート選択手段によって選択された前記態様の異なる一群のテンプレートを、前記画像内にあてはめて前記物体を判別することを特徴とする請求項2または3に記載の物体判別装置。
The template storage means stores, for each predetermined distance, a group of templates having different aspects with respect to the object to be determined.
The template selection means detects a distance to the object from the templates stored in the template storage means, selects a different group of templates of the aspect corresponding to the distance,
4. The object discriminating apparatus according to claim 2, wherein the object discriminating unit discriminates the object by applying a group of templates having different modes selected by the template selecting unit to the image. .
前記画像内に前記判別の対象となる複数の物体がそれぞれ存在する場合に、いずれの物体から順次優先的に前記テンプレートをあてはめるかを規定した優先情報と、
前記テンプレート選択手段によって選択されたテンプレートを、前記優先情報に基づいて、前記画像内で順次優先的にあてはめるように制御する優先制御手段と、
をさらに備えたことを特徴とする請求項1に記載の物体判別装置。
Priority information defining which object is to be preferentially applied to the template when there are a plurality of objects to be discriminated in the image,
Priority control means for controlling the templates selected by the template selection means to be preferentially applied within the image based on the priority information;
The object discriminating apparatus according to claim 1, further comprising:
前記優先情報は、前記判別の対象となる物体までの距離が最小である当該物体から順次優先的に前記テンプレートをあてはめる旨を規定し、
前記優先制御手段は、前記テンプレート選択手段によって選択されたテンプレートを、前記優先情報に基づいて、前記判別の対象となる物体までの距離が最小である当該物体から順次優先的にあてはめるように制御することを特徴とする請求項5に記載の物体判別装置。
The priority information stipulates that the template is preferentially applied sequentially from the object having the smallest distance to the object to be determined,
The priority control means controls the templates selected by the template selection means so as to be preferentially assigned based on the priority information from the object having the smallest distance to the object to be determined. The object discriminating apparatus according to claim 5.
前記優先制御手段は、前記テンプレート選択手段によって選択されたテンプレートを、次画像が入力されるまで、前記優先情報に基づいて、前記画像内の所定の領域にあてはめるように制御することを特徴とする請求項5に記載の物体判別装置。   The priority control unit controls the template selected by the template selection unit to be applied to a predetermined region in the image based on the priority information until a next image is input. The object discrimination device according to claim 5. 画像内にテンプレートをあてはめて、検出された物体を判別する物体判別方法において、
前記判別の対象となる物体までの距離ごとに複数のテンプレートを記憶するテンプレート記憶工程と、
前記テンプレート記憶手段に記憶されたテンプレートの中から、前記物体までの距離を検出し、当該距離に対応したテンプレートを選択するテンプレート選択工程と、
前記テンプレート選択手段によって選択されたテンプレートを、前記画像内にあてはめて前記物体を判別する物体判別工程と、
を備えたことを特徴とする物体判別方法。
In an object discrimination method for applying a template in an image and discriminating a detected object,
A template storage step of storing a plurality of templates for each distance to the object to be determined;
A template selection step of detecting a distance to the object from the templates stored in the template storage means and selecting a template corresponding to the distance;
An object discriminating step of discriminating the object by applying the template selected by the template selecting means in the image;
An object discrimination method characterized by comprising:
画像内にテンプレートをあてはめて、検出された物体を判別する方法をコンピュータに実行させる物体判別プログラムにおいて、
前記判別の対象となる物体までの距離ごとに複数のテンプレートを記憶するテンプレート記憶手順と、
前記テンプレート記憶手段に記憶されたテンプレートの中から、前記物体までの距離を検出し、当該距離に対応したテンプレートを選択するテンプレート選択手順と、
前記テンプレート選択手段によって選択されたテンプレートを、前記画像内にあてはめて前記物体を判別する物体判別手順と、
をコンピュータに実行させることを特徴とする物体判別プログラム。
In an object discrimination program for applying a template in an image and causing a computer to execute a method for discriminating a detected object,
A template storage procedure for storing a plurality of templates for each distance to the object to be determined;
A template selection procedure for detecting the distance to the object from the templates stored in the template storage means and selecting a template corresponding to the distance;
An object discriminating procedure for discriminating the object by applying the template selected by the template selecting means in the image;
An object discrimination program for causing a computer to execute.
JP2005257721A 2005-09-06 2005-09-06 Object discrimination device, object discrimination method and object discrimination program Pending JP2007072665A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005257721A JP2007072665A (en) 2005-09-06 2005-09-06 Object discrimination device, object discrimination method and object discrimination program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005257721A JP2007072665A (en) 2005-09-06 2005-09-06 Object discrimination device, object discrimination method and object discrimination program

Publications (2)

Publication Number Publication Date
JP2007072665A true JP2007072665A (en) 2007-03-22
JP2007072665A5 JP2007072665A5 (en) 2008-08-28

Family

ID=37934057

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005257721A Pending JP2007072665A (en) 2005-09-06 2005-09-06 Object discrimination device, object discrimination method and object discrimination program

Country Status (1)

Country Link
JP (1) JP2007072665A (en)

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008269073A (en) * 2007-04-17 2008-11-06 Denso Corp Object detector for vehicle
JP2009169776A (en) * 2008-01-18 2009-07-30 Hitachi Ltd Detector
JP2009176087A (en) * 2008-01-25 2009-08-06 Fuji Heavy Ind Ltd Vehicle environment recognizing system
JP2009282592A (en) * 2008-05-20 2009-12-03 Hitachi Ltd Vehicular outside world recognition device and vehicle system
JP2009289189A (en) * 2008-05-30 2009-12-10 Toyota Central R&D Labs Inc Apparatus and program for creating learning model, and apparatus and program for detecting object
JP2009301494A (en) * 2008-06-17 2009-12-24 Sumitomo Electric Ind Ltd Image processing unit and image processing method
KR101003362B1 (en) * 2008-09-09 2010-12-22 전자부품연구원 Apparatus for determining size template
JP2011027457A (en) * 2009-07-22 2011-02-10 Fujitsu Ten Ltd Object detecting device, information processing method and information processing system
EP2487647A1 (en) * 2009-10-09 2012-08-15 Clarion Co., Ltd. Pedestrian detection system
JP2012181660A (en) * 2011-03-01 2012-09-20 Nippon Telegr & Teleph Corp <Ntt> Detector, load reduction method and program
JP2012191399A (en) * 2011-03-10 2012-10-04 Nikon Corp Image tracking device
DE102011078615A1 (en) 2011-07-04 2013-01-10 Toyota Jidosha K.K. Object detector for detecting pedestrian in surrounding area of vehicle, has pedestrian identification portion for identifying whether window image is image depicting object, and identification model selected to identify object
EP2570963A2 (en) 2011-09-15 2013-03-20 Clarion Co., Ltd. Systems, devices, and methods for recognizing objects as perceived from a vehicle
JP2013540984A (en) * 2010-07-15 2013-11-07 ジ ヨーロピアン アトミック エネジー コミュニティ(ユーラトム),リプレゼンテッド バイ ジ ヨーロピアン コミッション How to identify moving objects safely
JP2014092975A (en) * 2012-11-05 2014-05-19 Toshiba Tec Corp Commodity recognition device and commodity recognition program
JP2014215808A (en) * 2013-04-25 2014-11-17 東芝テック株式会社 Recognition dictionary creation device and recognition dictionary creation program
US20150063637A1 (en) * 2013-08-27 2015-03-05 Toyota Jidosha Kabushiki Kaisha Image recognition method and robot
US8994823B2 (en) 2011-07-05 2015-03-31 Toyota Jidosha Kabushiki Kaisha Object detection apparatus and storage medium storing object detection program
WO2015107877A1 (en) * 2014-01-14 2015-07-23 株式会社デンソー Moving object detection device and moving object detection method
JP2016207114A (en) * 2015-04-28 2016-12-08 マツダ株式会社 Pedestrian movement estimation method and estimation device
WO2017138329A1 (en) * 2016-02-09 2017-08-17 株式会社デンソー Collision prediction device
WO2018062335A1 (en) * 2016-10-02 2018-04-05 一 笠原 Location information identifying method, location information identifying device, and location information identifying program
JP2018127349A (en) * 2017-02-10 2018-08-16 フジテック株式会社 Door control system for elevator
WO2019087581A1 (en) 2017-11-06 2019-05-09 ソニー株式会社 Information processing device, information processing method, and program
WO2020026832A1 (en) * 2018-08-01 2020-02-06 オムロン株式会社 Photoelectric sensor
WO2020054366A1 (en) * 2018-09-10 2020-03-19 株式会社小松製作所 Control system and method for work machine
US10706580B2 (en) 2015-12-09 2020-07-07 Hajime Kasahara Position-information specifying method, position-information specifying device, and position-information specifying program
WO2022049820A1 (en) * 2020-09-02 2022-03-10 株式会社日立国際電気 Skeleton detection system
US11314971B2 (en) 2017-09-27 2022-04-26 3M Innovative Properties Company Personal protective equipment management system using optical patterns for equipment and safety monitoring
US11373076B2 (en) 2017-02-20 2022-06-28 3M Innovative Properties Company Optical articles and systems interacting with the same
WO2024056205A1 (en) * 2022-09-13 2024-03-21 Sew-Eurodrive Gmbh & Co. Kg Method for detecting an object using a mobile system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07129898A (en) * 1993-11-05 1995-05-19 Toyota Central Res & Dev Lab Inc Obstacle detecting device
JPH1032751A (en) * 1996-07-17 1998-02-03 Canon Inc Image pickup device and image processor
JPH1097627A (en) * 1996-09-24 1998-04-14 Komatsu Ltd Pattern matching method/device and movement control method/device
JP2002099997A (en) * 2000-09-26 2002-04-05 Mitsubishi Motors Corp Detection device for moving object
JP2004030629A (en) * 2002-05-10 2004-01-29 Sony Corp Face detection apparatus, face detection method, robotic device, program, and recording medium
JP2004178229A (en) * 2002-11-26 2004-06-24 Matsushita Electric Works Ltd Location detector of personal, detection method and autonomous moving device using the detector

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07129898A (en) * 1993-11-05 1995-05-19 Toyota Central Res & Dev Lab Inc Obstacle detecting device
JPH1032751A (en) * 1996-07-17 1998-02-03 Canon Inc Image pickup device and image processor
JPH1097627A (en) * 1996-09-24 1998-04-14 Komatsu Ltd Pattern matching method/device and movement control method/device
JP2002099997A (en) * 2000-09-26 2002-04-05 Mitsubishi Motors Corp Detection device for moving object
JP2004030629A (en) * 2002-05-10 2004-01-29 Sony Corp Face detection apparatus, face detection method, robotic device, program, and recording medium
JP2004178229A (en) * 2002-11-26 2004-06-24 Matsushita Electric Works Ltd Location detector of personal, detection method and autonomous moving device using the detector

Cited By (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008269073A (en) * 2007-04-17 2008-11-06 Denso Corp Object detector for vehicle
JP2009169776A (en) * 2008-01-18 2009-07-30 Hitachi Ltd Detector
JP2009176087A (en) * 2008-01-25 2009-08-06 Fuji Heavy Ind Ltd Vehicle environment recognizing system
JP2009282592A (en) * 2008-05-20 2009-12-03 Hitachi Ltd Vehicular outside world recognition device and vehicle system
JP2009289189A (en) * 2008-05-30 2009-12-10 Toyota Central R&D Labs Inc Apparatus and program for creating learning model, and apparatus and program for detecting object
JP2009301494A (en) * 2008-06-17 2009-12-24 Sumitomo Electric Ind Ltd Image processing unit and image processing method
KR101003362B1 (en) * 2008-09-09 2010-12-22 전자부품연구원 Apparatus for determining size template
JP2011027457A (en) * 2009-07-22 2011-02-10 Fujitsu Ten Ltd Object detecting device, information processing method and information processing system
EP2487647A1 (en) * 2009-10-09 2012-08-15 Clarion Co., Ltd. Pedestrian detection system
EP2487647A4 (en) * 2009-10-09 2015-01-07 Clarion Co Ltd Pedestrian detection system
JP2013540984A (en) * 2010-07-15 2013-11-07 ジ ヨーロピアン アトミック エネジー コミュニティ(ユーラトム),リプレゼンテッド バイ ジ ヨーロピアン コミッション How to identify moving objects safely
JP2012181660A (en) * 2011-03-01 2012-09-20 Nippon Telegr & Teleph Corp <Ntt> Detector, load reduction method and program
JP2012191399A (en) * 2011-03-10 2012-10-04 Nikon Corp Image tracking device
DE102011078615A1 (en) 2011-07-04 2013-01-10 Toyota Jidosha K.K. Object detector for detecting pedestrian in surrounding area of vehicle, has pedestrian identification portion for identifying whether window image is image depicting object, and identification model selected to identify object
DE102011078615B4 (en) 2011-07-04 2022-07-14 Toyota Jidosha Kabushiki Kaisha OBJECT DETECTION DEVICE AND OBJECT DETECTION PROGRAM
US8994823B2 (en) 2011-07-05 2015-03-31 Toyota Jidosha Kabushiki Kaisha Object detection apparatus and storage medium storing object detection program
EP2570963A2 (en) 2011-09-15 2013-03-20 Clarion Co., Ltd. Systems, devices, and methods for recognizing objects as perceived from a vehicle
JP2013061919A (en) * 2011-09-15 2013-04-04 Clarion Co Ltd External environment recognition method and device, and vehicle system
CN102997900A (en) * 2011-09-15 2013-03-27 歌乐株式会社 Vehicle systems, devices, and methods for recognizing external worlds
CN103810468A (en) * 2012-11-05 2014-05-21 东芝泰格有限公司 Commodity recognition apparatus and commodity recognition method
JP2014092975A (en) * 2012-11-05 2014-05-19 Toshiba Tec Corp Commodity recognition device and commodity recognition program
JP2014215808A (en) * 2013-04-25 2014-11-17 東芝テック株式会社 Recognition dictionary creation device and recognition dictionary creation program
US9269026B2 (en) 2013-04-25 2016-02-23 Toshiba Tec Kabushiki Kaisha Recognition dictionary creation apparatus and recognition dictionary creation method
US20150063637A1 (en) * 2013-08-27 2015-03-05 Toyota Jidosha Kabushiki Kaisha Image recognition method and robot
JP2015045919A (en) * 2013-08-27 2015-03-12 トヨタ自動車株式会社 Image recognition method and robot
JP2015132969A (en) * 2014-01-14 2015-07-23 株式会社デンソー Movable body detector and movable body detection method
WO2015107877A1 (en) * 2014-01-14 2015-07-23 株式会社デンソー Moving object detection device and moving object detection method
JP2016207114A (en) * 2015-04-28 2016-12-08 マツダ株式会社 Pedestrian movement estimation method and estimation device
US10706580B2 (en) 2015-12-09 2020-07-07 Hajime Kasahara Position-information specifying method, position-information specifying device, and position-information specifying program
WO2017138329A1 (en) * 2016-02-09 2017-08-17 株式会社デンソー Collision prediction device
JP2017142600A (en) * 2016-02-09 2017-08-17 株式会社デンソー Collision prediction device
WO2018062335A1 (en) * 2016-10-02 2018-04-05 一 笠原 Location information identifying method, location information identifying device, and location information identifying program
CN109791037A (en) * 2016-10-02 2019-05-21 笠原一 Method of determining position information, location information determining device and, location information determines program
JPWO2018062335A1 (en) * 2016-10-02 2019-07-25 一 笠原 Position information specifying method, position information specifying device, and position information specifying program
CN109791037B (en) * 2016-10-02 2021-01-08 笠原一 Position information specifying method, position information specifying device, and storage medium
JP2018127349A (en) * 2017-02-10 2018-08-16 フジテック株式会社 Door control system for elevator
US11373076B2 (en) 2017-02-20 2022-06-28 3M Innovative Properties Company Optical articles and systems interacting with the same
US11651179B2 (en) 2017-02-20 2023-05-16 3M Innovative Properties Company Optical articles and systems interacting with the same
US11682185B2 (en) 2017-09-27 2023-06-20 3M Innovative Properties Company Personal protective equipment management system using optical patterns for equipment and safety monitoring
US11314971B2 (en) 2017-09-27 2022-04-26 3M Innovative Properties Company Personal protective equipment management system using optical patterns for equipment and safety monitoring
US11282230B2 (en) 2017-11-06 2022-03-22 Sony Corporation Information processing apparatus, information processing method, and program
WO2019087581A1 (en) 2017-11-06 2019-05-09 ソニー株式会社 Information processing device, information processing method, and program
JP7035890B2 (en) 2018-08-01 2022-03-15 オムロン株式会社 Photoelectric sensor
JP2020022091A (en) * 2018-08-01 2020-02-06 オムロン株式会社 Photoelectric sensor
WO2020026832A1 (en) * 2018-08-01 2020-02-06 オムロン株式会社 Photoelectric sensor
CN111989440A (en) * 2018-09-10 2020-11-24 株式会社小松制作所 Control system and method for working machine
WO2020054366A1 (en) * 2018-09-10 2020-03-19 株式会社小松製作所 Control system and method for work machine
WO2022049820A1 (en) * 2020-09-02 2022-03-10 株式会社日立国際電気 Skeleton detection system
WO2024056205A1 (en) * 2022-09-13 2024-03-21 Sew-Eurodrive Gmbh & Co. Kg Method for detecting an object using a mobile system

Similar Documents

Publication Publication Date Title
JP2007072665A (en) Object discrimination device, object discrimination method and object discrimination program
CN107082062B (en) The control device of vehicle
US7817848B2 (en) Apparatus, method, and computer product for discriminating object
EP2575078B1 (en) Front vehicle detecting method and front vehicle detecting apparatus
JP4692344B2 (en) Image recognition device
EP3217318A2 (en) Method of switching vehicle drive mode from automatic drive mode to manual drive mode depending on accuracy of detecting object
CN108248602B (en) Information processing apparatus, information processing method, and recording medium
JP4755227B2 (en) Method for recognizing objects
JP4322913B2 (en) Image recognition apparatus, image recognition method, and electronic control apparatus
JP2008021034A (en) Image recognition device, image recognition method, pedestrian recognition device and vehicle controller
US20150220796A1 (en) Sign recognition apparatus and method for determining left- or right-hand traffic division and distance unit
JP6129268B2 (en) Vehicle driving support system and driving support method
JP2007188417A (en) Image recognition device, image recognition method, and image recognition program
CN108242182B (en) Information processing apparatus, information processing method, and recording medium
JP6795379B2 (en) Operation control device, operation control method and operation control program
JP2007064894A (en) Object detector, object detecting method, and object detection program
CN112092809A (en) Auxiliary reversing method, device and system and vehicle
JP2007058751A (en) Apparatus, method, and program for discriminating object
JP2010039718A (en) Vehicle control device, vehicle control method, and vehicle control processing program
US11685311B2 (en) System and method for warning a driver of a vehicle of an object in a proximity of the vehicle
JP2009146153A (en) Moving object detection device, moving object detection method and moving object detection program
CN111746526B (en) Early warning method, device and equipment for rear unmanned vehicle and vehicle
JP5145138B2 (en) Driving support device, driving support control method, and driving support control processing program
CN113581196B (en) Method and device for early warning of vehicle running, computer equipment and storage medium
JP2008015770A (en) Image recognition device and image recognition method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080715

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080715

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110201

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110712