JP2008042779A5 - - Google Patents

Download PDF

Info

Publication number
JP2008042779A5
JP2008042779A5 JP2006217496A JP2006217496A JP2008042779A5 JP 2008042779 A5 JP2008042779 A5 JP 2008042779A5 JP 2006217496 A JP2006217496 A JP 2006217496A JP 2006217496 A JP2006217496 A JP 2006217496A JP 2008042779 A5 JP2008042779 A5 JP 2008042779A5
Authority
JP
Japan
Prior art keywords
target object
vehicle
processing unit
monitoring system
periphery monitoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006217496A
Other languages
Japanese (ja)
Other versions
JP4694441B2 (en
JP2008042779A (en
Filing date
Publication date
Application filed filed Critical
Priority to JP2006217496A priority Critical patent/JP4694441B2/en
Priority claimed from JP2006217496A external-priority patent/JP4694441B2/en
Publication of JP2008042779A publication Critical patent/JP2008042779A/en
Publication of JP2008042779A5 publication Critical patent/JP2008042779A5/ja
Application granted granted Critical
Publication of JP4694441B2 publication Critical patent/JP4694441B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

車両周辺監視システムVehicle perimeter monitoring system

本発明は、車両周辺監視システムに関する。 The present invention relates to a vehicle periphery monitoring system .

車載の赤外線カメラにより撮像された車両の周辺画像に基づき、当該車両と接触する可能性がある人間等の物体の有無を判定する技術が提案されている(たとえば、特許文献1参照)。
特開2001−6096号公報
There has been proposed a technique for determining the presence or absence of an object such as a human who may come into contact with a vehicle based on a surrounding image of the vehicle captured by an in-vehicle infrared camera (see, for example, Patent Document 1).
JP 2001-6096 A

しかし、人間と当該建造物等とが重なると、車両の周辺画像のグレースケール画像において図4に示されているように人間(破線で示されている。)等の対象物体Pが背景の建造物に紛れ込んでしまい、対象物体Pの存在を認識することが困難となる場合がある。 However, if a person and the building overlap, the target object P such as a person (shown by a broken line) in the grayscale image of the peripheral image of the vehicle is built in the background. There is a case where it is difficult to recognize the presence of the target object P due to being mixed into an object.

そこで、本発明は、車載の撮像装置を通じて得られた画像において人間等の対象物体が背景に紛れ込んだ場合でも、この対象物体の存在を高精度で認識しうる車両周辺監視システムを提供することを解決課題とする。 Therefore, the present invention provides a vehicle periphery monitoring system that can recognize the presence of a target object with high accuracy even when the target object such as a human is mixed in the background in an image obtained through an in-vehicle imaging device. Let it be a solution issue.

本願発明者は、車載の撮像装置を通じて得られた画像において、当該車両のピッチングに伴う物体の上下運動パターンが異なることに着目した。そして、本願発明者は当該画像における人間等の対象物体Pの上下運動パターン(図5/白両矢印参照)と、対象物体Pの背景(車両からみて対象物体よりも遠方)にある建造物や森林等Bの上下運動パターン(図5/黒両矢印参照)との相違を利用して対象物体を背景から識別することを着想した。 The inventor of the present application paid attention to the fact that the vertical movement pattern of the object accompanying the pitching of the vehicle is different in the image obtained through the in-vehicle imaging device. Then, the inventor of the present application moves the vertical motion pattern of the target object P such as a human in the image (see FIG. 5 / white double arrows) and the building in the background of the target object P (distant from the target object as viewed from the vehicle) The idea was to identify the target object from the background using the difference between the vertical movement pattern of forest B or the like (see FIG. 5 / black double arrow).

この着想に基づき、第1発明の車両周辺監視システムは、前記画像における一または複数の高輝度画素により構成される複数の対象要素のそれぞれの当該画像における上下運動に応じた運動変数を測定し、当該複数の対象要素の運動変数の分布関数を作成する第1処理部と、該第1処理部により作成された当該分布関数が第1極大値を示す第1値とは異なり、かつ、当該分布関数が該第1極大値よりも小さい第2極大値を示す第2値を含む区間に当該運動変数が含まれる該対象要素を対象物体または当該対象物体の一部として認識する第2処理部とを備えていることを特徴とする。 Based on this idea, the vehicle periphery monitoring system according to the first aspect of the present invention measures a motion variable corresponding to the vertical motion of each of a plurality of target elements constituted by one or a plurality of high-luminance pixels in the image, A first processing unit that creates a distribution function of motion variables of the plurality of target elements, and the distribution function created by the first processing unit is different from a first value indicating a first maximum value, and the distribution A second processing unit for recognizing the target element including the motion variable as a target object or a part of the target object in a section including a second value indicating a second maximum value whose function is smaller than the first maximum value; It is characterized by having.

第1発明の車両周辺監視システムによれば、撮像装置を通じて得られた画像における一または複数の高輝度画像により構成される複数の「対象要素」が認識される。高輝度領域の存在は、撮像装置の撮像範囲における何らかの物体の存在を示しているので、対象要素には対象物体の少なくとも一部が含まれている可能性がある。 According to the vehicle periphery monitoring system of the first invention, a plurality of “target elements” constituted by one or a plurality of high-luminance images in an image obtained through the imaging device are recognized. Since the presence of the high luminance region indicates the presence of some object in the imaging range of the imaging apparatus, the target element may include at least a part of the target object.

複数の対象要素から対象物体またはその一部を抽出または選定するため、複数の対象要素の、当該画像における上下運動に応じた運動変数の分布関数が作成される。「運動変数」には、運動の速度、振幅、角速度(運動周期の逆数に比例する)等が含まれる。また、当該分布関数が「第1極大値」を示す「第1値」とは異なり、かつ、当該分布関数が第1極大値より小さい「第2極大値」を示す「第2値」が含まれる区間に属する対象要素が対象物体またはその一部として認識される。 In order to extract or select a target object or a part thereof from a plurality of target elements, a motion variable distribution function corresponding to the vertical motion of the target elements in the image is created. The “motion variable” includes the speed, amplitude, angular velocity (proportional to the reciprocal of the motion cycle), and the like. In addition, the distribution function is different from the “first value” indicating the “first maximum value”, and the distribution function includes a “second value” indicating the “second maximum value” smaller than the first maximum value. The target element belonging to the selected section is recognized as the target object or a part thereof.

分布関数が第1極大値を示す第1値は、車両のピッチング等が反映された、画像全体の上下運動パターンを表すものである可能性が高い。このため、第1値を含む区間に運動変数が属する対象要素は、建造物や森林等またはその一部に相当する可能性が高い。一方、分布関数が第1極大値より小さい第2極大値を示す第2値を含む区間に運動変数が属する対象要素は、背景とは異なるパターンで上下運動をしている人間等の対象物体またはその一部である可能性がある。 There is a high possibility that the first value indicating the first maximum value of the distribution function represents the vertical movement pattern of the entire image reflecting the pitching of the vehicle and the like. For this reason, there is a high possibility that the target element to which the motion variable belongs to the section including the first value corresponds to a building, a forest, or the like or a part thereof. On the other hand, the target element to which the motion variable belongs in the section including the second value indicating the second maximum value whose distribution function is smaller than the first maximum value is a target object such as a human who moves up and down in a pattern different from the background or It may be part of it.

これらの処理により、前記画像において人間等の対象物体が背景に紛れ込んだ場合でも、当該画像において全体的な上下運動パターンとは異なるパターンで上下運動する対象物体またはその一部が複数の対象要素から高い精度で抽出されうる。そして、対象物体の存在が高い精度で認識されうる。特に、車両の前方等、撮像装置の撮像範囲に森林が広がってこの森林に人間等の対象物体が紛れ込みやすく、かつ、道路にアップダウンや凹凸がある等、ピッチングが生じやすい環境下で車両が走行している状況ではその真価が発揮されうる。 By these processes, even if a target object such as a human is mixed in the background in the image, the target object that moves up and down in a pattern different from the overall vertical movement pattern in the image or a part of the target object from a plurality of target elements It can be extracted with high accuracy. The presence of the target object can be recognized with high accuracy. In particular, in a vehicle environment such as in front of the vehicle, where the forest spreads over the imaging range of the imaging device and target objects such as humans are likely to fall into this forest, and the road is subject to pitching, such as ups and downs and unevenness The true value can be demonstrated in the situation where is running.

第2発明の車両周辺監視システムは、第1発明の車両周辺監視システムにおいて、前記第1処理部が前記画像における高輝度領域の上側または下側のエッジを構成する複数の画素を前記複数の対象要素として認識し、前記第2処理部が前記区間に前記運動変数が含まれ、かつ、連続性のある対象要素群を前記対象物体の上側または下側のエッジとして認識することを特徴とする。 The vehicle periphery monitoring system according to a second aspect is the vehicle periphery monitoring system according to the first aspect, wherein the first processing unit takes a plurality of pixels constituting an upper or lower edge of a high-luminance region in the image as the plurality of objects. It is recognized as an element, and the second processing unit recognizes a target element group including the motion variable in the section and having continuity as an upper or lower edge of the target object.

第2発明の車両周辺監視システムによれば、前記画像において人間等の対象物体が背景に紛れ込んだ場合でも、当該画像において全体的な上下運動パターンとは異なるパターンで上下運動する対象物体の上側または下側のエッジが高い精度で抽出されうる。なお、複数の対象要素(画素)に連続性があるとは、たとえば撮像装置を通じて得られた画像において横隣りの画素列における、画素の上下偏差が閾値以下であることを意味する。また、連続性がある対象要素群(画素群)がエッジとして認識されるための要件として、当該画素群に属する画素数が規定値以上であることが設定される。 According to the vehicle periphery monitoring system of the second invention, even when a target object such as a human is mixed in the background in the image, the upper side of the target object that moves up and down in a pattern different from the overall vertical motion pattern in the image or The lower edge can be extracted with high accuracy. Note that the continuity of a plurality of target elements (pixels) means that, for example, the vertical deviation of pixels in a horizontally adjacent pixel column is equal to or less than a threshold in an image obtained through an imaging device. In addition, as a requirement for a target element group (pixel group) having continuity to be recognized as an edge, it is set that the number of pixels belonging to the pixel group is equal to or greater than a specified value.

第3発明の車両周辺監視システムは、第1発明の車両周辺監視システムにおいて、前記第1処理部が前記画像における複数の高輝度領域を前記複数の対象要素として認識することを特徴とする。 A vehicle periphery monitoring system according to a third aspect is characterized in that, in the vehicle periphery monitoring system according to the first aspect, the first processing unit recognizes a plurality of high luminance regions in the image as the plurality of target elements.

第3発明の車両周辺監視システムによれば、前記画像において人間等の対象物体が背景に紛れ込んだ場合でも、当該画像において全体的な上下運動パターンとは異なるパターンで上下運動する対象物体またはその一部が高い精度で抽出されうる。 According to the vehicle periphery monitoring system of the third aspect of the invention, even when a target object such as a human is mixed in the background in the image, the target object that moves up and down in a pattern different from the overall vertical movement pattern in the image or one of the target objects. The part can be extracted with high accuracy.

第4発明の車両周辺監視システムは、第1〜第3発明のうちいずれか1つの車両周辺監視システムにおいて、前記第1処理部が前記区間に前記運動変数が含まれる前記対象要素を対象物体候補として認識し、前記第2処理部が該第1処理部により認識された該対象物体候補の実空間における特徴量を測定し、当該測定した当該対象物体候補の実空間における特徴量が、前記対象物体の特徴量に応じた要件を満たすか否かを判定し、当該要件を満たすと判定した該対象物体候補を当該対象物体または当該対象物体の一部として認識することを特徴とする。 The vehicle periphery monitoring system according to a fourth aspect of the present invention is the vehicle periphery monitoring system according to any one of the first to third aspects, wherein the first processing unit sets the target element including the motion variable in the section as a target object candidate. And the second processing unit measures the feature amount in the real space of the target object candidate recognized by the first processing unit, and the measured feature amount in the real space of the target object candidate is the target It is determined whether or not the requirement according to the feature amount of the object is satisfied, and the target object candidate determined to satisfy the requirement is recognized as the target object or a part of the target object.

第4発明の車両周辺監視システムによれば、前記のように第1値とは異なる第2値を含む区間に運動変数が属する対象要素は、背景とは異なるパターンで上下運動をしている人間等の対象物体またはその一部である可能性があることに鑑みて「対象物体候補」として認識される。また、対象物体候補の実空間における特徴量が測定される。そして、対象物体候補の実空間における測定特徴量が、対象物体の特徴量に鑑みて設定された要件を満たす場合、対象物体候補が対象物体またはその一部として認識される。これにより、前記画像において人間等の対象物体が背景に紛れ込んだ場合でも、画像全体の上下運動パターンとは異なるパターンで上下運動する対象物体またはその一部が対象要素、ひいては対象物体候補からさらに高い精度で抽出されうる。 According to the vehicle periphery monitoring system of the fourth aspect of the invention, as described above, the target element to which the motion variable belongs to the section including the second value different from the first value is moving up and down in a pattern different from the background. In view of the possibility of being a target object or a part of the target object. Further, the feature quantity in the real space of the target object candidate is measured. Then, when the measured feature quantity in the real space of the target object candidate satisfies the requirements set in view of the feature quantity of the target object, the target object candidate is recognized as the target object or a part thereof. As a result, even when a target object such as a human is mixed in the background in the image, the target object that moves up and down in a pattern different from the vertical movement pattern of the entire image or a part thereof is higher than the target element and thus the target object candidate. Can be extracted with accuracy.

第5発明の車両周辺監視システムは、第4発明の車両周辺監視システムにおいて、前記第2処理部が前記対象物体候補の実空間における前記特徴量として、当該対象物体候補の位置、形状、サイズ、またはこれらの組み合わせを測定することを特徴とする。 The vehicle periphery monitoring system according to a fifth aspect of the invention is the vehicle periphery monitoring system according to the fourth aspect of the invention, wherein the second processing unit uses the target object candidate position, shape, size, as the feature amount in the real space of the target object candidate. Alternatively, a combination of these is measured.

第5発明の車両周辺監視システムによれば、対象物体候補のうち、実空間における位置、形状、サイズまたはこれらの組合せが、対象物体の位置、形状、サイズまたはこれらの組み合わせに応じた要件を満たすものが対象物体またはその一部として認識される。ここで、位置、形状、サイズまたはこれらの組み合わせとは、「位置」「形状」「サイズ」「位置および形状」「形状およびサイズ」「サイズおよび位置」または「位置、形状およびサイズ」を意味する。 According to the vehicle periphery monitoring system of the fifth invention, among the target object candidates, the position, shape, size, or combination thereof in the real space satisfies the requirements according to the position, shape, size, or combination thereof of the target object. A thing is recognized as a target object or a part thereof. Here, the position, shape, size or a combination thereof means “position”, “shape”, “size”, “position and shape”, “shape and size”, “size and position” or “position, shape and size”. .

第6発明の車両周辺監視システムは、第1〜第5発明のうちいずれか1つの車両周辺監視システムにおいて、前記第2処理部により前記対象物体または当該対象物体の一部の時系列的な測定位置に基づき、前記車両と当該対象物体との接触可能性を評価する第3処理部をさらに備えていることを特徴とする。 A vehicle periphery monitoring system according to a sixth aspect of the present invention is the vehicle periphery monitoring system according to any one of the first to fifth aspects, wherein the second processing unit performs time series measurement of the target object or a part of the target object. A third processing unit for evaluating the possibility of contact between the vehicle and the target object based on the position is further provided.

第6発明の車両周辺監視システムによれば、前記のように撮像装置を通じて得られた画像において対象物体が背景に紛れ込んだ場合でも、当該対象物体またはその一部が高い精度で認識されうるので、車両とこの対象物体とが接触する可能性も高い精度で評価されうる。 According to the vehicle periphery monitoring system of the sixth aspect of the invention, even when the target object is mixed into the background in the image obtained through the imaging device as described above, the target object or a part thereof can be recognized with high accuracy. The possibility of contact between the vehicle and the target object can be evaluated with high accuracy.

第7発明の車両周辺監視システムは、第6発明の車両周辺監視システムにおいて、前記第3処理部が、前記車両と前記対象物体との接触可能性の評価に基づき、当該対象物体の存在を知らせるまたは強調する情報を車載の情報出力装置に出力させる、あるいは当該車両の挙動を制御するもしくは車載機器に制御させることを特徴とする。 A vehicle periphery monitoring system according to a seventh aspect is the vehicle periphery monitoring system according to the sixth aspect, wherein the third processing unit notifies the presence of the target object based on an evaluation of the possibility of contact between the vehicle and the target object. Alternatively, the emphasis information is output to an in-vehicle information output device, or the behavior of the vehicle is controlled or the in-vehicle device is controlled.

第7発明の車両周辺監視システムによれば、前記のように車両と対象物体との接触可能性が高い精度で評価されうるので、車両と対象物体との接触回避等の観点から、当該対象物体またはその複数の対象部分を強調等する情報が適当に出力されうる。ここで、情報の出力とは、視覚、聴覚、触覚等、五感を通じて当該情報を車両の運転者等に認識させうるあらゆる形態で情報が出力されることを意味する。これにより、車両の運転者に対象物体の存在を認識させ、車両と対象物体との接触を回避するために車両の減速や操舵等、車両の挙動を適当に制御させることができる。 According to the vehicle periphery monitoring system of the seventh aspect of the invention, since the possibility of contact between the vehicle and the target object can be evaluated with high accuracy as described above, from the viewpoint of avoiding contact between the vehicle and the target object, the target object Or the information which emphasizes the some object part etc. can be output appropriately. Here, the output of information means that the information is output in any form that allows the driver of the vehicle to recognize the information through the five senses, such as vision, hearing, and touch. This allows the driver of the vehicle to recognize the presence of the target object and appropriately control the behavior of the vehicle such as vehicle deceleration and steering in order to avoid contact between the vehicle and the target object.

また、前記のように高精度で評価された車両と対象物体との接触可能性に基づいて車載機器が制御される。これにより、車両と対象物体との接触を回避する観点から、車両の減速や操舵等、車両の挙動が適当に制御されうる。 In-vehicle devices are controlled based on the possibility of contact between the vehicle and the target object evaluated with high accuracy as described above. Thereby, from the viewpoint of avoiding contact between the vehicle and the target object, the behavior of the vehicle such as deceleration or steering of the vehicle can be appropriately controlled.

本発明の車両周辺監視システムの実施形態について図面を用いて説明する。 An embodiment of a vehicle periphery monitoring system of the present invention will be described with reference to the drawings.

本発明の第1実施形態である車両周辺監視システムの構成および機能について図1〜図9を用いて説明する。 The configuration and function of the vehicle periphery monitoring system according to the first embodiment of the present invention will be described with reference to FIGS.

まず、本発明の第1実施形態である車両周辺監視システムの構成について図1および図2を用いて説明する。 First, the structure of the vehicle periphery monitoring system which is 1st Embodiment of this invention is demonstrated using FIG. 1 and FIG.

図1に示されているように車両1には、車両周辺監視システム10と、車両1の前方部において車幅方向中央部にほぼ対称に配置された一対の赤外線カメラ(撮像装置)102と、フロントウィンドウにおいて運転者の視界を妨げないように配置されたHUD104とが搭載されている。また、図2に示されているように車両1には、ヨーレートセンサ122や速度センサ124等の種々のセンサが搭載されている。 As shown in FIG. 1, the vehicle 1 includes a vehicle periphery monitoring system 10, a pair of infrared cameras (imaging devices) 102 disposed substantially symmetrically at the center in the vehicle width direction at the front portion of the vehicle 1, A HUD 104 is mounted on the front window so as not to obstruct the driver's view. As shown in FIG. 2, various sensors such as a yaw rate sensor 122 and a speed sensor 124 are mounted on the vehicle 1.

車両周辺監視システム10は車載の一対の撮像装置を通じて得られた画像に基づいて車両の周辺を監視するシステムである。車両周辺監視システム10は、車両1に搭載されたハードウェアとしてのECUまたはコンピュータ(CPU,ROM,RAM,I/O等により構成されている。)と、メモリに格納され、当該コンピュータに諸機能を付与するソフトウェアとしての本発明の「車両周辺監視プログラム」とにより構成されている。なお、車両周辺監視プログラムは最初から車載コンピュータのメモリに格納されていてもよいが、車載コンピュータからのリクエストがあったとき等の任意のタイミングでこのプラグラムの一部または全部がサーバ(構築システムを構成する。)20からネットワークや人工衛星を介して当該車載コンピュータに配信または放送され、そのメモリに格納されてもよい。 The vehicle periphery monitoring system 10 is a system that monitors the periphery of a vehicle based on images obtained through a pair of in-vehicle imaging devices. The vehicle periphery monitoring system 10 is stored in a memory and an ECU or a computer (configured by a CPU, ROM, RAM, I / O, etc.) as hardware mounted on the vehicle 1, and has various functions in the computer. It is comprised with the "vehicle periphery monitoring program" of this invention as software which provides. The vehicle periphery monitoring program may be stored in the memory of the in-vehicle computer from the beginning. However, a part or all of the program may be stored in a server (construction system) at an arbitrary timing such as when there is a request from the in-vehicle computer. It may be distributed or broadcast from 20 to the in-vehicle computer via a network or an artificial satellite and stored in its memory.

車両周辺監視システム10は図2に示されているように、第1処理部11と、第2処理部12と、第3処理部13とを備えている。 As shown in FIG. 2, the vehicle periphery monitoring system 10 includes a first processing unit 11, a second processing unit 12, and a third processing unit 13.

第1処理部11は赤外線カメラ102により得られた画像における高輝度領域の上側のエッジを第1エッジE1として認識する。また、第1処理部11は第1エッジE1を構成する複数の画素(複数の「対象要素」に相当する。)の当該画像における上下運動速度(運動変数)vを測定する。さらに、第1処理部11は当該複数の画素の上下運動速度vの分布関数f(v)を作成する。そして、第1処理部11は当該分布関数に基づき、第1エッジE1を構成する画素群の一部により構成される第2エッジ(「対象物体候補」に相当する。)E2を認識する。 The first processing unit 11 recognizes the upper edge of the high luminance region in the image obtained by the infrared camera 102 as the first edge E 1 . Further, the first processing unit 11 measures the vertical motion speed (motion variable) v in the image of a plurality of pixels (corresponding to a plurality of “target elements”) constituting the first edge E 1 . Further, the first processing unit 11 creates a distribution function f (v) of the vertical motion speed v of the plurality of pixels. Then, based on the distribution function, the first processing unit 11 recognizes a second edge (corresponding to a “target object candidate”) E 2 constituted by a part of the pixel group constituting the first edge E 1 . .

第2処理部12は第1処理部11により認識された第2エッジE2の実空間における実空間位置等の特徴量を測定する。また、第2処理部12は第2エッジE2の実空間位置等の特徴量が、対象物体Pの標準的なサイズ等の特徴量に応じた要件を満たすか否かを判定し、当該要件を満たすと判定した第2エッジE2を当該対象物体Pの上側のエッジとして認識する。 The second processing unit 12 measures a feature amount such as a real space position in the real space of the second edge E 2 recognized by the first processing unit 11. Further, the second processing unit 12 determines whether or not the feature quantity such as the real space position of the second edge E 2 satisfies the requirement according to the feature quantity such as the standard size of the target object P, and the requirement The second edge E 2 determined to satisfy the condition is recognized as the upper edge of the target object P.

第3処理部13は第2処理部12により対象物体Pの上側のエッジとして認識された第2エッジE2の時系列的な測定位置に基づき、車両1と当該対象物体Pとの接触可能性を評価する。また、第3処理部13は車両1と対象物体Pとの接触可能性の評価に応じて、当該対象物体Pの存在を知らせるまたは強調する画像をHUD(情報出力装置)104に表示させる等、車載機器の動作を制御する。 The third processing unit 13 may contact the vehicle 1 with the target object P based on the time-series measurement position of the second edge E 2 recognized as the upper edge of the target object P by the second processing unit 12. To evaluate. Further, the third processing unit 13 displays on the HUD (information output device) 104 an image that informs or emphasizes the presence of the target object P according to the evaluation of the possibility of contact between the vehicle 1 and the target object P. Control the operation of in-vehicle equipment.

前記構成の本発明の第1実施形態である車両周辺監視システム10の機能について図3〜図9を用いて説明する。 The function of the vehicle periphery monitoring system 10 having the above-described configuration according to the first embodiment of the present invention will be described with reference to FIGS.

まず、第1処理部11が「第1処理」を実行する(図3/S11)。 First, the first processing unit 11 executes “first processing” (S11 in FIG. 3).

第1処理部11は一対の赤外線カメラ102を通じて得られた2値化画像における高輝度領域の上側または下側のエッジを第1エッジE1として認識する(図3/S111)。当該2値化画像は、赤外線画像がA/D変換されて得られたグレースケール画像が2値化処理されることで得られる。たとえば図4に示されている2値化画像が得られた場合、図6に白抜きで示されているような高輝度領域が認識され、かつ、図6に太線で示されているような第1エッジ(水平エッジ。画像縦方向への広がりが閾値以下であり、かつ、画像横方向への広がりが規定値以上である、連続性のある高輝度画素群を意味する。)E1が認識される。 The first processing unit 11 recognizes the upper or lower edge of the high luminance region in the binarized image obtained through the pair of infrared cameras 102 as the first edge E 1 (FIG. 3 / S111). The binarized image is obtained by binarizing a grayscale image obtained by A / D converting an infrared image. For example, when the binarized image shown in FIG. 4 is obtained, a high luminance area as shown in white in FIG. 6 is recognized, and as shown by a thick line in FIG. First edge (horizontal edge, meaning a continuous high-luminance pixel group in which the spread in the vertical direction of the image is equal to or less than a threshold value and the spread in the horizontal direction of the image is equal to or greater than a specified value) E 1 Be recognized.

また、第1処理部11は第1エッジE1を構成する各画素(対象要素)の画像における上下運動速度vを測定する(図3/S112)。さらに、第1処理部11は当該複数の画素の上下運動速度vの分布関数f(v)を作成する(図3/S113)。これにより、たとえば図7に示されているように第1速度v1で第1極大値を示す一方、第2速度v2で第1極大値よりも小さい第2極大値を示す分布関数f(v)が得られる。 Further, the first processing unit 11 measures the vertical motion speed v in the image of each pixel (target element) constituting the first edge E 1 (FIG. 3 / S112). Further, the first processing unit 11 creates a distribution function f (v) of the vertical motion speed v of the plurality of pixels (FIG. 3 / S113). Accordingly, for example, as shown in FIG. 7, the distribution function f (1) which shows the first maximum value at the first speed v 1 while showing the second maximum value smaller than the first maximum value at the second speed v 2 . v) is obtained.

そして、第1処理部11は分布関数f(v)に基づき、第1エッジE1から第2エッジE2を抽出または認識する(図3/S114)。具体的には、たとえば図7に示されている分布関数f(v)が最大値を示す第1速度v1とは異なり、かつ、分布関数f(v)が最大値f(v1)とは別の極大値を示す第2速度v2を含む区間に属する連続性のある画素により構成されるエッジ(第1エッジE1の一部)が第2エッジE2として認識される。画素の連続性があるとは、たとえば画像において横隣りの画素列における、エッジを構成する画素の上下偏差が閾値以下であることを意味する。これにより、たとえば図6に示されているような第2エッジE2が認識される。 Then, the first processing unit 11 extracts or recognizes the second edge E 2 from the first edge E 1 based on the distribution function f (v) (FIG. 3 / S114). Specifically, for example, the distribution function f (v) shown in FIG. 7 is different from the first speed v 1 where the maximum value is shown, and the distribution function f (v) is the maximum value f (v 1 ). The edge (part of the first edge E 1 ) composed of continuous pixels belonging to the section including the second velocity v 2 showing another maximum value is recognized as the second edge E 2 . The pixel continuity means that, for example, the vertical deviation of the pixels constituting the edge in the pixel row adjacent to the image is equal to or less than a threshold value. Thereby, for example, the second edge E 2 as shown in FIG. 6 is recognized.

次に、第2処理部12が「第2処理」を実行する(図3/S12)。 Next, the second processing unit 12 executes “second processing” (S12 in FIG. 3).

第2処理部12は一対の赤外線カメラ102の視差を利用して、第1処理部11により認識された第2エッジE2の重心のY座標値(「特徴量」(具体的には「実空間位置」)に相当する。)を測定する(図3/S121)。この際、第2処理部12はヨーレートセンサ122および速度センサ124のそれぞれの出力に基づき、車両1の回頭による、画像における位置ずれを補正する。回頭角補正されたエッジEPの測定位置は時系列的にメモリに保存される。ここで実空間位置とは、図1に示されているように一対の赤外線カメラ102の取り付け位置の中点を原点Oとし、水平方向、鉛直方向および前後方向をそれぞれX、YおよびZ軸とする座標系における位置を意味する。実空間位置の測定方法および回頭角補正方法はたとえば前記特許文献1において説明されているので本願明細書では詳細な説明を省略する。 The second processing unit 12 uses the parallax of the pair of infrared cameras 102 to determine the Y coordinate value (“feature value” (specifically, “actual amount”) of the center of gravity of the second edge E 2 recognized by the first processing unit 11. Corresponds to the spatial position “)”) (FIG. 3 / S121). At this time, the second processing unit 12 corrects the positional deviation in the image due to the turning of the vehicle 1 based on the outputs of the yaw rate sensor 122 and the speed sensor 124. The measurement position of the edge E P corrected for the turning angle is stored in the memory in time series. As shown in FIG. 1, the real space position is the origin O at the midpoint of the mounting position of the pair of infrared cameras 102, and the horizontal, vertical and front-rear directions are the X, Y and Z axes, respectively. Means a position in the coordinate system. Since the method for measuring the real space position and the method for correcting the turning angle are described in, for example, Patent Document 1, detailed description thereof is omitted in this specification.

さらに、第2処理部12は、第2エッジE2のY座標値が、人間の標準的な身長(「特徴量」(具体的には「サイズ」)に相当する。)に鑑みて設定された範囲(メモリに格納されている。)に含まれるという要件が満たされるか否かを判定する(図3/S122)。
そして、第2処理部12は当該要件が満たされていると判定した場合(図3/S122‥YES)、第2エッジE2を対象物体(人間)Pの上側のエッジEPとして認識する(図3/S123)。これにより、たとえば図6に示されているようなエッジEPが認識され、同じく図6に破線で示されているような対象物体Pの存在が認識される。
Further, the second processing unit 12, Y-coordinate value of the second edge E 2 is, (the "feature amount" (specifically. Corresponding to the "size")) human standard height is set in view of the It is determined whether or not the requirement of being included in the range (stored in the memory) is satisfied (S122 in FIG. 3).
If the second processing unit 12 determines that the requirement is satisfied (FIG. 3 / S122... YES), the second processing unit 12 recognizes the second edge E 2 as the upper edge E P of the target object (human) P ( FIG. 3 / S123). Thereby, for example, the edge E P as shown in FIG. 6 is recognized, and the presence of the target object P as shown by the broken line in FIG. 6 is also recognized.

続いて、第3処理部13が「第3処理」を実行する(図3/S13)。 Subsequently, the third processing unit 13 executes “third processing” (S13 in FIG. 3).

第3処理部13は第2処理部12により対象物体Pの上側のエッジEPとして認識された第2エッジE2の時系列的な測定位置をメモリから読み取り、読み取った時系列的な測定位置に基づき車両1を基準とした対象物体Pの相対速度(大きさおよび向きを含む。)を算出する(図3/S131)。 The third processing unit 13 reads the time-series measurement position of the second edge E 2 recognized as the upper edge E P of the target object P by the second processing unit 12 from the memory, and reads the read time-series measurement position. Based on the above, the relative speed (including the size and direction) of the target object P with respect to the vehicle 1 is calculated (FIG. 3 / S131).

また、第3処理部13は車両1と当該対象物体Pとの接触可能性を評価する(図3/S132)。たとえば、図6に示されているように赤外線カメラ102により監視可能な三角形領域A0よりも、車両1に対する人間(対象物体)Pの相対速度vsと余裕時間Tとの積(vs×T)だけ低い三角形領域(警報判定領域)が定義される。また、当該三角形領域のうち、Z軸を中心とするX方向の幅がα+2β(α:車幅、β:余裕幅)の第1領域(接近判定領域)A1と、第1領域A1の左右の第2領域(侵入判定領域)A2LおよびA2Rとが定義される。そして、物体xが第1領域A1にある場合や、対象物体Pが左右の第2領域A2にあって、その相対速度ベクトルvsに鑑みて第1領域A1に侵入してくることが予測される場合、この対象物体Pと車両1とが接触する可能性が高く評価される。 Further, the third processing unit 13 evaluates the possibility of contact between the vehicle 1 and the target object P (FIG. 3 / S132). For example, as shown in FIG. 6, the product of the relative speed v s of the human (target object) P with respect to the vehicle 1 and the margin time T (v s ×) rather than the triangular area A 0 that can be monitored by the infrared camera 102. A triangular area (alarm determination area) that is lower by T) is defined. Among the triangular regions, a first region (approaching determination region) A 1 having a width in the X direction centered on the Z axis of α + 2β (α: vehicle width, β: margin width) and the first region A 1 The left and right second areas (intrusion determination areas) A 2L and A 2R are defined. Then, when the object x is in the first area A 1 or the target object P is in the left and right second areas A 2 and enters the first area A 1 in view of the relative velocity vector v s. Is predicted, the possibility that the target object P and the vehicle 1 will contact each other is highly evaluated.

そして、第3処理部13は車両1と対象物体(人間)Pとの接触可能性を高く評価した場合(図3/S133‥YES)、「第1制御処理」を実行する(図3/S134)。これにより、たとえば対象物体Pの存在を強調するため、図9に示されているように対象物体PのエッジEPを囲む橙色のフレームfが「第1情報」としてHUD104に表示される。対象物体PのエッジEPを囲むことを要件としてフレームfの形状、サイズ、および色彩のそれぞれは任意に変更されてもよい。なお、第1情報として「ピッピッピッ」等の音声がスピーカ(図示略)から出力されてもよい。 When the third processing unit 13 highly evaluates the possibility of contact between the vehicle 1 and the target object (human) P (FIG. 3 / S133... YES), the third processing unit 13 executes the “first control process” (FIG. 3 / S134). ). Accordingly, for example, in order to emphasize the presence of the target object P, an orange frame f surrounding the edge E P of the target object P is displayed on the HUD 104 as “first information” as shown in FIG. The shape of the frame f as a requirement that surrounds the edge E P of the target object P, size, and may be arbitrarily changed each color. Note that the first information may be output from a speaker (not shown) such as “beep”.

一方、第3処理部13は車両1と対象物体Pとが接触する可能性が低いと判定した場合(図3/S133‥NO)、「第2制御処理」を実行する(図3/S135)。これにより、たとえば対象物体Pの存在を控えめに強調するため、図9に示されているように対象物体PのエッジEPを囲む黄色のフレームfが「第2情報」としてHUD104に表示される。なお、第2情報として「ピッ」等、第1情報よりも短い(または音量が小さい)音声がスピーカ(図示略)から出力されてもよい。 On the other hand, when it is determined that the possibility that the vehicle 1 and the target object P are in contact with each other is low (FIG. 3 / S133... NO), the third processing unit 13 executes the “second control process” (FIG. 3 / S135). . Thus, for example, in order to conspicuously emphasize the presence of the target object P, a yellow frame f surrounding the edge E P of the target object P is displayed on the HUD 104 as “second information” as shown in FIG. . Note that the second information may be output from a speaker (not shown), such as “beep”, which is shorter (or lower in volume) than the first information.

前記機能を発揮する本発明の第1実施形態である車両周辺監視システム10によれば、赤外線カメラ(撮像装置)102を通じて得られた画像(グレースケール画像)において高輝度領域の上側または下側のエッジ(第1エッジ)E1が認識される(図3/S111、図6)。高輝度領域の存在は、赤外線カメラ102の撮像範囲における物体の存在を示しているので、第1エッジE1には人間(対象物体)PのエッジEPが含まれている可能性がある。 According to the vehicle periphery monitoring system 10, which is the first embodiment of the present invention that exhibits the above function, in the image (grayscale image) obtained through the infrared camera (imaging device) 102, the upper side or the lower side of the high luminance region. The edge (first edge) E 1 is recognized (FIG. 3 / S111, FIG. 6). The presence of the high luminance region, it indicates the presence of an object in the imaging range of the infrared camera 102, the first edge E 1 might contain edge E P of the human (object) P.

第1エッジE1から対象物体PのエッジEPを抽出するため、第1エッジE1を構成する複数の画素の、当該画像における上下運動速度vの分布関数f(v)が作成される(図3/S113、図7)。また、分布関数f(v)が最大値を示す第1速度v1とは異なり、分布関数f(v)が最大値とは別の極大値を示す第2速度v2が含まれる速度区間に属する連続性のある画素により構成される第2エッジE2が認識される(図3/S114、図6、図7)。 To extract the edge E P of the target object P from the first edge E 1, a plurality of pixels constituting the first edge E 1, the distribution function f of vertical movement velocity v in the image (v) is created ( FIG. 3 / S113, FIG. 7). Further, unlike the first speed v 1 in which the distribution function f (v) has a maximum value, the speed function includes a second speed v 2 in which the distribution function f (v) has a maximum value different from the maximum value. The second edge E 2 constituted by the continuous pixels to which it belongs is recognized (FIG. 3 / S114, FIG. 6, FIG. 7).

分布関数f(v)が最大値を示す第1速度v1は画像全体の上下運動パターン、ひいては車両1のピッチングの状態を表すものである。このため、第1速度v1を含む区間に属する画素は、建造物や森林等の上側または下側のエッジに相当する可能性が高い。一方、分布関数f(v)が最大値とは別の極大値を示す第2速度v2を含む区間に属する、画像において連続性のある画素により構成される第2エッジE2は、背景とは異なるパターンで上下運動をしている対象物体Pの上側または下側のエッジEPである可能性がある。 The first speed v 1 at which the distribution function f (v) has the maximum value represents the vertical motion pattern of the entire image, and thus the pitching state of the vehicle 1. For this reason, the pixel belonging to the section including the first speed v 1 is highly likely to correspond to an upper or lower edge of a building or a forest. On the other hand, the second edge E 2 constituted by pixels having continuity in the image belonging to the section including the second velocity v 2 where the distribution function f (v) has a local maximum value different from the maximum value is the background and May be the upper or lower edge E P of the target object P moving up and down in different patterns.

さらに、第2エッジE2の実空間における位置(Y座標)が、対象物体(人間)Pの標準的な身長(サイズ)に鑑みて設定されている要件を満たす場合、第2エッジE2が対象物体Pの上側のエッジEPとして認識される(図3/S122〜S123、図6)。これにより、図4に示されているようにグレースケール画像において対象物体Pが背景に紛れ込んだ場合でも、画像全体の上下運動パターンとは異なるパターンで上下運動する対象物体Pの上側のエッジEPが第1エッジE1から高い精度で識別されうる。そして、対象物体Pの存在が高い精度で認識されうる。特に、車両1の前方、すなわち赤外線カメラ102の撮像範囲に森林が広がってこの森林に人間等の対象物体が紛れ込みやすく、かつ、道路にアップダウンや凹凸がある等、ピッチングが生じやすい環境下で車両1が走行している状況ではその真価が発揮されうる。 Furthermore, when the position (Y coordinate) of the second edge E 2 in the real space satisfies the requirements set in view of the standard height (size) of the target object (human) P, the second edge E 2 It is recognized as the upper edge E P of the target object P (FIG. 3 / S122 to S123, FIG. 6). Thus, as shown in FIG. 4, even when the target object P is mixed into the background in the grayscale image, the upper edge E P of the target object P that moves up and down in a pattern different from the vertical motion pattern of the entire image. Can be identified with high accuracy from the first edge E 1 . The presence of the target object P can be recognized with high accuracy. In particular, in an environment where a forest spreads in front of the vehicle 1, that is, in the imaging range of the infrared camera 102, and a target object such as a human is likely to be mixed in the forest and pitching is likely to occur such as up and down or unevenness on the road. In the situation where the vehicle 1 is traveling, the true value can be exhibited.

また、前記のように対象物体Pが背景に紛れ込んだ場合でも、この対象物体PまたはそのエッジEPの存在が高い精度で認識されうるので、車両1と対象物体Pとが接触する可能性も高い精度で評価されうる(図3/S132)。 In addition, even when the target object P is mixed in the background as described above, the presence of the target object P or its edge E P can be recognized with high accuracy, so there is a possibility that the vehicle 1 and the target object P come into contact with each other. It can be evaluated with high accuracy (FIG. 3 / S132).

さらに、前記のように車両1と対象物体Pとの接触可能性が高い精度で評価されうるので、車両1と対象物体Pとの接触回避等の観点から、当該対象物体Pまたはその部分を強調する第1または第2情報が適当にHUD104に表示(出力)されうる(図3/S134,S135、図9)。これにより、車両1の運転者に対象物体Pの存在を認識させ、車両1と対象物体Pとの接触を回避するために車両1の減速や操舵等、車両1の挙動を適当に制御させることができる。 Furthermore, since the possibility of contact between the vehicle 1 and the target object P can be evaluated with high accuracy as described above, the target object P or a portion thereof is emphasized from the viewpoint of avoiding contact between the vehicle 1 and the target object P. The first or second information to be displayed can be appropriately displayed (output) on the HUD 104 (FIG. 3 / S134, S135, FIG. 9). This allows the driver of the vehicle 1 to recognize the presence of the target object P and appropriately control the behavior of the vehicle 1 such as deceleration or steering of the vehicle 1 in order to avoid contact between the vehicle 1 and the target object P. Can do.

なお、第1実施形態では赤外線カメラ102を通じて得られた画像における高輝度画像の上側のエッジが第1エッジE1として認識され、第1エッジE1から第2エッジE2が抽出され、第2エッジE2が対象物体Pの上側のエッジEPに該当するか否かが判定されたが(図3/S111,S114,S123)、他の実施形態として同様の手法によって画像における高輝度画像の下側のエッジが第1エッジE1として認識され、第1エッジE1から第2エッジE2が抽出され、第2エッジE2が対象物体Pの下側のエッジに該当するか否かが判定されてもよい。 In the first embodiment the upper edge of the highlighted image in the obtained image through the infrared camera 102 is recognized as the first edge E 1, from the first edge E 1 second edge E 2 is extracted, the second It is determined whether or not the edge E 2 corresponds to the upper edge E P of the target object P (FIG. 3 / S111, S114, S123). lower edge is recognized as the first edge E 1, it is extracted from the first edge E 1 second edge E 2 is, whether the second edge E 2 corresponds to the lower edge of the target object P is It may be determined.

第1実施形態では第2エッジE2のY座標値(実空間位置)が対象物体(人間)Pの標準的な身長(サイズ)に鑑みた適当な範囲に含まれているか否かに応じて第2エッジE2が対象物体Pの上側のエッジEPであるか否かが判定されたが(図3/S122)、他の実施形態として第2エッジE2の実空間における形状やサイズなどの他の特徴量が、対象物体Pの標準的な実空間位置や形状などの特徴量に鑑みたさまざまな要件を満たすか否かが判定されてもよい。たとえば、第2エッジE2の実空間における横幅が、人間(対象物体)Pの標準的な頭の幅や肩幅等に応じて第2エッジE2が対象物体PのエッジEPであるか否かが判定されてもよい。 In the first embodiment, depending on whether or not the Y coordinate value (real space position) of the second edge E 2 is included in an appropriate range in view of the standard height (size) of the target object (human) P. Although it has been determined whether or not the second edge E 2 is the upper edge E P of the target object P (FIG. 3 / S122), as another embodiment, the shape and size of the second edge E 2 in real space, etc. It may be determined whether the other feature amount satisfies various requirements in view of the feature amount such as the standard real space position and shape of the target object P. For example, whether the width of the second real space edge E 2 are either human (object) standard second edge according to the width and shoulder width, etc. of the head E 2 of P is an edge E P of the target object P May be determined.

続いて、本発明の第2実施形態である車両周辺監視システムの構成および機能について図1、図2、および図10〜図12を用いて説明する。 Next, the configuration and function of the vehicle periphery monitoring system according to the second embodiment of the present invention will be described with reference to FIGS. 1, 2, and 10 to 12.

まず、本発明の第2実施形態である車両周辺監視システムの構成について図1および図2を用いて説明する。本発明の第2実施形態である車両、車両周辺監視システムおよびサーバの構成は、第1処理部11、第2処理部12および第3処理部13の機能を除き、図1および図2に示されている第1実施形態である車両等の構成と同一なので、当該同一の構成については説明を省略する。 First, the structure of the vehicle periphery monitoring system which is 2nd Embodiment of this invention is demonstrated using FIG. 1 and FIG. The configuration of the vehicle, the vehicle periphery monitoring system, and the server according to the second embodiment of the present invention is shown in FIGS. 1 and 2 except for the functions of the first processing unit 11, the second processing unit 12, and the third processing unit 13. Since it is the same as that of the vehicle etc. which are 1st Embodiment currently performed, description is abbreviate | omitted about the said same structure.

第1処理部11は赤外線カメラ102を通じて得られた画像(グレースケール画像または2値化画像)における複数の高輝度領域を1次対象物体候補(「対象要素」に相当する。)P1として認識する。また、第1処理部11は各1次対象物体候補P1の当該画像における上下運動速度(運動変数)vを測定し、当該各1次対象物体候補P1の上下運動速度vの分布関数f(v)を作成する。そして、第1処理部11は当該分布関数f(v)が最大値を示す第1速度v1とは異なり、かつ、当該分布関数f(v)が最大値とは別の極大値を示す第2速度v2を含む速度区間に属する1次対象物体候補P1を2次対象物体候補(「対象物体候補」に相当する。)P2として認識する。 The first processing unit 11 recognizes a plurality of high-luminance regions in an image (grayscale image or binarized image) obtained through the infrared camera 102 as a primary target object candidate (corresponding to “target element”) P 1 . To do. The first processing unit 11 measures the vertical movement velocity (motion variable) v in the respective primary target object candidate P 1 of the image, the distribution function f of vertical movement velocity v of the primary target object candidate P 1 Create (v). The first processing unit 11 is different from the first speed v 1 in which the distribution function f (v) has a maximum value, and the distribution function f (v) has a maximum value different from the maximum value. A primary target object candidate P 1 belonging to a speed section including two speeds v 2 is recognized as a secondary target object candidate (corresponding to “target object candidate”) P 2 .

第2処理部12は第1処理部11により認識された2次対象物体候補P2の実空間位置等の特徴量を測定する。また、第2処理部12は2次対象物体候補P2の実空間における測定特徴量が、対象物体Pの標準的なサイズ等の特徴量に鑑みて設定されている要件を満たすか否かを判定する。そして、第2処理部12は当該要件を満たす2次対象物体候補P2を当該対象物体Pとして認識する。 The second processing unit 12 measures a feature quantity such as a real space position of the secondary target object candidate P 2 recognized by the first processing unit 11. Further, the second processing unit 12 determines whether or not the measurement feature quantity in the real space of the secondary target object candidate P 2 satisfies the requirements set in view of the feature quantity such as the standard size of the target object P. judge. Then, the second processing unit 12 recognizes the secondary target object candidate P 2 that satisfies the requirement as the target object P.

第3処理部13は第2処理部12により対象物体Pとして認識された2次対象物体候補P2の時系列的な測定位置に基づき車両1と当該対象物体Pとの接触可能性を評価する。また、第3処理部13は車両1と対象物体Pとの接触可能性の評価に応じて、当該対象物体Pの存在を知らせるまたは強調する画像をHUD(情報出力装置)104に表示させる等、車載機器の動作を制御する。 The third processing unit 13 evaluates the possibility of contact between the vehicle 1 and the target object P based on the time-series measurement position of the secondary target object candidate P 2 recognized as the target object P by the second processing unit 12. . Further, the third processing unit 13 displays on the HUD (information output device) 104 an image that informs or emphasizes the presence of the target object P according to the evaluation of the possibility of contact between the vehicle 1 and the target object P. Control the operation of in-vehicle equipment.

前記構成の本発明の第2実施形態である車両周辺監視システム10の機能について図10〜図12を用いて説明する。 The function of the vehicle periphery monitoring system 10 having the above-described configuration according to the second embodiment of the present invention will be described with reference to FIGS.

まず、第1処理部11が「第1処理」を実行する(図10/S21)。 First, the first processing unit 11 executes “first processing” (FIG. 10 / S21).

第1処理部11は赤外線カメラ102を通じて得られた画像(グレースケール画像または2値化画像)における複数の高輝度領域を1次対象物体候補P1として認識する(図10/S211)。これにより、たとえば図11に示されているように当該画像において複数の1次対象物体候補P1が認識される。また、第1処理部11は各1次対象物体候補P1(正確にはその重心等の代表点)の当該画像における上下運動速度vを測定する(図10/S212)。さらに、第1処理部11は当該各1次対象物体候補P1の上下運動速度vの分布関数f(v)を作成する(図10/S213)。これにより、本発明の第1実施形態における第1処理によって作成されたのと同様にたとえば図7に示されているような分布関数f(v)が作成されうる。 The first processing unit 11 recognizes a plurality of high luminance regions in an image (grayscale image or binarized image) obtained through the infrared camera 102 as the primary target object candidate P 1 (FIG. 10 / S211). Thereby, for example, as shown in FIG. 11, a plurality of primary target object candidates P 1 are recognized in the image. Further, the first processing unit 11 measures the vertical motion speed v in the image of each primary target object candidate P 1 (more accurately, a representative point such as the center of gravity) (FIG. 10 / S212). Furthermore, the first processing unit 11 creates a distribution function f (v) of the vertical motion velocity v of each primary target object candidate P 1 (FIG. 10 / S213). Thereby, for example, the distribution function f (v) as shown in FIG. 7 can be created in the same way as created by the first processing in the first embodiment of the present invention.

そして、第1処理部11は分布関数f(v)に基づき、複数の1次対象物体候補P1の中から2次対象物体候補P2を抽出または認識する(図10/S214)。具体的には、図7に示されている分布関数f(v)が最大値を示す第1速度v1とは異なり、かつ、分布関数f(v)が最大値f(v1)とは別の極大値を示す第2速度v2を含む区間に属する1次対象物体候補P1が2次対象物体候補P2として認識される。これにより、たとえば図11に示されている複数の1次対象物体候補Pのうち、左から2番目の1次対象物体候補が2次対象物体候補P2として認識される。 Then, the first processing unit 11 extracts or recognizes the secondary target object candidate P 2 from the plurality of primary target object candidates P 1 based on the distribution function f (v) (FIG. 10 / S214). Specifically, the distribution function f (v) shown in FIG. 7 is different from the first speed v 1 where the maximum value is shown, and the distribution function f (v) is the maximum value f (v 1 ). The primary target object candidate P 1 belonging to the section including the second speed v 2 showing another maximum value is recognized as the secondary target object candidate P 2 . Thereby, for example, among the plurality of primary target object candidates P shown in FIG. 11, the second primary target object candidate from the left is recognized as the secondary target object candidate P 2 .

次に第2処理部12が第2処理を実行する(図10/S22)。 Next, the second processing unit 12 executes the second process (FIG. 10 / S22).

第2処理部12は第1処理部11により認識された2次対象物体候補P2のY座標値(「特徴量」(具体的には「実空間位置」)に相当する。)を測定する(図10/S221)。また、第2処理部12は2次対象物体候補P2のY座標値が、対象物体(人間)Pの標準的な身長(「特徴量」(具体的には「サイズ」)に相当する。)に鑑みて設定されている要件(メモリに格納されている。)を満たすか否かを判定する(図10/S222)。そして、第2処理部12は2次対象物体候補P2のY座標値が当該要件を満たすと判定した場合(図10/S222‥YES)、当該2次対象物体候補P2を対象物体Pとして認識する(図10/S223)。 The second processing unit 12 measures the Y coordinate value (corresponding to “feature amount” (specifically “real space position”)) of the secondary target object candidate P 2 recognized by the first processing unit 11. (FIG. 10 / S221). In the second processing unit 12, the Y coordinate value of the secondary target object candidate P 2 corresponds to the standard height (“feature amount” (specifically, “size”) of the target object (human) P. ) Is determined whether or not the requirement set (stored in the memory) is satisfied (FIG. 10 / S222). If the second processing unit 12 determines that the Y coordinate value of the secondary target object candidate P 2 satisfies the requirement (FIG. 10 / S222... YES), the secondary target object candidate P 2 is set as the target object P. Recognize (FIG. 10 / S223).

さらに第3処理部13が「第3処理」を実行する(図10/S23)。 Further, the third processing unit 13 executes “third processing” (S23 in FIG. 10).

第3処理部13は第2処理部12により対象物体Pとして認識された2次対象物体候補P2の時系列的な測定位置をメモリから読み取り、読み取った時系列的な測定位置に基づき車両1を基準とした対象物体Pの相対速度(大きさおよび向きを含む。)vsを算出する(図10/S231)。 The third processing unit 13 reads a time-series measurement position of the secondary target object candidate P 2 recognized as the target object P by the second processing unit 12 from the memory, and the vehicle 1 based on the read time-series measurement position. the relative speed of the object P relative to the (including magnitude and direction.) v s is calculated (FIG. 10 / S231).

以降の第3処理の内容は本発明の第1実施形態における第3処理の内容と同様であるので簡単に説明すると、第3処理部13は車両1と当該対象物体Pとの接触可能性を評価する(図10/S232)。そして、第3処理部13は車両1と対象物体Pとの接触可能性の高低に応じて「第1制御処理」または「第2制御処理」を実行する(図10/S234,S235)。第1制御処理または第2制御処理により、たとえば対象物体Pの存在を強調するため、図12に示されているように対象物体Pを囲むフレームfが「第1情報」または「第2情報」としてHUD104に表示されうる。 Since the contents of the third process thereafter are the same as the contents of the third process in the first embodiment of the present invention, the third process unit 13 will determine the possibility of contact between the vehicle 1 and the target object P. Evaluate (FIG. 10 / S232). Then, the third processing unit 13 executes “first control processing” or “second control processing” according to the possibility of contact between the vehicle 1 and the target object P (FIG. 10 / S234, S235). For example, in order to emphasize the presence of the target object P by the first control process or the second control process, the frame f surrounding the target object P as shown in FIG. 12 is “first information” or “second information”. Can be displayed on the HUD 104.

前記機能を発揮する本発明の第2実施形態である車両周辺監視システム10によれば、赤外線カメラ102を通じて得られた画像(グレースケール画像または2値化画像)において人間等の対象物体Pが背景に紛れ込んだ場合でも、画像全体の上下運動パターンとは異なるパターンで上下運動する1次対象物体候補P1が2次対象物体候補P2として抽出される(図10/S21)。また、2次対象物体候補P2の実空間における位置等が、対象物体Pの位置等に鑑みて設定された要件を満たす場合、2次対象物体候補P2が当該対象物体Pとして認識される(図10/S22)。以上により、対象物体Pの存在が高い精度で認識されうる。 According to the vehicle periphery monitoring system 10 that is the second embodiment of the present invention that exhibits the above function, the target object P such as a human is in the background in the image (grayscale image or binarized image) obtained through the infrared camera 102. In this case, the primary target object candidate P 1 that moves up and down in a pattern different from the vertical motion pattern of the entire image is extracted as the secondary target object candidate P 2 (S21 in FIG. 10). Further, when the position or the like of the secondary target object candidate P 2 in the real space satisfies the requirements set in view of the position or the like of the target object P, the secondary target object candidate P 2 is recognized as the target object P. (FIG. 10 / S22). As described above, the presence of the target object P can be recognized with high accuracy.

なお、前記第1および第2実施形態では対象物体候補(2次エッジE2または2次対象物体候補P2)の実空間における特徴量が対象物体Pの特徴量に鑑みた要件を満たすと判定された場合に当該対象物体候補が当該対象物体Pとして認識されたが(図3/S121〜S123,図10/S221〜S223参照)、他の実施形態としてこのような要件充足性が判定されることなく対象物体候補がそのまま対象物体Pとして認識されてもよい。
また、第1および第2実施形態では第3処理部13が、第1または第2制御処理としてこの対象物体Pの存在を強調する第1または第2情報をHUD104に表示させたが(図9、図12)、他の実施形態として第3処理部13が、第1または第2制御処理として車両1の挙動を制御するためにステアリングシステムやブレーキシステム等の車載機器を制御する、または当該車載機器に車両1の挙動を制御させてもよい。当該構成の車両周辺監視システム10によれば、前記のように高精度で評価された車両1と対象物体Pとの接触可能性に基づいて車載機器が制御され、これにより、車両1と対象物体Pとの接触を回避する観点から、車両1の減速や操舵等、その挙動が適当に制御されうる。
In the first and second embodiments, it is determined that the feature quantity in the real space of the target object candidate (secondary edge E 2 or secondary target object candidate P 2 ) satisfies the requirements in view of the feature quantity of the target object P. In this case, the target object candidate is recognized as the target object P (see FIG. 3 / S121 to S123, FIG. 10 / S221 to S223), but such requirement satisfaction is determined as another embodiment. Instead, the target object candidate may be recognized as the target object P as it is.
In the first and second embodiments, the third processing unit 13 causes the HUD 104 to display the first or second information that emphasizes the presence of the target object P as the first or second control process (FIG. 9). 12), as another embodiment, the third processing unit 13 controls in-vehicle devices such as a steering system and a brake system in order to control the behavior of the vehicle 1 as the first or second control processing, or the in-vehicle You may make an apparatus control the behavior of the vehicle 1. FIG. According to the vehicle periphery monitoring system 10 having the above configuration, the in-vehicle device is controlled based on the possibility of contact between the vehicle 1 and the target object P evaluated with high accuracy as described above, whereby the vehicle 1 and the target object are controlled. From the viewpoint of avoiding contact with P, the behavior of the vehicle 1 such as deceleration and steering can be appropriately controlled.

前記実施形態では第1エッジE1または第1対象物体候補P1の上下運動に応じた運動変数として運動速度vが測定されたが(図3/S112,図10/S212)、他の実施形態として第1エッジE1または第1対象物体候補P1の上下運動の振幅、角速度、振動数等が測定されてもよい。 In the above embodiment, the motion speed v is measured as a motion variable corresponding to the vertical motion of the first edge E 1 or the first target object candidate P 1 (FIG. 3 / S112, FIG. 10 / S212). As such, the amplitude, angular velocity, frequency, etc. of the vertical motion of the first edge E 1 or the first target object candidate P 1 may be measured.

また、第1エッジE1または第1対象物体候補P1の上下運動に応じた任意の運動変数xについて、第1値x1よりも高い第2値x2において第1極大値f(x1)よりも低い第2極大値f(x2)を示す分布関数f(v)が得られる場合のほか(図7参照)、第1値x1よりも低い第2値x2において第1極大値f(x1)よりも低い第2極大値f(x2)を示す分布関数f(v)が得られる場合もある。さらに、複数の第1値x1i(i=1,2,‥)のそれぞれにおいて第1極大値f(x1i)を示す一方、これらの第1値x1iとは異なる第2値x1iで、全ての第1極大値f(x1i)よりも小さい第2極大値f(x2)を示すような分布関数f(x)が得られる場合もありうる。 Also, for any motion variable x corresponding to the vertical movement of the first edge E 1 or the first target object candidate P 1, the second value x 2 higher than the first value x 1 first maximum value f (x 1 In addition to the case where the distribution function f (v) indicating the second maximum value f (x 2 ) lower than the first value x 1 is obtained (see FIG. 7), the first maximum at the second value x 2 lower than the first value x 1 is obtained. In some cases, a distribution function f (v) indicating a second maximum value f (x 2 ) lower than the value f (x 1 ) may be obtained. Further, a plurality of first values x 1i (i = 1,2, ‥ ) while indicating first maximum value f (x 1i) in each, and these first value x 1i with different second value x 1i In some cases, a distribution function f (x) indicating a second maximum value f (x 2 ) smaller than all the first maximum values f (x 1i ) may be obtained.

本発明の車両、車両周辺監視システムおよび構築システムの構成説明図Configuration explanatory diagram of vehicle, vehicle periphery monitoring system and construction system of the present invention 本発明の車両周辺監視システムの構成説明図Configuration explanatory diagram of the vehicle periphery monitoring system of the present invention 本発明の第1実施形態である車両周辺監視システムの機能説明図Functional explanatory diagram of the vehicle periphery monitoring system according to the first embodiment of the present invention 本発明の第1実施形態である車両周辺監視システムの機能説明図Functional explanatory diagram of the vehicle periphery monitoring system according to the first embodiment of the present invention 本発明の第1実施形態である車両周辺監視システムの機能説明図Functional explanatory diagram of the vehicle periphery monitoring system according to the first embodiment of the present invention 本発明の第1実施形態である車両周辺監視システムの機能説明図Functional explanatory diagram of the vehicle periphery monitoring system according to the first embodiment of the present invention 本発明の第1実施形態である車両周辺監視システムの機能説明図Functional explanatory diagram of the vehicle periphery monitoring system according to the first embodiment of the present invention 本発明の第1実施形態である車両周辺監視システムの機能説明図Functional explanatory diagram of the vehicle periphery monitoring system according to the first embodiment of the present invention 本発明の第1実施形態である車両周辺監視システムの機能説明図Functional explanatory diagram of the vehicle periphery monitoring system according to the first embodiment of the present invention 本発明の第2実施形態である車両周辺監視システムの機能説明図Functional explanatory drawing of the vehicle periphery monitoring system which is a 2nd embodiment of the present invention. 本発明の第2実施形態である車両周辺監視システムの機能説明図Functional explanatory drawing of the vehicle periphery monitoring system which is a 2nd embodiment of the present invention. 本発明の第2実施形態である車両周辺監視システムの機能説明図Functional explanatory drawing of the vehicle periphery monitoring system which is a 2nd embodiment of the present invention.

符号の説明Explanation of symbols

1‥車両、10‥車両周辺監視システム、11‥第1処理部、12‥第2処理部、13‥第3処理部、20‥サーバ、102‥赤外線カメラ(撮像装置)、104‥HUD(情報出力装置(車載機器))、122‥ヨーレートセンサ、124‥速度センサ DESCRIPTION OF SYMBOLS 1 ... Vehicle, 10 ... Vehicle periphery monitoring system, 11 ... 1st process part, 12 ... 2nd process part, 13 ... 3rd process part, 20 ... Server, 102 ... Infrared camera (imaging device), 104 ... HUD (information Output device (vehicle equipment)), 122 ... yaw rate sensor, 124 ... speed sensor

Claims (7)

車載の撮像装置を通じて得られた画像に基づいて車両の周辺を監視するシステムであって、
前記画像における一または複数の高輝度画素により構成される複数の対象要素のそれぞれの当該画像における上下運動に応じた運動変数を測定し、当該複数の対象要素の運動変数の分布関数を作成する第1処理部と、
該第1処理部により作成された当該分布関数が第1極大値を示す第1値とは異なり、かつ、当該分布関数が該第1極大値よりも小さい第2極大値を示す第2値を含む区間に当該運動変数が含まれる該対象要素を対象物体または当該対象物体の一部として認識する第2処理部とを備えていることを特徴とする車両周辺監視システム。
A system for monitoring the periphery of a vehicle based on an image obtained through an in-vehicle imaging device,
Measuring a motion variable corresponding to the vertical motion of each of a plurality of target elements constituted by one or a plurality of high-luminance pixels in the image, and creating a distribution function of the motion variables of the plurality of target elements; One processing unit;
The distribution function created by the first processing unit is different from the first value indicating the first maximum value, and the distribution function is a second value indicating the second maximum value smaller than the first maximum value. A vehicle periphery monitoring system comprising: a second processing unit that recognizes the target element including the motion variable in a section including the target element as a target object or a part of the target object.
請求項1記載の車両周辺監視システムにおいて、
前記第1処理部が前記画像における高輝度領域の上側または下側のエッジを構成する複数の画素を前記複数の対象要素として認識し、
前記第2処理部が前記区間に前記運動変数が含まれ、かつ、連続性のある対象要素群を前記対象物体の上側または下側のエッジとして認識することを特徴とする車両周辺監視システム。
In the vehicle periphery monitoring system according to claim 1,
The first processing unit recognizes a plurality of pixels constituting an upper or lower edge of a high-luminance region in the image as the plurality of target elements,
The vehicle periphery monitoring system, wherein the second processing unit recognizes a target element group including the motion variable in the section and having continuity as an upper or lower edge of the target object.
請求項1記載の車両周辺監視システムにおいて、
前記第1処理部が前記画像における複数の高輝度領域を前記複数の対象要素として認識することを特徴とする車両周辺監視システム。
In the vehicle periphery monitoring system according to claim 1,
The vehicle periphery monitoring system, wherein the first processing unit recognizes a plurality of high luminance regions in the image as the plurality of target elements.
請求項1〜3のうちいずれか1つに記載の車両周辺監視システムにおいて、前記第1処理部が前記区間に前記運動変数が含まれる前記対象要素を対象物体候補として認識し、
前記第2処理部が該第1処理部により認識された該対象物体候補の実空間における特徴量を測定し、当該測定した当該対象物体候補の実空間における特徴量が、前記対象物体の特徴量に応じた要件を満たすか否かを判定し、当該要件を満たすと判定した該対象物体候補を当該対象物体または当該対象物体の一部として認識することを特徴とする車両周辺監視システム。
The vehicle periphery monitoring system according to any one of claims 1 to 3, wherein the first processing unit recognizes the target element including the motion variable in the section as a target object candidate,
The second processing unit measures a feature amount in the real space of the target object candidate recognized by the first processing unit, and the measured feature amount in the real space of the target object candidate is the feature amount of the target object. A vehicle periphery monitoring system that determines whether or not a requirement according to the requirement is satisfied and recognizes the target object candidate determined to satisfy the requirement as the target object or a part of the target object.
請求項4記載の車両周辺監視システムにおいて、
前記第2処理部が前記対象物体候補の実空間における前記特徴量として、当該対象物体候補の位置、形状、サイズ、またはこれらの組み合わせを測定することを特徴とする請求項4記載の車両周辺監視システム。
In the vehicle periphery monitoring system according to claim 4,
5. The vehicle periphery monitoring according to claim 4, wherein the second processing unit measures a position, a shape, a size, or a combination of the target object candidates as the feature amount in the real space of the target object candidates. system.
請求項1〜5のうちいずれか1つに記載の車両周辺監視システムにおいて、前記第2処理部により認識された前記対象物体または当該対象物体の一部の時系列的な測定位置に基づき前記車両と当該対象物体との接触可能性を評価する第3処理部をさらに備えていることを特徴とする車両周辺監視システム。 The vehicle periphery monitoring system according to any one of claims 1 to 5, wherein the vehicle is based on a time-series measurement position of the target object or a part of the target object recognized by the second processing unit. A vehicle periphery monitoring system, further comprising a third processing unit that evaluates the possibility of contact with the target object. 請求項6記載の車両周辺監視システムにおいて、
前記第3処理部が、前記車両と前記対象物体との接触可能性の評価に基づき、当該対象物体の存在を知らせるまたは強調する情報を車載の情報出力装置に出力させる、あるいは当該車両の挙動を制御するもしくは車載機器に制御させることを特徴とする車両周辺監視システム。
In the vehicle periphery monitoring system according to claim 6,
Based on the evaluation of the possibility of contact between the vehicle and the target object, the third processing unit causes the in-vehicle information output device to output information that informs or emphasizes the presence of the target object, or determines the behavior of the vehicle. A vehicle periphery monitoring system characterized by being controlled or controlled by an in-vehicle device.
JP2006217496A 2006-08-09 2006-08-09 Vehicle perimeter monitoring system Expired - Fee Related JP4694441B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006217496A JP4694441B2 (en) 2006-08-09 2006-08-09 Vehicle perimeter monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006217496A JP4694441B2 (en) 2006-08-09 2006-08-09 Vehicle perimeter monitoring system

Publications (3)

Publication Number Publication Date
JP2008042779A JP2008042779A (en) 2008-02-21
JP2008042779A5 true JP2008042779A5 (en) 2008-10-16
JP4694441B2 JP4694441B2 (en) 2011-06-08

Family

ID=39177273

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006217496A Expired - Fee Related JP4694441B2 (en) 2006-08-09 2006-08-09 Vehicle perimeter monitoring system

Country Status (1)

Country Link
JP (1) JP4694441B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5410730B2 (en) * 2008-10-09 2014-02-05 日立オートモティブシステムズ株式会社 Automobile external recognition device
EP3392730B1 (en) * 2017-04-18 2021-08-25 Conti Temic microelectronic GmbH Device for enabling a vehicle to automatically resume moving

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4157620B2 (en) * 1998-06-19 2008-10-01 株式会社東芝 Moving object detection apparatus and method
JP4162868B2 (en) * 2001-06-28 2008-10-08 本田技研工業株式会社 Object extraction device
JP3934119B2 (en) * 2004-06-14 2007-06-20 本田技研工業株式会社 Vehicle periphery monitoring device

Similar Documents

Publication Publication Date Title
JP4173901B2 (en) Vehicle periphery monitoring device
JP5639283B2 (en) Vehicle periphery monitoring device
JP4456086B2 (en) Vehicle periphery monitoring device
JP4173902B2 (en) Vehicle periphery monitoring device
JP4171501B2 (en) Vehicle periphery monitoring device
JP4271720B1 (en) Vehicle periphery monitoring device
JP4528283B2 (en) Vehicle periphery monitoring device
JP2007304033A (en) Monitoring device for vehicle periphery, vehicle, vehicle peripheral monitoring method, and program for vehicle peripheral monitoring
JP5927110B2 (en) Vehicle external recognition device
JP4644273B2 (en) Vehicle periphery monitoring device
JP4694441B2 (en) Vehicle perimeter monitoring system
JP4823753B2 (en) Vehicle periphery monitoring device
JP2011191859A (en) Apparatus for monitoring surroundings of vehicle
JP2008042779A5 (en)
JP4869835B2 (en) Vehicle perimeter monitoring system
JP4629638B2 (en) Vehicle periphery monitoring device
JP4975379B2 (en) Vehicle perimeter monitoring system
JP4828333B2 (en) Vehicle perimeter monitoring system
JP2008052467A5 (en)
JP2007334763A5 (en)
JP2008017360A5 (en)
JP4496383B2 (en) Vehicle periphery monitoring device, vehicle periphery monitoring method, vehicle periphery monitoring program
JP4343920B2 (en) Vehicle periphery monitoring system, vehicle, vehicle periphery monitoring program, configuration method of vehicle periphery monitoring system, and server
JP5442050B2 (en) Vehicle perimeter monitoring system