JP2007257459A - Posture determining device - Google Patents

Posture determining device Download PDF

Info

Publication number
JP2007257459A
JP2007257459A JP2006082956A JP2006082956A JP2007257459A JP 2007257459 A JP2007257459 A JP 2007257459A JP 2006082956 A JP2006082956 A JP 2006082956A JP 2006082956 A JP2006082956 A JP 2006082956A JP 2007257459 A JP2007257459 A JP 2007257459A
Authority
JP
Japan
Prior art keywords
pedestrian
posture
length data
run
run length
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006082956A
Other languages
Japanese (ja)
Other versions
JP4476957B2 (en
Inventor
Takayuki Tsuji
孝之 辻
Shinji Nagaoka
伸治 長岡
Yoichi Sugimoto
洋一 杉本
Morimichi Nishigaki
守道 西垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2006082956A priority Critical patent/JP4476957B2/en
Priority to US11/717,565 priority patent/US7671725B2/en
Priority to DE102007014012A priority patent/DE102007014012B4/en
Publication of JP2007257459A publication Critical patent/JP2007257459A/en
Application granted granted Critical
Publication of JP4476957B2 publication Critical patent/JP4476957B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a posture determining device capable of easily and quickly determining the posture of a walker from an image around a road. <P>SOLUTION: The posture determining device has a binarization processing means 5 for extracting a binarized area from an image acquired through an imaging means 2 for imaging surroundings of the road, a run-length data preparing means 6 for preparing run-length data of the extracted binarized areas, a target object extracting means 7 for extracting target objects existing around the road on the basis of the prepared run-length data, a walker extracting means 8 for extracting walkers among the extracted target objects, and a walker posture determining means 9 for determining the postures of the extracted walkers on the basis of the prepared run-length data. The walker posture determining means 9 is provided with a means for calculating dot sequence data composed of coordinates of pixels of a middle point of each line of the prepared run-length data, a means for calculating an approximate straight lines that approximate the calculated dot sequence data, and a means for determining the postures of the walkers on the basis of the calculated approximate straight lines. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像から歩行者等の人間の姿勢を判別する姿勢判別装置に関する。   The present invention relates to a posture determination device that determines the posture of a human such as a pedestrian from an image.

近年、CCDカメラ等の撮像手段により撮像された室内等の画像から、周辺に存在する人間を検出し、検出された人間の姿勢を判別して、判別した結果に応じて例えば空調等の機器の制御等を行う技術が知られている。これによれば、姿勢から人間の状態が推測されるので、人間の状態に合わせた適切な機器の制御等が行われる。このとき、人間の姿勢を判別する装置として、例えば、画像から抽出した人間の領域の形状判別等を用いる装置が提案されている(例えば特許文献1参照)。   In recent years, humans existing in the vicinity are detected from indoor images captured by an imaging means such as a CCD camera, the detected human posture is determined, and, for example, an air conditioner or the like is detected according to the determined result. Techniques for performing control and the like are known. According to this, since the human state is inferred from the posture, appropriate device control or the like according to the human state is performed. At this time, as an apparatus for determining a human posture, for example, an apparatus using shape determination of a human region extracted from an image has been proposed (see, for example, Patent Document 1).

特許文献1の姿勢判別装置では、赤外線画像データ上の人間の領域を検出する人間領域検出手段と、人間の領域の形状を判別する形状判別手段と、画像の時系列データから人間の動きを検出する動き検出手段と、形状判別手段による判別結果と動き検出手段による検出結果とに基づいて人間の姿勢を判別する姿勢判別手段とが備えられている。このとき、形状判別手段は、人間の領域の縦横比により縦長、横長、正方形の3種類の形状判別を行う。そして、姿勢判別手段は、形状が縦長で且つ動いている場合に立位、形状が縦長で且つ動いていない場合と形状が横長の場合とに臥位、形状が正方形の場合に座位として、室内の人間の姿勢を立位、臥位、座位の3種類に判別する。   In the posture determination apparatus of Patent Document 1, a human region detection unit that detects a human region on infrared image data, a shape determination unit that determines the shape of a human region, and a human motion from time-series data of an image Motion detection means for performing the determination, and posture discrimination means for discriminating the human posture based on the discrimination result by the shape discrimination means and the detection result by the motion detection means. At this time, the shape discriminating means discriminates three types of shapes of portrait, landscape, and square according to the aspect ratio of the human region. The posture discriminating means is standing when the shape is vertically long and moving, standing in the case where the shape is vertically long and not moving and when the shape is horizontally long, and sitting when the shape is square, The human posture is classified into three types: standing, lying and sitting.

一方、車両の周辺の画像から歩行者を検出し、衝突の可能性の高い歩行者を判定して、運転者への情報の提示等を行う技術が知られている(例えば特許文献2参照)。このような技術において、例えば、歩行者が急に車道へ飛び出すような場合に、衝突の可能性を迅速に判定して運転者に情報提示を行うためには、歩行者の道路の横断を事前に迅速に予測することが望まれる。このとき、例えば、道路を横断しようとする歩行者とそれ以外の歩行者とでは、路側に存在する時点で、体の向きや傾き等に関する姿勢が相違すると考えられる。これは、歩行者が移動を開始するときや車道に飛び出してくるようなときには、その体幹軸は進行方向に対して傾いており、これに対して、歩行者が停止しているときや道路に沿って移動を継続しているときには、その体幹軸の傾きは十分に小さいと考えられるからである。よって、道路の横断を事前に予測するために、路側の歩行者の姿勢を判別することが望ましい。特に、演算処理を軽減して衝突の可能性の判定に要する時間を短縮するためには、簡易な手法で歩行者の姿勢を判別することが望ましい。   On the other hand, a technique is known in which a pedestrian is detected from an image around a vehicle, a pedestrian with a high possibility of collision is determined, and information is presented to the driver (see Patent Document 2, for example). . In such a technique, for example, when a pedestrian suddenly jumps out to the roadway, in order to quickly determine the possibility of a collision and present information to the driver, the pedestrian must cross the road in advance. It is desirable to predict quickly. At this time, for example, it is considered that a pedestrian trying to cross a road and other pedestrians have different postures related to the body orientation, inclination, and the like at the time of being on the roadside. This is because when the pedestrian starts moving or jumps out onto the roadway, the trunk axis is tilted with respect to the traveling direction, while the pedestrian is stopped or the road This is because the inclination of the trunk axis is considered to be sufficiently small when the movement is continued along. Therefore, in order to predict the crossing of the road in advance, it is desirable to determine the posture of the roadside pedestrian. In particular, it is desirable to determine the posture of a pedestrian by a simple method in order to reduce the calculation process and reduce the time required for determining the possibility of a collision.

このとき、歩行者の道路の横断等の挙動を予測するためには、立位、臥位、座位等の姿勢ではなくて、直立姿勢であるか前傾姿勢であるかというような、歩行者の体幹軸の傾きに関する姿勢(体幹軸の傾きの方向や角度)を把握することが必要である。しかしながら、特許文献1の姿勢判別装置のような、領域の縦横比を用いた形状判別では、直立姿勢や前傾姿勢等の体幹軸の傾きに関する姿勢を判別することは困難である。さらに、特許文献1の姿勢判別装置では、画像の時系列データから人間の動きを検出して姿勢の判別に用いるため、人間の姿勢が判別されるまでに時間を要する。よって、特許文献1の姿勢判別装置では、例えば路側の歩行者等の姿勢を適切に判別することができず、歩行者の道路の横断等の挙動を事前に予測することができないという不都合があった。
特開平5−149725号公報 特開2001−6096号公報
At this time, in order to predict the pedestrian's behavior such as crossing the road, the pedestrian must be in an upright position or a forward leaned position, not in a standing position, a standing position, or a sitting position. It is necessary to grasp the posture related to the inclination of the trunk axis (the direction and angle of the inclination of the trunk axis). However, in the shape determination using the aspect ratio of the region as in the posture determination device of Patent Document 1, it is difficult to determine the posture related to the inclination of the trunk axis such as the upright posture and the forward tilt posture. Furthermore, since the posture determination apparatus of Patent Document 1 detects a human motion from time-series data of an image and uses it to determine the posture, it takes time until the human posture is determined. Therefore, the posture determination device of Patent Document 1 cannot properly determine the posture of a roadside pedestrian or the like, for example, and cannot predict the behavior of a pedestrian crossing a road in advance. It was.
Japanese Patent Laid-Open No. 5-149725 JP 2001-6096 A

本発明は、かかる不都合を解消し、道路の周辺の画像から歩行者の姿勢(歩行者の体幹軸の傾きに関する姿勢)を容易且つ迅速に判別することができる姿勢判別装置を提供することを目的とする。   The present invention provides an attitude determination device that can easily and quickly determine the pedestrian's posture (posture regarding the inclination of the trunk axis of the pedestrian) from images around the road, eliminating such inconvenience. Objective.

かかる目的を達成するために、本発明の姿勢判別装置は、道路の周辺を撮像する撮像手段を介して取得した画像に2値化処理を施して、該画像内の画素の輝度値が所定閾値以上である2値化領域を抽出する2値化処理手段と、前記2値化処理手段により抽出された2値化領域のランレングスデータを作成するランレングスデータ作成手段と、前記ランレングスデータ作成手段により作成されたランレングスデータに基づいて、前記道路の周辺に存在する対象物を抽出する対象物抽出手段と、前記対象物抽出手段により抽出された対象物のうちから歩行者を抽出する歩行者抽出手段と、前記ランレングスデータ作成手段により作成されたランレングスデータに基づいて、前記歩行者抽出手段により抽出された歩行者の姿勢を判別する歩行者姿勢判別手段とを有する。   In order to achieve such an object, the posture determination device of the present invention performs binarization processing on an image acquired via an imaging unit that images the periphery of a road, and the luminance value of a pixel in the image is a predetermined threshold value. The binarization processing means for extracting the above binarized area, the run length data creating means for creating run length data of the binarized area extracted by the binarization processing means, and the run length data creation Based on the run length data created by the means, object extraction means for extracting objects existing around the road, and walking for extracting pedestrians from the objects extracted by the object extraction means A pedestrian posture for discriminating the posture of the pedestrian extracted by the pedestrian extraction means based on the run length data created by the pedestrian extraction means and the run length data creation means And a different means.

前記本発明の姿勢判別装置において、撮像手段を介して取得した画像から、前記2値化処理手段により2値化領域が抽出され、前記ランレングスデータ作成手段により2値化領域のランレングスデータが作成され、ランレングスデータに基づいて前記対象物抽出手段により前記道路の周辺に存在する対象物が抽出され、対象物のうちから前記歩行者抽出手段により歩行者が抽出される。そして、前記歩行者姿勢判別手段は、前記ランレングスデータに基づいて、抽出された歩行者の姿勢を判別する。このとき、前記ランレングスデータの各ラインの所定の点(例えば中点)の点列データは、歩行者の体幹軸の傾きと密接に関わるものである。よって、前記ランレングスデータを用いることで、歩行者の体幹軸の傾きに関する姿勢を判別することができる。そして、このように判別された歩行者の姿勢により、例えば道路の横断等の歩行者の挙動を事前に迅速に予測することができる。このとき、前記ランレングスデータは、1フレームの画像のみから算出することができるので、例えば画像の時系列データ等に基づいた判別より、姿勢の判別に要する時間が短くて済む。また、前記ランレングスデータは、画像から歩行者を抽出する処理の過程で算出されるものであり、これを判別に用いることで、姿勢の判別に要する演算負荷が軽減される。よって、前記歩行者姿勢判別手段によれば、簡易な処理で歩行者の姿勢を容易且つ迅速に判別することができる。   In the posture determination apparatus of the present invention, a binarized area is extracted by the binarization processing unit from an image acquired through the imaging unit, and the run length data of the binarized area is obtained by the run length data creating unit. An object existing around the road is extracted by the object extraction means based on the run length data, and a pedestrian is extracted from the objects by the pedestrian extraction means. And the said pedestrian attitude | position discrimination | determination means discriminate | determines the attitude | position of the extracted pedestrian based on the said run length data. At this time, the point sequence data of a predetermined point (for example, the middle point) of each line of the run length data is closely related to the inclination of the trunk axis of the pedestrian. Therefore, by using the run length data, it is possible to determine the posture related to the inclination of the trunk axis of the pedestrian. Based on the posture of the pedestrian determined as described above, the behavior of the pedestrian such as crossing the road can be predicted quickly in advance. At this time, since the run-length data can be calculated from only one frame image, the time required for the posture determination can be shorter than the determination based on the time-series data of the image, for example. The run-length data is calculated in the process of extracting a pedestrian from an image. By using this data for determination, the calculation load required for posture determination is reduced. Therefore, according to the pedestrian posture determination means, the posture of the pedestrian can be easily and quickly determined by a simple process.

また、前記本発明の姿勢判別装置において、前記歩行者姿勢判別手段は、前記ランレングスデータ作成手段により作成されたランレングスデータから、該ランレングスデータの各ラインの中点の画素の座標で構成される点列データを算出する手段と、該算出された点列データを近似する近似直線を算出する手段と、該算出された近似直線に基づいて、前記歩行者の姿勢を判別する手段とを備えることが好ましい。   Further, in the posture determination device according to the present invention, the pedestrian posture determination means is composed of the coordinates of the pixel at the midpoint of each line of the run length data from the run length data created by the run length data creation means. Means for calculating the point sequence data, means for calculating an approximate line approximating the calculated point sequence data, and means for determining the posture of the pedestrian based on the calculated approximate line It is preferable to provide.

これによれば、前記歩行者姿勢判別手段で、前記ランレングスデータの各ラインの中点の画素の座標で構成される点列データが算出され、点列データを近似する近似直線が算出される。このとき、算出された近似直線は、歩行者の体幹軸に相当するものである。そこで、前記歩行者姿勢判別手段により、前記近似直線に基づいて歩行者の姿勢を判別することで、歩行者の姿勢(歩行者の体幹軸の傾きに関する姿勢)を容易且つ迅速に判別することができる。   According to this, the pedestrian posture discriminating means calculates point sequence data composed of the coordinates of the midpoint pixel of each line of the run length data, and calculates an approximate straight line that approximates the point sequence data. . At this time, the calculated approximate straight line corresponds to the trunk axis of the pedestrian. Therefore, by determining the pedestrian posture based on the approximate straight line by the pedestrian posture determination means, it is possible to easily and quickly determine the pedestrian posture (the posture related to the inclination of the trunk axis of the pedestrian). Can do.

詳細には、前記本発明の姿勢判別装置において、前記歩行者姿勢判別手段は、前記近似直線と上下方向軸とのなす角度に基づいて、前記歩行者の姿勢を判別することができる。   Specifically, in the posture determination device of the present invention, the pedestrian posture determination means can determine the posture of the pedestrian based on an angle formed by the approximate straight line and the vertical axis.

すなわち、前記近似直線は、歩行者の体幹軸に相当するものであるので、前記近似直線と上下方向軸とのなす角度により、前記歩行者の体幹軸の傾きの方向や角度が判る。そして、このように判別された歩行者姿勢(歩行者の体幹軸の傾きに関する姿勢)により、例えば道路の横断等の歩行者の挙動を事前に迅速に予測することができる。   That is, since the approximate line corresponds to the trunk axis of the pedestrian, the direction and angle of inclination of the trunk axis of the pedestrian can be determined from the angle formed by the approximate line and the vertical axis. Then, based on the pedestrian posture determined in this manner (the posture related to the inclination of the trunk axis of the pedestrian), the behavior of the pedestrian such as crossing the road can be predicted quickly in advance.

本発明の一実施形態を添付の図面を参照して説明する。図1は、本実施形態による姿勢判別装置の機能ブロック図であり、図2は、図1の姿勢判別装置の画像処理ユニットにおける全体的作動(姿勢判別処理)を示すフローチャートである。また、図3は、図2の姿勢判別処理における処理画像の例示図であり、図4は、図2の姿勢判別処理におけるランレングスデータを作成して対象物を抽出する処理に関する説明図であり、図5は、図2の姿勢判別処理における歩行者の姿勢を判別する処理に関する説明図である。   An embodiment of the present invention will be described with reference to the accompanying drawings. FIG. 1 is a functional block diagram of the posture determination device according to the present embodiment, and FIG. 2 is a flowchart showing the overall operation (posture determination processing) in the image processing unit of the posture determination device of FIG. 3 is an exemplary diagram of a processing image in the posture determination processing of FIG. 2, and FIG. 4 is an explanatory diagram regarding processing for creating run-length data and extracting an object in the posture determination processing of FIG. FIG. 5 is an explanatory diagram regarding processing for determining the posture of a pedestrian in the posture determination processing of FIG.

図1を参照して、本実施形態の姿勢判別装置は、CPU(中央演算装置)を備えた電子ユニットである画像処理ユニット1を有する。画像処理ユニット1には、車両10に搭載された赤外線カメラ2と、音声で警報を発するためのスピーカ3と、赤外線カメラ2を介して取得される画像を表示するための表示装置4とが接続されている。表示装置4は、例えば、車両10のフロントウィンドウの運転者の前方視界を妨げない位置に画面が設けられて、運転者に情報を表示するHUD(ヘッドアップディスプレイ)等を備えている。   With reference to FIG. 1, the attitude | position discrimination | determination apparatus of this embodiment has the image processing unit 1 which is an electronic unit provided with CPU (central processing unit). Connected to the image processing unit 1 are an infrared camera 2 mounted on the vehicle 10, a speaker 3 for issuing a warning by sound, and a display device 4 for displaying an image acquired via the infrared camera 2. Has been. The display device 4 includes, for example, a HUD (head-up display) that displays information on the driver by providing a screen at a position that does not obstruct the driver's forward view of the front window of the vehicle 10.

赤外線カメラ2は、遠赤外線を検出可能なカメラであり、対象物の温度が高いほど、その出力信号レベルが高くなる(輝度が増加する)特性を有している。赤外線カメラ2は、車両10の前部に、赤外線カメラ2の光軸が車両10の前方に向くように配置されている。なお、赤外線カメラ2は、本発明の撮像手段に相当する。   The infrared camera 2 is a camera that can detect far-infrared rays, and has a characteristic that the higher the temperature of the object, the higher the output signal level (the luminance increases). The infrared camera 2 is arranged at the front of the vehicle 10 so that the optical axis of the infrared camera 2 faces the front of the vehicle 10. The infrared camera 2 corresponds to the imaging unit of the present invention.

画像処理ユニット1は、詳細の図示は省略するが、A/D変換回路、CPU、RAM、ROM、画像メモリ等を含む電子回路により構成され、赤外線カメラ2の出力(アナログ信号)がA/D変換回路を介してデジタル信号に変換されて入力される。そして、画像処理ユニット1は、入力されたデータを基に、歩行者等の対象物を検出する処理や、その検出した対象物に関して所定要件が満たされるか否かを判定し、該要件が満たされる場合にスピーカ3や表示装置4を介して車両10の運転者に警報を発する処理等を実行する。   Although not shown in detail, the image processing unit 1 is composed of an electronic circuit including an A / D conversion circuit, a CPU, a RAM, a ROM, an image memory, and the like, and an output (analog signal) of the infrared camera 2 is A / D. It is converted into a digital signal and input through a conversion circuit. Then, the image processing unit 1 determines, based on the input data, processing for detecting an object such as a pedestrian or whether a predetermined requirement is satisfied for the detected object, and the requirement is satisfied. In such a case, processing for issuing a warning to the driver of the vehicle 10 through the speaker 3 and the display device 4 is executed.

より詳しくは、画像処理ユニット1は、その機能として、取得された画像から2値化領域を抽出する2値化処理手段5と、抽出された2値化領域のランレングスデータを作成するランレングスデータ作成手段6と、作成されたランレングスデータに基づいて車両10の周辺に存在する対象物を抽出する対象物抽出手段7と、抽出された対象物のうちから歩行者を抽出する歩行者抽出手段8と、ランレングスデータに基づいて歩行者の姿勢を判別する歩行者姿勢判別手段9とを備えている。   More specifically, the image processing unit 1 functions as the binarization processing means 5 for extracting the binarized area from the acquired image, and the run length for creating run length data of the extracted binarized area. Data creation means 6, object extraction means 7 for extracting objects existing around the vehicle 10 based on the created run length data, and pedestrian extraction for extracting pedestrians from the extracted objects Means 8 and pedestrian posture determination means 9 for determining the pedestrian posture based on the run length data are provided.

2値化処理手段5は、赤外線カメラ2を介して取得した画像に2値化処理を施して、該画像内の画素の輝度値が所定閾値以上である2値化領域を抽出する。具体的には、2値化処理手段5は、赤外線カメラ2の出力信号(赤外線画像)をA/D変換して得られるグレースケール画像に対して、画素の輝度値が所定閾値より明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理を行う。   The binarization processing unit 5 performs binarization processing on the image acquired via the infrared camera 2 and extracts a binarized region in which the luminance value of the pixel in the image is equal to or greater than a predetermined threshold. Specifically, the binarization processing means 5 has a region in which the luminance value of the pixel is brighter than a predetermined threshold with respect to a grayscale image obtained by A / D converting the output signal (infrared image) of the infrared camera 2. A process of setting “1” (white) and a dark area to “0” (black) is performed.

ランレングスデータ作成手段6は、2値化処理手段5により抽出された2値化領域のランレングスデータを作成する。ここで、作成されるランレングスデータは、2値化領域を1次元の連結画素であるラインの集合で表し、該2値化領域を構成する各ラインをその始点の座標と、始点から終点までの長さ(画素数)とで示したものである。   The run length data creation means 6 creates run length data of the binarized area extracted by the binarization processing means 5. Here, the generated run-length data represents a binarized area as a set of lines that are one-dimensional connected pixels, and each line constituting the binarized area is represented by the coordinates of the start point and the start point to the end point. This is indicated by the length (number of pixels).

対象物抽出手段7は、ランレングスデータ作成手段6により作成されたランレングスデータに基づいて、道路の周辺に存在する対象物を抽出する。対象物を抽出する手法としては、例えば、ラベリング処理等が用いられる。このとき、抽出される対象物(2値化対象物)には、道路周辺の歩行者以外に、例えば、他車両、電柱や自動販売機等の人工構造物が含まれる。   The object extracting means 7 extracts objects existing around the road based on the run length data created by the run length data creating means 6. As a method for extracting the object, for example, a labeling process or the like is used. At this time, the extracted objects (binarized objects) include, for example, other vehicles, artificial structures such as electric poles and vending machines, in addition to pedestrians around the road.

歩行者抽出手段8は、対象物抽出手段7により抽出された対象物のうちから歩行者を抽出する。歩行者を抽出する手法としては、例えば、対象物の縦横比や、対象物の面積と該対象物の外接四角形の面積との比等に基づいて、対象物が歩行者であるか否かを判定する手法が用いられる。   The pedestrian extraction means 8 extracts a pedestrian from the objects extracted by the object extraction means 7. As a method for extracting a pedestrian, for example, whether or not the object is a pedestrian based on the aspect ratio of the object or the ratio of the area of the object to the area of the circumscribed rectangle of the object is determined. A determination method is used.

歩行者姿勢判別手段9は、ランレングスデータ作成手段6により作成されたランレングスデータに基づいて、歩行者抽出手段8により抽出された歩行者の姿勢(歩行者の体幹軸の傾きに関する姿勢)を判別する。このとき、歩行者姿勢判別手段9は、ランレングスデータから、該ランレングスデータの各ラインの中点の画素の座標で構成される点列データを算出し、該算出された点列データを近似する近似直線を算出する。そして、歩行者姿勢判別手段9は、算出した近似直線と上下方向軸とのなす角度に基づいて、歩行者の体幹軸の傾きに関する姿勢(体幹軸の傾きの方向や角度)を判別する。   The pedestrian posture determination means 9 is based on the run length data created by the run length data creation means 6 and the pedestrian posture extracted by the pedestrian extraction means 8 (posture regarding the inclination of the trunk axis of the pedestrian). Is determined. At this time, the pedestrian posture discriminating means 9 calculates point sequence data composed of the coordinates of the midpoint pixel of each line of the run length data from the run length data, and approximates the calculated point sequence data. An approximate straight line is calculated. The pedestrian posture determination means 9 determines the posture (the direction and angle of the trunk axis inclination) related to the inclination of the trunk axis of the pedestrian based on the angle formed between the calculated approximate straight line and the vertical axis. .

次に、本実施形態の姿勢判別装置の全体的な作動(姿勢判別処理)を、図2に示したフローチャートに従って説明する。なお、以下の説明では、車両10の前方の左側に歩行者が存在し、車両10の前方に他車両が存在しており、歩行者が道路を横断しようとしている場合を例にして説明する。   Next, the overall operation (posture determination processing) of the posture determination device of this embodiment will be described with reference to the flowchart shown in FIG. In the following description, a case where a pedestrian exists on the left side in front of the vehicle 10 and another vehicle exists in front of the vehicle 10 and the pedestrian is going to cross the road will be described as an example.

図2を参照して、まず、画像処理ユニット1は、赤外線カメラ2の出力信号である赤外線画像を取得して(STEP001)、A/D変換し(STEP002)、グレースケール画像を画像メモリに格納する(STEP003)。次に、画像処理ユニット1は、グレースケール画像に対して、その画像信号を2値化する(STEP004)。すなわち、グレースケール画像の画素の輝度値が閾値Ithより明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理が行われる。閾値Ithは、実験的に予め決定される値である。   Referring to FIG. 2, first, image processing unit 1 acquires an infrared image that is an output signal of infrared camera 2 (STEP001), performs A / D conversion (STEP002), and stores a grayscale image in an image memory. (STEP003). Next, the image processing unit 1 binarizes the image signal for the grayscale image (STEP 004). That is, a process is performed in which a region where the luminance value of the pixel of the grayscale image is brighter than the threshold value Ith is set to “1” (white) and a dark region is set to “0” (black). The threshold value Ith is a value that is experimentally determined in advance.

図3(a)に、赤外線カメラ2によって得られる画像を2値化した画像を例示する。図3(a)において、ハッチングを付した領域が黒であり、太い実線で囲まれた領域が白であることを示している。太い実線で囲まれた領域は、赤外線カメラ2から得られる画像において、輝度レベルが高く(高温で)、画面上に白色として表示される対象物の領域である。   FIG. 3A illustrates an image obtained by binarizing an image obtained by the infrared camera 2. In FIG. 3A, the hatched area is black, and the area surrounded by the thick solid line is white. A region surrounded by a thick solid line is a region of an object that has a high luminance level (at a high temperature) and is displayed as white on the screen in the image obtained from the infrared camera 2.

次に、画像処理ユニット1は、2値化処理で「白」となった領域(2値化領域)からランレングスデータを作成する(STEP005)。ここで、図4(a)を参照して説明すると、図4(a)には、2値化領域が1次元の連結画素であるラインL1〜L8で表されている。ラインL1〜L8は、いずれもy方向(縦方向)には1画素の幅を有しており、実際にはy方向には隙間なく並んでいるが、説明のために離間して示している。また、ラインL1〜L8は、x方向(横方向)にはそれぞれ2画素、2画素、3画素、8画素、7画素、8画素、8画素、8画素の長さを有している。ランレングスデータは、ラインL1〜L8を各ラインの始点(各ラインの左端の点)の座標と、始点から終点(各ラインの右端の点)までの長さ(画素数)とで示したものである。例えばラインL3は、(x3,y5),(x4,y5),(x5,y5)の3画素からなるので、ランレングスデータとしては、(x3,y5,3)となる。   Next, the image processing unit 1 creates run-length data from an area (binarized area) that has become “white” in the binarization process (STEP 005). Here, with reference to FIG. 4A, in FIG. 4A, the binarized region is represented by lines L1 to L8 which are one-dimensional connected pixels. Each of the lines L1 to L8 has a width of one pixel in the y direction (vertical direction) and is actually arranged without a gap in the y direction, but is shown separated for the sake of explanation. . The lines L1 to L8 have lengths of 2 pixels, 2 pixels, 3 pixels, 8 pixels, 7 pixels, 8 pixels, 8 pixels, and 8 pixels, respectively, in the x direction (horizontal direction). The run-length data shows the lines L1 to L8 with the coordinates of the start point of each line (the leftmost point of each line) and the length (number of pixels) from the start point to the end point (the rightmost point of each line). It is. For example, since the line L3 is composed of three pixels (x3, y5), (x4, y5), and (x5, y5), the run length data is (x3, y5, 3).

次に、画像処理ユニット1は、作成されたランレングスデータに基づいて、対象物のラベリングをする(STEP006)ことにより、対象物を抽出する(STEP007)。すなわち、ランレングスデータで表されたラインのうち、y方向に重なる部分のあるラインを1つの対象物とみなしてラベル(識別子)を付すことにより、画像内の連結した領域を対象物として抽出する。ここで、図4(b)を参照して説明すると、図4(a)に示したラインL1〜L8のうち、y方向に重なる部分のあるラインL1〜L3を1つの対象物1とみなし、ラインL4〜L8を1つの対象物2とみなし、ランレングスデータに対象物ラベル1,2が付加される。これにより、2値化領域がそれぞれ対象物1,2として抽出される。   Next, the image processing unit 1 extracts the target object by labeling the target object (STEP 006) based on the generated run length data (STEP 007). That is, among the lines represented by the run-length data, a line having an overlapping portion in the y direction is regarded as one object and a label (identifier) is attached to extract a connected region in the image as the object. . Here, with reference to FIG. 4B, among the lines L1 to L8 shown in FIG. 4A, the lines L1 to L3 having portions overlapping in the y direction are regarded as one object 1, The lines L4 to L8 are regarded as one object 2, and the object labels 1 and 2 are added to the run length data. Thereby, the binarized areas are extracted as the objects 1 and 2, respectively.

上述のSTEP005〜007の処理により、図3(a)に示す2値化領域が、図3(b)に例示するように、対象物(2値化対象物)T1〜T6として抽出される。このとき、例えばラベルT1の対象物は、n個のランレングスデータL1〜Lnで示される。なお、図3(b)の例では、対象物T1は、車両10の前方の左側に存在する歩行者に対応する2値化対象物であり、対象物T2〜T6は、車両10の前方に存在する他車両に対応する2値化対象物である。   Through the processing of STEP 005 to 007 described above, the binarized areas shown in FIG. 3A are extracted as objects (binarized objects) T1 to T6 as illustrated in FIG. 3B. At this time, for example, the object of the label T1 is indicated by n pieces of run-length data L1 to Ln. In the example of FIG. 3B, the object T1 is a binarized object corresponding to a pedestrian existing on the left side in front of the vehicle 10, and the objects T2 to T6 are in front of the vehicle 10. It is a binarized object corresponding to another vehicle that exists.

次に、画像処理ユニット1は、抽出された対象物の面積SAと、対象物の外接四角形の面積SBと、対象物の縦横比ASPECTとを算出する(STEP008)。具体的には、対象物T1の面積SAは、各ランレングスデータLi(i=1,...,n)で示されるラインの長さを、対象物T1のn個のランレングスデータについて積算することにより算出する。また、対象物T1の縦横比ASPECTは、対象物T1の外接四角形の縦方向の長さDyと横方向の長さDxとの比Dy/Dxとして算出する。   Next, the image processing unit 1 calculates the area SA of the extracted object, the area SB of the circumscribed rectangle of the object, and the aspect ratio ASPECT of the object (STEP008). Specifically, the area SA of the target T1 is obtained by integrating the length of the line indicated by each run-length data Li (i = 1,..., N) with respect to the n pieces of run-length data of the target T1. To calculate. Further, the aspect ratio ASPECT of the object T1 is calculated as a ratio Dy / Dx between the length Dy in the vertical direction and the length Dx in the horizontal direction of the circumscribed rectangle of the object T1.

次に、画像処理ユニット1は、抽出された対象物のうちから歩行者を抽出する(STEP009)。このとき、対象物の縦横比ASPECTと、対象物の面積と該対象物の外接四角形の面積との比SA/SBとが、所定範囲にある場合に、対象物が歩行者であると判定され、該対象物が歩行者として抽出される。なお、前記所定範囲は、対象物が歩行者の上半身や全身であるときに取り得る値の範囲として予め定められる範囲である。これにより、図3(b)に例示するように、対象物T1〜T6のうちから、枠R1で囲われた対象物T1が歩行者として抽出される。   Next, the image processing unit 1 extracts a pedestrian from the extracted objects (STEP 009). At this time, when the aspect ratio ASPECT of the object and the ratio SA / SB of the area of the object and the circumscribed rectangle of the object are within a predetermined range, the object is determined to be a pedestrian. The object is extracted as a pedestrian. The predetermined range is a range that is determined in advance as a range of values that can be taken when the object is the upper body or the whole body of a pedestrian. Thereby, as illustrated in FIG. 3B, the object T1 surrounded by the frame R1 is extracted as a pedestrian from the objects T1 to T6.

次に、STEP010〜013で、抽出された歩行者T1の姿勢を判別する処理が行われる。以下では、図5(a)(b)を参照して説明する。図5(a)(b)には、それぞれ、図3(b)に例示した枠R1で囲まれた領域(歩行者T1が含まれる)が示されている。   Next, in STEPs 010 to 013, processing for determining the posture of the extracted pedestrian T1 is performed. Below, it demonstrates with reference to Fig.5 (a) (b). FIGS. 5A and 5B each show a region (including a pedestrian T1) surrounded by the frame R1 illustrated in FIG. 3B.

まず、STEP010で、画像処理ユニット1は、抽出された歩行者T1のランレングスデータL1〜Lnから、各ランレングスデータLiで示されるラインの中点の画素の座標で構成される点列データP_T1を算出する。図5(a)を参照して、歩行者T1として抽出された対象物に相当する2値化領域は、図示のように、n個のランレングスデータL1〜Lnで表される。図5(b)には、ランレングスデータL1〜Lnが示されており、その中点M1〜Mnは、図示のようになる。そして、点列データP_T1は、中点M1〜Mnの座標データ{(X1,Y1),(X2,Y2),...,(Xn,Yn)}で構成される。なお、図5(b)において、座標軸X,Yは図示のように設定されている。このとき、X軸は車両10の左右方向に平行な軸であり、Y軸は上下方向軸である。   First, in STEP 010, the image processing unit 1 uses the extracted run-length data L1 to Ln of the pedestrian T1 to generate point sequence data P_T1 composed of the coordinates of the midpoint pixel of the line indicated by each run-length data Li. Is calculated. With reference to Fig.5 (a), the binarization area | region equivalent to the target object extracted as the pedestrian T1 is represented by n pieces of run-length data L1-Ln as shown in the figure. FIG. 5B shows run-length data L1 to Ln, and the midpoints M1 to Mn are as shown. The point sequence data P_T1 includes coordinate data {(X1, Y1), (X2, Y2),. . . , (Xn, Yn)}. In FIG. 5B, the coordinate axes X and Y are set as shown. At this time, the X-axis is an axis parallel to the left-right direction of the vehicle 10, and the Y-axis is an up-down direction axis.

次に、STEP011で、画像処理ユニット1は、算出された点列データP_T1を近似する近似直線S1を算出する。このとき、近似法としては、最小二乗法を用いる。これにより、図5(b)に示したように、近似直線S1=aX+bが算出される。この近似直線S1は、歩行者T1の体幹軸に相当するものである。次に、STEP012で、図5(b)に示したように、近似直線S1と上下方向軸Yとのなす角度θ=tan-1aが算出される。 Next, in STEP011, the image processing unit 1 calculates an approximate line S1 that approximates the calculated point sequence data P_T1. At this time, the least square method is used as an approximation method. Thereby, as shown in FIG.5 (b), approximate straight line S1 = aX + b is calculated. The approximate straight line S1 corresponds to the trunk axis of the pedestrian T1. Next, in STEP 012, as shown in FIG. 5B, an angle θ = tan −1 a formed by the approximate straight line S 1 and the vertical axis Y is calculated.

次に、STEP013で、画像処理ユニット1は、角度θに基づいて歩行者T1の体幹軸の傾きに関する姿勢(体幹軸の傾きの方向や角度)を判別する。具体的には、本実施形態では、歩行者T1の姿勢が、その体幹軸を車両10の走行する車線の中心側へ前傾させた姿勢であるか否かが判別される。なお、本実施形態では、角度θは、上下方向軸Y方向を0度とし、上下方向軸Yから車両10の走行する車線の中心側へ向かう方向を正(図5(b)に示した例では時計回りを正)とするように設定されている。このとき、角度θが閾値θ1以上で閾値θ2以下(0<θ1<θ2)の場合に、車両10の走行する車線に向かう前傾姿勢であると判別する。なお、閾値θ1,θ2は、歩行者が移動を開始するときや車道に飛び出してくるようなときに、その体幹軸が進行方向に対して一般的に取り得る角度の範囲を示す値として予め定められる値である。図5(b)の例では、θ1≦θ≦θ2となり、歩行者T1が車両10の走行する車線に向かう前傾姿勢であると判別される。これにより、歩行者T1が道路を横断しようとしていることが予測される。   Next, in STEP013, the image processing unit 1 determines the posture (the direction and angle of the inclination of the trunk axis) related to the inclination of the trunk axis of the pedestrian T1 based on the angle θ. Specifically, in this embodiment, it is determined whether or not the posture of the pedestrian T1 is a posture in which the trunk axis is tilted forward toward the center of the lane in which the vehicle 10 travels. In this embodiment, the angle θ is 0 degree in the vertical axis Y direction, and the direction from the vertical axis Y toward the center of the lane in which the vehicle 10 travels is positive (example shown in FIG. 5B). Is set to be positive). At this time, when the angle θ is equal to or larger than the threshold θ1 and equal to or smaller than the threshold θ2 (0 <θ1 <θ2), it is determined that the vehicle is in a forward leaning posture toward the lane in which the vehicle 10 travels. The threshold values θ1 and θ2 are preliminarily set as values indicating the range of angles that the trunk axis can generally take with respect to the traveling direction when the pedestrian starts moving or jumps out onto the roadway. It is a defined value. In the example of FIG. 5B, θ1 ≦ θ ≦ θ2, and it is determined that the pedestrian T1 is in a forward leaning posture toward the lane in which the vehicle 10 travels. Thereby, it is predicted that pedestrian T1 is going to cross the road.

以上が、本実施形態の姿勢判別装置における姿勢判別処理である。これにより、車両10の周辺の赤外線画像から、簡易な処理で歩行者T1の姿勢(歩行者T1の体幹軸の傾きに関する姿勢)を容易且つ迅速に判別することができる。よって、歩行者T1の姿勢の判別結果に基づいて、道路の横断等の歩行者T1の挙動が事前に迅速に予測される。   The above is the posture determination processing in the posture determination device of the present embodiment. Thereby, from the infrared image around the vehicle 10, the posture of the pedestrian T1 (the posture related to the inclination of the trunk axis of the pedestrian T1) can be easily and quickly determined by simple processing. Therefore, based on the determination result of the posture of the pedestrian T1, the behavior of the pedestrian T1 such as crossing the road is quickly predicted in advance.

そして、本実施形態においては、歩行者T1の姿勢の判別結果に基づいて、運転者への情報提示を行う。このとき、例えば、歩行者T1が車両10の走行する車線に向かう前傾姿勢である場合には、歩行者T1が道路を横断しようとしていることが予測されることから、車両10の運転者にスピーカ3を介して音声による警報を発したり、表示装置4に対して赤外線カメラ2により得られる画像を出力し、画像上で抽出された歩行者T1を強調して車両10の運転者に表示する。   In the present embodiment, information is presented to the driver based on the determination result of the posture of the pedestrian T1. At this time, for example, when the pedestrian T1 is leaning forward toward the lane in which the vehicle 10 travels, it is predicted that the pedestrian T1 is about to cross the road. A sound alarm is issued through the speaker 3 or an image obtained by the infrared camera 2 is output to the display device 4 to emphasize the pedestrian T1 extracted on the image and display it to the driver of the vehicle 10. .

なお、本実施形態では、前述したように、画像処理ユニット1が、その機能として、本発明の2値化処理手段5と、ランレングスデータ作成手段6と、対象物抽出手段7と、歩行者抽出手段8と、歩行者姿勢判別手段9とを含んでいる。より具体的には、図2のSTEP004が2値化処理手段5に相当し、図2のSTEP005がランレングスデータ作成手段6に相当し、図2のSTEP006〜007が対象物抽出手段7に相当し、図2のSTEP008〜009が歩行者抽出手段8に相当し、図2のSTEP010〜013が歩行者姿勢判別手段9に相当する。   In the present embodiment, as described above, the image processing unit 1 functions as the binarization processing means 5, run length data creation means 6, object extraction means 7, pedestrian, and the like. Extraction means 8 and pedestrian posture determination means 9 are included. More specifically, STEP 004 in FIG. 2 corresponds to the binarization processing means 5, STEP 005 in FIG. 2 corresponds to the run length data creation means 6, and STEPs 006 to 007 in FIG. 2 correspond to the object extraction means 7. 2 corresponds to the pedestrian extraction means 8, and STEPs 010 to 013 in FIG. 2 correspond to the pedestrian posture determination means 9.

また、本実施形態では、車両10に搭載された赤外線カメラは1つとしたが、他の実施形態として、車両10に搭載された赤外線カメラを複数として、該複数の赤外線カメラのうちのいずれか1つから得られた画像を用いて姿勢判別処理を行うものとしてもよい。例えば、車両10には、2つの赤外線カメラ(いわゆるステレオカメラを構成する)が搭載され、該2つの赤外線カメラのうちのいずれか1つから得られた画像(例えば基準画像)を用いて姿勢判別処理が行われる。   In this embodiment, the number of infrared cameras mounted on the vehicle 10 is one. However, as another embodiment, a plurality of infrared cameras mounted on the vehicle 10 are used, and any one of the plurality of infrared cameras is used. The posture determination process may be performed using an image obtained from one. For example, the vehicle 10 is equipped with two infrared cameras (which constitute a so-called stereo camera), and posture determination is performed using an image (for example, a reference image) obtained from one of the two infrared cameras. Processing is performed.

また、本実施形態では、赤外線カメラ2は車両10に搭載されて車両10の前方の道路を撮像するものとしたが、他の実施形態として、例えば道路周辺の構造物等に取り付けられて道路を撮像するものとしてもよい。   In this embodiment, the infrared camera 2 is mounted on the vehicle 10 and images the road ahead of the vehicle 10. However, as another embodiment, for example, the infrared camera 2 is attached to a structure around the road to The image may be taken.

また、本実施形態では、撮像手段として赤外線カメラを使用したが、他の実施形態として、例えば通常の可視光線のみ検出可能なCCDカメラ等を使用してもよい。ただし、赤外線カメラを用いることにより、歩行者や他車両等の抽出処理を簡略化することができ、演算装置の演算能力が比較的低いものでも実現可能とすることができる。   In this embodiment, an infrared camera is used as the imaging means. However, as another embodiment, for example, a CCD camera that can detect only normal visible light may be used. However, by using an infrared camera, extraction processing of pedestrians, other vehicles, and the like can be simplified, and it can be realized even when the calculation capability of the calculation device is relatively low.

本発明の姿勢判別装置の機能ブロック図。The functional block diagram of the attitude | position discrimination | determination apparatus of this invention. 図1の姿勢判別装置の画像処理ユニットにおける姿勢判別処理を示すフローチャート。3 is a flowchart showing posture determination processing in the image processing unit of the posture determination device in FIG. 1. 図2の姿勢判別処理における処理画像の例示図。FIG. 3 is an exemplary diagram of a processed image in the posture determination process of FIG. 2. 図2の姿勢判別処理におけるランレングスデータを作成して対象物を抽出する処理に関する説明図。Explanatory drawing regarding the process which produces the run length data in the attitude | position discrimination | determination process of FIG. 2, and extracts a target object. 図2の姿勢判別処理における歩行者の姿勢を判別する処理に関する説明図。Explanatory drawing regarding the process which discriminate | determines the attitude | position of a pedestrian in the attitude | position discrimination | determination process of FIG.

符号の説明Explanation of symbols

2…赤外線カメラ(撮像手段)、5…2値化処理手段、6…ランレングスデータ作成手段、7…対象物抽出手段、8…歩行者抽出手段、9…歩行者姿勢判別手段。   DESCRIPTION OF SYMBOLS 2 ... Infrared camera (imaging means), 5 ... Binarization processing means, 6 ... Run length data creation means, 7 ... Object extraction means, 8 ... Pedestrian extraction means, 9 ... Pedestrian posture discrimination means.

Claims (3)

道路の周辺を撮像する撮像手段を介して取得した画像に2値化処理を施して、該画像内の画素の輝度値が所定閾値以上である2値化領域を抽出する2値化処理手段と、
前記2値化処理手段により抽出された2値化領域のランレングスデータを作成するランレングスデータ作成手段と、
前記ランレングスデータ作成手段により作成されたランレングスデータに基づいて、前記道路の周辺に存在する対象物を抽出する対象物抽出手段と、
前記対象物抽出手段により抽出された対象物のうちから歩行者を抽出する歩行者抽出手段と、
前記ランレングスデータ作成手段により作成されたランレングスデータに基づいて、前記歩行者抽出手段により抽出された歩行者の姿勢を判別する歩行者姿勢判別手段とを有する姿勢判別装置。
Binarization processing means for performing binarization processing on an image acquired via an imaging means for imaging the periphery of a road, and extracting a binarized area in which the luminance value of a pixel in the image is equal to or greater than a predetermined threshold; ,
Run length data creating means for creating run length data of the binarized area extracted by the binarization processing means;
Based on the run-length data created by the run-length data creating means, an object extracting means for extracting objects existing around the road;
Pedestrian extraction means for extracting pedestrians from the objects extracted by the object extraction means;
A posture discrimination device comprising: a pedestrian posture discrimination means for discriminating a posture of a pedestrian extracted by the pedestrian extraction means based on the run length data created by the run length data creation means.
前記歩行者姿勢判別手段は、前記ランレングスデータ作成手段により作成されたランレングスデータから、該ランレングスデータの各ラインの中点の画素の座標で構成される点列データを算出する手段と、該算出された点列データを近似する近似直線を算出する手段と、該算出された近似直線に基づいて、前記歩行者の姿勢を判別する手段とを備えることを特徴とする請求項1記載の姿勢判別装置。   The pedestrian posture determining means calculates means for calculating point sequence data composed of the coordinates of pixels at the midpoint of each line of the run length data from the run length data created by the run length data creating means; The means for calculating an approximate straight line that approximates the calculated point sequence data, and means for determining the posture of the pedestrian based on the calculated approximate straight line. Attitude discrimination device. 前記歩行者姿勢判別手段は、前記近似直線と上下方向軸とのなす角度に基づいて、前記歩行者の姿勢を判別することを特徴とする請求項2記載の姿勢判別装置。   The posture determination apparatus according to claim 2, wherein the pedestrian posture determination means determines the posture of the pedestrian based on an angle formed by the approximate straight line and a vertical axis.
JP2006082956A 2006-03-24 2006-03-24 Attitude discrimination device Expired - Fee Related JP4476957B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2006082956A JP4476957B2 (en) 2006-03-24 2006-03-24 Attitude discrimination device
US11/717,565 US7671725B2 (en) 2006-03-24 2007-03-13 Vehicle surroundings monitoring apparatus, vehicle surroundings monitoring method, and vehicle surroundings monitoring program
DE102007014012A DE102007014012B4 (en) 2006-03-24 2007-03-23 Vehicle environment monitor, vehicle environment monitoring method, and vehicle environment monitoring program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006082956A JP4476957B2 (en) 2006-03-24 2006-03-24 Attitude discrimination device

Publications (2)

Publication Number Publication Date
JP2007257459A true JP2007257459A (en) 2007-10-04
JP4476957B2 JP4476957B2 (en) 2010-06-09

Family

ID=38631615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006082956A Expired - Fee Related JP4476957B2 (en) 2006-03-24 2006-03-24 Attitude discrimination device

Country Status (1)

Country Link
JP (1) JP4476957B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012172629A1 (en) * 2011-06-13 2012-12-20 トヨタ自動車株式会社 Pedestrian motion prediction device
EP3404513A1 (en) 2017-05-19 2018-11-21 Fujitsu Limited Information processing apparatus, method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012172629A1 (en) * 2011-06-13 2012-12-20 トヨタ自動車株式会社 Pedestrian motion prediction device
EP3404513A1 (en) 2017-05-19 2018-11-21 Fujitsu Limited Information processing apparatus, method, and program
US10853636B2 (en) 2017-05-19 2020-12-01 Fujitsu Limited Information processing apparatus, method, and non-transitory computer-readable storage medium

Also Published As

Publication number Publication date
JP4476957B2 (en) 2010-06-09

Similar Documents

Publication Publication Date Title
JP4173896B2 (en) Vehicle periphery monitoring device
US7671725B2 (en) Vehicle surroundings monitoring apparatus, vehicle surroundings monitoring method, and vehicle surroundings monitoring program
US9235990B2 (en) Vehicle periphery monitoring device
JP4470067B2 (en) Object type determination device, vehicle
JP4692344B2 (en) Image recognition device
JP2007241740A (en) Vehicle periphery monitoring device
JP5480925B2 (en) Vehicle periphery monitoring device
JP2007288657A (en) Display apparatus for vehicle, and display method of the display apparatus for vehicle
JP2007334751A (en) Vehicle periphery monitoring device
JP2010097541A (en) Vehicular periphery monitoring apparatus
JP2003216937A (en) Night vision system
JP2007241898A (en) Stopping vehicle classifying and detecting device and vehicle peripheral monitoring device
JP2010088045A (en) Night view system, and nighttime walker display method
JP2007323578A (en) Vehicle periphery monitoring device
WO2010007718A1 (en) Vehicle vicinity monitoring device
JP2001216520A (en) Surroundings monitor device for vehicle
JP2002314989A (en) Peripheral monitor for vehicle
JP2007334511A (en) Object detection device, vehicle, object detection method and program for object detection
JP4887537B2 (en) Vehicle periphery monitoring device
JP5192007B2 (en) Vehicle periphery monitoring device
JP4701961B2 (en) Pedestrian detection device
JP4476957B2 (en) Attitude discrimination device
JP4765113B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP4823753B2 (en) Vehicle periphery monitoring device
JP4615536B2 (en) Display device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100309

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100310

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130319

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130319

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140319

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees