JP2007257459A - Posture determining device - Google Patents
Posture determining device Download PDFInfo
- Publication number
- JP2007257459A JP2007257459A JP2006082956A JP2006082956A JP2007257459A JP 2007257459 A JP2007257459 A JP 2007257459A JP 2006082956 A JP2006082956 A JP 2006082956A JP 2006082956 A JP2006082956 A JP 2006082956A JP 2007257459 A JP2007257459 A JP 2007257459A
- Authority
- JP
- Japan
- Prior art keywords
- pedestrian
- posture
- length data
- run
- run length
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、画像から歩行者等の人間の姿勢を判別する姿勢判別装置に関する。 The present invention relates to a posture determination device that determines the posture of a human such as a pedestrian from an image.
近年、CCDカメラ等の撮像手段により撮像された室内等の画像から、周辺に存在する人間を検出し、検出された人間の姿勢を判別して、判別した結果に応じて例えば空調等の機器の制御等を行う技術が知られている。これによれば、姿勢から人間の状態が推測されるので、人間の状態に合わせた適切な機器の制御等が行われる。このとき、人間の姿勢を判別する装置として、例えば、画像から抽出した人間の領域の形状判別等を用いる装置が提案されている(例えば特許文献1参照)。 In recent years, humans existing in the vicinity are detected from indoor images captured by an imaging means such as a CCD camera, the detected human posture is determined, and, for example, an air conditioner or the like is detected according to the determined result. Techniques for performing control and the like are known. According to this, since the human state is inferred from the posture, appropriate device control or the like according to the human state is performed. At this time, as an apparatus for determining a human posture, for example, an apparatus using shape determination of a human region extracted from an image has been proposed (see, for example, Patent Document 1).
特許文献1の姿勢判別装置では、赤外線画像データ上の人間の領域を検出する人間領域検出手段と、人間の領域の形状を判別する形状判別手段と、画像の時系列データから人間の動きを検出する動き検出手段と、形状判別手段による判別結果と動き検出手段による検出結果とに基づいて人間の姿勢を判別する姿勢判別手段とが備えられている。このとき、形状判別手段は、人間の領域の縦横比により縦長、横長、正方形の3種類の形状判別を行う。そして、姿勢判別手段は、形状が縦長で且つ動いている場合に立位、形状が縦長で且つ動いていない場合と形状が横長の場合とに臥位、形状が正方形の場合に座位として、室内の人間の姿勢を立位、臥位、座位の3種類に判別する。
In the posture determination apparatus of
一方、車両の周辺の画像から歩行者を検出し、衝突の可能性の高い歩行者を判定して、運転者への情報の提示等を行う技術が知られている(例えば特許文献2参照)。このような技術において、例えば、歩行者が急に車道へ飛び出すような場合に、衝突の可能性を迅速に判定して運転者に情報提示を行うためには、歩行者の道路の横断を事前に迅速に予測することが望まれる。このとき、例えば、道路を横断しようとする歩行者とそれ以外の歩行者とでは、路側に存在する時点で、体の向きや傾き等に関する姿勢が相違すると考えられる。これは、歩行者が移動を開始するときや車道に飛び出してくるようなときには、その体幹軸は進行方向に対して傾いており、これに対して、歩行者が停止しているときや道路に沿って移動を継続しているときには、その体幹軸の傾きは十分に小さいと考えられるからである。よって、道路の横断を事前に予測するために、路側の歩行者の姿勢を判別することが望ましい。特に、演算処理を軽減して衝突の可能性の判定に要する時間を短縮するためには、簡易な手法で歩行者の姿勢を判別することが望ましい。
On the other hand, a technique is known in which a pedestrian is detected from an image around a vehicle, a pedestrian with a high possibility of collision is determined, and information is presented to the driver (see
このとき、歩行者の道路の横断等の挙動を予測するためには、立位、臥位、座位等の姿勢ではなくて、直立姿勢であるか前傾姿勢であるかというような、歩行者の体幹軸の傾きに関する姿勢(体幹軸の傾きの方向や角度)を把握することが必要である。しかしながら、特許文献1の姿勢判別装置のような、領域の縦横比を用いた形状判別では、直立姿勢や前傾姿勢等の体幹軸の傾きに関する姿勢を判別することは困難である。さらに、特許文献1の姿勢判別装置では、画像の時系列データから人間の動きを検出して姿勢の判別に用いるため、人間の姿勢が判別されるまでに時間を要する。よって、特許文献1の姿勢判別装置では、例えば路側の歩行者等の姿勢を適切に判別することができず、歩行者の道路の横断等の挙動を事前に予測することができないという不都合があった。
本発明は、かかる不都合を解消し、道路の周辺の画像から歩行者の姿勢(歩行者の体幹軸の傾きに関する姿勢)を容易且つ迅速に判別することができる姿勢判別装置を提供することを目的とする。 The present invention provides an attitude determination device that can easily and quickly determine the pedestrian's posture (posture regarding the inclination of the trunk axis of the pedestrian) from images around the road, eliminating such inconvenience. Objective.
かかる目的を達成するために、本発明の姿勢判別装置は、道路の周辺を撮像する撮像手段を介して取得した画像に2値化処理を施して、該画像内の画素の輝度値が所定閾値以上である2値化領域を抽出する2値化処理手段と、前記2値化処理手段により抽出された2値化領域のランレングスデータを作成するランレングスデータ作成手段と、前記ランレングスデータ作成手段により作成されたランレングスデータに基づいて、前記道路の周辺に存在する対象物を抽出する対象物抽出手段と、前記対象物抽出手段により抽出された対象物のうちから歩行者を抽出する歩行者抽出手段と、前記ランレングスデータ作成手段により作成されたランレングスデータに基づいて、前記歩行者抽出手段により抽出された歩行者の姿勢を判別する歩行者姿勢判別手段とを有する。 In order to achieve such an object, the posture determination device of the present invention performs binarization processing on an image acquired via an imaging unit that images the periphery of a road, and the luminance value of a pixel in the image is a predetermined threshold value. The binarization processing means for extracting the above binarized area, the run length data creating means for creating run length data of the binarized area extracted by the binarization processing means, and the run length data creation Based on the run length data created by the means, object extraction means for extracting objects existing around the road, and walking for extracting pedestrians from the objects extracted by the object extraction means A pedestrian posture for discriminating the posture of the pedestrian extracted by the pedestrian extraction means based on the run length data created by the pedestrian extraction means and the run length data creation means And a different means.
前記本発明の姿勢判別装置において、撮像手段を介して取得した画像から、前記2値化処理手段により2値化領域が抽出され、前記ランレングスデータ作成手段により2値化領域のランレングスデータが作成され、ランレングスデータに基づいて前記対象物抽出手段により前記道路の周辺に存在する対象物が抽出され、対象物のうちから前記歩行者抽出手段により歩行者が抽出される。そして、前記歩行者姿勢判別手段は、前記ランレングスデータに基づいて、抽出された歩行者の姿勢を判別する。このとき、前記ランレングスデータの各ラインの所定の点(例えば中点)の点列データは、歩行者の体幹軸の傾きと密接に関わるものである。よって、前記ランレングスデータを用いることで、歩行者の体幹軸の傾きに関する姿勢を判別することができる。そして、このように判別された歩行者の姿勢により、例えば道路の横断等の歩行者の挙動を事前に迅速に予測することができる。このとき、前記ランレングスデータは、1フレームの画像のみから算出することができるので、例えば画像の時系列データ等に基づいた判別より、姿勢の判別に要する時間が短くて済む。また、前記ランレングスデータは、画像から歩行者を抽出する処理の過程で算出されるものであり、これを判別に用いることで、姿勢の判別に要する演算負荷が軽減される。よって、前記歩行者姿勢判別手段によれば、簡易な処理で歩行者の姿勢を容易且つ迅速に判別することができる。 In the posture determination apparatus of the present invention, a binarized area is extracted by the binarization processing unit from an image acquired through the imaging unit, and the run length data of the binarized area is obtained by the run length data creating unit. An object existing around the road is extracted by the object extraction means based on the run length data, and a pedestrian is extracted from the objects by the pedestrian extraction means. And the said pedestrian attitude | position discrimination | determination means discriminate | determines the attitude | position of the extracted pedestrian based on the said run length data. At this time, the point sequence data of a predetermined point (for example, the middle point) of each line of the run length data is closely related to the inclination of the trunk axis of the pedestrian. Therefore, by using the run length data, it is possible to determine the posture related to the inclination of the trunk axis of the pedestrian. Based on the posture of the pedestrian determined as described above, the behavior of the pedestrian such as crossing the road can be predicted quickly in advance. At this time, since the run-length data can be calculated from only one frame image, the time required for the posture determination can be shorter than the determination based on the time-series data of the image, for example. The run-length data is calculated in the process of extracting a pedestrian from an image. By using this data for determination, the calculation load required for posture determination is reduced. Therefore, according to the pedestrian posture determination means, the posture of the pedestrian can be easily and quickly determined by a simple process.
また、前記本発明の姿勢判別装置において、前記歩行者姿勢判別手段は、前記ランレングスデータ作成手段により作成されたランレングスデータから、該ランレングスデータの各ラインの中点の画素の座標で構成される点列データを算出する手段と、該算出された点列データを近似する近似直線を算出する手段と、該算出された近似直線に基づいて、前記歩行者の姿勢を判別する手段とを備えることが好ましい。 Further, in the posture determination device according to the present invention, the pedestrian posture determination means is composed of the coordinates of the pixel at the midpoint of each line of the run length data from the run length data created by the run length data creation means. Means for calculating the point sequence data, means for calculating an approximate line approximating the calculated point sequence data, and means for determining the posture of the pedestrian based on the calculated approximate line It is preferable to provide.
これによれば、前記歩行者姿勢判別手段で、前記ランレングスデータの各ラインの中点の画素の座標で構成される点列データが算出され、点列データを近似する近似直線が算出される。このとき、算出された近似直線は、歩行者の体幹軸に相当するものである。そこで、前記歩行者姿勢判別手段により、前記近似直線に基づいて歩行者の姿勢を判別することで、歩行者の姿勢(歩行者の体幹軸の傾きに関する姿勢)を容易且つ迅速に判別することができる。 According to this, the pedestrian posture discriminating means calculates point sequence data composed of the coordinates of the midpoint pixel of each line of the run length data, and calculates an approximate straight line that approximates the point sequence data. . At this time, the calculated approximate straight line corresponds to the trunk axis of the pedestrian. Therefore, by determining the pedestrian posture based on the approximate straight line by the pedestrian posture determination means, it is possible to easily and quickly determine the pedestrian posture (the posture related to the inclination of the trunk axis of the pedestrian). Can do.
詳細には、前記本発明の姿勢判別装置において、前記歩行者姿勢判別手段は、前記近似直線と上下方向軸とのなす角度に基づいて、前記歩行者の姿勢を判別することができる。 Specifically, in the posture determination device of the present invention, the pedestrian posture determination means can determine the posture of the pedestrian based on an angle formed by the approximate straight line and the vertical axis.
すなわち、前記近似直線は、歩行者の体幹軸に相当するものであるので、前記近似直線と上下方向軸とのなす角度により、前記歩行者の体幹軸の傾きの方向や角度が判る。そして、このように判別された歩行者姿勢(歩行者の体幹軸の傾きに関する姿勢)により、例えば道路の横断等の歩行者の挙動を事前に迅速に予測することができる。 That is, since the approximate line corresponds to the trunk axis of the pedestrian, the direction and angle of inclination of the trunk axis of the pedestrian can be determined from the angle formed by the approximate line and the vertical axis. Then, based on the pedestrian posture determined in this manner (the posture related to the inclination of the trunk axis of the pedestrian), the behavior of the pedestrian such as crossing the road can be predicted quickly in advance.
本発明の一実施形態を添付の図面を参照して説明する。図1は、本実施形態による姿勢判別装置の機能ブロック図であり、図2は、図1の姿勢判別装置の画像処理ユニットにおける全体的作動(姿勢判別処理)を示すフローチャートである。また、図3は、図2の姿勢判別処理における処理画像の例示図であり、図4は、図2の姿勢判別処理におけるランレングスデータを作成して対象物を抽出する処理に関する説明図であり、図5は、図2の姿勢判別処理における歩行者の姿勢を判別する処理に関する説明図である。 An embodiment of the present invention will be described with reference to the accompanying drawings. FIG. 1 is a functional block diagram of the posture determination device according to the present embodiment, and FIG. 2 is a flowchart showing the overall operation (posture determination processing) in the image processing unit of the posture determination device of FIG. 3 is an exemplary diagram of a processing image in the posture determination processing of FIG. 2, and FIG. 4 is an explanatory diagram regarding processing for creating run-length data and extracting an object in the posture determination processing of FIG. FIG. 5 is an explanatory diagram regarding processing for determining the posture of a pedestrian in the posture determination processing of FIG.
図1を参照して、本実施形態の姿勢判別装置は、CPU(中央演算装置)を備えた電子ユニットである画像処理ユニット1を有する。画像処理ユニット1には、車両10に搭載された赤外線カメラ2と、音声で警報を発するためのスピーカ3と、赤外線カメラ2を介して取得される画像を表示するための表示装置4とが接続されている。表示装置4は、例えば、車両10のフロントウィンドウの運転者の前方視界を妨げない位置に画面が設けられて、運転者に情報を表示するHUD(ヘッドアップディスプレイ)等を備えている。
With reference to FIG. 1, the attitude | position discrimination | determination apparatus of this embodiment has the
赤外線カメラ2は、遠赤外線を検出可能なカメラであり、対象物の温度が高いほど、その出力信号レベルが高くなる(輝度が増加する)特性を有している。赤外線カメラ2は、車両10の前部に、赤外線カメラ2の光軸が車両10の前方に向くように配置されている。なお、赤外線カメラ2は、本発明の撮像手段に相当する。
The
画像処理ユニット1は、詳細の図示は省略するが、A/D変換回路、CPU、RAM、ROM、画像メモリ等を含む電子回路により構成され、赤外線カメラ2の出力(アナログ信号)がA/D変換回路を介してデジタル信号に変換されて入力される。そして、画像処理ユニット1は、入力されたデータを基に、歩行者等の対象物を検出する処理や、その検出した対象物に関して所定要件が満たされるか否かを判定し、該要件が満たされる場合にスピーカ3や表示装置4を介して車両10の運転者に警報を発する処理等を実行する。
Although not shown in detail, the
より詳しくは、画像処理ユニット1は、その機能として、取得された画像から2値化領域を抽出する2値化処理手段5と、抽出された2値化領域のランレングスデータを作成するランレングスデータ作成手段6と、作成されたランレングスデータに基づいて車両10の周辺に存在する対象物を抽出する対象物抽出手段7と、抽出された対象物のうちから歩行者を抽出する歩行者抽出手段8と、ランレングスデータに基づいて歩行者の姿勢を判別する歩行者姿勢判別手段9とを備えている。
More specifically, the
2値化処理手段5は、赤外線カメラ2を介して取得した画像に2値化処理を施して、該画像内の画素の輝度値が所定閾値以上である2値化領域を抽出する。具体的には、2値化処理手段5は、赤外線カメラ2の出力信号(赤外線画像)をA/D変換して得られるグレースケール画像に対して、画素の輝度値が所定閾値より明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理を行う。
The binarization processing unit 5 performs binarization processing on the image acquired via the
ランレングスデータ作成手段6は、2値化処理手段5により抽出された2値化領域のランレングスデータを作成する。ここで、作成されるランレングスデータは、2値化領域を1次元の連結画素であるラインの集合で表し、該2値化領域を構成する各ラインをその始点の座標と、始点から終点までの長さ(画素数)とで示したものである。 The run length data creation means 6 creates run length data of the binarized area extracted by the binarization processing means 5. Here, the generated run-length data represents a binarized area as a set of lines that are one-dimensional connected pixels, and each line constituting the binarized area is represented by the coordinates of the start point and the start point to the end point. This is indicated by the length (number of pixels).
対象物抽出手段7は、ランレングスデータ作成手段6により作成されたランレングスデータに基づいて、道路の周辺に存在する対象物を抽出する。対象物を抽出する手法としては、例えば、ラベリング処理等が用いられる。このとき、抽出される対象物(2値化対象物)には、道路周辺の歩行者以外に、例えば、他車両、電柱や自動販売機等の人工構造物が含まれる。 The object extracting means 7 extracts objects existing around the road based on the run length data created by the run length data creating means 6. As a method for extracting the object, for example, a labeling process or the like is used. At this time, the extracted objects (binarized objects) include, for example, other vehicles, artificial structures such as electric poles and vending machines, in addition to pedestrians around the road.
歩行者抽出手段8は、対象物抽出手段7により抽出された対象物のうちから歩行者を抽出する。歩行者を抽出する手法としては、例えば、対象物の縦横比や、対象物の面積と該対象物の外接四角形の面積との比等に基づいて、対象物が歩行者であるか否かを判定する手法が用いられる。 The pedestrian extraction means 8 extracts a pedestrian from the objects extracted by the object extraction means 7. As a method for extracting a pedestrian, for example, whether or not the object is a pedestrian based on the aspect ratio of the object or the ratio of the area of the object to the area of the circumscribed rectangle of the object is determined. A determination method is used.
歩行者姿勢判別手段9は、ランレングスデータ作成手段6により作成されたランレングスデータに基づいて、歩行者抽出手段8により抽出された歩行者の姿勢(歩行者の体幹軸の傾きに関する姿勢)を判別する。このとき、歩行者姿勢判別手段9は、ランレングスデータから、該ランレングスデータの各ラインの中点の画素の座標で構成される点列データを算出し、該算出された点列データを近似する近似直線を算出する。そして、歩行者姿勢判別手段9は、算出した近似直線と上下方向軸とのなす角度に基づいて、歩行者の体幹軸の傾きに関する姿勢(体幹軸の傾きの方向や角度)を判別する。 The pedestrian posture determination means 9 is based on the run length data created by the run length data creation means 6 and the pedestrian posture extracted by the pedestrian extraction means 8 (posture regarding the inclination of the trunk axis of the pedestrian). Is determined. At this time, the pedestrian posture discriminating means 9 calculates point sequence data composed of the coordinates of the midpoint pixel of each line of the run length data from the run length data, and approximates the calculated point sequence data. An approximate straight line is calculated. The pedestrian posture determination means 9 determines the posture (the direction and angle of the trunk axis inclination) related to the inclination of the trunk axis of the pedestrian based on the angle formed between the calculated approximate straight line and the vertical axis. .
次に、本実施形態の姿勢判別装置の全体的な作動(姿勢判別処理)を、図2に示したフローチャートに従って説明する。なお、以下の説明では、車両10の前方の左側に歩行者が存在し、車両10の前方に他車両が存在しており、歩行者が道路を横断しようとしている場合を例にして説明する。
Next, the overall operation (posture determination processing) of the posture determination device of this embodiment will be described with reference to the flowchart shown in FIG. In the following description, a case where a pedestrian exists on the left side in front of the
図2を参照して、まず、画像処理ユニット1は、赤外線カメラ2の出力信号である赤外線画像を取得して(STEP001)、A/D変換し(STEP002)、グレースケール画像を画像メモリに格納する(STEP003)。次に、画像処理ユニット1は、グレースケール画像に対して、その画像信号を2値化する(STEP004)。すなわち、グレースケール画像の画素の輝度値が閾値Ithより明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理が行われる。閾値Ithは、実験的に予め決定される値である。
Referring to FIG. 2, first,
図3(a)に、赤外線カメラ2によって得られる画像を2値化した画像を例示する。図3(a)において、ハッチングを付した領域が黒であり、太い実線で囲まれた領域が白であることを示している。太い実線で囲まれた領域は、赤外線カメラ2から得られる画像において、輝度レベルが高く(高温で)、画面上に白色として表示される対象物の領域である。
FIG. 3A illustrates an image obtained by binarizing an image obtained by the
次に、画像処理ユニット1は、2値化処理で「白」となった領域(2値化領域)からランレングスデータを作成する(STEP005)。ここで、図4(a)を参照して説明すると、図4(a)には、2値化領域が1次元の連結画素であるラインL1〜L8で表されている。ラインL1〜L8は、いずれもy方向(縦方向)には1画素の幅を有しており、実際にはy方向には隙間なく並んでいるが、説明のために離間して示している。また、ラインL1〜L8は、x方向(横方向)にはそれぞれ2画素、2画素、3画素、8画素、7画素、8画素、8画素、8画素の長さを有している。ランレングスデータは、ラインL1〜L8を各ラインの始点(各ラインの左端の点)の座標と、始点から終点(各ラインの右端の点)までの長さ(画素数)とで示したものである。例えばラインL3は、(x3,y5),(x4,y5),(x5,y5)の3画素からなるので、ランレングスデータとしては、(x3,y5,3)となる。
Next, the
次に、画像処理ユニット1は、作成されたランレングスデータに基づいて、対象物のラベリングをする(STEP006)ことにより、対象物を抽出する(STEP007)。すなわち、ランレングスデータで表されたラインのうち、y方向に重なる部分のあるラインを1つの対象物とみなしてラベル(識別子)を付すことにより、画像内の連結した領域を対象物として抽出する。ここで、図4(b)を参照して説明すると、図4(a)に示したラインL1〜L8のうち、y方向に重なる部分のあるラインL1〜L3を1つの対象物1とみなし、ラインL4〜L8を1つの対象物2とみなし、ランレングスデータに対象物ラベル1,2が付加される。これにより、2値化領域がそれぞれ対象物1,2として抽出される。
Next, the
上述のSTEP005〜007の処理により、図3(a)に示す2値化領域が、図3(b)に例示するように、対象物(2値化対象物)T1〜T6として抽出される。このとき、例えばラベルT1の対象物は、n個のランレングスデータL1〜Lnで示される。なお、図3(b)の例では、対象物T1は、車両10の前方の左側に存在する歩行者に対応する2値化対象物であり、対象物T2〜T6は、車両10の前方に存在する他車両に対応する2値化対象物である。
Through the processing of STEP 005 to 007 described above, the binarized areas shown in FIG. 3A are extracted as objects (binarized objects) T1 to T6 as illustrated in FIG. 3B. At this time, for example, the object of the label T1 is indicated by n pieces of run-length data L1 to Ln. In the example of FIG. 3B, the object T1 is a binarized object corresponding to a pedestrian existing on the left side in front of the
次に、画像処理ユニット1は、抽出された対象物の面積SAと、対象物の外接四角形の面積SBと、対象物の縦横比ASPECTとを算出する(STEP008)。具体的には、対象物T1の面積SAは、各ランレングスデータLi(i=1,...,n)で示されるラインの長さを、対象物T1のn個のランレングスデータについて積算することにより算出する。また、対象物T1の縦横比ASPECTは、対象物T1の外接四角形の縦方向の長さDyと横方向の長さDxとの比Dy/Dxとして算出する。
Next, the
次に、画像処理ユニット1は、抽出された対象物のうちから歩行者を抽出する(STEP009)。このとき、対象物の縦横比ASPECTと、対象物の面積と該対象物の外接四角形の面積との比SA/SBとが、所定範囲にある場合に、対象物が歩行者であると判定され、該対象物が歩行者として抽出される。なお、前記所定範囲は、対象物が歩行者の上半身や全身であるときに取り得る値の範囲として予め定められる範囲である。これにより、図3(b)に例示するように、対象物T1〜T6のうちから、枠R1で囲われた対象物T1が歩行者として抽出される。
Next, the
次に、STEP010〜013で、抽出された歩行者T1の姿勢を判別する処理が行われる。以下では、図5(a)(b)を参照して説明する。図5(a)(b)には、それぞれ、図3(b)に例示した枠R1で囲まれた領域(歩行者T1が含まれる)が示されている。 Next, in STEPs 010 to 013, processing for determining the posture of the extracted pedestrian T1 is performed. Below, it demonstrates with reference to Fig.5 (a) (b). FIGS. 5A and 5B each show a region (including a pedestrian T1) surrounded by the frame R1 illustrated in FIG. 3B.
まず、STEP010で、画像処理ユニット1は、抽出された歩行者T1のランレングスデータL1〜Lnから、各ランレングスデータLiで示されるラインの中点の画素の座標で構成される点列データP_T1を算出する。図5(a)を参照して、歩行者T1として抽出された対象物に相当する2値化領域は、図示のように、n個のランレングスデータL1〜Lnで表される。図5(b)には、ランレングスデータL1〜Lnが示されており、その中点M1〜Mnは、図示のようになる。そして、点列データP_T1は、中点M1〜Mnの座標データ{(X1,Y1),(X2,Y2),...,(Xn,Yn)}で構成される。なお、図5(b)において、座標軸X,Yは図示のように設定されている。このとき、X軸は車両10の左右方向に平行な軸であり、Y軸は上下方向軸である。
First, in STEP 010, the
次に、STEP011で、画像処理ユニット1は、算出された点列データP_T1を近似する近似直線S1を算出する。このとき、近似法としては、最小二乗法を用いる。これにより、図5(b)に示したように、近似直線S1=aX+bが算出される。この近似直線S1は、歩行者T1の体幹軸に相当するものである。次に、STEP012で、図5(b)に示したように、近似直線S1と上下方向軸Yとのなす角度θ=tan-1aが算出される。
Next, in STEP011, the
次に、STEP013で、画像処理ユニット1は、角度θに基づいて歩行者T1の体幹軸の傾きに関する姿勢(体幹軸の傾きの方向や角度)を判別する。具体的には、本実施形態では、歩行者T1の姿勢が、その体幹軸を車両10の走行する車線の中心側へ前傾させた姿勢であるか否かが判別される。なお、本実施形態では、角度θは、上下方向軸Y方向を0度とし、上下方向軸Yから車両10の走行する車線の中心側へ向かう方向を正(図5(b)に示した例では時計回りを正)とするように設定されている。このとき、角度θが閾値θ1以上で閾値θ2以下(0<θ1<θ2)の場合に、車両10の走行する車線に向かう前傾姿勢であると判別する。なお、閾値θ1,θ2は、歩行者が移動を開始するときや車道に飛び出してくるようなときに、その体幹軸が進行方向に対して一般的に取り得る角度の範囲を示す値として予め定められる値である。図5(b)の例では、θ1≦θ≦θ2となり、歩行者T1が車両10の走行する車線に向かう前傾姿勢であると判別される。これにより、歩行者T1が道路を横断しようとしていることが予測される。
Next, in STEP013, the
以上が、本実施形態の姿勢判別装置における姿勢判別処理である。これにより、車両10の周辺の赤外線画像から、簡易な処理で歩行者T1の姿勢(歩行者T1の体幹軸の傾きに関する姿勢)を容易且つ迅速に判別することができる。よって、歩行者T1の姿勢の判別結果に基づいて、道路の横断等の歩行者T1の挙動が事前に迅速に予測される。
The above is the posture determination processing in the posture determination device of the present embodiment. Thereby, from the infrared image around the
そして、本実施形態においては、歩行者T1の姿勢の判別結果に基づいて、運転者への情報提示を行う。このとき、例えば、歩行者T1が車両10の走行する車線に向かう前傾姿勢である場合には、歩行者T1が道路を横断しようとしていることが予測されることから、車両10の運転者にスピーカ3を介して音声による警報を発したり、表示装置4に対して赤外線カメラ2により得られる画像を出力し、画像上で抽出された歩行者T1を強調して車両10の運転者に表示する。
In the present embodiment, information is presented to the driver based on the determination result of the posture of the pedestrian T1. At this time, for example, when the pedestrian T1 is leaning forward toward the lane in which the
なお、本実施形態では、前述したように、画像処理ユニット1が、その機能として、本発明の2値化処理手段5と、ランレングスデータ作成手段6と、対象物抽出手段7と、歩行者抽出手段8と、歩行者姿勢判別手段9とを含んでいる。より具体的には、図2のSTEP004が2値化処理手段5に相当し、図2のSTEP005がランレングスデータ作成手段6に相当し、図2のSTEP006〜007が対象物抽出手段7に相当し、図2のSTEP008〜009が歩行者抽出手段8に相当し、図2のSTEP010〜013が歩行者姿勢判別手段9に相当する。
In the present embodiment, as described above, the
また、本実施形態では、車両10に搭載された赤外線カメラは1つとしたが、他の実施形態として、車両10に搭載された赤外線カメラを複数として、該複数の赤外線カメラのうちのいずれか1つから得られた画像を用いて姿勢判別処理を行うものとしてもよい。例えば、車両10には、2つの赤外線カメラ(いわゆるステレオカメラを構成する)が搭載され、該2つの赤外線カメラのうちのいずれか1つから得られた画像(例えば基準画像)を用いて姿勢判別処理が行われる。
In this embodiment, the number of infrared cameras mounted on the
また、本実施形態では、赤外線カメラ2は車両10に搭載されて車両10の前方の道路を撮像するものとしたが、他の実施形態として、例えば道路周辺の構造物等に取り付けられて道路を撮像するものとしてもよい。
In this embodiment, the
また、本実施形態では、撮像手段として赤外線カメラを使用したが、他の実施形態として、例えば通常の可視光線のみ検出可能なCCDカメラ等を使用してもよい。ただし、赤外線カメラを用いることにより、歩行者や他車両等の抽出処理を簡略化することができ、演算装置の演算能力が比較的低いものでも実現可能とすることができる。 In this embodiment, an infrared camera is used as the imaging means. However, as another embodiment, for example, a CCD camera that can detect only normal visible light may be used. However, by using an infrared camera, extraction processing of pedestrians, other vehicles, and the like can be simplified, and it can be realized even when the calculation capability of the calculation device is relatively low.
2…赤外線カメラ(撮像手段)、5…2値化処理手段、6…ランレングスデータ作成手段、7…対象物抽出手段、8…歩行者抽出手段、9…歩行者姿勢判別手段。
DESCRIPTION OF
Claims (3)
前記2値化処理手段により抽出された2値化領域のランレングスデータを作成するランレングスデータ作成手段と、
前記ランレングスデータ作成手段により作成されたランレングスデータに基づいて、前記道路の周辺に存在する対象物を抽出する対象物抽出手段と、
前記対象物抽出手段により抽出された対象物のうちから歩行者を抽出する歩行者抽出手段と、
前記ランレングスデータ作成手段により作成されたランレングスデータに基づいて、前記歩行者抽出手段により抽出された歩行者の姿勢を判別する歩行者姿勢判別手段とを有する姿勢判別装置。 Binarization processing means for performing binarization processing on an image acquired via an imaging means for imaging the periphery of a road, and extracting a binarized area in which the luminance value of a pixel in the image is equal to or greater than a predetermined threshold; ,
Run length data creating means for creating run length data of the binarized area extracted by the binarization processing means;
Based on the run-length data created by the run-length data creating means, an object extracting means for extracting objects existing around the road;
Pedestrian extraction means for extracting pedestrians from the objects extracted by the object extraction means;
A posture discrimination device comprising: a pedestrian posture discrimination means for discriminating a posture of a pedestrian extracted by the pedestrian extraction means based on the run length data created by the run length data creation means.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006082956A JP4476957B2 (en) | 2006-03-24 | 2006-03-24 | Attitude discrimination device |
US11/717,565 US7671725B2 (en) | 2006-03-24 | 2007-03-13 | Vehicle surroundings monitoring apparatus, vehicle surroundings monitoring method, and vehicle surroundings monitoring program |
DE102007014012A DE102007014012B4 (en) | 2006-03-24 | 2007-03-23 | Vehicle environment monitor, vehicle environment monitoring method, and vehicle environment monitoring program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006082956A JP4476957B2 (en) | 2006-03-24 | 2006-03-24 | Attitude discrimination device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007257459A true JP2007257459A (en) | 2007-10-04 |
JP4476957B2 JP4476957B2 (en) | 2010-06-09 |
Family
ID=38631615
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006082956A Expired - Fee Related JP4476957B2 (en) | 2006-03-24 | 2006-03-24 | Attitude discrimination device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4476957B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012172629A1 (en) * | 2011-06-13 | 2012-12-20 | トヨタ自動車株式会社 | Pedestrian motion prediction device |
EP3404513A1 (en) | 2017-05-19 | 2018-11-21 | Fujitsu Limited | Information processing apparatus, method, and program |
-
2006
- 2006-03-24 JP JP2006082956A patent/JP4476957B2/en not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012172629A1 (en) * | 2011-06-13 | 2012-12-20 | トヨタ自動車株式会社 | Pedestrian motion prediction device |
EP3404513A1 (en) | 2017-05-19 | 2018-11-21 | Fujitsu Limited | Information processing apparatus, method, and program |
US10853636B2 (en) | 2017-05-19 | 2020-12-01 | Fujitsu Limited | Information processing apparatus, method, and non-transitory computer-readable storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP4476957B2 (en) | 2010-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4173896B2 (en) | Vehicle periphery monitoring device | |
US7671725B2 (en) | Vehicle surroundings monitoring apparatus, vehicle surroundings monitoring method, and vehicle surroundings monitoring program | |
US9235990B2 (en) | Vehicle periphery monitoring device | |
JP4470067B2 (en) | Object type determination device, vehicle | |
JP4692344B2 (en) | Image recognition device | |
JP2007241740A (en) | Vehicle periphery monitoring device | |
JP5480925B2 (en) | Vehicle periphery monitoring device | |
JP2007288657A (en) | Display apparatus for vehicle, and display method of the display apparatus for vehicle | |
JP2007334751A (en) | Vehicle periphery monitoring device | |
JP2010097541A (en) | Vehicular periphery monitoring apparatus | |
JP2003216937A (en) | Night vision system | |
JP2007241898A (en) | Stopping vehicle classifying and detecting device and vehicle peripheral monitoring device | |
JP2010088045A (en) | Night view system, and nighttime walker display method | |
JP2007323578A (en) | Vehicle periphery monitoring device | |
WO2010007718A1 (en) | Vehicle vicinity monitoring device | |
JP2001216520A (en) | Surroundings monitor device for vehicle | |
JP2002314989A (en) | Peripheral monitor for vehicle | |
JP2007334511A (en) | Object detection device, vehicle, object detection method and program for object detection | |
JP4887537B2 (en) | Vehicle periphery monitoring device | |
JP5192007B2 (en) | Vehicle periphery monitoring device | |
JP4701961B2 (en) | Pedestrian detection device | |
JP4476957B2 (en) | Attitude discrimination device | |
JP4765113B2 (en) | Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method | |
JP4823753B2 (en) | Vehicle periphery monitoring device | |
JP4615536B2 (en) | Display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091006 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091204 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100309 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100310 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130319 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130319 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140319 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |