JPH11328364A - Area estimating device and display processor - Google Patents

Area estimating device and display processor

Info

Publication number
JPH11328364A
JPH11328364A JP10130758A JP13075898A JPH11328364A JP H11328364 A JPH11328364 A JP H11328364A JP 10130758 A JP10130758 A JP 10130758A JP 13075898 A JP13075898 A JP 13075898A JP H11328364 A JPH11328364 A JP H11328364A
Authority
JP
Japan
Prior art keywords
area
infrared image
detection target
infrared
target person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10130758A
Other languages
Japanese (ja)
Other versions
JP4135123B2 (en
Inventor
Akira Shiratori
朗 白鳥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP13075898A priority Critical patent/JP4135123B2/en
Publication of JPH11328364A publication Critical patent/JPH11328364A/en
Application granted granted Critical
Publication of JP4135123B2 publication Critical patent/JP4135123B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Air Conditioning Control Device (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide the display processor which can effectively be used to support the visual angle of a driver by displaying an area including the whole body of an object person of detection like a pedestrian discriminatingly from other areas. SOLUTION: The area estimating device decides the head position of the object person of detection on an infrared-ray image photographed by an infrared- ray camera 1 by a head position deciding means 31 and according to information on the head position in the infrared-ray image, an area determining means 32 determines the area equivalent to the body of the object person of detection on the infrared-ray image. An area emphasizing means 33 emphasizes the area equivalent to the body of the object person of detection discriminatingly from other areas and displays this infrared-ray image on a display monitor 4. Consequently, the whole body of the object person of detection like a pedestrian can be emphasized and displayed discriminatingly on the infrared-ray image to be displayed on the display monitor 4.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、赤外線カメラのよ
うな赤外線撮影手段が撮影する赤外線画像から検出対象
者の身体領域を判別する領域推定装置、及び当該領域推
定装置が決定した検出対象者の身体領域をその他の領域
と区分して共に表示する表示処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an area estimating apparatus for determining a body area of a detection target from an infrared image captured by infrared imaging means such as an infrared camera, and a detection target of the detection target determined by the area estimating apparatus. The present invention relates to a display processing device that displays a body region separately from other regions.

【0002】[0002]

【従来の技術】人の存在を他の物体と区別して検出する
のに有効な手段として、赤外線カメラを含む赤外線セン
サがある。赤外線センサは対象物の温度で判別を行うの
で、対象物の形状や動きなどを調べる手段に比べて単純
な構成が可能である。
2. Description of the Related Art As an effective means for detecting the presence of a person by distinguishing it from other objects, there is an infrared sensor including an infrared camera. Since the infrared sensor performs the determination based on the temperature of the target, a simple configuration is possible as compared with a means for examining the shape and movement of the target.

【0003】このような赤外線検出技術を用いた従来例
として、例えば特開平2−143047号公報に記載さ
れたもので知られている。この従来例は、室内を複数の
領域に分け、それぞれの領域に対応する赤外線センサを
設け、各領域に人が存在すればそれぞれを検出し、空調
機の風向制御に反映させようとするものである。
A conventional example using such an infrared detection technique is known from, for example, Japanese Patent Application Laid-Open No. 2-143047. In this conventional example, a room is divided into a plurality of regions, an infrared sensor corresponding to each region is provided, and if a person is present in each region, each person is detected and reflected in the wind direction control of the air conditioner. is there.

【0004】また特開平6-117836号公報には、
別の従来例として、赤外線センサによる赤外線画像に対
してニューラルネットワーク又はパターン認識機構を適
用して、詳細な人間の個人判別を行う技術が開示されて
いる。
Japanese Patent Application Laid-Open No. Hei 6-117,836 discloses that
As another conventional example, there is disclosed a technique of applying a neural network or a pattern recognition mechanism to an infrared image obtained by an infrared sensor to perform detailed human individual identification.

【0005】特開平5−137030号公報にはさらに
別の従来例が記載されている。この従来例は、夜間のよ
うな低視界において、検出対象者の身体から発散される
赤外線を赤外線カメラによって検出し、表示装置に表示
することによって運転者の視界を補助しようする技術で
ある。
Japanese Patent Laid-Open Publication No. Hei 5-137030 describes another conventional example. This conventional example is a technique for assisting a driver's field of view by detecting infrared rays emitted from the body of a detection target by an infrared camera in a low field of view such as at night and displaying the infrared ray on a display device.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、このよ
うな従来の技術では、次のような点が未解決であった。
すなわち、検出対象者の身体は通常、着衣で覆われてい
るために赤外線が身体全体から一様に発散されることが
ない。このため、身体全体に対応する領域の特定にずれ
が生じることがあり、特に、空調機の風向制御に反映さ
せようとすれば、赤外線が多く発散される身体の頭部の
位置に向けて風向制御されるようになり、身体全体を暖
めるように風向を調節することができない場合がある。
However, such a conventional technique has not solved the following points.
That is, since the body of the detection target is usually covered with clothes, infrared rays are not uniformly emitted from the entire body. For this reason, a deviation may occur in the specification of the region corresponding to the entire body. Become controlled, and it may not be possible to adjust the wind direction to warm the entire body.

【0007】また運転者の視界補助に適用しようする場
合、運転者は歩行者らしい検出候補を視認し、その形状
や動きから注意すべき対象か否かを判断する必要がある
ので、表示装置に表示された検出候補の位置は画像内に
おいてより強調して一瞥して視認できるような表示であ
ることが望ましく、併せて、検出しやすい頭部以外の着
衣部分も強調表示の対象とするのが望ましい。ところが
着衣部分の赤外線の発散が低く抑えられているので、従
来の赤外線カメラの撮影した赤外線画像では、特に遠方
の歩行者の映像では、皮膚が露出している頭部のみが強
調されることになり、街灯などとの判別が困難となる場
合がある。
[0007] Further, when applying to the driver's view assist, it is necessary for the driver to visually recognize a pedestrian-like detection candidate and judge whether or not it is a target to be noted from its shape and movement. It is desirable that the position of the displayed detection candidate is displayed in such a manner that it can be more emphasized in the image so that it can be visually recognized at a glance. desirable. However, since the divergence of infrared light in the clothing part is kept low, in the infrared image taken by the conventional infrared camera, especially in the image of distant pedestrians, only the head with exposed skin is emphasized. In some cases, it may be difficult to determine a streetlight or the like.

【0008】本発明はこのような従来の技術的課題を解
決するためになされたもので、赤外線画像を利用して検
出対象者の身体全体を包含する領域を検出することがで
きる領域推定装置を提供することを目的とする。
The present invention has been made to solve such a conventional technical problem, and an area estimating apparatus capable of detecting an area including the whole body of a detection target using an infrared image. The purpose is to provide.

【0009】本発明はまた、歩行者のような検出対象者
の身体全体を包含する領域をその他の領域と区分して明
確に表示し、運転者の視角補助に有効に利用できる表示
処理装置を提供することを目的とする。
The present invention also provides a display processing device which can clearly display an area including the entire body of a detection target such as a pedestrian and the like, separately from other areas, and can effectively use it for assisting the driver's visual angle. The purpose is to provide.

【0010】[0010]

【課題を解決するための手段】請求項1の発明の領域推
定装置は、赤外線画像を撮影する撮影手段と、前記撮影
手段の撮影した前記赤外線画像内から、検出対象者の頭
部位置を判別する頭部位置判別手段と、前記頭部位置判
別手段の判別した前記赤外線画像内の頭部位置の情報に
基づき、当該赤外線画像内における前記検出対象者の身
体に相当する領域を決定する領域決定手段とを備えたも
のである。
According to a first aspect of the present invention, there is provided an area estimating apparatus for determining a head position of a person to be detected from a photographing means for photographing an infrared image and the infrared image photographed by the photographing means. Area determining means for determining a region corresponding to the body of the detection target person in the infrared image based on information on a head position in the infrared image determined by the head position determining means. Means.

【0011】請求項2の発明は、請求項1の領域推定装
置において、前記領域決定手段が、前記検出対象者の身
体に相当する領域として当該検出対象者の身体を包含す
るのと同程度の領域を決定するものである。
According to a second aspect of the present invention, in the area estimating apparatus of the first aspect, the area determining means includes a body of the detection target person as a region corresponding to the body of the detection target person. The area is determined.

【0012】請求項3の発明は、請求項1の領域推定装
置において、前記領域決定手段が、前記検出対象者の身
体に相当する領域を、前記赤外線画像の画像上の前記検
出対象者の存在位置、前記撮影手段の設置高さ及び撮影
方向の俯角、あらかじめ与えられている前記検出対象者
の身長のデータを用いて決定するものである。
According to a third aspect of the present invention, in the area estimating apparatus according to the first aspect, the area determining means determines whether or not the area corresponding to the body of the detection target is present on the infrared image. The position, the installation height of the photographing means, the depression angle of the photographing direction, and the height data of the detection target person given in advance are determined.

【0013】請求項1〜3の発明の領域推定装置では、
撮影手段の撮影した赤外線画像内から、検出対象者の頭
部位置を頭部位置判別手段によって判別し、領域決定手
段がこの赤外線画像内の頭部位置の情報に基づき、赤外
線画像内における検出対象者の身体に相当する領域を決
定する。
In the region estimating apparatus according to the first to third aspects of the present invention,
The head position of the person to be detected is determined by the head position determining unit from the infrared image captured by the capturing unit, and the area determining unit determines the detection target in the infrared image based on the information on the head position in the infrared image. The area corresponding to the person's body is determined.

【0014】これにより、赤外線画像内における検出対
象者の身体全体の位置を特定することができ、この情報
を、例えば空調機の風向制御に反映させることによって
人の頭部のみならず、身体全体に向けた風向制御が可能
となる。また、この情報を運転者の視角補助に利用すれ
ば、表示手段に表示される赤外線画像の中から歩行者の
ような検出対象者の身体全体の区分して強調表示するの
に応用することができ、より効果的な運転者の視角補助
が可能となる。
Thus, the position of the whole body of the detection target in the infrared image can be specified, and this information is reflected on, for example, the wind direction control of the air conditioner, thereby not only the head of the person but also the whole body. It becomes possible to control the wind direction toward. Further, if this information is used for assisting the driver's visual angle, it can be applied to classify and highlight the entire body of the detection target person such as a pedestrian from the infrared image displayed on the display means. It is possible to more effectively assist the driver's visual angle.

【0015】請求項4の発明の表示処理装置は、請求項
1〜3の領域推定装置を備え、さらに、前記赤外線画像
内における、前記領域決定手段の決定した前記検出対象
者の身体に相当する領域をその他の領域と区分する画像
処理手段と、前記画像処理手段の出力画像を表示する表
示手段とを備えたものである。
A display processing device according to a fourth aspect of the present invention includes the region estimating device according to any one of the first to third aspects, and further corresponds to the body of the detection target person determined by the region determining means in the infrared image. The image processing apparatus includes image processing means for dividing an area from other areas, and display means for displaying an output image of the image processing means.

【0016】請求項5の発明は、請求項4の表示処理装
置において、前記画像処理手段が、(1)前記赤外線画
像内の該当領域に境界線を明示する、(2)前記赤外線
画像内の該当領域の明度又は色をその他の領域と異なら
せる、(3)前記赤外線画像内の該当領域以外の領域を
所定の色で塗りつぶす、の1又は複数の組合せにより前
記赤外線画像内における、前記領域決定手段の決定した
前記検出対象者の身体に相当する領域をその他の領域と
区分するものである。
According to a fifth aspect of the present invention, in the display processing apparatus of the fourth aspect, the image processing means (1) specifies a boundary line in a corresponding area in the infrared image, (2) Determining the area in the infrared image by one or a combination of (1) making the brightness or color of the area different from the other areas, and (3) painting an area other than the area in the infrared image with a predetermined color. The region corresponding to the body of the detection target person determined by the means is divided from other regions.

【0017】請求項4及び5の発明の表示処理装置で
は、請求項1〜3の領域推定装置により赤外線画像内に
おいて検出対象者の身体全体を包含する領域を決定し、
相当する領域を他の領域と区分して表示する。そして、
この表示のために、(1)前記赤外線画像内の該当領域
に境界線を明示する、(2)前記赤外線画像内の該当領
域の明度又は色をその他の領域と異ならせる、あるいは
(3)前記赤外線画像内の該当領域以外の領域を所定の
色で塗りつぶす、の1又は複数の組合せる手法を採用す
る。
In the display processing device according to the fourth and fifth aspects of the present invention, a region including the entire body of the detection target person in the infrared image is determined by the region estimating device according to the first to third aspects.
The corresponding area is displayed separately from other areas. And
For this display, (1) a boundary line is clearly specified in the corresponding area in the infrared image, (2) the brightness or color of the corresponding area in the infrared image is different from other areas, or (3) One or a combination of a plurality of methods of filling an area other than the corresponding area in the infrared image with a predetermined color is adopted.

【0018】これによって、本装置を運転者の視角補助
に利用すれば、表示手段に表示される赤外線画像の中か
ら歩行者のような検出対象者の身体全体の区分して強調
表示することができ、効果的な運転者の視角補助が可能
となる。
Thus, if the present apparatus is used for assisting the driver's visual angle, the whole body of the detection target person such as a pedestrian can be highlighted in the infrared image displayed on the display means. It is possible to effectively assist the driver's viewing angle.

【0019】[0019]

【発明の効果】以上のように請求項1〜3の発明の領域
推定装置によれば、赤外線画像内における検出対象者の
身体全体の位置を特定することができ、この情報を、例
えば空調機の風向制御に反映させることによって人の頭
部のみならず、身体全体に向けた風向制御が可能であ
る。また、この情報を運転者の視角補助に利用すれば、
表示手段に表示される赤外線画像の中から歩行者のよう
な検出対象者の身体全体の区分して強調表示するのに応
用することができ、より効果的な運転者の視角補助が可
能である。
As described above, according to the region estimating apparatus according to the first to third aspects of the present invention, the position of the whole body of the detection target in the infrared image can be specified, and this information is used for, for example, an air conditioner. Thus, the wind direction can be controlled not only for the head of the person but also for the whole body. Also, if this information is used to assist the driver's viewing angle,
It can be applied to classify and highlight the entire body of the detection target person such as a pedestrian from the infrared image displayed on the display means, and it is possible to more effectively assist the driver's viewing angle. .

【0020】請求項4及び5の発明の表示処理装置によ
れば、本装置を運転者の視角補助に利用すれば、表示手
段に表示される赤外線画像の中から歩行者のような検出
対象者の身体全体の区分して強調表示することができ、
効果的な運転者の視角補助が可能である。
According to the display processing device of the present invention, when the present device is used for assisting the driver's visual angle, a detection target such as a pedestrian is detected from the infrared image displayed on the display means. Of the entire body can be highlighted,
An effective driver's viewing angle assistance is possible.

【0021】[0021]

【発明の実施の形態】以下、本発明の実施の形態を図に
基づいて詳説する。図1は本発明の第1の実施の形態の
表示処理装置のハードウェア構成を示し、図2はその機
能構成を示している。第1の実施の形態の表示処理装置
は、ハードウェア的には、車載され、車両前方の道路情
景を所定の視野で撮影する赤外線カメラ1、この赤外線
カメラ1の撮影する赤外線画像をディジタル化して記憶
する赤外線画像フレームメモリ2、領域推定装置として
赤外線画像内から歩行者のような検出対象者の身体全体
を包含する領域を決定し、さらに表示処理装置としてそ
の領域を他の領域と区分した画像に処理するCPU3、
そしてこのCPU3の処理した赤外線画像を表示する表
示モニタ4から構成されている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described below in detail with reference to the drawings. FIG. 1 shows a hardware configuration of a display processing device according to a first embodiment of the present invention, and FIG. 2 shows a functional configuration thereof. The display processing device according to the first embodiment is mounted on a vehicle, and is an infrared camera 1 that captures a road scene ahead of the vehicle with a predetermined field of view in terms of hardware. The infrared image captured by the infrared camera 1 is digitized. Infrared image frame memory 2 to be stored, an area that includes the whole body of the detection target person such as a pedestrian from an infrared image as an area estimation device, and is further divided into other areas as a display processing device. CPU3 to process to
A display monitor 4 displays an infrared image processed by the CPU 3.

【0022】またCPU3が処理する機能を機能別に分
けて示すと、図2に示すように、赤外線画像フレームメ
モリ2に保存されている赤外線画像データを取りこみ、
画素ごとに走査し、明部が集中している領域を探し、検
出対象者の頭部の領域と決定する頭部検出処理部31、
頭部検出処理部31の決定した頭部領域に対して、後述
する手法により検出対象者の身体を包含する領域を決定
する身体領域決定処理部32、この身体領域決定処理部
32が決定した検出対象者の身体領域全体を後述する手
法によって他の領域と区分する表示形態に変換し、赤外
線画像データの全体を出力する領域強調処理部33を備
えている。
The functions processed by the CPU 3 are shown for each function. As shown in FIG. 2, the infrared image data stored in the infrared image frame memory 2 is fetched.
A head detection processing unit 31 that scans for each pixel, searches for an area where bright parts are concentrated, and determines the area of the head of the detection target person;
For the head region determined by the head detection processing unit 31, the body region determination processing unit 32 determines a region including the body of the detection target person by a method described later, and the detection determined by the body region determination processing unit 32 An area emphasis processing unit 33 is provided which converts the entire body area of the subject into a display form that is divided from other areas by a method described later, and outputs the entire infrared image data.

【0023】なお、この実施の形態は表示処理装置に関
するものであるが、赤外線カメラ1、赤外線画像フレー
ムメモリ2及びCPU3における頭部検出処理部31と
身体領域決定処理部32によって本発明の領域推定装置
が構成され、本実施の形態はこの領域推定装置を用いた
表示処理装置を構成することになる。
Although this embodiment relates to a display processing device, the infrared camera 1, the infrared image frame memory 2, and the head detection processing unit 31 and the body region determination processing unit 32 in the CPU 3 perform the area estimation of the present invention. An apparatus is configured, and the present embodiment configures a display processing apparatus using the area estimation apparatus.

【0024】次に、上記構成の領域決定装置及びそれを
用いた表示処理装置の動作を説明する。赤外線カメラ1
は設定された視野、画角の赤外線による車両前方の道路
情景を撮影して赤外線画像フレームメモリ2に1フレー
ムずつ記憶する。CPU3は赤外線画像フレームメモリ
2から赤外線画像データを取込み、図3のフローチャー
トに示す各処理によって検出対象者である歩行者の身体
を含む領域を決定し、さらにその領域を他の領域と区分
する表示形態に変換し、画像データを表示モニタ4に表
示させる処理を繰り返し実行する。
Next, the operation of the above-configured region determining device and the display processing device using the same will be described. Infrared camera 1
Captures a road scene ahead of the vehicle by infrared rays with the set field of view and angle of view, and stores them in the infrared image frame memory 2 frame by frame. The CPU 3 fetches infrared image data from the infrared image frame memory 2, determines a region including the body of the pedestrian who is the detection target by each processing shown in the flowchart of FIG. 3, and further displays the region to be separated from other regions. The processing of converting the image data into a form and displaying the image data on the display monitor 4 is repeatedly executed.

【0025】そのためにまず、頭部検出処理部31が赤
外線画像フレームメモリ2から1フレーム分の赤外線画
像データを取りこみ、画素ごとに走査し、歩行者の頭部
に相当する領域を検出する(ステップS1,S2)。こ
れには、例えば特開平9−128548号公報に記載さ
れている技術を利用するが、赤外線画像内から重心位
置、縦横比、充足率、実面積などの条件を満たす部位の
存在を調べ、相当する領域を歩行者の頭部に相当する領
域と決定するのである。
For this purpose, first, the head detection processing section 31 fetches one frame of infrared image data from the infrared image frame memory 2, scans each pixel, and detects an area corresponding to the pedestrian's head (step). S1, S2). For this purpose, for example, a technique described in Japanese Patent Application Laid-Open No. 9-128548 is used. Is determined as a region corresponding to the pedestrian's head.

【0026】続いて、身体領域決定処理部32により、
その歩行者の身体に相当する領域を決定する(ステップ
S3)。この身体相当領域の決定は、次のようにして行
う。図4を参照して、画像の水平画角中心から歩行者の
頭部までの実距離feと、画面上での歩行者の身長ebは、
カメラの設置高Hcamと俯角θ、歩行者の身長Hped、カ
メラからの水平距離Lとの間で、それぞれ次の数1〜数
3の式で示す関係が存在する。
Subsequently, the body region determination processing unit 32
An area corresponding to the pedestrian's body is determined (step S3). The determination of the body equivalent region is performed as follows. Referring to FIG. 4, the actual distance fe from the center of the horizontal angle of view of the image to the pedestrian's head and the height eb of the pedestrian on the screen are:
The following equations 1 to 3 exist between the camera installation height Hcam, the depression angle θ, the height Hped of the pedestrian, and the horizontal distance L from the camera.

【0027】[0027]

【数1】 (Equation 1)

【数2】 (Equation 2)

【数3】 ここで、歩行者の身長Hpedとして成人の平均身長を代
表値として当てはめると、上記のfeとebとの関係式を得
ることができる。一方、図5を参照して、頭部検出処理
部31が検出した歩行者の頭部の検出位置により、画面
上にてfeに該当する値を得ることができる。これによ
り、Lに応じたebの値を求めることができる。
(Equation 3) Here, when the average height of an adult is applied as a representative value as the height Hped of the pedestrian, the above-mentioned relational expression between fe and eb can be obtained. On the other hand, referring to FIG. 5, a value corresponding to fe on the screen can be obtained based on the detected position of the pedestrian's head detected by head detection processing unit 31. Thus, the value of eb according to L can be obtained.

【0028】こうして求めた歩行者の頭部に該当する位
置(=e)と、領域の高さ方向の大きさ(=eb)をもと
にして画面上で歩行者を包含する図形を当てはめ、歩行
者の身体に相当する領域とするのである。
Based on the position (= e) corresponding to the pedestrian's head thus obtained and the size of the area in the height direction (= eb), a figure containing the pedestrian is applied on the screen. The area corresponds to the pedestrian's body.

【0029】この実施の形態では、以下のような長辺e
b、短辺eb/2の長方形領域を用いる。
In this embodiment, the following long side e
b, a rectangular area with a short side eb / 2 is used.

【0030】(a)上部の辺の位置を垂直座標eとし、
(b)水平方向の中心線を水平座標とし、(c)垂直方
向の大きさをebとし、(d)水平方向の大きさをeb/2
とする。
(A) The position of the upper side is defined as vertical coordinate e,
(B) The horizontal center line is the horizontal coordinate, (c) the vertical size is eb, and (d) the horizontal size is eb / 2.
And

【0031】なお、検出対象者としての歩行者の身体に
相当する領域としてこのような長方形領域を用いる代わ
りに、例えば長軸eb、短軸eb/2とし、頭部位置を頂点
とするだ円領域のように、他の形状の領域を用いること
も可能である。また画像上で歩行者の身体に相当する領
域を決定するのに、比較的近距離に存在する歩行者を検
出対象者とする場合には、頭部領域の大きさを調べ、頭
部と体全体との比率、つまり、図5におけるα:βの値
を固定値として、高さ方向の大きさebを簡易的に、eb=
α+βとすることもできる。これらは、以下の第2、第
3の実施の形態についても同様に適用できる。
Instead of using such a rectangular area as an area corresponding to the body of a pedestrian as a detection target, for example, an ellipse having a long axis eb and a short axis eb / 2 and a head position as a vertex. It is also possible to use regions of other shapes, such as regions. When determining a region corresponding to a pedestrian's body on an image, when a pedestrian located at a relatively short distance is set as a detection target, the size of the head region is checked, and the head and body are determined. Assuming that the ratio to the whole, that is, the value of α: β in FIG. 5 is a fixed value, the size eb in the height direction is simply eb =
α + β can also be used. These can be similarly applied to the following second and third embodiments.

【0032】こうして歩行者の頭部及びそれを含む身体
に相当する領域を決定すれば、領域強調処理部33がそ
の領域を他の領域と明確に識別できるように強調処理を
行う(ステップS4)。ここでは、強調処理として身体
に相当する長方形領域の輪郭を目立つ色で縁取ることに
より実現する。
When the area corresponding to the head of the pedestrian and the body including the pedestrian is determined in this way, the area emphasis processing section 33 performs emphasis processing so that the area can be clearly distinguished from other areas (step S4). . Here, the emphasis processing is realized by bordering the outline of a rectangular area corresponding to the body with a conspicuous color.

【0033】こうして強調処理が済めば、CPU3は強
調処理の済んだ赤外線画像データを表示モニタ4に出力
し、表示させる(ステップS5)。
When the emphasizing process is completed, the CPU 3 outputs the emphasized infrared image data to the display monitor 4 and displays it (Step S5).

【0034】以上のCPU3による画像処理を、実際の
画面を用いて説明する。図6(a)は赤外線カメラ1に
よる赤外線画像OG上での、検出対象者である歩行者の頭
部位置、画面上での検出位置、身体に相当する領域(垂
直領域)の関係を示している。これに対して、同図
(b)は表示モニタ4に実際に表示される画像例Aであ
り、上述した身体に相当する長方形領域11を目立つ色
で強調表示することにより、画面上のこの長方形領域の
位置に検出対象者が存在することが運転者に一瞥して認
識できるようになっている。
The image processing by the CPU 3 will be described with reference to an actual screen. FIG. 6A shows a relationship between a head position of a pedestrian who is a detection target, a detection position on a screen, and a region (vertical region) corresponding to a body on an infrared image OG by the infrared camera 1. I have. On the other hand, FIG. 3B shows an example A of an image actually displayed on the display monitor 4. The rectangular area 11 corresponding to the body described above is highlighted in a conspicuous color to display the rectangular area 11 on the screen. The driver can recognize at a glance that the detection target person exists at the position of the area.

【0035】以上のように、第1の実施の形態の表示処
理装置では、運転者の視界補助に適応する表示処理装置
として、歩行者の頭部以外の着衣部分を含めて検出候補
の位置を画像内で強調表示することができ、これによっ
て運転者は、歩行者らしき検出候補を容易に視認し、そ
の形状や動きから注意すべき対象か否かを判断しやすく
なる。
As described above, in the display processing device of the first embodiment, the position of the detection candidate including the clothing part other than the head of the pedestrian is determined as the display processing device adapted to assist the driver's view. Highlighting can be performed in the image, which makes it easier for the driver to visually recognize the pedestrian-like detection candidate and determine whether or not it is a target to be noted from its shape or movement.

【0036】次に、本発明の第2の実施の形態の表示処
理装置を、図1、図2、図7〜図9に基づいて説明す
る。第2の実施の形態の表示処理装置の構成は、図1及
び図2に示した第1の実施の形態と同様である。ただ
し、CPU3の実行する表示処理が異なっている。つま
り、第2の実施の形態におけるCPU3の領域強調処理
部33は、検出対象者の身体に相当する領域11の強調
のために当該領域だけ、白黒反転処理を行うことによ
り、他の領域と区分する点に特徴がある。その他は、第
1の実施の形態と同様である。
Next, a display processing apparatus according to a second embodiment of the present invention will be described with reference to FIGS. 1, 2, and 7 to 9. The configuration of the display processing device according to the second embodiment is the same as that of the first embodiment shown in FIGS. However, the display processing executed by the CPU 3 is different. In other words, the region emphasis processing unit 33 of the CPU 3 in the second embodiment performs black-and-white inversion processing only on the region 11 for emphasizing the region 11 corresponding to the body of the detection target person to separate the region from other regions. There is a feature in that. Others are the same as in the first embodiment.

【0037】この第2の実施の形態の表示処理装置によ
る画像処理表示について、図7のフローチャートを参照
して説明する。第1の実施の形態と同様に頭部検出処理
部31が赤外線画像フレームメモリ2から取りこんだ赤
外線画像に対し、歩行者の頭部領域を検出し、身体領域
決定処理部32が第1の実施の形態と同様の処理によっ
て歩行者の身体に相当する領域11を決定する(ステッ
プS1〜S3)。
The image processing display by the display processing device according to the second embodiment will be described with reference to the flowchart of FIG. As in the first embodiment, the head detection processing unit 31 detects the pedestrian's head region from the infrared image fetched from the infrared image frame memory 2, and the body region determination processing unit 32 executes the first embodiment. The area 11 corresponding to the pedestrian's body is determined by the same processing as in the embodiment (steps S1 to S3).

【0038】これに続いて、領域強調処理部33は身体
領域決定処理部32が決定した領域11の白黒反転処理
を行い(ステップS40)、その後、赤外線画像の全体
を表示モニタ4に表示させる(ステップS5)。
Subsequently, the area emphasis processing section 33 performs a black-and-white inversion process on the area 11 determined by the body area determination processing section 32 (step S40), and then displays the entire infrared image on the display monitor 4 (step S40). Step S5).

【0039】ここで白黒反転処理について説明する。赤
外線画像OGを1画素ごとに走査し、その画素の座標がス
テップS3で決定した領域11に含まれているか否かを
調べる。そして含まれている場合には、赤外線画像の該
当する画素について、図8に示すように明度反転スケー
ルにしたがって白黒反転処理を行う。そして、反転処理
後の画素データを元の赤外線画像の該当する画素のデー
タと入れ換える。これを赤外線画像OGの全画素について
繰返し、処理が終了すれば表示モニタ4に全体の画像を
表示させるのである。こうして得られる表示画像Bは、
図9に示すようなものとなる。
Here, the black-and-white inversion processing will be described. The infrared image OG is scanned for each pixel, and it is checked whether or not the coordinates of the pixel are included in the area 11 determined in step S3. If it is included, black-and-white inversion processing is performed on the corresponding pixel of the infrared image according to the brightness inversion scale as shown in FIG. Then, the pixel data after the inversion processing is replaced with the data of the corresponding pixel of the original infrared image. This is repeated for all the pixels of the infrared image OG, and when the processing is completed, the entire image is displayed on the display monitor 4. The display image B thus obtained is
The result is as shown in FIG.

【0040】こうして第2の実施の形態の表示処理装置
によれば、第1の実施の形態と同様の効果を奏し、さら
に検出対象者の身体に相当する領域だけを白黒反転させ
た赤外線画像Bが表示できるので、自ら発光することが
ない歩行者が赤外線画像上で周囲よりも明るく映る違和
感を低減し、かつ他の領域と明確に識別できる形態で表
示できる。
Thus, according to the display processing device of the second embodiment, the same effect as that of the first embodiment is obtained, and further, the infrared image B in which only the area corresponding to the body of the detection target is black and white inverted. Can be displayed, so that a pedestrian who does not emit light by itself can be displayed in a form in which it can be displayed in an infrared image brighter than the surrounding area, and can be clearly distinguished from other areas.

【0041】なお、この第2の実施の形態では検出対象
者の身体に相当する領域11を白黒反転させて表示する
ようにしたが、これに限らず、例えばその他の領域と区
別できるような色、明度に変更するようにしてもよい。
In the second embodiment, the area 11 corresponding to the body of the person to be detected is displayed in a black-and-white inversion. However, the present invention is not limited to this. For example, a color that can be distinguished from other areas is used. Alternatively, the brightness may be changed.

【0042】次に、本発明の第3の実施の形態の表示処
理装置を、図1、図2、図10及び図11に基づいて説
明する。第3の実施の形態の表示処理装置の構成も、図
1及び図2に示した第1の実施の形態と同様である。た
だし、CPU3の実行する表示処理が異なっていて、第
3の実施の形態におけるCPU3の領域強調処理部33
は、後述するように検出対象者の身体に相当する領域1
1の強調のために、赤外線画像OGにおける当該領域11
以外の部分を所定の暗色で塗りつぶす処理を行うことに
より、他の領域と区分する点に特徴がある。その他は、
第1の実施の形態と同様である。
Next, a display processing apparatus according to a third embodiment of the present invention will be described with reference to FIGS. 1, 2, 10 and 11. The configuration of the display processing apparatus according to the third embodiment is the same as that of the first embodiment shown in FIGS. However, the display processing executed by the CPU 3 is different, and the region emphasis processing section 33 of the CPU 3 in the third embodiment is different.
Is an area 1 corresponding to the body of the detection target person as described later.
In order to emphasize 1, the corresponding area 11 in the infrared image OG
It is characterized in that a portion other than the region is painted with a predetermined dark color to be separated from other regions. Others
This is the same as in the first embodiment.

【0043】この第3の実施の形態の表示処理装置によ
る画像処理表示について、図10のフローチャートを参
照して説明する。第1の実施の形態と同様に頭部検出処
理部31が赤外線画像フレームメモリ2から取りこんだ
赤外線画像に対し、歩行者の頭部領域を検出し、身体領
域決定処理部32が第1の実施の形態と同様の処理によ
って歩行者の身体に相当する領域11を決定する(ステ
ップS1〜S3)。
An image processing display by the display processing apparatus according to the third embodiment will be described with reference to a flowchart of FIG. As in the first embodiment, the head detection processing unit 31 detects the pedestrian's head region from the infrared image fetched from the infrared image frame memory 2, and the body region determination processing unit 32 executes the first embodiment. The area 11 corresponding to the pedestrian's body is determined by the same processing as in the embodiment (steps S1 to S3).

【0044】これに続いて、領域強調処理部33は身体
領域決定処理部32が決定した領域11の強調のため
に、赤外線画像OGにおける当該領域11以外の部分を所
定の暗色で塗りつぶす処理を行い(ステップS41)、
その後、赤外線画像の全体を表示モニタ4に表示させる
(ステップS5)。こうして得られる表示画像Cは、図
11に示すようなものとなる。
Subsequently, the region emphasis processing section 33 performs a process of filling a portion other than the area 11 in the infrared image OG with a predetermined dark color in order to emphasize the area 11 determined by the body region determination processing section 32. (Step S41),
Thereafter, the entire infrared image is displayed on the display monitor 4 (step S5). The display image C thus obtained is as shown in FIG.

【0045】こうして第3の実施の形態の表示処理装置
によれば、第1の実施の形態と同様の効果を奏し、さら
に検出対象者の身体に相当する領域以外の領域を暗く塗
りつぶした赤外線画像Cが表示できるので、特に夜間の
運転時での使用を想定した場合、強調する必要のない領
域は車外の存在物のない暗闇を連想させる表示となり、
運転者に対して歩行者の存在を明確に識別させることが
できる。
As described above, according to the display processing device of the third embodiment, the same effects as those of the first embodiment can be obtained, and further, the infrared image in which the area other than the area corresponding to the body of the detection target is darkly filled. Since C can be displayed, an area that does not need to be emphasized becomes a display reminiscent of darkness without any objects outside the vehicle, especially when used during driving at night.
It is possible to make the driver clearly recognize the presence of the pedestrian.

【0046】なお、上記の第1〜第3の実施の形態は本
発明の表示処理装置を示したが、それらの表示処理装置
に組み込まれた赤外線カメラ1、赤外線画像フレームメ
モリ2、CPU3の頭部検出処理部31及び身体領域決
定処理部32からは本発明の領域推定装置を構成するこ
とができ、この部分だけを例えば、空調機の風向制御の
ための検出対象者の存在位置の検出のために用いるよう
にすれば、人の頭部のみならず、身体全体に向けた風向
制御が可能となる。
Although the first to third embodiments show the display processing devices of the present invention, the infrared camera 1, the infrared image frame memory 2, and the head of the CPU 3 incorporated in those display processing devices. An area estimation device of the present invention can be configured from the section detection processing section 31 and the body area determination processing section 32, and only this section is used to detect the position of the detection target person for controlling the wind direction of the air conditioner. Therefore, it is possible to control the wind direction not only for the human head but also for the entire body.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施の形態のハードウェア構成
を示すブロック図。
FIG. 1 is a block diagram showing a hardware configuration according to a first embodiment of the present invention.

【図2】上記の実施の形態におけるCPUの機能構成を
示すブロック図。
FIG. 2 is a block diagram illustrating a functional configuration of a CPU in the above embodiment.

【図3】上記の実施の形態におけるCPUの画像表示処
理のフローチャート。
FIG. 3 is a flowchart of an image display process of a CPU according to the embodiment.

【図4】上記の実施の形態による画像処理の説明図。FIG. 4 is an explanatory diagram of image processing according to the embodiment.

【図5】上記の実施の形態による画像処理の説明図。FIG. 5 is an explanatory diagram of image processing according to the embodiment.

【図6】上記の実施の形態による表示画像例を示す説明
図。
FIG. 6 is an explanatory diagram showing an example of a display image according to the embodiment.

【図7】本発明の第2の実施の形態におけるCPUの画
像表示処理のフローチャート。
FIG. 7 is a flowchart of an image display process of a CPU according to the second embodiment of the present invention.

【図8】上記の実施の形態による白黒反転処理の説明
図。
FIG. 8 is an explanatory diagram of a black-and-white inversion process according to the embodiment.

【図9】上記の実施の形態による表示画像例を示す説明
図。
FIG. 9 is an explanatory diagram showing an example of a display image according to the embodiment.

【図10】本発明の第3の実施の形態におけるCPUの
画像表示処理のフローチャート。
FIG. 10 is a flowchart of an image display process of a CPU according to the third embodiment of the present invention.

【図11】上記の実施の形態による表示画像例を示す説
明図。
FIG. 11 is an explanatory diagram showing an example of a display image according to the embodiment.

【符号の説明】[Explanation of symbols]

1 赤外線カメラ 2 赤外線画像フレームメモリ 3 CPU 4 表示モニタ 31 頭部検出処理部 32 身体領域決定処理部 33 領域強調処理部 DESCRIPTION OF SYMBOLS 1 Infrared camera 2 Infrared image frame memory 3 CPU 4 Display monitor 31 Head detection processing part 32 Body area determination processing part 33 Area enhancement processing part

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 赤外線画像を撮影する撮影手段と、 前記撮影手段の撮影した前記赤外線画像内から、検出対
象者の頭部位置を判別する頭部位置判別手段と、 前記頭部位置判別手段の判別した前記赤外線画像内の頭
部位置の情報に基づき、当該赤外線画像内における前記
検出対象者の身体に相当する領域を決定する領域決定手
段とを備えて成る領域推定装置。
A photographing means for photographing an infrared image; a head position discriminating means for discriminating a head position of a detection target person from the infrared image photographed by the photographing means; An area estimating apparatus comprising: area determining means for determining an area corresponding to the body of the detection target person in the infrared image based on the information on the determined head position in the infrared image.
【請求項2】 前記領域決定手段は、前記検出対象者の
身体に相当する領域として当該検出対象者の身体を包含
するのと同程度の領域を決定することを特徴とする請求
項1に記載の領域推定装置。
2. The apparatus according to claim 1, wherein the area determining unit determines an area equivalent to the body of the detection target person as a region corresponding to the body of the detection target person. Area estimation device.
【請求項3】 前記領域決定手段は、前記検出対象者の
身体に相当する領域を、前記赤外線画像の画像上の前記
検出対象者の存在位置、前記撮影手段の設置高さ及び撮
影方向の俯角、あらかじめ与えられている前記検出対象
者の身長のデータを用いて決定することを特徴とする請
求項1に記載の領域推定装置。
3. The area determination means determines an area corresponding to the body of the detection target person, the position of the detection target person on the image of the infrared image, the installation height of the imaging means, and the depression angle of the imaging direction. The region estimation apparatus according to claim 1, wherein the determination is performed using height data of the detection target person given in advance.
【請求項4】 前記赤外線画像内における、前記領域決
定手段の決定した前記検出対象者の身体に相当する領域
をその他の領域と区分する画像処理手段と、 前記画像処理手段の出力画像を表示する表示手段とを備
えて成る請求項1に記載の領域推定装置を用いた表示処
理装置。
4. An image processing means for dividing an area corresponding to the body of the detection target person determined by the area determination means in the infrared image from other areas, and an output image of the image processing means is displayed. A display processing device using the area estimation device according to claim 1, further comprising a display unit.
【請求項5】 前記画像処理手段は、次の1又は複数の
組合せにより前記赤外線画像内における、前記領域決定
手段の決定した前記検出対象者の身体に相当する領域を
その他の領域と区分することを特徴とする請求項4に記
載の表示処理装置。 (1)前記赤外線画像内の該当領域に境界線を明示す
る、 (2)前記赤外線画像内の該当領域の明度又は色をその
他の領域と異ならせる、 (3)前記赤外線画像内の該当領域以外の領域を所定の
色で塗りつぶす。
5. The image processing means separates an area corresponding to the body of the detection target person determined by the area determination means from the other areas in the infrared image by one or more of the following combinations: The display processing device according to claim 4, wherein: (1) A boundary line is clearly specified in the corresponding area in the infrared image. (2) The brightness or color of the corresponding area in the infrared image is different from other areas. (3) Other than the corresponding area in the infrared image. Area is painted in a predetermined color.
JP13075898A 1998-05-13 1998-05-13 Display processing device Expired - Fee Related JP4135123B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13075898A JP4135123B2 (en) 1998-05-13 1998-05-13 Display processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13075898A JP4135123B2 (en) 1998-05-13 1998-05-13 Display processing device

Publications (2)

Publication Number Publication Date
JPH11328364A true JPH11328364A (en) 1999-11-30
JP4135123B2 JP4135123B2 (en) 2008-08-20

Family

ID=15041957

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13075898A Expired - Fee Related JP4135123B2 (en) 1998-05-13 1998-05-13 Display processing device

Country Status (1)

Country Link
JP (1) JP4135123B2 (en)

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2383222A (en) * 2001-10-29 2003-06-18 Honda Motor Co Ltd Searching for changes in brightness of search zones around an extracted image feature
JP2004303219A (en) * 2003-03-20 2004-10-28 Honda Motor Co Ltd Vehicle surrounding monitoring device
US7130448B2 (en) 2002-01-18 2006-10-31 Honda Giken Kogyo Kabushiki Kaisha Device for monitoring around a vehicle
JP2007089094A (en) * 2005-09-26 2007-04-05 Toyota Motor Corp Pedestrian detection device
US7233233B2 (en) 2004-06-14 2007-06-19 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
JP2007188417A (en) * 2006-01-16 2007-07-26 Fujitsu Ten Ltd Image recognition device, image recognition method, and image recognition program
DE102005026876B4 (en) * 2004-06-14 2008-03-27 Honda Motor Co., Ltd. Vehicle environment monitoring device
JP2008077154A (en) * 2006-09-19 2008-04-03 Honda Motor Co Ltd Vehicle periphery supervision unit
EP1912157A1 (en) * 2006-10-09 2008-04-16 MAGNETI MARELLI SISTEMI ELETTRONICI S.p.A. Digital image processing system for automatically representing surrounding scenes to the driver of a vehicle for driving assistance, and corresponding operating method
US7370975B2 (en) 2004-11-30 2008-05-13 Honda Motor Co., Ltd. Image processing apparatus
US7388476B2 (en) 2004-11-30 2008-06-17 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7403639B2 (en) 2004-11-30 2008-07-22 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7483549B2 (en) 2004-11-30 2009-01-27 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7489805B2 (en) 2004-11-30 2009-02-10 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
JP2009040108A (en) * 2007-08-06 2009-02-26 Denso Corp Image display control device and image display control system
US7515737B2 (en) 2004-11-30 2009-04-07 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7526104B2 (en) 2004-11-30 2009-04-28 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
WO2009064227A1 (en) * 2007-11-12 2009-05-22 Autoliv Development Ab A vehicle safety system
US7545955B2 (en) 2004-11-30 2009-06-09 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7561719B2 (en) 2004-11-30 2009-07-14 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
EP2089873A1 (en) * 2006-11-10 2009-08-19 Autoliv Development AB An object detection system
US7580548B2 (en) 2004-11-30 2009-08-25 Honda Motor Co., Ltd. Abnormality detecting apparatus for imaging apparatus
JP2009193130A (en) * 2008-02-12 2009-08-27 Honda Motor Co Ltd Vehicle surrounding monitoring device, vehicle, program for vehicle surrounding monitoring and vehicle surrounding monitoring method
US7619668B2 (en) 2004-11-30 2009-11-17 Honda Motor Co., Ltd. Abnormality detecting apparatus for imaging apparatus
DE102005056429B4 (en) * 2004-11-30 2010-09-30 Honda Motor Co., Ltd. Vehicle environment monitoring device
WO2010137563A1 (en) 2009-05-25 2010-12-02 日立オートモティブシステムズ株式会社 Image processing apparatus
US7949151B2 (en) 2006-05-19 2011-05-24 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
DE102007011616B4 (en) * 2006-03-09 2011-06-22 Honda Motor Co., Ltd. Vehicle environment monitoring device
US7982748B2 (en) 2006-05-19 2011-07-19 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US8115809B2 (en) 2004-11-30 2012-02-14 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
JP2012142966A (en) * 2012-02-15 2012-07-26 Honda Motor Co Ltd Vehicle periphery monitoring system
US20120281878A1 (en) * 2009-11-25 2012-11-08 Honda Motor Co., Ltd. Target-object distance measuring device and vehicle mounted with the device
JP2019053753A (en) * 2014-06-03 2019-04-04 住友重機械工業株式会社 Person detection system and work machine
US11314971B2 (en) 2017-09-27 2022-04-26 3M Innovative Properties Company Personal protective equipment management system using optical patterns for equipment and safety monitoring
US11373076B2 (en) 2017-02-20 2022-06-28 3M Innovative Properties Company Optical articles and systems interacting with the same

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4922368B2 (en) * 2009-08-27 2012-04-25 本田技研工業株式会社 Vehicle periphery monitoring device

Cited By (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2383222B (en) * 2001-10-29 2003-12-31 Honda Motor Co Ltd Vehicle information providing apparatus
US7141796B2 (en) 2001-10-29 2006-11-28 Honda Giken Kogyo Kabushiki Kaisha Vehicle information providing apparatus
GB2383222A (en) * 2001-10-29 2003-06-18 Honda Motor Co Ltd Searching for changes in brightness of search zones around an extracted image feature
US7130448B2 (en) 2002-01-18 2006-10-31 Honda Giken Kogyo Kabushiki Kaisha Device for monitoring around a vehicle
DE10301468B4 (en) * 2002-01-18 2010-08-05 Honda Giken Kogyo K.K. Device for monitoring the environment of a vehicle
US7330568B2 (en) 2003-03-20 2008-02-12 Honda Motor Co., Ltd. Device for monitoring around vehicle
JP2004303219A (en) * 2003-03-20 2004-10-28 Honda Motor Co Ltd Vehicle surrounding monitoring device
US7436982B2 (en) 2004-06-14 2008-10-14 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7233233B2 (en) 2004-06-14 2007-06-19 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
DE102005026876B4 (en) * 2004-06-14 2008-03-27 Honda Motor Co., Ltd. Vehicle environment monitoring device
DE102005026875B4 (en) * 2004-06-14 2008-03-27 Honda Motor Co., Ltd. Vehicle environment monitoring device
US7515737B2 (en) 2004-11-30 2009-04-07 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
DE102005056664B4 (en) * 2004-11-30 2011-02-10 Honda Motor Co., Ltd. Vehicle environment monitoring device
US7370975B2 (en) 2004-11-30 2008-05-13 Honda Motor Co., Ltd. Image processing apparatus
US7388476B2 (en) 2004-11-30 2008-06-17 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7403639B2 (en) 2004-11-30 2008-07-22 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
DE102005056647B4 (en) * 2004-11-30 2011-02-03 Honda Motor Co., Ltd. Vehicle environment monitoring device
US7483549B2 (en) 2004-11-30 2009-01-27 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7489805B2 (en) 2004-11-30 2009-02-10 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US8115809B2 (en) 2004-11-30 2012-02-14 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
DE102005056429B4 (en) * 2004-11-30 2010-09-30 Honda Motor Co., Ltd. Vehicle environment monitoring device
US7526104B2 (en) 2004-11-30 2009-04-28 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
DE102005056666B4 (en) * 2004-11-30 2010-09-30 Honda Motor Co., Ltd. Vehicle environment monitoring device
US7545955B2 (en) 2004-11-30 2009-06-09 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7561719B2 (en) 2004-11-30 2009-07-14 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
DE102005056665B4 (en) * 2004-11-30 2011-03-17 Honda Motor Co., Ltd. Vehicle environment monitoring device
US7580548B2 (en) 2004-11-30 2009-08-25 Honda Motor Co., Ltd. Abnormality detecting apparatus for imaging apparatus
US7969466B2 (en) 2004-11-30 2011-06-28 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7619668B2 (en) 2004-11-30 2009-11-17 Honda Motor Co., Ltd. Abnormality detecting apparatus for imaging apparatus
DE102005056616B4 (en) * 2004-11-30 2010-09-23 Honda Motor Co., Ltd. Vehicle environment monitoring device
DE102005056645B4 (en) * 2004-11-30 2010-09-16 Honda Motor Co., Ltd. Vehicle environment monitoring device
JP2007089094A (en) * 2005-09-26 2007-04-05 Toyota Motor Corp Pedestrian detection device
JP4701961B2 (en) * 2005-09-26 2011-06-15 トヨタ自動車株式会社 Pedestrian detection device
JP2007188417A (en) * 2006-01-16 2007-07-26 Fujitsu Ten Ltd Image recognition device, image recognition method, and image recognition program
DE102007011616B4 (en) * 2006-03-09 2011-06-22 Honda Motor Co., Ltd. Vehicle environment monitoring device
US8810653B2 (en) 2006-03-09 2014-08-19 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7949151B2 (en) 2006-05-19 2011-05-24 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US7982748B2 (en) 2006-05-19 2011-07-19 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
JP2008077154A (en) * 2006-09-19 2008-04-03 Honda Motor Co Ltd Vehicle periphery supervision unit
EP1912157A1 (en) * 2006-10-09 2008-04-16 MAGNETI MARELLI SISTEMI ELETTRONICI S.p.A. Digital image processing system for automatically representing surrounding scenes to the driver of a vehicle for driving assistance, and corresponding operating method
EP2089873A1 (en) * 2006-11-10 2009-08-19 Autoliv Development AB An object detection system
EP2089873A4 (en) * 2006-11-10 2011-10-26 Autoliv Dev An object detection system
JP2009040108A (en) * 2007-08-06 2009-02-26 Denso Corp Image display control device and image display control system
WO2009064227A1 (en) * 2007-11-12 2009-05-22 Autoliv Development Ab A vehicle safety system
JP2009193130A (en) * 2008-02-12 2009-08-27 Honda Motor Co Ltd Vehicle surrounding monitoring device, vehicle, program for vehicle surrounding monitoring and vehicle surrounding monitoring method
WO2010137563A1 (en) 2009-05-25 2010-12-02 日立オートモティブシステムズ株式会社 Image processing apparatus
US8983123B2 (en) * 2009-11-25 2015-03-17 Honda Motor Co., Ltd. Target-object distance measuring device and vehicle mounted with the device
US20120281878A1 (en) * 2009-11-25 2012-11-08 Honda Motor Co., Ltd. Target-object distance measuring device and vehicle mounted with the device
JP2012142966A (en) * 2012-02-15 2012-07-26 Honda Motor Co Ltd Vehicle periphery monitoring system
JP2019053753A (en) * 2014-06-03 2019-04-04 住友重機械工業株式会社 Person detection system and work machine
US10824853B2 (en) 2014-06-03 2020-11-03 Sumitomo Heavy Industries, Ltd. Human detection system for construction machine
US11373076B2 (en) 2017-02-20 2022-06-28 3M Innovative Properties Company Optical articles and systems interacting with the same
US11651179B2 (en) 2017-02-20 2023-05-16 3M Innovative Properties Company Optical articles and systems interacting with the same
US11314971B2 (en) 2017-09-27 2022-04-26 3M Innovative Properties Company Personal protective equipment management system using optical patterns for equipment and safety monitoring
US11682185B2 (en) 2017-09-27 2023-06-20 3M Innovative Properties Company Personal protective equipment management system using optical patterns for equipment and safety monitoring

Also Published As

Publication number Publication date
JP4135123B2 (en) 2008-08-20

Similar Documents

Publication Publication Date Title
JP4135123B2 (en) Display processing device
JP3922245B2 (en) Vehicle periphery monitoring apparatus and method
US7784943B2 (en) Eyelid detecting apparatus, eyelid detecting method and program thereof
JP4410292B1 (en) Vehicle periphery monitoring device
JP4482599B2 (en) Vehicle periphery monitoring device
JP3143819B2 (en) Eyelid opening detector
US7957566B2 (en) Eyelid detection apparatus, eyelid detection method and program therefor
JP2000082147A (en) Method for detecting human face and device therefor and observer tracking display
US7982748B2 (en) Vehicle surroundings monitoring apparatus
JP2005354597A (en) Vehicle vicinity monitoring apparatus
JP4528283B2 (en) Vehicle periphery monitoring device
WO2014002534A1 (en) Object recognition device
JP2007288657A (en) Display apparatus for vehicle, and display method of the display apparatus for vehicle
JP2010191793A (en) Alarm display and alarm display method
JP4989249B2 (en) Eye detection device, dozing detection device, and method of eye detection device
JP4203279B2 (en) Attention determination device
JP2010136207A (en) System for detecting and displaying pedestrian
JP2011227657A (en) Device for monitoring periphery of vehicle
JP2008183933A (en) Noctovision equipment
JP4701961B2 (en) Pedestrian detection device
JP2008108118A (en) Image processor
CN110235178B (en) Driver state estimating device and driver state estimating method
JP2005071041A (en) Device and system for detecting visual object of driver
JP2003296710A (en) Identification method, identification device and traffic control system
JPH11146389A (en) Display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080205

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080509

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080522

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110613

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120613

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees