JP3987048B2 - 車両周辺監視装置 - Google Patents

車両周辺監視装置 Download PDF

Info

Publication number
JP3987048B2
JP3987048B2 JP2004068903A JP2004068903A JP3987048B2 JP 3987048 B2 JP3987048 B2 JP 3987048B2 JP 2004068903 A JP2004068903 A JP 2004068903A JP 2004068903 A JP2004068903 A JP 2004068903A JP 3987048 B2 JP3987048 B2 JP 3987048B2
Authority
JP
Japan
Prior art keywords
pedestrian
area
region
shoulder
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004068903A
Other languages
English (en)
Other versions
JP2004303219A (ja
Inventor
伸治 長岡
孝之 辻
雅和 坂
正人 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2004068903A priority Critical patent/JP3987048B2/ja
Priority to US10/801,413 priority patent/US7330568B2/en
Priority to DE102004012811A priority patent/DE102004012811B4/de
Publication of JP2004303219A publication Critical patent/JP2004303219A/ja
Application granted granted Critical
Publication of JP3987048B2 publication Critical patent/JP3987048B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/30Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing vision in the non-visible spectrum, e.g. night or infrared vision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/31Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing stereoscopic vision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/106Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using night vision cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/207Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using multi-purpose displays, e.g. camera image and navigation or video on same display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8053Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for bad weather conditions or night vision

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

この発明は、赤外線カメラにより撮影された画像の2値化処理により、対象物抽出を行う車両周辺監視装置に関する。
従来、赤外線カメラにより捉えられた車両周辺の画像から、車両との衝突の可能性がある歩行者等の対象物を抽出し、その情報を車両の運転者に提供する車両周辺監視装置が提案されている。このシステムでは、歩行者等の対象物における車両との衝突の可能性は、車両と対象物との相対距離や相対速度に基づいて判定される。
また、例えばこのように赤外線カメラにより捉えられた車両周辺の画像から、車両との衝突の可能性がある歩行者等の対象物を抽出する車両周辺監視装置には、以下に示すようなものがある。具体的に説明すると、この装置は赤外線画像を2値化処理して明部が集中している領域を探し、この領域の縦横比や充足率、更には実面積と画面上の重心位置を用いて距離を算出することで、この領域が歩行者の頭部であるか否かを判定する。そして、歩行者の頭部の領域を決定することができたら、決定した頭部領域のカメラからの距離と成人の平均身長とから、画像上の歩行者の身長を計算して歩行者の身体を包含する領域を設定し、これらの領域を他の領域と区分して表示する。これにより、赤外線画像上の歩行者の身体全体の位置を特定し、この情報を車両の運転者に対して表示することで、より効果的な視覚補助を行うことができる(例えば、特許文献1参照。)。
特開平11−328364号公報
しかし、赤外線画像上での歩行者は、着帽、着衣の影響や、歩行者自身の存在環境によって、2値化処理により頭部のみ、頭部の一部のみ、上半身のみ、下半身のみ、更には身体全体が抽出されるなど、その2値化形状は不定形である。また、一般的に車両走行時には、前方路面の形状の変化や、車両のピッチングの影響があり、歩行者も子供から大人(成人)まで本来とは異なる身長で検出される。
従って、対象物の画面での重心座標が距離に対して固定化できないため、上述の従来の装置のように、身長相当の存在に基づく形状判定や頭部と胴部の存在に基づく形状判定、更には頭部のみによる形状判定を用いて歩行者の抽出を行っただけでは、車両との衝突の可能性がある歩行者等の対象物を抽出するには十分でなく、更に歩行者の特徴を用いた形状判定を行うことで、歩行者の検出精度を向上させ、安定した歩行者の抽出を行う必要があった。
本発明は、上記課題に鑑みてなされたもので、カメラにより撮影された画像から抽出される不定形な2値化対象物を的確に判定し、安定した歩行者の抽出を行う車両周辺監視装置を提供することを目的とする。
上記課題を解決するために、請求項1の発明に係わる車両周辺監視装置は、赤外線カメラ(例えば後述する実施例の赤外線カメラ2R、2L)により捉えられた画像を利用して、歩行者を認識する車両周辺監視装置であって、前記歩行者の頭部に相当すると推定される領域を基準領域として設定する歩行者頭部領域推定手段(例えば後述する実施例のステップS91からステップS94)と、前記基準領域の左右の側方部分に、前記歩行者の肩上方空間に相当すると推定される2つの対象領域を設定する歩行者肩上方部領域推定手段(例えば後述する実施例のステップS95)と、前記基準領域の輝度の特徴と前記対象領域の輝度の特徴とに基づき、前記画像に捉えられた歩行者を認識する歩行者形状認識手段(例えば後述する実施例のステップS96、ステップS98、ステップS100)とを備えたことを特徴とする。
以上の構成を備えた車両周辺監視装置は、赤外線カメラで撮影された赤外線画像において、歩行者の頭部は高輝度であるという特徴に基づき、歩行者頭部領域推定手段を用いて、歩行者の頭部に相当すると推定される領域を基準領域として設定する。次に、歩行者肩上方部領域推定手段を用いて、その基準領域の左右の側方部分に、歩行者の肩上方空間に相当すると推定される2つの対象領域を設定する。これにより、歩行者形状認識手段が、歩行者頭部の輝度階調は、歩行者の肩上方空間に位置する頭部の左右(背景)の輝度階調に対して高輝度であるという特徴に基づき、赤外線画像に捉えられた歩行者の頭から肩に相当する領域を認識することができる。
請求項2の発明に係わる車両周辺監視装置は、請求項1に記載の車両周辺監視装置において、前記基準領域に対して、前記対象領域を上方にオフセットすることを特徴とする。
以上の構成を備えた車両周辺監視装置は、赤外線画像内で物体が傾くことにより、対象領域に目的の領域とは異なる領域の画像が入ることを防止することができる。
請求項3の発明に係わる車両周辺監視装置は、請求項1、または請求項2に記載の車両周辺監視装置において、前記対象領域のそれぞれの下方に、前記歩行者の腕を認識する別の対象領域を設定する歩行者肩部領域推定手段(例えば後述する実施例のステップS97、ステップS99)を備え、歩行者形状認識手段が、前記対象領域の輝度の特徴と前記別の対象領域の輝度の特徴とに基づき、前記画像に捉えられた歩行者を認識することを特徴とする。
以上の構成を備えた車両周辺監視装置は、基準領域の左右の側方部分に設定された歩行者の肩上方空間に相当すると推定される対象領域と、歩行者肩部領域推定手段により設定された歩行者の肩から腕に相当すると推定される別の対象領域とを比較し、歩行者形状認識手段が、歩行者の肩から腕にかけての輝度階調は、歩行者の肩上方空間に位置する頭部の左右(背景)の輝度階調とは異なるという特徴に基づき、赤外線画像に捉えられた歩行者の肩から腕に相当する領域を認識することができる。
請求項4の発明に係わる車両周辺監視装置は、赤外線カメラ(例えば後述する実施例の赤外線カメラ2R、2L)により捉えられた画像を利用して対象物を抽出し、前記対象物を歩行者として認識する車両周辺監視装置であって、前記歩行者の頭部に相当すると推定される領域を基準領域として設定する歩行者頭部領域推定手段(例えば後述する実施例のステップS91からステップS94)と、前記基準領域の左右の側方部分に、前記歩行者の肩上方空間に相当すると推定される2つの対象領域を設定する歩行者肩上方部領域推定手段(例えば後述する実施例のステップS95)と、前記基準領域の輝度の特徴と前記対象領域の輝度の特徴とに基づき、前記画像に捉えられた歩行者を認識する歩行者形状認識手段(例えば後述する実施例のステップS96、ステップS98、ステップS100)と、前記歩行者形状認識手段によって歩行者と認識された対象物と、歩行者と認識されなかった対象物とを区別可能に表示する表示手段(例えば後述する実施例の画像表示装置7)とを備えたことを特徴とする。
以上の構成を備えた車両周辺監視装置は、赤外線カメラで撮影された赤外線画像において、歩行者の頭部は高輝度であるという特徴に基づき、歩行者頭部領域推定手段を用いて、歩行者の頭部に相当すると推定される領域を基準領域として設定する。次に、歩行者肩上方部領域推定手段を用いて、その基準領域の左右の側方部分に、歩行者の肩上方空間に相当すると推定される2つの対象領域を設定する。これにより、歩行者形状認識手段が、歩行者頭部の輝度階調は、歩行者の肩上方空間に位置する頭部の左右(背景)の輝度階調に対して高輝度であるという特徴に基づき、基準領域と対象領域とを比較して赤外線画像に捉えられた対象物を歩行者として認識することで、歩行者と認識された対象物と、歩行者と認識されなかった対象物とを、表示手段によって区別して表示することができる。
請求項5の発明に係わる車両周辺監視装置は、赤外線カメラ(例えば後述する実施例の赤外線カメラ2R、2L)により捉えられた画像を利用して対象物を抽出し、前記対象物を歩行者として認識する車両周辺監視装置であって、前記歩行者の頭部に相当すると推定される領域を基準領域として設定する歩行者頭部領域推定手段(例えば後述する実施例のステップS91からステップS94)と、前記基準領域の左右の側方部分に、前記歩行者の肩上方空間に相当すると推定される2つの対象領域を設定する歩行者肩上方部領域推定手段(例えば後述する実施例のステップS95)と、前記基準領域の輝度の特徴と前記対象領域の輝度の特徴とに基づき、前記画像に捉えられた歩行者を認識する歩行者形状認識手段(例えば後述する実施例のステップS96、ステップS98、ステップS100)と、前記歩行者形状認識手段によって歩行者と認識された対象物に対して、警報すべき対象物であるか否かを判断する警報判定手段(例えば後述する実施例のステップS17、あるいはステップS18)と、前記警報判定手段によって警報すべき対象物と判断された対象物と、警報すべき対象物と判断されなかった対象物とを区別可能に表示する表示手段(例えば後述する実施例の画像表示装置7)とを備えたことを特徴とする。
以上の構成を備えた車両周辺監視装置は、赤外線カメラで撮影された赤外線画像において、歩行者の頭部は高輝度であるという特徴に基づき、歩行者頭部領域推定手段を用いて、歩行者の頭部に相当すると推定される領域を基準領域として設定する。次に、歩行者肩上方部領域推定手段を用いて、その基準領域の左右の側方部分に、歩行者の肩上方空間に相当すると推定される2つの対象領域を設定する。これにより、歩行者形状認識手段が、歩行者頭部の輝度階調は、歩行者の肩上方空間に位置する頭部の左右(背景)の輝度階調に対して高輝度であるという特徴に基づき、基準領域と対象領域とを比較して赤外線画像に捉えられた対象物を歩行者として認識すると共に、警報判定手段が、警報すべき対象物であるか否かを判断することで、警報すべき対象物と判断された対象物と、警報すべき対象物と判断されなかった対象物とを、表示手段によって区別して表示することができる。
請求項6の発明に係わる車両周辺監視装置は、請求項4、または請求項5に記載の車両周辺監視装置において、前記基準領域に対して、前記対象領域を上方にオフセットすることを特徴とする。
以上の構成を備えた車両周辺監視装置は、赤外線画像内で物体が傾くことにより、対象領域に目的の領域とは異なる領域の画像が入ることを防止することができる。
請求項7の発明に係わる車両周辺監視装置は、請求項4、または請求項5に記載の車両周辺監視装置において、前記対象領域のそれぞれの下方に、前記歩行者の肩もしくは腕に相当すると推定される別の対象領域を設定する歩行者肩部領域推定手段を備え、前記歩行者形状認識手段が、前記対象領域の輝度の特徴と前記別の対象領域の輝度の特徴とに基づき、前記画像に捉えられた歩行者を認識することを特徴とする。
以上の構成を備えた車両周辺監視装置は、基準領域の左右の側方部分に設定された歩行者の肩上方空間に相当すると推定される対象領域と、歩行者肩部領域推定手段により設定された歩行者の肩から腕に相当すると推定される別の対象領域とを比較し、歩行者形状認識手段が、歩行者の肩から腕にかけての輝度階調は、歩行者の肩上方空間に位置する頭部の左右(背景)の輝度階調とは異なるという特徴に基づき、赤外線画像に捉えられた対象物を歩行者として認識することができる。
請求項8の発明に係わる車両周辺監視装置は、請求項4から請求項7のいずれかに記載の車両周辺監視装置において、前記表示手段は、前記歩行者形状認識手段によって歩行者と認識された対象物を強調表示することによって区別可能に表示することを特徴とする。
以上の構成を備えた車両周辺監視装置は、歩行者と認識された対象物を強調表示することにより、歩行者と認識されなかった対象物と区別して利用者に明確に認識させることができる。
請求項9の発明に係わる車両周辺監視装置は、請求項3または請求項7に記載の車両周辺監視装置において、前記歩行者頭部領域推定手段によって推定された基準領域を含む領域の距離を算出する第1の距離算出手段と、前記歩行者肩部領域推定手段にて設定された別の対象領域を含む第3の対象領域を設定する第3の対象領域設定手段と、前記第3の対象領域設定手段にて設定された第3の対象領域の距離を算出する第2の距離算出手段と、前記第1の距離算出手段によって算出された第1の距離と、第2の距離算出手段によって算出された第2の距離との差を算出する距離差算出手段とを備え、前記歩行者形状認識手段は、前記距離差算出手段にて距離差が所定値以下であることに基づき、前記画像に捉えられた歩行者を認識することを特徴とする。
請求項10の発明に係わる車両監視装置は、請求項1〜9のいずれか一項に記載の車両周辺監視装置において、前記歩行者形状認識手段が、前記基準領域の輝度と前記対象領域の輝度との輝度差が所定値以上でないときに前記対象物が歩行者でないと判定することを特徴とする。
請求項1に記載の車両周辺監視装置によれば、歩行者頭部領域推定手段が歩行者の頭部に相当すると推定される領域を基準領域として設定し、歩行者肩上方部領域推定手段が、その基準領域の左右の側方部分に、歩行者の肩上方空間に相当すると推定される2つの対象領域を設定する。これにより、歩行者形状認識手段が、歩行者頭部の輝度階調は、歩行者の肩上方空間に位置する頭部の左右(背景)の輝度階調に対して高輝度であるという特徴に基づき、赤外線画像に捉えられた歩行者の頭から肩に相当する領域を認識することができる。
従って、対象物の画像から、歩行者の特徴が顕著に現れる頭から肩に相当する領域を検出することで、歩行者の検出精度を向上させることができるという効果が得られる。
請求項2に記載の車両周辺監視装置によれば、赤外線画像内で物体が傾くことにより、対象領域に目的の領域とは異なる領域の画像が入ることを防止することができる。
従って、赤外線画像上の歩行者の状態に影響を受けず、歩行者の検出精度を向上させることができるという効果が得られる。
請求項3に記載の車両周辺監視装置によれば、歩行者の肩上方空間に相当すると推定される対象領域と、歩行者肩部領域推定手段により設定された歩行者の肩から腕に相当すると推定される別の対象領域とを比較し、歩行者形状認識手段が、歩行者の肩から腕にかけての輝度階調は、歩行者の肩上方空間に位置する頭部の左右(背景)の輝度階調とは異なるという特徴に基づき、赤外線画像に捉えられた歩行者の肩から腕に相当する領域を認識することができる。
従って、対象物の画像から、歩行者の特徴が顕著に現れる頭から肩に相当する領域を検出することに加えて、更に歩行者の特徴が顕著に現れる肩から腕に相当する領域を検出することで、より歩行者の検出精度を向上させることができるという効果が得られる。
請求項4に記載の車両周辺監視装置によれば、歩行者形状認識手段が、歩行者頭部の輝度階調は、歩行者の肩上方空間に位置する頭部の左右(背景)の輝度階調に対して高輝度であるという特徴に基づき、基準領域と対象領域とを比較して赤外線画像に捉えられた対象物を歩行者として認識することで、歩行者と認識された対象物と、歩行者と認識されなかった対象物とを、表示手段によって区別して表示することができる。
従って、歩行者形状認識手段によって歩行者と認識された対象物を、他の対象物と区別可能に表示することによって、歩行者形状認識手段によって認識された対象物が歩行者であることを、利用者に明確に認識させることができるという効果が得られる。
請求項5に記載の車両周辺監視装置によれば、歩行者形状認識手段が、歩行者頭部の輝度階調は、歩行者の肩上方空間に位置する頭部の左右(背景)の輝度階調に対して高輝度であるという特徴に基づき、基準領域と対象領域とを比較して赤外線画像に捉えられた対象物を歩行者として認識すると共に、警報判定手段が、警報すべき対象物であるか否かを判断することで、警報すべき対象物と判断された対象物と、警報すべき対象物と判断されなかった対象物とを、表示手段によって区別して表示することができる。
従って、歩行者形状認識手段によって歩行者と認識され、更に警報判定手段によって警報すべき対象物であると判定された対象物を、他の対象物と区別可能に表示することによって、歩行者形状認識手段によって認識された対象物が歩行者であり、かつ注意が必要であることを利用者に明確に認識させることができると共に、警報する必要のない歩行者については利用者に認識させないことで、利用者の注意を、注意が必要である対象物(歩行者)に集中させることができるという効果が得られる。
請求項6に記載の車両周辺監視装置によれば、赤外線画像内で物体が傾くことにより、対象領域に目的の領域とは異なる領域の画像が入ることを防止することができる。
従って、赤外線画像上の歩行者の状態に影響を受けず、対象物を歩行者と認識する精度を向上させることができるという効果が得られる。
請求項7に記載の車両周辺監視装置によれば、歩行者の肩上方空間に相当すると推定される対象領域と、歩行者肩部領域推定手段により設定された歩行者の肩から腕に相当すると推定される別の対象領域とを比較し、歩行者形状認識手段が、歩行者の肩から腕にかけての輝度階調は、歩行者の肩上方空間に位置する頭部の左右(背景)の輝度階調とは異なるという特徴に基づき、赤外線画像に捉えられた対象物を歩行者として認識することができる。
従って、対象物の画像から、歩行者の特徴が顕著に現れる頭から肩に相当する領域を検出することに加えて、更に歩行者の特徴が顕著に現れる肩から腕に相当する領域を検出することで、より対象物を歩行者と認識する精度を向上させることができるという効果が得られる。
請求項8に記載の車両周辺監視装置によれば、歩行者と認識された対象物を強調表示することにより、歩行者と認識されなかった対象物と区別して利用者に明確に認識させることができる。
従って、強調表示することにより、利用者にとっては歩行者と認識された対象物がわかりやすくなるという効果が得られる。
以下、図面を参照して本発明の実施例について説明する。
図1は、本発明の一実施例の車両周辺監視装置の構成を示すブロック図である。
図1において、符号1は、本実施例の車両周辺監視装置を制御するCPU(中央演算装置)を備えた画像処理ユニットであって、遠赤外線を検出可能な2つの赤外線カメラ2R、2Lと当該車両のヨーレートを検出するヨーレートセンサ3、更に、当該車両の走行速度(車速)を検出する車速センサ4とブレーキの操作を検出するためのブレーキセンサ5が接続される。これにより、画像処理ユニット1は、車両の周辺の赤外線画像と車両の走行状態を示す信号から、車両前方の歩行者や動物等を検出し、衝突の可能性が高いと判断したときに警報を発する。
また、画像処理ユニット1には、音声で警報を発するためのスピーカ6と、赤外線カメラ2R、2Lにより撮影された画像を表示し、衝突の危険性が高い対象物を車両の運転者に認識させるための、例えば自車両の走行状態を数字で表すメータと一体化されたメータ一体Displayや自車両のコンソールに設置されるNAVIDisplay、更にフロントウィンドウの運転者の前方視界を妨げない位置に情報を表示するHUD(Head Up Display )7a等を含む画像表示装置7が接続されている。
また、画像処ユニット1は、入力アナログ信号をディジタル信号に変換するA/D変換回路、ディジタル化した画像信号を記憶する画像メモリ、各種演算処理を行うCPU(中央演算装置)、CPUが演算途中のデータを記憶するために使用するRAM(Random Access Memory)、CPUが実行するプログラムやテーブル、マップなどを記憶するROM(Read Only Memory)、スピーカ6の駆動信号、HUD7a等の表示信号などを出力する出力回路を備えており、赤外線カメラ2R、2L及びヨーレートセンサ3、車速センサ4、ブレーキセンサ5の各出力信号は、ディジタル信号に変換されてCPUに入力されるように構成されている。
また、図2に示すように、赤外線カメラ2R、2Lは、自車両10の前部に、自車両10の車幅方向中心部に対してほぼ対象な位置に配置されており、2つの赤外線カメラ2R、2Lの光軸が互いに平行であって、かつ両者の路面からの高さが等しくなるように固定されている。なお、赤外線カメラ2R、2Lは、対象物の温度が高いほど、その出力信号レベルが高くなる(輝度が増加する)特性を有している。
また、HUD7aは、自車両10のフロントウインドウの運転者の前方視界を妨げない位置に表示画面が表示されるように設けられている。
次に、本実施例の動作について図面を参照して説明する。
図3は、本実施例の車両周辺監視装置の画像処理ユニット1における歩行者等の対象物検出・警報動作を示すフローチャートである。
まず、画像処理ユニット1は、赤外線カメラ2R、2Lの出力信号である赤外線画像を取得して(ステップS1)、A/D変換し(ステップS2)、グレースケール画像を画像メモリに格納する(ステップS3)。なお、ここでは赤外線カメラ2Rにより右画像が得られ、赤外線カメラ2Lにより左画像が得られる。また、右画像と左画像では、同一の対象物の表示画面上の水平位置がずれて表示されるので、このずれ(視差)によりその対象物までの距離を算出することができる。
ステップS3においてグレースケール画像が得られたら、次に、赤外線カメラ2Rにより得られた右画像を基準画像とし、その画像信号の2値化処理、すなわち、輝度閾値ITHより明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理を行う(ステップS4)。
図4(a)は、赤外線カメラ2Rにより得られたグレースケール画像を示し、これに2値化処理を行うことにより、図4(b)に示すような画像を得る。なお、図4(b)において、例えばP1からP4の枠で囲った物体を、表示画面上に白色として表示される対象物(以下「高輝度領域」という)とする。
赤外線画像から2値化された画像データを取得したら、2値化した画像データをランレングスデータに変換する処理を行う(ステップS5)。ランレングスデータにより表されるラインは、2値化により白となった領域を画素レベルで示したもので、いずれもy方向には1画素の幅を有しており、またx方向にはそれぞれランレングスデータを構成する画素の長さを有している。
次に、ランレングスデータに変換された画像データから、対象物のラベリングをする(ステップS6)ことにより、対象物を抽出する処理を行う(ステップS7)。すなわち、ランレングスデータ化したラインのうち、y方向に重なる部分のあるラインを1つの対象物とみなすことにより、例えば図4(b)に示す高輝度領域P1からP4が、それぞれ対象物(2値化対象物)として把握されることになる。
対象物の抽出が完了したら、次に、抽出した対象物の重心G、面積S及び外接四角形の縦横比ASPECTを算出する(ステップS8)。
ここで、面積Sは、ラベルAの対象物のランレングスデータを(x[i]、y[i]、run[i]、A)(i=0,1,2,・・・N−1)とすると、ランレングスデータの長さ(run[i]−1)を同一対象物(N個のランレングスデータ)について積算することにより算出する。また、対象物Aの重心Gの座標(xc、yc)は、各ランレングスデータの長さ(run[i]−1)と各ランレングスデータの座標x[i]、またはy[i]とをそれぞれ掛け合わせ、更にこれを同一対象物について積算したものを、面積Sで割ることにより算出する。
更に、縦横比ASPECTは、対象物の外接四角形の縦方向の長さDyと横方向の長さDxとの比Dy/Dxとして算出する。
なお、ランレングスデータは画素数(座標数)(=run[i])で示されているので、実際の長さは「−1」する(1を減算する)必要がある(=run[i]−1)。また、重心Gの位置は、外接四角形の重心位置で代用してもよい。
対象物の重心、面積、外接四角形の縦横比が算出できたら、次に、対象物の時刻間追跡、すなわちサンプリング周期毎の同一対象物の認識を行う(ステップS9)。時刻間追跡は、アナログ量としての時刻tをサンプリング周期で離散化した時刻をkとし、例えば時刻kで対象物A、Bを抽出したら、時刻(k+1)で抽出した対象物C、Dと対象物A、Bとの同一性判定を行う。そして、対象物A、Bと対象物C、Dとが同一であると判定されたら、対象物C、Dをそれぞれ対象物A、Bというラベルに変更することにより、時刻間追跡が行われる。
また、このようにして認識された各対象物の(重心の)位置座標は、時系列位置データとしてメモリに格納され、後の演算処理に使用される。
なお、以上説明したステップS4〜S9の処理は、2値化した基準画像(本実施例では、右画像)について実行する。
次に、車速センサ4により検出される車速VCAR及びヨーレートセンサ3より検出されるヨーレートYRを読み込み、ヨーレートYRを時間積分することより、自車両10の回頭角θrを算出する(ステップS10)。
一方、ステップS9とステップS10の処理に平行して、ステップS11〜S13では、対象物と自車両10との距離zを算出する処理を行う。この演算はステップS9、及びステップS10より長い時間を要するため、ステップS9、S10より長い周期(例えばステップS1〜S10の実行周期の3倍程度の周期)で実行される。
まず、基準画像(右画像)の2値化画像によって追跡される対象物の中の1つを選択することにより、右画像から探索画像R1(ここでは、外接四角形で囲まれる領域全体を探索画像とする)を抽出する(ステップS11)。
次に、左画像中から探索画像R1に対応する画像(以下「対応画像」という)を探索する探索領域を設定し、相関演算を実行して対応画像を抽出する(ステップS12)。具体的には、探索画像R1の各頂点座標に応じて、左画像中に探索領域R2を設定し、探索領域R2内で探索画像R1との相関の高さを示す輝度差分総和値C(a,b)を算出し、この総和値C(a,b)が最小となる領域を対応画像として抽出する。なお、この相関演算は、2値化画像ではなくグレースケール画像を用いて行う。
また同一対象物についての過去の位置データがあるときは、その位置データに基づいて探索領域R2より狭い領域R2aを探索領域として設定する。
ステップS12の処理により、基準画像(右画像)中に探索画像R1と、左画像中にこの対象物に対応する対応画像R4とが抽出されるので、次に、探索画像R1の重心位置と対応画像R4の重心位置と視差量Δd(画素数)を求め、これから自車両10と対象物との距離zを算出する(ステップS13)。
次に、ステップS10における回頭角θrの算出と、ステップS13における対象物との距離算出が完了したら、画像内の座標(x,y)及び距離zを実空間座標(X,Y,Z)に変換する(ステップS14)。
ここで、実空間座標(X,Y,Z)は、図2に示すように、赤外線カメラ2R、2Lの取り付け位置の中点の位置(自車両10に固定された位置)を原点Oとして、図示のように定め、画像内の座標は、画像の中心を原点として水平方向をx、垂直方向をyと定めている。
また、実空間座標が求められたら、自車両10が回頭することによる画像上の位置ずれを補正するための回頭角補正を行う(ステップS15)。回頭角補正は、時刻kから(k+1)までの期間中に自車両10が例えば左方向に回頭角θrだけ回頭すると、カメラによって得られる画像上では、画像の範囲がΔxだけx方向にずれるので、これを補正する処理である。
なお、以下の説明では、回頭角補正後の座標を(X,Y,Z)と表示する。
実空間座標に対する回頭角補正が完了したら、次に、同一対象物について、ΔTのモニタ期間内に得られた、回頭角補正後のN個(例えばN=10程度)の実空間位置データ、すなわち時系列データから、対象物と自車両10との相対移動ベクトルに対応する近似直線LMVを求める。
次いで、最新の位置座標P(0)=(X(0),Y(0),Z(0))と、(N−1)サンプル前(時間ΔT前)の位置座標P(Nー1)=(X(N−1),Y(N−1),Z(N−1))を近似直線LMV上の位置に補正し、補正後の位置座標Pv(0)=(Xv(0),Yv(0),Zv(0))及びPv(N−1)=(Xv(N−1),Yv(N−1),Zv(N−1))を求める。
これにより、位置座標Pv(N−1)からPv(0)に向かうベクトルとして、相対移動ベクトルが得られる(ステップS16)。
このようにモニタ期間ΔT内の複数(N個)のデータから対象物の自車両10に対する相対移動軌跡を近似する近似直線を算出して相対移動ベクトルを求めることにより、位置検出誤差の影響を軽減して対象物との衝突の可能性をより正確に予測することが可能となる。
また、ステップS16において、相対移動ベクトルが求められたら、次に、検出した対象物との衝突の可能性を判定する警報判定処理を行う(ステップS17)。なお、警報判定処理については、詳細を後述する。
ステップS17において、自車両10と検出した対象物との衝突の可能性がないと判定された場合(ステップS17のNO)、ステップS1へ戻り、上述の処理を繰り返す。
また、ステップS17において、自車両10と検出した対象物との衝突の可能性があると判定された場合(ステップS17のYES)、ステップS18の警報出力判定処理へ進む。
ステップS18では、ブレーキセンサ5の出力BRから自車両10の運転者がブレーキ操作を行っているか否かを判別することにより、警報出力判定処理、すなわち警報出力を行うか否かの判定を行う(ステップS18)。
もし、自車両10の運転者がブレーキ操作を行っている場合には、それによって発生する加速度Gs(減速方向を正とする)を算出し、この加速度Gsが所定閾値GTHより大きいときは、ブレーキ操作により衝突が回避されると判定して警報出力判定処理を終了し(ステップS18のNO)、ステップS1へ戻り、上述の処理を繰り返す。
これにより、適切なブレーキ操作が行われているときは、警報を発しないようにして、運転者に余計な煩わしさを与えないようにすることができる。
また、加速度Gsが所定閾値GTH以下であるとき、または自車両10の運転者がブレーキ操作を行っていなければ、直ちにステップS19の処理へ進み(ステップS18のYES)、対象物と接触する可能性が高いので、スピーカ6を介して音声による警報を発する(ステップS19)とともに、画像表示装置7に対して、例えば赤外線カメラ2Rにより得られる画像を出力し、接近してくる対象物を自車両10の運転者に対する強調映像として表示する(ステップS20)。
なお、所定閾値GTHは、ブレーキ操作中の加速度Gsがそのまま維持された場合に、対象物と自車両10との距離Zv(0)以下の走行距離で自車両10が停止する条件に対応する値である。また、接近してくる対象物を、自車両10の運転者に対する強調映像として画像表示装置7に表示する方法としては、具体的には、該当する対象物を枠で囲んで表示したり、その輪郭を濃く(強く)表示したり、その色を変えて表示したりする方法等がある。
以上が、本実施例の車両周辺監視装置の画像処理ユニット1における対象物検出・警報動作であるが、次に、図5に示すフローチャートを参照して、図3に示したフローチャートのステップS17における警報判定処理について更に詳しく説明する。
図5は、本実施例の警報判定処理動作を示すフローチャートである。
警報判定処理は、以下に示す衝突判定処理、接近判定領域内か否かの判定処理、進入衝突判定処理、歩行者判定処理、及び人工構造物判定処理により、自車両10と検出した対象物との衝突の可能性を判定する処理である。以下、図6に示すように、自車両10の進行方向に対してほぼ90°の方向から、速度Vpで進行してくる対象物20がいる場合を例に取って説明する。
図5において、まず、画像処理ユニット1は衝突判定処理を行う(ステップS31)。衝突判定処理は、図6において、対象物20が時間ΔTの間に距離Zv(N−1)から距離Zv(0)に接近した場合に、自車両10とのZ方向の相対速度Vsを求め、両者が高さH以内で相対速度Vsを維持して移動すると仮定して、余裕時間T以内に両者が衝突するか否かを判定する処理である。ここで、余裕時間Tは、衝突の可能性を予測衝突時刻より時間Tだけ前に判定することを意図したものである。従って、余裕時間Tは例えば2〜5秒程度に設定される。またHは、高さ方向の範囲を規定する所定高さであり、例えば自車両10の車高の2倍程度に設定される。
次に、ステップS31において、余裕時間T以内に自車両10と対象物とが衝突する可能性がある場合(ステップS31のYES)、更に判定の信頼性を上げるために、画像処理ユニット1は対象物が接近判定領域内に存在するか否かの判定処理を行う(ステップS32)。接近判定領域内か否かの判定処理は、図7に示すように、赤外線カメラ2R、2Lで監視可能な領域を太い実線で示す外側の三角形の領域AR0とすると、領域AR0内の、Z1=Vs×Tより自車両10に近い領域であって、対象物が自車両10の車幅αの両側に余裕β(例えば50〜100cm程度とする)を加えた範囲に対応する領域AR1、すなわち対象物がそのまま存在し続ければ自車両10との衝突の可能性がきわめて高い接近判定領域AR1内に存在するか否かを判定する処理である。なお、接近判定領域AR1も所定高さHを有する。
更に、ステップS32において、対象物が接近判定領域内に存在しない場合(ステップS32のNO)、画像処理ユニット1は対象物が接近判定領域内へ進入して自車両10と衝突する可能性があるか否かを判定する進入衝突判定処理を行う(ステップS33)。進入衝突判定処理は、上述の接近判定領域AR1よりX座標の絶対値が大きい(接近判定領域の横方向外側の)領域AR2、AR3を進入判定領域と呼び、この領域内にある対象物が、移動することにより接近判定領域AR1に進入すると共に自車両10と衝突するか否かを判定する処理である。なお、進入判定領域AR2、AR3も所定高さHを有する。
一方、ステップS32において、対象物が接近判定領域内に存在している場合(ステップS32のYES)、画像処理ユニット1は対象物が歩行者の可能性があるか否かを判定する歩行者判定処理を行う(ステップS34)。なお、歩行者判定処理については、詳細を後述する。
また、ステップS34において、対象物は歩行者の可能性があると判定された場合(ステップS34のYES)、更に判定の信頼性を上げるために、対象物が人工構造物であるか否かを判定する人工構造物判定処理を行う(ステップS35)。人工構造物判定処理は、対象物画像に、例えば以下に示すような歩行者にはあり得ない特徴が検出された場合、該対象物を人工構造物と判定し、警報の対象から除外する処理である。
(1)対象物の画像に直線エッジを示す部分が含まれる場合。
(2)対象物の画像の角が直角である場合。
(3)対象物の画像に同じ形状のものが複数含まれている場合。
(4)対象物の画像が予め登録された人口構造物の形状と一致する場合。
従って、上述のステップS33において、対象物が接近判定領域内へ進入して自車両10と衝突する可能性がある場合(ステップS33のYES)、及びステップS35において、歩行者の可能性があると判定された対象物が人工構造物でなかった場合(ステップS35のNO)、画像処理ユニット1は、自車両10と検出した対象物との衝突の可能性がある(警報の対象である)と判定し(ステップS36)、図3に示すステップS17のYESとしてステップS18へ進み、警報出力判定処理(ステップS18)を行う。
一方、上述のステップS31において、余裕時間T以内に自車両10と対象物とが衝突する可能性がない場合(ステップS31のNO)、あるいはステップS33において、対象物が接近判定領域内へ進入して自車両10と衝突する可能性がない場合(ステップS33のNO)、あるいはステップS34において、対象物は歩行者の可能性がないと判定された場合(ステップS34のNO)、更にはステップS35において、歩行者の可能性があると判定された対象物が人工構造物であった場合(ステップS35のYES)のいずれかであった場合は、画像処理ユニット1は、自車両10と検出した対象物との衝突の可能性がない(警報の対象ではない)と判定し(ステップS37)、図3に示すステップS17のNOとしてステップS1へ戻り、歩行者等の対象物検出・警報動作を繰り返す。
次に、図8から図13に示すフローチャートを参照して、図5に示したフローチャートのステップS34における歩行者判定処理について更に詳しく説明する。図8から図13は、本実施例の歩行者判定処理動作を示すフローチャートである。
図8において、まず、画像処理ユニット1は、図3に示したフローチャートのステップS8において算出された2値化対象物の重心G(xc、yc)(図14に示す2値化対象物の重心G100)、面積S(図14に示す2値化対象物面積S101)、更に対象物の外接四角形の縦横比ASPECT、及びステップS13において算出された自車両10と対象物との距離zに加えて、図14に示す2値化対象物の外接四角形の高さhbと幅wb、及び外接四角形重心座標(xb、yb)(図14に示す外接四角形重心102)の値を利用して、実空間での2値化対象物の形状の特徴を示す2値化対象物形状特徴量を算出する(ステップS41)。なお、求める2値化対象物形状特徴量は、カメラの基線長D[m]、カメラ焦点距離f[m]、画素ピッチp[m/pixel]、及び左右映像の相関演算によって算出される視差量Δd[pixel]を用いて算出する。
具体的には、外接四角形と対象物面積の比率Rateは、
Rate=S/(hb×wb) ・・・(1)
外接四角形の縦横比ASPECTを表すAspは、
Asp=hb/wb ・・・(2)
自車両10と対象物との距離zは、
z=(f×D)/(Δd×p) ・・・(3)
と表されるので、
実空間における2値化対象物の幅ΔWbや高さΔHbは、
ΔWb=wb×z×p/f
ΔHb=hb×z×p/f ・・・(4)
2値化対象物の重心座標(Xc,Yc,Zc)は、
Xc=xc×z×p/f
Yc=yc×z×p/f
Zc=z ・・・(5)
対象物外接四角形重心座標(Xb,Yb,Zb)は、
Xb=xb×z×p/f
Yb=yb×z×p/f
Zb=z ・・・(6)
2値化対象物の上端位置座標(Xt,Yt,Zt)は、
Xt=xb×z×p/f
Yt=yb×z×p/f−ΔHb/2
Zt=z ・・・(7)
で算出することができる。
次に、図3に示したフローチャートのステップS3において取得されたグレースケール画像を用いて、ステップS7において抽出された2値化対象物を含むグレースケール画像上の対象物の高さを求める(ステップS42)。グレースケール画像上の対象物の高さの求め方は、所定の大きさのマスク領域を、2値化対象物外接四角形の上端から複数個並べてグレースケール画像上に設定し、マスク領域内の輝度変化が大きく(対象物と背景画像とが含まれている)、かつ左右の画像間のマスク領域の相関度が高い(マスク領域内に2つ以上の対象物が存在しない)と共に、更に2値化対象物と同距離(同視差)であるマスク領域を包含する領域をグレースケール対象物の領域として抽出する。
そして、画像上でのグレースケール対象物の領域の高さHeight(pixel)を算出し、(8)式によりグレースケール対象物の高さΔHgを算出する。
ΔHg=z×Height×p/f ・・・(8)
また、図15に示すように、画像上でのグレースケール対象物の領域をAREA0とし、その中にマスク領域AREA1、AREA2、AREA3を設定し、各マスクの輝度平均値と、輝度変化(分散)を算出する(ステップS43)。ここで、AREA1の輝度平均値をAve_A1、AREA2の輝度分散をVar_A2、AREA3の輝度分散をVar_A3とする。なお、以下の処理において、AREA1は対象物の頭の存在判定に、AREA2は対象物の胴体の存在判定に、更にAREA3は頭部から下半身にかけての形状変化の存在判定にそれぞれ使用する。また、AREA3は、例えば壁のような自らは発熱せずに外部より与えられた熱のみを蓄熱する蓄熱体であって、単調な輝度変化を示す対象物の一部が2値化処理により抽出された場合、これを歩行者と識別するためにも用いる。なお、図15はカメラで捉えられた歩行者を模式的に表したもので、斜線の領域が2値化で捉えられた対象物の部位であり、点線で囲まれた領域が2値化では捉えられていないが、グレースケール画像で背景に対して物体の存在が確認できる対象物の部位を表す。また、図15に示した各部の寸法は、実空間での各部の寸法の一例である。
以下、図8から図13に示すフローチャートに沿って、更に具体的に2値化対象物の形状による歩行者判定及びグレースケール画像の各マスク領域の輝度分散を利用した歩行者判定について説明する。
まず、画像処理ユニット1は、2値化対象物の高さ、幅、存在高さ、輝度平均値、輝度分散について、歩行者として適当な範囲内の値か否かを判定する。
具体的には、歩行者を対象とするため、2値化対象物の幅ΔWbが閾値TH1以上TH2以下(歩行者の幅として適当な値)か否かを判定する(ステップS44)。
ステップS44において、2値化対象物の幅ΔWbが閾値TH1以上TH2以下であった場合(ステップS44のYES)、2値化対象物の高さΔHbが閾値TH3(歩行者の高さとして適当な値)未満で、かつグレースケール対象物の高さΔHgが閾値TH4(歩行者の高さとして適当な値)未満か否かを判定する(ステップS45)。
ステップS45において、2値化対象物の高さΔHbが閾値TH3未満で、かつグレースケール対象物の高さΔHgが閾値TH4未満であった場合(ステップS45のYES)、路面からの対象物の上端高さ位置Ytが閾値TH5(歩行者の高さとして適当な値)未満か否かを判定する(ステップS46)。
また、ステップS46において、路面からの対象物の上端高さ位置Ytが閾値TH5未満であった場合(ステップS46のYES)、マスク領域AREA3の輝度分散Var_A3が閾値TH6より大きいか否かを判定する(ステップS47)。この処理を、図16の対象物が歩行者の一部あるいは全体である場合や壁の場合のマスク領域AREA3の輝度分散を示した図を用いて説明する。
具体的には、マスク領域AREA3の領域幅を2値化対象物幅とすることで、図16(a)に示すように、歩行者の頭部のみが2値化処理により抽出された場合は、下半身部位との輝度差が生じる。また、図16(b)に示すように、少なくとも歩行者の上半身、または全身が2値化処理により抽出された場合には、背景領域(画像)との輝度差が生じる。一方、図16(c)に示すように、壁のように対象物全体の温度差が少ない対象物の場合、2値化抽出部位とそうでない部位の輝度差は少なく、また、対象物はAREA3のように直線部位で構成されている。このため、AREA3の輝度分散Var_A3は、歩行者の場合には高い値、壁のような対象物の場合には低い値を示す。
従って、ステップS47では、マスク領域AREA3の輝度分散Var_A3が閾値TH6より大きいか否かを判定することで、対象物が歩行者であるか否かを判定する。
更に、ステップS47において、マスク領域AREA3の輝度分散Var_A3が閾値TH6より大きかった場合(ステップS47のYES)、対象物形状の時間変化による歩行者判定を行う。
具体的には、歩行者の2値化対象物を対象とするため、2値化対象物形状が時間的に大きく変化することはないと考えられる。このため、規定時間内の外接四角形の面積と2値化対象物の面積比率であるRateの最大値Max_Rateと最小値Min_Rateの差分が閾値TH7未満であるか否かを判定する(ステップS48)。
また、ステップS48において、規定時間内の外接四角形の面積と2値化対象物の面積比率であるRateの最大値Max_Rateと最小値Min_Rateの差分が閾値TH7未満であった場合(ステップS48のYES)、次に、領域AREA0に捉えられた対象物に歩行者の頭に相当すると推定される部分が存在するか否かを判定する(ステップS48−1)。
更に、ステップS48−1において、領域AREA0に捉えられた対象物に歩行者の頭に相当すると推定される部分が存在する場合(ステップS48−1のYES)、次に、領域AREA0に捉えられた対象物に歩行者の肩から腕に相当すると推定される部分が存在するか否かを判定する(ステップS48−2)。
なお、領域AREA0に捉えられた対象物に歩行者の頭、または肩から腕に相当すると推定される部分が存在するか否かの判定方法(ステップS48−1及びステップS48−2)については、詳細を後述する。
一方、ステップS44において、2値化対象物の幅ΔWbが閾値TH1未満か、またはTH2より大きかった場合(ステップS44のNO)、あるいはステップS45において、2値化対象物の高さΔHbが閾値TH3以上か、またはグレースケール対象物の高さΔHgが閾値TH4以上であった場合(ステップS45のNO)、あるいはステップS46において、路面からの対象物の上端高さ位置Ytが閾値TH5以上であった場合(ステップS46のNO)、あるいはステップS47において、マスク領域AREA3の輝度分散が閾値TH6以下であった場合(ステップS47のNO)のいずれかであった場合は、領域AREA0に捉えられた対象物は歩行者ではないと判定して(ステップS49)歩行者判定処理を終了し、図5に示すステップS34のNOとして図5のステップS37へ進み、対象物は警報対象ではないと判定する。
同様に、ステップS48において、規定時間内の外接四角形の面積と2値化対象物の面積比率であるRateの最大値Max_Rateと最小値Min_Rateの差分(Max_Rate−Min_Rate)が閾値TH7以上であった場合(ステップS48のNO)、あるいはステップS48−1において、領域AREA0に捉えられた対象物に歩行者の頭に相当すると推定される部分が存在しない場合(ステップS48−1のNO)、あるいはステップS48−2において、領域AREA0に捉えられた対象物に歩行者の肩から腕に相当すると推定される部分が存在しない場合(ステップS48−2のNO)のいずれかであった場合は、領域AREA0に捉えられた対象物は歩行者ではないと判定して(ステップS49)歩行者判定処理を終了し、図5に示すステップS34のNOとして図5のステップS37へ進み、対象物は警報対象ではないと判定する。
また、ステップS48−2において、領域AREA0に捉えられた対象物に歩行者の肩から腕に相当すると推定される部分が存在する場合(ステップS48−2のYES)、次に、画像処理ユニット1は、更に詳細に抽出された対象物の形状毎の歩行者判定を行う。
具体的には、まず、路面からの対象物の上端高さ位置Ytが閾値TH8(歩行者の上半身と下半身を区別できる高さとして適当な値)より大きいか否かを判定する(ステップS50)。
ステップS50において、路面からの対象物の上端高さ位置Ytが閾値TH8以下であった場合(ステップS50のNO)、図9のステップS51へ進み、歩行者の下半身であるか、座った歩行者として、2値化対象物の幅ΔWbが閾値TH9(歩行者の胴体幅として適当な値)以下か否かを判定する(ステップS51)。
図9は、2値化処理によって下半身が抽出されたか、座っている歩行者を識別するための処理手順が示されており、ステップS51において、2値化対象物の幅ΔWbが閾値TH9以下であった場合(ステップS51のYES)、対象物が座った歩行者であるか否かを判定するために、グレースケール対象物の高さΔHgが閾値TH10(歩行者の高さとして適当な値)未満か否かを判定する(ステップS52)。
ステップS52において、グレースケール対象物の高さΔHgが閾値TH10以上であった場合(ステップS52のNO)、この対象物が歩行者の胴体または、下半身に相当すると仮定し、上部に頭部が存在するか否かの判定のため、図15に示す上部のマスク領域AREA1の輝度平均値Ave_A1が閾値TH11より大きいか否かを判定する(ステップS53)。
ステップS53において、マスク領域AREA1の輝度平均値Ave_A1が閾値TH11より大きかった場合(ステップS53のYES)、更に胴体部位は衣服の影響により熱を発散しにくい場合が有るため、グレースケール画像上で輝度パタンがある対象物として、マスク領域AREA2の輝度分散Var_A2が閾値TH18より大きいか否かを判定する(ステップS53−1)。
そして、ステップS53−1において、マスク領域AREA2の輝度分散Var_A2が閾値TH18より大きかった場合(ステップS53−1のYES)、領域AREA0に捉えられた対象物は歩行者であると判定して(ステップS54)歩行者判定処理を終了し、図5に示すステップS34のYESとして図5のステップS35へ進み、人工構造物判定を行う。
一方、ステップS51において、2値化対象物の幅ΔWbが閾値TH9より大きかった場合(ステップS51のNO)、またはステップS53において、マスク領域AREA1の輝度平均値Ave_A1が閾値TH11以下であった場合(ステップS53のNO)、更にはステップS53−1において、マスク領域AREA2の輝度分散Var_A2が閾値TH18以下であった場合(ステップS53−1のNO)のいずれかであった場合、領域AREA0に捉えられた対象物は歩行者ではないと判定して(ステップS55)歩行者判定処理を終了し、図5に示すステップS34のNOとして図5のステップS37へ進み、対象物は警報対象ではないと判定する。
また、ステップS52において、グレースケール対象物の高さΔHgが閾値TH10未満であった場合(ステップS52のYES)、この対象物は座った歩行者であるとみなし、2値化対象物の路面からの対象物の上端高さ位置Ytが閾値TH12(座った歩行者と立っている歩行者を区別できる高さとして適当な値)より大きいか否かを判定する(ステップS56)。
ステップS56において、2値化対象物の路面からの対象物の上端高さ位置Ytが閾値TH12よりも大きかった場合(ステップS56のYES)、2値化対象物の外接四角形の縦横比ASPECTを表すAspが、閾値TH13以上TH14以下(歩行者として適当な値)か否かを判定する(ステップS57)。
ステップS57において、2値化対象物の外接四角形の縦横比ASPECTを表すAspが閾値TH13以上TH14以下であった場合(ステップS57のYES)、(9)式で表される外接四角形重心102と2値化対象物の重心G100との実空間での距離Dis_cが閾値TH15(歩行者として適当な値)未満か否かを判定する(ステップS58)。
Dis_c=SQRT((Xb−Xc)+(Yb−Yc)) ・・・(9)
ステップS58において、距離Dis_cが閾値TH15未満であった場合(ステップS58のYES)、例えばΔWbが1.0m以下で、ΔHgが1.0m未満の対象物には歩行者以外の対象物、具体的には車輌の前部などが含まれるため、2値化対象物の上部マスク領域AREA1において、予め登録した頭部パタンと相関度が高い部位が存在するか否かを判定する(ステップS59)。
ステップS59において、2値化対象物の上部マスク領域AREA1に予め登録した頭部パタンと相関度が高い部位が存在する場合(ステップS59のYES)、領域AREA0に捉えられた対象物は歩行者であると判定して(ステップS54)歩行者判定処理を終了し、図5に示すステップS34のYESとして図5のステップS35へ進み、人工構造物判定を行う。
一方、ステップS56において、2値化対象物の路面からの対象物の上端高さ位置Ytが閾値TH12以下であった場合(ステップS56のNO)、あるいはステップS57において、2値化対象物の外接四角形の縦横比ASPECTを表すAspが閾値TH13未満、あるいはTH14より大きかった場合(ステップS57のNO)、あるいはステップS58において、距離Dis_cが閾値TH15以上であった場合(ステップS58のNO)、更にはステップS59において、2値化対象物の上部マスク領域AREA1に予め登録した頭部パタンと相関度が高い部位が存在しない場合(ステップS59のNO)のいずれかであった場合は、領域AREA0に捉えられた対象物は歩行者ではないと判定して(ステップS55)歩行者判定処理を終了し、図5に示すステップS34のNOとして図5のステップS37へ進み、対象物は警報対象ではないと判定する。
また、図8のステップS50において、路面からの対象物の上端高さ位置Ytが閾値TH8(歩行者の上半身と下半身を区別できる高さとして適当な値)より大きかった場合(ステップS50のYES)、図10のステップS60へ進み、対象物が空中に浮いている物体(例えば、カーブミラーのような対象物)か否かを判定するために、グレースケール対象物の高さΔHgが閾値TH16(上述の閾値TH8と同じ値)より大きいか否かを判定する(ステップS60)。
図10は、2値化処理によって頭部や上半身が抽出された歩行者を識別するための処理手順が示されており、ステップS60において、グレースケール対象物の高さΔHgが閾値TH16より大きかった場合(ステップS60のYES)、対象物は空中に浮いている物体ではないので、次に、対象物領域(AREA0)の上端部位に頭部が存在するか、あるいは胴体部位が存在するかを判定する。具体的には、まず頭部は露出しているため、マスク領域AREA1の輝度平均値Ave_A1が閾値TH17より大きいか否かを判定する(ステップS61)。
ステップS61において、マスク領域AREA1の輝度平均値Ave_A1が閾値TH17より大きかった場合(ステップS61のYES)、胴体部位は衣服の影響により熱を発散しにくい場合が有るため、グレースケール画像上で輝度パタンがある対象物として、マスク領域AREA2の輝度分散Var_A2が閾値TH18より大きいか否かを判定する(ステップS62)。
また、ステップS62において、マスク領域AREA2の輝度分散Var_A2が閾値TH18より大きかった場合(ステップS62のYES)、まず頭部、あるいは上半身が2値化処理により抽出された歩行者を判定するために、2値化対象物の幅ΔWbが閾値TH19(歩行者の頭部、あるいは上半身を区別できる幅として適当な値)以下か否かを判定する(ステップS63)。
次に、ステップS63において、2値化対象物の幅ΔWbが閾値TH19より大きかった場合(ステップS63のNO)、少なくとも歩行者の上半身、または全身が2値化処理により抽出された歩行者を判定するために、2値化対象物の幅ΔWbが閾値TH9(歩行者の胴体幅として適当な値)以下か否かを判定する(ステップS64)。
更に、ステップS64において、2値化対象物の幅ΔWbが閾値TH9より大きかった場合(ステップS64のNO)、複数の歩行者が並列歩行を行っているか否かを判定するために、2値化対象物の幅ΔWbが閾値TH2(歩行者の胴体幅として適当な値)以下か否かを判定する(ステップS65)。
また、以上の判定では、ステップS60において、グレースケール対象物の高さΔHgが閾値TH16以下であった場合(ステップS60のNO)、あるいはステップS61において、マスク領域AREA1の輝度平均値Ave_A1が閾値TH17以下であった場合(ステップS61のNO)、あるいはステップS62において、マスク領域AREA2の輝度分散Var_A2が閾値TH18以下であった場合(ステップS62のNO)、更にはステップS65において、2値化対象物の幅ΔWbが閾値TH2より大きかった場合(ステップS65のNO)のいずれかであった場合は、領域AREA0に捉えられた対象物は歩行者ではないと判定して(ステップS66)歩行者判定処理を終了し、図5に示すステップS34のNOとして図5のステップS37へ進み、対象物は警報対象ではないと判定する。
一方、ステップS63において、2値化対象物の幅ΔWbが閾値TH19以下であった場合(ステップS63のYES)、対象物は、頭部あるいは上半身が2値化処理により抽出された歩行者であるとして、図11のステップS67へ進み、2値化対象物の外接四角形の縦横比ASPECTを表すAspが、閾値TH20以上TH21以下(歩行者の頭部や上半身として適当な値)か否かを判定する(ステップS67)。
図11は、2値化処理によって頭部や上半身が抽出された歩行者を識別するための処理手順が示されており、ステップS67において、2値化対象物の外接四角形の縦横比ASPECTを表すAspが閾値TH20以上TH21以下であった場合(ステップS67のYES)、前述の外接四角形重心102と2値化対象物の重心G100との実空間での距離Dis_cが閾値TH15未満か否かを判定する(ステップS68)。
ステップS68において、距離Dis_cが閾値TH15未満であった場合(ステップS68のYES)、領域AREA0に捉えられた対象物は歩行者であると判定して(ステップS69)歩行者判定処理を終了し、図5に示すステップS34のYESとして図5のステップS35へ進み、人工構造物判定を行う。
一方、ステップS67において、2値化対象物の外接四角形の縦横比ASPECTを表すAspが閾値TH20未満か、またはTH21より大きかった場合(ステップS67のNO)、あるいはステップS68において、距離Dis_cが閾値TH15以上であった場合(ステップS68のNO)、領域AREA0に捉えられた対象物は歩行者ではないと判定して(ステップS70)歩行者判定処理を終了し、図5に示すステップS34のNOとして図5のステップS37へ進み、対象物は警報対象ではないと判定する。
また、図10のステップS64において、2値化対象物の幅ΔWbが閾値TH9以下であった場合(ステップS64のYES)、対象物は少なくとも歩行者の上半身、または全身が2値化処理により抽出された歩行者であるとして、図12のステップS71へ進み、2値化対象物の外接四角形の縦横比ASPECTを表すAspが、閾値TH13以上TH21以下(歩行者の上半身や全身として適当な値)か否かを判定する(ステップS71)。
図12は、2値化処理によって上半身や全身が抽出された歩行者を識別するための処理手順が示されており、ステップS71において、2値化対象物の外接四角形の縦横比ASPECTを表すAspが閾値TH13以上TH21以下であった場合(ステップS71のYES)、前述の外接四角形重心102と2値化対象物の重心G100との実空間での距離Dis_cが閾値TH15未満か否かを判定する(ステップS72)。
ステップS72において、距離Dis_cが閾値TH15未満であった場合(ステップS72のYES)、対象物には、歩行者以外の対象物、例えば、車輌の前部などが含まれるため、2値化対象物の上部マスク領域AREA1において、予め登録した頭部パタンと相関度が高い部位が存在するか否かを判定する(ステップS73)。
ステップS73において、2値化対象物の上部マスク領域AREA1に予め登録した頭部パタンと相関度が高い部位が存在する場合(ステップS73のYES)、領域AREA0に捉えられた対象物は歩行者であると判定して(ステップS74)歩行者判定処理を終了し、図5に示すステップS34のYESとして図5のステップS35へ進み、人工構造物判定を行う。
一方、ステップS71において、2値化対象物の外接四角形の縦横比ASPECTを表すAspが閾値TH13未満か、または以上TH21より大きかった場合(ステップS71のNO)、あるいはステップS72において、距離Dis_cが閾値TH15以上であった場合(ステップS72のNO)、更にはステップS73において、2値化対象物の上部マスク領域AREA1に予め登録した頭部パタンと相関度が高い部位が存在しない場合(ステップS73のNO)のいずれかであった場合は、領域AREA0に捉えられた対象物は歩行者ではないと判定して(ステップS75)歩行者判定処理を終了し、図5に示すステップS34のNOとして図5のステップS37へ進み、対象物は警報対象ではないと判定する。
また、図10のステップS65において、2値化対象物の幅ΔWbが閾値TH2以下であった場合(ステップS65のYES)、対象物は複数の歩行者が並列歩行を行っているので、対象物の外接四角形内には背景領域が多く含まれていると判断し、図13のステップS76へ進み、規定時間内の外接四角形の面積と2値化対象物の面積比率であるRateが閾値TH22未満か否かを判定する(ステップS76)。
図13は、対象物が複数の歩行者が並列歩行を行っている場合の処理手順が示されており、ステップS76において、規定時間内の外接四角形の面積と2値化対象物の面積比率であるRateが閾値TH22未満であった場合(ステップS76のYES)、2値化対象物の外接四角形の縦横比ASPECTを表すAspが、閾値TH23以上TH14以下(歩行者の並列歩行を判断するのに適当な値)か否かを判定する(ステップS77)。
ステップS77において、2値化対象物の外接四角形の縦横比ASPECTを表すAspが閾値TH23以上TH14以下であった場合(ステップS77のYES)、前述の外接四角形重心102と2値化対象物の重心G100との実空間での距離Dis_cが閾値TH15未満か否かを判定する(ステップS78)。 ステップS78において、距離Dis_cが閾値TH15未満であった場合(ステップS78のYES)、領域AREA0に捉えられた対象物は歩行者であると判定して(ステップS79)歩行者判定処理を終了し、図5に示すステップS34のYESとして図5のステップS35へ進み、人工構造物判定を行う。
一方、ステップS76において、規定時間内の外接四角形の面積と2値化対象物の面積比率であるRateが閾値TH22以上であった場合(ステップS76のNO)、あるいはステップS77において、2値化対象物の外接四角形の縦横比ASPECTを表すAspが閾値TH23未満か、またはTH14より大きかった場合(ステップS77のNO)、更にはステップS78において、距離Dis_cが閾値TH15以上であった場合(ステップS78のNO)のいずれかであった場合は、領域AREA0に捉えられた対象物は歩行者ではないと判定して(ステップS80)歩行者判定処理を終了し、図5に示すステップS34のNOとして図5のステップS37へ進み、対象物は警報対象ではないと判定する。
次に、図17から図20を参照して、図8のステップS48−1及びステップS48−2で示した歩行者の形状判定の方法、具体的には領域AREA0に捉えられた対象物に歩行者の頭、または肩から腕に相当すると推定される部分が存在するか否かの判定方法について説明する。図17は、本実施例の歩行者形状判定処理(頭部及び肩部判定処理)動作を示すフローチャートである。
図17では、まず、歩行者頭部の存在の有無を、歩行者頭部の輝度階調は、頭部の左右(背景)の輝度階調に対して高輝度であるという画像上の各領域(各部)の輝度の特徴を用いて検出する。すなわち、図18(a)、(b)に示すように、グレースケール画像で抽出された対象物領域AREA0の上部から、実空間でxh[m]の領域にプロジェクションエリアAREA4を設定し(ステップS91)、縦方向の輝度プロジョクション(画素毎の輝度を縦方向に積算した積算輝度の横方向の分布)を算出し(ステップS92)、映像左上原点Oを基準にして最大ピークを示す横方向座標xCCを検出する(ステップS93)。
具体的には、プロジェクションエリアAREA4のプロジェクションは、図18(b)に示すようにピークを持つ特性となるので、そのピーク位置の横軸座標(点線Line_Pで示す)を、図18(a)に示すように、実際のプロジェクションエリアAREA4上で求め、映像左上原点Oを基準にして最大ピークを示す横方向座標xCCを検出する。なお、図18(b)においてピーク位置を示す点線Line_Pの横軸座標と、図18(a)に示された点線Line_Pの横軸座標とは同一の座標を示すものとする。
次に、図19(a)に示すように、ステップS93において検出した横方向位置xCCを基準に、歩行者の頭部位置に相当すると推定される領域に基準領域マスクMask_Cを設定する(ステップS94)と共に、その左右位置に肩上部空間に相当すると推定される対象領域マスクMask_LT、Mask_RTを対象領域1として設定する(ステップS95)。
但し、図19(a)において、基準領域マスクMask_C、及び対象領域マスクMask_LT、Mask_RTの大きさと形状は、図19(b)に示すように長さMask_wを一辺とする正方形とする。なお、長さMask_W、長さW_Spaceは、実空間で指定された大きさを映像上に投影したサイズとする。また、対象領域マスクMask_LT、Mask_RTは、画像上では車両に正対していない歩行者が傾斜して捉えられることを考慮して、基準領域マスクMask_Cより、例えば長さMask_W/2だけ上方にずらして配置する。
なお、対象領域マスクMask_LT、Mask_RTを基準領域マスクMask_Cより上方にずらして配置することで、画像の解像度に起因する実際の対象物の位置と画像上の対象物の位置との誤差に対し、対象領域マスクの配置に十分な余裕を与え、対象領域に目的の領域とは異なる領域の画像が入ることを防止することができる。
そして、基準領域マスクの平均輝度Mask_C_ave、及び対象領域マスクの平均輝度Mask_LT_ave、Mask_RT_aveを算出すると共に、求められた各領域の平均輝度から、歩行者の頭部が存在するか否かを判定する(ステップS96)。
もし、ステップS96において、歩行者の頭部が存在しない場合(ステップS96のNO)、図8に示すステップS48−1のNOとして図8のステップS49へ進み、領域AREA0に捉えられた対象物は歩行者ではないと判定して(ステップS49)歩行者判定処理を終了する。
また、ステップS96において、歩行者の頭部が存在する場合(ステップS96のYES)、次のステップS97へ進む。
なお、ステップS96では、具体的に画像上の各領域(各部)の輝度の特徴を比較するために、下記(10)式から(12)式で示す閾値TH24、TH25との比較による条件を判断して、これを全て満たす場合には、頭部の左右(背景)の輝度階調に対して高輝度である歩行者頭部の輝度階調が認められるので、頭部が存在すると判定する。
「Mask_C_ave」−「Mask_LT_ave」>TH24・・・(10)
「Mask_C_ave」−「Mask_RT_ave」>TH24・・・(11)
「Mask_C_ave」>TH25・・・(12)
次に、歩行者では捉えやすい肩から腕にかけての部分の存在有無を判定するために、歩行者の左右の肩から腕にかけての部分は頭部位置と同距離に存在すると共に、歩行者の肩から腕にかけての輝度階調は、歩行者の肩上方空間に位置する頭部の左右(背景)の輝度階調とは異なるという画像上の各領域(各部)の輝度の特徴を用いて、歩行者の肩から腕にかけての部分の有無を検出する。これにより、更に歩行者検出の精度を向上させることができる。具体的には、まず図19(a)に示すように、ステップS96の頭部判定で使用した頭部左右の対象領域マスクMask_LT、Mask_RTの下方に、肩から腕にかけての部分に相当する別の対象領域マスクMask_LU、Maks_RUを対象領域2として設定する(ステップS97)。
そして、歩行者の肩から腕にかけての部分は形状や距離が変化しやすいので、対象領域マスクMask_LT、Mask_RTと、肩から腕にかけての部分に相当する別の対象領域マスクMask_LU、Maks_RUとの相関度を比較し、歩行者の肩から腕にかけての部分が存在するか否かを判定する(ステップS98)。
もし、ステップS98において、歩行者の肩から腕にかけての部分が存在しない場合(ステップS98のNO)、図8に示すステップS48−2のNOとして図8のステップS49へ進み、領域AREA0に捉えられた対象物は歩行者ではないと判定して(ステップS49)歩行者判定処理を終了する。
また、ステップS98において、歩行者の肩から腕にかけての部分が存在する場合(ステップS98のYES)、次のステップS99へ進む。
なお、ステップS98では、具体的に画像上の各領域(各部)の輝度の特徴を比較するために、対象領域マスクMask_LTと別の対象領域マスクMask_LUの相関度エラー値をError_L、対象領域マスクMask_RTと別の対象領域マスクMask_RUの相関度エラー値をError_Rとし、下記(13)式から(14)式で示す閾値TH26との比較による2つの条件を判断して、これを全て満たす場合には、肩から腕にかけての部分の存在の可能性があると判定する。但し、相関度エラー値には、SAD(Sum of Absolute difference)の平均誤差を用いるものとする。
「Error_R」>TH26・・・(13)
「Error_L」>TH26・・・(14)
次に、図20に示すように、グレースケール画像で抽出された対象物領域AREA0の下方左右に2つの領域Mask_L、Mask_Rを対象領域3として設定し(ステップS99)、これらの視差(実空間距離)を左右のステレオ映像から算出する。但し、W2_Space、Mask_W1は、実空間で指定された大きさを映像上に投影したサイズである。
また、歩行者全体の距離と肩から腕にかけての部分の距離とは等しいはずであるから、この領域に歩行者の肩から腕にかけての部分が存在する場合、歩行者全体の距離とこの領域の距離とは等しいはずである。
そこで、算出した視差をそれぞれMask_L_disparity、Mask_R_disparity、グレースケール画像での対象物の領域の視差をMask_disprityとすると、下記(15)式から(16)式で示す閾値TH27との比較による2つの条件を満たす場合には、肩から腕にかけての部分が存在する対象物が歩行者であると判定する(ステップS100)。
|「Mask_disprity」−「Mask_L_disparity」|<TH27・・・(15)
|「Mask_disprity」−「Mask_R_disparity」|<TH27・・・(16)
なお、上述のステップS91からステップS96までの処理が、図8のステップS48−1で示した歩行者の形状判定の方法、具体的には領域AREA0に捉えられた対象物に歩行者の頭に相当すると推定される部分が存在するか否かの判定方法に相当する。また、上述のステップS97からステップS100までの処理が、図8のステップS48−2で示した歩行者の形状判定の方法、具体的には領域AREA0に捉えられた対象物に歩行者の肩から腕に相当すると推定される部分が存在するか否かの判定方法に相当する。
なお、本実施例では、対象物検出・警報動作のステップS17〜ステップS20において、歩行者と認識した対象物に対して、警報判定処理や警報判定出力処理を行って、警報出力が必要であると判定した場合に、スピーカ6を介して音声による警報を発するとともに、画像表示装置7に対して、例えば赤外線カメラ2Rにより得られる画像を出力し、接近してくる対象物を自車両10の運転者に対する強調映像として表示すると説明したが、警報判定処理や警報判定出力処理を行わずに、対象物を歩行者として認識した時点で、スピーカ6を介して音声による警報を発したり、画像表示装置7に対して、例えば赤外線カメラ2Rにより得られる画像を出力し、接近してくる対象物を自車両10の運転者に対する強調映像として表示するようにしても良い。
また、本実施例では、画像処理ユニット1が、警報判定手段と、歩行者頭部領域推定手段と、歩行者肩上方部領域推定手段と、歩行者肩部領域推定手段と、歩行者形状認識手段とを含んでいる。より具体的には、図3において相対移動ベクトルから対象物との衝突可能性があるか否かを判定するステップS17の処理が警報判定手段に相当する。あるいは図3においてブレーキ操作時の加速度に基づいて警報出力を行うか否かを判定するステップS18の処理が警報判定手段に相当する。また、図17のステップS91からステップS94が歩行者頭部領域推定手段に相当し、図17のステップS95が歩行者肩上方部領域推定手段に相当する。また、図17のステップS97及びステップS99が歩行者肩部領域推定手段に相当し、図17のステップS96、ステップS98、ステップS100が歩行者形状認識手段に相当する。
以上説明したように、本実施例の車両周辺監視装置は、赤外線カメラにより撮影された画像のグレースケール画像から歩行者等の対象物を2値化処理によって抽出した後、2値化対象物を含むグレースケール画像上で、歩行者頭部領域推定手段が歩行者の頭部に相当すると推定される領域を基準領域として設定し、歩行者肩上方部領域推定手段が、その基準領域の左右の側方部分に、歩行者の肩上方空間に相当すると推定される、基準領域より上方に配置された2つの対象領域を設定する。
これにより、まず歩行者形状認識手段が、歩行者頭部の輝度階調は、歩行者の肩上方空間に位置する頭部の左右(背景)の輝度階調に対して高輝度であるという特徴に基づき、赤外線画像に捉えられた歩行者の頭から肩に相当する領域を認識する。
更に、歩行者の肩上方空間に相当すると推定される対象領域と、歩行者肩部領域推定手段により設定された歩行者の肩から腕に相当すると推定される別の対象領域とを比較し、歩行者の肩から腕にかけての輝度階調は、歩行者の肩上方空間に位置する頭部の左右(背景)の輝度階調とは異なるという特徴に基づき、赤外線画像に捉えられた歩行者の肩から腕に相当する領域を認識する。
そして、歩行者全体の距離と肩から腕にかけての部分の距離とは等しいはずであるから、歩行者全体の距離と肩から腕に相当する領域の距離とを比較し、その差が所定値より小さい場合、歩行者形状認識手段は、歩行者の頭から肩に相当する領域及び肩から腕に相当する領域を含む2値化対象物が歩行者であると認識することができる。
従って、対象物の画像から、もし赤外線画像上に歩行者が傾いて撮影されても、対象領域に目的の領域とは異なる領域の画像が入らないように、基準領域より上方に配置された2つの対象領域を用いて、まず、歩行者の特徴が顕著に現れる頭から肩に相当する領域を検出し、次に、歩行者の特徴が顕著に現れる肩から腕に相当する領域を検出し、更に、歩行者の全体を含む領域と肩から腕に相当する領域との距離が等しいことを確認してから、歩行者の頭から肩に相当する領域及び肩から腕に相当する領域を含む2値化対象物が歩行者であると認識することで、歩行者の検出精度を向上させることができるという効果が得られる。
また、歩行者形状認識手段が歩行者として認識した対象物と、歩行者と認識されなかった対象物とを区別して画像表示手段7に表示することで、認識された対象物が歩行者であることを、利用者に明確に認識させることができる。特に、歩行者形状認識手段により歩行者と認識され、更に警報判定手段によって警報すべき対象物であると判定された対象物を、他の対象物と区別して表示することによって、認識された対象物が歩行者であり、かつ注意が必要であることを利用者に明確に認識させることができると共に、警報する必要のない歩行者については利用者に認識させないことで、利用者の注意を、注意が必要である対象物(歩行者)に集中させることができるという効果が得られる。
本発明の一実施例の車両周辺監視装置の構成を示すブロック図である。 車両における赤外線カメラやセンサ、ディスプレイ等の取り付け位置を示す図である。 同実施例の車両周辺監視装置の対象物検出・警報動作を示すフローチャートである。 赤外線カメラにより得られるグレースケール画像とその2値化画像を示す図である。 同実施例の警報判定処理動作を示すフローチャートである。 衝突が発生しやすい場合を示す図である。 車両前方の領域区分を示す図である。 同実施例の歩行者判定処理動作を示すフローチャートである。 同実施例の歩行者判定処理動作を示すフローチャートである。 同実施例の歩行者判定処理動作を示すフローチャートである。 同実施例の歩行者判定処理動作を示すフローチャートである。 同実施例の歩行者判定処理動作を示すフローチャートである。 同実施例の歩行者判定処理動作を示すフローチャートである。 同実施例の2値化対象物形状特徴量について示す図である。 同実施例のマスク領域設定について示す図である。 対象物が歩行者の一部あるいは全体である場合や、壁の場合のマスク領域AREA3の輝度分散を示した図である。 同実施例の歩行者形状判定処理(頭部及び肩部判定処理)動作を示すフローチャートである。 同実施例のプロジェクション算出処理を示す図である。 同実施例の頭部及び肩部判定処理を示す図である。 同実施例の肩部判定処理を示す図である。
符号の説明
1 画像処理ユニット
2R、2L 赤外線カメラ
3 ヨーレートセンサ
4 車速センサ
5 ブレーキセンサ
6 スピーカ
7 画像表示装置(表示手段)
10 自車両
S17、S18 警報判定手段
S91〜S94 歩行者頭部領域推定手段
S95 歩行者肩上方部領域推定手段
S97、S99 歩行者肩部領域推定手段
S96、S98、S100 歩行者形状認識手段


Claims (10)

  1. 赤外線カメラにより捉えられた画像を利用して、歩行者を認識する車両周辺監視装置であって、
    前記歩行者の頭部に相当すると推定される領域を基準領域として設定する歩行者頭部領域推定手段と、
    前記基準領域の左右の側方部分に、前記歩行者の肩上方空間に相当すると推定される2つの対象領域を設定する歩行者肩上方部領域推定手段と、
    前記基準領域の輝度の特徴と前記対象領域の輝度の特徴とに基づき、前記画像に捉えられた歩行者を認識する歩行者形状認識手段とを備えたことを特徴とする車両周辺監視装置。
  2. 前記基準領域に対して、前記対象領域を上方にオフセットすることを特徴とする請求項1に記載の車両周辺監視装置。
  3. 前記対象領域のそれぞれの下方に、前記歩行者の肩もしくは腕に相当すると推定される別の対象領域を設定する歩行者肩部領域推定手段を備え、
    前記歩行者形状認識手段が、前記対象領域の輝度の特徴と前記別の対象領域の輝度の特徴とに基づき、前記画像に捉えられた歩行者を認識することを特徴とする請求項1、または請求項2に記載の車両周辺監視装置。
  4. 赤外線カメラにより捉えられた画像を利用して対象物を抽出し、前記対象物を歩行者として認識する車両周辺監視装置であって、
    前記歩行者の頭部に相当すると推定される領域を基準領域として設定する歩行者頭部領域推定手段と、
    前記基準領域の左右の側方部分に、前記歩行者の肩上方空間に相当すると推定される2つの対象領域を設定する歩行者肩上方部領域推定手段と、
    前記基準領域の輝度の特徴と前記対象領域の輝度の特徴とに基づき、前記画像に捉えられた歩行者を認識する歩行者形状認識手段と、
    前記歩行者形状認識手段によって歩行者と認識された対象物と、歩行者と認識されなかった対象物とを区別可能に表示する表示手段とを備えたことを特徴とする車両周辺監視装置。
  5. 赤外線カメラにより捉えられた画像を利用して対象物を抽出し、前記対象物を歩行者として認識する車両周辺監視装置であって、
    前記歩行者の頭部に相当すると推定される領域を基準領域として設定する歩行者頭部領域推定手段と、
    前記基準領域の左右の側方部分に、前記歩行者の肩上方空間に相当すると推定される2つの対象領域を設定する歩行者肩上方部領域推定手段と、
    前記基準領域の輝度の特徴と前記対象領域の輝度の特徴とに基づき、前記画像に捉えられた歩行者を認識する歩行者形状認識手段と、
    前記歩行者形状認識手段によって歩行者と認識された対象物に対して、警報すべき対象物であるか否かを判断する警報判定手段と、
    前記警報判定手段によって警報すべき対象物と判断された対象物と、警報すべき対象物と判断されなかった対象物とを区別可能に表示する表示手段とを備えたことを特徴とする車両周辺監視装置。
  6. 前記基準領域に対して、前記対象領域を上方にオフセットすることを特徴とする請求項4、または請求項5に記載の車両周辺監視装置。
  7. 前記対象領域のそれぞれの下方に、前記歩行者の肩もしくは腕に相当すると推定される別の対象領域を設定する歩行者肩部領域推定手段を備え、
    前記歩行者形状認識手段が、前記対象領域の輝度の特徴と前記別の対象領域の輝度の特徴とに基づき、前記画像に捉えられた歩行者を認識することを特徴とする請求項4から請求項6のいずれかに記載の車両周辺監視装置。
  8. 前記表示手段は、前記歩行者形状認識手段によって歩行者と認識された対象物を強調表示することによって区別可能に表示することを特徴とする請求項4から請求項7のいずれかに記載の車両周辺監視装置。
  9. 前記歩行者頭部領域推定手段によって推定された基準領域を含む領域の距離を算出する第1の距離算出手段と、
    前記歩行者肩部領域推定手段にて設定された別の対象領域を含む第3の対象領域を設定する第3の対象領域設定手段と、
    前記第3の対象領域設定手段にて設定された第3の対象領域の距離を算出する第2の距離算出手段と、
    前記第1の距離算出手段によって算出された第1の距離と、第2の距離算出手段によって算出された第2の距離との差を算出する距離差算出手段と
    を備え、
    前記歩行者形状認識手段は、前記距離差算出手段にて距離差が所定値以下であることに基づき、前記画像に捉えられた歩行者を認識することを特徴とする請求項3または請求項7に記載の車両周辺監視装置。
  10. 前記歩行者形状認識手段は、前記基準領域の輝度と前記対象領域の輝度との輝度差が所定値以上でないときに前記対象物が歩行者ではないと判定することを特徴とする請求項1〜9のいずれか一項に記載の車両周辺監視装置。
JP2004068903A 2003-03-20 2004-03-11 車両周辺監視装置 Expired - Fee Related JP3987048B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2004068903A JP3987048B2 (ja) 2003-03-20 2004-03-11 車両周辺監視装置
US10/801,413 US7330568B2 (en) 2003-03-20 2004-03-16 Device for monitoring around vehicle
DE102004012811A DE102004012811B4 (de) 2003-03-20 2004-03-16 Vorrichtung zum Überwachen der Umgebung eines Fahrzeugs

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003078423 2003-03-20
JP2004068903A JP3987048B2 (ja) 2003-03-20 2004-03-11 車両周辺監視装置

Publications (2)

Publication Number Publication Date
JP2004303219A JP2004303219A (ja) 2004-10-28
JP3987048B2 true JP3987048B2 (ja) 2007-10-03

Family

ID=32993008

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004068903A Expired - Fee Related JP3987048B2 (ja) 2003-03-20 2004-03-11 車両周辺監視装置

Country Status (3)

Country Link
US (1) US7330568B2 (ja)
JP (1) JP3987048B2 (ja)
DE (1) DE102004012811B4 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113246931A (zh) * 2021-06-11 2021-08-13 创新奇智(成都)科技有限公司 一种车辆控制方法、装置、电子设备及存储介质

Families Citing this family (103)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100543709B1 (ko) * 2003-12-23 2006-01-20 삼성전자주식회사 이동체의 회전 이동량 이용 방법과 장치 및 컴퓨터프로그램을 저장하는 컴퓨터로 읽을 수 있는 기록 매체
US7561720B2 (en) * 2004-04-30 2009-07-14 Visteon Global Technologies, Inc. Single camera system and method for range and lateral position measurement of a preceding vehicle
JP3987057B2 (ja) * 2004-06-14 2007-10-03 本田技研工業株式会社 車両周辺監視装置
JP3934119B2 (ja) * 2004-06-14 2007-06-20 本田技研工業株式会社 車両周辺監視装置
JP2005350010A (ja) * 2004-06-14 2005-12-22 Fuji Heavy Ind Ltd ステレオ式車外監視装置
EP1779295A4 (en) 2004-07-26 2012-07-04 Automotive Systems Lab SYSTEM FOR PROTECTING USERS OF THE ROAD IN A DANGER SITUATION
JP2006151114A (ja) * 2004-11-26 2006-06-15 Fujitsu Ten Ltd 運転支援装置
JP4771797B2 (ja) * 2004-11-26 2011-09-14 株式会社デンソーアイティーラボラトリ 距離計測装置及び距離計測方法
US7489805B2 (en) * 2004-11-30 2009-02-10 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
JP3970876B2 (ja) 2004-11-30 2007-09-05 本田技研工業株式会社 車両周辺監視装置
US7515737B2 (en) * 2004-11-30 2009-04-07 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
DE102005056647B4 (de) * 2004-11-30 2011-02-03 Honda Motor Co., Ltd. Fahrzeugumgebungsüberwachungsvorrichtung
DE102005056666B4 (de) * 2004-11-30 2010-09-30 Honda Motor Co., Ltd. Fahrzeugumgebungsüberwachungsvorrichtung
US7599521B2 (en) * 2004-11-30 2009-10-06 Honda Motor Co., Ltd. Vehicle vicinity monitoring apparatus
US7590263B2 (en) 2004-11-30 2009-09-15 Honda Motor Co., Ltd. Vehicle vicinity monitoring apparatus
JP4094604B2 (ja) * 2004-11-30 2008-06-04 本田技研工業株式会社 車両周辺監視装置
JP4461091B2 (ja) * 2004-11-30 2010-05-12 本田技研工業株式会社 位置検出装置及びその補正方法
JP4224449B2 (ja) * 2004-11-30 2009-02-12 本田技研工業株式会社 画像抽出装置
JP4128562B2 (ja) * 2004-11-30 2008-07-30 本田技研工業株式会社 車両周辺監視装置
JP4032052B2 (ja) * 2004-11-30 2008-01-16 本田技研工業株式会社 位置検出装置及びその補正方法
US7561721B2 (en) * 2005-02-02 2009-07-14 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US20070031008A1 (en) * 2005-08-02 2007-02-08 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
JP4708124B2 (ja) * 2005-08-30 2011-06-22 富士重工業株式会社 画像処理装置
US7623681B2 (en) * 2005-12-07 2009-11-24 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
JP4456086B2 (ja) 2006-03-09 2010-04-28 本田技研工業株式会社 車両周辺監視装置
JP4173902B2 (ja) 2006-05-19 2008-10-29 本田技研工業株式会社 車両周辺監視装置
JP4173901B2 (ja) 2006-05-19 2008-10-29 本田技研工業株式会社 車両周辺監視装置
JP4203512B2 (ja) 2006-06-16 2009-01-07 本田技研工業株式会社 車両周辺監視装置
JP4970861B2 (ja) * 2006-07-07 2012-07-11 本田技研工業株式会社 車両周辺監視システム、車両、車両周辺監視プログラム、および車両周辺監視システムの構築システム
JP2008026997A (ja) * 2006-07-18 2008-02-07 Denso Corp 歩行者認識装置及び歩行者認識方法
EP1897751B1 (en) 2006-09-11 2012-08-15 Kawasaki Jukogyo Kabushiki Kaisha Driving assist system for a vehicle
GB2443664A (en) * 2006-11-10 2008-05-14 Autoliv Dev An infra red object detection system de-emphasizing non relevant hot objects
DE102006059033A1 (de) 2006-12-14 2008-06-19 Volkswagen Ag Verfahren und System zum Erkennen eines Verkehrsteilnehmers und zum Erzeugen einer Warnung
JP2008286725A (ja) * 2007-05-21 2008-11-27 Mitsubishi Electric Corp 人物検出装置および方法
US20100324770A1 (en) * 2007-07-03 2010-12-23 J. Edward Ramsey Trailer hitch alignment device and method
JP4887537B2 (ja) * 2007-08-02 2012-02-29 本田技研工業株式会社 車両周辺監視装置
US20090102923A1 (en) * 2007-09-24 2009-04-23 Mason Edward L Truck security system
JP4521642B2 (ja) * 2008-02-13 2010-08-11 本田技研工業株式会社 車両周辺監視装置、車両、車両周辺監視プログラム
JP4887540B2 (ja) * 2008-02-15 2012-02-29 本田技研工業株式会社 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法
JP4486997B2 (ja) 2008-04-24 2010-06-23 本田技研工業株式会社 車両周辺監視装置
JP4410292B1 (ja) * 2008-10-20 2010-02-03 本田技研工業株式会社 車両の周辺監視装置
KR101781399B1 (ko) 2008-11-17 2017-09-25 익스프레스 이미징 시스템즈, 엘엘씨 고체 상태 전등을 위한 전력을 조절하기 위한 전자 제어 및 그 방법들
US8926139B2 (en) * 2009-05-01 2015-01-06 Express Imaging Systems, Llc Gas-discharge lamp replacement with passive cooling
WO2010135575A2 (en) 2009-05-20 2010-11-25 Express Imaging Systems, Llc Long-range motion detection for illumination control
WO2010135582A2 (en) 2009-05-20 2010-11-25 Express Imaging Systems, Llc Apparatus and method of energy efficient illumination
EP2465092B1 (en) * 2009-09-03 2015-02-11 Honda Motor Co., Ltd. Vehicle vicinity monitoring apparatus
JP5039765B2 (ja) * 2009-09-17 2012-10-03 日立オートモティブシステムズ株式会社 車両制御装置
JP5664152B2 (ja) * 2009-12-25 2015-02-04 株式会社リコー 撮像装置、車載用撮像システム及び物体識別装置
JP5642785B2 (ja) * 2010-06-07 2014-12-17 本田技研工業株式会社 車両の周辺監視装置
KR101161979B1 (ko) * 2010-08-19 2012-07-03 삼성전기주식회사 나이트 비전용 영상 처리 장치 및 방법
US8773535B2 (en) * 2010-12-08 2014-07-08 GM Global Technology Operations LLC Adaptation for clear path detection using reliable local model updating
US8901825B2 (en) 2011-04-12 2014-12-02 Express Imaging Systems, Llc Apparatus and method of energy efficient illumination using received signals
KR101256046B1 (ko) * 2011-08-12 2013-04-18 한국과학기술원 공간 제스처 인식을 위한 신체 트래킹 방법 및 시스템
US9360198B2 (en) 2011-12-06 2016-06-07 Express Imaging Systems, Llc Adjustable output solid-state lighting device
JP5442050B2 (ja) * 2012-02-15 2014-03-12 本田技研工業株式会社 車両周辺監視システム
US9497393B2 (en) * 2012-03-02 2016-11-15 Express Imaging Systems, Llc Systems and methods that employ object recognition
US9210751B2 (en) 2012-05-01 2015-12-08 Express Imaging Systems, Llc Solid state lighting, drive circuit and method of driving same
US9204523B2 (en) 2012-05-02 2015-12-01 Express Imaging Systems, Llc Remotely adjustable solid-state lamp
US9131552B2 (en) 2012-07-25 2015-09-08 Express Imaging Systems, Llc Apparatus and method of operating a luminaire
RU2573110C1 (ru) * 2012-07-27 2016-01-20 Ниссан Мотор Ко., Лтд. Бортовое устройство распознавания изображений
US8896215B2 (en) 2012-09-05 2014-11-25 Express Imaging Systems, Llc Apparatus and method for schedule based operation of a luminaire
US9301365B2 (en) 2012-11-07 2016-03-29 Express Imaging Systems, Llc Luminaire with switch-mode converter power monitoring
US9210759B2 (en) 2012-11-19 2015-12-08 Express Imaging Systems, Llc Luminaire with ambient sensing and autonomous control capabilities
US10043067B2 (en) * 2012-12-03 2018-08-07 Harman International Industries, Incorporated System and method for detecting pedestrians using a single normal camera
JP5700263B2 (ja) * 2013-01-22 2015-04-15 株式会社デンソー 衝突傷害予測システム
US9288873B2 (en) 2013-02-13 2016-03-15 Express Imaging Systems, Llc Systems, methods, and apparatuses for using a high current switching device as a logic level sensor
JP5794255B2 (ja) 2013-05-21 2015-10-14 株式会社デンソー 物体検出装置
CN105393293B (zh) * 2013-07-18 2017-05-03 歌乐株式会社 车载装置
US9466443B2 (en) 2013-07-24 2016-10-11 Express Imaging Systems, Llc Photocontrol for luminaire consumes very low power
US9336436B1 (en) * 2013-09-30 2016-05-10 Google Inc. Methods and systems for pedestrian avoidance
TW201520994A (zh) * 2013-11-18 2015-06-01 Chunghwa Telecom Co Ltd 檢測載具偵測裝置之系統及其方法
US9414449B2 (en) 2013-11-18 2016-08-09 Express Imaging Systems, Llc High efficiency power controller for luminaire
WO2015116812A1 (en) 2014-01-30 2015-08-06 Express Imaging Systems, Llc Ambient light control in solid state lamps and luminaires
US9572230B2 (en) 2014-09-30 2017-02-14 Express Imaging Systems, Llc Centralized control of area lighting hours of illumination
WO2016064542A1 (en) 2014-10-24 2016-04-28 Express Imaging Systems, Llc Detection and correction of faulty photo controls in outdoor luminaires
EP3034359B1 (en) * 2014-12-15 2018-05-16 Ricoh Company, Ltd. Monitoring system, and vehicle mountable with monitoring system
US10331140B2 (en) * 2014-12-25 2019-06-25 Equos Research Co., Ltd. Moving body
US9462662B1 (en) 2015-03-24 2016-10-04 Express Imaging Systems, Llc Low power photocontrol for luminaire
KR102451091B1 (ko) * 2015-07-08 2022-10-05 엘지이노텍 주식회사 차량용 이동체 정보 제공 장치 및 방법과, 이 방법을 실행하기 위한 프로그램을 기록한 기록 매체
US9538612B1 (en) 2015-09-03 2017-01-03 Express Imaging Systems, Llc Low power photocontrol for luminaire
KR101823208B1 (ko) * 2015-12-04 2018-01-29 엘지전자 주식회사 공기 조화기 및 그 제어방법
US9924582B2 (en) 2016-04-26 2018-03-20 Express Imaging Systems, Llc Luminaire dimming module uses 3 contact NEMA photocontrol socket
US9985429B2 (en) 2016-09-21 2018-05-29 Express Imaging Systems, Llc Inrush current limiter circuit
US10230296B2 (en) 2016-09-21 2019-03-12 Express Imaging Systems, Llc Output ripple reduction for power converters
DE102016218849A1 (de) 2016-09-29 2018-03-29 Conti Temic Microelectronic Gmbh Detektion und Tracking von Objekten aus Bildern einer Kamera
DE102016218853A1 (de) 2016-09-29 2018-03-29 Conti Temic Microelectronic Gmbh Detektion und Validierung von Objekten aus Bildern einer Kamera
DE102016218852A1 (de) * 2016-09-29 2018-03-29 Conti Temic Microelectronic Gmbh Detektion von Objekten aus Bildern einer Kamera
KR101827698B1 (ko) * 2016-11-01 2018-02-12 현대자동차주식회사 차량 및 그 제어방법
KR101827700B1 (ko) * 2016-11-01 2018-02-12 현대자동차주식회사 차량 및 그 제어방법
CN108256404B (zh) * 2016-12-29 2021-12-10 北京旷视科技有限公司 行人检测方法和装置
US10098212B2 (en) 2017-02-14 2018-10-09 Express Imaging Systems, Llc Systems and methods for controlling outdoor luminaire wireless network using smart appliance
WO2018151759A1 (en) 2017-02-20 2018-08-23 3M Innovative Properties Company Optical articles and systems interacting with the same
US10904992B2 (en) 2017-04-03 2021-01-26 Express Imaging Systems, Llc Systems and methods for outdoor luminaire wireless control
US11375599B2 (en) 2017-04-03 2022-06-28 Express Imaging Systems, Llc Systems and methods for outdoor luminaire wireless control
US10568191B2 (en) 2017-04-03 2020-02-18 Express Imaging Systems, Llc Systems and methods for outdoor luminaire wireless control
US10219360B2 (en) 2017-04-03 2019-02-26 Express Imaging Systems, Llc Systems and methods for outdoor luminaire wireless control
EP3688662A1 (en) 2017-09-27 2020-08-05 3M Innovative Properties Company Personal protective equipment management system using optical patterns for equipment and safety monitoring
CN109583267B (zh) * 2017-09-28 2022-04-08 京东方科技集团股份有限公司 车辆用目标检测方法、车辆用目标检测装置和车辆
CN108985204A (zh) * 2018-07-04 2018-12-11 北京师范大学珠海分校 行人检测跟踪方法及装置
US11234304B2 (en) 2019-05-24 2022-01-25 Express Imaging Systems, Llc Photocontroller to control operation of a luminaire having a dimming line
US11317497B2 (en) 2019-06-20 2022-04-26 Express Imaging Systems, Llc Photocontroller and/or lamp with photocontrols to control operation of lamp
US11212887B2 (en) 2019-11-04 2021-12-28 Express Imaging Systems, Llc Light having selectively adjustable sets of solid state light sources, circuit and method of operation thereof, to provide variable output characteristics
KR20210136567A (ko) * 2020-05-08 2021-11-17 현대자동차주식회사 차량의 커뮤니케이션 조명 시스템

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4135123B2 (ja) * 1998-05-13 2008-08-20 日産自動車株式会社 表示処理装置
JP3515926B2 (ja) * 1999-06-23 2004-04-05 本田技研工業株式会社 車両の周辺監視装置
EP1202214A3 (en) * 2000-10-31 2005-02-23 Matsushita Electric Industrial Co., Ltd. Method and apparatus for object recognition
JP2003006642A (ja) * 2001-06-22 2003-01-10 Toshihiko Shimizu 熱画像を利用した画像処理装置
JP2003016429A (ja) 2001-06-28 2003-01-17 Honda Motor Co Ltd 車両周辺監視装置
JP2003028635A (ja) * 2001-07-16 2003-01-29 Honda Motor Co Ltd 画像測距装置
JP3764086B2 (ja) * 2001-10-29 2006-04-05 本田技研工業株式会社 車両用情報提供装置
DE10301468B4 (de) * 2002-01-18 2010-08-05 Honda Giken Kogyo K.K. Vorrichtung zur Beobachtung der Umgebung eines Fahrzeugs
AU2003295318A1 (en) * 2002-06-14 2004-04-19 Honda Giken Kogyo Kabushiki Kaisha Pedestrian detection and tracking with night vision

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113246931A (zh) * 2021-06-11 2021-08-13 创新奇智(成都)科技有限公司 一种车辆控制方法、装置、电子设备及存储介质
CN113246931B (zh) * 2021-06-11 2021-09-28 创新奇智(成都)科技有限公司 一种车辆控制方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
DE102004012811B4 (de) 2009-02-12
JP2004303219A (ja) 2004-10-28
US7330568B2 (en) 2008-02-12
DE102004012811A1 (de) 2004-11-11
US20040183906A1 (en) 2004-09-23

Similar Documents

Publication Publication Date Title
JP3987048B2 (ja) 車両周辺監視装置
JP4060159B2 (ja) 車両周辺監視装置
JP4104867B2 (ja) ナイトビジョンシステム
JP3987013B2 (ja) 車両周辺監視装置
JP3987057B2 (ja) 車両周辺監視装置
JP3934119B2 (ja) 車両周辺監視装置
JP4203512B2 (ja) 車両周辺監視装置
Zhao et al. Stereo-and neural network-based pedestrian detection
JP4456086B2 (ja) 車両周辺監視装置
JP3764086B2 (ja) 車両用情報提供装置
JP4410292B1 (ja) 車両の周辺監視装置
US10565438B2 (en) Vehicle periphery monitor device
US20060115115A1 (en) Vehicle surroundings monitoring apparatus
JP4644992B2 (ja) 距離画像を用いた人体検知方法
JP3839329B2 (ja) ナイトビジョンシステム
JP2003028635A (ja) 画像測距装置
JP4647648B2 (ja) 車両周辺監視装置
JP3898157B2 (ja) 赤外線画像認識装置
JP3939626B2 (ja) 車両周辺監視装置
JP3844750B2 (ja) 赤外線画像認識装置、及び赤外線画像認識装置を用いた警報装置
Bui et al. Deformable parts model for people detection in heavy machines applications
JP4567072B2 (ja) 車両周辺監視装置
JP4372746B2 (ja) 車両周辺監視装置
JP3939580B2 (ja) 障害物警報装置
JP4472623B2 (ja) 車両周辺監視装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070711

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100720

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100720

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110720

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110720

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120720

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120720

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130720

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140720

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees