WO2019069581A1 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
WO2019069581A1
WO2019069581A1 PCT/JP2018/031296 JP2018031296W WO2019069581A1 WO 2019069581 A1 WO2019069581 A1 WO 2019069581A1 JP 2018031296 W JP2018031296 W JP 2018031296W WO 2019069581 A1 WO2019069581 A1 WO 2019069581A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
visible light
image
area
motion vector
Prior art date
Application number
PCT/JP2018/031296
Other languages
English (en)
French (fr)
Inventor
小柳津 秀紀
厚史 伊藤
丈士 上森
卓 青木
竜太 佐藤
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to CN201880062853.4A priority Critical patent/CN111164967B/zh
Priority to EP18865073.3A priority patent/EP3694206A4/en
Priority to US16/650,870 priority patent/US11468574B2/en
Priority to JP2019546569A priority patent/JP7188394B2/ja
Publication of WO2019069581A1 publication Critical patent/WO2019069581A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Definitions

  • the image processing apparatus may be configured to compare the position of the specific object after a predetermined time predicted based on the motion vector of the excluded integrated area with the position at which the mobile is scheduled to arrive at the same time. It may further include a comparison unit that compares the position. Further, the image processing apparatus presents the driver of the moving object with a risk of collision according to the possibility of the specific object and the moving object colliding, which is calculated based on the relative position. The warning unit may further be provided.
  • a second aspect of the technology disclosed in the present specification is A vector estimation step of estimating a global motion vector indicating movement of the entire image from a visible light image captured by a visible light camera;
  • An area extraction step of extracting a specific temperature area consisting of pixels of a value within a temperature range representing a feature of a specific target from a far infrared image captured by a far infrared camera capturing the same target as the visible light camera;
  • An area integration step of integrating the extracted specific temperature areas having close motion vectors to generate an integrated area; Eliminate integrated regions where global motion vectors and motion vectors are close to obtain excluded integrated regions, and generate visible light motion regions in which visible light regions corresponding to specific temperature regions in excluded integrated regions are extracted from the visible light image Region exclusion step,
  • An image combining step of combining in the time direction a visible light motion region whose position is corrected based on the motion vector of the entire excluded integrated region; Image processing method.
  • the communication unit 103 may communicate with an apparatus (for example, an application server or control server) existing on an external network (for example, the Internet, a cloud network, or a network unique to an operator) via a base station or an access point. Communicate. Also, for example, using the P2P (Peer To Peer) technology, the communication unit 103 may use a terminal (eg, a pedestrian or a shop terminal, or an MTC (Machine Type Communication) terminal) with a terminal existing near the host vehicle. Communicate. Furthermore, for example, the communication unit 103 may perform vehicle-to-vehicle communication, vehicle-to-infrastructure communication, vehicle-to-home communication, and vehicle-to-pedestrian communication.
  • an apparatus for example, an application server or control server
  • an external network for example, the Internet, a cloud network, or a network unique to an operator
  • the communication unit 103 may use a terminal (eg, a pedestrian or a shop terminal, or an MTC (Machine Type Communication) terminal)
  • the body control unit 109 controls the body system 110 by generating various control signals and supplying the control signals to the body system 110.
  • the body system control unit 109 supplies a control signal to each unit other than the body system 110, as required, to notify the control state of the body system 110, and the like.
  • the self position estimation unit 132 estimates the position and orientation of the vehicle based on data or signals from each part of the vehicle control system 100 such as the external information detection unit 141 and the situation recognition unit 153 of the situation analysis unit 133. Do the processing. In addition, the self position estimation unit 132 generates a local map (hereinafter, referred to as a self position estimation map) used to estimate the self position, as necessary.
  • the self-location estimation map is, for example, a high-accuracy map using a technique such as SLAM (Simultaneous Localization and Mapping).
  • the situation of the subject vehicle to be predicted includes, for example, the behavior of the subject vehicle, the occurrence of an abnormality, the travelable distance, and the like.
  • the situation around the vehicle to be predicted includes, for example, the behavior of the moving object around the vehicle, the change of the signal state, and the change of the environment such as the weather.
  • the driver's condition to be predicted includes, for example, the driver's behavior and physical condition.
  • FIG. 2 schematically shows a functional configuration of an image processing apparatus 200 to which the technology disclosed in the present specification is applied.
  • the image processing apparatus 200 can also be incorporated, for example, as one component of the automatic driving control unit 112 in the vehicle control system 100 shown in FIG. 1.
  • the functions of the units of the image processing apparatus 200 will be described in detail below.
  • a plurality of frames of motion vector added visible light motion areas 227 continuous in the time direction are extracted from the storage device 209 and collide with the vehicle. Processing for human detection for avoidance and motion estimation for human is performed.
  • the human detection unit 211 may, for example, perform human detection processing using machine learning as an example of a method for detecting a person from an image. Specifically, a large amount of image data (visible light image and far infrared image) is used to learn in advance whether the detected subject is a person or not. Then, when a similar image is input to the human detection unit 211, it is determined whether the detected subject is a person or a bicycle. For example, deep learning based on multi-layered neural networks may be applied.
  • the human temperature area extraction unit 204 extracts a pixel area masked by a temperature that can be taken by a human from the far infrared image 221 input from the far infrared camera 202 as a human temperature area (step S2002).
  • the own vehicle travel comparison unit 1602 Based on the value obtained from the own vehicle travel information acquisition unit 1601 and the human candidate motion vector 230 and the human candidate area 229 obtained from the image processing apparatus 200, the own vehicle travel comparison unit 1602 The relative positional relationship of the host vehicle is estimated, and further, the possibility of collision is calculated and passed to the warning unit 1603.
  • the host vehicle travel comparison unit 1602 can also be configured using the situation analysis unit 133 and the planning unit 134 in FIG. 1.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

遠赤外線画像を処理する画像処理装置及び画像処理方法を提供する。 同一の対象の遠赤外線画像から、ある特定の対象の特徴を表す温度範囲内の値の画素からなる特定温度領域を抽出し、特定温度領域のうち動きベクトルが近いもの同士を統合して統合領域を生成し、画像全体の動きを示すグローバルモーションベクトルと動きベクトルが近い統合領域を排除して排除済統合領域を求め、排除済統合領域内の特定温度領域に対応する可視光領域を前記可視光画像から抽出した可視光動き領域を排除済統合領域全体の動きベクトルに基づいて位置補正してから、可視光動き領域を時間方向で合成する。

Description

画像処理装置及び画像処理方法
 本明細書で開示する技術は、遠赤外線画像を処理する画像処理装置及び画像処理方法に関する。
 近年、自動車運転技術の開発が盛んに行われてきている。例えば、可視光カメラや距離センサなどを用いて、自車前方の人や障害物を検出して、自動ブレーキをさせるなど障害物を回避する技術が開発されている。もちろん、自車の側方や後方の人や障害物も、同様の技術を適用して、自車との衝突可能性を推定することができる。
特許第5491242号公報 特許第4734884号公報 特許第3598793号公報
 本明細書で開示する技術の目的は、遠赤外線画像を処理する画像処理装置及び画像処理方法を提供することにある。
 本明細書で開示する技術の第1の側面は、
 可視光カメラで撮影した可視光画像から画像全体の動きを示すグローバルモーションベクトルを推定するベクトル推定部と、
 前記可視光カメラと同一の対象を撮影する遠赤外線カメラで撮影した遠赤外線画像から、ある特定の対象の特徴を表す温度範囲内の値の画素からなる特定温度領域を抽出する領域抽出部と、
 前記抽出された特定温度領域のうち、動きベクトルが近いもの同士を統合して統合領域を生成する領域統合部と、
 グローバルモーションベクトルと動きベクトルが近い統合領域を排除して排除済統合領域を求め、排除済統合領域内の特定温度領域に対応する可視光領域を前記可視光画像から抽出した可視光動き領域を生成する領域排除部と、
 排除済統合領域全体の動きベクトルに基づいて位置を補正した可視光動き領域を時間方向で合成する画像合成部と、
を具備する画像処理装置である。
 前記画像合成部は、可視光動き領域の画面上の位置が時間方向で変化しないように位置補正する。また、前記領域抽出部は、例えば、人の体温を含む前記温度範囲内の値の画素からなる特定温度領域を抽出する。
 画像処理装置は、前記画像合成部による合成画像から前記特定の対象が存在する領域を検出する検出部をさらに備えていてもよい。また、画像処理装置は、前記検出部が検出した前記領域の動きを推定する動き推定部をさらに備えていてもよい。
 また、画像処理装置は、排除済統合領域の動きベクトルに基づいて予測される一定時間後の前記特定の対象の位置と、同時刻に前記移動体が到着することが予定される位置との相対位置を比較する比較部をさらに備えていてもよい。また、画像処理装置は、前記相対位置に基づいて計算される、前記特定の対象と前記移動体が衝突する可能性に応じて、前記移動体の運転者に対して衝突の危険性を提示する警告部をさらに備えていてもよい。
 また、本明細書で開示する技術の第2の側面は、
 可視光カメラで撮影した可視光画像から画像全体の動きを示すグローバルモーションベクトルを推定するベクトル推定ステップと、
 前記可視光カメラと同一の対象を撮影する遠赤外線カメラで撮影した遠赤外線画像から、ある特定の対象の特徴を表す温度範囲内の値の画素からなる特定温度領域を抽出する領域抽出ステップと、
 前記抽出された特定温度領域のうち、動きベクトルが近いもの同士を統合して統合領域を生成する領域統合ステップと、
 グローバルモーションベクトルと動きベクトルが近い統合領域を排除して排除済統合領域を求め、排除済統合領域内の特定温度領域に対応する可視光領域を前記可視光画像から抽出した可視光動き領域を生成する領域排除ステップと、
 排除済統合領域全体の動きベクトルに基づいて位置を補正した可視光動き領域を時間方向で合成する画像合成ステップと、
を有する画像処理方法である。
 本明細書で開示する技術によれば、遠赤外線画像を処理する画像処理装置及び画像処理方法を提供することができる。
 なお、本明細書に記載された効果は、あくまでも例示であり、本発明の効果はこれに限定されるものではない。また、本発明が、上記の効果以外に、さらに付加的な効果を奏する場合もある。
 本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、車両制御システム100の概略的な機能の構成例を示すブロック図である。 図2は、画像処理装置200の機能的構成例を示した図である。 図3は、可視光カメラ201で撮影した可視光画像の例を示した図である。 図4は、遠赤外線カメラ202で撮影した遠赤外線画像の例を示した図である。 図5は、可視光画像から推定したグローバルモーションベクトルの例を示した図である。 図6は、遠赤外線画像から抽出された人温度領域の例を示した図である。 図7は、動きベクトル付人温度領域が示された遠赤外線画像の例を示した図である。 図8は、動きベクトルが近い人温度領域同士を統合した統合領域と、統合領域毎の動きベクトルの例を示した図である。 図9は、統合領域の動きベクトルとグローバルモーションベクトルを比較する様子を例示した図である。 図10は、グローバルモーションベクトルに似ている動きベクトルを持つ統合領域を排除した結果の例を示した図である。 図11は、排除済統合領域とその動きベクトルの例を示した図である。 図12は、可視光動き領域の例を示した図である。 図13は、可視光動き領域を統合領域動きベクトルの逆ベクトルを使って位置補正する例を示した図である。 図14は、位置補正して得られた複数フレームの画像を1枚に合成した結果の例を示した図である。 図15は、図14に示した合成画像から抽出された人候補領域の例を示した図である。 図16は、人候補領域に対して推定された人候補領域動きベクトル1501の例を示した図である。 図17は、警告装置1600の機能的構成例を示した図である。 図18は、自車走行比較部1602による衝突可能性の判定例を示した図である。 図19は、車両と並走する歩道上の自転車が交差点で巻き込み事故を起こす様子を示した図である。 図20は、同一の対象を観測する可視光画像及び遠赤外線画像用いて物体を検出するための処理手順を示したフローチャートである。
 以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。
 図1は、本技術が適用され得る移動体制御システムの一例である車両制御システム100の概略的な機能の構成例を示すブロック図である。
 なお、以下、車両制御システム100が設けられている車両を他の車両と区別する場合、自車又は自車両と称する。
 車両制御システム100は、入力部101、データ取得部102、通信部103、車内機器104、出力制御部105、出力部106、駆動系制御部107、駆動系システム108、ボディ系制御部109、ボディ系システム110、記憶部111、及び、自動運転制御部112を備える。入力部101、データ取得部102、通信部103、出力制御部105、駆動系制御部107、ボディ系制御部109、記憶部111、及び、自動運転制御部112は、通信ネットワーク121を介して、相互に接続されている。通信ネットワーク121は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、又は、FlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークやバス等からなる。なお、車両制御システム100の各部は、通信ネットワーク121を介さずに、直接接続される場合もある。
 なお、以下、車両制御システム100の各部が、通信ネットワーク121を介して通信を行う場合、通信ネットワーク121の記載を省略するものとする。例えば、入力部101と自動運転制御部112が、通信ネットワーク121を介して通信を行う場合、単に入力部101と自動運転制御部112が通信を行うと記載する。
 入力部101は、搭乗者が各種のデータや指示等の入力に用いる装置を備える。例えば、入力部101は、タッチパネル、ボタン、マイクロフォン、スイッチ、及び、レバー等の操作デバイス、並びに、音声やジェスチャ等により手動操作以外の方法で入力可能な操作デバイス等を備える。また、例えば、入力部101は、赤外線若しくはその他の電波を利用したリモートコントロール装置、又は、車両制御システム100の操作に対応したモバイル機器若しくはウェアラブル機器等の外部接続機器であってもよい。入力部101は、搭乗者により入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム100の各部に供給する。
 データ取得部102は、車両制御システム100の処理に用いるデータを取得する各種のセンサ等を備え、取得したデータを、車両制御システム100の各部に供給する。
 例えば、データ取得部102は、自車の状態等を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ジャイロセンサ、加速度センサ、慣性計測装置(IMU)、及び、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数、モータ回転数、若しくは、車輪の回転速度等を検出するためのセンサ等を備える。
 また、例えば、データ取得部102は、自車の外部の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ、及び、その他のカメラ等の撮像装置を備える。また、例えば、データ取得部102は、天候又は気象等を検出するための環境センサ、及び、自車の周囲の物体を検出するための周囲情報検出センサを備える。環境センサは、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ等からなる。周囲情報検出センサは、例えば、超音波センサ、レーダ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー等からなる。
 さらに、例えば、データ取得部102は、自車の現在位置を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、GNSS(Global Navigation Satellite System)衛星からのGNSS信号を受信するGNSS受信機等を備える。
 また、例えば、データ取得部102は、車内の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、運転者を撮像する撮像装置、運転者の生体情報を検出する生体センサ、及び、車室内の音声を集音するマイクロフォン等を備える。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座っている搭乗者又はステアリングホイールを握っている運転者の生体情報を検出する。
 通信部103は、車内機器104、並びに、車外の様々な機器、サーバ、基地局等と通信を行い、車両制御システム100の各部から供給されるデータを送信したり、受信したデータを車両制御システム100の各部に供給したりする。なお、通信部103がサポートする通信プロトコルは、特に限定されるものではなく、また、通信部103が、複数の種類の通信プロトコルをサポートすることも可能である
 例えば、通信部103は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)、又は、WUSB(Wireless USB)等により、車内機器104と無線通信を行う。また、例えば、通信部103は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)、又は、MHL(Mobile High-definition Link)等により、車内機器104と有線通信を行う。
 さらに、例えば、通信部103は、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)との通信を行う。また、例えば、通信部103は、P2P(Peer To Peer)技術を用いて、自車の近傍に存在する端末(例えば、歩行者若しくは店舗の端末、又は、MTC(Machine Type Communication)端末)との通信を行う。さらに、例えば、通信部103は、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、自車と家との間(Vehicle to Home)の通信、及び、歩車間(Vehicle to Pedestrian)通信等のV2X通信を行う。また、例えば、通信部103は、ビーコン受信部を備え、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行規制又は所要時間等の情報を取得する。
 車内機器104は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、自車に搬入され若しくは取り付けられる情報機器、及び、任意の目的地までの経路探索を行うナビゲーション装置等を含む。
 出力制御部105は、自車の搭乗者又は車外に対する各種の情報の出力を制御する。例えば、出力制御部105は、視覚情報(例えば、画像データ)及び聴覚情報(例えば、音声データ)のうちの少なくとも1つを含む出力信号を生成し、出力部106に供給することにより、出力部106からの視覚情報及び聴覚情報の出力を制御する。具体的には、例えば、出力制御部105は、データ取得部102の異なる撮像装置により撮像された画像データを合成して、俯瞰画像又はパノラマ画像等を生成し、生成した画像を含む出力信号を出力部106に供給する。また、例えば、出力制御部105は、衝突、接触、危険地帯への進入等の危険に対する警告音又は警告メッセージ等を含む音声データを生成し、生成した音声データを含む出力信号を出力部106に供給する。
 出力部106は、自車の搭乗者又は車外に対して、視覚情報又は聴覚情報を出力することが可能な装置を備える。例えば、出力部106は、表示装置、インストルメントパネル、オーディオスピーカ、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ、ランプ等を備える。出力部106が備える表示装置は、通常のディスプレイを有する装置以外にも、例えば、ヘッドアップディスプレイ、透過型ディスプレイ、AR(Augmented Reality)表示機能を有する装置等の運転者の視野内に視覚情報を表示する装置であってもよい。
 駆動系制御部107は、各種の制御信号を生成し、駆動系システム108に供給することにより、駆動系システム108の制御を行う。また、駆動系制御部107は、必要に応じて、駆動系システム108以外の各部に制御信号を供給し、駆動系システム108の制御状態の通知等を行う。
 駆動系システム108は、自車の駆動系に関わる各種の装置を備える。例えば、駆動系システム108は、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、舵角を調節するステアリング機構、制動力を発生させる制動装置、ABS(Antilock Brake System)、ESC(Electronic Stability Control)、並びに、電動パワーステアリング装置等を備える。
 ボディ系制御部109は、各種の制御信号を生成し、ボディ系システム110に供給することにより、ボディ系システム110の制御を行う。また、ボディ系制御部109は、必要に応じて、ボディ系システム110以外の各部に制御信号を供給し、ボディ系システム110の制御状態の通知等を行う。
 ボディ系システム110は、車体に装備されたボディ系の各種の装置を備える。例えば、ボディ系システム110は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、パワーシート、ステアリングホイール、空調装置、及び、各種ランプ(例えば、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカ、フォグランプ等)等を備える。
 記憶部111は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、及び、光磁気記憶デバイス等を備える。記憶部111は、車両制御システム100の各部が用いる各種プログラムやデータ等を記憶する。例えば、記憶部111は、ダイナミックマップ等の3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ、及び、自車の周囲の情報を含むローカルマップ等の地図データを記憶する。
 自動運転制御部112は、自律走行又は運転支援等の自動運転に関する制御を行う。具体的には、例えば、自動運転制御部112は、自車の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、自車の衝突警告、又は、自車のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行う。また、例えば、自動運転制御部112は、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行う。自動運転制御部112は、検出部131、自己位置推定部132、状況分析部133、計画部134、及び、動作制御部135を備える。
 検出部131は、自動運転の制御に必要な各種の情報の検出を行う。検出部131は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143を備える。
 車外情報検出部141は、車両制御システム100の各部からのデータ又は信号に基づいて、自車の外部の情報の検出処理を行う。例えば、車外情報検出部141は、自車の周囲の物体の検出処理、認識処理、及び、追跡処理、並びに、物体までの距離の検出処理を行う。検出対象となる物体には、例えば、車両、人、障害物、構造物、道路、信号機、交通標識、道路標示等が含まれる。また、例えば、車外情報検出部141は、自車の周囲の環境の検出処理を行う。検出対象となる周囲の環境には、例えば、天候、気温、湿度、明るさ、及び、路面の状態等が含まれる。車外情報検出部141は、検出処理の結果を示すデータを自己位置推定部132、状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153、並びに、動作制御部135の緊急事態回避部171等に供給する。
 車内情報検出部142は、車両制御システム100の各部からのデータ又は信号に基づいて、車内の情報の検出処理を行う。例えば、車内情報検出部142は、運転者の認証処理及び認識処理、運転者の状態の検出処理、搭乗者の検出処理、及び、車内の環境の検出処理等を行う。検出対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線方向等が含まれる。検出対象となる車内の環境には、例えば、気温、湿度、明るさ、臭い等が含まれる。車内情報検出部142は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
 車両状態検出部143は、車両制御システム100の各部からのデータ又は信号に基づいて、自車の状態の検出処理を行う。検出対象となる自車の状態には、例えば、速度、加速度、舵角、異常の有無及び内容、運転操作の状態、パワーシートの位置及び傾き、ドアロックの状態、並びに、その他の車載機器の状態等が含まれる。車両状態検出部143は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
 自己位置推定部132は、車外情報検出部141、及び、状況分析部133の状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、自車の位置及び姿勢等の推定処理を行う。また、自己位置推定部132は、必要に応じて、自己位置の推定に用いるローカルマップ(以下、自己位置推定用マップと称する)を生成する。自己位置推定用マップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いた高精度なマップとされる。自己位置推定部132は、推定処理の結果を示すデータを状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153等に供給する。また、自己位置推定部132は、自己位置推定用マップを記憶部111に記憶させる。
 状況分析部133は、自車及び周囲の状況の分析処理を行う。状況分析部133は、マップ解析部151、交通ルール認識部152、状況認識部153、及び、状況予測部154を備える。
 マップ解析部151は、自己位置推定部132及び車外情報検出部141等の車両制御システム100の各部からのデータ又は信号を必要に応じて用いながら、記憶部111に記憶されている各種のマップの解析処理を行い、自動運転の処理に必要な情報を含むマップを構築する。マップ解析部151は、構築したマップを、交通ルール認識部152、状況認識部153、状況予測部154、並びに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
 交通ルール認識部152は、自己位置推定部132、車外情報検出部141、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車の周囲の交通ルールの認識処理を行う。この認識処理により、例えば、自車の周囲の信号の位置及び状態、自車の周囲の交通規制の内容、並びに、走行可能な車線等が認識される。交通ルール認識部152は、認識処理の結果を示すデータを状況予測部154等に供給する。
 状況認識部153は、自己位置推定部132、車外情報検出部141、車内情報検出部142、車両状態検出部143、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車に関する状況の認識処理を行う。例えば、状況認識部153は、自車の状況、自車の周囲の状況、及び、自車の運転者の状況等の認識処理を行う。また、状況認識部153は、必要に応じて、自車の周囲の状況の認識に用いるローカルマップ(以下、状況認識用マップと称する)を生成する。状況認識用マップは、例えば、占有格子地図(Occupancy Grid Map)とされる。
 認識対象となる自車の状況には、例えば、自車の位置、姿勢、動き(例えば、速度、加速度、移動方向等)、並びに、異常の有無及び内容等が含まれる。認識対象となる自車の周囲の状況には、例えば、周囲の静止物体の種類及び位置、周囲の動物体の種類、位置及び動き(例えば、速度、加速度、移動方向等)、周囲の道路の構成及び路面の状態、並びに、周囲の天候、気温、湿度、及び、明るさ等が含まれる。認識対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線の動き、並びに、運転操作等が含まれる。
 状況認識部153は、認識処理の結果を示すデータ(必要に応じて、状況認識用マップを含む)を自己位置推定部132及び状況予測部154等に供給する。また、状況認識部153は、状況認識用マップを記憶部111に記憶させる。
 状況予測部154は、マップ解析部151、交通ルール認識部152及び状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、自車に関する状況の予測処理を行う。例えば、状況予測部154は、自車の状況、自車の周囲の状況、及び、運転者の状況等の予測処理を行う。
 予測対象となる自車の状況には、例えば、自車の挙動、異常の発生、及び、走行可能距離等が含まれる。予測対象となる自車の周囲の状況には、例えば、自車の周囲の動物体の挙動、信号の状態の変化、及び、天候等の環境の変化等が含まれる。予測対象となる運転者の状況には、例えば、運転者の挙動及び体調等が含まれる。
 状況予測部154は、予測処理の結果を示すデータを、交通ルール認識部152及び状況認識部153からのデータとともに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
 ルート計画部161は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、目的地までのルートを計画する。例えば、ルート計画部161は、グローバルマップに基づいて、現在位置から指定された目的地までのルートを設定する。また、例えば、ルート計画部161は、渋滞、事故、通行規制、工事等の状況、及び、運転者の体調等に基づいて、適宜ルートを変更する。ルート計画部161は、計画したルートを示すデータを行動計画部162等に供給する。
 行動計画部162は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、ルート計画部161により計画されたルートを計画された時間内で安全に走行するための自車の行動を計画する。例えば、行動計画部162は、発進、停止、進行方向(例えば、前進、後退、左折、右折、方向転換等)、走行車線、走行速度、及び、追い越し等の計画を行う。行動計画部162は、計画した自車の行動を示すデータを動作計画部163等に供給する
 動作計画部163は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、行動計画部162により計画された行動を実現するための自車の動作を計画する。例えば、動作計画部163は、加速、減速、及び、走行軌道等の計画を行う。動作計画部163は、計画した自車の動作を示すデータを、動作制御部135の加減速制御部172及び方向制御部173等に供給する。
 動作制御部135は、自車の動作の制御を行う。動作制御部135は、緊急事態回避部171、加減速制御部172、及び、方向制御部173を備える。
 緊急事態回避部171は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143の検出結果に基づいて、衝突、接触、危険地帯への進入、運転者の異常、車両の異常等の緊急事態の検出処理を行う。緊急事態回避部171は、緊急事態の発生を検出した場合、急停車や急旋回等の緊急事態を回避するための自車の動作を計画する。緊急事態回避部171は、計画した自車の動作を示すデータを加減速制御部172及び方向制御部173等に供給する。
 加減速制御部172は、動作計画部163又は緊急事態回避部171により計画された自車の動作を実現するための加減速制御を行う。例えば、加減速制御部172は、計画された加速、減速、又は、急停車を実現するための駆動力発生装置又は制動装置の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
 方向制御部173は、動作計画部163又は緊急事態回避部171により計画された自車の動作を実現するための方向制御を行う。例えば、方向制御部173は、動作計画部163又は緊急事態回避部171により計画された走行軌道又は急旋回を実現するためのステアリング機構の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
 昼夜を問わず、車両と併走する歩道上のランナーや自転車などが、交差点で巻き込まれる事故が多発している。これは、車道と歩道が街路樹や柵で仕切られているような場合には、車両側から歩道上の人を検出するのが困難なためである。図19に示すように、歩道が車道と歩道の間に街路樹で仕切られていると、歩道が街路樹によって隠れてしまうので、交差点など街路樹が途切れるまでは、歩道を歩いている歩行者や自転車を車両側から認知するのは難しい。特に、歩道上のランナーや自転車などが車両と並走している場合には、交差点に差し掛かるまでは車両側からランナーや自転車を認知し難く、巻き込みが発生し易い。
 このため、可視光カメラや距離センサを車両に搭載して、自車前方の人や障害物を検出して、自動ブレーキを指せるなど障害物を回避する技術が開発されている(前述)。
 しかしながら、道路側方の人を可視光カメラで検出する際、街路樹などが障害物となって人全体が見えないことがあり、人検出の精度は低下してしまう。特に、街路樹の密度が高く、人領域が自車から見え辛い状況下では、必ずしも人検出が成功するとも限らず、フレーム毎に検出できたりできなかったりするおそれがある。また、街路樹と人との関係により、同一人物の検出可能な領域がフレーム毎に変化するため、複数フレーム間での同一人物の対応関係を求めることが困難で、その人の動きの推定が難しく、そのため、自車との衝突の危険性の判別が困難となるおそれがある。
 一方、ミリ波レーダ、LiDAR、超音波センサなどの距離センサは、対象までの距離を計測することはできるが、対象となる人と自車の間に街路樹のような障害物があった場合、街路樹と人との分離を行ったり、分離した対象のどちらが人領域であるかを判定したりすることは困難である。
 例えば、カメラと監視対象物との間に遮蔽物が存在する状況で、画像処理による監視対象物の誤検知を防止する車両周辺監視装置について提案がなされている(例えば、特許文献1を参照のこと)。この車両周辺監視装置は、レーダで認識した領域の物体を可視光カメラで撮影して認識する構成を備えているが、監視対象とカメラの間に壁などの遮蔽物があると、その遮蔽物を監視対象物と誤認識する可能性がある。そこで、この車両周辺監視装置は、カメラ画像の複雑度を求め、それが想定される対象の複雑度と異なっている場合には、遮蔽物が存在していると判断することで、誤認識を防いでいる。しかしながら、遮蔽物と監視対象物とを分別する手段として対象の複雑度を用いているため、壁のようにのっぺりした遮蔽物を分別することは可能であるが、街路樹のような複雑な遮蔽物に対しては有効とは言い難い。
 また、人の温度に相当する複数領域のうち、距離的に適切と思われる領域同士をグルーピングして、その領域の面積と形状から人かどうかを判定する人物検出装置についても提案がなされている(例えば、特許文献2を参照のこと)。この人物検出装置によれば、環境や服などの変化で、人体全体が適切な温度範囲内に入らない場合でも人検出を行うことが可能である。この人物検出装置は、一枚の遠赤外線画像内の複数の領域から人かどうかを判定するように構成されているが、遮蔽物の面積が大きく、人検出を行うのに十分な領域が確保できない場合には判定の精度が著しく低下することが懸念される。
 さらに、可視光カメラと遠赤外線カメラで同一対象を撮影し、それぞれの評価値で2値化を行い、その差分を求めることで、人の顔や手の領域を抽出する歩行者検出警報装置についても提案がなされている(例えば、特許文献3を参照のこと)。遠赤外線画像の温度情報だけで人領域を判定すると、車のテールライトのように人の温度に近い領域が含まれてしまうが、この歩行者検出警報装置は、可視光で人らしい領域を別途評価することで、正しく人領域を判別するように構成されている。この歩行者検出警報装置は、遠赤外線と可視光のそれぞれで人らしい領域を抽出する必要があるが、街路樹などの複雑なテクスチャの障害物がある場合には、どちらの方法でも人を検出するのが困難になることが懸念される。
 そこで、本明細書では、同一対象を観測する可視光カメラ及び遠赤外線カメラによる各撮像画像の処理を組み合わせて、街路樹などの複雑なテクスチャの障害物の中から人などの所望の物体を好適に検出する画像処理装置について、以下で開示する。
 図2には、本明細書で開示する技術を適用した画像処理装置200の機能的構成を模式的に示している。画像処理装置200は、図1に示した車両制御システム100内に、例えば自動運転制御部112の一構成要素として組み込むことも可能である。以下、画像処理装置200の各部の機能について、詳細に説明する。
 可視光カメラ201と遠赤外線カメラ202は、同一の対象を観測するように設置されている。可視光カメラ201が撮影した可視光画像220と遠赤外線カメラ202が撮影した遠赤外線画像221は、ともに画像処理装置200に入力される。遠赤外線画像221は、例えば10マイクロメートル付近の長波長で熱の情報を多く含む画像を撮影して、人の体温に近い温度領域を抽出することができる。
 可視光カメラ201と遠赤外線カメラ202は、例えば車両に搭載して用いられる。また、画像処理装置200も車両に搭載して用いられることが想定される。図2に示す例では、可視光カメラ201と遠赤外線カメラ202は画像処理装置200に外部接続されるが、可視光カメラ201と遠赤外線カメラ202の少なくとも一方が画像処理装置200と一体となった装置構成も想定される。また、可視光カメラ201と遠赤外線カメラ202は、図1に示した車両制御システム100のデータ取得部102の構成要素として組み込まれることが想定される。
 画像処理装置200は、グローバルモーションベクトル推定部203と、人温度領域抽出部204と、領域毎動きベクトル推定部205と、領域統合部206と、動きベクトル比較排除部207と、蓄積処理部208と、蓄積装置209と、画像合成部210と、人検出部211と、人領域動きベクトル推定部212を備えている。
 グローバルモーションベクトル推定部203は、可視光カメラ201から入力された複数の連続するフレームの可視光画像220から、画像の主体的な動き(すなわち、画像全体が画面上でどのように動いたか)を示すグローバルモーションベクトル222を求める。
 一方、人温度領域抽出部204は、遠赤外線カメラ202から入力された遠赤外線画像221から、人が取り得る温度によってマスキングされた(すなわち、人がとり得る温度範囲内の)画素領域を、人温度領域として抽出する。なお、当該画像処理装置100において、人以外の特定の対象について同様の処理を実施したい場合には、その特定の対象の特徴を表す温度範囲内の値の画素領域を抽出するように構成された特定温度領域抽出部を、人温度領域抽出部204に代えて画像処理装置100に組み込めばよい。
 領域毎動きベクトル推定部205は、人温度領域が抽出された複数の連続するフレームの遠赤外線画像223から、人温度領域毎の動き(すなわち、各人温度領域が画面上でどのように動いたか)を示す動きベクトルを求めて、動きベクトル付人温度領域が示された遠赤外線画像224を出力する。
 領域統合部206は、遠赤外線画像224に含まれる複数の動きベクトル付人温度領域の各々の動きベクトルを比較し、一定以上近い動きベクトルを持つ人温度領域同士を統合して統合領域を生成する。なお、「一定以上近い」ベクトルとは、例えば2つのベクトルのなす角度が一定以下であることを意味する(以下、同様)。そして、領域統合部206は、統合領域に含まれる各人温度領域の動きベクトル群を統合して、統合領域毎の動きベクトルを計算し、動きベクトル付統合領域が示された遠赤外線画像225を出力する。例えば、動きベクトル群の平均を計算することで、動きベクトルを統合することができる。
 街路樹や柵などの障害物越しに人を観測した遠赤外線画像221内では、同じ人の身体が複数の人温度領域に断片化されていることが想定される。同じ人の身体の人温度領域であれば互いの動きベクトルは一定以上近くなるはずである。領域統合部206は、このような前提により、一定以上近い動きベクトルを持つ人温度領域同士を同じ人のものと同定して、統合する訳である。
 なお、領域統合部206は、動きベクトル同士が一定以上近いかどうかだけでなく、対応する人温度領域間の距離が近いことも、領域を統合する条件に加えるべきである。何故ならば、ある程度以上離れた人温度領域は、動きベクトルが一定以上近くても別の人物(例えば、歩道を並走している2人のランナー)である可能性が高く、統合すべきでないからである。
 動きベクトル比較排除部207は、領域統合部206から入力される遠赤外線画像225に含まれる動きベクトル付統合領域の領域毎の動きベクトルを、グローバルモーションベクトル推定部203から入力されるグローバルモーションベクトル222と比較する。そして、動きベクトル比較排除部207は、グローバルモーションベクトル222と一定以上近い動きベクトルを持つ統合領域を遠赤外線画像225内の動きベクトル付統合領域から排除して、グローバルモーションベクトル222とは異なる動きベクトルを持つ動きベクトル付統合領域のみを残す。そして、動きベクトル比較排除部207は、残った動きベクトル付統合領域全体の動きベクトル、すなわち統合領域動きベクトルを求める。
 グローバルモーションベクトル222と一定以上近い動きベクトルを持つ動きベクトル付統合領域は、画面上での画像全体の動きに追従している、すなわち静止している物体(人)の画像であり、衝突する可能性のある障害物となり得ない。したがって、動きベクトル比較排除部207は、グローバルモーションベクトル222と動きベクトルの比較結果に基づいて、静止している物体のものと推測される動きベクトル付統合領域を推定して、遠赤外線画像225から排除することにしている訳である。
 なお、可視光カメラ201及び遠赤外光カメラ202を搭載した車両とは反対方向に移動している物体(人)の人温度領域の動きベクトルも、グローバルモーションベクトル222と一定以上近いことが想定される。このような物体も、車両と衝突する可能性はないが、動きベクトル比較排除部207はグローバルモーションベクトル222との比較結果に基づいて同様に動きベクトル付統合領域から排除することができる。
 そして、動きベクトル比較排除部207は、残った統合領域をさらに統合して排除済統合領域を生成するとともに、残った統合領域の各動きベクトルを統合して排除済統合領域の動きベクトルを計算する。さらに動きベクトル比較排除部207は、可視光カメラ201で得られた可視光画像220を入力し、排除済統合領域内の各人温度領域に対応する可視光領域を可視光画像220から抽出して、可視光動き領域を生成する。動きベクトル比較排除部207は、例えば、可視光画像220を排除済統合領域の0でない領域(人温度領域)でマスクして、残った人温度領域に対応する可視光動き領域を抽出する(可視光動き領域は、排除済統合領域として残った人温度領域を、可視光画像の対応する可視光領域で置き換えたものに相当する)。排除済統合領域から可視光画像をマスクするのは、後段の人検出部211において、遠赤外線画像よりも情報量の多い可視光画像を用いることによって、人をより正確に検出できるようにするためである。
 このようにして、動きベクトル比較排除部207は、残った人温度領域の可視光画像からなる可視光動き領域と、残った人温度領域全体の統合領域動きベクトルから構成される動きベクトル付可視光動き領域226を最終的に得ることができる。
 蓄積処理部208は、可視光動き領域と統合領域動きベクトルから構成される、複数フレーム分の動きベクトル付可視光動き領域226を、蓄積装置209に蓄積していく。複数フレームの動きベクトル付可視光動き領域226を蓄積するのは、後段の画像合成部210において時間方向に画像合成するためである。
 なお、可視光画像ではなく遠赤外線画像と統合領域動きベクトルから構成される動きベクトル付排除済統合領域を蓄積装置209に蓄積していくようにしてもよい。昼間や対象に照明が当たる場合には、可視光画像にテクスチャや色などの多くの情報が含まれるが、夜間や照明が乏しい場合には、むしろ遠赤外線画像の方がより多くの情報を含む。したがって、蓄積処理部208は、可視光カメラ201及び遠赤外線カメラ202で撮影が行われた時間帯や車外の環境光などの情報に応じて、動きベクトル付可視光動き領域又は動きベクトル付排除済統合領域のいずれかを選択的に蓄積装置209に蓄積するようにしてもよい。あるいは、蓄積処理部208は、動きベクトル付可視光動き領域及び動きベクトル付排除済統合領域の両方を蓄積装置209に蓄積していくようにしてもよい。
 また、可視光カメラ201で撮影された可視光画像(動画像)220も、蓄積装置209に蓄積(すなわち、ドライブレコーダとして録画)するようにしてもよい。蓄積装置209は、例えばSSDやHDDなどの大容量記憶装置で構成してもよい。蓄積装置209は、画像処理装置200に内蔵される他、画像処理装置200の外付け装置として構成されることも想定される。
 後半の画像合成部210、人検出部211、及び人領域動きベクトル推定部212では、時間方向に連続する複数フレームの動きベクトル付可視光動き領域227を蓄積装置209から取り出して、車両との衝突回避のための人検出並びに人の動き推定のための処理が実施される。
 なお、動きベクトル付可視光動き領域及び動きベクトル付排除済統合領域の両方が蓄積装置209に蓄積されている場合には、可視光カメラ201及び遠赤外線カメラ202で撮影が行われた時間帯や車外の環境光などの情報に応じて、動きベクトル付可視光動き領域又は動きベクトル付排除済統合領域のいずれかを選択的に蓄積装置209から取り出して、後半の処理を実施するようにしてもよい。例えば、昼と判断された場合には動きベクトル付可視光動き領域を用い、夜と判断された場合には動きベクトル付排除済統合領域を用いる。また、人検出部211は、動きベクトル付可視光動き領域又は動きベクトル付排除済統合領域のいずれかに対応する辞書に切り替えて使用する。但し、以下では説明の便宜上、動きベクトル付可視光動き領域227を用いる場合に限定して、後半の処理について説明する。
 画像合成部210は、時間方向に連続する複数フレーム分の動きベクトル付可視光動き領域227を蓄積装置209から取り出すと、各フレームの動きベクトル付可視光動き領域227の動きベクトル情報に基づいて、可視光動き領域の画面上の位置を補正してから、可視光動き領域を時間方向に合成して、合成画像228を生成する。具体的には、各フレームで得られた可視光動き領域を、その統合領域動きベクトルの逆ベクトルを使って、画面上の位置がフレーム間で(すなわち、時間方向で)変化しないように位置を補正する。そして、得られた複数フレームの画像を1枚に合成することによって、前景(街路樹などの障害物)を排除して、背景となる対象(人)の元の形状を復元して抽出することができる。画像合成部210は、生成した合成画像228を、後段の人検出部211に出力する他、表示装置240で画面表示するようにしてもよい。表示装置240は、画像処理装置100に外部接続されていてもよいし、画像処理装置100の構成要素であってもよい。表示装置240は、図1に示した車両制御システム100の出力部106が備えていてもよい。
 人検出部211は、画像合成部210から入力される合成画像228に人検出処理を施して、人候補領域229を生成する。人検出部211は、例えば機械学習を利用して人検出処理を実施する(後述)。人検出部211は、生成した人候補領域229の情報を、後段の人領域動きベクトル推定部212に出力する他、画像処理装置200の外部に出力してもよい。
 そして、人領域動きベクトル推定部212は、人検出部211から入力される人候補領域229と、蓄積装置209から取り出された複数フレームの動きベクトル付可視光動き領域227の動きベクトルから、人候補領域全体の動きを示す人候補領域動きベクトル230を推定する。例えば、人領域動きベクトル推定部212は、複数フレームにわたる排除済統合領域226や人候補領域229の動きベクトルの平均などから、人候補領域動きベクトルを算出する。もし、この人候補領域動きベクトルで推定される、一定時間後の人の位置と車両の位置が重なるおそれがある場合には、衝突の危険性があるとして、画像処理装置200から警告を発するようにしてもよい。
 図3及び図4には、可視光カメラ201が撮影した可視光画像及び遠赤外線カメラ202が撮影した遠赤外線画像の例をそれぞれ示している。但し、可視光カメラ201と遠赤外線カメラ202は、同一の対象を観測したものとする。図3に示す例では、可視光画像に、街路樹と街路樹越しの人が写っている。この場合、街路樹が障害となり、人がどこに居るのかを判別することは困難である。一方、図4に示す遠赤外線画像では、人の体温に近い温度領域を抽出すると、人らしい複数の領域を明瞭に抽出することができている。図3に示すように街路樹越しに観測する場合、人の身体が街路樹によって部分的に遮られるので、図4から分かるように、1人の人の身体が複数の領域に断片化されて抽出される。
 図5には、グローバルモーションベクトル推定部203が、可視光画像から求めた、画像の主体的な動きを示すグローバルモーションベクトルを例示している。ここでは、グローバルモーションベクトル推定部203が、図3に示した可視光画像を含む複数の連続するフレームから推定したグローバルモーションベクトルを例示している。同図中、参照番号401で示す、白抜きの大きな矢印がグローバルモーションベクトルに相当し、画像全体が画面上でどのように動いたかを表している。
 図6には、人温度領域抽出部204が、図4に示した遠赤外線画像から抽出した人温度領域を例示している。人温度領域抽出部204は、遠赤外線カメラ202から入力された遠赤外線画像221から、人が取り得る温度によってマスキングされた人温度領域を求める。図6中、白い矩形で囲まれた複数の領域が、それぞれ人温度領域に相当する。図3に示すように街路樹越しに観測する場合、人の身体が街路樹によって部分的に遮られるので、1人の人の身体が断片化されて複数の人温度領域として抽出される。
 図7には、領域毎動きベクトル推定部205から出力される、動きベクトル付人温度領域が示された遠赤外線画像を例示している。領域毎動きベクトル推定部205は、人温度領域が抽出された複数の連続するフレームの遠赤外線画像から、各人温度領域が画面上でどのように動いたかを示す動きベクトルを求める。同図中、白い矩形で示される各人温度領域にそれぞれ付けられた斜線で塗り潰した小さな矢印が、人温度領域毎に推定された動きベクトルに相当する。
 領域統合部206は、遠赤外線画像224に含まれる複数の動きベクトル付人温度領域の各々の動きベクトルを比較し、一定以上近い動きベクトルを持つ人温度領域同士を統合して統合領域を生成するとともに、統合領域に含まれる人温度領域毎の動きベクトル群から統合領域毎の動きベクトルを計算して、動きベクトル付統合領域を得る。図8には、領域統合部206が図7に示した動きベクトル付人温度領域が示された遠赤外線画像に対して領域統合処理を実施して得られた動きベクトル付統合領域と、動きベクトル付統合領域毎の動きベクトルを例示している。同図中、参照番号701、702、703でそれぞれ示す、点線で囲まれた各領域が、それぞれ動きベクトル付統合領域に相当する。また、参照番号704で示す、動きベクトル付統合領域701に付されたドットで塗り潰された矢印は、動きベクトル付統合領域701に含まれる人温度領域の動きベクトル群を統合した動きベクトルに相当する。同様に、参照番号705、706でそれぞれ示す、各々の動きベクトル付統合領域702、703に付されたドットで塗り潰された矢印は、動きベクトル付統合領域702、703毎の動きベクトルに相当する。
 図3に示したように街路樹越しに観測する場合、人の身体が街路樹によって部分的に遮られるので、1人の人の身体が断片化されて複数の人温度領域として抽出される。同じ人の人温度領域はほぼ同じ動きをするので、一定以上近い動きベクトルを持つ人温度領域は同じ人のものであると推定することができる。そこで、図8に示すように、一定以上近い動きベクトルを持つ人温度領域毎に統合して、動きベクトル付統合領域701、702、703を生成できる訳である。
 動きベクトル比較排除部207は、動きベクトル付統合領域毎の動きベクトルを、グローバルモーションベクトル推定部203から入力されるグローバルモーションと比較して、一定以上近い領域を動きベクトル付統合領域から排除する。図9には、各動きベクトル付統合領域701、702、703の動きベクトル704、705、706とグローバルモーションベクトル401とを比較している様子を例示している。また、図10には、グローバルモーションベクトルと一定以上近い動きベクトルを持つ動きベクトル付統合領域を排除した結果を示している。図10から分かるように、グローバルモーションベクトル401と一定以上近い動きベクトル704を持つ動きベクトル付統合領域701に含まれる人温度領域が排除される一方、グローバルモーションベクトル401とは異なる動きベクトル705及び706をそれぞれ持つ動きベクトル付統合領域702及び703は残されたままである。
 そして、動きベクトル比較排除部207は、残った統合領域をさらに統合して排除済統合領域を生成するとともに、残った統合領域の各動きベクトルを統合して排除済統合領域の動きベクトルを計算する。図11には、図10中の残った統合領域702及び703を統合した排除済統合領域1001と、統合領域702及び703の各動きベクトルを統合した、排除済統合領域1001の動きベクトル1002を例示している。
 さらに動きベクトル比較排除部207は、可視光カメラ201から入力した可視光画像を排除済統合領域1001中の画素値が0でない領域(すなわち、排除済統合領域内の各人温度領域)でマスクして、排除済統合領域内の各人温度領域に対応する可視光領域からなる可視光動き領域を生成する。図12には、排除済統合領域内の人温度領域に対応する可視光領域からなる可視光動き領域1101を例示している。排除済統合領域から可視光画像をマスクするのは、後段の人検出部211において、遠赤外線画像よりも情報量の多い可視光画像を用いることによって、人をより正確に検出できるようにするためである。
 蓄積処理部208は、図12に示すような可視光動き領域と、図11に示すような動きベクトルとで構成される動きベクトル付可視光動き領域を、複数フレーム分、蓄積装置209に蓄積していく。複数フレーム分の可視光動き領域を蓄積するのは、後段の画像合成部210において時間方向に画像合成するためである。また、昼間や対象に照明が当たる場合には、可視光画像にテクスチャや色などの多くの情報が含まれるが、夜間や照明が乏しい場合には、むしろ遠赤外線画像の方がより多くの情報を含む。そこで、蓄積処理部208は、可視光カメラ201及び遠赤外線カメラ202で撮影が行われた時間帯や車外の環境光などの情報に応じて、動きベクトル付可視光動き領域又は動きベクトル付排除済統合領域のいずれかを選択的に蓄積装置209に蓄積していくように制御してもよい。あるいは、蓄積処理部208は、動きベクトル付可視光動き領域及び動きベクトル付排除済統合領域の両方を蓄積装置209に蓄積していくようにしてもよい。
 後半の画像合成部210、人検出部211、及び人領域動きベクトル推定部212では、時間方向に連続する複数フレームの動きベクトル付可視光動き領域を蓄積装置209から取り出して、車両との衝突回避のための人検出並びに人の動き推定のための処理が実施される。動きベクトル付可視光動き領域及び動きベクトル付排除済統合領域の両方が蓄積装置209に蓄積されている場合には、可視光カメラ201及び遠赤外線カメラ202で撮影が行われた時間帯や車外の環境光などの情報に応じて、動きベクトル付可視光動き領域又は動きベクトル付排除済統合領域のいずれかを選択的に使用するようにしてもよい。例えば、昼と判断された場合には動きベクトル付可視光動き領域を用い、夜と判断された場合には動きベクトル付排除済統合領域を用いる。また、人検出部211は、動きベクトル付可視光動き領域又は動きベクトル付排除済統合領域のいずれかに対応する辞書に切り替えて使用する。但し、以下では説明の便宜上、動きベクトル付可視光動き領域227を用いる場合に限定して、後半の処理について説明する。
 画像合成部210は、時間方向に連続する複数フレームの動きベクトル付可視光動き領域を蓄積装置209から取り出し、その動きベクトル情報に基づいて、可視光動き領域の画面上の位置が時間方向で変化しないように位置を補正する。図13には、各フレームで得られた可視光動き領域を、その統合領域動きベクトルの逆ベクトル1201を使って、画面上の位置が時間方向で変化しないように位置補正する様子を例示している。
 そして、画像合成部210は、位置補正が施された複数の可視光画像を合成した合成画像を生成する。図14には、位置補正して得られた複数フレームの画像を1枚に合成した結果を示している。図14から分かるように、位置補正した複数のフレームを合成することによって、前景を排除して、背景となる対象(人)の元の形状を復元して抽出することができる。すなわち、1フレームでは、街路樹などの障害物に阻まれて対象の一部しか観測できなくても、複数のフレームの画像を抽出して時間方向に合成することで、背景として撮影された対象の全体像が現れてくる。
 人検出部211は、画像合成部210から入力される合成画像に人検出処理を施して、人候補領域を生成する。図15には、図14に示した合成画像から抽出された人候補領域1401の例を示している。
 人領域動きベクトル推定部212は、人検出部211から入力される人候補領域と、蓄積装置209から取り出された複数フレームの動きベクトル付可視光動き領域の動きベクトルから、人候補領域全体の動きを示す人候補領域動きベクトルを推定する。例えば、人領域動きベクトル推定部212は、複数フレームにわたる排除済統合領域や人候補領域の動きベクトルの平均などから、人候補領域動きベクトルを算出する。図16には、人検出部211によって検出された人候補領域1401に対して推定された人候補領域動きベクトル1501の例を示している。人候補領域動きベクトル1501で推定される、一定時間後の人の位置と車両の位置が重なるおそれがある場合には、衝突の危険性があるとして、画像処理装置200から警告を発するようにしてもよい。
 なお、人検出部211において、画像から人検出を行う方法の一例として、機械学習による人検出処理が挙げられる。具体的には、大量の画像データ(可視光画像、並びに遠赤外線画像)を用いて、検出した被写体が人かそうでないかをあらかじめ学習させておく。そして、類似の画像が人検出部211に入力された際に、検出した被写体が人か自転車かなどを判別する。例えば、多層のニューラルネットワークによるディープラーニングを適用してもよい。
 付言すれば、機械学習による人検出では、学習に用いられる画像データが重要になる。遠赤外線画像の場合、環境温度によって輝度が変わる他、人の服装とそれに伴う温度分布などが変わる。そこで、環境温度によって最適な辞書を適応的に切り替える処理が人検出処理に含まれても良い。また、人の手足のように動きの大きい部位を外した(胴体を中心とした)辞書データを学習して、人の(手足の)動きに依存せず高精度に検出できるようにしてもよい。
 図20には、画像処理装置200において、可視光カメラ201で撮影した可視光画像と遠赤外線カメラ202で撮影した遠赤外線画像を用いて障害物の中から人などの所望の物体を検出するための処理手順をフローチャートの形式で示している。
 グローバルモーションベクトル推定部203は、可視光カメラ201から入力された複数の連続するフレームの可視光画像220から、グローバルモーションベクトル222を求める(ステップS2001)。
 また、人温度領域抽出部204は、遠赤外線カメラ202から入力された遠赤外線画像221から、人が取り得る温度によってマスキングされた画素領域を、人温度領域として抽出する(ステップS2002)。
 次いで、領域毎動きベクトル推定部205は、ステップS2002で人温度領域が抽出された複数の連続するフレームの遠赤外線画像223から、人温度領域毎の動きを示す動きベクトルを求めて、動きベクトル付人温度領域が示された遠赤外線画像224を出力する(ステップS2003)。
 次いで、領域統合部206は、遠赤外線画像224に含まれる複数の動きベクトル付人温度領域の各々の動きベクトルを比較し、一定以上近い動きベクトルを持つ人温度領域同士を統合して統合領域を生成するとともに、統合領域に含まれる各人温度領域の動きベクトル群を統合して、統合領域毎の動きベクトルを計算し、動きベクトル付統合領域が示された遠赤外線画像225を出力する(ステップS2004)。
 動きベクトル比較排除部207は、ステップS2004で得られた動きベクトル付統合領域の領域毎の動きベクトルを、ステップS2001で得られたグローバルモーションベクトル222と比較して、グローバルモーションベクトル222と一定以上近い動きベクトルを持つ統合領域を遠赤外線画像225内の動きベクトル付統合領域から排除して(ステップS2005)、グローバルモーションベクトル222とは異なる動きベクトルを持つ動きベクトル付統合領域のみを残す。
 次いで、動きベクトル比較排除部207は、残った統合領域をさらに統合して排除済統合領域を生成するとともに、残った統合領域の各動きベクトルを統合して排除済統合領域の動きベクトルを計算する(ステップS2006)。
 さらに動きベクトル比較排除部207は、可視光カメラ201で得られた可視光画像220を入力し、排除済統合領域内の各人温度領域に対応する可視光領域を可視光画像220から抽出して、可視光動き領域を生成する(ステップS2007)。動きベクトル比較排除部207は、例えば、可視光画像220を排除済統合領域の0でない領域(人温度領域)でマスクして、残った人温度領域に対応する可視光動き領域を抽出する。
 そして、可視光動き領域と統合領域動きベクトルから構成される、複数フレーム分の動きベクトル付可視光動き領域226を、蓄積装置209に蓄積していく(ステップS2008)。
 画像合成部210は、時間方向に連続する複数フレーム分の動きベクトル付可視光動き領域227を蓄積装置209から取り出すと、各フレームの動きベクトル付可視光動き領域227の動きベクトル情報に基づいて、可視光動き領域の画面上の位置を補正してから、可視光動き領域を時間方向に合成して、合成画像228を生成する(ステップS2009)。
 次いで、人検出部211は、ステップS2009で生成された合成画像228に人検出処理を施して、人候補領域229を生成する(ステップS2010)。
 そして、人領域動きベクトル推定部212は、ステップS2010で生成された人候補領域229と、蓄積装置209から取り出された複数フレームの動きベクトル付可視光動き領域227の動きベクトルから、人候補領域全体の動きを示す人候補領域動きベクトル230を推定する(ステップS2011)。推定された人候補領域動きベクトル230と自車両に予定される移動経路を比較することによって、衝突の危険性を予測することができる。
 図17には、本明細書で開示する技術を適用した警告装置1600の機能的構成を模式的に示している。図示の警告装置1600は、図2に示した画像処理装置200から出力される合成画像、人候補領域、及び人候補領域動きベクトルなどの情報に基づいて、検出された人と車両との衝突可能性を判断して、車両のドライバに警告を促すように構成されている。図示の警告装置1600は、画像処理装置200に外部接続される他、画像処理装置200内に警告装置1600の機能が内蔵される(若しくは、警告層1600内に画像処理装置200の機能が内蔵される)、という装置構成も考えられる。
 警告装置1600は、画像処理装置200と、自車走行比較部1602と、警告部1603を備えている。
 画像処理装置200は、図2に示したものと同一の構成からなるので、ここでは詳細な説明を省略する。画像処理装置200は、同一の対象を観測するように設置された可視光カメラ201と遠赤外線カメラ202から可視光画像と遠赤外線画像を入力して、合成画像228と、人候補領域画像229と、人候補領域動きベクトル230を出力する。但し、画像処理装置200を警告装置1600の外部装置として構成して、画像処理装置200からの合成画像228と、人候補領域画像229と、人候補領域動きベクトル230を外部入力するように警告装置1600を構成することも可能である。
 自車走行情報取得部1601は、自車の走行状態を示す情報を取得する機能モジュールである。自車の走行状態を示す情報としても自車の速度、予定進路、地図上の予定到着時刻などが含まれる。自車走行情報取得部1601は、例えば、図1に示した車両制御システム100内の状況予測部154から、上記のような自車の走行状態を示す情報を取得することができる。
 自車走行比較部1602は、自車走行情報取得部1601から得られた値と、画像処理装置200から得られる人候補動きベクトル230と人候補領域229に基づいて、一定時間後の人候補と自車の相対位置関係を推定し、さらに衝突する可能性を計算して、警告部1603に渡す。自車走行比較部1602は、図1中の状況分析部133及び計画部134を利用して構成することも可能である。
 警告部1603は、一定時間後の人候補と自車が衝突する可能性が所定の閾値を超えるときには、自車のドライバに対して警告を発する。警告部1603の構成は任意である。例えば、警告画像を表示するドライバ用ディスプレイ、警告音声を出力する音声出力装置、警告ランプ、ドライバに対する振動や電気刺激を加える装置など、さまざまである。例えば警告部1603は、ドライバ用ディスプレイに、画像処理装置200から入力される合成画像228を表示して、衝突の危険性があることをドライバに提示するようにしてもよい。
 警告部1603は、図1中の緊急事態回避部171として実装することも可能である。また、警告部1603は、図1に示した車両制御システム100の出力制御部105及び出力部106を用いて警告を発することが想定される。
 図18には、自車走行比較部1602による衝突可能性の判定例を示している。
 自車走行比較部1602は、過去の自車位置1702と、現在の自車位置1704と、自車走行情報取得部1601から入力される自車の速度、予定進路などの情報に基づいて、自車が次の交差点で左折すること、及び左折する予定の時刻とその予定時刻における自車位置1706を推定する。
 また、自車走行比較部1602には、画像処理装置200から、人候補領域229と、人候補領域動きベクトル230の情報が入力される。そこで、自車走行比較部1602は、過去の自車位置1702で車載カメラ1701からその時刻の対象1703を観測したときの画像上の人候補領域の位置と、現在の自車位置1704で車載カメラからその時刻の対象1705を観測したときの画像上の人候補領域の位置の位置と、その人候補領域の動きベクトルに基づいて、自車が交差点を左折する予定の時刻における対象1707の位置を推測する。
 そして、自車走行比較部1602は、交差点を左折する予定の時刻において推定される自車位置1706と、同予定の時刻において推定される対象1707の位置関係から、衝突する可能性を計算する。
 警告部1603は、衝突の可能性がある場合、ドライバ用ディスプレイに、画像処理装置200から入力される合成画像228を表示するなどの方法により、衝突の危険性があることをドライバに提示する。
 以上説明してきたように、本明細書で開示する技術を適用した画像処理装置200によれば、目視、可視光カメラ、距離センサなどでは認識が難しい、街路樹のような障害物の先に居る人などを検出することが可能になる。そして、警告装置1600が、画像処理装置200から出力される情報に基づいて、ドライバに対して適切な警告を発することができ、これによって危険な巻き込み事故を未然に防ぐことができる。
 以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
 本明細書で開示する技術は、自動車(ガソリン車及びディーゼル車を含む)、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナル・モビリティーなどさまざまな車両に適用することができる。さらには本明細書で開示する技術は、道路を走行する車両以外の形態の移動体に適用することができる。
 また、本明細書で開示する技術は、移動体以外にも適用することができる。例えば、本明細書で開示する技術を監視カメラに適用すれば、街路樹や柵、あるいはその他の障害物越しに身体の一部しか見えない不審者の動きを捕捉することができる。
 要するに、例示という形態により本明細書で開示する技術について説明してきたが、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
 なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)可視光カメラで撮影した可視光画像から画像全体の動きを示すグローバルモーションベクトルを推定するベクトル推定部と、
 前記可視光カメラと同一の対象を撮影する遠赤外線カメラで撮影した遠赤外線画像から、ある特定の対象の特徴を表す温度範囲内の値の画素からなる特定温度領域を抽出する領域抽出部と、
 前記抽出された特定温度領域のうち、動きベクトルが近いもの同士を統合して統合領域を生成する領域統合部と、
 グローバルモーションベクトルと動きベクトルが近い統合領域を排除して排除済統合領域を求め、排除済統合領域内の特定温度領域に対応する可視光領域を前記可視光画像から抽出した可視光動き領域を生成する領域排除部と、
 排除済統合領域全体の動きベクトルに基づいて位置を補正した可視光動き領域を時間方向で合成する画像合成部と、
を具備する画像処理装置。
(2)前記画像合成部は、可視光動き領域の画面上の位置が時間方向で変化しないように位置補正する、
上記(1)に記載の画像処理装置。
(3)前記領域抽出部は、人の体温を含む前記温度範囲内の値の画素からなる特定温度領域を抽出する、
上記(1)又は(2)のいずれかに記載の画像処理装置。
(4)前記画像合成部による合成画像から前記特定の対象が存在する領域を検出する検出部をさらに備える、
上記(1)乃至(3)のいずれかに記載の画像処理装置。
(5)前記検出部は、検出した領域内の対象を判別する、
上記(4)に記載の画像処理装置。
(6)前記検出部は、環境温度に適応した辞書を利用して検出処理を実施する、
上記(5)に記載の画像処理装置。
(7)前記検出部は、環境温度に適応した辞書を利用して検出処理を実施する、
上記(5)又は(6)のいずれかに記載の画像処理装置。
(8)前記検出部が検出した前記領域の動きを推定する動き推定部をさらに備える、
上記(4)乃至(6)のいずれかに記載の画像処理装置。
(9)前記動き推定部は、複数フレームにわたって検出された前記領域の動きベクトルの平均に基づいて、前記特定の対象の動きを推定する、
上記(8)に記載の画像処理装置。
(10)前記可視光カメラ及び前記遠赤外線カメラは所定の移動体に搭載されている、
上記(1)乃至(9)のいずれかに記載の画像処理装置。
(11)前記可視光カメラ及び前記遠赤外線カメラをさらに備える、
上記(1)乃至(10)のいずれかに記載の画像処理装置。
(12)前記移動体に搭載される、
上記(10)又は(11)のいずれかに記載の画像処理装置。
(13)排除済統合領域の動きベクトルに基づいて予測される一定時間後の前記特定の対象の位置と、同時刻に前記移動体が到着することが予定される位置との相対位置を比較する比較部をさらに備える、
上記(1)乃至(12)のいずれかに記載の画像処理装置。
(14)前記相対位置に基づいて計算される、前記特定の対象と前記移動体が衝突する可能性に応じて、前記移動体の運転者に対して衝突の危険性を提示する警告部をさらに備える、
上記(13)に記載の画像処理装置。
(15)前記警告部は、前記画像合成部による合成画像を含んだ情報を提示する、
上記(14)に記載の画像処理装置。
(16)前記画像合成部は、排除済統合領域全体の動きベクトルに基づいて位置を補正した、遠赤外線画像からなる排除済統合領域を時間方向で合成する、
上記(1)乃至(15)のいずれかに記載の画像処理装置。
(17)前記画像合成部は、前記可視光カメラ及び前記遠赤外線カメラで撮影が行われた時間帯又は撮影条件に応じて、可視光動き領域又は遠赤外線画像からなる排除済統合領域の合成を実施する、
上記(16)に記載の画像処理装置。
(18)前記画像合成部による合成画像を表示する表示部をさらに備える、
上記(1)乃至(17)のいずれかに記載の画像処理装置。
(19)可視光カメラで撮影した可視光画像から画像全体の動きを示すグローバルモーションベクトルを推定するベクトル推定ステップと、
 前記可視光カメラと同一の対象を撮影する遠赤外線カメラで撮影した遠赤外線画像から、ある特定の対象の特徴を表す温度範囲内の値の画素からなる特定温度領域を抽出する領域抽出ステップと、
 前記抽出された特定温度領域のうち、動きベクトルが近いもの同士を統合して統合領域を生成する領域統合ステップと、
 グローバルモーションベクトルと動きベクトルが近い統合領域を排除して排除済統合領域を求め、排除済統合領域内の特定温度領域に対応する可視光領域を前記可視光画像から抽出した可視光動き領域を生成する領域排除ステップと、
 排除済統合領域全体の動きベクトルに基づいて位置を補正した可視光動き領域を時間方向で合成する画像合成ステップと、
を有する画像処理方法。
(20)可視光カメラで撮影した可視光画像から画像全体の動きを示すグローバルモーションベクトルを推定するベクトル推定部、
 前記可視光カメラと同一の対象を撮影する遠赤外線カメラで撮影した遠赤外線画像から、ある特定の対象の特徴を表す温度範囲内の値の画素からなる特定温度領域を抽出する領域抽出部、
 前記抽出された特定温度領域のうち、動きベクトルが近いもの同士を統合して統合領域を生成する領域統合部、
 グローバルモーションベクトルと動きベクトルが近い統合領域を排除して排除済統合領域を求め、排除済統合領域内の特定温度領域に対応する可視光領域を前記可視光画像から抽出した可視光動き領域を生成する領域排除部、
 排除済統合領域全体の動きベクトルに基づいて位置を補正した可視光動き領域を時間方向で合成する画像合成部、
としてコンピュータを機能させるようにコンピュータ可読形式で記述されたコンピュータ・プログラム。
 100…車両制御システム
 101…入力部、102…データ取得部、103…通信部
 104…車内機器、105…出力制御部、106…出力部
 107…駆動系制御部、108…駆動系システム
 109…ボディ系制御部、110…ボディ系システム、111記憶部
 112…自動運転制御部、121…通信ネットワーク
 131…検出部、132…自己位置推定部、133…状況分析部
 134…計画部、135…動作制御部
 141…車外情報検出部、142…車内情報検出部
 143…車両状態検出部
 151…マップ解析部、152…交通ルール認識部
 153…状況認識部、154…状況予測部
 161…ルート計画部、162…行動計画部、163…動作計画部
 171…緊急事態回避部、172…加減速制御部、173…方向制御部
 200…画像処理装置
 201…可視光カメラ、202…遠赤外線カメラ
 203…グローバルモーションベクトル推定部
 204…人温度領域抽出部、205…領域毎動きベクトル推定部
 206…領域統合部、207…動きベクトル比較排除部
 208…蓄積処理部、209…蓄積装置、210…画像合成部
 211…人検出部、212…人領域動きベクトル推定部
 240…表示装置
 1600…警告装置、1601…自車走行情報取得部
 1602…自車走行比較部、1603…警告部

Claims (19)

  1.  可視光カメラで撮影した可視光画像から画像全体の動きを示すグローバルモーションベクトルを推定するベクトル推定部と、
     前記可視光カメラと同一の対象を撮影する遠赤外線カメラで撮影した遠赤外線画像から、ある特定の対象の特徴を表す温度範囲内の値の画素からなる特定温度領域を抽出する領域抽出部と、
     前記抽出された特定温度領域のうち、動きベクトルが近いもの同士を統合して統合領域を生成する領域統合部と、
     グローバルモーションベクトルと動きベクトルが近い統合領域を排除して排除済統合領域を求め、排除済統合領域内の特定温度領域に対応する可視光領域を前記可視光画像から抽出した可視光動き領域を生成する領域排除部と、
     排除済統合領域全体の動きベクトルに基づいて位置を補正した可視光動き領域を時間方向で合成する画像合成部と、
    を具備する画像処理装置。
  2.  前記画像合成部は、可視光動き領域の画面上の位置が時間方向で変化しないように位置補正する、
    請求項1に記載の画像処理装置。
  3.  前記領域抽出部は、人の体温を含む前記温度範囲内の値の画素からなる特定温度領域を抽出する、
    請求項1に記載の画像処理装置。
  4.  前記画像合成部による合成画像から前記特定の対象が存在する領域を検出する検出部をさらに備える、
    請求項1に記載の画像処理装置。
  5.  前記検出部は、機械学習を利用して検出処理を実施する、
    請求項4に記載の画像処理装置。
  6.  前記検出部は、検出した領域内の対象を判別する、
    請求項5に記載の画像処理装置。
  7.  前記検出部は、環境温度に適応した辞書を利用して検出処理を実施する、
    請求項5に記載の画像処理装置。
  8.  前記検出部が検出した前記領域の動きを推定する動き推定部をさらに備える、
    請求項4に記載の画像処理装置。
  9.  前記動き推定部は、複数フレームにわたって検出された前記領域の動きベクトルの平均に基づいて、前記特定の対象の動きを推定する、
    請求項8に記載の画像処理装置。
  10.  前記可視光カメラ及び前記遠赤外線カメラは所定の移動体に搭載されている、
    請求項1に記載の画像処理装置。
  11.  前記可視光カメラ及び前記遠赤外線カメラをさらに備える、
    請求項1に記載の画像処理装置。
  12.  前記移動体に搭載される、
    請求項10に記載の画像処理装置。
  13.  排除済統合領域の動きベクトルに基づいて予測される一定時間後の前記特定の対象の位置と、同時刻に前記移動体が到着することが予定される位置との相対位置を比較する比較部をさらに備える、
    請求項1に記載の画像処理装置。
  14.  前記相対位置に基づいて計算される、前記特定の対象と前記移動体が衝突する可能性に応じて、前記移動体の運転者に対して衝突の危険性を提示する警告部をさらに備える、
    請求項13に記載の画像処理装置。
  15.  前記警告部は、前記画像合成部による合成画像を含んだ情報を提示する、
    請求項14に記載の画像処理装置。
  16.  前記画像合成部は、排除済統合領域全体の動きベクトルに基づいて位置を補正した、遠赤外線画像からなる排除済統合領域を時間方向で合成する、
    請求項1に記載の画像処理装置。
  17.  前記画像合成部は、前記可視光カメラ及び前記遠赤外線カメラで撮影が行われた時間帯又は撮影条件に応じて、可視光動き領域又は遠赤外線画像からなる排除済統合領域の合成を実施する、
    請求項16に記載の画像処理装置。
  18.  前記画像合成部による合成画像を表示する表示部をさらに備える、
    請求項1に記載の画像処理装置。
  19.  可視光カメラで撮影した可視光画像から画像全体の動きを示すグローバルモーションベクトルを推定するベクトル推定ステップと、
     前記可視光カメラと同一の対象を撮影する遠赤外線カメラで撮影した遠赤外線画像から、ある特定の対象の特徴を表す温度範囲内の値の画素からなる特定温度領域を抽出する領域抽出ステップと、
     前記抽出された特定温度領域のうち、動きベクトルが近いもの同士を統合して統合領域を生成する領域統合ステップと、
     グローバルモーションベクトルと動きベクトルが近い統合領域を排除して排除済統合領域を求め、排除済統合領域内の特定温度領域に対応する可視光領域を前記可視光画像から抽出した可視光動き領域を生成する領域排除ステップと、
     排除済統合領域全体の動きベクトルに基づいて位置を補正した可視光動き領域を時間方向で合成する画像合成ステップと、
    を有する画像処理方法。
PCT/JP2018/031296 2017-10-02 2018-08-24 画像処理装置及び画像処理方法 WO2019069581A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201880062853.4A CN111164967B (zh) 2017-10-02 2018-08-24 图像处理设备和图像处理方法
EP18865073.3A EP3694206A4 (en) 2017-10-02 2018-08-24 IMAGE PROCESSING DEVICE AND METHOD
US16/650,870 US11468574B2 (en) 2017-10-02 2018-08-24 Image processing apparatus and image processing method
JP2019546569A JP7188394B2 (ja) 2017-10-02 2018-08-24 画像処理装置及び画像処理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017192988 2017-10-02
JP2017-192988 2017-10-02

Publications (1)

Publication Number Publication Date
WO2019069581A1 true WO2019069581A1 (ja) 2019-04-11

Family

ID=65994747

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/031296 WO2019069581A1 (ja) 2017-10-02 2018-08-24 画像処理装置及び画像処理方法

Country Status (5)

Country Link
US (1) US11468574B2 (ja)
EP (1) EP3694206A4 (ja)
JP (1) JP7188394B2 (ja)
CN (1) CN111164967B (ja)
WO (1) WO2019069581A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111707372A (zh) * 2020-05-29 2020-09-25 北京都是科技有限公司 人体温度检测方法、系统、装置及图像处理器
WO2021002083A1 (en) * 2019-07-03 2021-01-07 Hitachi Automotive Systems, Ltd. Object recognition by far infrared camera
JP2021034983A (ja) * 2019-08-28 2021-03-01 Kddi株式会社 映像ストリームに影響した外的要因情報を推定するプログラム、サーバ、システム、端末及び方法
WO2021075321A1 (ja) * 2019-10-18 2021-04-22 ソニー株式会社 撮像装置、電子機器及び撮像方法
WO2021261141A1 (ja) * 2020-06-22 2021-12-30 オムロン株式会社 物体検出装置および物体検出方法
WO2022044368A1 (ja) * 2020-08-26 2022-03-03 株式会社Jvcケンウッド 機械学習装置、画像処理装置、機械学習方法、及び機械学習プログラム
JP7476144B2 (ja) 2021-07-19 2024-04-30 ダイハツ工業株式会社 衝突回避制御装置
US12002278B2 (en) 2020-04-16 2024-06-04 Hitachi Astemo, Ltd Object recognition by far infrared camera

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11282389B2 (en) * 2018-02-20 2022-03-22 Nortek Security & Control Llc Pedestrian detection for vehicle driving assistance
JP2019213164A (ja) * 2018-06-08 2019-12-12 キヤノン株式会社 画像処理装置、画像処理方法
WO2020100656A1 (ja) * 2018-11-14 2020-05-22 株式会社小糸製作所 赤外線カメラシステム、赤外線カメラモジュール及び車両
US11495067B2 (en) * 2020-08-14 2022-11-08 Johnson Controls Tyco IP Holdings LLP Security system with temperature sensing
US20220114370A1 (en) * 2020-10-12 2022-04-14 Magna Electronics Inc. Vision system for detecting objects in a swing path
CN112598743B (zh) * 2021-02-08 2023-10-13 智道网联科技(北京)有限公司 一种单目视觉图像的位姿估算方法及相关装置
CN114034399B (zh) * 2021-11-25 2023-12-22 北京环境特性研究所 一种多目标威胁度评价方法及装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS598793B2 (ja) 1977-11-16 1984-02-27 セイコーインスツルメンツ株式会社 時計の切換機構
JP2006338594A (ja) * 2005-06-06 2006-12-14 Toyota Motor Corp 歩行者認識装置
JP2007074143A (ja) * 2005-09-05 2007-03-22 Canon Inc 撮像装置及び撮像システム
JP2008077154A (ja) * 2006-09-19 2008-04-03 Honda Motor Co Ltd 車両周辺監視装置
JP2010088045A (ja) * 2008-10-02 2010-04-15 Toyota Motor Corp ナイトビューシステム、夜間歩行者表示方法
JP4734884B2 (ja) 2004-09-30 2011-07-27 日産自動車株式会社 人物検出装置及び方法
WO2012073722A1 (ja) * 2010-12-01 2012-06-07 コニカミノルタホールディングス株式会社 画像合成装置
JP5491242B2 (ja) 2010-03-19 2014-05-14 本田技研工業株式会社 車両周辺監視装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS598793A (ja) 1982-07-07 1984-01-18 Hitachi Ltd ジヤ−ナル軸受
US7688999B2 (en) * 2004-12-08 2010-03-30 Electronics And Telecommunications Research Institute Target detecting system and method
KR100651034B1 (ko) * 2004-12-08 2006-11-29 한국전자통신연구원 대상 물체 검출 시스템 및 그 방법
JP4970926B2 (ja) * 2006-01-16 2012-07-11 本田技研工業株式会社 車両周辺監視装置
JP2012019337A (ja) * 2010-07-07 2012-01-26 Olympus Corp 画像処理装置及び方法並びにプログラム
US8965056B2 (en) * 2010-08-31 2015-02-24 Honda Motor Co., Ltd. Vehicle surroundings monitoring device
CN103020656B (zh) * 2012-12-19 2016-09-14 中山大学 一种压缩红外感知实现的手势识别装置及识别方法
JP5991224B2 (ja) * 2013-02-15 2016-09-14 オムロン株式会社 画像処理装置、画像処理方法、および画像処理プログラム
CN103792515B (zh) * 2013-12-10 2016-09-28 中国船舶重工集团公司第七0九研究所 一种异平台2维雷达与红外传感器量测数据合成方法
US9437000B2 (en) * 2014-02-20 2016-09-06 Google Inc. Odometry feature matching
CN106340032B (zh) * 2016-08-27 2019-03-15 浙江捷尚视觉科技股份有限公司 一种基于光流场聚类的运动目标检测方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS598793B2 (ja) 1977-11-16 1984-02-27 セイコーインスツルメンツ株式会社 時計の切換機構
JP4734884B2 (ja) 2004-09-30 2011-07-27 日産自動車株式会社 人物検出装置及び方法
JP2006338594A (ja) * 2005-06-06 2006-12-14 Toyota Motor Corp 歩行者認識装置
JP2007074143A (ja) * 2005-09-05 2007-03-22 Canon Inc 撮像装置及び撮像システム
JP2008077154A (ja) * 2006-09-19 2008-04-03 Honda Motor Co Ltd 車両周辺監視装置
JP2010088045A (ja) * 2008-10-02 2010-04-15 Toyota Motor Corp ナイトビューシステム、夜間歩行者表示方法
JP5491242B2 (ja) 2010-03-19 2014-05-14 本田技研工業株式会社 車両周辺監視装置
WO2012073722A1 (ja) * 2010-12-01 2012-06-07 コニカミノルタホールディングス株式会社 画像合成装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3694206A4

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021002083A1 (en) * 2019-07-03 2021-01-07 Hitachi Automotive Systems, Ltd. Object recognition by far infrared camera
JP2021034983A (ja) * 2019-08-28 2021-03-01 Kddi株式会社 映像ストリームに影響した外的要因情報を推定するプログラム、サーバ、システム、端末及び方法
JP7269134B2 (ja) 2019-08-28 2023-05-08 Kddi株式会社 映像ストリームに影響した外的要因情報を推定するプログラム、サーバ、システム、端末及び方法
WO2021075321A1 (ja) * 2019-10-18 2021-04-22 ソニー株式会社 撮像装置、電子機器及び撮像方法
US12002278B2 (en) 2020-04-16 2024-06-04 Hitachi Astemo, Ltd Object recognition by far infrared camera
CN111707372A (zh) * 2020-05-29 2020-09-25 北京都是科技有限公司 人体温度检测方法、系统、装置及图像处理器
WO2021261141A1 (ja) * 2020-06-22 2021-12-30 オムロン株式会社 物体検出装置および物体検出方法
JP7435298B2 (ja) 2020-06-22 2024-02-21 オムロン株式会社 物体検出装置および物体検出方法
WO2022044368A1 (ja) * 2020-08-26 2022-03-03 株式会社Jvcケンウッド 機械学習装置、画像処理装置、機械学習方法、及び機械学習プログラム
JP7443990B2 (ja) 2020-08-26 2024-03-06 株式会社Jvcケンウッド 機械学習装置、画像処理装置、機械学習方法、及び機械学習プログラム
JP7476144B2 (ja) 2021-07-19 2024-04-30 ダイハツ工業株式会社 衝突回避制御装置

Also Published As

Publication number Publication date
JP7188394B2 (ja) 2022-12-13
US11468574B2 (en) 2022-10-11
EP3694206A1 (en) 2020-08-12
EP3694206A4 (en) 2020-08-12
CN111164967B (zh) 2022-03-29
US20200294245A1 (en) 2020-09-17
CN111164967A (zh) 2020-05-15
JPWO2019069581A1 (ja) 2020-11-19

Similar Documents

Publication Publication Date Title
JP7188394B2 (ja) 画像処理装置及び画像処理方法
KR102533860B1 (ko) 화상 처리 장치 및 화상 처리 방법
JP7136106B2 (ja) 車両走行制御装置、および車両走行制御方法、並びにプログラム
US11531354B2 (en) Image processing apparatus and image processing method
JP2019045892A (ja) 情報処理装置、情報処理方法、プログラム、及び、移動体
US11501461B2 (en) Controller, control method, and program
WO2019077999A1 (ja) 撮像装置、画像処理装置、及び、画像処理方法
US11200795B2 (en) Information processing apparatus, information processing method, moving object, and vehicle
WO2020009060A1 (ja) 情報処理装置及び情報処理方法、コンピュータプログラム、並びに移動体装置
KR20170050362A (ko) 차량운전 보조장치, 이를 포함하는 차량, 및 차량안전 시스템
WO2021241189A1 (ja) 情報処理装置、情報処理方法、およびプログラム
EP3836119A1 (en) Information processing device, mobile body, information processing method, and program
WO2019150918A1 (ja) 情報処理装置、情報処理方法、プログラム、及び移動体
WO2019073795A1 (ja) 情報処理装置、自己位置推定方法、プログラム、及び、移動体
JP2008046761A (ja) 移動体画像処理システム、装置及び方法
WO2019069599A1 (ja) 画像処理装置及び画像処理方法
WO2022024803A1 (ja) 学習モデルの生成方法、情報処理装置、情報処理システム
CN113614782A (zh) 信息处理装置、信息处理方法和程序
WO2024024471A1 (ja) 情報処理装置、情報処理方法、及び、情報処理システム
WO2024009829A1 (ja) 情報処理装置、情報処理方法および車両制御システム
WO2023171401A1 (ja) 信号処理装置、信号処理方法、および記録媒体
WO2024048180A1 (ja) 情報処理装置、情報処理方法および車両制御システム
CN117999587A (zh) 识别处理设备、识别处理方法和识别处理系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18865073

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019546569

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018865073

Country of ref document: EP

Effective date: 20200504