JP2019004329A - 異常検出装置及び車両システム - Google Patents

異常検出装置及び車両システム Download PDF

Info

Publication number
JP2019004329A
JP2019004329A JP2017117746A JP2017117746A JP2019004329A JP 2019004329 A JP2019004329 A JP 2019004329A JP 2017117746 A JP2017117746 A JP 2017117746A JP 2017117746 A JP2017117746 A JP 2017117746A JP 2019004329 A JP2019004329 A JP 2019004329A
Authority
JP
Japan
Prior art keywords
image
abnormality detection
abnormality
region
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017117746A
Other languages
English (en)
Other versions
JP6751691B2 (ja
Inventor
裕輝 梶原
Yuki Kajiwara
裕輝 梶原
紘輔 宮川
Kosuke Miyagawa
紘輔 宮川
昌樹 西部
Masaki Nishibe
昌樹 西部
健太郎 笹原
Kentaro Sasahara
健太郎 笹原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renesas Electronics Corp
Original Assignee
Renesas Electronics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renesas Electronics Corp filed Critical Renesas Electronics Corp
Priority to JP2017117746A priority Critical patent/JP6751691B2/ja
Priority to US15/975,502 priority patent/US10679102B2/en
Priority to KR1020180066726A priority patent/KR20180136895A/ko
Priority to EP18177467.0A priority patent/EP3416100A3/en
Priority to CN201810614960.5A priority patent/CN109151452B/zh
Publication of JP2019004329A publication Critical patent/JP2019004329A/ja
Priority to US16/883,003 priority patent/US11562175B2/en
Application granted granted Critical
Publication of JP6751691B2 publication Critical patent/JP6751691B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/2163Partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R2011/0001Arrangements for holding or mounting articles, not otherwise provided for characterised by position
    • B60R2011/0003Arrangements for holding or mounting articles, not otherwise provided for characterised by position inside the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Mechanical Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Abstract

【課題】画像に対する2種類の異常検出方法を処理負荷を抑制しつつ実現する。
【解決手段】異常検出装置1は、共通のアルゴリズムにより画像特徴を抽出する特徴抽出部2と、フロー算出部3と、第1の異常検出部4と、第2の異常検出部5とを有する。画像特徴の抽出範囲は、第1の画像の所定の第1の部分領域と、第2の画像の所定の第2の部分領域と、特徴点の移動先として予測される、前記第1の画像及び前記第2の画像内の位置の近傍領域である。また、第1の異常検出部4は、前記第1(第2)の部分領域内の特徴点についてのオプティカルフローに基づいて前記第1(第2)の画像の異常を検出する。また、第2の異常検出部5は、第1の重複領域内に設定された第1の重複抽出領域内の特徴点と第2の重複領域内に設定された第2の重複抽出領域内の特徴点とを用いて異常を検出する。
【選択図】図1

Description

本発明は異常検出装置及び車両システムに関する。
カメラの異常を検出する装置が知られている。例えば、特許文献1及び特許文献2に記載の技術では、複数台のカメラそれぞれにより撮像された画像の重複領域を指定又は抽出して、当該重複領域における画像の特徴を比較することによりカメラの異常を検出する。このような技術の場合、2台以上のカメラの撮影範囲が相互に重複している必要がある。このため、撮影範囲が他のカメラと重複しないカメラの異常を検出できない。
そのようなカメラの異常を検出するため、オプティカルフローの連続性を利用した異常検出方法が存在する。この方法では、所定のアルゴリズム(例えば、非特許文献1に記載のアルゴリズム)により画像内の特徴点を抽出し、この特徴点を時間的に連続する画像間において追跡する。そして、この特徴点の移動の連続性が維持されているか否かを判定することにより、撮影範囲が他のカメラと重複しないカメラの異常を検出することができる。
特開2016−15638号公報 特開平11−177964号公報
Jianbo Shi and Carlo Tomasi, "Good Features to Track", IEEE Conference on Computer Vision and Pattern Recognition, 1994, pages 593-600
2台以上のカメラの撮影範囲が相互に重複している場合、これらのカメラについて、重複領域における画像の特徴に基づく異常検出も可能であり、上述のオプティカルフローによる1台毎の異常検出も可能である。しかしながら、これらの2種類の方法を両方とも用いて異常の検出を行うと、処理時間が長くなってしまう恐れがある。
その他の課題と新規な特徴は、本明細書の記述および添付図面から明らかになるであろう。
一実施の形態によれば、異常検出装置は、共通の抽出アルゴリズムにより特徴点及び特徴量を抽出する特徴抽出部と、フロー算出部と、第1の異常検出部と、第2の異常検出部とを有する。ここで、前記特徴抽出部による前記特徴点及び前記特徴量の抽出範囲は、第1のカメラにより撮像された第1の画像の所定の第1の部分領域と、第2のカメラにより撮像された第2の画像の所定の第2の部分領域と、前記特徴点の移動先として予測される、前記第1の画像及び前記第2の画像内の位置の近傍領域である。また、前記第1の異常検出部は、前記第1の部分領域内の前記特徴点についてのオプティカルフローに基づいて前記第1の画像の異常を検出し、前記第2の部分領域内の前記特徴点についてのオプティカルフローに基づいて前記第2の画像の異常を検出する。また、前記第2の異常検出部は、第1の重複領域内に設定された第1の重複抽出領域内の前記特徴点と第2の重複領域内に設定された第2の重複抽出領域内の前記特徴点とを用いて異常を検出する。
前記一実施の形態によれば、2台以上のカメラの撮影範囲が相互に重複している場合に、第1の異常検出部による1台のカメラから取得された画像を用いた異常検出と、第2の異常検出部による2台以上のカメラのそれぞれから取得される画像の比較による異常検出との両方を、処理負荷を抑制しつつ実現することができる。
実施の形態の概要にかかる異常検出装置の構成の一例を示すブロック図である。 実施の形態1にかかる車両システムを構成する各要素の位置関係の一例を示す模式図である。 実施の形態1にかかる車両システムのハードウェア構成の一例を示すブロック図である。 実施の形態1にかかる車両システムにおける機能構成の一例を示すブロック図である。 撮影範囲、特徴抽出範囲、フロー追跡範囲、及び重複抽出領域の関係について示す模式図である。 カメラにより撮像された画像における各範囲の関係を示した模式図である。 実施の形態1にかかる車両システムによる異常判定処理の動作の一例を示すフローチャートである。 実施の形態2における比較領域について示す模式図である。 実施の形態3にかかる車両システムのハードウェア構成の一例を示すブロック図である。 実施の形態3にかかる車両システムにおける機能構成の一例を示すブロック図である。 実施の形態3にかかる車両システムによる異常判定処理の動作の一例を示すフローチャートである。
説明の明確化のため、以下の記載及び図面は、適宜、省略、及び簡略化がなされている。なお、各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。
<実施の形態の概要>
実施の形態の詳細について説明する前に、まず、実施の形態の概要について説明する。図1は、実施の形態の概要にかかる異常検出装置1の構成の一例を示すブロック図である。異常検出装置1は、特徴抽出部2と、フロー算出部3と、第1の異常検出部4と、第2の異常検出部5とを有する。
特徴抽出部2には、第1のカメラにより撮像された第1の画像と、第2のカメラにより撮像された第2の画像とが入力され、画像特徴(より詳細には、特徴点及び特徴量)を抽出する。なお、第1のカメラと第2のカメラは、動画を撮影するカメラである。ここで、第1のカメラの撮影範囲と第2のカメラの撮影範囲とは、一部が相互に重複する。特徴抽出部2は、第1の画像の特徴点及び特徴量と、第2の画像の特徴点及び特徴量とを、予め定められた抽出アルゴリズムにより抽出する。すなわち、この予め定められた抽出アルゴリズムは、第1の異常検出部4により異常の検出が行われる場合と第2の異常検出部5により異常の検出が行われる場合とで共通に用いられるアルゴリズムである。言い換えると、第1の異常検出部4による異常検出に必要とされる特徴点及び特徴量の抽出アルゴリズムと、第2の異常検出部5による異常検出に必要とされる特徴点及び特徴量の抽出アルゴリズムとは同じである。
ここで、特徴抽出部2による特徴点及び特徴量の抽出範囲は、第1の画像の所定の部分領域である第1の部分領域と、第2の画像の所定の部分領域である第2の部分領域と、特徴点の移動先として予測される、第1の画像及び前記第2の画像内の位置の近傍領域である。
フロー算出部3は、特徴抽出部2が抽出した特徴点のオプティカルフローを該特徴点の特徴量に基づいて算出する。ここで、オプティカルフローとは、時間的に連続する時系列画像における特徴点の移動を示すベクトルである。すなわち、オプティカルフローは、特定のカメラにより撮影された動画の連続するフレーム間における特徴点の移動を示すベクトルである。例えば、カメラの被写体又はカメラが等速直線運動を行っている場合、被写体に対応する特徴点は、時間的に隣接する画像フレーム間で一定の方向に一定の速度で移動する。
第1の異常検出部4は、第1の画像に対しフロー算出部3が算出したオプティカルフローに基づいて第1の画像の異常を検出する。また、第1の異常検出部4は、第2の画像に対しフロー算出部3が算出したオプティカルフローに基づいて第2の画像の異常を検出する。詳細には、第1の異常検出部4は、上記第1の部分領域(すなわち、第1の画像において、特徴点及び特徴量の抽出が行われる領域)内の特徴点についてのオプティカルフローに基づいて第1の画像の異常を検出し、第2の部分領域(すなわち、第2の画像において、特徴点及び特徴量の抽出が行われる領域)内の特徴点についてのオプティカルフローに基づいて第2の画像の異常を検出する。より詳細には、第1の異常検出部4は、上記第1の部分領域内の特徴点を所定の領域内で追跡して得られるオプティカルフローに基づいて第1の画像の異常を検出し、第2の部分領域内の特徴点を所定の領域内で追跡して得られるオプティカルフローに基づいて第2の画像の異常を検出する。
ここで、画像の異常は、当該画像の撮像に用いられたカメラの異常(故障)によって発生したものであるかもしれないし、このカメラから出力された画像情報が特徴抽出部2に入力されるまでの間に行われる任意の処理の異常(すなわち当該処理を行う装置の故障)によって発生したものであるかもしれない。このように、第1の異常検出部4による異常の検出は、1台のカメラから取得された画像を用いて、このカメラの異常又はこのカメラから出力された画像情報に行われた所定の処理の異常を検出するものである。
第2の異常検出部5は、第1の画像における第1の重複領域内の特徴点についての第1の指標値と、第2の画像における第2の重複領域内の特徴点についての第2の指標値との比較結果に基づいて、第1の画像又は第2の画像の異常を検出する。ここで、第1の重複領域とは、第1の画像における第2の画像との撮影範囲の重複領域である。第2の重複領域とは、第2の画像における第1の画像との撮影範囲の重複領域である。よって、第1の重複領域と第2の重複領域には、同一の被写体が撮像されている。
より詳細には、第2の異常検出部5は、第1の重複領域内に設定された第1の重複抽出領域内の特徴点と第2の重複領域内に設定された第2の重複抽出領域内の特徴点とを用いて異常を検出する。ここで、第1の重複抽出領域は、第1の部分領域のうち、第2の部分領域と対応する領域である。なお、第1の重複抽出領域は、第1の部分領域のうち、第2の部分領域と重なる領域とも言える。また、第2の重複抽出領域は、第2の部分領域のうち、第1の部分領域と対応する領域である。なお、第2の重複抽出領域は、第2の部分領域のうち、第1の部分領域と重なる領域とも言える。すなわち、画像中の重複抽出領域に存在する被写体は、第1の画像及び第2の画像の両方で、特徴抽出の対象となっている。
なお、第2の異常検出部5により検出される画像の異常は、第1の異常検出部4と同様、当該画像の撮像に用いられたカメラの異常(故障)によって発生したものであるかもしれないし、このカメラから出力された画像情報が特徴抽出部2に入力されるまでの間に行われる任意の処理の異常(すなわち当該処理を行う装置の故障)によって発生したものであるかもしれない。
また、上記指標値は、一例としては、第1の重複領域内の特徴点を起点とする当該特徴点のオプティカルフローであるが、第1の重複領域内の特徴点の特徴量であってもよい。なお、図1において第2の異常検出部5に延びる破線の矢印は、指標値のこのような任意性を示している。すなわち、上記指標値がオプティカルフローである場合、フロー算出部3から第2の異常検出部5へと延びるパスが存在するが、特徴抽出部2から第2の異常検出部5へと延びるパスは存在しないかもしれない。また、上記指標値が特徴量である場合、フロー算出部3から第2の異常検出部5へと延びるパスが存在しないが、特徴抽出部2から第2の異常検出部5へと延びるパスが存在するかもしれない。
ただし、図1において、各要素間を接続する矢印は、理解を容易にするために各要素の処理の関係性の一例を示したに過ぎない。すなわち、異常検出装置1において、図1に示した要素間の関係性以外の関係性が実現されることを排除するわけではない。
異常検出装置1では、上述の通り、第1の異常検出部4により、1台のカメラから取得された画像を用いた異常検出が行われ、第2の異常検出部5により、2台以上のカメラのそれぞれから取得される画像の比較による異常検出が行われる。すなわち、異常検出装置1では、第1の異常検出部4による異常検出と第2の異常検出部5による異常検出の2種類の異常検出機能を備えているため、いずれか1種類の異常検出が行われる場合に比べ、異常検出の精度が向上する。
また、異常検出装置1では、第1の異常検出部4により異常の検出を行うために必要とされる画像特徴と、第2の異常検出部5により異常の検出を行うために必要とされる画像特徴とをそれぞれ別々の抽出アルゴリズムにより抽出する訳ではない。したがって、特徴抽出部2による抽出結果を、第1の異常検出部4による異常の検出にも第2の異常検出部5による異常の検出にも用いることができる。すなわち、抽出アルゴリズムを共通化することで、複雑な処理を行うことなく、画像特徴の抽出処理を実現することができる。そして、異常検出装置1では、画像の全体の領域を画像特徴の抽出範囲とするのではなく、部分領域を画像特徴の抽出範囲としている。このため、画像特徴の抽出処理にかかる負荷を抑制することができる。
以上のことから、異常検出装置1では、2台以上のカメラの撮影範囲が相互に重複している場合に、第1の異常検出部4による異常検出と、第2の異常検出部5による異常検出との両方を、処理負荷を抑制しつつ実現することができる。
<実施の形態1>
次に実施の形態の詳細について説明する。図2は、実施の形態1にかかる車両システム10を構成する各要素の位置関係の一例を示す模式図である。車両システム10は、車両100に設置された情報入力装置としてのカメラ101A〜101Dと、車両100に設置された他の構成要素とを有している。なお、図2に示した例では、4台のカメラを図示しているが、車両システム10は、2台以上のカメラを有すればよい。図2に示した例では、他の構成要素として、ブレーキ102、ステアリング103などの制御装置、及び警告表示装置104などの情報出力装置が示されている。また、車両システム10は、ECU(Electronic Control Unit)105を有する。
カメラ101A〜101D、ブレーキ102、ステアリング103、及び警告表示装置104は、情報の認識、車両状態の判断、車両の制御、並びに通信を行うECU105に接続されている。ECU105は単独の部品であってもよいし、機能ごとに分割された複数の部品で構成されていてもよい。ECU105が複数の部品で構成されている場合、それぞれの部品は相互に情報のやり取りができる形で接続される。
ここで、カメラ101A〜101Dは、車両100の周辺の動画を撮影するカメラである。カメラ101Aは、車両100の前方を主な撮影範囲とするよう車両100の前側に設置されたカメラである。カメラ101Bは、車両100の右方向を主な撮影範囲とするよう車両100の右側に設置されたカメラである。カメラ101Cは、車両100の後方を主な撮影範囲とするよう車両100の後側に設置されたカメラである。カメラ101Dは、車両100の左方向を主な撮影範囲とするよう車両100の左側に設置されたカメラである。
ここで、カメラ101Aは、カメラ101Bと撮影範囲が一部重複するとともに、カメラ101Dと撮影範囲が一部重複するよう車両100に設置されている。カメラ101Bは、カメラ101Aと撮影範囲が一部重複するとともに、カメラ101Cと撮影範囲が一部重複するよう車両100に設置されている。カメラ101Cは、カメラ101Bと撮影範囲が一部重複するとともに、カメラ101Dと撮影範囲が一部重複するよう車両100に設置されている。カメラ101Dは、カメラ101Cと撮影範囲が一部重複するとともに、カメラ101Aと撮影範囲が一部重複するよう車両100に設置されている。なお、カメラ間の重複範囲は時間経過に伴う変動がないものとする。
次に、図3を参照して、車両システム10のより詳細な構成について説明する。図3は、車両システム10のハードウェア構成の一例を示すブロック図である。図3に示すように、ECU105は、認識用MCU(Micro Controller Unit)110と、判断用MCU111と、制御用MCU112、113とを有する。なお、車両システム10が、動画を撮影するために追加される拡張カメラ106の接続を許容する場合には、ECU105は、さらに拡張カメラ用MCU114を有する。なお、拡張カメラ106は、複数台であってもよい。なお、追加された拡張カメラ106は、他の拡張カメラ106又はカメラ101A〜101Dのいずれかと撮影範囲が一部重複するよう車両100に設置されてもよい。
認識用MCU110は、カメラ101A〜101Dにより撮像された画像及び拡張カメラ106により撮像された画像を認識するためのMCUである。認識用MCU110は、バス120A〜120Dを介して、カメラ101A〜101Dと接続している。
判断用MCU111は、車両100の状態を判断するためのMCUである。判断用MCU111は、バス121を介して警告表示装置104と接続されており、警告表示装置104の表示内容を制御する。
制御用MCU112は、ステアリング103からの入力に従って車両100を制御するためのMCUであり、バス122を介してステアリング103と接続されている。制御用MCU113は、ブレーキ102からの入力に従って車両100を制御するためのMCUであり、バス123を介してブレーキ102と接続されている。制御用MCU112と制御用MCU113は、別々のMCUである必要はなく、1つのMCUであってもよい。
拡張カメラ用MCU114は、拡張カメラ106から入力された信号を処理するMCUである。拡張カメラ用MCU114は、例えば、後述するカメラI/F142A〜142D及びキャプチャユニット143と同様の処理を行い、画像データを生成する。また、拡張カメラ用MCU114は、車内ネットワーク125に出力するデータ量を抑制するために画像データを圧縮する。なお、拡張カメラ用MCU114から出力された画像データは、車内ネットワーク125及び認識用MCU110を介して外部メモリ130に格納される。拡張カメラ用MCU114が設けられる場合には、バス124を介して拡張カメラ106が拡張カメラ用MCU114と接続することとなる。
認識用MCU110と、判断用MCU111と、制御用MCU112、113と、拡張カメラ用MCU114は、車内ネットワーク125に接続されている。
また、ECU105は、外部メモリ130を有する。外部メモリ130は、カメラ101A〜101Dにより撮像された画像及び拡張カメラ106により撮像された画像が格納されるメモリである。
ここで、認識用MCU110の構成の詳細について説明する。認識用MCU110は、車内ネットワークI/F140と、外部メモリI/F141と、カメラI/F142A〜142Dと、キャプチャユニット143と、画像処理プロセッサ150と、画像認識プロセッサ160と、CPU(Central Processing Unit)170とを有する。
車内ネットワークI/F140は、車内ネットワーク125に対し情報を入出力するためのインタフェースである。外部メモリI/F141は、外部メモリ130に対し情報を入出力するためのインタフェースである。カメラI/F142A〜142Dは、カメラ101A〜101Dから取り込んだ信号を、キャプチャユニット143が受け付ける信号形式に変換するインタフェースである。例えば、カメラI/F142A〜142Dは、入力されたシリアル信号を、パラレル信号に変換してキャプチャユニット143に出力するインタフェースである。
なお、これらのインタフェースは、専用のネットワークに接続されてもよいし、CAN(Controller Area Network)やEthernetなどといった汎用のネットワークに接続されてもよい。また、同一のバスを時分割などの方法により切り替えることにより、汎用ネットワークへの接続を実現してもよい。
キャプチャユニット143は、カメラ101A〜101Dから出力された信号に基づいて画像データを生成する回路である。キャプチャユニット143から出力された画像データは、外部メモリI/F141を介して、外部メモリ130に格納される。
画像処理プロセッサ150は、カメラ101A〜101D及び拡張カメラ106により撮像された画像に対し、所定の画像処理を行う回路である。画像処理プロセッサ150は、外部メモリ130に格納された画像データを、外部メモリI/F141を介して読み出し、所定の画像処理を行った後、画像処理後の画像データを外部メモリI/F141を介して外部メモリ130に格納する。なお、画像処理プロセッサ150により行われる所定の画像処理としては、圧縮された画像データのデコード処理もしくは撮像された画像データの歪み補正などが挙げられるが、これらに限られない。
画像認識プロセッサ160は、画像認識処理を行う回路である。画像認識プロセッサ160は、画像処理プロセッサ150による処理が行われた画像に対し、画像認識処理を行う。画像認識プロセッサ160は、外部メモリ130に格納された画像データを外部メモリI/F141を介して読み出し、所定の画像認識処理を行った後、画像認識結果を外部メモリI/F141を介して外部メモリ130に格納する。画像認識プロセッサ160は、具体的には、画像認識処理として、画像特徴(より詳細には、特徴点及び特徴量)の抽出及びオプティカルフローの算出を行う。
CPU170は、外部メモリ130又は他のメモリに格納されたプログラムを実行することにより、種々の処理を実現する。CPU170は、画像認識プロセッサ160による画像認識結果に基づいて、画像の異常を検出する異常検出処理を実行する。
本実施の形態では、画像認識プロセッサ160及びCPU170が、図1の異常検出装置1に相当する。すなわち、画像認識プロセッサ160及びCPU170は、画像処理プロセッサ150により画像処理が行われた画像データに基づいて、異常検出処理を実行する。例えば、カメラ101A〜101D、カメラI/F142A〜142D、キャプチャユニット143、及び画像処理プロセッサ150のいずれかの回路の故障が発生した場合、画像認識プロセッサ160に入力される画像に異常が発生する。本実施の形態では、これらの回路に故障が発生した場合に生じる画像の異常に基づいて、カメラ101A〜101D、カメラI/F142A〜142D、キャプチャユニット143、及び画像処理プロセッサ150の故障を検出する。なお、拡張カメラ106が用いられている場合には、拡張カメラ106及び拡張カメラ用MCU114も、故障検出の対象となる。
次に、異常検出処理に関する、車両システム10の機能構成について説明する。図4は、車両システム10における異常検出処理に関する機能構成の一例を示すブロック図である。図4に示すように、車両システム10は、異常検出装置の構成として、特徴抽出部200と、フロー算出部201と、第1の異常検出部202と、第2の異常検出部203と、総合判定部204とを有する。ここで、特徴抽出部200及びフロー算出部201は、画像認識プロセッサ160により実現される。また、第1の異常検出部202、第2の異常検出部203、及び総合判定部204は、CPU170により実現される。
特徴抽出部200は、図1に示した特徴抽出部2に相当する。すなわち、特徴抽出部200は、各カメラ(カメラ101A〜101D、及び拡張カメラ106)により撮像された画像の画像特徴(すなわち、特徴点及び特徴量)を、予め定められた抽出アルゴリズムにより抽出する。なお、カメラ101A〜101D、及び拡張カメラ106は動画を撮影するため、特徴抽出部200は時間的に連続する画像フレームのそれぞれについて画像特徴を抽出する。本実施の形態では、特徴抽出部200は、画像処理プロセッサ150による画像処理が行われた画像について、画像特徴を抽出する。
上記予め定められた抽出アルゴリズムとしては、例えば、HarrisやGoodFeaturesToTrackなどといった、学術論文により公知のアルゴリズムが挙げられる。特徴点としては、例えば、画像において、被写体の輪郭を取得でき、かつ、フレーム間での動きが追跡できる点が抽出される。そのような特徴点は、例えば、コーナーに存在するが、コーナーに限定されない。また、特徴抽出部200は、抽出した特徴点に対し、上記予め定められた抽出アルゴリズムで特徴量を算出する。
特徴抽出部200は、カメラ毎に予め設定された特徴抽出範囲(図5及び図6の特徴抽出範囲R1、R1参照)内の領域と、特徴点の移動先として推定される位置の近傍領域に対し抽出処理を実行する。なお、特徴抽出範囲と、他の範囲との関係については、図5及び図6を参照して後述する。特徴点の移動先として推定される画像内の位置は、例えば、フロー算出部201により推定される。
フロー算出部201は、図1に示したフロー算出部3に相当する。フロー算出部201は、特徴抽出部200が抽出した特徴点のオプティカルフローを特徴点の特徴量に基づいて算出する。具体的には、n−1番目の画像フレームIn−1における特徴点を特徴点An−1とすると、フロー算出部201は、画像フレームIn−1の次の画像フレームであるn番目の画像フレームIで抽出された対応する特徴点Aがどの方向に移動したかを、特徴点の特徴量を照合することにより算出する。このようにして、フロー算出部201は、複数のフレーム間における特徴点の移動を示すベクトルを算出する。例えば、フロー算出部201は、学術論文により公知のアルゴリズム(OpticalFlowLK など)を用いて、オプティカルフローを算出する。ここで、フロー算出部201は、カメラ毎に予め設定されたフロー追跡範囲(図5及び図6のフロー追跡範囲R2、R2参照)内で、特徴抽出部200で抽出された特徴点を起点としたオプティカルフローを算出する。なお、フロー追跡範囲と、他の範囲との関係については後述する
また、フロー算出部201は、特徴点の移動先の位置を推定する。フロー算出部201は、n番目までの画像フレームに基づいて既に算出されたオプティカルフローから、n+1番目の画像フレームIn+1における特徴点An+1の位置を推定する。例えば、フロー算出部201は、被写体又はカメラがほぼ等速直線運動をしていると仮定して、n+1番目の画像フレームIn+1における特徴点An+1の位置を推定する。これに対し、特徴抽出部200は、フロー算出部201により推定された位置の近傍領域(例えば、推定された位置からの距離が所定の範囲内の画像領域)に対し、画像特徴の抽出処理を実行する。
第1の異常検出部202は、図1に示した第1の異常検出部4に相当する。すなわち、第1の異常検出部202は、カメラ101Aからの画像に対しフロー算出部201が算出したオプティカルフローに基づいてカメラ101Aからの画像の異常を検出する。また、第1の異常検出部202は、カメラ101Bからの画像に対しフロー算出部201が算出したオプティカルフローに基づいて、カメラ101Bからの画像の異常を検出する。また、第1の異常検出部202は、カメラ101Cからの画像に対しフロー算出部201が算出したオプティカルフローに基づいて、カメラ101Cからの画像の異常を検出する。また、第1の異常検出部202は、カメラ101Dからの画像に対しフロー算出部201が算出したオプティカルフローに基づいて、カメラ101Dからの画像の異常を検出する。また、拡張カメラ106が設けられている場合には、第1の異常検出部202は、拡張カメラ106からの画像に対するオプティカルフローに基づいて、拡張カメラ106からの画像の異常を検出する。このように、第1の異常検出部202は、1台のカメラからの画像を用いて、このカメラからの画像の異常を検出する。
第1の異常検出部202による異常検出についてさらに説明する。なお、ここでは、カメラ101Aからの画像に対する異常検出を例に説明するが、他のカメラからの画像の異常検出も同様である。第1の異常検出部202は、特徴抽出範囲R1内の特徴点を起点とするオプティカルフローに基づいてカメラ101Aからの画像の異常を検出する。第1の異常検出部202は、被写体又はカメラがほぼ等速直線運動を行っている際の動画がカメラにより取得されているという前提のもと、オプティカルフローの連続性を判定することにより画像の異常検出を行う。
以下、第1の異常検出部202による、オプティカルフローの連続性の判定について説明する。第1の異常検出部202は、カメラからの画像についてのオプティカルフローの移動方向及び移動量の時間的な変動が所定の範囲内に収まっている場合、カメラからの画像は正常であると判定する。これに対し、第1の異常検出部202は、カメラからの画像についてのオプティカルフローの移動方向及び移動量の時間的な変動が所定の範囲内に収まっていない場合など、移動方向及び移動量の時間的な変動が所定の範囲内に収まっているオプティカルフローを取得できない場合には、画像が異常であると判定する。
カメラ101Aの被写体又はカメラ101Aが等速直線運動を行っている場合、カメラ101Aから所定のフレームレートで取得される画像フレームにおいては、時間的に隣接するフレーム間での特徴点の移動方向及び移動量は一定になる。したがって、第1の異常検出部202は、移動方向Pと移動方向Pn+1との差分が許容範囲P内であるか否か、及び移動距離Qと移動距離Qn+1との差分が許容範囲Q内であるか否かを判定する。なお、移動方向Pは、n−1番目の画像フレームIn−1内の特徴点An−1に対応する、画像フレームI内の特徴点Aの特徴点An−1からの移動方向である。移動方向Pn+1は、特徴点Aに対応する画像フレームIn+1内の特徴点An+1の特徴点Aからの移動方向である。また、移動距離Qは、特徴点Aの特徴点An−1からの移動距離であり、移動距離Qn+1は、特徴点An+1の特徴点Aからの移動距離である。
第1の異常検出部202は、移動方向Pと移動方向Pn+1との差分が許容範囲P内であり、かつ、移動距離Qと移動距離Qn+1との差分が許容範囲Q内である場合、画像が正常であると判定し、それ以外の場合、異常であると判定する。例えば、カメラ101Aから画像認識プロセッサ160までの間に存在する回路、もしくはカメラ101A自身に何らかの故障が発生して、カメラ101Aからの画像が一定間隔で入力されなくなった場合、移動方向及び移動量の時間的な変動が所定の範囲内に収まっているオプティカルフローが取得できなくなるため、第1の異常検出部202により画像の異常が検出される。なお、第1の異常検出部202による異常の検出は、被写体又はカメラが必ずしも完全な等速直線運動を行っている必要はない。すなわち、第1の異常検出部202による異常を検出するためには、被写体又はカメラが移動してさえすればよい。言い換えると、被写体又はカメラの移動方向及び移動速度が変動してもよい。これは、隣接する画像フレーム間の時間が十分に小さく、さらに、判定に際し上記許容範囲が設定されているためである。
第2の異常検出部203は、図1に示した第2の異常検出部5に相当する。すなわち、第2の異常検出部203は、複数のカメラの画像の重複領域内の特徴点のオプティカルフローを用いて画像の異常を検出する。第2の異常検出部203は、画像の異常を検出するために、撮影範囲が一部重複する少なくとも2台のカメラからの画像を必要とする。以下、第2の異常検出部203の詳細を、撮影範囲が互いに一部重複するカメラ101A及びカメラ101Bに注目して説明するが、第2の異常検出部203は、撮影範囲が互いに一部重複するカメラの他の組み合わせについても、同様の処理を行う。
第2の異常検出部203は、カメラ101Aからの画像における重複抽出領域(図5及び図6の重複抽出領域R3参照。)の特徴点のオプティカルフローと、カメラ101Bからの画像における重複抽出領域(図5及び図6の重複抽出領域R3参照)の特徴点のオプティカルフローとの比較結果に基づいて、カメラ101Aからの画像又はカメラ101Bからの画像の異常を検出する。ここで、カメラ101Aからの画像における重複抽出領域は、上記第1の重複抽出領域に相当し、カメラ101Aからの画像における特徴抽出範囲(図5及び図6の特徴抽出範囲R1参照)のうち、カメラ101Bからの画像における特徴抽出範囲(図5及び図6の特徴抽出範囲R1参照)と対応する領域である。言い換えると、カメラ101Bからの画像における重複抽出領域は、上記第2の重複抽出領域に相当し、カメラ101Bからの画像における特徴抽出範囲(図5及び図6の特徴抽出範囲R1参照)のうち、カメラ101Aからの画像における特徴抽出範囲(図5及び図6の特徴抽出範囲R1参照)と対応する領域である。
ここで、撮影範囲、特徴抽出範囲、フロー追跡範囲、重複抽出領域の関係について図5及び図6を参照して説明する。図5は、撮影範囲、特徴抽出範囲、フロー追跡範囲、及び重複抽出領域の関係について示す模式図である。なお、図5は、車両100の上部から見た場合の関係を図示している。図6は、カメラ101Aにより撮像された画像における各範囲の関係(図6の左側の図)とカメラ101Bにより撮像された画像における各範囲の関係(図6の右側の図)を示した模式図である。なお、図6に示した画像は、カメラから取得した画像に対して画像処理プロセッサ150を用いてデコード処理もしくは歪み補正などといった所定の画像処理を行って得られた矩形画像である。特徴抽出部200及びフロー算出部201は、このような矩形画像に対し、処理を行う。図5及び図6では、カメラ101A及びカメラ101Bに関する範囲のみを示すが、他のカメラについても同様に、範囲が設定される。以下、図5及び図6を参照しつつ、各範囲の関係について説明する。
図5には、カメラ101Aの撮影範囲Rと、カメラ101Bの撮影範囲Rとが、太い実線で囲まれた範囲として示されている。図6では、撮影範囲R、Rは、それぞれ一番外側の枠線で示される領域である。図5においては、撮影範囲Rと撮影範囲Rとは互いに一部が重複している。特徴抽出範囲R1は、撮影範囲Rの領域の一部の領域に予め設定される。同様に、特徴抽出範囲R1は、撮影範囲Rの領域の一部の領域に予め設定される。特に、特徴抽出範囲R1は、その少なくとも一部が、他のカメラ101Bの撮影範囲Rと重複する領域に及んでいる。同様に、特徴抽出範囲R1は、その少なくとも一部が、他のカメラ101Aの撮影範囲Rと重複する領域に及んでいる。言い換えると、他のカメラの撮影範囲と重複する領域の少なくとも一部には、特徴抽出範囲が設定されている。なお、図5及び図6において、特徴抽出範囲(R1およびR1)は、細かなハッチングにより示されている。特徴抽出範囲R1は、第1の部分領域とも称し、特徴抽出範囲R1は、第2の部分領域とも称する。
カメラ101Aに対しては、撮影範囲Rの両サイドにそれぞれ特徴抽出範囲R1が設定されている。一方の特徴抽出範囲R1は、カメラ101Bの撮影範囲Rと重なる領域の一部を含むように設定された特徴抽出範囲であり、他方の特徴抽出範囲R1は、カメラ101Dの撮影範囲(図示せず)と重なる領域の一部を含むように設定された特徴抽出範囲である。同様に、カメラ101Bに対しては、撮影範囲Rの両サイドにそれぞれ特徴抽出範囲R1が設定されている。一方の特徴抽出範囲R1は、カメラ101Aの撮影範囲Rと重なる領域の一部を含むように設定された特徴抽出範囲であり、他方の特徴抽出範囲R1は、カメラ101Cの撮影範囲(図示せず)と重なる領域の一部を含むように設定された特徴抽出範囲である。なお、図5に示した例では、特徴抽出範囲は、両カメラの撮影範囲が重なる領域の一部に設定されているが、両カメラの撮影範囲が重なる領域の全体にわたって設定されてもよい。
図5及び図6において、フロー追跡範囲は、ドットで塗りつぶされた領域(R2およびR2)として示されている。フロー追跡範囲は、特徴抽出範囲を包含するように設定される。言い換えると、フロー追跡範囲は、特徴抽出範囲よりも広く設定されている。具体的には、カメラ101Aに対するフロー追跡範囲R2は、両サイドの特徴抽出範囲R1を両方とも包含するように設定されている。同様に、カメラ101Bに対するフロー追跡範囲R2は、両サイドの特徴抽出範囲R1を両方とも包含するように設定されている。したがって、特徴抽出範囲R1は、フロー追跡範囲R2でもある。また、特徴抽出範囲R1は、フロー追跡範囲R2でもある。なお、図5及び図6において、フロー追跡範囲は、カメラの撮影範囲の一部の領域に設定されているが、フロー追跡範囲は、カメラの撮影範囲の全体にわたって設定されてもよい。
図5及び図6において、重複抽出領域(R3およびR3)は、粗いハッチングにより示された領域である。重複抽出領域は、一方のカメラによる画像の特徴抽出範囲と、他方のカメラによる画像の特徴抽出範囲とが互いに撮影範囲上で重複した部分である。カメラ101Aに対する重複抽出領域R3は、特徴抽出範囲R1でもあり、フロー追跡範囲R2でもある。同様に、カメラ101Bに対する重複抽出領域R3は、特徴抽出範囲R1でもあり、フロー追跡範囲R2でもある。
第2の異常検出部203は、カメラ101Aの画像におけるカメラ101Bの画像との重複領域内の所定の領域をオプティカルフローの追跡範囲として得られたオプティカルフローと、カメラ101Bの画像におけるカメラ101Aの画像との重複領域内の所定の領域をオプティカルフローの追跡範囲として得られたオプティカルフローと用いて、画像の異常を検出する。すなわち、第2の異常検出部203による異常検出処理のために、カメラ101Aの画像における特徴点は、カメラ101Aの画像の重複領域内の所定の領域内で追跡される。同様に、第2の異常検出部203による異常検出処理のために、カメラ101Bの画像における特徴点は、カメラ101Bの画像の重複領域内の所定の領域内で追跡される。以下の説明では、重複領域内のこの所定の領域を比較領域とも称する。なお、一方の画像の比較領域と他方の画像の比較領域は、撮影範囲が対応している。すなわち、一方の画像の比較領域に存在する被写体は、他方の画像の比較領域にも存在している。本実施の形態では、比較領域は、重複抽出領域R3、R3内に設けられた矩形領域R4、R4(図6参照)であるが、重複抽出領域R3、R3であってもよい。なお、矩形領域R4及び矩形領域R4の詳細については後述する。
これに対し、第1の異常検出部202は、第2の異常検出部203における追跡範囲よりも広い範囲を追跡範囲として得られたオプティカルフローを用いてカメラ101Aからの画像及びカメラ101Bからの画像の異常を検出する。具体的には、第1の異常検出部202による異常検出処理のために、カメラ101Aの画像における特徴点は、フロー追跡範囲R2内で追跡される。同様に、第1の異常検出部202による異常検出処理のために、カメラ101Bの画像における特徴点は、フロー追跡範囲R2内で追跡される。
第2の異常検出部203による異常検出についてさらに詳細を説明する。第2の異常検出部203は、カメラ101Aからの画像における比較領域内の特徴点のオプティカルフローについての方向毎の標本数(度数)である第1の度数分布と、カメラ101Bからの画像における比較領域内の特徴点のオプティカルフローについての方向毎の標本数(度数)である第2の度数分布とを比較することにより、異常を検出する。なお、本実施の形態では、上述の通り、この比較領域は、具体的には矩形領域R4、R4であるが、重複抽出領域R3、R3であってもよい。
例えば、第2の異常検出部203は、上記第1の度数分布として、比較領域内の特徴点のオプティカルフローに対し、移動方向のヒストグラムを作成する。また、第2の異常検出部203は、上記第2の度数分布として、比較領域内の特徴点のオプティカルフローに対し、移動方向のヒストグラムを作成する。そして、第2の異常検出部203は、両ヒストグラムの要素間の正規化相互相関を算出し、両ヒストグラムが類似しているか否かを判定する。両ヒストグラムが類似している場合、すなわち、第1の度数分布と第2の度数分布が類似していると判定した場合、第2の異常検出部203は、カメラ101Aからの画像及びカメラ101Bからの画像は、いずれも正常であると判定する。両ヒストグラムが類似していない場合、すなわち、第1の度数分布と第2の度数分布が類似していないと判定した場合、第2の異常検出部203は、カメラ101Aからの画像又はカメラ101Bからの画像のいずれかが異常であると判定する。なお、第2の異常検出部203は、比較により検出を行うため、カメラ101Aの画像とカメラ101Bの画像のうち、いずれが異常であるかは特定できない。
なお、本実施の形態では、上述の通り、第2の異常検出部203は、重複抽出領域内の予め指定された矩形領域内の特徴点のオプティカルフローを用いて度数分布を作成する。すなわち、図6で、重複抽出領域R3内において太い実線の枠で示される所定の比較領域である矩形領域R4内の特徴点と、重複抽出領域R3内において太い実線の枠で示される所定の比較領域である矩形領域R4内の特徴点とを用いて判定処理を行う。このように、本実施の形態では、第2の異常検出部203の処理では、重複抽出領域に含まれる所定の矩形領域内の特徴点が用いられるが、重複抽出領域全体の特徴点が用いられてもよいし、重複抽出領域内の任意の所定の形状の領域内の特徴点が用いられてもよい。なお、重複抽出領域内に設けられる所定の形状の領域は、重複抽出領域をはみ出さないよう、例えば車両システム10の設計段階において予め設定されている。
ところで、本実施の形態のようにカメラ101Aとカメラ101Bの撮影方向が異なる場合には、同一の被写体に対するカメラ101Aの画像上の移動方向とカメラ101Bの画像上の移動方向とは異なる。すなわち、ある被写体が空間上で方向Xに移動した場合、カメラ101Aからの画像上では当該被写体の特徴点は例えば方向Xに移動するのに対し、カメラ101Bからの画像上では当該被写体の特徴点は例えば方向Xに移動する。したがって、第2の異常検出部203は、カメラ101Aとカメラ101Bの撮影方向が異なる場合には、移動方向が正規化されたオプティカルフローについてのヒストグラムを作成する。このため、方向Xが方向Xに正規化されるようオプティカルフローの回転処理が行われ、方向Xが方向Xに正規化されるようオプティカルフローの回転処理が行われる。回転処理における回転角度は、カメラ毎に異なっており、カメラ毎の撮影方向に応じて、例えば車両システム10の設計段階において予め設定されている。したがって、カメラ101Aとカメラ101Bの撮影方向が異なる場合には、第2の異常検出部203は、例えば、カメラ101Aの画像における特徴点についてフロー算出部201により算出された移動方向を、予め指定された第1の角度だけ回転させた上で度数分布を作成する。同様に、カメラ101Bの画像における特徴点についてフロー算出部201により算出された移動方向を、予め指定された第2の角度だけ回転させた上で度数分布を作成する。ただし、カメラ101Aとカメラ101Bの撮影方向が同じである場合には、このような回転処理は必要ない。
次に総合判定部204について説明する。総合判定部204は、第1の異常検出部202による検出結果と第2の異常検出部203による検出結果とに基づいて、画像の異常の有無を最終判定する。したがって、第1の異常検出部202による異常の有無の判定及び第2の異常検出部203による異常の有無の判定は、最終判定の前段に位置付けられる仮判定といえる。
総合判定部204は、第1の異常検出部202による検出結果と第2の異常検出部203による検出結果とに基づいて、予め定められた最終判定規則にしたがって判定を行えばよい。最終判定規則としては、任意の規則を採用可能であるが、本実施の形態では総合判定部204は、一例として以下のような規則に従って最終判定を行う。
本実施の形態では、総合判定部204は、第2の異常検出部203による検出結果を第1の異常検出部202による検出結果よりも優先させて最終判定を行う。すなわち、あるカメラの画像に対して、第1の異常検出部202による検出結果と第2の異常検出部203による検出結果とが矛盾する場合、総合判定部204は、第2の異常検出部203による検出結果を採用して、このカメラの画像が異常であるか否かを最終判定する。これは、第1の異常検出部202による検出は、1台のカメラの画像だけを用いた異常判定であるのに対し、第2の異常検出部203による検出は、2台以上のカメラの画像の比較であるため、比較される両画像が同じような異常を含む可能性が低いことを鑑みると、第2の異常検出部203による検出の方が、判定精度が高いからである。
また、本実施の形態では、総合判定部204は、第2の異常検出部203の検出について、次のように扱う。なお、以下では、第2の異常検出部203における比較対象としてカメラ101Aの画像及びカメラ101Bの画像に注目して説明するが、総合判定部204は、撮影範囲が互いに一部重複するカメラの他の組み合わせについても、同様の処理を行う。
総合判定部204は、カメラ101Aの画像についての度数分布(ヒストグラム)の標本数(言い換えると、方向毎のオプティカルフローの数の総数)及びカメラ101Bの画像についての度数分布(ヒストグラム)の標本数(言い換えると、方向毎のオプティカルフローの数の総数)に基づいて、カメラ101Aの画像及びカメラ101Bの画像についての第2の異常検出部203の検出結果を最終判定のために用いるか否かを決定する。
度数分布の標本数が予め定められた数未満である場合、当該度数分布を用いた比較結果の信頼性は低いと考えられる。このため、例えば、カメラ101Aの画像についての度数分布の標本数及びカメラ101Bの画像についての度数分布の標本数がいずれも予め定められた数未満である場合、総合判定部204は、これらの度数分布に基づく第2の異常検出部203の検出結果を最終判定の際に用いない。なお、両度数分布の標本数が、いずれも予め定められた数未満である場合、第2の異常検出部203による比較処理が省略されてもよい。
これに対し、例えば、カメラ101Aの画像についての度数分布の標本数及びカメラ101Bの画像についての度数分布の標本数がいずれも予め定められた数以上である場合、総合判定部204は、これらの度数分布に基づく第2の異常検出部203の検出結果を最終判定に用いる。すなわち、総合判定部204は、この場合、これらの度数分布に基づく第2の異常検出部203の検出結果を考慮して最終判定を行う。
なお、比較される一方の度数分布の標本数が予め定められた数未満であり、比較される他方の度数分布の標本数が予め定められた数以上である場合、総合判定部204は、例えば次のようにこれらの度数分布に基づく第2の異常検出部203の検出結果を扱う。この場合、第2の異常検出部203がカメラ101Aの画像及びカメラ101Bの画像が正常であると判定したときは、総合判定部204は、これらの度数分布に基づく第2の異常検出部203の検出結果を最終判定の際に用いる。これに対し、第2の異常検出部203がカメラ101Aの画像又はカメラ101Bの画像が異常であると判定したときは、総合判定部204は、これらの度数分布に基づく第2の異常検出部203の検出結果を最終判定に用いない。
なお、カメラ101Aの画像の度数分布とカメラ101Bの画像の度数分布の比較による検出結果が総合判定部204に利用されないとしても、カメラ101Aの画像の度数分布とカメラ101Aと隣接する他のカメラであるカメラ101Dの画像の度数分布の比較による検出結果は総合判定部204に利用されうる。これは、カメラ101Aについて、一方の比較領域内の特徴点のオプティカルフローの総数が少なくとも、他方の比較領域内の特徴点のオプティカルフローの総数が多い場合があるからである。同様に、カメラ101Bの画像の度数分布とカメラ101Bと隣接する他のカメラであるカメラ101Cの画像の度数分布の比較による検出結果は総合判定部204に利用されうる。
次に、本実施の形態にかかる車両システム10による異常判定処理の動作について説明する。図7は、実施の形態1にかかる車両システム10による異常判定処理の動作の一例を示すフローチャートである。以下、図7に示すフローチャートに沿って、車両システム10による異常判定処理の動作について説明する。
ステップ100(S100)において、カメラ101A〜101Dが撮影した動画の画像が画像認識プロセッサ160に入力される。なお、拡張カメラ106が設けられている場合には、拡張カメラ106が撮影した動画の画像も画像認識プロセッサ160に入力される。
次に、ステップ101(S101)において、特徴抽出部200が、各カメラにより撮像された画像の画像特徴を抽出する。
次に、ステップ102(S101)において、フロー算出部201は、特徴抽出部200が抽出した特徴点のオプティカルフローを算出する。
次に、ステップ103(S103)及びステップ104(S104)の処理が行われる。なお、ステップ103(S103)及びステップ104(S104)の処理は、図7に示すように並列に行われてもよいが、順番に行われてもよい。
ステップ103では、第1の異常検出部202がステップ102で得られたオプティカルフローを用いて異常検出処理を行う。また、ステップ104では、第2の異常検出部203がステップ102で得られたオプティカルフローを用いて異常検出処理を行う。すなわち、ステップ101及びステップ102による処理結果は、第1の異常検出部202及び第2の異常検出部203に共用される。
次に、ステップ105(S105)において、総合判定部204が第1の異常検出部202による検出結果と第2の異常検出部203による検出結果とに基づいて、画像の異常の有無を最終判定する。画像が異常であると総合判定部204に判定された場合(ステップ106(S106)においてYes)、すなわち、故障が発生していると判定された場合、予め定められたフェイルセーフ処理が実施される(ステップ107(S107))。例えば、総合判定部204は、画像が異常であると最終判定した場合、判断用MCU111に異常の発生を通知する。判断用MCU111は、異常の発生の通知を受信すると、警告表示装置104への警告の表示及び認識用MCU110のリセット処理などといったフェイルセーフ処理を実施する。画像が正常であると総合判定部204に判定された場合(ステップ106(S106)においてNo)、通常動作が実施される(ステップ108(S108))。
以上、実施の形態1について説明した。車両システム10では、第1の異常検出部202により、1台のカメラから取得された画像を用いた異常検出が行われ、第2の異常検出部203により、2台以上のカメラのそれぞれから取得される画像の比較による異常検出が行われる。このため、いずれか1種類の異常検出が行われる場合に比べ、異常検出の精度を向上することができる。また、第1の異常検出部202のための画像特徴と第2の異常検出部203のための画像特徴は、いずれも共通の抽出アルゴリズムにより抽出される。したがって、効率的に、画像特徴の抽出処理を実現することができる。そして、車両システム10では、画像の全体の領域ではなく、部分領域をオプティカルフローの起点のための画像特徴の抽出範囲としている。このため、画像特徴の抽出処理にかかる負荷を抑制することができる。よって、車両システム10では、第1の異常検出部202による異常検出と、第2の異常検出部203による異常検出との両方を、処理負荷を抑制しつつ実現することができる。
また、第1の異常検出部202は、1台のカメラの画像から得られるオプティカルフローの時間的な変動に基づいて画像の異常を検出する。このため、1台のカメラの画像を用いた異常検出を実現することが可能である。
また、第2の異常検出部203は、複数のカメラの画像の重複領域内の特徴点のオプティカルフローを用いて画像の異常を検出する。したがって、第1の異常検出部202も第2の異常検出部203も、オプティカルフローを用いて画像の異常を検出するため、オプティカルフローの算出処理結果を、第1の異常検出部202と第2の異常検出部203とで共用できる。すなわち、異常検出にかかる処理の負荷を抑制することができる。
また、第1の異常検出部202は、第2の異常検出部203における追跡範囲よりも広い範囲を追跡範囲として得られたオプティカルフローを用いて画像の異常を検出する。第2の異常検出部203の検出は、重複領域について、複数の画像間で比較することで行われる。このため、検出のために用いることが可能な領域は限定的である。これに対し、第1の異常検出部202の検出においては、重複領域のみならず、より広い領域を利用して異常の検出を行うことができる。オプティカルフローを確実に検出するためには、追跡範囲が広い方が好ましい。本実施の形態では、上述の通り、第1の異常検出部202は、第2の異常検出部203における追跡範囲よりも広い範囲を追跡範囲としているため、第2の異常検出部203における追跡範囲と同じ範囲を追跡範囲とする場合に比べ、より確実に第1の異常検出部202のためのオプティカルフローを検出することができる。言い換えると、第1の異常検出部202と第2の異常検出部203とで追跡範囲を同じにする場合と比べ、第1の異常検出部202における異常の検出精度を向上することができる。
また、第2の異常検出部203は、一方の画像のオプティカルフローについての度数分布と、他方の画像のオプティカルフローについての度数分布とを比較することにより、異常を検出する。このため、オプティカルフローを用いた画像の比較を行うことが可能となる。
また、総合判定部204は、度数分布の標本数に基づいて、第2の異常検出部203の異常検出結果を最終判定のために用いるか否かを決定する。このため、標本数が少ないことにより度数分布の信頼性が低い場合に、第2の異常検出部203の異常検出結果が最終判定に反映されることを防ぐことができる。
また、総合判定部204は、第2の異常検出部203による検出結果を第1の異常検出部202による検出結果よりも優先させて最終判定を行う。よって、2台以上のカメラの画像を比較する判定手法であるために1台のカメラ画像を用いた判定手法よりも信頼性が高い第2の異常検出部203による検出結果が優先される。したがって、より信頼性の高い最終判定を行うことができる。
<実施の形態2>
次に実施の形態2について説明する。実施の形態1では、比較領域の形状は矩形であった。すなわち、第2の異常検出部203は、重複抽出領域内の予め指定された矩形領域(矩形領域R4、R4)内の特徴点のオプティカルフローを用いて度数分布を作成した。これに対し、実施の形態2では、比較領域の形状が円形である。すなわち、実施の形態2では、重複抽出領域内に予め指定された円形領域(図8の円形領域R5、R5)内の特徴点のオプティカルフローを用いて度数分布が作成される。以下、実施の形態2について説明するが、実施の形態1と同様の構成及び動作については説明を省略する。
上述したとおり、比較対象の複数のカメラの撮影方向が異なる場合には、移動方向が正規化されたオプティカルフローについてのヒストグラムを作成する必要がある。すなわち、カメラ毎に所定の角度だけ回転処理を行った上で、ヒストグラムを作成する必要がある。そこで、本実施の形態では、カメラの画像に対する比較領域は、中心座標(x,y)、半径r、及び回転角度θにより指定される。ここで、回転角度θは、移動方向の正規化のための角度であり、カメラの撮影方向に基づいてカメラ毎に予め定められた角度である。
図8は、実施の形態2における比較領域について示す模式図である。図8に示すように、実施の形態2にかかる第2の異常検出部203は、カメラ101Aの画像に対しフロー算出部201が算出された特徴点のオプティカルフローのうち、中心座標(x,y)、半径rで決まる範囲を角度θだけ回転させた円形領域R5の特徴点のオプティカルフローを比較対象とすることで、オプティカルフローの移動方向を角度θだけ回転させた度数分布を作成する。同様に、実施の形態2にかかる第2の異常検出部203は、カメラ101Bの画像に対しフロー算出部201が算出された特徴点のオプティカルフローのうち、中心座標(x,y)、半径rで決まる範囲を角度θだけ回転させた円形領域R5の特徴点のオプティカルフローを比較対象とすることで、オプティカルフローの移動方向を角度θだけ回転させた度数分布を作成する。そして、第2の異常検出部203は、これらの度数分布を比較することで、画像の異常の検出を行う。ここで、本実施の形態では、比較領域は円形状であるため、角度θ、θの回転を行っても比較領域の範囲は変わらない。
実施の形態1では、比較領域は矩形形状であった。この場合に、カメラの画像に対する比較領域を、例えば、矩形領域の左上の座標(x,y)、矩形の幅w、矩形の高さh、及び回転角度θにより指定することを考える。又は、比較領域を、矩形領域の左上の座標(x0,y0)、右下の座標(x1,y1)、及び回転角度θにより指定することを考える。この場合、座標で指定された矩形範囲を回転角度θだけ回転させた領域は、座標で指定された矩形範囲とは異なる範囲となってしまう。したがって、設定した座標に基づく範囲と実際に比較される範囲が一致しなくなってしまう。その結果、カメラ101Aの比較領域とカメラ101Bの比較領域が対応しない恐れがある。これに対し、本実施の形態では比較領域が円形状であり、回転させても範囲が変化しないため、カメラ101Aの比較領域とカメラ101Bの比較領域を対応させることができ、より精度良く異常検出を行うことができる。
<実施の形態3>
次に、実施の形態3について説明する。実施の形態1及び実施の形態2では、画像から得られた情報のみから画像の異常を判定した。これに対し、本実施の形態では、さらに、車両の移動情報に基づいて、カメラからの画像の異常を判定する。以下、実施の形態3について説明するが、実施の形態1及び実施の形態2と同様の構成及び動作については説明を省略する。
図9は、実施の形態3にかかる車両システム11のハードウェア構成の一例を示すブロック図である。車両システム11は、GNSS装置107及び測位用MCU115をさらに有する点で、図3に示した車両システム10と異なる。
GNSS装置107は、GNSS(Global Navigation Satellite System)信号に基づいて、車両100の測位情報を取得する端末である。測位用MCU115は、ECU105に設けられている。測位用MCU115は、バス126によりGNSS装置107と接続されており、GNSS装置107により取得された測位情報から、車両100の移動方向を示す方向情報及び移動速度を示す速度情報を演算する。また、測位用MCU115は、車内ネットワーク125に接続されており、演算結果を認識用MCU110に出力する。
図10は、車両システム11における異常検出処理に関する機能構成の一例を示すブロック図である。図10に示すように、車両システム11は、異常検出装置の構成として、特徴抽出部200と、フロー算出部201と、情報取得部205と、第1の異常検出部202と、第2の異常検出部203と、第3の異常検出部206と、総合判定部204とを有する。すなわち、情報取得部205及び第3の異常検出部206が追加された点で、図4に示す構成と異なっている。情報取得部205及び第3の異常検出部206は、第1の異常検出部202、第2の異常検出部203、及び総合判定部204と同様、例えばCPU170により実現される。
情報取得部205は、車両100の移動方向を示す方向情報と移動速度を示す速度情報とを取得する。具体的には、測位用MCU115により計算された方向情報及び速度情報を取得する。なお、これに限らず、情報取得部205は、任意の他の装置から車両の方向情報及び速度情報を取得してもよい。例えば、情報取得部205は、ステアリング103が計測した操舵角に基づいて制御用MCU112が算出した車両100の方向情報を取得してもよいし、車速センサ(図示せず)から出力された速度情報を取得してもよい。
車両の移動速度及び移動方向と、カメラの撮影方向とがわかれば、当該カメラによる画像に含まれる特徴点の移動ベクトルが算出できるため、第3の異常検出部206は、情報取得部205が取得した情報及びカメラの予め定められた撮影方向から、このカメラの画像についてのオプティカルフローを推定する。そして、第3の異常検出部206は、推定されたオプティカルフローと、フロー算出部201により算出された、このカメラの画像についての実際のオプティカルフローとを比較して、このカメラの画像の異常を検出する。第3の異常検出部206は、カメラ毎に、画像の異常の検出処理を行う。
第3の異常検出部206は、特徴抽出範囲から抽出された特徴点のオプティカルフローについての方向毎の標本数(度数)を示す度数分布(ヒストグラム)と、情報取得部205からの情報から推定されるオプティカルフローについての方向毎の標本数(度数)を示す度数分布(ヒストグラム)とを比較することにより、画像の異常を検出する。具体的には、第3の異常検出部206は、両度数分布の要素間の正規化相互相関を算出し、両度数分布が類似しているか否かを判定する。両度数分布が類似している場合、第3の異常検出部206は、比較対象の画像は正常であると判定する。両度数分布が類似していない場合、第3の異常検出部206は、比較対象の画像が異常であると判定する。例えば、車両100が移動中であるにもかかわらず、あるカメラの画像に含まれる特徴点が時間的に移動していないような場合、第3の異常検出部206は、このカメラの画像に異常が発生していることを検出できる。
なお、第2の異常検出部203による異常検出では、検出された異常が比較対象の画像のいずれに発生しているかは特定できないが、第3の異常検出部206による異常検出では、第1の異常検出部202による異常検出と同様、いずれのカメラの画像に異常が発生しているかを特定することができる。
本実施の形態の総合判定部204は、第1の異常検出部202による検出結果と、第2の異常検出部203による検出結果と、第3の異常検出部206による検出結果とに基づいて、画像の異常の有無を最終判定する。したがって、第1の異常検出部202による異常の有無の判定、第2の異常検出部203による異常の有無の判定、及び第3の異常検出部206による異常の有無の判定は、最終判定を行う前段に位置付けられる仮判定といえる。
総合判定部204は、第1の異常検出部202、第2の異常検出部203、及び第3の異常検出部206による検出結果に基づいて、予め定められた最終判定規則にしたがって判定を行えばよい。最終判定規則としては、任意の規則を採用可能である。
上述の通り、第2の異常検出部203による判定結果は、度数分布の標本数が予め定められた数未満である場合、第2の異常検出部203から信頼性のある判定結果は得られない。また、第1の異常検出部202による判定では、画像中の特徴点が移動する状況でないと正しい判定が得られない。したがって、例えば、総合判定部204は、第2の異常検出部203から信頼性のある判定結果が得られず、かつ、第1の異常検出部202からも判定結果が得られない場合、第3の異常検出部206による判定を最終判定としてもよい。
次に、本実施の形態にかかる車両システム11による異常判定処理の動作について説明する。図11は、実施の形態3にかかる車両システム11による異常判定処理の動作の一例を示すフローチャートである。なお、図11に示したフローチャートは、図7に示したフローチャートに、ステップ150(S150)及びステップ151(S151)を追加したものである。また、図11に示したフローチャートは、図7に示したフローチャートに示したステップ105(S105)をステップ152(S152)に置き換えたものである。図11に示したその他のステップについては、図7と同様である。以下、図7に示したフローチャートと異なる点について説明し、重複する説明を省略する。
車両システム11による異常判定処理の動作では、ステップ150(S150)において、情報取得部205が、車両100の移動方向を示す方向情報と移動速度を示す速度情報とを取得する。なお、図11に示した例では、ステップ150は、ステップ102の後に実施されるが、ステップ150は、ステップ151における第3の異常検出部206の処理の前の任意のタイミングに実施されてもよい。
ステップ150の後、ステップ151(S151)において、第3の異常検出部206は、ステップ150で得られた情報からオプティカルフローを推定し、推定されたオプティカルフローと、ステップ102で算出されたオプティカルフローとを比較して、異常検出処理を行う。なお、第3の異常検出部206は、カメラ毎に異常検出処理を行う。
なお、ステップ103、ステップ104、及びステップ150の処理は、図11に示すように並列に行われてもよいが、順番に行われてもよい。
次に、ステップ152(S152)において、総合判定部204が第1の異常検出部202、第2の異常検出部203、及び第3の異常検出部206による検出結果に基づいて、画像の異常の有無を最終判定する。
以上、実施の形態3について説明した。本実施の形態にかかる車両システム11は、第1の異常検出部202及び第2の異常検出部203に加え、さらに第3の異常検出部206を有する。したがって、より確実に、画像の異常を検出することができる。
以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は既に述べた実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において種々の変更が可能であることはいうまでもない。例えば、図1、図4、及び図10に示した各構成要素は、一部又は全てがハードウェア回路により実現されてもよいし、ソフトウェアにより実現されてもよい。ソフトウェアにより実現される場合、例えば、メモリにロードされたプログラムをCPUなどのプロセッサが実行することにより各構成要素が実現される。
また、上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non−transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
101A、101B、101C、101D カメラ
1 異常検出装置
2、200 特徴抽出部
3、201 フロー算出部
4、202 第1の異常検出部
5、203 第2の異常検出部
10、11 車両システム
150 画像処理プロセッサ
160 画像認識プロセッサ
170 CPU
204 総合判定部
205 情報取得部
206 第3の異常検出部
110 認識用MCU
、R撮影範囲
R1、R1特徴抽出範囲
R2、R2フロー追跡範囲
R3、R3重複抽出領域
R4、R4矩形領域
R5、R5円形領域

Claims (10)

  1. 第1のカメラにより撮像された第1の画像の特徴点及び特徴量と、前記第1のカメラと撮影範囲が一部重複する第2のカメラにより撮像された第2の画像の特徴点及び特徴量とを、予め定められた抽出アルゴリズムにより抽出する特徴抽出部と、
    前記特徴抽出部が抽出した前記特徴点のオプティカルフローを該特徴点の特徴量に基づいて算出するフロー算出部と、
    前記第1の画像に対し前記フロー算出部が算出したオプティカルフローに基づいて前記第1の画像の異常を検出し、前記第2の画像に対し前記フロー算出部が算出したオプティカルフローに基づいて前記第2の画像の異常を検出する第1の異常検出部と、
    前記第1の画像における前記第2の画像との重複領域である第1の重複領域内の前記特徴点についての第1の指標値と、前記第2の画像における前記第1の画像との重複領域である第2の重複領域内の前記特徴点についての第2の指標値との比較結果に基づいて、前記第1の画像又は前記第2の画像の異常を検出する第2の異常検出部と、
    を有し、
    前記特徴抽出部による前記特徴点及び前記特徴量の抽出範囲は、前記第1の画像の所定の部分領域である第1の部分領域と、前記第2の画像の所定の部分領域である第2の部分領域と、前記特徴点の移動先として予測される、前記第1の画像及び前記第2の画像内の位置の近傍領域であり、
    前記第1の異常検出部は、前記第1の部分領域内の前記特徴点についてのオプティカルフローに基づいて前記第1の画像の異常を検出し、前記第2の部分領域内の前記特徴点についてのオプティカルフローに基づいて前記第2の画像の異常を検出し、
    前記第2の異常検出部は、前記第1の重複領域内に設定された第1の重複抽出領域内の前記特徴点と前記第2の重複領域内に設定された第2の重複抽出領域内の前記特徴点とを用いて異常を検出し、
    前記第1の重複抽出領域は、前記第1の部分領域のうち、前記第2の部分領域と対応する領域であり、前記第2の重複抽出領域は、前記第2の部分領域のうち、前記第1の部分領域と対応する領域であり、
    前記予め定められた抽出アルゴリズムは、前記第1の異常検出部により異常の検出が行われる場合と前記第2の異常検出部により異常の検出が行われる場合とで共通に用いられる
    異常検出装置。
  2. 前記第1の指標値は、前記第1の重複抽出領域内の前記特徴点のオプティカルフローであり、
    前記第2の指標値は、前記第2の重複抽出領域内の前記特徴点のオプティカルフローである
    請求項1に記載の異常検出装置。
  3. 前記第2の異常検出部は、前記第1の重複抽出領域内に指定された所定の円形領域における前記特徴点についてのオプティカルフローと、前記第2の重複領域内かつ前記第2の部分領域内に指定された所定の円形領域における前記特徴点についてのオプティカルフローとを比較する
    請求項2に記載の異常検出装置。
  4. 前記第2の異常検出部は、前記第1の重複領域内の所定の領域をオプティカルフローの追跡範囲として得られたオプティカルフローと、前記第2の重複領域内の所定の領域をオプティカルフローの追跡範囲として得られたオプティカルフローと用い、
    前記第1の異常検出部は、前記第2の異常検出部における前記追跡範囲よりも広い範囲を追跡範囲として得られたオプティカルフローを用いて前記第1の画像及び前記第2の画像の異常を検出する
    請求項2に記載の異常検出装置。
  5. 前記第2の異常検出部は、前記第1の重複抽出領域内の前記特徴点のオプティカルフローについての方向毎の標本数である第1の度数分布と、前記第2の重複抽出領域内の前記特徴点のオプティカルフローについての方向毎の標本数である第2の度数分布とを比較することにより、異常を検出する
    請求項2に記載の異常検出装置。
  6. 前記第1の異常検出部による検出結果と前記第2の異常検出部による検出結果とに基づいて、前記第1の画像又は前記第2の画像の異常の有無を最終判定する総合判定部をさらに有し、
    前記総合判定部は、前記第1の度数分布の標本数及び前記第2の度数分布の標本数に基づいて、前記第2の異常検出部の検出結果を最終判定のために用いるか否かを決定する
    請求項5に記載の異常検出装置。
  7. 前記第1の異常検出部による検出結果と前記第2の異常検出部による検出結果とに基づいて、前記第1の画像又は前記第2の画像の異常の有無を最終判定する総合判定部をさらに有し、
    前記総合判定部は、前記第2の異常検出部による検出結果を前記第1の異常検出部による検出結果よりも優先させて最終判定を行う
    請求項1に記載の異常検出装置。
  8. 前記第1の異常検出部は、前記第1の画像についてのオプティカルフローの移動方向及び移動量の時間的な変動が所定の範囲内に収まっているか否かにより、前記第1の画像の異常を検出し、前記第2の画像についてのオプティカルフローの移動方向及び移動量の時間的な変動が所定の範囲内に収まっているか否かにより、前記第2の画像の異常を検出する
    請求項1に記載の異常検出装置。
  9. 車両に設置され、前記車両の周辺を撮影する第1のカメラと、
    前記第1のカメラと撮影範囲が一部重複するよう前記車両に設置され、前記車両の周辺を撮影する第2のカメラと、
    前記第1のカメラにより撮像された第1の画像の特徴点及び特徴量と、前記第2のカメラにより撮像された第2の画像の特徴点及び特徴量とを、予め定められた抽出アルゴリズムにより抽出する特徴抽出部と、
    前記特徴抽出部が抽出した前記特徴点のオプティカルフローを該特徴点の特徴量に基づいて算出するフロー算出部と、
    前記第1の画像に対し前記フロー算出部が算出したオプティカルフローに基づいて前記第1の画像の異常を検出し、前記第2の画像に対し前記フロー算出部が算出したオプティカルフローに基づいて前記第2の画像の異常を検出する第1の異常検出部と、
    前記第1の画像における前記第2の画像との重複領域である第1の重複領域内の前記特徴点についての第1の指標値と、前記第2の画像における前記第1の画像との重複領域である第2の重複領域内の前記特徴点についての第2の指標値との比較結果に基づいて、前記第1の画像又は前記第2の画像の異常を検出する第2の異常検出部と、
    を有し、
    前記特徴抽出部による前記特徴点及び前記特徴量の抽出範囲は、前記第1の画像の所定の部分領域である第1の部分領域と、前記第2の画像の所定の部分領域である第2の部分領域と、前記特徴点の移動先として予測される、前記第1の画像及び前記第2の画像内の位置の近傍領域であり、
    前記第1の異常検出部は、前記第1の部分領域内の前記特徴点についてのオプティカルフローに基づいて前記第1の画像の異常を検出し、前記第2の部分領域内の前記特徴点についてのオプティカルフローに基づいて前記第2の画像の異常を検出し、
    前記第2の異常検出部は、前記第1の重複領域内に設定された第1の重複抽出領域内の前記特徴点と前記第2の重複領域内に設定された第2の重複抽出領域内の前記特徴点とを用いて異常を検出し、
    前記第1の重複抽出領域は、前記第1の部分領域のうち、前記第2の部分領域と対応する領域であり、前記第2の重複抽出領域は、前記第2の部分領域のうち、前記第1の部分領域と対応する領域であり、
    前記予め定められた抽出アルゴリズムは、前記第1の異常検出部により異常の検出が行われる場合と前記第2の異常検出部により異常の検出が行われる場合とで共通に用いられる
    車両システム。
  10. 前記車両の移動方向を示す方向情報と移動速度を示す速度情報とを取得する情報取得部と、
    前記情報取得部が取得した情報及び前記第1のカメラの撮影方向から推定される前記第1の画像についてのオプティカルフローと前記フロー算出部により算出された前記第1の画像についてのオプティカルフローとを比較して、前記第1の画像の異常を検出し、前記情報取得部が取得した情報及び前記第2のカメラの撮影方向から推定される前記第2の画像についてのオプティカルフローと前記フロー算出部により算出された前記第2の画像についてのオプティカルフローとを比較して、前記第2の画像の異常を検出する第3の異常検出部と
    をさらに有する請求項9に記載の車両システム。
JP2017117746A 2017-06-15 2017-06-15 異常検出装置及び車両システム Active JP6751691B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2017117746A JP6751691B2 (ja) 2017-06-15 2017-06-15 異常検出装置及び車両システム
US15/975,502 US10679102B2 (en) 2017-06-15 2018-05-09 Abnormality detection apparatus and vehicle system
KR1020180066726A KR20180136895A (ko) 2017-06-15 2018-06-11 이상 검출 장치 및 차량 시스템
EP18177467.0A EP3416100A3 (en) 2017-06-15 2018-06-13 Abnormality detection apparatus and vehicle system
CN201810614960.5A CN109151452B (zh) 2017-06-15 2018-06-14 异常检测装置和车辆系统
US16/883,003 US11562175B2 (en) 2017-06-15 2020-05-26 Abnormality detection apparatus and vehicle system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017117746A JP6751691B2 (ja) 2017-06-15 2017-06-15 異常検出装置及び車両システム

Publications (2)

Publication Number Publication Date
JP2019004329A true JP2019004329A (ja) 2019-01-10
JP6751691B2 JP6751691B2 (ja) 2020-09-09

Family

ID=62684601

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017117746A Active JP6751691B2 (ja) 2017-06-15 2017-06-15 異常検出装置及び車両システム

Country Status (5)

Country Link
US (2) US10679102B2 (ja)
EP (1) EP3416100A3 (ja)
JP (1) JP6751691B2 (ja)
KR (1) KR20180136895A (ja)
CN (1) CN109151452B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020166427A1 (ja) 2019-02-14 2020-08-20 日本電信電話株式会社 信号転送装置、信号転送方法、信号転送制御装置、信号転送制御方法および信号転送プログラム
JP2020204821A (ja) * 2019-06-14 2020-12-24 マツダ株式会社 外部環境認識装置

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6751691B2 (ja) * 2017-06-15 2020-09-09 ルネサスエレクトロニクス株式会社 異常検出装置及び車両システム
JP2019191806A (ja) * 2018-04-23 2019-10-31 株式会社デンソーテン 異常検出装置および異常検出方法
DE102018209898A1 (de) * 2018-06-19 2019-12-19 Robert Bosch Gmbh Verfahren zur Bestimmung von zueinander korrespondierenden Bildpunkten, SoC zur Durchführung des Verfahrens, Kamerasystem mit dem SoC, Steuergerät und Fahrzeug
DE102018115334B3 (de) * 2018-06-26 2019-05-09 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zum Kalibrieren einer elektromagnetische Strahlung abstrahlenden Vorrichtung mittels einer Sensoreinheit
JP7330708B2 (ja) * 2019-01-28 2023-08-22 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7298323B2 (ja) * 2019-06-14 2023-06-27 マツダ株式会社 外部環境認識装置
JP7363118B2 (ja) * 2019-06-14 2023-10-18 マツダ株式会社 外部環境認識装置
CN114067554B (zh) * 2020-08-05 2023-06-20 北京万集科技股份有限公司 路侧终端异常检测方法、装置、计算机设备和存储介质
CN117459688B (zh) * 2023-12-26 2024-05-03 海纳云物联科技有限公司 基于地图系统的摄像头角度标示方法、装置及介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07262375A (ja) * 1994-03-25 1995-10-13 Toshiba Corp 移動体検出装置
JP2001211466A (ja) * 2000-01-27 2001-08-03 Toshiba Corp 自己診断機能を有する画像処理システム
JP2003255430A (ja) * 2002-02-28 2003-09-10 Toshiba Corp 映像診断装置、車載型映像監視装置の映像診断システム
US20160007018A1 (en) * 2014-07-02 2016-01-07 Denso Corporation Failure detection apparatus and failure detection program
JP2017068815A (ja) * 2015-09-29 2017-04-06 オムロン株式会社 アテンション検出装置及びアテンション検出方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3516127B2 (ja) 1997-12-09 2004-04-05 オムロン株式会社 画像処理方法およびその装置
JP2002308030A (ja) * 2001-04-16 2002-10-23 Yazaki Corp 車両用周辺監視装置
US20030103663A1 (en) * 2001-11-23 2003-06-05 University Of Chicago Computerized scheme for distinguishing between benign and malignant nodules in thoracic computed tomography scans by use of similar images
JP4130435B2 (ja) * 2004-11-30 2008-08-06 本田技研工業株式会社 撮像装置の異常検知装置
US7689016B2 (en) * 2005-05-27 2010-03-30 Stoecker & Associates, A Subsidiary Of The Dermatology Center, Llc Automatic detection of critical dermoscopy features for malignant melanoma diagnosis
JP5072693B2 (ja) * 2007-04-11 2012-11-14 キヤノン株式会社 パターン識別装置及びその制御方法、異常パターン検出装置及びその制御方法、プログラム、記憶媒体
US20120197461A1 (en) * 2010-04-03 2012-08-02 Geoffrey Louis Barrows Vision Based Hover in Place
JP5400718B2 (ja) * 2010-07-12 2014-01-29 株式会社日立国際電気 監視システムおよび監視方法
JP6119097B2 (ja) * 2011-12-28 2017-04-26 富士通株式会社 路面調査プログラム及び路面調査装置
JP5776545B2 (ja) * 2011-12-28 2015-09-09 富士通株式会社 路面調査プログラム及び路面調査装置
CN105100688B (zh) * 2014-05-12 2019-08-20 索尼公司 图像处理方法、图像处理装置和监视系统
US9525865B2 (en) * 2014-10-23 2016-12-20 Texas Instruments Incorporated Fault detection and method of detecting faults in digital imaging systems
US10346982B2 (en) * 2016-08-22 2019-07-09 Koios Medical, Inc. Method and system of computer-aided detection using multiple images from different views of a region of interest to improve detection accuracy
JP6751691B2 (ja) * 2017-06-15 2020-09-09 ルネサスエレクトロニクス株式会社 異常検出装置及び車両システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07262375A (ja) * 1994-03-25 1995-10-13 Toshiba Corp 移動体検出装置
JP2001211466A (ja) * 2000-01-27 2001-08-03 Toshiba Corp 自己診断機能を有する画像処理システム
JP2003255430A (ja) * 2002-02-28 2003-09-10 Toshiba Corp 映像診断装置、車載型映像監視装置の映像診断システム
US20160007018A1 (en) * 2014-07-02 2016-01-07 Denso Corporation Failure detection apparatus and failure detection program
JP2016015638A (ja) * 2014-07-02 2016-01-28 株式会社デンソー 故障検出装置および故障検出プログラム
JP2017068815A (ja) * 2015-09-29 2017-04-06 オムロン株式会社 アテンション検出装置及びアテンション検出方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
FEI YIN: "Robust wide-area multi-camera tracking of people and vehicles to improve CCTV usage", ENGINEERING, COMPUTER SCIENCE, JPN6020028470, 1 January 2011 (2011-01-01), GB, pages 1 - 2, ISSN: 0004319429 *
S. KHAN ET AL.: "Consistent labeling of tracked objects in multiple cameras with overlapping fields of view", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, vol. Volume: 25 , Issue: 10, JPN6020028454, 29 September 2003 (2003-09-29), US, pages 1355 - 1360, ISSN: 0004319427 *
SOHAIB KHAN ET AL.: "Tracking in Uncalibrated Cameras with Overlapping Field of View", 2ND WORKSHOP ON PERFORMANCE, JPN7020002317, November 2001 (2001-11-01), US, ISSN: 0004319430 *
YASER SHEIKH ET AL.: "Object tracking across multiple independently moving airborne cameras", TENTH IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV'05) VOLUME 1, vol. 2, JPN6020028457, 17 October 2005 (2005-10-17), US, ISSN: 0004319428 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020166427A1 (ja) 2019-02-14 2020-08-20 日本電信電話株式会社 信号転送装置、信号転送方法、信号転送制御装置、信号転送制御方法および信号転送プログラム
JP2020204821A (ja) * 2019-06-14 2020-12-24 マツダ株式会社 外部環境認識装置
JP7400222B2 (ja) 2019-06-14 2023-12-19 マツダ株式会社 外部環境認識装置

Also Published As

Publication number Publication date
CN109151452A (zh) 2019-01-04
EP3416100A2 (en) 2018-12-19
EP3416100A3 (en) 2019-06-19
KR20180136895A (ko) 2018-12-26
US11562175B2 (en) 2023-01-24
JP6751691B2 (ja) 2020-09-09
US10679102B2 (en) 2020-06-09
US20200285905A1 (en) 2020-09-10
CN109151452B (zh) 2021-10-29
US20180365524A1 (en) 2018-12-20

Similar Documents

Publication Publication Date Title
JP6751691B2 (ja) 異常検出装置及び車両システム
US9842269B2 (en) Video processing apparatus, video processing method, and recording medium
US9530210B2 (en) Distance calculator and distance calculation method
US20150015673A1 (en) Distance calculator and distance calculation method
US20140037212A1 (en) Image processing method and device
US10554945B2 (en) Stereo camera
EP3690800A2 (en) Information processing apparatus, information processing method, and program
US11386576B2 (en) Image processing apparatus, method of tracking a target object, and storage medium
JP2017058274A (ja) 計測装置、方法及びプログラム
CN108369739B (zh) 物体检测装置和物体检测方法
JP6507843B2 (ja) 映像解析方法及び映像解析装置
US11153479B2 (en) Image processing apparatus, capable of detecting an amount of motion between images by tracking a point across one or more images, image capturing apparatus, image processing method, and storage medium
EP1976267A2 (en) Image processing apparatus and image processing method
CN114882003A (zh) 一种检测相机的拍摄位姿变化的方法、介质及计算设备
KR101646580B1 (ko) 하체 검출/추적 장치 및 방법
JP7338174B2 (ja) 物体検出装置および物体検出方法
US20180268228A1 (en) Obstacle detection device
JP2010122840A (ja) 物体領域検出方法、物体領域検出装置、物体領域検出プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP6334773B2 (ja) ステレオカメラ
KR20220129726A (ko) 정확한 객체 탐지를 위한 박스 레벨 후처리 방법 및 장치
JP5936667B2 (ja) 映像処理装置、映像処理方法、及びプログラム
JP2021140383A (ja) 推定プログラム、推定方法、および情報処理装置
WO2016151948A1 (ja) 監視装置、監視方法、及びコンピュータ読み取り可能な記録媒体
JP2009122990A (ja) 画像処理装置
JP2016224647A (ja) 画像処理プログラム、画像処理方法、及び画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200817

R150 Certificate of patent or registration of utility model

Ref document number: 6751691

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150