JP6802035B2 - 画像処理装置、警告装置、画像処理システム、画像処理方法 - Google Patents

画像処理装置、警告装置、画像処理システム、画像処理方法 Download PDF

Info

Publication number
JP6802035B2
JP6802035B2 JP2016208026A JP2016208026A JP6802035B2 JP 6802035 B2 JP6802035 B2 JP 6802035B2 JP 2016208026 A JP2016208026 A JP 2016208026A JP 2016208026 A JP2016208026 A JP 2016208026A JP 6802035 B2 JP6802035 B2 JP 6802035B2
Authority
JP
Japan
Prior art keywords
image
sign
unit
color
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016208026A
Other languages
English (en)
Other versions
JP2018072893A (ja
Inventor
英春 服部
英春 服部
喜文 泉
喜文 泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2016208026A priority Critical patent/JP6802035B2/ja
Priority to EP17197849.7A priority patent/EP3312769B1/en
Priority to US15/790,199 priority patent/US10417751B2/en
Publication of JP2018072893A publication Critical patent/JP2018072893A/ja
Application granted granted Critical
Publication of JP6802035B2 publication Critical patent/JP6802035B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、画像処理装置、警告装置、画像処理システムおよび画像処理方法に関する。
近年、スマートホンやドライブレコーダなどの撮像装置によって撮像された映像を用いて、画像内の道路上付属物を検出することが提案されている。たとえば特許文献1には、車両内に設置されたカメラで撮像した画像から、道路上付属物である標識や路面に描かれた標示を認識して、認識結果の情報を運転者に通知する技術が開示されている。
特開2008−139320号公報
カメラの撮影画像における標識や標示の見え方は、撮影時の状況に応じて様々に変化する。たとえば、車両の走行方向が変わることでカメラの向きが変化し、それに応じてカメラの向きに対する標識や標示と太陽との位置関係が変化すると、撮影画像全体の明るさに対する標識や標示の明るさが撮影画像内で変化する。しかしながら、特許文献1に記載の技術では、この点について特に考慮されていない。そのため、撮影画像から対象物である標識や標示を正しく認識できない場合がある。
本発明の一態様による画像処理装置は、車両に搭載された車載カメラによって撮影された入力画像の明暗を補正した明暗補正画像を作成する明暗補正部と、前記入力画像の色を補正した色補正画像を作成する色解析部と、前記明暗補正画像に基づいて前記入力画像に含まれる第1の対象物を検出し、前記色補正画像に基づいて前記入力画像に含まれる第2の対象物を検出する物体検出部と、前記物体検出部により検出された前記第1の対象物と前記第2の対象物との時系列での関連性に基づいて、前記第1の対象物および前記第2の対象物を認識する物体関連解析部と、を備え、前記第1の対象物は道路の付近に設置された標識であり、前記第2の対象物は路面に描かれた標示であり、前記物体関連解析部は、前記標識が示す交通規制または指示の内容と、前記標示が示す交通規制または指示の内容とが、時系列順に取得された所定数以上の前記入力画像において同一であるという条件を満たす場合に、前記標識と前記標示とを互いに関連付けて認識する
本発明の他の態様による画像処理装置は、車両に搭載された車載カメラによって撮影された入力画像の明暗を補正した明暗補正画像を作成する明暗補正部と、前記入力画像の色を補正した色補正画像を作成する色解析部と、前記明暗補正画像に基づいて前記入力画像に含まれる第1の対象物を検出し、前記色補正画像に基づいて前記入力画像に含まれる第2の対象物を検出する物体検出部と、前記物体検出部により検出された前記第1の対象物と前記第2の対象物との時系列での関連性に基づいて、前記第1の対象物および前記第2の対象物を認識する物体関連解析部と、を備え、前記第1の対象物は道路の付近に設置された標識であり、前記第2の対象物は路面に描かれた標示であり、前記物体関連解析部は、前記物体検出部が前記第1の対象物または前記第2の対象物として検出した前記標識や前記標示の種別に応じて、前記第1の対象物および前記第2の対象物の認識結果の中から処理対象とする認識結果を決める。
本発明による警告装置は、画像処理装置と、前記画像処理装置による前記第1の対象物および前記第2の対象物の認識結果に基づいて、前記車両の運転者に対する警告を出力する警告出力部と、を備える。
本発明による画像処理システムは、車両に搭載された端末装置と、前記端末装置との間で通信を行うサーバ装置と、を有し、前記端末装置は、車両に搭載された車載カメラによって撮影された入力画像の明暗を補正した明暗補正画像を作成する明暗補正部と、前記入力画像の色を補正した色補正画像を作成する色解析部と、前記明暗補正画像に基づいて前記入力画像に含まれる第1の対象物を検出し、前記色補正画像に基づいて前記入力画像に含まれる第2の対象物を検出する物体検出部と、前記物体検出部による前記第1の対象物と前記第2の対象物との検出結果を示す検出後画像を前記サーバ装置に送信する画像送信部と、を備え、前記サーバ装置は、前記端末装置から送信された前記検出後画像を受信する画像受信部と、前記画像受信部により受信された検出後画像の明暗を補正した明暗補正画像を作成する第2の明暗補正部と、前記画像受信部により受信された検出後画像の色を補正した色補正画像を作成する第2の色解析部と、前記明暗補正画像に基づいて前記検出後画像に含まれる第1の対象物を検出し、前記色補正画像に基づいて前記検出後画像に含まれる第2の対象物を検出する第2の物体検出部と、前記画像受信部により受信された前記検出後画像における前記第1の対象物と前記第2の対象物との時系列での関連性に基づいて、前記第1の対象物および前記第2の対象物を認識する物体関連解析部と、を備える。
本発明による画像処理方法は、車両に搭載された車載カメラによって撮影され、コンピュータに入力された入力画像の処理方法であって、前記コンピュータにより、前記入力画像の明暗を補正した明暗補正画像を作成し、前記入力画像の色を補正した色補正画像を作成し、前記明暗補正画像に基づいて、道路の付近に設置されて前記入力画像に含まれる標識を第1の対象物として検出し、前記色補正画像に基づいて、路面に描かれて前記入力画像に含まれる標示を第2の対象物として検出し、前記第1の対象物として検出された前記標識が示す交通規制または指示の内容と、前記第2の対象物として検出された前記標示が示す交通規制または指示の内容とが、時系列順に取得された所定数以上の前記入力画像において同一であるという条件を満たす場合に、前記標識と前記標示とを互いに関連付けて認識する
本発明によれば、カメラで撮影された画像から対象物を正しく認識することができる。
本発明の第1の実施形態に係る画像処理装置の機能構成を示すブロック図である。 本発明の第1の実施形態に係る画像処理装置のハードウェア構成例を示す図である。 色空間変換部の動作の一例を説明するための図である。 明暗補正部の動作の一例を説明するための図である。 色解析部の動作の一例を説明するための図である。 物体検出部の動作の一例を説明するための図である。 物体検出部の動作の一例を説明するための図である。 物体関連解析部の動作の一例を説明するための図である。 物体関連解析部による劣化判定の一例を説明するための図である。 信頼度判定部の動作の一例を説明するための図である。 描画部の動作の一例を説明するための図である。 本発明の第1の実施形態による画像処理装置の動作を説明するためのフローチャートである。 本発明の第2の実施形態に係る警告装置の構成を示すブロック図である。 本発明の第3の実施形態に係る画像処理システムの構成を示すブロック図である。 本発明の第4の実施形態に係る画像処理システムの構成を示すブロック図である。 本発明の第5の実施形態に係る画像処理システムの構成を示すブロック図である。
最初に、本発明の概要について以下に説明する。
一般に、道路上の付属物である標識に関する情報や、路面に描かれた標示に関する情報を、地図情報などの付加情報として設けるためには、車両が走行する可能性がある全てのルートについて、事前にどのような標識や標示が存在するかを調査しなければならず、多額の調査費用がかかってしまう。また、新設された道路や工事により変更となった道路上の標識や標示については、その付加情報をタイムリーに地図情報に反映できないという問題もある。そこで、以下に説明する本発明の実施形態では、たとえばスマートホン、ドライブレコーダ、カーナビゲーション装置等の車載端末を使用して、複数かつ不特定多数のユーザが撮影した画像から標識や標示をタイムリーに検出することを可能としている。
ところで、カメラの撮影画像から標識や標示を対象物として認識する場合に、車両の走行方向が変わることでカメラの向きが変化し、それに応じてカメラの向きに対する対象物と太陽との位置関係が変化すると、撮影画像全体の明るさに対する対象物の明るさが撮影画像内で変化する。たとえば、対象物と太陽との位置関係が順光である場合と逆光である場合とでは、撮影画像全体の明るさに対する対象物の明るさは大きく異なる。また、対象物に直射日光が当たっている場合とそうでない場合とでも、撮影画像全体の明るさに対する対象物の明るさは大きく異なる。そのため、撮影画像から対象物である標識や標示を正しく認識できない場合がある。このような場合、正しい標識や標示の情報をユーザに通知できない。特に、前述の特許文献1の技術では、標識や標示を正しく検出できず、ユーザに正しい標識や標示の情報を通知できないという課題がある。そこで、以下に説明する本発明の実施形態では、車載端末で撮影した画像内の所望の対象物を検出し、対象物同士の検出結果から対象物の特定を可能とするための技術を提案する。
また、本発明の実施形態は、撮影された画像の明るさが変化する場合でも、画像内の背景と背景内の物体を分離して、背景内の物体検出や、対象物同士の検出結果を用いて対象物の特定を実現する画像処理装置およびその方法を提供するものである。
以下に、図面を参照して本発明の実施形態について説明する。
−第1の実施形態−
<画像処理装置の機能構成>
図1は、本発明の第1の実施形態に係る画像処理装置1の機能構成を示すブロック図である。図1に示すように、画像処理装置1は、その機能として、入力部10と、色空間変換部11と、明暗補正部12と、色解析部13と、物体検出部14と、物体関連解析部15と、信頼度判定部16と、描画部17と、記録部18と、画像記憶部90と、制御部91とを有している。なお、図1に示す画像処理装置1の各機能は、たとえばスマートホン等の携帯移動端末装置、パーソナルコンピュータ、サーバ装置などの情報機器において、各種のプログラムやハードウェアを組み合わせて実現される。
入力部10は、画像処理装置1において処理対象とする入力画像を外部から取得する。入力部10には、車両に搭載された不図示の車載カメラによって撮影された画像のデータが所定の時間間隔ごとに入力画像として入力される。なお、車両に設置されたドライブレコーダや、スマートホン等の携帯移動端末装置が有するカメラなどを、車載カメラとして用いてもよい。また、不図示の情報通信ネットワークや記録媒体を介して取得した車載カメラの撮影画像を入力画像として用いてもよい。入力画像は静止画像であってもよいし、動画像中の任意のフレームを抜き出して入力画像としてもよい。静止画像のデータ形式としては、たとえばJPEG、JPEG2000、PNG、BMP等が用いられる。一方、動画像のデータ形式としては、たとえばMotionJPEG、MPEG、H.264、HD/SDI等が用いられる。
色空間変換部11は、入力画像の色空間を変換することで、入力画像における色の明るさ情報を取得する。
明暗補正部12は、画像記憶部90に記憶されている過去の入力画像の色の明るさ情報と、色空間変換部11で求められた現在の入力画像の色の明るさ情報とを用いて、現在の入力画像の色の明るさ変化量を求め、その明るさ変化量に基づいて、入力画像の明暗を補正した画像を作成する。以下では、この明暗補正部12により作成された画像を明暗補正画像と称する。
色解析部13は、原色の差分値と色解析用の閾値とを用いて、入力画像の各画素における色の関係を解析することで、入力画像の色を補正した画像を作成する。以下では、この色解析部13により作成された画像を色補正画像と称する。
物体検出部14は、明暗補正部12により作成された明暗補正画像と、色解析部13により作成された色補正画像とを用いて、入力画像に含まれる標識および標示を検出対象物体として検出し、その内容を認識する。なお、物体検出部14が検出する標識とは、道路上や道路付近に設置された道路標識であり、標示とは、路面に描かれた道路標示である。具体的には、物体検出部14は、明暗補正画像から標識を分離するための閾値を求め、その閾値を用いて明暗補正画像内の背景と標識とを分離する。また、色補正画像から標示に相当する部分を検出することで、色補正画像内の背景と標示とを分離する。こうして明暗補正画像と色補正画像から標識と標示とをそれぞれ抽出し、予め設定された基準画像と比較することで、標識および標示を検出すると共に、これらが示す交通規制や指示の内容を認識する。
物体関連解析部15は、物体検出部14により検出された標識および標示の認識結果に基づいて、これらの物体同士の関連性を解析する。その結果、関連性が高いと判断した標識と標示とを組み合わせることで、これらが示す交通規制や指示の内容を認識する。
信頼度判定部16は、物体検出部14により検出された標識と標示の位置を取得して累積し、その累積結果に基づいてこれらの信頼度を判定する。
描画部17は、物体検出部14により検出された標識および標示に対して、これらの物体を囲むような検出枠を入力画像上に描画する。描画部17により検出枠が描画された画像は、物体検出部14による標識と標示との検出結果を示す画像であるため、以下ではこの画像を検出後画像と称する。
記録部18は、描画部17により作成された検出後画像を画像記憶部90に記憶させて保存する。なお、検出後画像は、画像処理装置1から外部にも出力される。
制御部91は、上述した画像処理装置1の各構成要素に接続されており、これらの動作を制御する。なお、制御部91の制御によらず、各構成要素が必要に応じて自律的に動作してもよい。
<画像処理装置のハードウェア構成>
図2は、本発明の第1の実施形態に係る画像処理装置1のハードウェア構成例を示す図である。図2に示すように、画像処理装置1は、CPU201と、メモリ202と、記憶装置203と、出力装置204と、入力装置205と、通信デバイス206とを有しており、これらがバス207によって相互に接続されている。
CPU201は、必要に応じてメモリ202から各種プログラムを読み込み、そのプログラムに応じた処理を実行するプロセッサである。CPU201が実行する処理により、図1で説明した入力部10、色空間変換部11、明暗補正部12、色解析部13、物体検出部14、物体関連解析部15、信頼度判定部16、描画部17、記録部18および制御部91の各機能構成が実現される。
メモリ202は、CPU201において読み込まれる各種プログラムを格納すると共に、CPU201が実行中の処理において利用される様々なデータを必要に応じて一時的に格納する。
記憶装置203は、画像処理装置1において利用される各種データを格納する装置であり、図1で説明した画像記憶部90に相当する。記憶装置203には、たとえば、前述の入力画像、明暗補正画像、色補正画像、基準画像、検出後画像などが格納される。また、過去の入力画像も記憶装置203に格納されている。
出力装置204は、検出後画像を出力するための装置であり、ディスプレイ、プリンタ、スピーカー等のデバイスで構成される。たとえば、ディスプレイを出力装置204として用いた場合、描画部17によって生成された検出後画像がディスプレイの画面上に表示される。
入力装置205は、ユーザによる指示等を入力するための装置であり、キーボード、マウス、マイク等のデバイスで構成される。たとえば、入力装置205を介したユーザの指示に応じて、画像処理装置1において処理対象とする入力画像が決定される。
通信デバイス206は、他の装置と通信を行うための装置である。たとえば、通信デバイス206を用いて、車載カメラから送信された入力画像を受信したり、ネットワークを介して接続されたサーバ装置との間で各種データの送受信を行ったりすることができる。なお、画像処理装置1内に通信デバイス206を設けず、外部に設けられた通信デバイス206を画像処理装置1と接続して用いてもよい。
<各部の構成と動作>
次に、上記の色空間変換部11、明暗補正部12、色解析部13、物体検出部14、物体関連解析部15、信頼度判定部16、描画部17、記録部18の各機能構成の動作について、以下に詳細に説明する。
(i)色空間変換部11
色空間変換部11は、入力画像における色の明るさ情報として、たとえば、入力画像のRGB色空間をLab色空間に変換した画像を生成する。Lab色空間変換により、入力画像に対するL値、a値、およびb値が取得される。なお、L値は明度に相当する情報であり、a値およびb値は色の明るさを表す情報である。
図3は、色空間変換部11の動作の一例を説明するための図である。図3において、左側の画像NはRGB色空間で表現された入力画像の例を示し、右側の画像NAはLab色空間で表現された色空間変換後の入力画像の例を示す。これらの画像には、標識31、標示32および道路33が含まれている。色空間変換部11で求められた色空間変換後の画像NAは、画像記憶部90に記憶される。
(ii)明暗補正部12
明暗補正部12は、色空間変換部11で求められた色空間変換後の入力画像の色の明るさ情報、すなわちa値またはb値のいずれか少なくとも一方を用いて、以下のようにして明暗補正画像を作成する。
図4は、明暗補正部12の動作の一例を説明するための図である。図4において、左側の画像(N−1)Aは過去に取得された入力画像(N−1)の色空間を変換した画像例を示し、右側上の画像NAは図3と同様に、現在の入力画像Nの色空間を変換した画像例を示す。また、右側下の画像NBは明暗補正後の画像例を示す。
明暗補正部12は、画像NAの所定範囲に対して明暗補正の対象領域R2を設定し、画像NAの領域R2内の色情報(a値またはb値)の平均値aveR2を算出する。この平均値aveR2は、入力画像Nの領域R2内の色の明るさの平均値に相当する。なお、領域R2の位置および形状は、車載カメラの搭載位置、撮影方向、画角等に基づいて、画像NAにおいて標識が存在すべき範囲として予め設定しておくことができる。
また、明暗補正部12は、画像(N−1)Aに対して、上記の領域R2に対応する明暗補正の対象領域R1を設定し、画像(N−1)Aの領域R1内の色情報(a値またはb値)の平均値aveR1を算出する。この平均値aveR1は、過去の入力画像(N−1)の領域R2内の色の明るさの平均値に相当する。なお、領域R1の位置および形状は、領域R2と同じであってもよいし、過去の入力画像(N−1)を取得してから現在の入力画像Nを取得するまでの車両の移動距離を考慮して定めてもよい。
上記の平均値aveR2、aveR1を算出したら、次に明暗補正部12は、下記の式(1)を用いて、明暗補正画像を作成するための倍率値vを算出する。
V=E2/E1 ・・・(1)
式(2)において、E1、E2は、平均値aveR2、aveR1のどちらかをそれぞれ表す。具体的には、aveR1≧aveR2である場合には、E1=aveR2、E2=aveR1とする。一方、aveR1<aveR2である場合には、E1=aveR1、E2=aveR2とする。あるいは、倍率値vを固定値としてもよい。
倍率値vを算出したら、次に明暗補正部12は、下記の式(2)を用いて、画像NAの領域R2内の各画素に対する明暗補正後の色の明るさ値cnCorを求める。ただし式(2)において、cnは画像NAの領域R2内の各画素のa値またはb値を示す。
cnCor=cn-(aveR2-cn)*v ・・・(2)
上記の式(2)により、画像NAの領域R2内の各画素について補正後の色の明るさ値cnCorを算出することで、平均よりも暗い画素についてはより暗く、平均よりも明るい画素についてはより明るくなるように、画像NAの明暗を補正することができる。このような補正をすることにより、画像NAのままでは検出対象とする標識31が背景に埋もれていて見えづらい場合であっても、その後の処理において容易に検出できるようになる。
明暗補正部12は、以上説明したような処理により、画像NAの領域R2について画素毎にcnCor値を求めることで、画像NAの明暗を補正し、明暗補正画像NBを作成する。
(iii)色解析部13
色解析部13は、入力画像の色差分値を以下のようにして算出し、この色差分値を用いて色補正画像を作成する。
図5は、色解析部13の動作の一例を説明するための図である。図5において、左側の画像Nは図3と同様に、RGB色空間で表現された入力画像の例を示し、右側の画像MBは色補正後の画像例を示す。
色解析部13は、入力画像Nの所定範囲に対して色補正の対象領域R3を設定し、この領域R3内の各画素について色差分値を算出する。領域R3の位置および形状は、車載カメラの搭載位置、撮影方向、画角等に基づいて、画像Nにおいて標示が存在すべき範囲として予め設定しておくことができる。具体的には、各画素の原色毎の色情報値R、G、Bから、下記の式(3)を用いて、各画素の原色毎の色差分の絶対値s_R、s_G、s_Bを求める。ただし式(3)において、absは絶対値を示す。
s_R=abs(R-G),s_G=abs(G-B),s_B=abs(B-R) ・・・(3)
上記の式(3)により求められた色差分の絶対値s_R、s_G、s_Bが全て所定の閾値Th_s以下の場合、色解析部13は、当該画素に対して元の色情報値R、G、Bをそのまま設定する。一方、求められた色差分の絶対値s_R、s_G、s_Bのどれか一つでも閾値Th_sを超える場合、色解析部13は、当該画素の色情報値を全て0に設定し、R=G=B=0とする。なお、閾値Th_sの値は、たとえばTh_s=30である。
色解析部13は、以上説明したような処理により、入力画像Nの領域R3について画素毎に色情報値を再設定することで、入力画像Nの色を補正し、入力画像Nの領域R3内の色をマスクした色補正画像MBを作成する。
(iv)物体検出部14
物体検出部14は、明暗補正部12により作成された明暗補正画像に基づいて、入力画像に含まれる標識を検出するための画像を以下のようにして作成する。
図6は、物体検出部14の動作の一例を説明するための図である。図6において、左側の画像NBは図4と同様に、明暗補正後の画像例を示し、右側の画像NDは標識と背景を分離した画像例を示す。
物体検出部14は、下記の式(4)を用いて、明暗補正部12で算出された前述の画像(N−1)、Nにおける色の明るさの平均値aveR1、aveR2を重み付けした加重平均値aveRNを算出する。ただし式(4)において、C2/C1は、過去の入力画像(N−1)に対する重み付け係数を表し、C3/C1は、現在の入力画像Nに対する重み付け係数を表している。また、C1=C2+C3である。
aveRN=aveR1*C2/C1+aveR2*C3/C1 ・・・(4)
上記の式(4)において、加重平均値aveRNを過去の入力画像(N−1)の色の明るさに近づけたい場合には、C3よりC2を大きくして過去の入力画像(N−1)の重みを大きくすればよい。反対に、加重平均値aveRNを現在の入力画像Nの色の明るさに近づけたい場合には、C2よりC3を大きくして現在の入力画像Nの重みを大きくすればよい。ただし、C3を大きくして現在の入力画像Nを重視し過ぎると、その後の処理において標識を正確に検出できない場合もあるため、重みC2をあまり小さくし過ぎないことで、ある程度は過去の入力画像(N−1)も考慮する必要がある。たとえば、過去の入力画像(N−1)の重みを大きくする場合には、C2=0.9、C3=0.1と設定する。また、現在の入力画像Nの重みを大きくする場合には、C2=C3=0.5と設定することが考えられる。
上記のようにして加重平均値aveRNを算出したら、次に物体検出部14は、下記の式(5)を用いて、明暗補正画像NBから検出対象とする標識と背景を分離するための閾値Thを画像毎に求める。
Th=aveRN+α ・・・(5)
上記の式(5)におけるαは、加重平均値aveRNから閾値Thを設定するための補正値である。この補正値αの値を適切に設定することで、明暗補正画像NBから所望の明るさ以上の画素または所望の明るさ以下の画素だけを抽出することができる。すなわち、式(5)のαは、明暗補正画像NBから検出対象物体である標識を切り出しやすくするためのパラメータである。
前述の式(2)において、画像NAの領域R2内の各画素のa値をcnとした場合、明暗補正画像NBの各画素の色の明るさ値cnCorは、画像NAの各画素のa値に応じて設定される。この場合、物体検出部14は、式(5)においてαをプラス値として画像毎に閾値Thを求め、この閾値Thを用いて、明暗補正画像NBの領域R2から背景と標識31を分離した画像NDを作成する。具体的には、明暗補正画像NBの領域R2内の各画素について、cnCor≧Thの場合は、分離後の色の明るさをs値(たとえばs=255)に設定し、cnCor<Thの場合は、分離後の色の明るさをt値(たとえばt=0)に設定する。これにより、領域R2内で色の明るさが所定値以上である物体を標識31として効率よく分離可能となる。
一方、前述の式(2)において、画像NAの領域R2内の各画素のb値をcnとした場合、明暗補正画像NBの各画素の色の明るさ値cnCorは、画像NAの各画素のb値に応じて設定される。この場合、物体検出部14は、式(5)においてαをマイナス値として画像毎に閾値Thを求め、この閾値Thを用いて、明暗補正画像NBの領域R2から背景と標識31を分離した画像NDを作成する。具体的には、明暗補正画像NBの領域R2内の各画素について、cnCor≦Thの場合は、分離後の色の明るさをs値(たとえばs=255)に設定し、cnCor>Thの場合は、分離後の色の明るさをt値(たとえばt=0)に設定する。これにより、領域R2内で色の明るさが所定値以下である物体を標識31として効率よく分離可能となる。
物体検出部14は、以上説明したような処理により、明暗補正画像NBの領域R2について画素毎にcnCor値と閾値Thとを比較し、その比較結果に基づいて分離後の色の明るさを設定することで、明暗補正画像NBから検出対象物体である標識31と背景を分離した分離画像NDを作成する。この分離画像NDは、標識31の候補を多く含むものとなる。
また、物体検出部14は、色解析部13により作成された色補正画像に基づいて、入力画像に含まれる標示を検出するための画像を以下のようにして作成する。
図7は、物体検出部14の動作の一例を説明するための図である。図7において、左側の画像MBは図5と同様に、色補正後の画像例を示し、右側の画像MCは標示と背景を分離した画像例を示す。
物体検出部14は、色補正画像MBの領域R3内において標示の形状に対応する矩形部分を抽出することで、色補正画像MBから検出対象物体である標示32と背景を分離した画像MCを作成する。この分離画像MCは、標示32の候補を多く含むものとなる。
上記のようにして、標識31に対応する分離画像NDおよび標示32に対応する分離画像MCを作成したら、次に物体検出部14は、これらの画像で背景から分離された検出対象物体が標識31と標示32のいずれに該当するかを識別するための処理を実行する。この処理において、たとえば物体検出部14は、識別すべき標識や標示に対応して予め設定された基準画像を画像記憶部90から読み込み、この基準画像と分離画像NDおよびMCとをそれぞれ比較することで、検出対象物体が標識31または標示32であるか否かを判定する。具体的には、たとえば、基準画像と分離画像ND(またはMC)のRGB値をそれぞれ用いて、基準画像のヒストグラムAと、分離画像ND(またはMC)のヒストグラムBを作成し、これらのヒストグラムの形状またはBhattacharyya距離に基づいて、ヒストグラムA、Bの類似度を算出する。この類似度を用いて、分離画像ND(またはMC)に標識31(または標示32)が含まれているか否かを判定する。
ヒストグラムA、Bの類似度は、たとえば下記の式(6)を用いて算出することができる。式(6)において、B32(c)はヒストグラムA、B間のBhattacharyya距離を表している。このB32(c)のr成分に関するB32(r)、g成分に関するB32(g)、b成分に関するB32(b)を用いて、類似度Rを算出することができる。ここでcは、r、g、bのどれかを表す。また、HA(I)、HB(I)はヒストグラムA、Bの階調値Iの度数をそれぞれ表し、HSUMはヒストグラムのビンの総数を表す。
Figure 0006802035
物体検出部14は、以上説明したような処理により、ヒストグラム間の類似度を算出し、基準画像と検出対象物体である標識31および標示32との類似度合いを判定する。これにより、予め設定された基準画像を用いて、分離画像NDおよびMCから標識31と標示32とをそれぞれ検出することが可能となる。さらに、ヒストグラム間の類似度判定に対して、周知のニューラルネットワークを用いた機械学習により画像の特徴量から識別器を作成し、その識別器を用いて、検出した物体を識別する判定を加えてもよい。つまり、類似度が高いと判定された基準画像が複数検出された場合、ニューラルネットワークを用いた識別器により、検出物体としてどの画像が正しいか(確からしいか)を識別する。
(v)物体関連解析部15
物体関連解析部15は、物体検出部14により検出されて識別された標識と標示との関連性を解析する。以下では、物体検出部14にて分離画像ND内の物体が検出されて標識と識別され、また、物体検出部14にて分離画像MC内の物体が検出されて標示と識別された場合を例として、物体関連解析部15の処理を説明する。
図8は、物体関連解析部15の動作の一例を説明するための図である。図8(a)は、画像処理装置1を搭載した車両が走行する道路の例を示している。この道路には、道路沿いに標識41、42が設置されており、路面に標示51、52が描かれている。図8(b)、図8(c)、図8(d)および図8(e)は、車両が図8(a)の道路を図の左側から右側に向かって走行したときに、車両の前方に搭載された車載カメラによって時系列順に撮影されて画像処理装置1に入力される画像の例を示している。
最初に入力される図8(b)の入力画像L−1には、標識41および標示51が映り込んでいる。物体検出部14は、この入力画像L−1に基づいて作成された明暗補正画像NBと色補正画像MBから、前述のように分離画像ND、MCをそれぞれ作成して基準画像と比較することで、入力画像L−1から検出対象物体である標識や標示の検出および認識を行う。その結果、入力画像L−1から標識41を検出し、標識41が示す交通規制の内容、すなわち制限速度の数値(単位:km/時)が「60」または「50」のいずれかであると認識して、それぞれの認識率が0.6と0.5であったとする。この標識41の検出を起点として、物体関連解析部15は一定の期間、たとえば次の標識42が検出されるまでの間、標識41と標示51との関連性を解析する。なお、認識率とは認識結果の確からしさを表す値である。たとえば、上記の認識結果「60」に対する認識率の値0.6は、標識41が示す制限速度の数値が「60」であることの確からしさが0.6(60%)であることを表している。
次に入力される図8(c)の入力画像Lには、標識41および標示51が入力画像L−1よりも大きく映り込んでいる。物体検出部14は、この入力画像Lから、入力画像L−1に対して行ったのと同様の手法により、検出対象物体である標識や標示の検出および認識を行う。その結果、入力画像Lから標識41を検出し、標識41が示す制限速度の数値が「60」または「50」のいずれかであると認識して、それぞれの認識率が0.5と0.7であったとする。また、入力画像Lから標示51を検出し、標示51が示す交通規制の内容、すなわち制限速度の数値が「60」または「50」のいずれかであると認識して、それぞれの認識率が0.4と0.6であったとする。
続いて入力される図8(d)の入力画像L+1には、標識41および標示51が映り込んでいない。そのため、物体検出部14は、この入力画像L+1からはいずれの標識や標示も検出できない。
さらに続いて入力される図8(e)の入力画像L+2には、次の標識42および標示52が映り込んでいる。物体検出部14は、この入力画像L+2からも同様に、検出対象物体である標識や標示の検出および認識を行う。その結果、入力画像L+2から標識42を検出し、標識42が示す制限速度の数値が「60」または「50」のいずれかであると認識して、それぞれの認識率が0.6と0.5であったとする。
物体関連解析部15は、以上説明したような入力画像L−1から入力画像L+2までの物体検出部14による標識41、42および標示51の検出結果に基づいて、これらの検出対象物体に対する認識結果を特定する。たとえば、検出対象物体の認識結果ごとに認識率の平均値を算出し、その算出結果に基づいて認識結果を特定する。具体的には、上記の例の場合は、認識結果「60」に対する認識率の平均値は0.525、認識結果「50」に対する認識率の平均値は0.575とそれぞれ求められる。したがって、物体関連解析部15は、より平均値が高い認識結果である「50」を標識41、42および標示51に対する認識結果として決定する。
なお、上記の例では、入力画像L−1、L、L+1からそれぞれ検出された標識41、42が表す交通規制の内容すなわち制限速度と、入力画像Lから検出された標示51が表す交通規制の内容すなわち制限速度とが、これらの入力画像において同一であるとした。このように、物体検出部14により検出された標識と標示がそれぞれ示す交通規制の内容が、時系列順に取得された所定数以上の入力画像において同一であるという条件を満たす場合には、物体関連解析部15は、これらの標識と標示とを互いに関連付けて認識することができる。その結果、上記のような方法を用いて、検出対象物体である標識および標示の認識結果を決定することができる。さらに、検出対象物体である標識と標示がそれぞれ示す指示の内容が同一である場合、たとえば標識と標示が共に横断歩道の存在を示すような場合にも、物体関連解析部15は上記の例と同様に、これらを互いに関連付けて認識することができる。
一方、物体検出部14により検出された標識と標示がそれぞれ示す交通規制や指示の内容が異なる場合、たとえば上記の例において標識41が制限時速50kmを表しており、標識42が駐停車禁止を表しているような場合には、物体関連解析部15は、これらの検出対象物体の関連付けを行わない。その場合、それぞれの検出対象物体に対する物体検出部14の認識結果を用いて、以降の処理を実施すればよい。
物体関連解析部15は、以上説明したような処理により、物体検出部14により検出された標識41、42と標示51との時系列での関連性に基づいて、これらの検知対象物を認識する。
なお、上記の例では、物体関連解析部15が標識41の検出を起点として一定の期間、標識と標示の関連性を解析することとしたが、同様に、標示51の検出を起点としてもよい。また、標識41が複数の連続する入力画像のフレームで検出された場合は、その最終フレームまでの間、または次の標識42を検出するまでの間、物体関連解析部15が標識と標示の関連性を解析することとしてもよい。
さらに物体関連解析部15は、上記の処理によって関連付けした標識および標示のうち一方の認識率が高く、他方の認識率が低い場合には、以下で説明するように、後者の標識または標示が劣化していると判定してもよい。
図9は、物体関連解析部15による劣化判定の一例を説明するための図である。図9(a)に示す入力画像において、物体検出部14により標識61が検出されて標識61の内容、すなわち制限速度の数値が「50」と認識され、その認識率が所定の閾値、たとえば0.8以上であったとする。このような場合、物体検出部14は、2種類の認識率の閾値、たとえば0.5と0.3を用いて、図9(a)の入力画像から標示62を検出することができる。その結果、2種類の閾値のうち高い方、すなわち0.5では標示62を検出できず、低い方の0.3で標示62を検出できたとする。このような場合、物体関連解析部15は、標示62が示す制限速度の数値を標識61と同じ「50」として認識すると共に、標示62にかすれ等の劣化があると判定する。
また、図9(b)に示す入力画像において、物体検出部14により標示62が検出されて標示62の内容、すなわち制限速度の数値が「50」と認識され、その認識率が所定の閾値、たとえば0.8以上であったとする。このような場合、物体検出部14は上記の例と同様に、2種類の認識率の閾値、たとえば0.5と0.3を用いて、図9(b)の入力画像から標識61を検出することができる。その結果、2種類の閾値のうち高い方、すなわち0.5では標識61を検出できず、低い方の0.3で標識61を検出できたとする。このような場合、物体関連解析部15は、標識61が示す制限速度の数値を標示62と同じ「50」として認識すると共に、標識61にかすれ等の劣化があると判定する。
以上説明したような処理により標識または標示の一方が劣化していると判定したら、物体関連解析部15は、その判定結果に応じた判定フラグfを設定して出力する。たとえば、標示が劣化していると判定した場合は判定フラグfに1を設定し、標識が劣化していると判定した場合は判定フラグfに2を設定する。なお、標識および標示のいずれも劣化していないと判定した場合は、判定フラグfに0を設定する。
ここで、物体関連解析部15は、車両の周囲環境などに応じて標識と標示のどちらかの検出結果を優先し、検出対象物体である標識および標示の認識結果を決定してもよい。たとえば、夜間では車両のライトが路面を照らすことで、標識よりも標示を検出しやすいと考えられるため、標示の検出結果を優先する。この場合、物体検出部14による検出結果として得られた標示の認識率に対して所定のオフセット値、たとえば0.2を加えるか、もしくは、物体検出部14が標示を検出するための認識率に対する閾値を下げるように、たとえば0.5から0.3に変更することで、標示の検出結果を優先することができる。また、たとえば車両が雪道を走行している場合は、標示を検出することが難しいと考えられるため、標識の検出結果を優先する。この場合、車両が雪道を走行しているかの判断は、入力画像において道路に対応する部分の領域の輝度値から行うことができる。たとえば、当該領域の平均輝度が180以上であれば、車両が雪道を走行していると判断して標識の検出結果を優先する。
また、標識と標示には、それぞれが示す交通規制や指示の内容に応じて、その両方が定められている場合と、一方のみが定められている場合とがある。標識と標示の双方が定められている交通規制や指示には、たとえば最高速度や回転禁止等が該当し、標識のみが定められている交通規制や指示には、進入禁止等が該当し、標示のみが定められている交通規制や指示には、停止禁止部分等が該当する。したがって、物体関連解析部15は、こうした標識や標示の種別に応じて、一定区間における検出対象物体の認識結果をどちらの認識結果に基づいて決定するかを選択してもよい。
たとえば前述の図8で説明した例のように、最初に検出した標識または標示が示す交通規制や指示について、標識と標示の双方が定められている場合を考える。このような場合、物体関連解析部15は、一定区間における標識と標示の両方の認識結果を用いて、これらの検出対象物体の認識結果を決定する。一方、最初に検出した標識が表す交通規制や指示について標識のみが定められている場合には、物体関連解析部15は、一定区間におけるその標識の認識結果のみを用いて、検出対象物体である標識の認識結果を決定する。また、最初に検出した標示が表す交通規制や指示について標示のみが定められている場合には、物体関連解析部15は、一定区間におけるその標示の認識結果のみを用いて、検出対象物体である標示の認識結果を決定する。このように、物体関連解析部15は、検出した標識や標示の種別に応じて、処理対象とする認識結果を切り換えることができる。
(vi)信頼度判定部16
信頼度判定部16は、物体検出部14により検出された標識および標示について、これらの物体の検出結果に対する信頼度を判定する。図10は、信頼度判定部16の動作の一例を説明するための図である。
信頼度判定部16は、検出された各物体の撮影時における車両の位置情報や、車載カメラの搭載位置、撮影方向、画角等に基づいて、各物体の位置(緯度、経度)を取得する。そして、図10に示すように、取得した位置の検出頻度を物体毎に累積して、記憶装置203に格納する。このとき、他のユーザが所有する画像処理装置1の検出結果を取得して累積結果に加えてもよい。その結果、各物体すなわち各標識および各標示に対して、複数回の検出結果が蓄積される。
上記のようにして標識および標示ごとに取得した位置の累積結果が求められたら、信頼度判定部16は、累積した検出頻度を予め設定された閾値Th_hと比較する。その結果、検出頻度が閾値Th_h以上であれば、検出した標識や標示の位置(緯度、経度)に対する信頼度Cが高いと判定する。このようにして、検出した標識や標示に対する位置の信頼度を判定することで、様々な車両の車載カメラで撮影された画像を用いた場合でも、標識や標示の位置を正確に求めることができる。すなわち、車載カメラを搭載した移動体ごとに移動速度や撮影位置が異なり、そのために検出された標識や標示の位置が微妙に異なる場合でも、正しい位置を認識することができる。
(vii)描画部17
描画部17は、信頼度判定部16による信頼度の判定結果に基づいて、物体検出部14による標識および標示の検出結果を入力画像上に描画する。図11は、描画部17の動作の一例を説明するための図である。図11において、左側の画像Nは図3と同様に、RGB色空間で表現された入力画像の例を示し、右側の画像NEは標識および標示の検出結果が描画された画像例を示す。
信頼度判定部16において信頼度Cが高いと判定された場合、図11に示されるように、物体検出部14で検出された標識31と標示32をそれぞれ囲むように検出枠34、35を入力画像N上で描画することにより、これらの物体の検出結果を示す画像NEを作成する。一方、前述の検出頻度が閾値Th_hに達しておらず、信頼度判定部16において信頼度Cが低いと判定された場合、描画部17は、検出枠34、35を入力画像N上に描画せず、画像NEを作成しない。
(viii)記録部18
記録部18は、描画部17において入力画像N上に検出枠34、35を描画することで作成された画像NEを、画像記憶部90に保存する。
<画像処理装置の処理手順>
図12は、本発明の第1の実施形態による画像処理装置1の動作を説明するためのフローチャートである。
(i)ステップS1001
入力部10は、車載カメラから入力された画像を受け付け、当該入力画像Nを色空間変換部11に出力する。
(ii)ステップS1002
色空間変換部11は、入力部10から出力された入力画像NをLab色空間画像に変換した画像NAを求める。
(iii)ステップS1003
明暗補正部12は、色空間変換部11で求めた画像NAから、領域R2内の色の明るさの平均値aveR2を算出する。また、明暗補正部12は、画像記憶部90から時間的に1つ前の色空間変換後の画像(N−1)Aを読み込み、領域R1内の色の明るさの平均値aveR1を算出する。そして、明暗補正部12は、上述の式(1)、(2)を用いて、明暗を補正した画像NBを生成する。
(iv)ステップS1004
色解析部13は、上述の式(3)を用いて、各画素の原色毎の色差分の絶対値s_R、s_G、s_Bを求め、これらの値を閾値Th_sと比較することで、色をマスクした色補正後の画像MBを作成する。
(v)ステップS1005
物体検出部14は、上述の式(4)、(5)を用いて、画像毎に閾値Thを求める。
(vi)ステップS1006
物体検出部14は、明暗を補正した画像NBの各画素値cnCorについて、閾値Thと比較する。その結果、cnCorがa値に相当する場合には、cnCor≧閾値Thであれば処理をステップS1007に移行し、cnCor<閾値Thであれば処理をステップS1008に移行する。なお、cnCorがb値に相当する場合には、ステップS1006の判定における不等号の向きが図12とは反対になる。すなわち、cnCor≦閾値Thであれば処理をステップS1007に移行し、cnCor>閾値Thであれば処理をステップS1008に移行する。
(vii)ステップS1007
画像NBの各画素値cnCorがa値、b値のいずれに相当する場合でも、物体検出部14は、補正値にs値(例えば、255)を設定する。
(viii)ステップS1008
画像NBの各画素値cnCorがa値、b値のいずれに相当する場合でも、物体検出部14は、補正値にt値(例えば、0)を設定する。
(ix)ステップS1009
物体検出部14は、対象画像内の全ての画素について補正値が求まるまで、上記ステップS1006からS1008の処理を繰り返す。ステップS1006からS1009の処理を繰り返すことにより、画像NBから背景と物体が分離された画像NDが作成され、検出対象物体である標識31が検出される。
(x)ステップS1010
物体検出部14は、画像MBの領域R3内から矩形を構成する物体を求める。これにより、画像MBから背景と物体が分離された画像MCが作成され、検出対象物体である標示32が検出される。
(xi)ステップS1011
物体検出部14は、基準画像を画像記憶部90から読み出し、検出した物体の画像と基準画像に対してヒストグラムをそれぞれ作成し、上述の式(6)を用いて、ヒストグラム間の類似度Rを算出する。そして、算出した類似度Rに基づいて検出した物体と基準画像の類似度合いを判断し、たとえば類似度R≦閾値Th_Rの場合に類似度合いが高いと判断して、検出した物体を標識もしくは標示として識別する。なお、類似度RはBhattacharyya距離として算出されるため、類似度Rの値が小さいほどヒストグラム間の距離が短く、類似度が高いことを意味する。このとき上述したように、ニューラルネットワークを用いた機械学習により求めた識別器を用い、その識別器による判別結果を上記判定に加えて、識別したい標識もしくは標示か否かを判定してもよい。
(xii)ステップS1012
物体関連解析部15は、物体検出部14で検出した物体同士の関連を解析する。このとき物体関連解析部15は、図8で説明したように、たとえば、時系列順に取得された複数の入力画像において検出された標識および標示の認識率をそれぞれ保存しておき、一定期間内で保存された認識率の平均値を算出することで、最終的な標識および標示の認識結果を決定する。これにより、標識と標示の時系列での関連性に基づいて、検知対象物である標識および標示を認識する。
(xiii)ステップS1013
信頼度判定部16は、検出した物体の撮影時の位置情報(緯度、経度)を累積し、累積した検出頻度が閾値Th_h以上であれば、検出した物体の位置に対する信頼度Cが高いと判定する。一方、検出頻度が閾値Th_h未満であれば、信頼度Cが低いと判定する。信頼度判定部16は、物体検出部14が検出した各物体について、こうした信頼度Cの判定を行う。
(xiv)ステップS1014
描画部17は、信頼度Cが高い場合に、物体検出部14で検出した物体を囲むように検出枠34、35を入力画像N上に描画し、画像NEを作成する。一方、信頼度Cが低い場合には、描画部17は、検出枠を入力画像N上に描画することはしない。
(xv)ステップS1015
記録部18は、描画部17で検出枠34、35を描画した画像NEを画像記憶部90に保存する。
以上説明したように、本発明の第1の実施形態によれば、過去の入力画像(N−1)に基づく色の明るさの平均値aveR1と、現在の入力画像Nに基づく色の明るさの平均値aveR2とを用いて、入力画像Nの明暗を補正した画像NBを作成し、この画像NB毎に、標識と背景を分離するための閾値Thを求めて画像NDを作成している。したがって、閾値Thを用いて、入力画像N内の背景と検出対象物体である標識とを分離することが可能となる。
また、色の原色であるR、G、Bについて、入力画像N内の各画素の原色毎の色差分の絶対値s_R、s_G、s_Bを算出して、色をマスクした画像MBを作成し、この画像MB内の矩形を求めて画像MCを作成している。したがって、入力画像N内の背景と検出対象物体である標示とを分離することが可能となる。
また、複数画像にて検出した物体の検出結果を用いて、物体の信頼度を判定している。したがって、各物体を精度よく認識することが可能となる。
また、検出した物体の位置情報を累積し、検出頻度を判定することで、検出した各物体の位置情報をより正確に求めることが可能となる。
また、色をマスクした画像MBおよび明暗を強調した画像NB内から物体を検出しているため、画像内の標識もしくは標示の一部が切れていても、画像内に映った物体の色および明暗に応じて物体を検出するため、標識および標示を検出することが可能となる。
このように、過去画像と対象画像の明るさ情報を用いて対象画像の明暗を強調した画像を作成し、画像毎に画像内の領域を分離する閾値を求めることで、移動車両の進む方向によって映像内の画像の明るさが変わる場合でも、画像内の背景と背景内の物体を分離して、背景内の物体を検出することが可能となる。また、より正確な位置情報と共に、画像内から物体を検出し、かつ時系列順に取得された複数の画像からそれぞれ検出した物体同士の認識結果を用いることで、精度よく各物体を認識することが可能となる。さらに、不特定多数のユーザが撮影した車載スマートホンの映像内から物体を検出し、位置情報の検出頻度からより正確な位置を求めることで、新設された道路や工事により変更となった道路上の道路付属物や標示をタイムリーに検出することが可能となる。
以上説明した本発明の第1の実施形態によれば、以下の作用効果を奏する。
(1)画像処理装置1は、明暗補正部12と、色解析部13と、物体検出部14と、物体関連解析部15と、を備える。明暗補正部11は、車両に搭載された車載カメラによって撮影された入力画像Nの明暗を補正した明暗補正画像NBを作成する。色解析部13は、入力画像Nの色を補正した色補正画像MBを作成する。物体検出部14は、明暗補正画像NBに基づいて入力画像Nに含まれる標識を検出し、色補正画像MBに基づいて入力画像Nに含まれる標示を検出する。物体関連解析部15は、物体検出部14により検出された標識と標示との時系列での関連性に基づいて、対象物である標識および標示を認識する。このようにしたので、カメラで撮影された画像から対象物である標識および標示を正しく認識することができる。
(2)画像処理装置1は、信頼度判定部16をさらに備える。信頼度判定部16は、標識および標示の位置を取得し、取得した標識および標示の位置の累積結果に基づいて、標識および標示の信頼度Cを判定する。このようにしたので、標識や標示の検出結果が正しいか否かを判定することができる。
(3)明暗補正部12は、入力画像Nの所定範囲に対象領域R2を設定し、入力画像Nよりも前に撮影された過去画像(N−1)の対象領域R2に対応する領域R1内の色の明るさの平均値aveR1と、入力画像Nの対象領域R2内の色の明るさの平均値aveR2とに基づいて、明暗補正画像NBを作成する。このようにしたので、対象物である標識を検出するのに適切な明暗補正画像NBを作成することができる。
(4)色解析部13は、入力画像Nの所定範囲に対象領域R3を設定し、入力画像Nの対象領域R3内の色差分値s_R、s_G、s_Bに基づいて、色補正画像MBを作成する。このようにしたので、対象物である標示を検出するのに適切な色補正画像MBを作成することができる。
(5)物体検出部14は、予め設定された基準画像を用いて、対象物である標識と標示とをそれぞれ検出する。このようにしたので、標識および標示をそれぞれ正確に検出することができる。
(6)物体関連解析部15は、標識が示す交通規制または指示の内容と、標示が示す交通規制または指示の内容とが、時系列順に取得された所定数以上の入力画像において同一であるという条件を満たす場合に、標識と標示とを互いに関連付けて認識する。このようにしたので、互いに対応する標識と標示とを正確かつ確実に関連付けることができる。
(7)また、物体関連解析部15は、上記の条件を満たす標識および標示のうち一方の認識率が所定の第1の閾値、たとえば0.8以上であり、かつ他方の認識率が第1の閾値よりも低い所定の第2の閾値、たとえば0.3未満である場合に、その他方の標識または標示が劣化していると判定することができる。このようにすれば、互いに対応する標識または標示のうち一方がかすれ等によって劣化している場合に、これを確実に判定することができる。
−第2の実施形態−
図13は、本発明の第2の実施形態に係る警告装置1200の構成を示すブロック図である。警告装置1200は、車両に搭載されて用いられるものであり、たとえば地図上に経路を表示してユーザを目的地まで誘導するナビゲーションシステムとして機能する。さらに、車両の周囲に存在する標識や標示等の対象物の情報をリアルタイムで収集し、所定の警告場所に近づいたときに、画面表示や音声により警告(アラート)を出力する。警告場所は、たとえば役所、警察署等の汎用的な建物や、ランドマーク的な建物などの予め決められた場所であってもよいし、過去の車両走行中にユーザがマーキングした場所であってもよい。本実施形態による警告装置1200は、ユーザから情報を収集しながら、ユーザにとって有益な情報を提供するものである。
警告装置1200は、画像データを撮影する撮像デバイス1201と、画像データから検出対象を含む画像を認識する画像処理装置1と、画像処理装置1から出力された認識後画像を表示する表示デバイス1202と、画像処理装置1から出力されたアラート情報を出力する出力デバイス1203と、を有している。警告装置1200には、たとえばスマートホンのような装置などを用いることができる。撮像デバイス1201は、CMOSセンサやCCDカメラ等によって構成され、第1の実施形態において説明した車載カメラに相当する。なお、画像処理装置1の構成および動作は、第1の実施形態で説明したとおりである。
画像処理装置1は、第1の実施形態で説明したように、撮像デバイス1201で撮影した画像から、様々な標識および標示を認識する。さらに、道路上付属物などの物体に対応する基準画像を準備しておき、これを認識対象に含めてもよい。
表示デバイス1202は、画像処理装置1から出力された標識や標示等の認識結果を示す画像を表示するものであり、たとえばスマートホンのディスプレイ装置に相当する。
出力デバイス1203は、画像処理装置1から出力されたアラート情報に基づく警告を画像や音声により出力するものであり、たとえばスマートホンのディスプレイ装置やスピーカーに相当する。
警告装置1200は、画像処理装置1における前述の物体関連解析部15による標識や標示等の物体の認識結果に基づいて、画像処理装置1から出力デバイス1203にアラート情報を出力する。出力デバイス1203は、画像処理装置1からアラート情報が出力されると、これに基づいて車両の運転者であるユーザに対する警告を出力する。たとえば、検出した物体の内容と地図情報が一致した場合は、地図情報をユーザに通知する。また、1回の検出において、検出した物体の内容と地図情報が一致しない場合は、その時点ではアラート情報をユーザに通知しない。また、同じ地点で複数回物体を検出できなかったが、地図情報には物体の情報がある場合、その地点の標識や標示が変わった可能性があるため、ユーザに標識や標示の確認を促すようにメッセージを通知する。たとえば、「標識(または標示)を確認してください」という音声を出力することで、メッセージ通知を行う。なお、標識と標示の情報を組み合わせてユーザに通知してもよいし、これらの情報を分けてユーザに通知してもよい。さらに、アラートが出された地点での撮影画像や物体の認識結果を示す画像などを、その地点を示す情報と共に、警告装置1200において登録するようにしてもよい。
以上説明した本発明の第2の実施形態によれば、警告装置1200は、画像処理装置1と、物体関連解析部15による標識および標示の認識結果に基づいて車両の運転者に対する警告を出力する警告出力部としての出力デバイス1203と、を備える。これにより、車両に搭載されたスマートホン等で撮影した画像から標識や標示を認識し、その認識結果を示す画像とアラート情報をセットにしてユーザに通知する警告装置1200を提供することが可能となる。
−第3の実施形態−
図14は、本発明の第3の実施形態に係る画像処理システム1300の構成を示すブロック図である。画像処理システム1300は、車両で撮影された画像からPOI(Point of Interest)情報を作成するものであり、サーバ1303と、移動端末装置1307と、を有する。
移動端末装置1307は、画像データを撮影する撮像デバイス1301と、画像データから検出対象を含む画像を簡易的に検出する画像処理装置1Aと、画像処理装置1Aから出力された検出後画像をサーバ1303に送信すると共にサーバ1303から伝送されてきた認識後画像を受信する通信デバイス1302と、認識後画像を表示する表示デバイス1305と、を有している。移動端末装置1307は、第2の実施形態で説明した警告装置1200と同様に、たとえばスマートホンのような装置などを用いることができる。撮像デバイス1301は、CMOSセンサやCCDカメラ等によって構成され、第1の実施形態において説明した車載カメラに相当する。
画像処理装置1Aは、第1の実施形態において図1で説明した画像処理装置1の各機能構成のうち、入力部10から物体検出部14までの機能構成を有している。すなわち、移動端末装置1307は、画像処理装置1Aとして、入力部10、色空間変換部11、明暗補正部12、色解析部13および物体検出部14を有している。画像処理装置1Aは、物体検出部14により、撮像デバイス1301で撮影した画像から、標識や標示等を検出し、これらの検出結果を示す画像を検出後画像として通信デバイス1302に出力する。さらに画像処理装置1Aは、道路上付属物等の物体や、施設情報、スポット情報等を表す特定看板などを検出対象に含めてもよい。なお、検出後画像は、撮影された画像全体でもよいし、検出した物体を含む部分画像でもよい。通信デバイス1302は、画像処理装置1Aから出力されたこれらの検出対象物体に対する検出後画像をサーバ1303に送信するものであり、第1の実施形態において図2で説明した通信デバイス206に相当する。
サーバ1303は、移動端末装置1307から送信された検出後画像を受信すると共に画像処理装置1Bから出力された認識後画像を移動端末装置1307に送信する通信デバイス1304と、受信した検出後画像から標識および標示を認識する画像処理装置1Bと、画像処理装置1Bから出力された認識後画像に基づくPOI情報を格納する格納デバイス1306と、を有している。
画像処理装置1Bは、第1の実施形態において図1で説明した画像処理装置1と同じ機能構成を有している。画像処理装置1Bは、入力部10から物体関連解析部15までにより、移動端末装置1307から送信された検出後画像から、標識や標示、道路上付属物、特定看板等の物体を認識する。格納デバイス1306には、これらの認識後画像が位置情報と組み合わされ、POI情報として格納される。
通信デバイス1304は、画像処理装置1Bから出力されたこれらの認識対象物体に対する認識後画像を移動端末装置1307に送信するものであり、第1の実施形態において図2で説明した通信デバイス206に相当する。
サーバ1303から認識後画像が送信されると、移動端末装置1307の通信デバイス1302はこれを受信して表示デバイス1305に出力する。表示デバイス1305は、サーバ1303から伝送された認識後画像を表示するものであり、たとえばスマートホンのディスプレイ装置に相当する。このとき表示デバイス1305は、たとえば地図画面を表示し、その地図画面上の対応する位置に認識後画像に含まれる対象物の存在を示すマークを表示することで、認識された標識や標示等に関する通知を車両の運転者であるユーザに通知してもよい。
以上説明した本発明の第3の実施形態によれば、画像処理システム1300は、車両に搭載された移動端末装置1307と、移動端末装置1307との間で通信を行うサーバ1303と、を有する。移動端末装置1307は、画像処理装置1Aとして、明暗補正部12、色解析部13および物体検出部14を備え、また、物体検出部14による標識と標示との検出結果を示す検出後画像をサーバ1303に送信する画像送信部としての通信デバイス1302を備える。サーバ1303は、移動端末装置1307から送信された検出後画像を受信する画像受信部としての通信デバイス1304を備え、また、画像処理装置1Bは、受信された検出後画像を用いて標識および標示を認識する、図1で説明した画像処理装置1と同等の構成を備える。これにより、車両に搭載されたスマートホン等で撮影した画像から、標識や標示、特定看板などを認識し、その認識後画像と位置情報をセットでPOI情報として格納するシステムを提供することが可能となる。
画像処理システム1300において、サーバ1303の通信デバイス1304は、画像処理装置1Bにより認識された標識および標示に関する認識後画像を移動端末装置1307に送信する第2の画像送信部としても機能する。また、移動端末装置1307の通信デバイス1302は、サーバ1303から送信された認識後画像を受信する第2の画像受信部としても機能する。さらに、移動端末装置1307は、通信デバイス1302により受信された認識後画像に基づいて、標識および標示に関する通知を車両の運転者に対して行う通知部としての表示デバイス1305を備える。このようにしたので、車両の運転時に有用な情報を運転者に通知することができる。
−第4の実施形態−
図15は、本発明の第4の実施形態に係る画像処理システム1400の構成を示すブロック図である。画像処理システム1400は、車両で撮影された画像に基づいて車両の運転者に警告を出力するものであり、サーバ1403と、移動端末装置1408と、を有する。
画像処理システム1400は、第2の実施形態で説明した警告装置1200と同様に、たとえば地図上に経路を表示してユーザを目的地まで誘導するナビゲーションシステムとして機能する。さらに、車両の周囲に存在する標識や標示等の対象物の情報をリアルタイムで収集し、所定の警告場所に近づいたときに、画面表示や音声により警告(アラート)を出力する。警告場所は、たとえば役所、警察署等の汎用的な建物や、ランドマーク的な建物などの予め決められた場所であってもよいし、過去の車両走行中にユーザがマーキングした場所であってもよい。本実施形態による画像処理システム1400は、ユーザから情報を収集しながら、ユーザにとって有益な情報を提供するものである。
移動端末装置1408は、画像データを撮影する撮像デバイス1401と、画像データから検出対象を含む画像を簡易的に検出する画像処理装置1Aと、画像処理装置1Aから出力された検出後画像をサーバ1403に送信すると共にサーバ1403から伝送されてきた認識後画像およびアラート情報を受信する通信デバイス1402と、認識後画像を表示する表示デバイス1405と、アラート情報を出力する出力デバイス1406と、を有している。移動端末装置1408は、第3の実施形態で説明した移動端末装置1307と同様に、たとえばスマートホンのような装置などを用いることができる。撮像デバイス1401は、CMOSセンサやCCDカメラ等によって構成され、第1の実施形態において説明した車載カメラに相当する。
画像処理装置1Aの構成および動作は、第3の実施形態で説明したとおりである。通信デバイス1402は、第1の実施形態において図2で説明した通信デバイス206に相当する。
サーバ1403は、移動端末装置1408から送信された検出後画像を受信すると共に画像処理装置1Bから出力された認識後画像やアラート情報を移動端末装置1408に送信する通信デバイス1404と、受信した検出後画像から標識や標示を認識する画像処理装置1Bと、画像処理装置1Bから出力された認識後画像に基づく認識情報を格納する格納デバイス1407と、を有している。
画像処理装置1Bの構成および動作は、第3の実施形態で説明したとおりである。サーバ1403は、画像処理装置1Bによる標識や標示等の物体の認識結果に基づいて、画像処理装置1Bから通信デバイス1404に認識後画像やアラート情報を出力する。格納デバイス1407には、画像処理装置1Bが標識や標示等の道路上付属物を認識して得られた認識後画像が位置情報と組み合わされ、認識情報として格納される。通信デバイス1404は、画像処理装置1Bから出力された認識対象物体に対する認識後画像やアラート情報を移動端末装置1408に送信するものであり、第1の実施形態において図2で説明した通信デバイス206に相当する。
サーバ1403から認識後画像やアラート情報が送信されると、移動端末装置1408の通信デバイス1402はこれらを受信して、表示デバイス1405と出力デバイス1406にそれぞれ出力する。表示デバイス1405は、第3の実施形態で説明した表示デバイス1305と同様に、サーバ1403から伝送された認識後画像を表示してユーザに通知するものであり、たとえばスマートホンのディスプレイ装置に相当する。
出力デバイス1406は、サーバ1403から伝送されたアラート情報に基づく警告を画像や音声により出力するものであり、たとえばスマートホンのディスプレイ装置やスピーカーに相当する。なお、アラートが出された地点での撮影画像や物体の認識結果を示す画像などを、その地点を示す情報と共に、サーバ1403や移動端末装置1408において登録するようにしてもよい。
以上説明した本発明の第4の実施形態によれば、画像処理システム1400は、第3の実施形態に係る画像処理システム1300と同様に、車両に搭載された移動端末装置1408と、移動端末装置1408との間で通信を行うサーバ1403と、を有する。移動端末装置1408は、画像処理装置1Aとして、明暗補正部12、色解析部13および物体検出部14を備え、また、物体検出部14による標識と標示との検出結果を示す検出後画像をサーバ1403に送信する画像送信部としての通信デバイス1402を備える。サーバ1403は、移動端末装置1408から送信された検出後画像を受信する画像受信部としての通信デバイス1404を備え、また、画像処理装置1Bは、受信された検出後画像を用いて標識および標示を認識する、図1で説明した画像処置装置1と同等の構成を備える。さらに、画像処理システム1400において、サーバ1403の通信デバイス1404は、画像処理装置1Bによる標識および標示の認識結果に基づく警告情報(アラート情報)を移動端末装置1408に送信する警告情報送信部としても機能する。また、移動端末装置1408の通信デバイス1402は、サーバ1403から送信された警告情報(アラート情報)を受信する警告情報受信部としても機能する。さらに、移動端末装置1408は、通信デバイス1402により受信された警告情報(アラート情報)に基づいて、車両の運転者に対する警告を出力する警告出力部としての出力デバイス1406を備える。これにより、車両に搭載されたスマートホン等で撮影した画像から、標識や標示を認識し、その認識結果に基づく警告をユーザに行うシステムを提供することが可能となる。
−第5の実施形態−
図16は、本発明の第5の実施形態に係る画像処理システム1500の構成を示すブロック図である。画像処理システム1500は、たとえば、ユーザによって走行ルートが設定されると、車両の周囲に存在する標識や標示等の対象物の情報をリアルタイムで収集しながらユーザに提示し、走行ルートに従って車両を目的地まで誘導する。このとき、第2の実施形態で説明した警告装置1200のように、地図上に経路を表示して車両誘導を行う代わりに、本実施形態では、設定されたルート上で車両誘導に関する標識や標示を認識したら、その標識や標示の認識結果に基づいて車両を誘導する。たとえば、左折すべき地点において左折方向を示す標識や標示を認識したら、「ここを左折です」との音声を出力する等の方法により、車両の誘導を行う。画像処理システム1500は、サーバ1503と、移動端末装置1508と、を有する。
移動端末装置1508は、画像データを撮影する撮像デバイス1501と、画像データから検出対象を含む画像を簡易的に検出する画像処理装置1Aと、画像処理装置1Aから出力された検出後画像をサーバ1503に送信すると共にサーバ1503から伝送されてきた認識後画像および誘導情報を受信する通信デバイス1502と、認識後画像を表示する表示デバイス1505と、誘導情報を出力する出力デバイス1506と、を有している。移動端末装置1508は、第3の実施形態で説明した移動端末装置1307や、第4の実施形態で説明した移動端末装置1408と同様に、たとえばスマートホンのような装置などを用いることができる。撮像デバイス1501は、CMOSセンサやCCDカメラ等によって構成され、第1の実施形態において説明した車載カメラに相当する。
画像処理装置1Aの構成および動作は、第3の実施形態で説明したとおりである。通信デバイス1502は、第1の実施形態において図2で説明した通信デバイス206に相当する。
サーバ1503は、移動端末装置1508から送信された検出後画像を受信すると共に画像処理装置1Bから出力された認識後画像や誘導情報を移動端末装置1508に送信する通信デバイス1504と、受信した検出後画像から標識や標示、方面看板を認識する画像処理装置1Bと、画像処理装置1Bから出力された認識後画像に基づく認識情報を格納する格納デバイス1507と、を有している。
画像処理装置1Bの構成および動作は、第3の実施形態で説明したとおりである。サーバ1503は、画像処理装置1Bによる標識や標示、方面看板等の物体の認識結果に基づいて、画像処理装置1Bから通信デバイス1504に認識後画像や誘導情報を出力する。たとえば、車両の進行方向に関係する方面看板か否かを識別し、方面看板の矢印や文字から、矢印や文字のパターンマッチング等により誘導方向を識別して誘導情報を出力する。格納デバイス1507には、画像処理装置1Bが標識や標示等の道路上付属物を認識して得られた認識後画像が位置情報と組み合わされ、認識情報として格納される。通信デバイス1504は、画像処理装置1Bから出力された認識対象物体に対する認識後画像や誘導情報を移動端末装置1508に送信するものであり、第1の実施形態において図2で説明した通信デバイス206に相当する。
サーバ1503から認識後画像や誘導情報が送信されると、移動端末装置1508の通信デバイス1502はこれらを受信して、表示デバイス1505と出力デバイス1506にそれぞれ出力する。表示デバイス1505は、第3の実施形態で説明した表示デバイス1305と同様に、サーバ1503から伝送された認識後画像を表示してユーザに通知するものであり、たとえばスマートホンのディスプレイ装置に相当する。
出力デバイス1506は、サーバ1503から伝送された誘導情報に基づいて、たとえば車両が曲がるべき方向を画像や音声でユーザに指示することにより、車両を目的地まで誘導する。出力デバイス1506は、たとえばスマートホンのディスプレイ装置やスピーカーに相当する。
以上説明した本発明の第5の実施形態によれば、画像処理システム1500は、第3の実施形態に係る画像処理システム1300と同様に、車両に搭載された移動端末装置1508と、移動端末装置1508との間で通信を行うサーバ1503と、を有する。移動端末装置1508は、画像処理装置1Aとして、明暗補正部12、色解析部13および物体検出部14を備え、また、物体検出部14による標識と標示との検出結果を示す検出後画像をサーバ1503に送信する画像送信部としての通信デバイス1502を備える。サーバ1503は、移動端末装置1508から送信された検出後画像を受信する画像受信部としての通信デバイス1504を備え、また、画像処理装置1Bは、受信された検出後画像を用いて標識および標示を認識する、図1で説明した画像処理装置1と同等の構成を備える。さらに、画像処理システム1500において、サーバ1503の通信デバイス1504は、画像処理装置1Bによる標識および標示の認識結果に基づいて、車両を所定の目的地まで誘導するための誘導情報を移動端末装置1508に送信する誘導情報送信部としても機能する。また、移動端末装置1508の通信デバイス1502は、サーバ1503から送信された誘導情報を受信する誘導情報受信部としても機能する。さらに、移動端末装置1508は、通信デバイス1502により受信された誘導情報に基づいて、車両を目的地まで誘導する車両誘導部としての出力デバイス1506を備える。これにより、車両に搭載されたスマートホン等で撮影した画像から、標識や標示を認識し、その認識結果に基づいて車両を簡易的に誘導するシステムを提供することが可能となる
以上説明した各実施形態については、次のような変形が可能である。
色空間変換部11では、入力画像をLab色空間に変換した画像を作成したが、HSV色空間等の他の色空間の画像に変換してもよい。その場合でも、上記実施形態と同様の効果を有する。
物体検出部14では、式(6)を用いて、基準画像と検出した物体の画像との類似度を判定したが、B32(r)、B32(g)、B32(b)のどれか1つを用いてもよく、また、それぞれの組合せを用いて類似度を判定してもよい。その場合でも、上記実施形態と同様の効果を有する。
物体検出部14では、道路の付近に設置された標識と、路面に描かれた標示とを、それぞれ対象物として検出および認識し、物体関連解析部15では、これらの対象物の関連性を解析することで、これらの対象物を認識することとしたが、別のものを対象物としてもよい。その場合でも、上記実施形態と同様の効果を有する。
本発明は、実施形態の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をシステムや装置に提供し、そのシステムや装置に搭載されたコンピュータ(CPU、MPU等)が記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコードがコンピュータに実行されることで、前述した実施形態の機能が実現されることになり、そのプログラムコードや、これを記憶した記憶媒体や、これを実行するコンピュータなどが、本発明の構成要素となる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD−ROM、DVD−ROM、ハードディスク、光ディスク、光磁気ディスク、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。
なお、以上説明した実施形態や各種の変化例はあくまで一例であり、発明の特徴が損なわれない限り、本発明はこれらの内容に限定されない。本発明は、上述した実施形態や変形例に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の変更が可能である。
1,1A,1B・・・画像処理装置
10・・・入力部
11・・・色空間変換部
12・・・明暗補正部
13・・・色解析部
14・・・物体検出部
15・・・物体関連解析部
16・・・信頼度判定部
17・・・描画部
18・・・記録部
90・・・画像記憶部
91・・・制御部
1200・・・警告装置
1300,1400,1500・・・画像処理システム

Claims (14)

  1. 車両に搭載された車載カメラによって撮影された入力画像の明暗を補正した明暗補正画像を作成する明暗補正部と、
    前記入力画像の色を補正した色補正画像を作成する色解析部と、
    前記明暗補正画像に基づいて前記入力画像に含まれる第1の対象物を検出し、前記色補正画像に基づいて前記入力画像に含まれる第2の対象物を検出する物体検出部と、
    前記物体検出部により検出された前記第1の対象物と前記第2の対象物との時系列での関連性に基づいて、前記第1の対象物および前記第2の対象物を認識する物体関連解析部と、を備え
    前記第1の対象物は道路の付近に設置された標識であり、
    前記第2の対象物は路面に描かれた標示であり、
    前記物体関連解析部は、前記標識が示す交通規制または指示の内容と、前記標示が示す交通規制または指示の内容とが、時系列順に取得された所定数以上の前記入力画像において同一であるという条件を満たす場合に、前記標識と前記標示とを互いに関連付けて認識する画像処理装置。
  2. 請求項1に記載の画像処理装置において、
    前記第1の対象物および前記第2の対象物の位置を取得し、取得した前記第1の対象物および前記第2の対象物の位置の累積結果に基づいて、前記第1の対象物および前記第2の対象物の信頼度を判定する信頼度判定部をさらに備える画像処理装置。
  3. 請求項1または2に記載の画像処理装置において、
    前記明暗補正部は、前記入力画像の所定範囲に対象領域を設定し、前記入力画像よりも前に撮影された過去画像の前記対象領域に対応する領域内の色の明るさの平均値と、前記入力画像の前記対象領域内の色の明るさの平均値とに基づいて、前記明暗補正画像を作成する画像処理装置。
  4. 請求項1から請求項3のいずれか一項に記載の画像処理装置において、
    前記色解析部は、前記入力画像の所定範囲に対象領域を設定し、前記入力画像の前記対象領域内の色差分値に基づいて、前記色補正画像を作成する画像処理装置。
  5. 請求項1から請求項4のいずれか一項に記載の画像処理装置において、
    前記物体検出部は、予め設定された基準画像を用いて、前記第1の対象物と前記第2の対象物とをそれぞれ検出する画像処理装置。
  6. 請求項1から請求項5のいずれか一項に記載の画像処理装置において、
    前記物体関連解析部は、前記条件を満たす前記標識および前記標示のうち一方の認識率が所定の第1の閾値以上であり、かつ他方の認識率が前記第1の閾値よりも低い所定の第2の閾値未満であり、他方の認識率が前記第2の閾値よりも低い所定の第3の閾値以上である場合に、前記他方の前記標識または前記標示が劣化していると判定する画像処理装置。
  7. 請求項1から請求項6のいずれか一項に記載の画像処理装置において、
    前記物体関連解析部は、前記物体検出部が前記第1の対象物または前記第2の対象物として検出した前記標識や前記標示の種別に応じて、前記第1の対象物および前記第2の対象物の認識結果の中から対象とする認識結果を決めて、前記第1の対象物および前記第2の対象物の認識を行う画像処理装置。
  8. 車両に搭載された車載カメラによって撮影された入力画像の明暗を補正した明暗補正画像を作成する明暗補正部と、
    前記入力画像の色を補正した色補正画像を作成する色解析部と、
    前記明暗補正画像に基づいて前記入力画像に含まれる第1の対象物を検出し、前記色補正画像に基づいて前記入力画像に含まれる第2の対象物を検出する物体検出部と、
    前記物体検出部により検出された前記第1の対象物と前記第2の対象物との時系列での関連性に基づいて、前記第1の対象物および前記第2の対象物を認識する物体関連解析部と、を備え、
    前記第1の対象物は道路の付近に設置された標識であり、
    前記第2の対象物は路面に描かれた標示であり、
    前記物体関連解析部は、前記物体検出部が前記第1の対象物または前記第2の対象物として検出した前記標識や前記標示の種別に応じて、前記第1の対象物および前記第2の対象物の認識結果の中から対象とする認識結果を決めて、前記第1の対象物および前記第2の対象物の認識を行う画像処理装置。
  9. 請求項1から請求項8のいずれか一項に記載の画像処理装置と、
    前記画像処理装置による前記第1の対象物および前記第2の対象物の認識結果に基づいて、前記車両の運転者に対する警告を出力する警告出力部と、を備える警告装置。
  10. 車両に搭載された端末装置と、前記端末装置との間で通信を行うサーバ装置と、を有し、
    前記端末装置は、
    車両に搭載された車載カメラによって撮影された入力画像の明暗を補正した明暗補正画像を作成する明暗補正部と、
    前記入力画像の色を補正した色補正画像を作成する色解析部と、
    前記明暗補正画像に基づいて前記入力画像に含まれる第1の対象物を検出し、前記色補正画像に基づいて前記入力画像に含まれる第2の対象物を検出する物体検出部と、
    前記物体検出部による前記第1の対象物と前記第2の対象物との検出結果を示す検出後画像を前記サーバ装置に送信する画像送信部と、を備え、
    前記サーバ装置は、
    前記端末装置から送信された前記検出後画像を受信する画像受信部と、
    前記画像受信部により受信された検出後画像の明暗を補正した明暗補正画像を作成する第2の明暗補正部と、
    前記画像受信部により受信された検出後画像の色を補正した色補正画像を作成する第2の色解析部と、
    前記明暗補正画像に基づいて前記検出後画像に含まれる第1の対象物を検出し、前記色補正画像に基づいて前記検出後画像に含まれる第2の対象物を検出する第2の物体検出部と、
    前記画像受信部により受信された前記検出後画像における前記第1の対象物と前記第2の対象物との時系列での関連性に基づいて、前記第1の対象物および前記第2の対象物を認識する物体関連解析部と、を備える画像処理システム。
  11. 請求項10に記載の画像処理システムにおいて、
    前記サーバ装置は、前記物体関連解析部により認識された前記第1の対象物および前記第2の対象物に関する認識後画像を前記端末装置に送信する第2の画像送信部をさらに備え、
    前記端末装置は、
    前記サーバ装置から送信された前記認識後画像を受信する第2の画像受信部と、
    前記第2の画像受信部により受信された前記認識後画像に基づいて、前記第1の対象物および前記第2の対象物に関する通知を前記車両の運転者に対して行う通知部と、をさらに備える画像処理システム。
  12. 請求項10に記載の画像処理システムにおいて、
    前記サーバ装置は、前記物体関連解析部による前記第1の対象物および前記第2の対象物の認識結果に基づく警告情報を前記端末装置に送信する警告情報送信部をさらに備え、
    前記端末装置は、
    前記サーバ装置から送信された前記警告情報を受信する警告情報受信部と、
    前記警告情報受信部により受信された前記警告情報に基づいて、前記車両の運転者に対する警告を出力する警告出力部と、をさらに備える画像処理システム。
  13. 請求項10に記載の画像処理システムにおいて、
    前記サーバ装置は、前記物体関連解析部による前記第1の対象物および前記第2の対象物の認識結果に基づいて、前記車両を所定の目的地まで誘導するための誘導情報を前記端末装置に送信する誘導情報送信部をさらに備え、
    前記端末装置は、
    前記サーバ装置から送信された前記誘導情報を受信する誘導情報受信部と、
    前記誘導情報受信部により受信された前記誘導情報に基づいて、前記車両を前記目的地まで誘導する車両誘導部と、をさらに備える画像処理システム。
  14. 車両に搭載された車載カメラによって撮影され、コンピュータに入力された入力画像の処理方法であって、前記コンピュータにより、
    前記入力画像の明暗を補正した明暗補正画像を作成し、
    前記入力画像の色を補正した色補正画像を作成し、
    前記明暗補正画像に基づいて、道路の付近に設置されて前記入力画像に含まれる標識を第1の対象物として検出し、
    前記色補正画像に基づいて、路面に描かれて前記入力画像に含まれる標示を第2の対象物として検出し、
    前記第1の対象物として検出された前記標識が示す交通規制または指示の内容と、前記第2の対象物として検出された前記標示が示す交通規制または指示の内容とが、時系列順に取得された所定数以上の前記入力画像において同一であるという条件を満たす場合に、前記標識と前記標示とを互いに関連付けて認識する、画像処理方法。
JP2016208026A 2016-10-24 2016-10-24 画像処理装置、警告装置、画像処理システム、画像処理方法 Active JP6802035B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016208026A JP6802035B2 (ja) 2016-10-24 2016-10-24 画像処理装置、警告装置、画像処理システム、画像処理方法
EP17197849.7A EP3312769B1 (en) 2016-10-24 2017-10-23 Image processing apparatus, warning apparatus, image processing system, and image processing method
US15/790,199 US10417751B2 (en) 2016-10-24 2017-10-23 Image processing apparatus, warning apparatus, image processing system, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016208026A JP6802035B2 (ja) 2016-10-24 2016-10-24 画像処理装置、警告装置、画像処理システム、画像処理方法

Publications (2)

Publication Number Publication Date
JP2018072893A JP2018072893A (ja) 2018-05-10
JP6802035B2 true JP6802035B2 (ja) 2020-12-16

Family

ID=60269622

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016208026A Active JP6802035B2 (ja) 2016-10-24 2016-10-24 画像処理装置、警告装置、画像処理システム、画像処理方法

Country Status (3)

Country Link
US (1) US10417751B2 (ja)
EP (1) EP3312769B1 (ja)
JP (1) JP6802035B2 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10406981B2 (en) * 2014-03-20 2019-09-10 Magna Electronics Inc. Vehicle vision system with curvature estimation
US10019788B1 (en) * 2017-02-14 2018-07-10 Cogniac, Corp. Machine-learning measurements of quantitative feature attributes
CN109523555A (zh) * 2017-09-18 2019-03-26 百度在线网络技术(北京)有限公司 用于无人驾驶车辆的前车刹车行为检测方法和装置
JP2019197002A (ja) * 2018-05-10 2019-11-14 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
DE112018007668T5 (de) * 2018-05-31 2021-04-08 Yamaha Hatsudoki Kabushiki Kaisha Erkennungsparameteroptimierungsvorrichtung, komponentenmontier-system und erkennunsparameteroptimierungsverfahren
US11030898B2 (en) * 2018-12-13 2021-06-08 Here Global B.V. Methods and systems for map database update based on road sign presence
JP7103201B2 (ja) * 2018-12-20 2022-07-20 トヨタ自動車株式会社 情報処理システム、プログラム、及び情報処理方法
JP2020113070A (ja) * 2019-01-11 2020-07-27 トヨタ自動車株式会社 道路環境判別装置
JP7206968B2 (ja) * 2019-02-01 2023-01-18 トヨタ自動車株式会社 サーバ及び交通管理システム
JP7358762B2 (ja) * 2019-04-02 2023-10-11 トヨタ自動車株式会社 道路異常検知装置、道路異常検知方法および道路異常検知プログラム
JP7289594B2 (ja) * 2019-05-22 2023-06-12 矢崎エナジーシステム株式会社 情報記録システム
JP2020201583A (ja) * 2019-06-06 2020-12-17 ルネサスエレクトロニクス株式会社 半導体装置、移動体装置および移動体装置の制御方法
JP2022055229A (ja) * 2020-09-28 2022-04-07 横河電機株式会社 監視用デバイス、学習装置、方法およびプログラム
US20220191385A1 (en) * 2020-12-16 2022-06-16 Irobot Corporation Dynamic camera adjustments in a robotic vacuum cleaner
CN115497071A (zh) * 2022-09-16 2022-12-20 重庆长安汽车股份有限公司 车辆行驶中的目标检测方法、装置、设备及介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4414369B2 (ja) * 2005-06-03 2010-02-10 本田技研工業株式会社 車両及び路面標示認識装置
CN101263720B (zh) * 2005-10-04 2010-05-19 松下电器产业株式会社 车载摄像装置
JP4752836B2 (ja) 2007-12-25 2011-08-17 日本電気株式会社 道路環境情報通知装置及び道路環境情報通知プログラム
JP5338371B2 (ja) * 2009-02-24 2013-11-13 トヨタ自動車株式会社 車両用警報装置
JP5416307B1 (ja) * 2013-07-08 2014-02-12 アサヒリサーチ株式会社 車両の運行管理装置及びコンピュータプログラム
WO2015008290A2 (en) * 2013-07-18 2015-01-22 Secure4Drive Communication Ltd. Method and device for assisting in safe driving of a vehicle
JP5961207B2 (ja) * 2014-03-28 2016-08-02 富士重工業株式会社 車外環境認識装置
JP6426433B2 (ja) * 2014-10-27 2018-11-21 株式会社日立製作所 画像処理装置、画像処理方法、poi情報作成システム、警告システム、及び誘導システム

Also Published As

Publication number Publication date
EP3312769B1 (en) 2019-09-25
US20180114299A1 (en) 2018-04-26
EP3312769A1 (en) 2018-04-25
JP2018072893A (ja) 2018-05-10
US10417751B2 (en) 2019-09-17

Similar Documents

Publication Publication Date Title
JP6802035B2 (ja) 画像処理装置、警告装置、画像処理システム、画像処理方法
JP6552979B2 (ja) 画像処理装置、警告装置、画像処理システム、画像処理方法
JP6549898B2 (ja) 物体検出システム、物体検出方法、poi情報作成システム、警告システム、及び誘導システム
JP6804965B2 (ja) 画像処理装置、画像処理システム、および画像処理方法
JP6426433B2 (ja) 画像処理装置、画像処理方法、poi情報作成システム、警告システム、及び誘導システム
JP4321821B2 (ja) 画像認識装置及び画像認識方法
US20220327406A1 (en) Systems and methods for classifying driver behavior
US20060233424A1 (en) Vehicle position recognizing device and vehicle position recognizing method
US10255804B2 (en) Method for generating a digital record and roadside unit of a road toll system implementing the method
CN111967396A (zh) 障碍物检测的处理方法、装置、设备及存储介质
JP2024019588A (ja) 地図データ生成装置
JP6916975B2 (ja) 標識位置特定システム及びプログラム
JP5434745B2 (ja) 基準パターン情報生成装置、方法、プログラムおよび一般車両位置特定装置
JP2019197359A (ja) 一般物体認識システム
JP2021144311A (ja) 情報処理装置
JP2021144310A (ja) 情報出力装置

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20161222

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170921

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190530

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201126

R150 Certificate of patent or registration of utility model

Ref document number: 6802035

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150