JP6635188B2 - 物体認識装置、物体認識方法及び物体認識プログラム - Google Patents

物体認識装置、物体認識方法及び物体認識プログラム Download PDF

Info

Publication number
JP6635188B2
JP6635188B2 JP2018505263A JP2018505263A JP6635188B2 JP 6635188 B2 JP6635188 B2 JP 6635188B2 JP 2018505263 A JP2018505263 A JP 2018505263A JP 2018505263 A JP2018505263 A JP 2018505263A JP 6635188 B2 JP6635188 B2 JP 6635188B2
Authority
JP
Japan
Prior art keywords
recognition
wheel
image
detected
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018505263A
Other languages
English (en)
Other versions
JPWO2017158983A1 (ja
Inventor
卓也 小倉
卓也 小倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Publication of JPWO2017158983A1 publication Critical patent/JPWO2017158983A1/ja
Application granted granted Critical
Publication of JP6635188B2 publication Critical patent/JP6635188B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/768Arrangements for image or video recognition or understanding using pattern recognition or machine learning using context analysis, e.g. recognition aided by known co-occurring patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Description

本発明は物体認識装置、物体認識方法及び物体認識プログラムに関する。
車両に搭載したカメラの画像に基づき車両周辺の状況を認識し、運転者に警告を通知する安全支援装置が普及している。そのような安全支援装置は、カメラが撮像した画像に対して複数の認識辞書を用い、自車両周辺の車両や歩行者などを認識するようにしている。
例えば、特許文献1には、画像認識装置において、複数の画像から求めた対象物の移動速度に応じて認識辞書を設定し、自転車、二輪車及びその乗員と、歩行者とを識別することが記載されている。
また、特許文献2には、画像認識装置において、路面との接地部分を除いた候補物体のパターンを複数記憶し、画像内の候補物体と所定の相関関係が得られるパターンを抽出し、候補物体の接地位置を推定し、実際の候補物体との距離を算出することが記載されている。
特開2007−249841号公報 特開2007−188417号公報
しかしながら、一般に、歩行者と自転車などとが同じような速度で移動している場合も多く、特許文献1に係る画像認識装置では、このような場合に正しい認識辞書を設定して、対象物を識別することが困難になる。また、自転車などをその斜め前方向又は斜め後ろ方向から撮影したときに、自転車であると認識できない、又は、人物であると誤認識してしまうことがある。
また、特許文献2には候補物体が歩行者である場合の実施例が記載されているが、この発明は、候補物体が車両などであっても良いように考えることができる。
しかしながら、実際に、路面との接地部分を除いた車両のパターン、又は、路面との接地部分を含む車両全体のパターンを機械学習させた辞書を用いて、画像内の車両を認識しようとすると、その検出位置が実際の車両画像からずれてしまうことがある。そして、ずれた検出位置、すなわち、ずれた接地位置に基づいて、当該車両との距離を算出すると、運転者に適切なタイミングで警告を通知することができない。
本発明は、このような問題を解決するためになされたものであり、画像から対象物をより正確に検出することができる物体認識装置、物体認識方法及び物体認識プログラムを提供することを目的とする。
そこで、本実施形態は、被写体を撮影した画像を取得する画像取得部と、取得した画像に対して、認識辞書を用いて被写体を認識する認識処理部とを備え、認識処理部は、取得した画像に対して対象物認識辞書を用いて対象物を検出し、検出した対象物の下部に対して車輪認識辞書を用いて車輪を検出し、車輪の検出結果を対象物の検出結果に反映させる、物体認識装置を提供する。
また、本実施形態は、被写体を撮影した画像を取得する画像取得ステップと、取得した画像に対して、認識辞書を用いて被写体を認識する認識処理ステップとを有し、認識処理ステップは、取得した画像に対して対象物認識辞書を用いて対象物を検出し、検出した対象物の下部に対して車輪認識辞書を用いて車輪を検出し、車輪の検出結果を対象物の検出結果に反映させる、物体認識方法を提供する。
本実施形態により、画像から対象物をより正確に検出する物体認識装置、物体認識方法及び物体認識プログラムを提供することができる。
実施の形態1に係る物体認識システム1の概略構成を示すブロック図である。 実施の形態1に係る物体認識方法の処理手順を示すフローチャートである。 実施の形態1に係る認識対象画像の例を示す図である。 実施の形態1に係る人物の検出結果を示す図である。 実施の形態1に係る車輪の認識範囲を示す図である。 実施の形態1に係る車輪の検出結果を示す図である。 実施の形態1に係る自転車の検出結果を示す図である。 実施の形態2に係る物体認識方法の処理手順を示すフローチャートである。 実施の形態2に係る認識対象画像及び車両認識結果を示す図である。 実施の形態2に係る車輪の認識範囲を示す図である。 実施の形態2に係る車輪認識結果を示す図である。 実施の形態2に係る検出矩形及び距離の表示例を示す図である。 実施の形態3に係る物体認識方法の処理手順を示すフローチャートである。 実施の形態4に係る物体認識方法の処理手順を示すフローチャートである。
以下、図面を参照して各実施の形態に係る物体認識システム及び物体認識方法について説明する。
なお、本明細書の「画像」には、静止画像及び動画像が含まれる。
また、本明細書の「車両」には、自動車(自動二輪を含む)、原動機付自転車、軽車両(自転車を含む)、車いす、パーソナルモビリティなどが含まれる。
また、本明細書の「乗員」には、車両などに乗って運転している者(運転者)、車両などに乗っている者(運転者以外)などが含まれる。
(実施の形態1)
本実施の形態1に係る物体認識システム及び物体認識方法は、人物を撮影した画像に対して、人物認識辞書を用いて人物を検出し、検出した人物に対して車輪認識辞書を用いて車輪を検出し、検出した人物が車両の乗員であるか、歩行者であるかを判断するものである。
まず、本実施の形態1に係る物体認識システムの構成について説明する。
図1は、本実施の形態1に係る物体認識システム1の概略構成を示すブロック図である。
物体認識システム1は、主に車両において利用されるシステムであり、前方カメラ10、物体認識装置20、辞書データ記憶装置30、表示装置40などを備える。
前方カメラ10は、自車両の進行方向の画像を撮像し、当該画像を物体認識装置20に入力する。前方カメラ10は、可視光の画像を撮像するカメラであるが、赤外光も検出可能なカメラであっても良いし、可視光の画像を撮像するカメラと、赤外光を検出するカメラとを組み合わせたものであっても良い。
物体認識装置20は、前方カメラ10が撮像した画像を用いて、歩行者、自転車などを認識し、必要に応じて、警告信号を表示装置40などに出力する。物体認識装置20は、例えば、前方カメラ10が撮影した映像のフレーム毎又は数フレーム毎に歩行者、自転車などを認識する。また、物体認識装置20は、画像において、認識した歩行者、自転車などの接地位置を特定し、自車両と、歩行者、自転車などとの距離を算出する。このために、物体認識装置20は、画像取得部21、認識処理部22、表示制御部23などを有する。
画像取得部21は、前方カメラ10が撮像した画像を入力し、認識処理部22に出力する。
認識処理部22は、画像に対して、辞書データ記憶装置30に記憶した人物認識辞書、自転車認識辞書、車輪認識辞書などを用いて、歩行者、自転車、車輪(タイヤ)などを認識、必要に応じて運転者に警告するように、表示制御部23に信号を出力する。
表示制御部23は、表示装置40で警告画像を表示したり、警告音声を出力したりするための制御を行う。また、表示制御部23は、認識した歩行者、自転車などの接地位置の、画像における位置から算出した距離情報を、表示装置40に表示させる制御も行う。
辞書データ記憶装置30は、人物認識辞書、自転車認識辞書、車輪認識辞書などを記憶する。なお、人物認識辞書、自転車認識辞書、車輪認識辞書は、人物、自転車、車輪をいろいろな角度から撮影した画像又はそれらの切り抜き画像を機械学習して作成したものである。
なお、物体認識システム1は、辞書データ記憶装置30を備えていなくても良い。このとき、辞書データ記憶装置30は、物体認識システム1が利用可能な通信インターフェースを用いて接続される外部サーバであれば良い。また、辞書データ記憶装置30を、辞書データ参照装置として構成しても良い。
表示装置40は、運転者などの自車両の乗員に対して、自車両の進行方向に歩行者、自転車などが存在する旨の警告を画像又は音声で通知する。また、表示装置40は、自車両の乗員に対して、認識した歩行者、自転車までの距離を通知する。
なお、物体認識装置20が実現する各構成要素は、例えば、コンピュータである物体認識装置20が備える演算装置(図示せず)の制御によって、プログラムを実行させることによって実現できる。より具体的には、物体認識装置20は、記憶部(図示せず)に格納されたプログラムを主記憶装置(図示せず)にロードし、演算装置の制御によってプログラムを実行して実現する。
また、各構成要素は、プログラムによるソフトウェアで実現することに限ることなく、ハードウェア、ファームウェア、及びソフトウェアのうちのいずれかの組み合わせなどにより実現しても良い。
上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、物体認識装置20に供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。
非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。
また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によって物体認識装置20に供給されても良い。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバなどの有線通信路又は無線通信路を介して、プログラムを物体認識装置20に供給できる。
次に、本実施の形態1に係る物体認識システム1の動作、すなわち、物体認識方法について説明する。
図2は、本実施の形態1に係る物体認識方法の処理手順を示すフローチャートである。
物体認識システム1が動作を開始すると、前方カメラ10が自車両の進行方向の画像を撮像し、画像取得部21が当該画像を認識対象画像として取得する(ステップS10)。
図3は、本実施の形態1に係る認識対象画像の例を示す図である。
画像には、自車両前方の横断歩道を歩いて横断し始めた人物Aと、横断歩道を自転車に乗って横断中の人物Bと、横断歩道よりも更に向こうの方で自転車に乗って道路を斜めに横断している人物Cとが写っている。
次に、認識処理部22が認識対象画像に対して、辞書データ記憶装置30に記憶した人物認識辞書を用いて、人物の認識を行う(ステップS20)。このとき、認識処理部22は、認識対象画像の全域において人物を認識しても良いし、認識対象画像の上下の領域を除いた中央の領域のみにおいて人物を認識しても良い。これにより、認識処理部22は、図3に示した画像では、人物A〜Cを認識して検出する。
図4は、本実施の形態1に係る人物の検出結果を示す図である。
認識処理部22が人物を検出した結果を示す検出矩形A〜Cは、それぞれ人物A〜Cを適切に囲んでおり、認識処理部22が人物を適切に検出できていることを示している。
しかしながら、検出した人物Aは歩行している状態であり、人物B、Cは自転車に乗車している状態であって、認識処理部22が検出した人物の形状などに基づいて、自車両(又は、前方カメラ10)と人物A〜Cとの距離をこのまま算出すると、人物B、Cとの距離を間違える可能性がある。この間違いは、特に、画像中の人物の下端位置(接地位置)に基づいて、人物との距離を算出するような場合に顕著になる。また、歩行者と、自転車とでは移動速度が異なるので、歩行者と自転車などとを正しく識別して、運転者に適切なタイミングで衝突防止などの警告をする必要がある。
そこで、認識処理部22は、次に、ステップS20で人物を検出したかを判定する(ステップS30)。
認識処理部22は、人物を検出したとき(ステップS30のYes)は、ステップS20で検出した人物の検出範囲の下部に、車輪を認識するときの認識範囲を設定する(ステップS40)。ここで、認識範囲を設定する、人物の検出範囲の下部とは、当該人物が自転車などに乗車しているときに、当該自転車などの車輪を認識するための必要十分な範囲を指す。
例えば、図4に示した人物を検出した検出範囲(検出矩形)に対して、検出範囲の縦方向に対して下側50%の範囲を、車輪を認識する認識範囲とする。また、検出した人物の形状から下半身に該当すると認識された場合は、下半身を含む範囲を、車輪を認識する認識範囲とする。車輪を認識する認識範囲は、人物を検出した範囲の下側を含んでいればよく、人物を検出した範囲の下端よりも更に下方を含んでいても良い。例えば、人物を検出した範囲の縦方向の長さを100%とした場合に、車輪を認識する認識範囲は、人物を検出した範囲の下端よりも更に20%から30%下方を含んでいても良い。
また、車輪を認識する認識範囲は、人物を検出した範囲の幅よりも広い幅を設定しても良い。例えば、人物を検出した範囲の横方向の幅を100%とした場合に、人物を検出した範囲を中心に200〜300%の範囲としても良い。
図5は、本実施の形態1に係る車輪の認識範囲を示す図である。
認識処理部22は、検出した人物A〜Cに対して、その下側を中心として、それぞれ、認識範囲A〜Cを設定している。車輪を認識する範囲を、人物を検出した範囲の下側であり、更に、人物を検出した範囲の下端よりも下方の範囲を含み、人物を検出した範囲の左右端よりも横方向の範囲も含むことが適切である。
次に、認識処理部22は、辞書データ記憶装置30に記憶した車輪認識辞書を用いて、認識範囲A〜Cに対して、自転車の車輪を認識する(ステップS50)。
図6は、本実施の形態1に係る車輪の検出結果を示す図である。
認識処理部22が車輪を検出した結果を示す検出矩形B、Cは、自転車Bの車輪2つと、自転車Cの車輪1つとを適切に囲んでおり、認識処理部22が車輪を適切に検出できていることを示している。一般に、自転車の車輪は乗員(人物B、C)の死角に入ることが少なく、認識処理部22は、多くの場合で車輪を検出することができる。
一方、認識処理部22は、ステップS20〜S50の処理と並行して、辞書データ記憶装置30に記憶した自転車認識辞書を用いて、自転車を認識する(ステップS60)。
図7は、本実施の形態1に係る自転車の検出結果を示す図である。
自転車Bは横方向から撮影されて自転車としての形状が明確であり、認識処理部22は自転車Bを正しく検出できている。一方、自転車Cは斜め前方向から撮影されて、乗員(人物C)と自転車との特徴が似てしまったり、自転車Cのフレーム部分がハンドルに取り付けたかごや乗員の死角に入ったりなどして、認識処理部22は自転車Cを正しく検出できていない。
次に、認識処理部22は、ステップS50で車輪を検出したか判定する(ステップS70)。また、認識処理部22は、ステップS60で自転車を検出したか判定する(ステップS80)。
ステップS50で車輪を検出したとき(ステップS70のYes)、又は、ステップS60で自転車を検出したとき(ステップS80のYes)は、認識処理部22は、自転車(及び、その乗員)を検出したと最終的に決定する(ステップS90)。
これにより、認識処理部22は、例えば、図7に示した自転車Cのように、自転車認識辞書では当該自転車を検出できないような状況(画像)であっても、図6に示した自転車Cの車輪のように、車輪認識辞書により当該自転車を検出することができるようになる。
また、認識処理部22は、ステップS50で車輪を検出したとき(ステップS70のYes)に、ステップS20で検出した人物は、自転車の乗員であると決定しても良い。
そして、認識処理部22は、検出した車輪の下端、又は、検出した自転車の車輪の下端を自転車の接地位置として、自車両(又は、前方カメラ10)と当該自転車(及び、その乗員)との距離を算出する(ステップS100)。
ここで、距離の算出方法を簡単に説明する。
認識処理部22は、画像下端から画像中の注目画素までの画素数と、自車両から注目画素における被写体までの実際の距離とを対応付けた距離テーブルをあらかじめ保持している。この距離テーブルは、例えば、カメラの取り付け位置や角度などによりキャリブレーションを行って用意することができる。
そして、認識処理部22は、車輪の下端(接地位置)の画像上の位置と、距離テーブルとから、当該画像撮像時の自車両から当該自転車までの距離を算出する。
また、ステップS50で車輪を検出しなかったとき(ステップS70のNo)、認識処理部22は、ステップS20で検出した人物は、歩行者であると決定する(ステップS110)。
そして、認識処理部22は、検出した人物の下端、例えば、靴の底又は踵の部分を歩行者の接地位置として、自車両(又は、前方カメラ10)と歩行者との距離を算出する(ステップS120)。
次に、認識処理部22は、自車両と、自転車又は歩行者との距離が所定値よりも小さく、自車両と自転車などとが衝突する可能性があるときに、表示制御部23が表示装置40を介して、自転車又は歩行者を接近していることを運転者に警告する(ステップS130)。
そして、物体認識装置20は、物体認識方法を終了するか判定し(ステップS140)、終了すると判定したとき(ステップS140のYes)は、処理を終了する。
また、認識処理部22が人物を検出しなかったとき(ステップS30のNo)、自転車を検出しなかったとき(ステップS80のNo)、又は、物体認識装置20が物体認識方法を終了しないと判定したとき(ステップS140のNo)は、ステップS10(又は、ステップS20、S60など)に戻る。
なお、本実施の形態1に係る物体認識システム1又は物体認識方法については、いろいろな修正や変更が可能である。
例えば、認識処理部22は、ステップS60で自転車を検出したとき(ステップS80のYes)に自転車を検出したと最終的に決定する(ステップS90)ようにしたが、検出した自転車に対して、改めて車輪認識辞書を用いて車輪を認識するようにしても良い。すなわち、ステップS80が「Yes」のときに、ステップS90の処理を行わずにステップS50の処理を行うようにしても良い。
このときは、更に、ステップS50で検出した車輪に基づいて、ステップS60で検出した自転車の検出矩形の位置を修正するようにすれば、自車両と自転車との距離の測定精度を向上させることができる。また、このように、自転車を検出した後に、更に車輪を検出するかどうかを自車両の速度などに基づいて決定するようにしても良い。
また、ステップS50で検出した車輪に基づいて、ステップS60で検出した自転車の検出矩形の位置を修正したときに、検出した車輪の下端(接地位置)を用いて自転車との距離を算出する代わりに、修正した自転車の検出矩形の大きさに基づいて、すなわち、検出した車輪の下端(接地位置)に基づいて、当該自転車との距離を算出するようにしても良い。車輪を検出することにより、自転車の検出矩形を従来よりも正確に設定することができ、当該検出矩形を用いて、他車両との距離も従来よりも正確に算出することができる。
また、本実施の形態1に係る物体認識システム1又は物体認識方法では、人物認識辞書、車輪認識辞書、自転車認識辞書の3つの辞書を用いて、歩行者と自転車とを識別するようにしたが、人物認識辞書、車輪認識辞書の2つの辞書を用いて、歩行者と自転車とを識別するようにしても良い。つまり、図2に示した処理手順のフローチャートにおいて、ステップS60及びステップS80に係る処理を省略するようにしても良い。
また、本実施の形態1に係る物体認識システム1又は物体認識方法では、歩行者と自転車とを識別するようにしたが、歩行者と、自動二輪、パーソナルモビリティ、車いすなどとを識別するようにしても良い。
また、本実施の形態1においては、前方カメラ10が可視光カメラであり、画像取得部21は認識対象画像として可視光画像を取得することを前提に説明してきたが、前方カメラ10が、可視光に加えて赤外光も撮像可能なカメラであっても良い。この場合に、画像取得部21は、取得した画像に対して演算によるフィルタリングを行い、可視光画像及び赤外画像を抽出する。
認識処理部22は、抽出した赤外画像に対して赤外画像用の人物認識辞書を用いて人物を認識し、人物を検出したときに、同一の画像から抽出した可視光画像に対して、可視光画像用の車輪認識辞書を用いて車輪を認識する。
また、前方カメラ10を、可視光カメラと赤外カメラとで構成しても良い。この場合に、画像取得部21は、可視光画像及び赤外画像を取得する。
認識処理部22は、赤外画像に対して赤外画像用の人物認識辞書を用いて人物を認識し、人物を検出したときに、可視光画像に対して、可視光画像用の車輪認識辞書を用いて車輪を認識する。
一般に、歩行者からは放熱があるために、赤外映像を用いることで、より適切に歩行者を認識することができる。例えば、画像中に人物に類似する又は人物を模した他の物体がある場合でも、当該他の物体と歩行者とを区別することができる。
以上、説明したように、本実施の形態1に係る物体認識装置20は、被写体を撮影した画像を取得する画像取得部21と、取得した画像に対して、認識辞書を用いて被写体を認識する認識処理部22とを備え、認識処理部22は、取得した画像に対して対象物認識辞書を用いて対象物を検出し、検出した対象物の下部に対して車輪認識辞書を用いて車輪を検出し、車輪の検出結果を対象物の検出結果に反映させるものである。
このような構成により、画像から対象物をより正確に検出することができる。
また、本実施の形態1に係る物体認識装置20は、認識処理部22が対象物認識辞書である人物認識辞書を用いて人物を検出し、検出した人物の下部に対して車輪認識辞書を用いて車輪を検出し、車輪を検出したときは検出した人物は車両の乗員であり、車輪を検出しなかったときは検出した人物は歩行者であると判断することも可能である。
このような構成により、画像から歩行者と自転車(又は、その乗員)などとを正確に識別することができる。
また、本実施の形態1に係る物体認識装置20は、認識処理部22が検出した車輪の下端又は歩行者と判断した人物の下端と、画像を撮像した撮像部との距離を算出することも可能である。
このような構成により、検出した歩行者、自転車などと自装置などとの距離を正確に算出することができる。
また、本実施の形態1に係る物体認識装置20は、画像取得部21が、画像として赤外光画像及び可視光画像を取得し、認識処理部22が、対象物認識辞書である人物認識辞書を用いて赤外光画像から人物を検出し、検出した人物の下部に対して車輪認識辞書を用いて可視光画像から車輪を検出することも可能である。
このような構成により、画像から歩行者と自転車(又は、その乗員)などとをより正確に識別することができる。
また、本実施の形態1に係る物体認識方法は、被写体を撮影した画像を取得する画像取得ステップS10と、取得した画像に対して、認識辞書を用いて被写体を認識する認識処理ステップS20〜S90、S110とを有し、認識処理ステップは、取得した画像に対して対象物認識辞書を用いて対象物を検出し、検出した対象物の下部に対して車輪認識辞書を用いて車輪を検出し、車輪の検出結果を対象物の検出結果に反映させるものである。
また、本実施の形態1に係る物体認識プログラムは、コンピュータに、被写体を撮影した画像を取得する画像取得手順(ステップS10)と、取得した画像に対して、認識辞書を用いて被写体を認識する認識処理手順(ステップS20〜S90、S110)とを実行させるためのプログラムであって、認識処理手順(ステップS20〜S90、S110)では、取得した画像に対して対象物認識辞書を用いて対象物を検出し、検出した対象物の下部に対して車輪認識辞書を用いて車輪を検出し、車輪の検出結果を対象物の検出結果に反映させるものである。
(実施の形態2)
実施の形態1に係る物体認識システム1及び物体認識方法は、人物を撮影した画像に対して、人物認識辞書を用いて人物を検出し、検出した人物に対して車輪認識辞書を用いて車輪を検出し、検出した人物が車両の乗員であるか、歩行者であるかを判断するものであったが、本実施の形態2に係る物体認識システム及び物体認識方法は、他車両を撮影した画像に対して車両認識辞書を用いて他車両を検出し、検出した他車両に対して車輪認識辞書を用いてその車輪を検出し、当該他車両との距離を早く正確に算出するものである。
なお、本実施の形態2に係る物体認識システムの構成の一部は、実施の形態1に係るものと同様で良く、ここでは、物体認識システムの図示及び同様の構成についての説明を省略する。
物体認識装置20は、前方カメラ10が撮像した画像を用いて、他車両及びその車輪を認識し、必要に応じて、警告信号を表示装置40などに出力する。また、物体認識装置20は、画像において、認識した他車両の接地位置を特定し、自車両と他車両との距離を算出する。物体認識装置20は、例えば、前方カメラ10が撮影した映像のフレーム毎又は数フレーム毎に他車両及びその車輪を認識する。
認識処理部22は、画像に対して、辞書データ記憶装置30に記憶した車両認識辞書、車輪認識辞書を用いて、他車両、車輪(タイヤ)を認識し、必要に応じて運転者に警告するように、表示制御部23に信号を出力する。
表示制御部23は、表示装置40で警告画像を表示したり、警告音声を出力したりするための制御を行う。また、表示制御部23は、認識した他車両の接地位置の、画像における位置から算出した距離情報を、表示装置40に表示させる制御も行う。
辞書データ記憶装置30は、車両認識辞書、車輪認識辞書などを記憶する。なお、車両認識辞書、車輪認識辞書は、車両、車輪をいろいろな角度から撮影した画像又はそれらの切り抜き画像を機械学習して作成したものである。
表示装置40は、運転者などの自車両の乗員に対して、自車両の進行方向に車両が存在する旨の警告を画像又は音声で通知する。また、表示装置40は、自車両の乗員に対して、認識した他車両までの距離を通知する。
次に、本実施の形態2に係る物体認識システム1の動作、すなわち、物体認識方法について説明する。
図8は、本実施の形態2に係る認識方法の処理手順を示すフローチャートである。
物体認識システム1が動作を開始すると、前方カメラ10が自車両の進行方向の画像を撮像し、画像取得部21が当該画像を認識対象画像として取得する(ステップS210)。
次に、認識処理部22が認識対象画像に対して、辞書データ記憶装置30に記憶した車両認識辞書を用いて、他車両の認識を行う(ステップS220)。このとき、認識処理部22は、認識対象画像の全域において他車両を認識しても良いし、認識対象画像の上下の領域を除いた中央の領域のみにおいて他車両を認識しても良い。
図9は、本実施の形態2に係る認識対象画像及び車両認識結果の例を示す図である。
認識対象画像には、左の道路から右折しようとして交差点に侵入している他車両が写っている。そして、認識処理部22が当該他車両を検出した結果を示す検出矩形は、車輪の一部分を除いて当該他車両を囲んでいる。
これは、エッジの検出や辞書の参照などにより他車両を認識する認識処理部22は、エッジが明瞭なボディ(車体)部分を車両として容易に検出することができるが、光の当たり方次第では陰となってエッジが不明瞭となり、また、路面との境界も不明瞭となる車輪部分を車両として検出し難いことに原因がある。このような検出もれにより生じる検出矩形のずれは、特にトンネルの中や夜間に撮影した画像で発生しやすい。
そして、認識処理部22は、図9に示したような位置ずれした検出矩形に基づいて検出した他車両の接地位置を算出すると、当該他車両を実際よりも遠くに存在するように算出してしまう。
そこで、認識処理部22は、次に、ステップS220で他車両を検出したか判定する(ステップS230)。
認識処理部22は、他車両を検出したとき(ステップS230のYes)は、ステップS220で検出した他車両の検出範囲の下部に車輪を認識するときの認識範囲を設定する(ステップS240)。ここで、認識範囲を設定する、車両の検出範囲の下部とは、当該車両の車輪を認識するための必要十分な大きさの範囲を指す。
例えば、図9に示した他車両を検出した検出範囲(検出矩形)に対して、検出範囲の下側50%を含み、検出範囲の下端から更に下方を含む範囲を、車輪を認識する認識範囲とする。このように認識範囲を設定することで、他車両を検出した検出範囲に車輪が含まれている場合でも、車輪の一部又は全部が含まれていない場合でも、車輪の認識を適切に行うことができる。
図10は、本実施の形態2に係る車輪の認識範囲を示す図である。検出した他車両の下部近傍に認識範囲を設定している。
次に、認識処理部22は、設定した認識範囲に対して、辞書データ記憶装置30に記憶した車輪認識辞書を用いて、他車両の車輪を認識する(ステップS250)。これにより、認識処理部22は、画像全体に対して車輪を認識するときに比べて、早く正確に車輪を検出することができる。
図11は、本実施の形態2に係る車輪認識結果を示す図である。
認識処理部22が車輪を検出した結果を示す検出矩形は、車輪2つを適切に囲んでいる。
次に、認識処理部22は、ステップS250で車輪を検出したか判定する(ステップS260)。
認識処理部22は、ステップS250で車輪を検出したとき(ステップS260のYes)は、検出した車輪の下端を他車両の接地位置として、自車両(又は、前方カメラ10)と当該他車両との距離を算出する(ステップS270)。
このとき、認識処理部22は、認識対象画像における検出した車輪の下端の位置(接地位置)と、上述した距離テーブルとから、認識対象画像を撮像したときの自車両と当該他車両との距離を算出する。
なお、ステップS250で車輪を検出したときに、その検出矩形が一番大きくなった車輪は、自車両に一番近い車輪である可能性が大きい。そこで、認識処理部22は、検出矩形が一番大きくなった車輪の接地位置に基づいて他車両との距離を算出するようにしても良い。
次に、表示制御部23が表示装置40にステップS210で取得した認識対象画像を表示させるとともに、検出した他車両に対して、検出した車輪も囲むような検出矩形を表示させ、また、自車両と当該他車両との距離を表示させる(ステップS280)。他車両との距離が所定値よりも小さく、当該他車両と衝突する可能性があるときには、表示制御部23が表示装置40により他車両が接近したことを運転者に通知するようにしても良い。表示装置40に警告を表示させるときに、同時に音声を発生させるようにしても良い。
図12は、本実施の形態2に係る検出矩形及び距離の表示例を示す図である。この例では、検出した車輪の接地位置(2箇所)も表示している。
一方、認識処理部22がステップS250で車輪を検出しなかったとき(ステップS260のNo)は、表示制御部23が表示装置40に、ステップS220で検出した車両とその検出矩形とを表示させる(ステップS290)。これは、例えば、図9に示したような画像を表示させれば良い。もちろん、認識処理部22が検出した車両との距離を算出し、表示制御部23が表示装置40に当該距離を表示させたり、警告表示をさせたりしても良い。
そして、物体認識装置20は、物体認識方法を終了するか判定し(ステップS300)、終了すると判定したとき(ステップS300のYes)は、処理を終了する。
また、認識処理部22が車両を検出しなかったとき(ステップS230のNo)、又は、物体認識装置20が物体認識方法を終了しないと判定したとき(ステップS300のNo)は、ステップS210(又は、ステップS220)に戻る。
以上、説明したように、本実施の形態2に係る物体認識装置20は、認識処理部22が、対象物認識辞書である車両認識辞書を用いて車両を検出し、検出した車両の下部に対して車輪認識辞書を用いて車輪を検出し、検出した車輪の下端位置に基づき、検出した車両までの距離を算出するものである。
このような構成により、画像から他車両との距離を早く正確に算出することができる。
また、本実施の形態2に係る物体認識装置20は、取得した画像を表示装置40に表示させる表示制御部23を更に備え、表示制御部23は、表示装置40に、検出した車両を囲む検出矩形を検出した車輪も含めるように表示させることも可能である。
このような構成により、検出した車両の位置を運転者などに正確に示すことができる。
また、本実施の形態2に係る物体認識装置20は、表示制御部23が、表示装置40に、算出した距離も表示させることも可能である。
このような構成により、検出した車両までの距離を運転者などに示すことができる。
(実施の形態3)
実施の形態2に係る物体認識システム又は物体認識方法では、他車両の車輪を検出したときに、運転者に対して表示又は音声で警告をしたが、より早く運転者に対して警告をした方が良いことから、本実施の形態3に係る物体認識システム又は物体認識方法では、他車両を検出したときに警告をするものである。
なお、本実施の形態3に係る物体認識システムは、実施の形態2に係るものと同様で良く、ここでは、その図示及び説明を省略する。
本実施の形態3に係る物体認識システム1の動作、すなわち、物体認識方法について説明する。
図13は、本実施の形態3に係る物体認識方法の処理手順を示すフローチャートである。
ステップS310〜S330に係る処理は実施の形態2のステップS210〜S230に係る処理と同様で良く、ここでは、その説明を省略する。
認識処理部22は、ステップS320で他車両を検出したとき(ステップS330のYes)に、表示制御部23が表示装置40にステップS310で取得した認識対象画像を表示させるとともに、ステップS320で検出した他車両を囲む検出矩形を表示させる(ステップS340)。ここでは、例えば、図9に示したような画像を表示させる。もちろん、音声も出力するようにしても良い。これにより、運転者に他車両情報をいち早く伝えることができる。
次に、認識処理部22は、検出した他車両の下部近傍に車輪を認識するときの認識範囲を設定し(ステップS350)、車輪を認識する(ステップS360)。
次に、認識処理部22は、ステップS360で車輪を検出したか判定する(ステップS370)。
認識処理部22は、ステップS360で車輪を検出したとき(ステップS370のYes)は、検出した車輪の下端を検出した他車両の接地位置として、自車両(又は、前方カメラ10)と当該他車両との距離を算出する(ステップS380)。
なお、上記したステップS350、S360、S380に係る処理も実施の形態2のステップS240、S250、S270に係る処理と同様のもので良い。
次に、表示制御部23が表示装置40にステップS340で表示させた画像について、検出矩形がステップS360で検出した車輪も囲むように修正する。また、距離情報も表示する(ステップS390)。これにより、時間を多少要しても、正確な距離を算出することができる。
そして、物体認識装置20は、物体認識方法を終了するか判定し(ステップS400)、終了すると判定したとき(ステップS400のYes)は、処理を終了する。
なお、認識処理部22は、ステップS360で車輪を検出しなかったとき(ステップS370のNo)は、ステップS400に進む。
また、ステップS320で車両を検出しなかったとき(ステップS330のNo)、又は、物体認識装置20が物体認識方法を終了しないと判定したとき(ステップS400のNo)は、ステップS310(又は、ステップS320)に戻る。
なお、実施の形態2、3に係る物体認識システム1又は物体認識方法では、検出した車輪の下端(接地位置)を用いて他車両との距離を算出するようにしたが、距離の算出方法はこれに限るものではなく、例えば、検出矩形の大きさに基づいて、距離を算出するようにしても良い。実施の形態2、3に係る物体認識システム1又は物体認識方法では、車輪を検出することにより、車輪の下端位置に基づいて、他車両の検出矩形を従来よりも正確に設定することができ、当該検出矩形の大きさを用いて、他車両との距離も従来よりも正確に算出することができる。
また、実施の形態2、3に係る物体認識システム1などにおいては、前方カメラ10が可視光カメラであり、画像取得部21は認識対象画像として可視光画像を取得することを前提に説明してきたが、前方カメラ10が、可視光に加えて赤外光も撮像可能なカメラであっても良い。この場合に、車両認識辞書及び車輪認識辞書として、赤外画像用の認識辞書を用いたり、可視光用の認識辞書と赤外画像用の認識辞書とを併用したりしても良い。
認識処理部22は、赤外画像に対して赤外画像用の車両認識辞書を用いて他車両を検出し、他車両を検出したときに、赤外画像用の車輪認識辞書を用いて車輪を認識する。
これにより、夜間などの可視光の光量が少ない場合にも、実施の形態2、3に係る物体認識システム1などを適用して、可視光の光量が多い場合と同様の効果を得ることができる。また、赤外画像を用いることで、主に走行中の他車両を検出することができ、例えば、交差点にいろいろな方向から侵入してくる他車両の距離を正確に算出することもできる。
以上、説明したように、本実施の形態3に係る物体認識装置20は、表示制御部23が、検出矩形を表示させるときに、認識処理部22が車両を検出したときに、車両を囲む検出矩形を表示させ、認識処理部22が車輪を検出したときに、車輪も含めるように検出矩形を修正して表示させることも可能である。
このような構成により、検出した車両の位置をより早く運転者などに示すことができ、また、検出した車両の位置を正確に算出することができる。
(実施の形態4)
実施の形態1〜3に係る物体認識システム及び物体認識方法は、人物、他車両などの対象物を撮影した画像に対して、人物認識辞書、車両認識辞書などの対象物認識辞書を用いて対象物を検出し、検出した対象物の下部に対して車輪認識辞書を用いて車輪を検出するものであったが、本実施の形態4に係る物体認識システム及び物体認識方法は、検出した対象物の向きを特定し、特定した対象物の向きに対応する車輪認識辞書を選択して、認識処理の負荷を軽減しつつ、車輪をより精度良く検出するようにするものである。
対象物の向き特定は、例えば、対象物を検出した複数の画像を用い、検出した対象物の追跡(トラッキング)を行うことで、対象物の進行方向を推定し、推定した進行方向から対象物の向きを特定する。
なお、本実施の形態4に係る物体認識システムの構成の一部は、実施の形態1〜3に係るものと同様で良く、ここでは、物体認識システムの図示及び同様の構成についての説明を省略する。
認識処理部22は、前方カメラ10が撮像した画像に対して、辞書データ記憶装置30に記憶した人物認識辞書、車両認識辞書などの対象物認識辞書を用いて人物、他車両などの対象物を認識する。認識処理部22は、認識した対象物の形状などからその向きを特定することができるのであれば、当該対象物の向きを特定する。また、認識処理部22は、対象物の向きを特定する他の手法として、複数の画像を用いて検出した対象物のトラッキングを行い、当該対象物の進行方向を推定し、推定した進行方向に基づいて対象物の向きを特定しても良い。
そして、認識処理部22は、特定した向きに対応する車輪認識辞書を選択して対象物の下部の車輪を認識し、必要に応じて運転者に警告するように、表示制御部23に信号を出力する。
辞書データ記憶装置30は、対象物認識辞書、車輪認識辞書などを記憶する。対象物認識辞書、車輪認識辞書は、対象物、車輪をいろいろな角度から撮影した画像又はそれらの切り抜き画像を機械学習して作成したものである。
特に、本実施の形態4に係る辞書データ記憶装置30は、車輪認識辞書を車輪の向き毎に記憶する。辞書データ記憶装置30は、車輪認識辞書を対象物の進行方向と対応付けた車輪の向き毎に記憶しても良い。つまり、本実施の形態4に係る車輪認識辞書は、対象物が様々な向きであるときに撮影した車輪の画像若しくはそれらの切り抜き画像を、その向き毎に機械学習して作成したものである。
より具体的には、対象物が前方カメラ10に対して前向き若しくは後向き、又は、正面向き若しくは背面向きの車輪の画像は、縦方向に長い矩形状か、縦方向に細長い楕円形状になっており、対象物が前方カメラ10に対して、横向き、つまり、左向き、右向きの車輪の画像は、略円形状になっており、これらの画像を機械学習して、車輪認識辞書を作成している。
次に、本実施の形態4に係る物体認識システム1の動作、すなわち、物体認識方法について説明する。
図14は、本実施の形態4に係る物体認識方法の処理手順を示すフローチャートである。
物体認識システム1が動作を開始すると、前方カメラ10が自車両の進行方向の画像を撮像し、画像取得部21が当該画像を認識対象画像として取得する(ステップS410)。
次に、認識処理部22が認識対象画像に対して、辞書データ記憶装置30に記憶した対象物認識辞書を用いて、対象物の認識を行う(ステップS420)
そして、認識処理部22は、ステップS420で対象物を検出したか判定する(ステップS430)。
認識処理部22は、対象物を検出したとき(ステップS430のYes)は、複数の画像を用いて、ステップS420で検出した対象物の追跡(トラッキング)を行う(ステップS440)。対象物のトラッキングには、従来技術を用いることができる。
また、認識処理部22は、対象物を検出しなかったとき(ステップS430のNo)は、例えば、ステップS410に戻る。
次に、認識処理部22は、ステップS440のトラッキングの結果を用いて、対象物の進行方向を推定し、対象物の向きを特定する(ステップS450)。対象物の進行方向推定及び進行方向に基づく向き特定も、従来技術を用いることができる。対象物の進行方向は、自車両に対する対象物の相対的な進行方向を、複数の画像における対象物の移動履歴と、自車両の進行方向及び走行速度とから推定する。推定した対象物の進行方向は自車両を基準とした進行方向であるため、自車両から見た対象物の向きを特定することができる。
そして、認識処理部22は、ステップS450で特定した対象物の向きに対応する車輪認識辞書を辞書データ記憶装置30から選択し(ステップS460)、対象物の車輪を認識する(ステップS470)。
そして、認識処理部22は、ステップS470で車輪を検出したか判定し(ステップS480)、車輪を検出したとき(ステップS480のYes)は、例えば、自転車検出決定、距離算出などを行う(ステップS490)。また、認識処理部22は、車輪を検出しなかったとき(ステップS480のNo)は、例えば、歩行者検出決定などを行う(ステップS500)。ステップS490、S500で行う処理の内容は、検出する対象物に応じて、予め定めることができる。
そして、物体認識装置20は、物体認識方法を終了するか判定し(ステップS510)、終了すると判定したとき(ステップS510のYes)は処理を終了し、終了しないと判定したとき(ステップS510のNo)は、例えば、ステップS410に戻る。
以上、説明したように、本実施の形態4に係る物体認識装置20は、認識処理部22が検出した対象物の下部に対して車輪認識辞書を用いて車輪を検出するときに、取得した画像を用いて、対象物の向きを検出し、検出した向きに対応する車輪認識辞書を選択し、選択した車輪認識辞書を用いて車輪を検出することも可能である。
このような構成により、認識処理の負荷を軽減しつつ、車輪をより精度良く検出することができる。
また、本実施の形態4に係る物体認識装置20は、認識処理部22が、取得した画像を用いて、対象物の向きを検出するときに、複数の取得した画像を用いて対象物を追跡して対象物の進行方向を推定し、推定した進行方向から対象物の向きを検出することも可能である。
なお、実施の形態1〜4に係る物体認識システム1又は物体認識方法では、人物、自転車、車両、車輪などの画像を機械学習して作成した辞書を用いた画像認識を行うようにしたが、例えば、人物、自転車、車両、車輪車などのテンプレートを用いたパターンマッチングなどの画像認識を行うようにしても良い。
また、実施の形態1〜4に係る物体認識システム1の構成は、上記に限られるものではなく、複数の装置、例えば、物体認識装置20及び辞書データ記憶装置30を一体化して、辞書データ記憶部を備えた物体認識装置としても良い。また、物体認識システム1の全ての構成を一体化して、前方カメラ、辞書データ記憶部、表示部を備えた物体認識装置としても良い。もちろん、物体認識システム1を、人物認識装置、車両認識装置、車輪認識装置、距離算出装置などとして構成しても良い。
また、実施の形態1〜4に係る物体認識システム1は、車両で利用するものとして説明してきたが、車両での利用には、車両にシステムの一部又は全部が搭載されている形態や、可搬可能又は後付け可能に車両に搭載されている形態があっても良い。また、ヘッドマウントディスプレイ(HMD、Head Mounted Display)などのように、人物が装着するような形態があっても良い。
この出願は、2016年3月18日に出願された日本出願特願2016−054691及び日本出願特願2016−054692を基礎とする優先権を主張し、その開示の全てをここに取り込む。
実施の形態1〜4に係る物体認識システム1又は物体認識方法は、例えば、車両に搭載されて、撮影した画像から人物、他車両などの対象物をより正確に検出するもので、産業上の利用可能性を有する。
1 物体認識システム
10 前方カメラ
20 物体認識装置
21 画像取得部
22 認識処理部
23 表示制御部
30 辞書データ記憶装置
40 表示装置

Claims (11)

  1. 被写体を撮影した画像を取得する画像取得部と、
    前記取得した画像に対して、認識辞書を用いて前記被写体を認識する認識処理部とを備え、
    前記認識処理部は、
    前記取得した画像に対して対象物認識辞書を用いて対象物を検出し、
    前記取得した画像を用いて、前記対象物の向きを検出し、
    前記検出した向きに対応する車輪認識辞書を選択し、
    前記検出した対象物の下部に対して、前記選択した車輪認識辞書を用いて車輪を検出し、
    前記車輪の検出結果を前記対象物の検出結果に反映させる、
    物体認識装置。
  2. 前記認識処理部は、前記取得した画像を用いて、前記対象物の向きを検出するときに、
    複数の前記取得した画像を用いて前記対象物を追跡して前記対象物の進行方向を推定し、
    前記推定した進行方向から前記対象物の向きを検出する
    請求項1記載の物体認識装置。
  3. 前記認識処理部は、
    前記対象物認識辞書である人物認識辞書を用いて人物を検出し、
    前記検出した人物の下部に対して前記選択した車輪認識辞書を用いて車輪を検出し、
    車輪を検出したときは前記検出した人物は車両の乗員であり、車輪を検出しなかったときは前記検出した人物は歩行者であると判断する、
    請求項1又は請求項2記載の物体認識装置。
  4. 前記認識処理部は、前記検出した車輪の下端又は前記歩行者と判断した人物の下端と、前記画像を撮像した撮像部との距離を算出する、
    請求項記載の物体認識装置。
  5. 前記画像取得部は、前記画像として赤外光画像及び可視光画像を取得し、
    前記認識処理部は、
    前記対象物認識辞書である人物認識辞書を用いて前記赤外光画像から人物を検出し、
    前記検出した人物の下部に対して前記選択した車輪認識辞書を用いて前記可視光画像から車輪を検出する、
    請求項1乃至請求項のいずれか1項に記載の物体認識装置。
  6. 前記認識処理部は、
    前記対象物認識辞書である車両認識辞書を用いて車両を検出し、
    前記検出した車両の下部に対して前記選択した車輪認識辞書を用いて車輪を検出し、
    前記検出した車輪の下端位置に基づき、前記検出した車両までの距離を算出する、
    請求項1乃至請求項5のいずれか1項に記載の物体認識装置。
  7. 前記取得した画像を表示部に表示させる表示制御部を更に備え、
    前記表示制御部は、前記表示部に、前記検出した車両を囲む検出矩形を前記検出した車輪も含めるように表示させる、
    請求項記載の物体認識装置。
  8. 前記表示制御部は、前記検出矩形を表示させるときに、
    前記認識処理部が前記車両を検出したときに、前記車両を囲む検出矩形を表示させ、
    前記認識処理部が前記車輪を検出したときに、前記車輪も含めるように検出矩形を修正して表示させる
    請求項記載の物体認識装置。
  9. 前記表示制御部は、前記表示部に、前記算出した距離も表示させる
    請求項又は請求項記載の物体認識装置。
  10. 被写体を撮影した画像を取得する画像取得ステップと、
    前記取得した画像に対して、認識辞書を用いて前記被写体を認識する認識処理ステップとを有し、
    前記認識処理ステップは、
    前記取得した画像に対して対象物認識辞書を用いて対象物を検出し、
    前記取得した画像を用いて、前記対象物の向きを検出し、
    前記検出した向きに対応する車輪認識辞書を選択し、
    前記検出した対象物の下部に対して、前記選択した車輪認識辞書を用いて車輪を検出し、
    前記車輪の検出結果を前記対象物の検出結果に反映させる、
    物体認識方法。
  11. コンピュータに、
    被写体を撮影した画像を取得する画像取得手順と、
    前記取得した画像に対して、認識辞書を用いて前記被写体を認識する認識処理手順とを実行させるためのプログラムであって、
    前記認識処理手順では、
    前記取得した画像に対して対象物認識辞書を用いて対象物を検出し、
    前記取得した画像を用いて、前記対象物の向きを検出し、
    前記検出した向きに対応する車輪認識辞書を選択し、
    前記検出した対象物の下部に対して、前記選択した車輪認識辞書を用いて車輪を検出し、
    前記車輪の検出結果を前記対象物の検出結果に反映させる、
    物体認識プログラム。
JP2018505263A 2016-03-18 2016-12-20 物体認識装置、物体認識方法及び物体認識プログラム Active JP6635188B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2016054692 2016-03-18
JP2016054692 2016-03-18
JP2016054691 2016-03-18
JP2016054691 2016-03-18
PCT/JP2016/087942 WO2017158983A1 (ja) 2016-03-18 2016-12-20 物体認識装置、物体認識方法及び物体認識プログラム

Publications (2)

Publication Number Publication Date
JPWO2017158983A1 JPWO2017158983A1 (ja) 2019-01-24
JP6635188B2 true JP6635188B2 (ja) 2020-01-22

Family

ID=59850236

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018505263A Active JP6635188B2 (ja) 2016-03-18 2016-12-20 物体認識装置、物体認識方法及び物体認識プログラム

Country Status (4)

Country Link
US (1) US10796171B2 (ja)
JP (1) JP6635188B2 (ja)
CN (1) CN107924465B (ja)
WO (1) WO2017158983A1 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108701415B (zh) * 2016-02-25 2021-08-03 富士胶片株式会社 驾驶辅助装置、驾驶辅助方法及驾驶辅助程序
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
CN108694363A (zh) * 2017-04-12 2018-10-23 日立汽车系统株式会社 对车辆周围的行人进行检测的方法和装置
JP6514736B2 (ja) * 2017-05-17 2019-05-15 株式会社Subaru 車外環境認識装置
JP7062940B2 (ja) * 2017-12-18 2022-05-09 スズキ株式会社 運転支援装置
JP6835004B2 (ja) * 2018-02-09 2021-02-24 株式会社デンソー 画像生成装置
US10796157B2 (en) * 2018-03-13 2020-10-06 Mediatek Inc. Hierarchical object detection and selection
JP7093962B2 (ja) * 2018-03-31 2022-07-01 株式会社ウォンツ 車両画像生成装置および車両画像生成プログラム
CN108805014A (zh) * 2018-04-26 2018-11-13 内蒙古河山新能源技术推广服务有限公司 移动充电桩的定位方法、装置及计算机可读存储介质
CN108831150A (zh) * 2018-06-20 2018-11-16 安徽金赛弗信息技术有限公司 基于深度学习的机动车未按规定保持安全距离智能识别方法
JP7056458B2 (ja) * 2018-08-10 2022-04-19 株式会社Jvcケンウッド 認識処理装置、認識処理方法及び認識処理プログラム
JP7139902B2 (ja) * 2018-11-14 2022-09-21 トヨタ自動車株式会社 報知装置
CN111251994B (zh) * 2018-11-30 2021-08-24 华创车电技术中心股份有限公司 车辆周边物件检测方法及车辆周边物件检测系统
US10885334B2 (en) * 2018-11-30 2021-01-05 Hua-Chuang Automobile Information Technical Center Co., Ltd. Method and system for detecting object(s) adjacent to vehicle
US10817728B2 (en) * 2019-01-23 2020-10-27 GM Global Technology Operations LLC Automated data collection for continued refinement in the detection of objects-of-interest
CN109977793B (zh) * 2019-03-04 2022-03-04 东南大学 基于变尺度多特征融合卷积网络的路侧图像行人分割方法
EP3748604B1 (en) * 2019-06-04 2023-03-01 Hitachi Astemo, Ltd. Vehicle travelling control apparatus, vehicle travelling control method and computer program product
JP7237428B2 (ja) * 2019-06-10 2023-03-13 ダイハツ工業株式会社 衝突回避支援装置
JP7505844B2 (ja) * 2020-01-03 2024-06-25 モービルアイ ビジョン テクノロジーズ リミテッド 歩行者を伴い、車両フリースペースを特定する車両ナビゲーション
US12108172B2 (en) 2020-02-14 2024-10-01 Sony Group Corporation Vehicle control system using imaging device capable of object detection
JP7380824B2 (ja) * 2020-02-20 2023-11-15 日本電信電話株式会社 車両状態推定方法、車両状態推定装置、及び車両状態推定プログラム
JP6997471B2 (ja) * 2020-03-09 2022-01-17 ニューラルポケット株式会社 情報処理システム、情報処理装置、端末装置、サーバ装置、プログラム、又は方法
US11851060B2 (en) 2020-03-15 2023-12-26 Ron Zass Controlling vehicles in response to windows
KR20220031224A (ko) * 2020-09-04 2022-03-11 현대자동차주식회사 차량 및 그 제어방법
JP7387241B2 (ja) * 2021-06-18 2023-11-28 ダイハツ工業株式会社 車両用制御装置
KR102360491B1 (ko) * 2021-09-28 2022-02-09 라이트브라더스 주식회사 저감된 탄소 배출량 계산 기반의 자전거 응용 서비스 플랫폼 서버, 방법, 및 컴퓨터 판독 가능한 기록 매체
WO2024157413A1 (ja) * 2023-01-26 2024-08-02 日立Astemo株式会社 環境認識装置及び環境認識方法
CN116092039B (zh) * 2023-04-10 2023-06-16 智道网联科技(北京)有限公司 自动驾驶仿真系统的显示控制方法及装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11144031A (ja) * 1997-11-06 1999-05-28 Fuji Xerox Co Ltd 画像読取装置
US7583372B2 (en) * 2005-06-01 2009-09-01 Hunter Engineering Company Machine vision vehicle wheel alignment image processing methods
JP2007188417A (ja) 2006-01-16 2007-07-26 Fujitsu Ten Ltd 画像認識装置、画像認識方法および画像認識プログラム
JP4692344B2 (ja) 2006-03-17 2011-06-01 トヨタ自動車株式会社 画像認識装置
US7671725B2 (en) * 2006-03-24 2010-03-02 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus, vehicle surroundings monitoring method, and vehicle surroundings monitoring program
CN105373792A (zh) * 2007-05-21 2016-03-02 实耐宝公司 车轮定位的方法和设备
JP4948338B2 (ja) * 2007-09-20 2012-06-06 アルパイン株式会社 車間距離計測装置
JP5115139B2 (ja) * 2007-10-17 2013-01-09 ソニー株式会社 構図判定装置、構図判定方法、プログラム
JP4410292B1 (ja) * 2008-10-20 2010-02-03 本田技研工業株式会社 車両の周辺監視装置
JP5239952B2 (ja) * 2009-03-10 2013-07-17 オムロン株式会社 安全運転監視装置
JP5330530B2 (ja) * 2010-01-22 2013-10-30 パナソニック株式会社 画像管理装置、画像管理方法、プログラム、記録媒体及び集積回路
JP5594672B2 (ja) * 2011-04-14 2014-09-24 株式会社 日立産業制御ソリューションズ 物体認識装置および物体認識方法
JP5648655B2 (ja) * 2012-04-27 2015-01-07 株式会社デンソー 対象物識別装置
JP6336391B2 (ja) * 2012-09-06 2018-06-06 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP5752729B2 (ja) 2013-02-28 2015-07-22 富士フイルム株式会社 車間距離算出装置およびその動作制御方法
CN104599287B (zh) * 2013-11-01 2018-01-16 株式会社理光 对象跟踪方法和装置、对象识别方法和装置
JP6253467B2 (ja) * 2014-03-24 2017-12-27 東芝アルパイン・オートモティブテクノロジー株式会社 画像処理装置および画像処理プログラム
JP2016006626A (ja) * 2014-05-28 2016-01-14 株式会社デンソーアイティーラボラトリ 検知装置、検知プログラム、検知方法、車両、パラメータ算出装置、パラメータ算出プログラムおよびパラメータ算出方法
JP6448223B2 (ja) * 2014-06-12 2019-01-09 キヤノン株式会社 画像認識システム、画像認識装置、画像認識方法、およびコンピュータプログラム
CN104596770B (zh) * 2015-01-20 2017-03-15 天津大学 一种车用动力总成综合性能测试系统
CN104598928A (zh) * 2015-01-30 2015-05-06 南京邮电大学 一种基于类字典稀疏识别的车辆分类方法
CN104916165B (zh) * 2015-06-26 2018-03-06 长安大学 一种前车驾驶员不安全驾驶行为检测方法及装置

Also Published As

Publication number Publication date
CN107924465B (zh) 2021-09-10
WO2017158983A1 (ja) 2017-09-21
US20190019045A1 (en) 2019-01-17
CN107924465A (zh) 2018-04-17
JPWO2017158983A1 (ja) 2019-01-24
US10796171B2 (en) 2020-10-06

Similar Documents

Publication Publication Date Title
JP6635188B2 (ja) 物体認識装置、物体認識方法及び物体認識プログラム
JP4733756B2 (ja) 車両周辺監視装置
JP5480925B2 (ja) 車両周辺監視装置
JP6139465B2 (ja) 物体検出装置、運転支援装置、物体検出方法、および物体検出プログラム
JP4656456B2 (ja) 車線区画線検出装置、車線区画線検出方法、及び車線区画線検出プログラム
WO2016147584A1 (ja) 車両監視装置、車両監視方法、及び、車両監視プログラム
JP2015219773A (ja) 物体検出装置、運転支援装置、物体検出方法、および物体検出プログラム
WO2018020715A1 (ja) 人物検出装置、人物検出システム、人物検出方法及び人物検出プログラム
WO2016151976A1 (ja) 移動体検出装置、画像処理装置、移動体検出方法、及び、集積回路
JP6805716B2 (ja) 表示装置、表示方法、プログラム
JP4840472B2 (ja) 物体検出装置
JP4644273B2 (ja) 車両周辺監視装置
JP4962304B2 (ja) 歩行者検出装置
JP2012252501A (ja) 走行路認識装置及び走行路認識用プログラム
JP6483360B2 (ja) 対象物認識装置
JP4887537B2 (ja) 車両周辺監視装置
US10789727B2 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
KR101729030B1 (ko) 차량 주변의 위험요소 경고장치 및 경고방법
WO2016151977A1 (ja) 移動体検出装置、画像処理装置、移動体検出方法、及び、集積回路
JP2017167608A (ja) 物体認識装置、物体認識方法及び物体認識プログラム
JP5172482B2 (ja) 車両周辺監視装置
JP5004903B2 (ja) 車両周辺監視装置
JP2012256159A (ja) 接近物検知装置および接近物検知方法
JP2014203196A (ja) 危険度判定装置、危険度判定方法、警報装置、及び運転支援装置
JP6495742B2 (ja) 対象物検出装置、対象物検出方法、及び、対象物検出プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180913

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191202

R150 Certificate of patent or registration of utility model

Ref document number: 6635188

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150