JP2012248011A - 画像認識装置 - Google Patents

画像認識装置 Download PDF

Info

Publication number
JP2012248011A
JP2012248011A JP2011119440A JP2011119440A JP2012248011A JP 2012248011 A JP2012248011 A JP 2012248011A JP 2011119440 A JP2011119440 A JP 2011119440A JP 2011119440 A JP2011119440 A JP 2011119440A JP 2012248011 A JP2012248011 A JP 2012248011A
Authority
JP
Japan
Prior art keywords
curve
information
image
search area
traveling road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011119440A
Other languages
English (en)
Other versions
JP5760696B2 (ja
Inventor
Nobuhiko Inoue
展彦 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2011119440A priority Critical patent/JP5760696B2/ja
Publication of JP2012248011A publication Critical patent/JP2012248011A/ja
Application granted granted Critical
Publication of JP5760696B2 publication Critical patent/JP5760696B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】自車両の走行道路の状態に拘らず、歩行者の検知漏れや無駄な検知動作をなくすことができる探索領域を設定でき、歩行者の検知性能を向上させることができる画像認識装置の提供。
【解決手段】算出部22は、自車両の旋回に関する情報を含む情報として赤外線カメラ30から前方画像50を取得し、前方画像50の計算領域66のオプティカルフローを計算することで、方向ベクトルを算出し、その方向ベクトルの水平方向成分を走行道路のカーブの方向に関する情報として算出する。そして、探索領域設定部24は、水平方向成分に基づいてカーブの方向を判定し、歩行者を表す画像58を探索するための探索領域52を、探索領域52の前方画像50における大きさはそのままに、判定したカーブの方向に向けて移動させた位置に設定する。そして、認識部28がその位置に設定された探索領域52内の歩行者を表す画像58を検知する。
【選択図】図1

Description

本発明は、撮像手段により取得した自車両の前方画像から歩行者を表す画像を検知する画像認識装置に関する。
従来、カメラ等の撮像手段により取得した自車両の前方画像から、人間等の検知対象物を表す画像を検知する画像認識の技術が知られている。それとは別に、カメラ等の撮像手段により取得した自車両の前方画像から、前方画像に写った他車両を探索して特定し、当該他車両の前方画像における位置を検出し、その検出位置を基に当該他車両までの実空間における距離を算出する技術が知られている(例えば、特許文献1)。
この特許文献1に記載の技術では、自車両の前方画像に写った白線や路肩を検出することにより道路端を特定し、特定した道路端に応じて他車両の探索領域を絞り込む。そして、その絞り込んだ探索領域内において他車両を探索し、他車両の位置を求める。このようにして他車両を探索する領域を絞り込んでいるので、他車両の位置検知のための画像処理の負担が軽減され、その画像処理時間を短縮することができる。
特開2001−116512号公報
特許文献1の検知技術では、前方画像上に写った走行道路の白線や路肩に基づいて、走行道路の道路端を特定し、特定した道路端に応じて他車両の探索領域を絞り込んでいる。このため、白線や路肩を検出することができないと、道路端を特定することができず、適切な探索領域の設定が困難となる。
ここで、カメラ等の撮像手段からの前方画像に写る走行道路の形状は、自車両が走行する走行道路が直線路であるのか、カーブであるかに応じて変化する。ゆえに、走行道路上及び走行道路脇の路肩や歩道に存在する歩行者の前方画像における領域は、走行道路が直線路であるのか、カーブであるのかに応じて変化することとなる。
特許文献1の検知技術を走行道路上及び走行道路脇の路肩や歩道に存在する歩行者を検知する装置に適用するようにしても、白線や路肩が検出できないような走行道路において、走行道路が直線路かカーブなのかを判定することができず、適切な探索領域の設定が行えない。したがって、歩行者の検知漏れや、無駄な検知がおこなわれ、検知性能が低下するおそれがある。
本発明は、上述の問題点に鑑みてなされたものであって、その目的は、自車両の走行道路の状態に拘らず、歩行者の検知漏れや無駄な検知動作を減少させることができる探索領域を設定でき、歩行者の検知性能を向上させることができる画像認識装置を提供する。
上記目的を達成するために、請求項1の発明は、自車両の前方の領域を撮像する撮像手段より取得した前方画像から、前方の領域に存在する歩行者を表す画像を検知する画像認識装置において、
自車両の旋回に関する情報を含んだ情報を取得し、その取得した情報に基づき、前方の領域における走行道路のカーブの方向に関する情報を算出する算出手段と、
歩行者を表す画像を探索するための探索領域を前方画像の一部に設定する探索領域設定手段であって、走行道路のカーブの方向に関する情報に基づいて、走行道路のカーブの方向を判定し、探索領域を、探索領域の前方画像における大きさはそのままに、判定した走行道路のカーブの方向に向けて移動させた位置に設定する探索領域設定手段と、
探索領域内の歩行者を表す画像を検知する検知手段と、を備えることを特徴としている。
請求項1の発明によると、取得した自車両の旋回に関する情報を含んだ情報に基づいて、自車両の前方における走行道路のカーブの方向に関する情報を算出するようにしているため、白線や路肩の有無といった走行道路の状態に拘らず、自車両の前方における走行道路のカーブの方向に関する情報を的確に算出することができる。ここで、画像認識装置が検知しようとする歩行者は、通常、走行道路上及び走行道路脇の路肩や歩道に多く存在する。このため、前方画面における歩行者が存在する可能性の高い領域は、走行道路のカーブの方向によって変化する。例えば、自車両がカーブにさしかかると、歩行者が存在する可能性の高い領域は、そのカーブの方向にずれる。歩行者を表す画像を探索するための探索領域が前方画面上で固定されていると、自車両がカーブを走行し、歩行者が存在する可能性が高い領域がずれることに対応することができず、歩行者を表す画像の検知漏れ等が発生するおそれがある。
そこで、探索領域設定手段は、走行道路のカーブの方向に関する情報に基づいて、走行道路のカーブの方向を判定する。そして、探索領域設定手段は、歩行者を表す画像を探索するための探索領域の前方画像における大きさはそのままに、判定した走行道路のカーブの方向に向けて移動させた位置に探索領域を設定する。ゆえに、探索領域は、走行道路のカーブの方向によって変化する歩行者が存在する可能性の高い領域に近づくこととなる。このようにして探索領域が設定された後に、検知手段は、設定後の探索領域内において歩行者を表す画像の検知を行うので、歩行者の検知漏れや無駄な検知動作が減少する。よって、この発明によれば、自車両の走行道路の状態に拘らず、歩行者の検知漏れや無駄な検知動作を減少させることができる探索領域を設定でき、歩行者の検知性能を向上することができる。なお、この発明において検知対象となる歩行者は、自転車等に乗った歩行者も含んでいる。
走行道路のカーブの曲り度合いが大きいほど、歩行者が存在する可能性が高い領域もカーブの方向に向かってさらに移動する。このことに対し、請求項2の発明によると、探索領域設定手段によって判定された走行道路のカーブの曲り度合いが大きいほど、走行道路のカーブの方向に向かう探索領域の移動量が大きくなるように探索領域が設定される。ゆえに、探索領域は、走行道路のカーブの曲り度合いに対応したものとなり、歩行者が存在する可能性の高い領域に近づくこととなる。したがって、歩行者の検知漏れや無駄な検知がさらに少なくなる。
請求項3の発明によると、算出手段により算出される走行道路のカーブの方向に関する情報は、前方画像における所定領域のオプティカルフローを計算することにより算出された方向ベクトルの水平方向成分となっている。この方向ベクトルは、前方画像におけるオプティカルフローを計算することにより得られるものであるため、白線や路肩の有無に拘らず得ることができる。したがって、この発明の算出手段によればは、白線や路肩が判別できないような走行道路であっても、カーブの方向に関する情報を算出することができる。また、この方向ベクトルは、自車両の旋回に応じて変化するものであり、方向ベクトルの水平方向成分の値は、自車両の走行道路のカーブの方向に応じて変化する。この発明では、この水平方向成分の値に基づいて、走行道路のカーブの方向を判定するようにしているので、白線や路肩が判別できないような走行道路であっても走行道路のカーブの方向を判定することができる。
請求項4によると、算出手段により算出される走行道路のカーブの曲り度合いに関する情報は、前方画像における所定のオプティカルフローを計算することにより算出された方向ベクトルの水平方向成分となっている。この方向ベクトルは、前方画像におけるオプティカルフローを計算することにより得られるものであるため、白線や路肩の有無に拘らず得ることができる。したがって、この発明の算出手段によれば、白線や路肩が判別できないような走行道路であっても、カーブの曲り度合いに関する情報を算出することができる。また、この方向ベクトルは、自車両の旋回に応じて変化するものであり、方向ベクトルの水平方向成分の値は、自車両の走行道路のカーブの曲り度合いに応じて変化する。この発明では、この水平方向成分の値に基づいて、走行道路のカーブの曲り度合いを判定するようにしているので、白線や路肩が判別できないような走行道路であっても走行道路のカーブの曲り度合いを判定することができる。
請求項5の発明によると、オプティカルフローを計算する所定領域が前方画像に複数ヶ所設定されているので、算出手段による走行道路のカーブの方向又はカーブの曲り度合いに関する情報の算出精度が向上する。
請求項6の発明によると、算出手段により算出される走行道路のカーブの方向に関する情報は、単に経路案内装置からの自車両の現在位置の情報及び地図情報に基づいている。地図情報には、カーブの方向に関する情報が当然に含まれている。また、これらの情報は、白線や路肩等の有無に拘らず取得が可能な情報である。したがって、この発明の算出手段によれば、白線や路肩が判別できないような走行道路であっても、カーブの方向に関する情報を算出することができる。 請求項7の発明によると、算出手段により算出される走行道路のカーブの曲り度合いに関する情報は、経路案内装置からの自車両の現在位置の情報及び地図情報に基づいている。地図情報には、カーブの曲り度合いに関する情報も当然に含まれている。したがって、この発明の算出手段によれば、白線や路肩が判別できないような走行道路であっても、カーブの曲り度合いに関する情報を算出することができる。
請求項8の発明によると、算出手段により算出される走行道路のカーブの方向に関する情報は、自車両の舵角を検出する舵角検出手段からの舵角情報に基づいている。舵角情報は、カーブの方向に応じて変化するものであり、白線や路肩等の有無に拘らず取得が可能な情報である。したがって、この発明の算出手段によれば、白線や路肩が判別できないような走行道路であっても、カーブの方向に関する情報を算出することができる。
請求項9の発明によると、算出手段により算出される走行道路のカーブの曲り度合いに関する情報は、舵角検出手段からの舵角情報に基づいている。舵角情報は、カーブの曲り度合いに応じて変化するものである。したがって、この発明の算出手段によれば、白線や路肩が判別できないような走行道路であっても、カーブの曲り度合いに関する情報を算出することができる。
請求項10の発明によると、算出手段により算出される走行道路のカーブの方向に関する情報は、自車両のヨーレートを検出するヨーレート検出手段からのヨーレート情報に基づいている。ヨーレート情報は、カーブの方向に応じて変化するものであり、白線や路肩等の有無に拘らず取得が可能な情報である。したがって、この発明の算出手段によれば、白線や路肩が判別できないような走行道路であっても、カーブの方向に関する情報を算出することができる。
請求項11の発明によると、算出手段により算出される走行道路のカーブの曲り度合いに関する情報は、ヨーレート検出手段からのヨーレート情報に基づいている。ヨーレート情報は、カーブの曲り度合いに応じて変化するものである。したがって、この発明の算出手段によれば、白線や路肩が判別できないような走行道路であっても、カーブの曲り度合いに関する情報を算出することができる。
第1実施形態による画像認識装置を示す概略構成図である。 画像認識回路が前方画像から歩行者を表す画像を検知するための処理を説明するための図である。 直線路走行時において探索領域を設定するための処理を説明するための図である。 右カーブ走行時において探索領域を設定するための処理を説明するための図である。 左カーブ走行時において探索領域を設定するための処理を説明するための図である。 前方画像から歩行者を表す画像を検知する画像認識回路の処理を示すフローチャートである。 第2実施形態による画像認識装置を示す概略構成図である。 第3実施形態による画像認識装置を示す概略構成図である。 第4実施形態による画像認識装置を示す概略構成図である。
以下、本発明の複数の実施形態を図面に基づいて説明する。なお、各実施形態において対応する構成要素には同一の符号を付与することにより、重複する説明を省略する。
(第1実施形態)
図1は、第1実施形態による画像認識装置10の概略構成を示す。画像認識装置10は、図2に示されるような自車両の前方の領域を撮像した前方画像50から、前方の領域に存在する歩行者を表す画像58を検知する。
図1に示されるように、画像認識装置10は、画像認識回路20を有する。画像認識回路20は、赤外線カメラ30、及び表示装置40と接続されている。
撮像手段としての赤外線カメラ30は、近赤外線を検出することにより、可視光の少ない環境下においても撮像が可能である。赤外線カメラ30は、自車両の車体の前後方向の軸に沿って前方に向けられ、地上からの高さが所定の高さとなるように車体に取り付けられている。赤外線カメラ30は、自車両の前方の領域を撮影し、前方画像50を生成する。そして、赤外線カメラ30は、生成した前方画像50を画像認識回路20及び表示装置40に逐次出力する。なお、前方画像50には、直線路において自車両から約40m〜100m先の走行道路、走行道路上に存在する歩行者、及び走行道路脇の路肩や歩道に存在する歩行者の画像が含まれる。
画像認識回路20は、各種の演算処理を行うプロセッサ、当該演算処理に用いられるプログラム等が格納されたフラッシュメモリ、及び演算の作業領域として機能するRAM等によって構成されている。
画像認識回路20は、算出部22、探索領域設定部24、データベース26及び認識部28から構成されている。これらの要素22、24、26、28は、画像認識回路20の機能ブロックである。これら要素22、24、26、28の機能は、画像認識回路20のプロセッサにおいて所定のプログラムが実行されることにより、当該画像認識回路20によって果たされる。
算出部22は、自車両の旋回に関する情報を含む情報を取得し、その取得した情報に基づき、自車両の前方の領域における走行道路のカーブの方向及びカーブの曲り度合いに関する情報を算出する。具体的に、算出部22は、赤外線カメラ30から画像認識回路20に出力されている前方画像50を自車両の旋回に関する情報を含む情報として取得する。そして、算出部22は、取得した前方画像50中の複数の所定領域のオプティカルフローを計算することにより算出される方向ベクトルの水平方向成分を合算し、水平方向成分の合算値を得る。水平方向成分の合算値は、探索領域設定部24に出力される。なお、この水平方向成分の合算値が走行道路のカーブの方向及びカーブの曲り度合いに関する情報となる。
探索領域設定部24は、図3に示されるような歩行者を表す画像を探索するための探索領域52を、前方画像50の一部に設定する。探索領域設定部24は、図3〜図5に示されるように取得した走行道路のカーブの方向及びカーブの曲り度合いに関する情報に応じて、探索領域52の前方画像50における位置を設定する。探索領域設定部24は、探索領域設定部24によって設定された探索領域52の前方画像50での位置情報を認識部28に出力する。探索領域設定部24による探索領域52の前方画像50における位置の設定については、後ほど詳細に説明する。
データベース26は、事前学習モデル26aを記憶している。事前学習モデル26aは、図示しない学習モデル作成装置が歩行者の写る画像及び歩行者以外のものが写る画像を含む複数のサンプル画像に基づいて、歩行者を表す画像58の特徴量データを学習することにより構築される。以下、事前学習モデル26aの作成について説明する。学習モデル作成装置は、複数のサンプル画像を読み込み、図2に示されるように、各サンプル画像を探索ウインドウ54によって走査する。これにより、学習モデル作成装置は、各サンプル画像からウインドウ画像56を切り出す。そして、切り出されたウインドウ画像56の特徴量データを学習する。なお、学習モデル作成装置による特徴量データの学習は、例えばAdaboostアルゴリズムにより行われる。そして、学習モデル作成装置は、歩行者の写る画像から抽出される特徴量データの重み付けを増やし、歩行者以外のものが写る画像から抽出される特徴量データの重み付けを減らす。また、事前学習モデル26aを作成する際、目標とする認識率及び誤認識率が予め設定される。認識率とは、事前学習モデル26aが歩行者が写る画像を正しく歩行者が写る画像として認識できる確率である。誤認識率とは、歩行者以外のものが写る画像を誤って歩行者が写る画像として認識してしまう確率である。目標として設定された認識率を上回り、かつ目標として設定された誤認識率を下回るようになるまで学習モデル作成装置に複数のサンプル画像を読み込ませることにより、歩行者を表す画像58の特徴を学習した事前学習モデル26aが作成される。データベース26は、記憶している事前学習モデル26aを認識部28に出力する。
認識部28は、赤外線カメラ30によって撮像された前方画像50を取得する。認識部28は、探索領域設定部24によって設定された探索領域52の前方画像50における位置情報を取得する。認識部28は、データベース26から事前学習モデル26aを取得する。認識部28は、歩行者等の検知対象物の検知結果を、表示装置40に出力する。
認識部28は、特徴量抽出部28a及び照合部28bを有している。
特徴量抽出部28aは、前方画像50の探索領域52内の画像を走査し、当該探索領域52に写る物体の特徴量データを抽出する。具体的には、図2に示されるように、特徴量抽出部28aは、予め大きさの設定された探索ウインドウ54によって、赤外線カメラ30から取得する前方画像50の探索領域52内の画像を走査する。なお、図2は、図3に示される探索領域52内の画像のみを示している。
特徴量抽出部28aは、探索領域52内の画像の水平方向及び鉛直方向に、探索ウインドウ54を移動させつつ(図2に示される破線の矢印を参照)、当該探索ウインドウ54によって囲まれた範囲の画像56(以下、ウインドウ画像56)を順に切り出す。さらに特徴量抽出部28aは、切り出されたウインドウ画像56を照合処理に適した特徴量データに変換する。特徴量抽出部28aは、変換された特徴量データを照合部28bに逐次出力する。
照合部28bは、事前学習モデル26aに基づいて、探索領域52内の画像から歩行者を表す画像58を検知する。具体的に、照合部28bは、特徴量抽出部28aによって抽出された特徴量データを、事前学習モデル26aと照合し、当該特徴量データが事前学習モデル26aに学習されている歩行者を表す画像58の特徴量データに適合するか否かを判定する。事前学習モデル26aに学習されている特徴量データに適合する物体が検知された場合、照合部28bは、前方画像50における当該物体の位置情報を検知結果として、図1に示される表示装置40に出力する。
本実施形態では、照合部28において、探索領域52から切り出したウインドウ画像56の特徴量データと、事前学習モデル26aに学習されている歩行者を表す画像58の特徴量データとを照合させることにより、探索領域52内の画像から歩行者を表す画像58を検知している。探索領域52内の画像から歩行者を表す画像58の検知はこの方法に限らなくともよい。例えば、歩行者を表すあらゆるパターンの画像(テンプレート画像)をデータベース26に保有させる。そして、探索領域52から切り出されたウインドウ画像56と複数のテンプレート画像とを重ね合わせ、二つの画像の相関を調べることにより、ウインドウ画像56から歩行者を表す画像58を検知する。このような周知のパターンマッチング技術を採用して歩行者を表す画像58を検知しても良い。
表示装置40は、車両室内のインストルメントパネルの中央部等に配置される液晶ディスプレイの表示画面に種々の画像を表示することにより、運転者に種々の情報を提供する。本実施形態の表示装置40は、赤外線カメラ30と接続されており、当該赤外線カメラ30から前方画像50を取得することができる。表示装置40は、運転者等のユーザーの操作に基づいて、表示画面に前方画像50を表示する。加えて、表示装置40は、認識部28から取得する検知結果としての位置情報に基づいて、前方画像50における歩行者を表す画像58を囲むように、枠状の画像60を前方画像50に重畳して表示する(図3を参照)。
次に、探索領域52の前方画像50における位置を設定するために使用する走行道路の形状の判定について、図3〜図5を用いて、さらに詳しく説明する。
自車両の前方に延びる走行道路には、直線路やカーブ等が存在する。例えば、自車両がカーブに沿って走行する際、自車両は旋回する。即ち、自車両が旋回していることが分かれば、自車両の前方に延びる走行道路がカーブであることが判定できる。
本実施形態の算出部22は、自車両の旋回に関する情報を含んだ情報を取得し、その習得した情報に基づいて、走行道路のカーブの方向及びカーブの曲り度合いに関する情報を算出する。具体的に、算出部22は、自車両の旋回に関する情報を含む情報として、赤外線カメラ30から画像認識回路20に出力されている前方画像50を取得する。算出部22は、その取得した前方画像50を画像処理することにより、走行道路のカーブの方向及びその曲り度合いに関する情報を算出する。
以下、前方画像50から走行道路のカーブの方向及びカーブの曲り度合いに関する情報を算出する際の具体的な方法について詳細に説明する。
前方画像50のオプティカルフローは、走行道路の形状(直線路、カーブ)によって異なる。具体的に、図3中の矢印によって示されるように、自車両が直線路を走行しているとき、前方画像50のオプティカルフローは、前方画像50の中央部に存在する消失点62から放射状に拡がる。また、自車両が右カーブを走行しているとき、図4中の矢印によって示されるように、前方画像50における消失点62の上側のオプティカルフローは斜め左上方向を向き、消失点62の下側のオプティカルフローは斜め左下方向を向き、消失点62の右側及び左側のオプティカルフローは左方向を向く。一方、自車両が左カーブを走行しているとき、図5中の矢印によって示されるように、前方画像50における消失点62の上側のオプティカルフローは斜め右上方向を向き、消失点62の下側のオプティカルフローは斜め右下方向を向き、消失点62の右側及び左側のオプティカルフローは右方向を向く。また、赤外線カメラ30が自車両の車体の前後方向の軸に沿って前方に向けられて取り付けられているので、走行道路のカーブの曲り度合いが大きいほど、図4及び図5中に示される矢印の大きさは大きくなる。以上により、前方画像50のオプティカルフローを計算することによれば、走行道路のカーブの方向及びカーブの曲り度合いに関する情報を算出することができる。
本実施形態の算出部22は、図3に示されるように、取得した前方画像50のオプティカルフローを計算することにより消失点62の前方画像50上の位置を求め、求めた位置に消失点62を設定する。消失点62は、直線路を走行中の自車両から進行方向に延びる複数の平行線が交差する無限遠点となっている。この実施形態では、消失点62は、図3に示されるように前方画像50の中央部に設けられる。ただし、消失点62の設定は、前方画像50のオプティカルフローを計算することにより設定しなくともよい。例えば、近似的に、前方画像50の中央部分に設定するようにしてもよい。
そして、算出部22は、前方画像50の四つ角のそれぞれと、消失点62とを直線で結ぶことにより、消失点62の周りに四つの分割領域64を形成する。さらに、算出部22は、図3の一点鎖線によって示されるように、それら四つの分割領域64ごとに少なくとも一箇所ずつ、オプティカルフローを計算するための計算領域66を設定する。なお、計算領域66は、向かい合う分割領域64内に設定される計算領域66同士が消失点62に対して点対称となる位置に設定される。さらに、各計算領域66は、互いに向かい合う計算領域66同士を結んだ線が、直交するように設定される。本実施形態では四つの分割領域64に少なくとも一箇所ずつ計算領域66を設定するようにしているが、互いに向かい合う左右の分割領域64だけに計算領域66を設けるようにしても良いし、上下の分割領域64だけに計算領域66を設けるようにしても良い。
各計算領域66のオプティカルフローが計算されると、計算領域66ごとに方向ベクトルが得られる。そして、算出部22は、得られた方向ベクトルの水平方向成分を合算する。なお、オプティカルフローの計算は、赤外線カメラ30から取得した時間的に異なる複数の前方画像50に基づいて行われる。水平方向成分の合算値は、探索領域設定部24に出力される。なお、水平方向成分の合算値は、走行道路のカーブの方向及びカーブの曲り度合いに関する情報となる。本実施形態では、水平方向成分の合算値がゼロを含む所定の範囲内となっている場合、走行道路は直線路であることを示す。水平方向成分の合算値が、正の値であって所定の範囲を外れた値である場合、走行道路は右カーブであることを示す。また、水平方向成分の合算値が、負の値であって所定の範囲を外れた値である場合、走行道路は左カーブであることを示す。
このように算出部22によって算出される水平方向成分の合算値(走行道路のカーブの方向及びカーブの曲り度合いに関する情報)は、前方画像50中に写った走行道路の白線や路肩に基づいたものではく、前方画像50のオプティカルフローを計算することにより得られる方向ベクトルの水平方向成分に基づいている。したがって、この算出部22によれば、走行道路の白線や路肩の有無といった走行道路の状態に拘らず、的確に走行道路のカーブの方向及びカーブの曲り度合いに関する情報を算出することができる。
次に、探索領域設定部24が設定する探索領域52について、図3〜図5を用いて、さらに詳しく説明する。
前方画像50の一部に設定される探索領域52は、歩行者を表す画像を探索するためのものである。したがって、探索領域52は、前方画像50に写った走行道路及び走行道路脇の路肩や歩道がその領域に入るように設定される。具体的に、直線路の場合、探索領域52は、図3に示されるように走行道路及び走行道路脇の路肩や歩道がその領域に入るように前方画像50の中央部に設定される。このような探索領域52の設定によれば、走行道路上を横断する歩行者や、走行道路脇の路肩や歩道を歩く歩行者を探索することができる。このように探索領域52を走行道路及び走行道路脇の路肩や歩道が入るだけのものにしているのは、誤検知の発生や、無駄な検知を行うことによる検知時間の長期化を招いてしまうのを抑制するためである。
また、探索領域52は、自車両前方の約40m〜100mに存在する歩行者を探索することができるように、前方画像50上での上下・左右方向の大きさ、及び探索領域52内の画像を走査する探索ウインドウ54の上下・左右方向の大きさが設定される。探索領域52が自車両前方の約40m〜100mに存在する歩行者を探索するように設定されているのは、この画像認識装置10が、夜間に使用されることを前提としているからである。夜間において自車両から約40mまでの範囲は、ヘッドライトの光により歩行者は比較的視認されやすいため、画像認識装置10による歩行者の検知の必要性は少ない。これに対し、自車両から約40mを超える範囲は、ヘッドライトの光が弱くなるため、歩行者の視認が困難となる。画像認識装置10は、このような歩行者の視認が困難となる範囲の歩行者を検知するように、探索領域52の前方画像50上での上下・左右方向の大きさ、及び探索ウインドウ54の上下・左右方向の大きさが設定される。
また、この実施形態において、探索領域52は、走行道路のカーブの方向に応じて前方画像50における位置が異なるように設定される。具体的に、図4に示されるように走行道路が右方向にカーブしている場合、直線路の場合に比べ、探索領域52は、探索領域52の前方画像50における上下・左右方向の大きさはそのままに、前方画像50上を右方向に向けて移動させた位置に設定されている。また、図5に示されるように走行道路が左方向にカーブしている場合、直線路の場合に比べ、探索領域52は、探索領域52の前方画像50における上下・左右方向の大きさはそのままに、前方画像50上を左方向に向けて移動させた位置に設定されている。このように探索領域52の設定位置を走行道路の形状に応じて異ならせるのは、走行道路のカーブの方向に応じて歩行者が存在する可能性の高い領域が変化するからである。赤外線カメラ30は、車体の前後方向の軸に沿って前方に向けられている。このため、自車両がカーブにさしかかると、図4や図5に示されるように、前方画像50における走行道路及び走行道路脇の路肩及び歩道は、直線路の場合に比べ、カーブの方向に向かってずれる。したがって、前方画像50における歩行者が存在する可能性の高い領域もカーブの方向に向かってずれる。
そうであるにも拘わらず、図4及び図5に二点鎖線で示されるように探索領域52が直線路に応じたもののまま固定されていると、自車両がカーブにさしかかったときに、探索領域52が歩行者が存在する可能性の高い領域(図4及び図5の破線を参照)からはずれる。これでは、歩行者が存在する可能性極めて低い領域を探索するといった無駄な検知を行い、誤検知を引き起こしたり、歩行者が存在する可能性の高い領域を探索することができず、検知漏れが発生することが懸念される。これに対し、この実施形態では、算出部22によって算出された走行道路のカーブの方向に関する情報に応じて、走行道路のカーブの方向を探索領域設定部24が判定するとともに、その走行道路のカーブの方向に応じて、探索領域52の前方画像50における位置を探索領域設定部24によって設定するようにしている。そうすれば、歩行者の検知漏れや無駄な検知動作を減少させることができる。
具体的に、探索領域設定部24は、算出部22が算出した水平方向成分の合算値によってカーブの方向を判定する。例えば、探索領域設定部24は、水平方向成分の合算値が正の値であって所定の範囲を外れた値である場合、カーブは右方向であると判定する。また、探索領域設定部24は、水平方向成分の合算値が負の値であって所定の範囲を外れた値である場合、カーブは左方向であると判定する。そして、探索領域設定部24は、探索領域52を、探索領域52の前方画像50における上下・左右方向の大きさはそのままに、判定した走行道路のカーブの方向に向けて移動させた位置に設定する。これにより、自車両がカーブを走行することによって変化する歩行者が存在する可能性が高い領域に探索領域52を近づけることができる。
また、探索領域設定部24は、算出部22が算出した水平方向成分の合算値によってカーブの曲り度合いを判定する。例えば、探索領域設定部24は、水平方向成分の合算値の大きさが大きいほど、カーブの曲り度合いが大きいものであると判定できる。探索領域設定部24は、カーブの曲り度合いが大きいほど、走行道路のカーブの方向に向かう探索領域52の移動量が大きくなるように探索領域52を設定する。これにより、探索領域52を、カーブの曲り度合いに対応したものとすることができ、カーブの曲り度合いによって変化する歩行者が存在する可能性が高い領域に探索領域52をより近づけることができる。
次に、画像認識回路20が、前方画像50から歩行者を表す画像58を検知する処理について、図6のフローチャートを用いて、詳しく説明する。例えば、表示装置40に前方画像50を表示させるための操作をユーザが行うことにより、画像認識回路20によって実施される。画像認識回路20による処理は、表示装置40への前方画像50の表示を停止する操作をユーザが行うまで繰り返される。
まず、ステップS10では、算出部22によって、赤外線カメラ30から前方画像50を取得し、ステップS20に進む。ステップS20では、算出部22によって、ステップS10において取得した赤外線カメラ30からの前方画像50を画像処理し、前方画像50に消失点62を設定し、ステップS30に進む。
ステップS30では、算出部22によって、前方画像50の四つ角のそれぞれと、ステップS20において算出された消失点62とを直線で結ぶことにより、消失点62の周りに四つの分割領域64を形成し、ステップS40に進む。
ステップS40では、算出部22によって、四つの分割領域64ごとに少なくとも一箇所ずつオプティカルフローを計算する計算領域66(図3〜図5の一点鎖線を参照)を設定し、ステップS50に進む。
ステップS50では、算出部22によって、各計算領域66のオプティカルフローを計算し、オプティカルフローを計算することによりた方向ベクトルを算出し、それらの方向ベクトルの水平方向成分を合算し、ステップS60に進む。ステップS50において算出された水平方向成分の合算値は、探索領域設定部24に出力される。
ステップS60では、ステップS50において算出された水平方向成分の合算値に基づき、自車両前方の走行道路が直線路であるのか、あるいはカーブであるのかを探索領域設定部24により判定する。具体的に、ステップS50において算出された水平方向成分の合算値が所定の範囲内となっていれば、走行道路は直線路であるとして、ステップS70に進む。一方、ステップS50において算出された水平方向成分の合算値が所定の範囲を外れていれば、走行道路はカーブしているとして、ステップS80に進む。
ステップS80では、ステップS50において算出された水平方向成分の合算値が正の値であれば、走行道路は右方向にカーブしているとして、ステップS90に進む。一方、ステップS50において算出された水平方向成分の合算値が負の値であれば、走行道路は左方向にカーブしているとして、ステップS100に進む。
走行道路が直線路であると判定された場合に実行されるステップS70では、認識部28によって走行道路及び走行道路脇の路肩や歩道に存在する歩行者を表す画像58が検知できるように、探索領域設定部24によって探索領域52が前方画像50の中央部に設定される(図3を参照)。前方画像50の中央部に探索領域52が設定されることにより、直線路上及び直線路脇の路肩や歩道に存在する歩行者を探索領域52内に含めることができる。探索領域設定部24によって設定された探索領域52の前方画像50における位置情報は、認識部28に出力される。
走行道路が右方向にカーブしていると判定された場合に実行されるステップS90では、認識部28によって右カーブの走行道路及び走行道路脇の路肩や歩道に存在する歩行者を表す画像58が検知できるように、探索領域設定部24によって探索領域52が右方向に向けて移動された位置に設定される(図4を参照)。また、探索領域設定部24によって設定される探索領域52は、ステップS50において算出された水平方向成分の合算値の大きさが大きいほど、右方向に向かう探索領域52の移動量が大きくなるように探索領域52が設定される。このようにして設定された探索領域52の前方画像50における位置情報は、認識部28に出力される。
走行道路が左方向にカーブしていると判定された場合に実行されるステップS100では、認識部28によって左カーブの走行道路及び走行道路脇の路肩や歩道に存在する歩行者を表す画像58が検知できるように、探索領域設定部24によって探索領域52が左方向に向けて移動された位置に設定される(図5を参照)。また、探索領域設定部24によって設定される探索領域52は、ステップS50において算出された水平方向成分の合算値の大きさが大きいほど、左方向に向かう探索領域52の移動量が大きくなるように探索領域52が設定される。このようにして設定された探索領域52の前方画像50における位置情報は、認識部28に出力される。
ステップS110では、前方画像50における探索領域52からウインドウ画像56を探索ウインドウ54によって順に切り出す。そして、切り出された各ウインドウ画像56から、特徴量抽出部28aによって、特徴量データを抽出し、S120に進む。抽出された特徴量データは、特徴量抽出部28aから照合部28bに出力される。
ステップS120では、ステップS110において抽出された特徴量データを、事前学習モデル26aに学習されている歩行者を表す画像58の特徴量データと照合し、ステップS130に進む。ステップS120では、歩行者を表す画像58の特徴量データに適合するウインドウ画像56が検知された場合、前方画像50における当該ウインドウ画像56の位置情報を記憶する。
ステップS130では、ステップS120における照合の結果に基づき、前方画像50から検知対象物である歩行者を表す画像58を検知したか否かを判定する。ステップS130において、歩行者を表す画像58を検知していないと判定した場合、ステップS10に戻る。一方、ステップS130において、前方画像50から歩行者を表す画像58を検知していると判定した場合、ステップS140に進む。
ステップS140では、ステップS120において記憶した、ウインドウ画像56の位置情報を検知結果として表示装置40に出力し、ステップS10に戻る。表示装置40は、照合部28bから取得した位置情報に基づいて、歩行者を表す画像58を枠状の画像60で囲んだ表示を表示画面に映し出す。
ここまで説明した本実施形態では、自車両の旋回に関する情報を含む情報として、赤外線カメラ30から前方画像50を取得し、その前方画像50に基づいて、自車両の前方における走行道路のカーブの方向に関する情報を算出するようにしている。このため、白線や路肩の有無といった走行道路の状態に拘らず、自車両の前方における走行道路のカーブの方向に関する情報を的確に算出することができる。ここで、画像認識回路20が検知しようとする歩行者が存在する可能性の高い領域は、通常、走行道路のカーブの方向によって変化する。探索領域設定部24は、算出部22によって算出された走行道路のカーブの方向に関する情報に基づいて、走行道路のカーブの方向を判定する。そして、探索領域設定部24は、歩行者を表す画像58を探索するための探索領域52の前方画像50における上下・左右方向の大きさはそのままに、判定した走行道路のカーブの方向に向けて移動させた位置に探索領域52を設定する。このため、走行道路のカーブの方向によって変化する歩行者が存在する可能性の高い領域に探索領域52が近づくこととなる。このようにして探索領域52が設定された後に、認識部28は、設定後の探索領域52内の歩行者の検知を行うので、歩行者の検知漏れや無駄な検知動作が減少する。よって、本実施形態の画像認識装置10は、自車両の走行道路の状態に拘らず、歩行者の検知漏れや無駄な検知動作を減少させることができる探索領域52を設定でき、歩行者の検知性能を向上することができる。
また、本実施形態では、探索領域設定部24によって判定された走行道路のカーブの曲り度合いが大きいほど、走行道路のカーブの方向に向かう探索領域52の移動量が大きくなるように探索領域52が設定される。ゆえに、探索領域52は、走行道路のカーブの曲り度合いに対応したものとなり、走行道路のカーブの曲がり度合いによって変化する歩行者が存在する可能性の高い領域に近づく。したがって、自車両がカーブを走行しているときの歩行者の検知漏れや無駄な検知がさらに少なくなる。
さらに、算出部22により算出される走行道路のカーブの方向及びカーブの曲り度合いに関する情報は、前方画像50における所定領域のオプティカルフローを計算することにより算出された方向ベクトルの水平方向成分の合算値となっている。算出部22により算出される方向ベクトルは、前方画像50におけるオプティカルフローを計算することにより得られるものであるため、白線や路肩の有無に拘らず得ることができる。したがって、本実施形態の算出部22によれば、白線や路肩が判別できないような走行道路であっても、走行道路のカーブの方向及びカーブの曲り度合いに関する情報を算出することができる。
また、この方向ベクトルは、自車両の旋回に応じて変化するものであり、方向ベクトルの水平方向成分の合算値は、自車両の走行道路のカーブの方向及びカーブの曲り度合いに応じて変化する。本実施形態では、この水平方向成分の合算値に基づいて、走行道路のカーブの方向及びカーブの曲り度合いを判定するようにしているので、白線や路肩が判別できないような走行道路であっても走行道路のカーブの方向及びカーブの曲り度合いを判定することができる。
さらに、本実施形態では、オプティカルフローを計算する所定領域が前方画像50中に複数ヶ所設定されているため、算出部22による走行道路のカーブの方向又はカーブの曲り度合いに関する情報の算出精度が向上する。
なお、本実施形態において、算出部22は特許請求の範囲に記載の「算出手段」に相当し、探索領域設定部24は特許請求の範囲に記載の「探索領域設定手段」に相当し、認識部28は特許請求の範囲に記載の「検知手段」に相当する。
(第2実施形態)
図7は、第2実施形態による画像認識装置10を示す概略構成図である。本実施形態では、経路案内装置としてのナビゲーション装置70の自車両の現在位置の情報及び地図情報を自車両の旋回に関する情報を含む情報として取得し、その現在位置情報及び地図情報に基づいて、走行道路のカーブの方向及びカーブの曲り度合いに関する情報を算出する点が、第1実施形態と異なる。ここでは、本実施形態の特徴部分のみを説明する。
ナビゲーション装置70は、自車両の現在位置を検出する位置検出手段としての位置検出部70aと、自車両の現在位置周辺の地図情報を記憶する地図記憶手段としての地図記憶部70bとを有する。位置検出部70aは、例えば、車外からの無線信号に基づいて自車両の現在位置を検出する。無線信号は、GPS(Global Positioning System)信号やビーコンなどからの信号である。自車両の現在位置の情報は、表示装置40等の表示画面を有する装置に出力されるとともに、画像認識回路20の算出部22にも出力される。
地図記憶部70bは、位置検出部70aによって検出された自車両の現在位置の情報に基づき、記憶されている自車両の現在位置の周辺の地図情報を表示装置40等の表示画面を有する装置に出力するとともに、画像認識回路20にも出力する。
表示装置40等の表示画面を有する装置は、入力された自車両の現在位置の情報及び地図情報に基づき、地図を表示するとともに、その地図に自車両の現在位置に関する意匠を重ねあわせて表示する。さらに、例えば目的地設定操作がなされた場合には、表示されている地図上に目的地までの経路を表示して経路案内する。
自車両の現在位置情報及び地図情報が入力される算出部22は、これらの情報に基づき、自車両の前方に延びる走行道路のカーブの方向及びカーブの曲り度合いに関する情報を算出する。走行道路のカーブの方向及びカーブの曲り度合いに関する情報は、第1実施形態と同様、探索領域設定部24に出力される。探索領域設定部24及び認識部28における処理は、第1実施形態ど同様であるため、ここでは説明を省略する。
本実施形態では、算出部22により算出される走行道路のカーブの方向及びカーブの曲り度合いに関する情報は、ナビゲーション装置70からの自車両の現在位置の情報及び地図情報に基づいている。これらの情報は、白線や路肩等の有無に拘らず取得が可能な情報である。したがって、この実施形態の算出部22によれば、白線や路肩が判別できないような走行道路であっても、走行道路のカーブの方向及びカーブの曲り度合いに関する情報を算出することができる。
(第3実施形態)
図8は、第3実施形態による画像認識装置10を示す概略構成図である。本実施形態では、舵角検出手段としての舵角センサ80の舵角情報を自車両の旋回に関する情報を含む情報として取得し、その舵角情報に基づいて、走行道路のカーブの方向及びカーブの曲り度合いに関する情報を算出する点が、第1実施形態と異なる。ここでは、本実施形態の特徴部分のみを説明する。
舵角センサ80は、自車両のステアリングに設けられており、運転者が操作するステアリングの操舵角を検出するものである。舵角センサ80は、ステアリングの操舵角に応じた信号を舵角情報として出力する。このため、この舵角情報には、ステアリングの操舵の方向と、操舵量の情報が含まれることとなる。ステアリングの操作は、走行道路のカーブの方向及びカーブの曲り度合いに応じたものとなるので、この舵角情報によれば、走行道路のカーブの方向及びカーブの曲り度合いを把握することができる。舵角センサ80から出力される舵角情報は、算出部22に入力される。
舵角情報が入力される算出部22は、この舵角情報に基づき、自車両の前方に延びる走行道路のカーブの方向及びカーブの曲り度合いに関する情報を算出する。走行道路のカーブの方向及びカーブの曲り度合いに関する情報は、第1実施形態と同様、探索領域設定部24に出力される。探索領域設定部24及び認識部28における処理は、第1実施形態と同様であるため、ここでは説明を省略する。
本実施形態では、算出部22により算出される走行道路のカーブの方向及びカーブの曲り度合いに関する情報は、走行道路のカーブの方向及びカーブの曲り度合いに応じて変化する舵角情報に基づいている。この情報は、白線や路肩等の有無に拘らず取得が可能な情報である。したがって、この実施形態の算出部22によれば、白線や路肩が判別できないような走行道路であっても、走行道路のカーブの方向及びカーブの曲り度合いに関する情報を算出することができる。
(第4実施形態)
図9は、第4実施形態による画像認識装置10を示す概略構成図である。本実施形態では、ヨーレート検出手段としてのヨーレートセンサ90のヨーレート情報を自車両の旋回に関する情報を含む情報として取得し、そのヨーレート情報に基づいて、走行道路のカーブの方向及びカーブの曲り度合いに関する情報を算出する点が、第1実施形態と異なる。ここでは、本実施形態の特徴部分のみを説明する。
ヨーレートセンサ90は、自車両の鉛直軸方向の回転角速度を検出するものである。ヨーレートセンサ90は、上記回転角速度に応じた信号をヨーレート情報として出力する。ヨーレートは、走行道路のカーブの方向及びカーブの曲り度合いに応じて変化するものであるため、このヨーレート情報によれば、走行道路のカーブの方向及びカーブの曲り度合いを把握することができる。ヨーレートセンサ90から出力されるヨーレート情報は、算出部22に出力される。
ヨーレート情報が入力される算出部22は、このヨーレート情報に基づき、自車両の前方に延びる走行道路のカーブの方向及びカーブの曲り度合いに関する情報を算出する。走行道路のカーブの方向及びカーブの曲り度合いに関する情報は、第1実施形態と同様、探索領域設定部24に出力される。探索領域設定部24及び認識部28における処理は、第1実施形態と同様であるため、ここでは説明を省略する。
本実施形態では、算出部22により算出される走行道路のカーブの方向及びカーブの曲り度合いに関する情報は、走行道路のカーブの方向及びカーブの曲り度合いに応じて変化するヨーレート情報に基づいている。この情報は、白線や路肩等の有無に拘らず取得が可能な情報である。したがって、この実施形態の算出部22によれば、白線や路肩が判別できないような走行道路であっても、走行道路のカーブの方向及びカーブの曲り度合いに関する情報を算出することができる。
10 画像認識装置、20 画像認識回路、22 算出部(算出手段)、24 探索領域設定部(探索領域設定手段)、26 データベース、26a 事前学習モデル、28 認識部(検知手段)、28a 特徴量抽出部、28b 照合部、30 赤外線カメラ、40 表示装置、50 前方画像、52 探索領域、54 探索ウインドウ、56 ウインドウ画像、58 画像、60 画像、62 消失点、64 分割領域、66 計算領域、70 ナビゲーション装置、80 舵角センサ、90 ヨーレートセンサ

Claims (11)

  1. 自車両の前方の領域を撮像する撮像手段より取得した前方画像から、前記前方の領域に存在する歩行者を表す画像を検知する画像認識装置において、
    前記自車両の旋回に関する情報を含んだ情報を取得し、その取得した情報に基づき、前記前方の領域における走行道路のカーブの方向に関する情報を算出する算出手段と、
    前記歩行者を表す画像を探索するための探索領域を前記前方画像の一部に設定する探索領域設定手段であって、前記走行道路のカーブの方向に関する情報に基づいて、前記走行道路のカーブの方向を判定し、前記探索領域を、前記探索領域の前記前方画像における大きさはそのままに、判定した前記走行道路のカーブの方向に向けて移動させた位置に設定する探索領域設定手段と、
    前記探索領域内の前記歩行者を表す画像を検知する検知手段と、を備えることを特徴とする画像認識装置。
  2. 前記算出手段は、前記走行道路のカーブの方向に関する情報に加え、前記走行道路のカーブの曲り度合いに関する情報を算出し、
    前記探索領域設定手段は、前記走行道路のカーブの曲り度合いに関する情報に基づいて、前記走行道路のカーブの曲り度合いを判定し、判定した前記走行道路のカーブの曲り度合いが大きいほど、前記走行道路のカーブの方向に向かう前記探索領域の移動量が大きくなるように前記探索領域を設定することを特徴とする請求項1に記載の画像認識装置。
  3. 前記算出手段は、前記撮像手段の前記前方画像を前記自車両の旋回に関する情報を含んだ情報として取得し、前記前方画像における所定領域のオプティカルフローを計算することにより前記所定領域の方向ベクトルを算出し、算出された前記所定領域の方向ベクトルの水平方向成分を前記走行道路のカーブの方向に関する情報として算出し、
    前記探索領域設定手段は、前記方向ベクトルにおける水平方向成分の値に基づいて、前記走行道路のカーブの方向を判定することを特徴とする請求項1に記載の画像認識装置。
  4. 前記算出手段は、前記撮像手段の前記前方画像を前記自車両の旋回に関する情報を含んだ情報として取得し、前記前方画像における所定領域のオプティカルフローを計算することにより前記所定領域の方向ベクトルを算出し、算出された前記所定領域の方向ベクトルの水平方向成分を前記走行道路のカーブの曲り度合いに関する情報として算出し、
    前記探索領域設定手段は、前記方向ベクトルにおける水平方向成分の値に基づいて、前記走行道路のカーブの曲り度合いを判定することを特徴とする請求項2に記載の画像認識装置。
  5. 前記所定領域は、前記前方画像に複数ヶ所設定されていることを特徴とする請求項3又は4に記載の画像認識装置。
  6. 前記算出手段は、前記自車両の現在位置を検出する位置検出手段と、前記自車両の現在位置周辺の地図情報を記憶する地図記憶手段とを有し、前記地図記憶手段が記憶する地図情報と位置検出手段が検出した前記自車両の現在位置の情報に基づき目的地までの経路案内を行う経路案内装置からの前記自車両の現在位置の情報及び地図情報を前記自車両の旋回に関する情報を含む情報として取得し、取得した前記自車両の現在位置の情報及び地図情報に基づいて、前記走行道路のカーブの方向に関する情報を算出することを特徴とする請求項1に記載の画像認識装置。
  7. 前記算出手段は、前記経路案内装置から取得した現在位置の情報及び地図情報に基づいて、前記走行道路のカーブの方向に関する情報に加え、前記走行道路のカーブの曲り度合いに関する情報を算出することを特徴とする請求項6に記載の画像認識装置。
  8. 前記算出手段は、前記自車両の舵角を検出する舵角検出手段からの舵角情報を前記自車両の旋回に関する情報を含む情報として取得し、取得した舵角情報に基づいて、前記走行道路のカーブの方向に関する情報を算出することを特徴とする請求項1に記載の画像認識装置。
  9. 前記算出手段は、前記舵角検出手段から取得した舵角情報に基づいて、前記走行道路のカーブの方向に関する情報に加え、前記走行道路のカーブの曲り度合いに関する情報を算出することを特徴とする請求項8に記載の画像認識装置。
  10. 前記算出手段は、前記自車両のヨーレートを検出するヨーレート検出手段からのヨーレート情報を前記自車両の旋回に関する情報を含む情報として取得し、取得した舵角情報に基づいて、前記走行道路のカーブの方向に関する情報を算出することを特徴とする請求項1に記載の画像認識装置。
  11. 前記算出手段は、前記ヨーレート検出手段から取得したヨーレート情報に基づいて、前記走行道路のカーブの方向に関する情報に加え、前記走行道路のカーブの曲り度合いに関する情報を算出することを特徴とする請求項10に記載の画像認識装置。
JP2011119440A 2011-05-27 2011-05-27 画像認識装置 Active JP5760696B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011119440A JP5760696B2 (ja) 2011-05-27 2011-05-27 画像認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011119440A JP5760696B2 (ja) 2011-05-27 2011-05-27 画像認識装置

Publications (2)

Publication Number Publication Date
JP2012248011A true JP2012248011A (ja) 2012-12-13
JP5760696B2 JP5760696B2 (ja) 2015-08-12

Family

ID=47468395

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011119440A Active JP5760696B2 (ja) 2011-05-27 2011-05-27 画像認識装置

Country Status (1)

Country Link
JP (1) JP5760696B2 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015118671A (ja) * 2013-12-20 2015-06-25 株式会社今仙電機製作所 歩行者検出方法および歩行者検出装置
WO2016170722A1 (ja) * 2015-04-23 2016-10-27 株式会社Jvcケンウッド 表示装置、及び表示制御方法
CN106959101A (zh) * 2017-03-17 2017-07-18 哈尔滨工业大学 一种基于光流法的室内定位方法
KR101839978B1 (ko) * 2013-03-18 2018-04-26 주식회사 만도 차량의 주행 상태를 판단하기 위한 장치 및 방법
CN108540720A (zh) * 2018-04-14 2018-09-14 长沙全度影像科技有限公司 一种用于子弹时间自动选取最优图像的系统及方法
JP2020004366A (ja) * 2018-06-25 2020-01-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理装置、情報処理方法、及び、プログラム
KR20210035112A (ko) * 2020-05-19 2021-03-31 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드 내비게이션 표적의 마킹 방법 및 장치, 전자 기기, 컴퓨터 판독 가능 매체
US11097509B2 (en) 2016-08-30 2021-08-24 Corning Incorporated Siloxane plasma polymers for sheet bonding
US11123954B2 (en) 2014-01-27 2021-09-21 Corning Incorporated Articles and methods for controlled bonding of thin sheets with carriers
US11167532B2 (en) 2015-05-19 2021-11-09 Corning Incorporated Articles and methods for bonding sheets with carriers
US11192340B2 (en) 2014-04-09 2021-12-07 Corning Incorporated Device modified substrate article and methods for making
US11331692B2 (en) 2017-12-15 2022-05-17 Corning Incorporated Methods for treating a substrate and method for making articles comprising bonded sheets
US11535553B2 (en) 2016-08-31 2022-12-27 Corning Incorporated Articles of controllably bonded sheets and methods for making same
US11905201B2 (en) 2015-06-26 2024-02-20 Corning Incorporated Methods and articles including a sheet and a carrier
US11999135B2 (en) 2018-08-20 2024-06-04 Corning Incorporated Temporary bonding using polycationic polymers

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010250541A (ja) * 2009-04-15 2010-11-04 Toyota Motor Corp 物体検出装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010250541A (ja) * 2009-04-15 2010-11-04 Toyota Motor Corp 物体検出装置

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101839978B1 (ko) * 2013-03-18 2018-04-26 주식회사 만도 차량의 주행 상태를 판단하기 위한 장치 및 방법
JP2015118671A (ja) * 2013-12-20 2015-06-25 株式会社今仙電機製作所 歩行者検出方法および歩行者検出装置
US11123954B2 (en) 2014-01-27 2021-09-21 Corning Incorporated Articles and methods for controlled bonding of thin sheets with carriers
US11192340B2 (en) 2014-04-09 2021-12-07 Corning Incorporated Device modified substrate article and methods for making
WO2016170722A1 (ja) * 2015-04-23 2016-10-27 株式会社Jvcケンウッド 表示装置、及び表示制御方法
US11660841B2 (en) 2015-05-19 2023-05-30 Corning Incorporated Articles and methods for bonding sheets with carriers
US11167532B2 (en) 2015-05-19 2021-11-09 Corning Incorporated Articles and methods for bonding sheets with carriers
US11905201B2 (en) 2015-06-26 2024-02-20 Corning Incorporated Methods and articles including a sheet and a carrier
US11097509B2 (en) 2016-08-30 2021-08-24 Corning Incorporated Siloxane plasma polymers for sheet bonding
US11535553B2 (en) 2016-08-31 2022-12-27 Corning Incorporated Articles of controllably bonded sheets and methods for making same
CN106959101A (zh) * 2017-03-17 2017-07-18 哈尔滨工业大学 一种基于光流法的室内定位方法
US11331692B2 (en) 2017-12-15 2022-05-17 Corning Incorporated Methods for treating a substrate and method for making articles comprising bonded sheets
CN108540720A (zh) * 2018-04-14 2018-09-14 长沙全度影像科技有限公司 一种用于子弹时间自动选取最优图像的系统及方法
CN108540720B (zh) * 2018-04-14 2020-07-03 长沙全度影像科技有限公司 一种用于子弹时间自动选取最优图像的系统及方法
JP2020004366A (ja) * 2018-06-25 2020-01-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理装置、情報処理方法、及び、プログラム
JP7376992B2 (ja) 2018-06-25 2023-11-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理装置、情報処理方法、及び、プログラム
US11999135B2 (en) 2018-08-20 2024-06-04 Corning Incorporated Temporary bonding using polycationic polymers
JP2021108137A (ja) * 2020-05-19 2021-07-29 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッドBeijing Baidu Netcom Science Technology Co., Ltd. ナビゲーションターゲットのマーク方法および装置、電子設備、コンピュータ可読媒体
JP7383659B2 (ja) 2020-05-19 2023-11-20 阿波▲羅▼智▲聯▼(北京)科技有限公司 ナビゲーションターゲットのマーク方法および装置、電子設備、コンピュータ可読媒体
KR102608167B1 (ko) * 2020-05-19 2023-12-01 아폴로 인텔리전트 커넥티비티 (베이징) 테크놀로지 씨오., 엘티디. 내비게이션 표적의 마킹 방법 및 장치, 전자 기기, 컴퓨터 판독 가능 매체
KR20210035112A (ko) * 2020-05-19 2021-03-31 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드 내비게이션 표적의 마킹 방법 및 장치, 전자 기기, 컴퓨터 판독 가능 매체

Also Published As

Publication number Publication date
JP5760696B2 (ja) 2015-08-12

Similar Documents

Publication Publication Date Title
JP5760696B2 (ja) 画像認識装置
JP4985142B2 (ja) 画像認識装置および画像認識装置の画像認識処理方法
JP4973736B2 (ja) 路面標示認識装置,路面標示認識方法及び路面標示認識プログラム
US20180373943A1 (en) Computer implemented detecting method, computer implemented learning method, detecting apparatus, learning apparatus, detecting system, and recording medium
US8428362B2 (en) Scene matching reference data generation system and position measurement system
US8452103B2 (en) Scene matching reference data generation system and position measurement system
US11670087B2 (en) Training data generating method for image processing, image processing method, and devices thereof
KR101665599B1 (ko) 경로 안내 서비스를 위한 증강현실 내비게이션 장치 및 그 방법
US20120224060A1 (en) Reducing Driver Distraction Using a Heads-Up Display
JP6335556B2 (ja) ポインティングによる情報クエリ
JP5904925B2 (ja) 車両周辺監視装置
US11656090B2 (en) Method and system for generating navigation data for a geographical location
WO2021056841A1 (zh) 定位方法、路径确定方法、装置、机器人及存储介质
JP2005136946A (ja) 路上走行車両用のカメラ式位置認識装置および方法
KR20120113579A (ko) 길안내 정보의 윈드쉴드 표시 장치 및 그 방법
JP2008168811A (ja) 車線認識装置、車両、車線認識方法、及び車線認識プログラム
JP2018092483A (ja) 物体認識装置
JP4296287B2 (ja) 車両認識装置
CN107111741A (zh) 用于具有摄像机的机动车的方法,设备和系统
JP4953015B2 (ja) 自車位置認識装置と自車位置認識プログラム、及びこれを用いたナビゲーション装置
JP2010176592A (ja) 車両用運転支援装置
JP4375549B2 (ja) 車両位置特定装置
US10339803B2 (en) Method for operating an assistance system of a motor vehicle and assistance system
Grewe et al. Road following for blindBike: an assistive bike navigation system for low vision persons
JP4957021B2 (ja) 車両用地図データ作成装置、及び、車両用地図データ更新装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150512

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150525

R151 Written notification of patent or utility model registration

Ref document number: 5760696

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250