JP2018041209A - 物体認識装置、モデル情報生成装置、物体認識方法、および物体認識プログラム - Google Patents

物体認識装置、モデル情報生成装置、物体認識方法、および物体認識プログラム Download PDF

Info

Publication number
JP2018041209A
JP2018041209A JP2016173766A JP2016173766A JP2018041209A JP 2018041209 A JP2018041209 A JP 2018041209A JP 2016173766 A JP2016173766 A JP 2016173766A JP 2016173766 A JP2016173766 A JP 2016173766A JP 2018041209 A JP2018041209 A JP 2018041209A
Authority
JP
Japan
Prior art keywords
brightness
image
unit
information
model information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016173766A
Other languages
English (en)
Other versions
JP6468568B2 (ja
Inventor
瞬 岩崎
Shun Iwasaki
瞬 岩崎
宮川 恵介
Keisuke Miyagawa
恵介 宮川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2016173766A priority Critical patent/JP6468568B2/ja
Publication of JP2018041209A publication Critical patent/JP2018041209A/ja
Application granted granted Critical
Publication of JP6468568B2 publication Critical patent/JP6468568B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】より精度よく物体を認識することができる物体認識装置、モデル情報生成装置、物体認識方法、および物体認識プログラムを提供することを目的の一つとする。
【解決手段】物体認識装置は、撮像部により撮像された画像を取得する画像取得部と、車両の周辺の明るさを検出する明るさ検出部と、前記明るさ検出部により検出された明るさに応じて、前記画像取得部により取得された画像に含まれる物体を認識する処理の内容を変更する画像認識部とを備える物体認識装置である。
【選択図】図1

Description

本発明は、物体認識装置、モデル情報生成装置、物体認識方法、および物体認識プログラムに関する。
従来、車両の周辺等の物体を検出する装置がある。例えば、物体の熱放射の強度分布を画像として撮像する遠赤外線カメラにより撮像された画像から歩行者を検出する装置の発明が開示されている(例えば、特許文献1)。この装置は、画像における歩行者のモデル情報を日照度などの車外環境に対応付けて記憶し、車外環境に応じた歩行者のモデル情報を用いて歩行者を検出する。
特開2007−264732号公報
しかしながら、上記特許文献1の装置は、遠赤外線カメラにより撮像された画像を対象としており、可視光カメラにより撮像された画像を解析して歩行者を検出することについては考慮していない。
このため、可視光カメラにより撮像された画像については、歩行者などの物体を精度よく認識することができない場合があった。
本発明は、このような事情を考慮してなされたものであり、より精度よく物体を認識することができる物体認識装置、モデル情報生成装置、物体認識方法、および物体認識プログラムを提供することを目的の一つとする。
請求項1記載の発明は、撮像部(12)により撮像された画像を取得する画像取得部(30)と、車両の周辺の明るさを検出する明るさ検出部(32)と、前記明るさ検出部により検出された明るさに応じて、前記画像取得部により取得された画像に含まれる物体を認識する処理の内容を変更する画像認識部(34)とを備える物体認識装置(20)である。
請求項2記載の発明は、請求項1記載の物体認識装置であって、前記画像認識部は、前記画像からエッジを抽出し、抽出したエッジの分布に基づいて、前記物体を認識し、前記明るさ検出部によって検出された明るさに応じて、前記エッジを抽出する処理の内容を変更するものである。
請求項3記載の発明は、請求項2記載の物体認識装置であって、複数の物体モデル情報(66、68)を記憶した記憶部(60)を備え、前記複数の物体モデル情報のそれぞれは、エッジの分布と明るさとが対応付けられた情報であり、前記画像認識部は、前記明るさ検出部により検出された明るさに基づいて、前記複数の物体モデル情報から一または複数の物体モデル情報を選択し、前記選択した物体モデル情報と前記抽出したエッジとを比較することで前記物体を認識するものである。
請求項4記載の発明は、請求項3項記載の物体認識装置であって、前記複数の物体モデル情報は、色に関する情報に基づいて取得された色エッジと第1の明るさ以上の明るさとが対応付けられた第1物体モデル情報(66)と、輝度に関する情報に基づいて取得された輝度エッジと第2の明るさ未満の明るさとが対応付けられた第2物体モデル情報(68)と、を含み、前記画像認識部は、前記明るさ検出部により検出された明るさが第1の明るさ以上の場合は、前記撮像部により撮像された画像から色エッジを取得し、取得した色エッジと、前記第1物体モデル情報とを比較することで前記物体を認識し、前記明るさ検出部により検出された明るさが第2の明るさ未満の場合は、前記撮像部により撮像された画像から輝度エッジを取得し、取得した輝度エッジと、前記第2物体モデル情報とを比較することで前記物体を認識するものである。
請求項5記載の発明は、請求項1から4のうちいずれか1項記載の物体認識装置であって、前記画像認識部は、光を照射する前照灯を含む前照灯装置(76)により照射されている照射領域と、照射されていない非照射領域とで、前記画像取得部により取得された画像に含まれる物体を認識する処理の内容を変更するものである。
請求項6記載の発明は、請求項5項記載の物体認識装置であって、複数の物体モデル情報を記憶した記憶部を備え、前記複数の物体モデル情報は、色に関する情報に基づいて取得された色エッジと第1の明るさ以上の明るさとが対応付けられた第1物体モデル情報と、輝度に関する情報に基づいて取得された輝度エッジと第2の明るさ未満の明るさとが対応付けられた第2物体モデル情報と、を含み、前記画像認識部は、前記明るさ検出部により検出された明るさが第2の明るさ未満の場合、前記画像取得部により取得された画像における照射領域に対しては、物体が撮像された画像から色エッジを取得し、前記色エッジと、第1物体モデル情報とを比較することで前記物体を認識し、前記画像取得部により取得された画像に含まれる非照射領域に対しては、物体が撮像された画像から輝度エッジを取得し、前記輝度エッジと、前記第2物体モデル情報とを比較することで前記物体を認識するものである。
請求項7記載の発明は、第1の明るさ以上の環境において物体が撮像された第1の画像と前記物体の識別情報とが対応付けられた第1の対応情報、および第2の明るさ未満の環境において前記物体が撮像された第2の画像と前記物体の識別情報とが対応付けられた第2の対応情報とを取得する情報取得部と、前記情報取得部により取得された第1の画像から色に関する第1の特徴量、および第2の画像から輝度に関する第2の特徴量を抽出する特徴量抽出部と、前記特徴量抽出部により抽出された第1の特徴量と、前記物体の識別情報とを対応付けて第1物体モデル情報を生成し、前記特徴量抽出部により抽出された第2の特徴量と、前記物体の識別情報とを対応付けて第2物体モデル情報を生成する学習生成部と、を備えるモデル情報生成装置である。
請求項8記載の発明は、車載コンピュータが、撮像部により撮像された画像を取得し、
車両の周辺の明るさを検出し、前記検出された明るさに応じて、前記取得された画像に含まれる物体を認識する処理の内容を変更する物体認識方法である。
請求項9記載の発明は、車載コンピュータに、撮像部により撮像された画像を取得させ、車両の周辺の明るさを検出させ、前記検出された明るさに応じて、前記取得された画像に含まれる物体を認識する処理の内容を変更させる物体認識プログラムである。
請求項1から3、8および9記載の発明によれば、画像認識部が、明るさ検出部により検出された明るさに応じて、画像取得部により取得された画像に含まれる物体を認識する処理の内容を変更することにより、より精度よく物体を認識することができる。
請求項4記載の発明によれば、画像認識部が、明るさ検出部により検出された明るさに応じて、物体の認識に用いるエッジと物体モデル情報とを選択することにより、明るさに左右されずに安定的に物体を認識することができる。
請求項5または6記載の発明によれば、画像における、前照灯により照射されている領域と、前照灯に照射されていない領域とに含まれる物体を、より精度よく認識することができる。
請求項7記載の発明によれば、モデル情報生成装置は、第1の明るさ以上の環境において物体が撮像された画像におけるカラー情報と、物体の識別情報とを対応付けて昼間用物体モデル情報、および第1の明るさ未満の環境において物体が撮像された画像における輝度情報と、物体の識別情報とを対応付けて夜間用物体モデル情報を生成することにより、明るさが異なる環境においても、より精度よく物体を認識することができる物体モデル情報を生成することができる。
物体認識装置20を含む車両制御システム1の機能構成の一例を示す図である。 昼間用物体モデル情報66の内容を模式的に示した図である。 画像認識部34により実行される処理の流れを示すフローチャートである。 モデル情報生成装置200の機能構成を示す図である。 モデル情報生成装置200により実行される処理の流れを示すフローチャートである。 第2の実施形態の車両制御システム1Aの機能構成の一例を示す図である。 照射領域と、非照射領域とを含むカメラ12により撮像された画像IMの一例を示す図である。 第2の実施形態の画像認識部34Aにより実行される処理の流れを示すフローチャートである。 第3の実施形態の車両制御システム1Bの機能構成の一例を示す図である。
以下、図面を参照し、本発明の物体認識装置、モデル情報生成装置、物体認識方法および物体認識プログラムの実施形態について説明する。
<第1の実施形態>
図1は、物体認識装置20を含む車両制御システム1の機能構成の一例を示す図である。車両制御システム1は、例えば、レーダ装置10、カメラ12、照度センサ14、車両センサ16、物体認識装置20、車両制御装置70、走行駆動装置72、およびブレーキ装置74を備える。
レーダ装置10は、例えば、車両制御システム1が搭載された車両(以下、自車両)のバンパーや、フロントグリル等の周辺に設けられる。レーダ装置10は、例えば、自車両の前方にミリ波を放射し、放射したミリ波が物体に当たって反射した反射波を受信し、受信した反射波を解析することにより、物体の位置を特定する。物体の位置は、例えば自車両から物体までの距離を少なくとも含み、その他、自車両に対する物体の方位や横位置等を含んでもよい。レーダ装置10は、例えばFM−CW(Frequency−Modulated Continuous Wave)方式によって物体の位置を検出し、検出結果を物体認識装置20に出力する。
カメラ12は、CCD(Charge Couple Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ12は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。カメラ12は、例えば、周期的に繰り返し自車両の前方を撮像する。カメラ12は、例えば、画像を撮像し、撮像した画像を物体認識装置20に出力する。カメラ12は、1台に限らず、自車両に複数設けられてもよいし、複数のカメラを含むステレオカメラであってもよい。
照度センサ14は、車両の周辺の明るさを検出し、検出結果を物体認識装置20に出力する。車両センサ16は、車速を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両の向きを検出する方位センサ等を含む。車両センサ16は、各センサの検出結果を車両制御装置70に出力する。
物体認識装置20は、例えば、画像取得部30、明るさ検出部32、画像認識部34、周辺状況認識部50、および記憶部60を備える。画像取得部30、明るさ検出部32、画像認識部34、および周辺状況認識部50のうち、一部または全部は、プロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらのうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェアによって実現されてもよいし、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。また、物体認識装置20に含まれる各機能部は、複数のコンピュータ装置によって分散化されたものであってもよい。記憶部60は、ROM(Read Only Memory)やRAM(Random Access Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等で実現される。
画像取得部30は、カメラ12により撮像された画像を取得する。画像は、カラー情報および輝度情報を含むカラー画像である。カラー情報とは、例えば、RGB情報(R値、G値、およびB値の情報)、明度情報(色の明るさの程度を示す情報)、彩度情報(色の鮮やかさを示す情報)、および色相情報(色合いを示す情報)のうち一部または全部を含む情報である。
明るさ検出部32は、照度センサ14の検出結果を取得し、取得した検出結果に基づいて車両の周辺の明るさを検出する。なお、明るさ検出部32は、照度センサ14の検出結果に代えて、カメラ12から、カメラ12が画像を撮像する際に設定されている露光時間を取得し、取得した露光時間に基づいて、車両の周辺の明るさを導出してもよい。具体的には、カメラ12は、撮像した画像における任意の領域の輝度値が目標とする輝度値に近づくように、次の撮像処理の露光時間を制御するものであり、その際、撮像した画像における任意の領域の輝度値が目標とする輝度値に対して高い場合には、次の撮像処理の露光時間を短くし、任意の領域の輝度値が目標とする輝度値に対して低い場合には、次の撮像処理の露光時間を長くする。このようにカメラ12により露光時間は求められ、露光時間に関する情報は明るさ検出部32に出力され、明るさ検出部32は、この露光時間に基づいて、車両の周辺の明るさを導出する。
また、明るさ検出部32は、照度センサ14の検出結果に代えて、画像取得部30により取得された画像における輝度分布に基づいて、車両の周辺の明るさを導出してもよい。例えば、明るさ検出部32は、輝度値の分布において、輝度値が所定以上の領域が多い傾向である場合、車両の周辺の明るさは明るい傾向であると検出する。
画像認識部34は、例えば、特徴量抽出部36、識別部38、および位置特定部40を備える。特徴量抽出部36は、明るさ検出部32により検出された明るさに応じて処理の内容を決定し、決定した処理の内容に基づいて、画像取得部30により取得された画像から特徴量を抽出する。
識別部38は、画像に含まれる物体を識別する際に、明るさ検出部32により検出された明るさに応じて参照する情報(後述する昼間用物体モデル情報66または夜間用物体モデル情報68の少なくとも一方)を選択し、選択した情報を用いて物体を識別する。
位置特定部40は、識別部38により識別された実空間上の物体の位置を導出する。例えば、位置特定部40は、カメラ12の位置や、カメラ12の焦点距離、画像における無限遠点(例えば道路消失点)等のパラメータに基づいて物体の位置を導出する。
周辺状況認識部50は、レーダ装置10の検出結果を取得し、取得した結果に基づいて、物体の位置を認識する。また、周辺状況認識部50は、画像認識部34の処理結果として、実空間上の物体の位置を取得する。そして、周辺状況認識部50は、複数の画像における物体の位置に基づいて、物体の速度や、移動方向を認識する。なお、周辺状況認識部50は、レーダ装置10によって特定された物体の位置のうち自車両からの距離を重視すると共に、画像認識部34から取得した物体の位置のうち方位または横位置を重視する傾向で、これらの位置を統合し、物体の位置を認識してもよい。また、レーダ装置10に代えて(または、加えて)レーザレーダ、超音波センサ等のセンサを備えてもよい。
また、周辺状況認識部50は、車車間通信や、道路を走行する車両を検出するセンサから取得した情報に基づいて、物体の位置や速度等を検出してもよい。この場合、自車両は、他の車両や、道路を走行する車両を検出するセンサ等と通信する通信部を備える。
車両制御装置70は、車両センサ16の検出結果、および周辺状況認識部50により認識された物体の位置に基づいて、自車両を制御する。例えば、車両制御装置70は、認識された歩行者とのTTC(Time To Collision)が一定以下になったときにブレーキ装置74に制動力を出力させる自動ブレーキ制御を行う。また、車両制御装置70は、スピーカ(不図示)に警報を出力させてもよい。また、車両制御装置70は、認識された物体(例えば車両)との車間距離を一定に保つように走行駆動装置72またはブレーキ装置74を制御する車間距離制御を行うものであってもよい。
記憶部60には、例えば、昼間用処理プログラム62や、夜間用処理プログラム64、昼間用物体モデル情報66、夜間用物体モデル情報68、その他車両を制御するための制御プログラム等が記憶される。昼間用物体モデル情報66、および夜間用物体モデル情報68は、物体モデル情報の一例である。
昼間用処理プログラム62は、車両の周辺の明るさが第1の明るさ以上である場合に、カメラ12により撮像された画像(以下、昼間撮像画像)を処理するときに、画像認識部34に用いられる画像処理プログラムである。第1の明るさ以上とは、例えば、昼間における車両の周辺の明るさである。昼間用処理プログラム62は、昼間撮像画像から、カラー情報の特徴量を抽出するためのプログラムである。カラー情報の特徴量は、画像の画素または画素をグループ化した画素群ごとの、RGB情報の特徴量、明度情報の特徴量、彩度情報の特徴量、および色相情報の特徴量のうち一部または全部の特徴量である。
また、昼間用処理プログラム62は、上述したカラー情報の特徴量から、より精度よくエッジを抽出するためのプログラムである。カラー情報の特徴量から抽出されるエッジは、色エッジの一例である。エッジとは、周辺の画素または画素をグループ化した画素群との間で特徴量が大きく変化する画素または画素群である。例えば、エッジは、SOBELフィルタなどにより周辺の画素または画素群の間において特徴量の変化が求められることで抽出される。昼間用処理プログラム62には、例えば、カラー情報の特徴量からエッジを抽出するときの閾値や、補正値、昼間用物体モデル情報66を用いることを指示する情報等が含まれている。
なお、昼間用処理プログラム62は、カラー情報および輝度情報の特徴量を抽出するためのプログラムであってもよい。この場合、昼間用処理プログラム62には、カラー情報および輝度情報の特徴量からエッジを抽出するときの閾値や補正値等が含まれている。
夜間用処理プログラム64は、車両の周辺の明るさが第1の明るさ未満である場合に、カメラ12により撮像された画像(以下、夜間撮像画像)を処理するときに、画像認識部34に用いられる画像処理プログラムである。第1の明るさ未満とは、例えば、夜間における車両の周辺の明るさや、昼間および夜間におけるトンネルの内部の明るさ等である。夜間用処理プログラム64は、夜間撮像画像から、輝度情報の特徴量を抽出するためのプログラムである。輝度情報の特徴量とは、画像の画素または画素群ごとの輝度に基づく情報である。
また、夜間用処理プログラム64は、輝度情報の特徴量から、より精度よくエッジを抽出するためのプログラムである。輝度情報の特徴量から抽出されるエッジは、輝度エッジの一例である。夜間用処理プログラム64には、例えば、輝度情報の特徴量からエッジを抽出するときの閾値や、補正値、夜間用物体モデル情報68を用いることを指示する情報等が含まれている。
昼間用物体モデル情報66は、昼間用処理プログラム62が実行され、物体の種類が特定される際に参照される物体モデル情報であって、少なくとも、物体の種類に応じたエッジの分布を表す物体モデル情報が、その物体の識別情報と共に記憶されている。昼間用物体モデル情報66は、第2物体モデル情報の一例である。物体の種類とは、例えば歩行者や車両、動物など、自車両が走行する際に注視すべき物体を類型化したものである。
図2は、昼間用物体モデル情報66の内容を模式的に示した図である。昼間用物体モデル情報66は、例えば、歩行者などの物体が撮像された画像から抽出されると想定されるエッジの分布を示している。この点について、夜間用物体モデル情報68も同様であるが、同一の画像であっても、カラー情報のエッジの分布と輝度情報のエッジの分布とは異なるため、カラー情報のエッジの分布が昼間用物体モデル情報66として用意され、輝度情報のエッジの分布が夜間用物体モデル情報68として用意される。
また、昼間用物体モデル情報66において、物体モデル情報は物体の部位ごとに細分化されて記憶されてよい。昼間用物体モデル情報66は、昼間撮像画像から抽出されたエッジと、昼間撮像画像に対する正解情報(どの物体の画像であるか)とに基づいて生成された情報である。昼間用物体モデル情報66の生成手法の詳細については後述する。
夜間用物体モデル情報68は、夜間用処理プログラム64が実行され、物体の種類を特定される際に参照される物体モデル情報であって、少なくとも、物体の種類に応じたエッジの分布を表す物体モデル情報が、その物体の識別情報と共に記憶されている。夜間用物体モデル情報68は、第1物体モデル情報の一例である。通常、夜間用物体モデル情報68に含まれる1つの物体に対応するエッジの数は、昼間用物体モデル情報66に含まれる1つの物体に対応するエッジの数に比して少ない。従って、夜間用物体モデル情報68に含まれる情報量は、昼間用物体モデル情報66に含まれる情報量に比して少ない。
また、夜間用物体モデル情報68において、物体モデル情報は物体の部位ごとに細分化されて記憶されてよい。夜間用物体モデル情報68は、夜間撮像画像から抽出されたエッジと、夜間撮像画像に対する正解情報とに基づいて生成された情報である。夜間用物体モデル情報68の生成手法の詳細については後述する。
走行駆動装置72は、例えば、エンジンや、走行用モータなどの駆動源である。走行駆動装置72は、物体認識装置20により出力された制御量に応じて、自車両が走行するためのトルクを駆動輪に出力する。ブレーキ装置74は、例えば、電動モータを備える。電動モータは、例えば、物体認識装置20により出力される制御量に応じて、制動操作に応じたブレーキトルクを各車輪に出力させる。
図3は、画像認識部34により実行される処理の流れを示すフローチャートである。本処理は、例えば、画像取得部30が、カメラ12により撮像された画像を取得するごとに実行される。なお、このフローチャートの処理は、繰り返し実行されることを前提とし、今回のルーチンでの時刻をtとして表現している。
まず、画像取得部30が、カメラ12により撮像された画像を取得する(ステップS100)。次に、明るさ検出部32が、照度センサ14により検出された明るさを取得し(ステップS102)、取得した明るさが第1の明るさ以上であるか否かを判定する(ステップS104)。なお、明るさに代えて、そのときの時刻が第1の時間帯である場合には、ステップS106の処理に進み、そのときの時刻が第1の時間帯でない場合には、ステップS110の処理に進んでもよい。第1の時間帯とは、例えば、その時期における昼間に対応する時間帯である。この場合、車両制御システム1は、電波時計や、カーナビゲーション装置等の計時部を備え、物体認識装置20は、電波時計や、カーナビゲーション装置等から時刻を取得する。
取得した明るさが第1の明るさ以上である場合、特徴量抽出部36は、昼間用処理プログラム62を用いて、取得した画像からエッジを抽出する(ステップS106)。次に、識別部38が、ステップS106で抽出されたエッジと、昼間用物体モデル情報66とを比較して、画像に含まれる物体を識別する(ステップS108)。例えば、識別部38は、ステップS106で抽出されたエッジと、昼間用物体モデル情報66に含まれる物体の種類に対応付けられたエッジとの類似度合を導出する。そして、識別部38は、昼間用物体モデル情報66の中で類似度合が所定以上であったエッジに対応付けられた物体を、ステップS106で抽出されたエッジに対応する物体であると特定する。
取得した明るさが第1の明るさ未満である場合、特徴量抽出部36は、夜間用処理プログラム64を用いて、取得した画像からエッジを抽出する(ステップS110)。次に、識別部38が、ステップS110で抽出されたエッジと、夜間用物体モデル情報68とを比較して、画像に含まれる物体を識別する(ステップS112)。例えば、識別部38は、ステップS110で抽出されたエッジと、夜間用物体モデル情報68に含まれる物体の種類に対応付けられたエッジとの類似度合を導出する。そして、識別部38は、夜間用物体モデル情報68の中で類似度合が所定以上であったエッジに対応付けられた物体を、ステップS110で抽出されたエッジに対応する物体であると特定する。
次に、周辺状況認識部50が、識別した物体について自車両に対する相対位置を導出する(ステップS114)。相対位置とは、実平面上の相対位置であり、画像平面上の位置から写像された位置である。
次に、周辺状況認識部50は、時刻t−1において(すなわち前回のルーチンにおいて)撮像された画像から認識した物体と、今回のルーチンの処理で認識した物体とが同一の物体であるか否かを判定する(ステップS116)。本ステップにおいて、周辺状況認識部50は、今回および前回以前のルーチンにおいて、ステップS114で導出した相対位置の推移に基づいて、同一の物体か否かを判定する。
同一の物体であると判定した場合、周辺状況認識部50は、今回および前回以前のルーチンにおいて、ステップS114で導出した相対位置に基づいて、物体の移動方向や、移動速度を導出する(ステップS118)。ここで導出した移動方向や、移動速度は、次のルーチンの処理で取得された画像において、物体の位置を推定する処理に用いられる。今回のルーチンの処理で認識された物体が同一の物体でない場合、ステップS118の処理をスキップする。これにより本フローチャートの処理は終了する。
上述した処理により、物体認識装置20は、照度センサ14により検出された明るさに応じて、画像取得部30により取得された画像に含まれる物体を認識する処理の内容を変更することにより、より精度よく物体を認識することができる。これにより、物体認識装置20は、自車両の周辺に存在する物体に応じて、自車両を制御することができる。この結果、自車両は、周辺の状況に応じた適切な制御を行うことができる。
なお、上述した処理では、第1の明るさ以上の場合、昼間用処理プログラム62を用い、第1の明るさ未満の場合、夜間用処理プログラム64を用いて処理を行うものとして説明したが、これに代えて、第1の明るさ以上の場合、昼間用処理プログラム62を用い、第2の明るさ未満の場合、夜間用処理プログラム64を用いて処理を行うものとしてもよい。この場合、第1の明るさ(特許請求の範囲における「第1の明るさ」)と、第2の明るさ(特許請求の範囲における「第2の明るさ」)とは、同様の値であってもよいし、異なる値であってもよい。
また、上述したように、明るさを2段階で分類して処理を行うことに代えて、明るさを3段階以上に分類し、各明るさに対応する処理プログラムを用いて、物体の種類を特定してもよい。
例えば、明るさを3段階に分類した場合、明るさが低い順から、明るさを明るさ1、明るさ2、明るさ3とする。この場合、画像認識部34は、明るさ1および明るさ2では、それぞれ輝度情報のエッジを抽出するときのパラメータが異なる夜間用処理プログラム64を用いて画像を処理し、明るさ3では昼間用処理プログラムを用いて画像を処理してもよい。また、画像認識部34は、明るさ1では夜間用処理プログラム64を用いて画像を処理し、明るさ2および明るさ3では、それぞれカラー情報のエッジを抽出するときのパラメータが異なる昼間用処理プログラム66を用いて画像を処理してもよい。
<物体モデル情報の生成方法>
以下、昼間用物体モデル情報66に相当する昼間用物体モデル情報212、および夜間用物体モデル情報68に相当する夜間用物体モデル情報214の生成手法について、説明する。図4は、モデル情報生成装置200の機能構成を示す図である。モデル情報生成装置200は、例えば、情報取得部202、特徴量抽出部204、学習部206、および記憶部210を備える。
モデル情報生成装置200は、以下の処理を、昼間用、夜間用の双方について行う。モデル情報生成装置200は、第1の明るさ以上の環境において物体が撮像された画像のカラー情報に基づいて、記憶部210に記憶される昼間用の昼間用物体モデル情報212を求める処理を行い、第1の明るさ未満の環境において物体が撮像された画像の輝度情報に基づいて、記憶部210に記憶される夜間用の夜間用物体モデル情報214を求める処理を行う。以下、昼間用物体モデル情報212および夜間用物体モデル情報214を区別しない場合は、「物体モデル情報」と称する。また、昼間撮像画像と、夜間撮像画像とを区別しない場合は、単に「撮像画像」と称する。なお、モデル情報生成装置200は、第1の明るさとは異なる第2の明るさ未満の環境において物体が撮像された画像の輝度情報に基づいて、記憶部210に記憶される夜間用の夜間用物体モデル情報214を求める処理を行ってもよい。
情報取得部202は、他装置から送信、または入力された学習用情報を取得する。学習用情報は、例えば、物体モデル情報を生成するための情報であって、撮像画像と、撮像画像に含まれる物体の識別情報との組み合わせである。
特徴量抽出部204は、情報取得部202に取得された撮像画像からエッジを抽出する。学習部206は、特徴量抽出部204により抽出されたエッジと、撮像画像に含まれる物体の識別情報との関係を学習する。学習部206は、学習した結果を統計的に処理することによって、撮像画像に含まれるエッジと物体の識別情報とを対応付けた物体モデル情報を導出する。このように、昼間用、夜間用にそれぞれ求められた物体モデル情報は、物体認識装置20における昼間用物体モデル情報66および夜間用物体モデル情報68に反映される。
図5は、モデル情報生成装置200により実行される処理の流れを示すフローチャートである。まず、情報取得部202が、撮像画像と撮像画像に含まれる物体の識別情報(正解情報)との組み合わせを取得する(ステップS200)。次に、特徴量抽出部が、情報取得部202に取得された撮像画像からエッジを抽出する(ステップS202)。次に、学習部206が、特徴量抽出部204により抽出されたエッジと、撮像画像に含まれる物体の識別情報との関係を学習する(ステップS204)。これにより、本フローチャートの処理は終了する。
上述した処理により、モデル情報生成装置200は、第1の明るさ以上の環境において物体が撮像された画像におけるカラー情報と、物体の識別情報とを対応付けて昼間用物体モデル情報212とを生成し、第1の明るさ未満の環境において物体が撮像された画像における輝度情報と、物体の識別情報とを対応付けて夜間用物体モデル情報214を生成することにより、明るさが異なる環境においても、より精度よく物体を認識することができる物体モデル情報を生成することができる。
以上説明した第1の実施形態によれば、画像認識部34が、明るさ検出部32により検出された明るさに応じて、画像取得部30により取得された画像に含まれる物体を認識する処理の内容を変更することにより、より精度よく物体を認識することができる。
<第2の実施形態>
以下、第2の実施形態について説明する。第1の実施形態では、夜間撮像画像の処理において、前照灯装置の照射領域は考慮されていなかった。これに対して、第2の実施形態では、夜間撮像画像の処理において、前照灯装置の照射領域と非照射領域とで異なる処理を実行する。ここでは、第1の実施形態との相違点を中心に説明し、第1の実施形態と共通する機能等についての説明は省略する。
図6は、第2の実施形態の車両制御システム1Aの機能構成の一例を示す図である。車両制御システム1Aは、第1の実施形態の機能構成に加え、更に前照灯装置76を備える。また、車両制御システム1Aは、第1の実施形態の物体認識装置20に代えて、物体認識装置20Aを備える。
前照灯装置76は、例えば、前照灯(不図示)と、前照灯制御部(不図示)とを含む。前照灯は、前照灯制御部の制御に基づいて自車両の前方を照射する。前照灯制御部は、前照灯を制御して、照射範囲の高さ方向、照射範囲の車幅方向、または照射光の強さを調整する。例えば前照灯制御部は、いわゆるロウビームとハイビームの切替えを行う。前照灯装置76は、前照灯の照射範囲や、照射光の強さ等を示す情報を物体認識装置20Aに出力する。
物体認識装置20Aは、第1の実施形態の画像認識部34に代えて、画像認識部34Aを備える。画像認識部34Aは、第1の実施形態の画像認識部34の機能部に加え、更に照射領域特定部42を備える。照射領域特定部42は、前照灯装置76から前照灯の照射領域、カメラ12から画像の撮像領域を取得する。照射領域特定部42は、取得した照射領域およびカメラ12の撮像領域に基づいて、画像取得部30により取得された画像における照射領域と非照射領域とを特定する。
特徴量抽出部36は、照射領域特定部42から画像における照射領域と非照射領域とを示す情報を取得する。特徴量抽出部36は、画像における照射領域に対しては、昼間用処理プログラム62を用いて画像を処理し、画像における非照射領域に対しては、夜間用処理プログラム64を用いて画像を処理する。識別部38は、昼間用処理プログラム62を用いて実行された処理結果と、昼間用物体モデル情報66とに基づいて識別した物体の一部または全部と、夜間用処理プログラム64を用いて実行された処理結果と、夜間用物体モデル情報68とに基づいて識別した物体の一部または全部とを統合して物体を認識する。
図7は、照射領域と、非照射領域とを含むカメラ12により撮像された画像IMの一例を示す図である。図示する例では、人物Hの下半身は照射領域A1に存在し、人物Hの上半身は非照射領域A2に存在する。特徴量抽出部36は、図中、人物Hの下半身を含む照射領域A1に対しては、昼間用処理プログラム62を用いて処理を実行し、図中、人物Hの上半身を含む非照射領域A2に対しては、夜間用処理プログラム64を用いて処理を実行する。識別部38は、特徴量抽出部36により抽出されたエッジと、昼間用物体モデル情報66とに基づいて人物Hの下半身を中心とした部位を識別し、特徴量抽出部36により抽出されたエッジと、夜間用物体モデル情報68とに基づいて人物Hの上半身を中心とした部位を識別し、これらの識別結果を統合して物体が人物Hであることを識別する。
図8は、第2の実施形態の画像認識部34Aにより実行される処理の流れを示すフローチャートである。本処理は、例えば、画像取得部30が、カメラ12により撮像された画像を取得するごとに実行される。なお、このフローチャートの処理は、繰り返し実行されることを前提とし、今回のルーチンでの時刻をtとして表現している。
まず、画像取得部30が、カメラ12により撮像された画像を取得する(ステップS300)。次に、明るさ検出部32が、照度センサ14により検出された明るさを取得し(ステップS302)、取得した明るさが第1の明るさ以上であるか否かを判定する(ステップS304)。
取得した明るさが第1の明るさ以上である場合、特徴量抽出部36は、昼間用処理プログラム62を用いて、取得した画像からエッジを抽出する(ステップS306)。次に、識別部38が、ステップS306で抽出されたエッジと、昼間用物体モデル情報66とを比較して画像に含まれる物体を識別する(ステップS308)。以下、ステップS306のエッジを抽出する処理と、ステップS308の物体を識別する処理とを合わせて、「昼間物体認識処理」と称する。
ステップS304で取得した明るさが第1の明るさ未満である場合、照射領域特定部42は、ステップS300で取得した画像に照射領域が存在するか否かを判定する(ステップS310)。
照射領域が存在しない場合(画像が非照射領域のみである場合)、特徴量抽出部36は、夜間用処理プログラム64を用いて、取得した画像からエッジを抽出する(ステップS312)。次に、識別部38が、ステップS314で抽出されたエッジと、夜間用物体モデル情報68とを比較して画像に含まれる物体を識別し(ステップS314)、ステップS320の処理に進む。以下、ステップS312のエッジを抽出する処理と、ステップS314の物体を識別する処理とを合わせて、「夜間物体認識処理」と称する。
照射領域が存在する場合、画像認識部34Aは、画像の照射領域に対して「昼間物体認識処理」を実行する(ステップS316)。ここで、画像認識部34Aは、画像において照射領域に含まれる領域ごとに、昼間用処理プログラムによりエッジを抽出するときの閾値を変更してもよい。例えば、画像認識部34Aは、照射領域に含まれる処理対象の領域を実空間上における自車両からの距離に変換した場合に、その距離が自車両から遠い程、エッジを抽出するときの閾値を下げる傾向で処理を実行する。このように画像認識部34Aは、前照灯の減衰度合を加味することで、より精度よくエッジを抽出することができる。
次に、特徴量抽出部36は、画像の非照射領域に対して「夜間物体認識処理」を実行する(ステップS318)。次に、周辺状況認識部50が、自車両に対する物体の相対位置を導出する(ステップS320)。次に、周辺状況認識部50は、時刻t−1に撮像された画像で認識された物体と、今回のルーチンの処理で認識された物体とが同一の物体であるか否かを判定する(ステップS322)。
同一の物体である場合、周辺状況認識部50は、今回および前回以前のルーチンにおいて、ステップS320で導出した相対位置に基づいて、物体の移動方向や、移動速度を導出する(ステップS324)。今回のルーチンの処理で認識された物体が同一の物体でない場合、ステップS324の処理をスキップする。これにより本フローチャートの処理は終了する。
以上説明した第2の実施形態によれば、画像認識部34は、前照灯装置76により照射されている照射領域と、前照灯装置76により照射されていない非照射領域とで、画像取得部30により取得された画像に含まれる物体を認識する処理の内容を変更することにより、第1の実施形態と同様の効果を奏すると共に、前照灯装置76により照射されている照射領域に含まれる物体をより精度よく認識することができる。
<第3の実施形態>
以下、第3の実施形態について説明する。第1の実施形態では、車両制御装置70が、物体認識装置20の処理結果に基づいて、自動ブレーキ制御や警報出力、或いは車間距離制御などを実行するものとしたが、第3の実施形態では、自動運転制御装置100が、物体認識装置20の処理結果に基づいて、自動運転制御を行う。ここでは、第1の実施形態との相違点を中心に説明し、第1の実施形態と共通する機能等についての説明は省略する。
図9は、第3の実施形態の車両制御システム1Bの機能構成の一例を示す図である。車両制御システム1Bは、第1の実施形態の車両制御システム1の機能構成に加え、自動運転切替スイッチ120を備える。車両制御システム1Bは、車両制御装置70に代えて、自動運転制御装置100を備える。自動運転制御装置100は、記憶部102、目標車線決定部104、および自動運転制御部110を備える。記憶部102には、例えば、高精度地図情報、目標車線情報、行動計画情報などの情報が格納される。
目標車線決定部104は、例えば、MPU(Micro-Processing Unit)などにより実現される。目標車線決定部104は、ナビゲーション装置から提供された経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、高精度地図情報を参照してブロックごとに目標車線を決定する。目標車線決定部104は、例えば、左から何番目の車線を走行するといった決定を行う。目標車線決定部104は、例えば、経路において分岐箇所や合流箇所などが存在する場合、自車両が、分岐先に進行するための合理的な走行経路を走行できるように、目標車線を決定する。目標車線決定部104により決定された目標車線は、目標車線情報として記憶部102に記憶される。
自動運転制御部110は、例えば、行動計画生成部112と、軌道生成部114と、走行制御部116と、切替制御部118とを備える。
行動計画生成部112は、自動運転のスタート地点、および/または自動運転の目的地を設定する。行動計画生成部112は、そのスタート地点と自動運転の目的地との間の区間において、行動計画を生成する。行動計画は、例えば、順次実行される複数のイベントで構成される。イベントには、例えば、自車両を減速させる減速イベントや、自車両を加速させる加速イベント、走行車線を逸脱しないように自車両を走行させるレーンキープイベント、走行車線を変更させる車線変更イベント、前走車両を追従するイベント等が含まれる。行動計画生成部112によって生成された行動計画を示す情報は、行動計画情報として記憶部102に格納される。
軌道生成部114は、定速走行、追従走行、低速追従走行、減速走行、カーブ走行、障害物回避走行、車線変更走行、合流走行、分岐走行などのうちいずれかの走行態様を決定し、決定した走行態様に基づいて、軌道の候補を生成する。軌道生成部114は、例えば、将来の所定時間ごとに、自車両の基準位置(例えば重心や後輪軸中心)が到達すべき目標位置(軌道点)の集まりとして軌道を生成する。
走行制御部116は、軌道生成部114によって生成された軌道を、予定の時刻通りに自車両が通過するように、走行駆動装置72またはブレーキ装置74を制御する。切替制御部118は、自動運転切替スイッチ120から入力される信号に基づいて自動運転モードと手動運転モードとを相互に切り替える。
以上説明した第3の実施形態によれば、第1の実施形態および第2の実施形態と同様の効果を奏すると共に、より精度よく自動運転を実施することができる。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1,1A,1B‥車両制御システム、12‥カメラ、14‥照度センサ、20,20A‥物体認識装置、30‥画像取得部、32‥明るさ検出部、34,34A‥画像認識部、36‥特徴量抽出部、38‥識別部、50‥周辺状況認識部、66、212‥昼間用物体モデル情報、68、214‥夜間用物体モデル情報、76‥前照灯装置、200‥モデル情報生成装置、202‥情報取得部、204‥特徴量抽出部、206‥学習部

Claims (9)

  1. 撮像部により撮像された画像を取得する画像取得部と、
    車両の周辺の明るさを検出する明るさ検出部と、
    前記明るさ検出部により検出された明るさに応じて、前記画像取得部により取得された画像に含まれる物体を認識する処理の内容を変更する画像認識部と、
    を備える物体認識装置。
  2. 前記画像認識部は、前記画像からエッジを抽出し、抽出したエッジの分布に基づいて、前記物体を認識し、
    前記明るさ検出部によって検出された明るさに応じて、前記エッジを抽出する処理の内容を変更する、
    請求項1記載の物体認識装置。
  3. 複数の物体モデル情報を記憶した記憶部を備え、
    前記複数の物体モデル情報のそれぞれは、エッジの分布と明るさとが対応付けられた情報であり、
    前記画像認識部は、前記明るさ検出部により検出された明るさに基づいて、前記複数の物体モデル情報から一または複数の物体モデル情報を選択し、前記選択した物体モデル情報と前記抽出したエッジとを比較することで前記物体を認識する、
    請求項2記載の物体認識装置。
  4. 前記複数の物体モデル情報は、
    色に関する情報に基づいて取得された色エッジと第1の明るさ以上の明るさとが対応付けられた第1物体モデル情報と、
    輝度に関する情報に基づいて取得された輝度エッジと第2の明るさ未満の明るさとが対応付けられた第2物体モデル情報と、を含み、
    前記画像認識部は、
    前記明るさ検出部により検出された明るさが第1の明るさ以上の場合は、前記撮像部により撮像された画像から色エッジを取得し、取得した色エッジと、前記第1物体モデル情報とを比較することで前記物体を認識し、
    前記明るさ検出部により検出された明るさが第2の明るさ未満の場合は、前記撮像部により撮像された画像から輝度エッジを取得し、取得した輝度エッジと、前記第2物体モデル情報とを比較することで前記物体を認識する、
    請求項3記載の物体認識装置。
  5. 前記画像認識部は、光を照射する前照灯を含む前照灯装置により照射されている照射領域と、照射されていない非照射領域とで、前記画像取得部により取得された画像に含まれる物体を認識する処理の内容を変更する、
    請求項1から4のうちいずれか1項記載の物体認識装置。
  6. 複数の物体モデル情報を記憶した記憶部を備え、
    前記複数の物体モデル情報は、
    色に関する情報に基づいて取得された色エッジと第1の明るさ以上の明るさとが対応付けられた第1物体モデル情報と、
    輝度に関する情報に基づいて取得された輝度エッジと第2の明るさ未満の明るさとが対応付けられた第2物体モデル情報と、を含み、
    前記画像認識部は、
    前記明るさ検出部により検出された明るさが第2の明るさ未満の場合、前記画像取得部により取得された画像における照射領域に対しては、物体が撮像された画像から色エッジを取得し、前記色エッジと、第1物体モデル情報とを比較することで前記物体を認識し、前記画像取得部により取得された画像に含まれる非照射領域に対しては、物体が撮像された画像から輝度エッジを取得し、前記輝度エッジと、前記第2物体モデル情報とを比較することで前記物体を認識する、
    請求項5項記載の物体認識装置。
  7. 第1の明るさ以上の環境において物体が撮像された第1の画像と前記物体の識別情報とが対応付けられた第1の対応情報、および第2の明るさ未満の環境において前記物体が撮像された第2の画像と前記物体の識別情報とが対応付けられた第2の対応情報とを取得する情報取得部と、
    前記情報取得部により取得された第1の画像から色に関する第1の特徴量、および第2の画像から輝度に関する第2の特徴量を抽出する特徴量抽出部と、
    前記特徴量抽出部により抽出された第1の特徴量と、前記物体の識別情報とを対応付けて第1物体モデル情報を生成し、
    前記特徴量抽出部により抽出された第2の特徴量と、前記物体の識別情報とを対応付けて第2物体モデル情報を生成する学習生成部と、
    を備えるモデル情報生成装置。
  8. 車載コンピュータが、
    撮像部により撮像された画像を取得し、
    車両の周辺の明るさを検出し、
    前記検出された明るさに応じて、前記取得された画像に含まれる物体を認識する処理の内容を変更する、
    物体認識方法。
  9. 車載コンピュータに、
    撮像部により撮像された画像を取得させ、
    車両の周辺の明るさを検出させ、
    前記検出された明るさに応じて、前記取得された画像に含まれる物体を認識する処理の内容を変更させる、
    物体認識プログラム。
JP2016173766A 2016-09-06 2016-09-06 物体認識装置、モデル情報生成装置、物体認識方法、および物体認識プログラム Active JP6468568B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016173766A JP6468568B2 (ja) 2016-09-06 2016-09-06 物体認識装置、モデル情報生成装置、物体認識方法、および物体認識プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016173766A JP6468568B2 (ja) 2016-09-06 2016-09-06 物体認識装置、モデル情報生成装置、物体認識方法、および物体認識プログラム

Publications (2)

Publication Number Publication Date
JP2018041209A true JP2018041209A (ja) 2018-03-15
JP6468568B2 JP6468568B2 (ja) 2019-02-13

Family

ID=61626278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016173766A Active JP6468568B2 (ja) 2016-09-06 2016-09-06 物体認識装置、モデル情報生成装置、物体認識方法、および物体認識プログラム

Country Status (1)

Country Link
JP (1) JP6468568B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020090251A1 (ja) * 2018-10-30 2020-05-07 日本電気株式会社 物体認識装置、物体認識方法および物体認識プログラム
JP2020091667A (ja) * 2018-12-06 2020-06-11 トヨタ自動車株式会社 定点画像認識装置
JP2021100202A (ja) * 2019-12-23 2021-07-01 横河電機株式会社 配信サーバ、方法およびプログラム
KR20210132552A (ko) * 2020-04-27 2021-11-04 계명대학교 산학협력단 자율차량에서 주야간 보행자 감지를 위한 적응적 스위처 및 이를 이용한 보행자 감지 장치
JP7444148B2 (ja) 2019-01-30 2024-03-06 日本電気株式会社 情報処理装置、情報処理方法、プログラム
US12008414B2 (en) 2019-03-22 2024-06-11 Sony Semiconductor Solutions Corporation Information processing apparatus, information processing method, and information processing program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0935197A (ja) * 1995-07-14 1997-02-07 Aisin Seiki Co Ltd 車輌認識方法
US20060274917A1 (en) * 1999-11-03 2006-12-07 Cet Technologies Pte Ltd Image processing techniques for a video based traffic monitoring system and methods therefor
JP2008299645A (ja) * 2007-05-31 2008-12-11 Panasonic Corp ナンバー読取装置
JP2011069626A (ja) * 2009-09-24 2011-04-07 Hitachi Automotive Systems Ltd 障害物検知装置
JP2011086097A (ja) * 2009-10-15 2011-04-28 Daihatsu Motor Co Ltd 障害物検出装置
JP2013187574A (ja) * 2012-03-05 2013-09-19 Honda Motor Co Ltd 画像処理装置
JP2016161973A (ja) * 2015-02-26 2016-09-05 株式会社リコー 認識装置、認識方法及びプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0935197A (ja) * 1995-07-14 1997-02-07 Aisin Seiki Co Ltd 車輌認識方法
US20060274917A1 (en) * 1999-11-03 2006-12-07 Cet Technologies Pte Ltd Image processing techniques for a video based traffic monitoring system and methods therefor
JP2008299645A (ja) * 2007-05-31 2008-12-11 Panasonic Corp ナンバー読取装置
JP2011069626A (ja) * 2009-09-24 2011-04-07 Hitachi Automotive Systems Ltd 障害物検知装置
JP2011086097A (ja) * 2009-10-15 2011-04-28 Daihatsu Motor Co Ltd 障害物検出装置
JP2013187574A (ja) * 2012-03-05 2013-09-19 Honda Motor Co Ltd 画像処理装置
JP2016161973A (ja) * 2015-02-26 2016-09-05 株式会社リコー 認識装置、認識方法及びプログラム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020090251A1 (ja) * 2018-10-30 2020-05-07 日本電気株式会社 物体認識装置、物体認識方法および物体認識プログラム
JPWO2020090251A1 (ja) * 2018-10-30 2021-09-30 日本電気株式会社 物体認識装置、物体認識方法および物体認識プログラム
US11586856B2 (en) 2018-10-30 2023-02-21 Nec Corporation Object recognition device, object recognition method, and object recognition program
JP2020091667A (ja) * 2018-12-06 2020-06-11 トヨタ自動車株式会社 定点画像認識装置
JP7444148B2 (ja) 2019-01-30 2024-03-06 日本電気株式会社 情報処理装置、情報処理方法、プログラム
US12008414B2 (en) 2019-03-22 2024-06-11 Sony Semiconductor Solutions Corporation Information processing apparatus, information processing method, and information processing program
JP2021100202A (ja) * 2019-12-23 2021-07-01 横河電機株式会社 配信サーバ、方法およびプログラム
JP7259732B2 (ja) 2019-12-23 2023-04-18 横河電機株式会社 配信サーバ、方法およびプログラム
KR20210132552A (ko) * 2020-04-27 2021-11-04 계명대학교 산학협력단 자율차량에서 주야간 보행자 감지를 위한 적응적 스위처 및 이를 이용한 보행자 감지 장치
KR102339011B1 (ko) * 2020-04-27 2021-12-14 계명대학교 산학협력단 자율차량에서 주야간 보행자 감지를 위한 적응적 스위처 및 이를 이용한 보행자 감지 장치

Also Published As

Publication number Publication date
JP6468568B2 (ja) 2019-02-13

Similar Documents

Publication Publication Date Title
KR102554643B1 (ko) 동적 범위를 확장하기 위한 다수의 동작 모드들
JP6468568B2 (ja) 物体認識装置、モデル情報生成装置、物体認識方法、および物体認識プログラム
US9679196B2 (en) Object sensing device
US8305431B2 (en) Device intended to support the driving of a motor vehicle comprising a system capable of capturing stereoscopic images
WO2015163078A1 (ja) 外界認識装置
US20210224560A1 (en) Method, apparatus, electronic device, computer program, and computer readable recording medium for measuring inter-vehicle distance based on vehicle image
US9460343B2 (en) Method and system for proactively recognizing an action of a road user
JP2015143979A (ja) 画像処理装置、画像処理方法、プログラム、画像処理システム
US20220232182A1 (en) Image recognition device, solid-state imaging device, and image recognition method
US20190065878A1 (en) Fusion of radar and vision sensor systems
CN114520880B (zh) 一种曝光参数调节方法及装置
US20200074212A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
US20180357783A1 (en) Object detection device, device control system, and medium
US11978261B2 (en) Information processing apparatus and information processing method
US20220105931A1 (en) Vehicle drive assist apparatus
CN110053627B (zh) 驾驶评价系统和存储介质
CN113160594A (zh) 变化点检测装置以及地图信息发布系统
US20230269498A1 (en) Information processing device, information processing system, information processing method, and information processing program
US20230273033A1 (en) Method, apparatus, electronic device, computer program, and computer readable recording medium for measuring inter-vehicle distance based on vehicle image
CN114174864A (zh) 设备、测量设备、距离测量系统和方法
US20230045772A9 (en) Information processing apparatus, information processing method, and program
US20240056694A1 (en) Imaging device, image processing method, and image processing program
US11663834B2 (en) Traffic signal recognition method and traffic signal recognition device
CN115088248A (zh) 摄像装置、摄像系统和摄像方法
KR20170095005A (ko) 센서 퓨전을 이용한 이미지센서 장치 및 제어 방법

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180904

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190109

R150 Certificate of patent or registration of utility model

Ref document number: 6468568

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150