JP7099426B2 - 物体認識装置 - Google Patents

物体認識装置 Download PDF

Info

Publication number
JP7099426B2
JP7099426B2 JP2019186310A JP2019186310A JP7099426B2 JP 7099426 B2 JP7099426 B2 JP 7099426B2 JP 2019186310 A JP2019186310 A JP 2019186310A JP 2019186310 A JP2019186310 A JP 2019186310A JP 7099426 B2 JP7099426 B2 JP 7099426B2
Authority
JP
Japan
Prior art keywords
image
image data
object recognition
recognition device
small area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019186310A
Other languages
English (en)
Other versions
JP2021060368A (ja
Inventor
一樹 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2019186310A priority Critical patent/JP7099426B2/ja
Priority to PCT/JP2020/037235 priority patent/WO2021070713A1/ja
Priority to CN202080070444.6A priority patent/CN114556412A/zh
Publication of JP2021060368A publication Critical patent/JP2021060368A/ja
Priority to US17/658,390 priority patent/US11869248B2/en
Application granted granted Critical
Publication of JP7099426B2 publication Critical patent/JP7099426B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Description

本開示は、光を照射して周囲の物体を認識する技術に関する。
光を照射して周囲の物体を認識する技術が知られている。例えば、下記の特許文献1には、発光量および露光時間の少なくとも一方が違う第1の光と第2の光とを異なるタイミングで発し、第1の光と第1の光の反射光との位相差と、第2の光と第2の光の反射光との位相差とから、物体までの距離を表す第1の距離画像と第2の距離画像とを生成する技術が開示されている。
さらに、特許文献1に記載されている技術では、第1の光の反射光の受光強度と第2の光の反射光の受光強度とのうち、画素毎に大きい受光強度を有する方の距離画像の画素を第1の距離画像と第2の距離画像とのうちから抽出し、抽出した画素により合成距離画像を生成している。
特開2017-181488号公報
特許文献1に記載されている技術において、第1の光の反射光画像と第2の光の反射光画像との両方の画像に基づいて、物体を認識することが考えられる。
しかしながら、発明者の詳細な検討の結果、第1の光の反射光画像と第2の光の反射光画像とのように、物体から取得する2種類の光の画像のそれぞれに対して認識処理を実行すると、処理負荷が増加するという課題が見出された。
本開示の1つの局面は、反射強度画像と背景光画像との2種類の光の画像から周囲の物体を認識するために要する処理負荷を極力低減する技術を提供することが望ましい。
本開示の1つの態様による物体認識装置は、画像分割部(32)と、特徴量算出部(34)と、データ選択部(38)と、物体認識部(42)と、を備える。
画像分割部は、周囲に光を照射して物体で反射する反射光を受光する光センサから取得する反射強度画像、ならびに光センサが光を照射しないときに光センサから取得する背景光画像をそれぞれ同じ複数の小領域に分割する。特徴量算出部は、画像分割部により分割された反射強度画像と背景光画像とのそれぞれの小領域の部分画像データについて、物体を認識するための特徴量を算出する。
データ選択部は、同じ小領域の反射強度画像と背景光画像との部分画像データについてそれぞれ算出された特徴量を比較して物体を認識しやすい方を選択部分画像データとして選択する。物体認識部は、データ選択部が小領域のそれぞれについて選択した選択部分画像データから構成される全体画像データに基づいて、物体を認識する。
このような構成によれば、2種類の光の画像である反射強度画像と背景光画像との両方の全体画像に対して実行する処理は、特徴量の算出処理までである。
それぞれの全体画像に対して特徴量が算出されると、それぞれの全体画像が分割された同じ小領域の部分画像データについて、物体を認識しやすい方の特徴量を有する部分画像データが選択部分画像データとして選択され、選択された選択部分画像データから構成される一つの全体画像データに基づいて物体が認識される。
つまり、反射強度画像と背景光画像との両方の全体画像に対して特徴量の算出処理が実行されると、選択部分画像データから構成される一つの全体画像データに対してのみ物体の認識処理が実行される。したがって、物体を認識するために要する処理負荷を極力低減できる。
物体認識装置の構成を示すブロック図。 分割された小領域の部分画像データから全体画像データを生成する説明図。 物体認識処理を示すフローチャート。 同じ画像内で小領域を異なる大きさにした全体画像データを示す説明図。 車速に応じて小領域を異なる大きさにした全体画像データを示す説明図。
以下、図を参照しながら、本開示の実施形態を説明する。
[1.構成]
図1に示す物体認識システム2は、SPAD-LiDAR10と、物体認識装置30と、を備える。SPAD-LiDAR10は、発光部12と、受光部14と、距離画像取得部16と、反射強度画像取得部18と、背景光画像取得部20と、を備える。SPADは、Single Photon Avalanche Diodeの略であり、LiDARは、Light Detection and Rangeの略である。以下、SPAD-LiDARを単にLiDARとも言う。
物体認識装置30は、画像分割部32と、特徴量算出部34と、重み付け部36、データ選択部38と、正規化部40と、物体認識部42と、を備える。
LiDAR10の発光部12は、車両の周囲の任意の方向、例えば車両の進行方向である前方の所定領域に対して、水平方向と垂直方向とに走査しつつ間欠的にパルス状のレーザ光を照射する。
受光部14は、発光部12が照射したレーザ光が物体で反射される反射光と、レーザ光が照射されない間に、太陽光または照明等の光源の光、ならびに光源の光が物体で反射される反射光である背景光とを受光する。
受光部14は、2次元的に配列された複数の画素を備えている。各画素は、複数の受光素子を備えている。受光素子は、受光強度に応じた電流値を有する受光信号を出力する。受光素子は、アバランシェフォトダイオードとして、ガイガーモードで動作するSPADで構成されている。受光素子として、例えば、SPAD以外のアバランシェフォトダイオードまたはフォトダイオード等を用いてもよい。
LiDAR10の距離画像取得部16は、発光部12がレーザ光を照射してから受光部14が反射光を受光するまでの時間に基づいて、物体までの距離を画素毎に取得する。
反射強度画像取得部18は、発光部12が照射するレーザ光の反射光を受光部14が画素毎に受光する強度を取得し、全体画像として反射強度画像を取得する。
背景光画像取得部20は、発光部12がレーザ光を照射しない間に、受光部14が画素毎に受光する強度を取得し、全体画像として背景光画像を取得する。尚、光センサでは、反射強度と背景光とが同じタイミングおよび同じ視野範囲で取得可能である。また、本実施形態では、反射光の強度と背景光の強度とは、輝度によりグレーススケールで表される。
図2に示すように、物体認識装置30の画像分割部32は、反射強度画像取得部18が取得する反射強度画像と、背景光画像取得部20が取得する背景光画像とのそれぞれの全体画像を、同じ画素数で構成される同じ大きさの小領域に分割する。全体画像を水平方向と垂直方向とに分割する分割数は、適宜設定される。
特徴量算出部34は、反射強度画像と背景光画像との小領域におけるそれぞれの部分画像データについて、物体を認識するための特徴量を算出する。特徴量として、例えば、コントラストまたはエッジの検出数またはコーナーの検出数が算出される。
重み付け部36は、車両の周囲の明るさを検出する照度センサの検出結果に基づいて、車両の周囲が暗いほど、反射強度画像の部分画像データの特徴量の重みを、背景光画像の部分画像データの特徴量の重みよりも大きくする。これに対し、重み付け部36は、車両の周囲が明るいほど、背景光画像の部分画像データの特徴量の重みを、反射強度画像の部分画像データの特徴量の重みよりも大きくする。
これは、車両の周囲が暗い場合、背景光の強度が低下し、車両の周囲が明るい場合、背景光の強度が上昇するからである。
データ選択部38は、小領域において反射強度画像と背景光画像とのそれぞれの部分画像データについて算出された特徴量のうち、物体を認識しやすい方の部分画像データを選択し、小領域の選択部分画像データとする。物体を認識しやすいとは、例えば、画像において最も明るい部分と最も暗い部分との差が大きい、言い換えれば最も明るい部分と最も暗い部分との比が大きいことを表している。つまり、コントラストが大きいと、物体を認識しやすい。
図2に示すように、データ選択部38は、小領域において反射強度画像と背景光画像とのそれぞれの部分画像データについて算出された特徴量のうち、物体を認識しやすい方の部分画像データを選択し、1フレームの全体画像データを再構成する。
正規化部40は、データ選択部38により再構成された全体画像データを正規化する。正規化部40は、全体画像データに対する正規化処理として、例えば小領域毎にエッジ画像を生成する。
物体認識部42は、正規化部40により正規化された全体画像データに基づいて、例えば、人、車両等の物体の種別に対応した識別器を使用して車両の周囲の物体を認識する。
[2.処理]
次に、物体認識装置30が実行する物体認識処理について、図3のフローチャートを用いて説明する。
図3のS400において画像分割部32は、反射強度画像をM×Nの小領域に分割する。この場合、各小領域を固定の同じ大きさにしてもよいし、走行環境と走行状態等に基づいて、小領域の大きさを小領域の位置に応じて異なる大きさにしてもよい。
例えば、走行環境として車両が高速道路を走行している場合には、車両前方の走行車線または隣接車線の車両の認識精度を向上させるために、図4に示すように、画像の外周側の小領域よりも画像の中央部の小領域の大きさを小さくしてもよい。
これに対し、走行環境と走行状態とによっては、画像の中央部の小領域よりも画像の外周側の小領域の大きさを小さくしてもよい。この小領域の大きさの設定は、例えば、左右からの歩行者等の飛び出しを早期に検出する必要がある右左折時に効果的である。
また、図5に示すように、走行状態として車速が速くなるほど、各小領域の大きさを小さくしてもよい。
S402において特徴量算出部34は、M×Nに分割された反射強度画像の部分画像データのそれぞれに対して、物体を認識するための特徴量αi(i=1、・・・、M×N)を算出する。
S404において画像分割部32は、背景光画像をM×Nの小領域に分割する。小領域の大きさの設定は、反射強度画像で説明した内容と同一である。
S406において特徴量算出部34は、M×Nに分割された背景光画像の小領域の部分画像データのそれぞれに対して、物体を認識するための特徴量βi(i=1、・・・、M×N)を算出する。
S408において重み付け部36は、前述したように、車両の周囲の明るさに基づいて、反射強度画像と背景光画像との部分画像データの特徴量に重み付けを行う。重み付け後のそれぞれの特徴量は、α’i=w×αi、β’i=y×βiである。wとyとは重みである
S410においてデータ選択部38は、i番目の小領域において、反射強度画像の部分画像データの特徴量α’iが背景光画像の部分画像データの特徴量β’iよりも大きいか否かを判定する。特徴量の大きい部分画像データの方が、物体を認識しやすいと判定される。
S410の判定がYesである、つまり反射強度画像の特徴量α’iが背景光画像の特徴量β’iよりも大きい場合、S412においてデータ選択部38は、該当する小領域の選択部分画像データとして、反射強度画像の部分画像データを選択する。
S410の判定がNoである、つまり背景光画像の特徴量β’iが反射強度の特徴量α’i以上の場合、S414においてデータ選択部38は、該当する小領域の選択部分画像データとして、背景光画像の部分画像データを選択する。
S416の判定がYesである、つまりすべての小領域について、反射強度画像の部分画像データまたは背景光画像の部分画像データのいずれかが選択部分画像データとして選択され、1フレームの全体画像データが生成されると、S418において正規化部40は、小領域の選択部分画像データからエッジ画像を生成し、選択部分画像データを正規化する。S420において物体認識部42は、正規化された選択部分画像データから構成される全体画像データに基づいて物体を認識する。
[3.効果]
以上説明した上記実施形態によれば、以下の効果を得ることができる。
(3a)反射強度画像と背景光画像とに基づいて車両の周囲の物体を認識する物体認識処理において、それぞれの画像を複数の小領域に分割し、小領域において反射強度画像と背景光画像との部分画像データのうち物体を認識しやすい特徴量を有する方の部分画像データを小領域の選択部分画像データとして選択し、全体画像データを構成する。そして、構成された全体画像データに基づいて、物体を認識する。
これにより、反射強度画像と背景光画像との両方の画像データについて物体の認識処理を実行する必要がないので、物体認識処理の処理負荷を極力低減できる。
(3b)正規化された選択部分画像データから全体画像データを構成するので、全体画像データに対して同じ基準で物体の認識処理を実行できる。したがって、車両の周囲の物体を容易に認識できる。
(3c)車両の周囲の明るさに基づいて、反射強度画像と背景光画像との部分画像データの特徴量に重み付けを行うので、反射強度画像と背景光画像とのうち、車両の周囲の明るさに適した部分画像データを選択できる。
(3d)車両の走行環境または走行状態に基づいて、画像を分割する小領域の大きさを適切に設定できる。例えば、車両の走行環境または走行状態に応じて、車両の前方等の高精度に物体を認識したい部分の画像は細かく分割し、空等の画像の中で物体が存在しないと思われる部分の画像は粗く分割することが考えられる。
上記実施形態では、LiDAR10が光センサに該当する。
[4.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
(4a)上記実施形態では、車両に搭載された物体認識装置30による認識処理について説明したが、これに限定されるものではない。例えば、移動ロボットに搭載された物体認識装置でもよいし、駐車場等に設置された監視用の物体認識装置でもよい。
(4b)上記実施形態では、小領域の部分画像データを正規化してから物体の認識処理を実行したが、これに限定されるものではなく、小領域の部分画像データを正規化せずに物体の認識処理を実行してもよい。
(4c)上記実施形態では、正規化処理にエッジ画像生成を実行したが、これに限定されるものではなく、HoG特徴量やSIFT特徴量を生成してもよい。また、ある小領域の選択部分画像データに対して、周囲の選択部分画像データのコントラストの平均値を計算し、そのコントラスト値になるように各画素の輝度を変換してもよい。これにより、全体画像データの小領域の境界をスムーズにすることができる。
(4d)上記実施形態では、小領域において、反射強度画像または背景光画像のいずれかを選択部分画像データとして選択したが、これに限定されるものではない。例えば、選択部分画像データを選択するために算出された反射強度画像と背景光画像とのそれぞれの特徴量のいずれかを選択部分画像データとして選択してもよい。
つまり、特徴量としてエッジを検出する場合、ある小領域において物体が認識しやすいと判定された方のエッジ検出結果、つまりエッジ画像を選択部分画像データとして選択して全体画像データを再構成してもよい。これにより、後段で正規化処理をする場合、その処理を省略することができる。
(4e)上記実施形態では、車両の周囲の明るさに基づいて、反射強度画像の部分画像データの特徴量と背景光画像の部分画像データの特徴量とを重み付けした。これに対し、反射強度画像の部分画像データの特徴量と背景光画像の部分画像データの特徴量とを重み付けしない処理を採用してもよい。
(4f)上記実施形態では、周囲の明るさの検出について照度センサを用いたが、これに限定されるものではない。例えば、時刻から昼か夜かを判定して明るさを検出してもよい。また、背景光画像全体のコントラストの平均値を閾値処理し、ある閾値以上であれば明るいと検出してもよい。
(4g)上記実施形態では、走行環境と走行状態等に基づいて小領域の大きさを変えたが、これに限定されるものではない。例えば、1フレーム前に車両等の物体を認識したさい、その認識した領域の周囲の領域に関しては分割時の小領域を小さく、つまり細かくしてもよい。これにより、物体の認識精度を向上させることが可能となる。また、小領域の大きさは、フレーム毎に変えてもよいし、数フレーム毎に変えてもよい。
(4h)本開示に記載の物体認識装置30およびその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の物体認識装置30およびその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の物体認識装置30およびその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されてもよい。物体認識装置30に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。
(4i)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。
(4j)上述した物体認識装置30の他、当該物体認識装置30を構成要素とするシステム、当該物体認識装置30としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実体的記録媒体、物体認識方法など、種々の形態で本開示を実現することもできる。
10:SPAD-LiDAR(光センサ)、30:物体認識装置、32:画像分割部、34:特徴量算出部、36:重み付け部,38:データ選択部、40:正規化部、42:物体認識部

Claims (7)

  1. 周囲に光を照射して物体で反射する反射光を受光する光センサ(10)から取得する反射強度画像、ならびに前記光センサが光を照射しないときに前記光センサから取得する背景光画像をそれぞれ同じ複数の小領域に分割するように構成された画像分割部(32、S400、S404)と、
    前記画像分割部により分割された前記反射強度画像と前記背景光画像とのそれぞれの前記小領域の部分画像データについて、前記物体を認識するための特徴量を算出するように構成された特徴量算出部(34、S402、S406)と、
    同じ前記小領域の前記反射強度画像と前記背景光画像との前記部分画像データについてそれぞれ算出された前記特徴量を比較して前記物体を認識しやすい方を選択部分画像データとして選択するように構成されたデータ選択部(38、S410~S414)と、
    前記データ選択部が前記小領域のそれぞれについて選択した前記選択部分画像データから構成される全体画像データに基づいて、前記物体を認識するように構成された物体認識部(42、S420)と、
    を備える物体認識装置。
  2. 請求項1に記載の物体認識装置であって、
    前記特徴量算出部は、前記特徴量として、前記部分画像データのコントラストまたはエッジの検出数またはコーナーの検出数を算出するように構成されており、
    前記データ選択部は、前記小領域において、前記反射強度画像と前記背景光画像との前記部分画像データのうち、前記コントラストが大きいか、または前記エッジの検出数が多いか、または前記コーナーの検出数が多い方を、前記小領域の前記選択部分画像データとするように構成されている、
    物体認識装置。
  3. 請求項1または2に記載の物体認識装置であって、
    前記データ選択部により選択された前記小領域の前記選択部分画像データを正規化するように構成された正規化部(40、S418)をさらに備え、
    前記物体認識部は、前記正規化部により正規化された前記小領域の前記選択部分画像データから構成される全体画像データに基づいて、前記物体を認識するように構成されている、
    物体認識装置。
  4. 請求項1から3のいずれか1項に記載の物体認識装置であって、
    周囲が明るいほど、前記反射強度画像に対して前記背景光画像の前記特徴量の重みを大きくし、周囲が暗いほど、前記背景光画像に対して前記反射強度画像の前記特徴量の重みを大きくするように構成された重み付け部(36、S408)をさらに備え、
    前記データ選択部は、前記重み付け部により重み付けされた同じ前記小領域の前記反射強度画像と前記背景光画像との前記特徴量のうち、前記物体を認識しやすい方の前記特徴量を有する前記部分画像データを選択して、該当する前記小領域の前記選択部分画像データとするように構成されている、
    物体認識装置。
  5. 請求項1から4のいずれか1項に記載の物体認識装置は車両に搭載されており、
    前記画像分割部は、前記車両の走行環境と走行状態との少なくともいずれかに基づいて、前記小領域の大きさを設定するように構成されている、
    物体認識装置。
  6. 請求項1から4のいずれか1項に記載の物体認識装置は車両に搭載されており、
    前記画像分割部は、前記車両の走行環境と走行状態との少なくともいずれかに基づいて、前記小領域の位置に応じて前記小領域を異なる大きさに設定するように構成されている、
    物体認識装置。
  7. 請求項1から6のいずれか1項に記載の物体認識装置であって、
    前記光センサの受光素子はSPADで構成されている、
    物体認識装置。
JP2019186310A 2019-10-09 2019-10-09 物体認識装置 Active JP7099426B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019186310A JP7099426B2 (ja) 2019-10-09 2019-10-09 物体認識装置
PCT/JP2020/037235 WO2021070713A1 (ja) 2019-10-09 2020-09-30 物体認識装置
CN202080070444.6A CN114556412A (zh) 2019-10-09 2020-09-30 物体识别装置
US17/658,390 US11869248B2 (en) 2019-10-09 2022-04-07 Object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019186310A JP7099426B2 (ja) 2019-10-09 2019-10-09 物体認識装置

Publications (2)

Publication Number Publication Date
JP2021060368A JP2021060368A (ja) 2021-04-15
JP7099426B2 true JP7099426B2 (ja) 2022-07-12

Family

ID=75380022

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019186310A Active JP7099426B2 (ja) 2019-10-09 2019-10-09 物体認識装置

Country Status (4)

Country Link
US (1) US11869248B2 (ja)
JP (1) JP7099426B2 (ja)
CN (1) CN114556412A (ja)
WO (1) WO2021070713A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001333420A (ja) 2000-05-22 2001-11-30 Hitachi Ltd 画像監視方法および装置
JP2010026858A (ja) 2008-07-22 2010-02-04 Panasonic Corp 認証用画像撮像装置
JP2011048485A (ja) 2009-08-25 2011-03-10 Kumamoto Univ 物標検出装置および物標検出方法
US20160123723A1 (en) 2014-11-04 2016-05-05 Pixart Imaging Inc. Optical distance measurement system and method
US20160205306A1 (en) 2015-01-13 2016-07-14 Pixart Imaging Inc. Optical distance measurement system with dynamic exposure time

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3516127B2 (ja) * 1997-12-09 2004-04-05 オムロン株式会社 画像処理方法およびその装置
JP4407920B2 (ja) 2004-05-19 2010-02-03 ダイハツ工業株式会社 障害物認識方法及び障害物認識装置
GB2511744B (en) * 2013-03-11 2020-05-20 Reeves Wireline Tech Ltd Methods of and apparatuses for identifying geological characteristics in boreholes
JP2017181488A (ja) 2016-03-23 2017-10-05 パナソニックIpマネジメント株式会社 距離画像生成装置、距離画像生成方法及びプログラム
JP6753383B2 (ja) * 2017-10-23 2020-09-09 株式会社Soken 物体検知装置
CN108376419B (zh) * 2017-12-11 2020-06-26 江苏大学 一种盆栽生菜的综合长势监测方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001333420A (ja) 2000-05-22 2001-11-30 Hitachi Ltd 画像監視方法および装置
JP2010026858A (ja) 2008-07-22 2010-02-04 Panasonic Corp 認証用画像撮像装置
JP2011048485A (ja) 2009-08-25 2011-03-10 Kumamoto Univ 物標検出装置および物標検出方法
US20160123723A1 (en) 2014-11-04 2016-05-05 Pixart Imaging Inc. Optical distance measurement system and method
US20160205306A1 (en) 2015-01-13 2016-07-14 Pixart Imaging Inc. Optical distance measurement system with dynamic exposure time

Also Published As

Publication number Publication date
US20220230447A1 (en) 2022-07-21
WO2021070713A1 (ja) 2021-04-15
JP2021060368A (ja) 2021-04-15
CN114556412A (zh) 2022-05-27
US11869248B2 (en) 2024-01-09

Similar Documents

Publication Publication Date Title
JP7369921B2 (ja) 物体識別システム、演算処理装置、自動車、車両用灯具、分類器の学習方法
JP5031617B2 (ja) 関連領域特定装置及び方法、並びに画像認識装置及び方法
US9904860B2 (en) Vehicle exterior environment recognition apparatus
US20060215882A1 (en) Image processing apparatus and method, recording medium, and program
WO2020059565A1 (ja) 奥行取得装置、奥行取得方法およびプログラム
US10037473B2 (en) Vehicle exterior environment recognition apparatus
JP6358552B2 (ja) 画像認識装置および画像認識方法
US20050058322A1 (en) System or method for identifying a region-of-interest in an image
US20180302545A1 (en) Optical measurement system with dynamic exposure time and operating method therefor
US20160379069A1 (en) Vehicle exterior environment recognition apparatus
JP7420038B2 (ja) 車載の異常検出装置
US11776311B2 (en) Image processing device, image processing method, and storage medium
CN113557172A (zh) 选通照相机、汽车、车辆用灯具、物体识别系统、运算处理装置、物体识别方法、图像显示系统、检查方法、摄像装置、图像处理装置
JP2016196233A (ja) 車両用道路標識認識装置
US20220132022A1 (en) Imaging device
JP7099426B2 (ja) 物体認識装置
JP2019204988A (ja) 画像処理装置及び画像処理方法
JP5056679B2 (ja) ナイトビューシステム
CN115335726A (zh) 成像装置以及车辆用灯具、车辆
WO2021166912A1 (ja) 物体検出装置
JP2014109853A (ja) 車両周辺監視装置
EP3611655A1 (en) Object detection based on analysis of a sequence of images
WO2019146514A1 (ja) 車載カメラシステム、車両用灯具、遠方の検出方法、車両用灯具の制御方法
JP7276304B2 (ja) 物体検出装置
JP2021131385A (ja) 物体検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220613

R151 Written notification of patent or utility model registration

Ref document number: 7099426

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151