JP7277666B2 - 処理装置 - Google Patents

処理装置 Download PDF

Info

Publication number
JP7277666B2
JP7277666B2 JP2022504990A JP2022504990A JP7277666B2 JP 7277666 B2 JP7277666 B2 JP 7277666B2 JP 2022504990 A JP2022504990 A JP 2022504990A JP 2022504990 A JP2022504990 A JP 2022504990A JP 7277666 B2 JP7277666 B2 JP 7277666B2
Authority
JP
Japan
Prior art keywords
image
processing
circle
area
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022504990A
Other languages
English (en)
Other versions
JPWO2021176820A1 (ja
Inventor
ユイビン ツーン
健 永崎
雄飛 椎名
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Publication of JPWO2021176820A1 publication Critical patent/JPWO2021176820A1/ja
Application granted granted Critical
Publication of JP7277666B2 publication Critical patent/JP7277666B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Description

本発明は、処理装置に係り、例えば、ステレオカメラシステムなどのセンシングシステムのため処理装置に関する。
近年、車載カメラ装置の普及により、安全運転や自動運転に向けた各種認識機能への要求が高まってきている。なかでも、ステレオカメラ装置は、画像に依る視覚的な情報と、画像内の対象物への距離情報を同時に計測するため、自動車周辺の様々な対象物(人、車、立体物、路面、路面標識、看板標識など)を詳細に把握でき、運転支援時の安全性の向上にも寄与するとされている。
車載カメラ装置における物体認識の対象の一つとして標識がある。一般に、標識認識は、地図情報と連携して、自動運転車の加速・減速に使われる。また、先進運転支援システムの評価指標であるEuroNCAP(2016年~2020年アップデート)においても、SAS(Speed Assistance Systems(速度支援システム))に関する評価項目が設けられており、その重要度が増している。
従来から、車両に搭載され、車両の前方の状況を認識する車載カメラ装置に関する様々な技術・装置が提案されてきた。このような車載カメラ装置において、例えば、標識認識の性能向上に関しては、認識の高精度化を図るという点に着目した技術として、特許文献1が挙げられる。
特開2019-125022号公報
しかしながら、例えば、特許文献1などに記載の従来技術では、明るい領域とその領域よりも暗い領域とを含む対象物、あるいは、一部が発光し、その他の領域は発光しない対象物を検知することについては十分配慮が行われていない。より具体的には、例えば、電光標識は路面に対して上部にあり、中心付近(例えば、制限速度表示部分など)が発光しているものもあるが、円周部分が発光しておらず、ヘッドライトが当たりにくい場所(夜間及びトンネル内)では円周エッジを使用した従来の円検知手法では検知することが困難である。
本発明は、上記事情に鑑みてなされたもので、その目的とするところは、例えば電光標識などの画像内の対象物の認識性能を向上させることのできる処理装置を提供することにある。
上記課題を解決するため、本発明の処理装置は、画像内の対象物の認識処理を行う処理装置であって、前記画像から所定の明るさより明るい画素の数を集計した複数のヒストグラムを取得し、前記複数のヒストグラムから前記画像内の対象物の円の中心に相当する位置を推定する中心推定処理を行うことを特徴とする。
本発明によれば、明るい領域とその領域よりも暗い領域とを含む対象物、あるいは、一部が発光し、その他の領域は発光しない対象物を検知することが可能になる。より具体的には、例えば、自発光物体を検知することで、電光標識の検知性能を向上させることができる。よって、例えば電光標識などの画像内の対象物の認識性能を向上させることができる。
上記した以外の課題、構成及び効果は以下の実施形態の説明により明らかにされる。
本実施形態の車載ステレオカメラ装置の概略構成を示すブロック図。 本実施形態の基礎となるステレオカメラ処理の処理内容を説明するフロー図。 本実施形態の基礎となるステレオカメラ処理の各種処理のタイミングチャート。 標識認識処理の処理内容を説明するフロー図。 標識検知処理(円検知処理)における中心推定処理と半径推定処理を説明する図。 標識検知処理(円検知処理)における半径推定処理で使用するヒストグラム。 標識検知処理の処理内容を説明するフロー図。 第1シャッタで撮像された画像を説明する図。 第2シャッタで撮像された画像を説明する図。 自発光物体検知処理の処理内容を説明するフロー図。 自発光物体検知処理における中心推定処理を説明する図。 自発光物体検知処理における領域推定処理を説明する図。 推定された領域の中心周辺に明るい領域がある場合を説明する図。 閾値の決定手法を説明する図。
以下、本発明の実施形態を図面を用いて説明する。なお、各図において同じ機能を有する部分には同じ符号を付して繰り返し説明は省略する場合がある。
(車載ステレオカメラ装置の概略構成)
図1は、本実施形態の車載ステレオカメラ装置の概略構成を示すブロック図である。本実施形態の車載ステレオカメラ装置100は、車両に搭載され、車両前方の撮影対象領域の画像情報に基づいて車外環境を認識する装置である。車載ステレオカメラ装置100は、撮影した画像(情報)から、例えば、道路の白線、歩行者、車両、その他の立体物、信号、標識、点灯ランプなどの認識を行い、当該ステレオカメラ装置100を搭載した車両(自車両)のブレーキ、ステアリング調整などの調整を行う。
車載ステレオカメラ装置100は、画像情報を取得する左右に横並びに配置された2つのカメラ101、102(左カメラ101、右カメラ102)と、カメラ101、102で取得した画像情報に基づいて画像内の対象物(物体)の認識処理などを行う処理装置110とを有する。処理装置110は、CPU(Central Processing Unit)等のプロセッサ、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等のメモリ等を備えるコンピュータとして構成されている。処理装置110の各機能は、ROMに記憶されたプログラムをプロセッサが実行することによって実現される。RAMは、プロセッサが実行するプログラムによる演算の中間データ等を含むデータを格納する。
詳しくは、処理装置110は、カメラ101、102の撮像を制御して、撮像した画像を取り込むための画像入力インタフェース103を持つ。この画像入力インタフェース103を通して取り込まれた画像は、内部バス109を通してデータが送られ、画像処理部104や、演算処理部105で処理され、処理途中の結果や最終結果となる画像データなどがメモリとしての記憶部106に記憶される。
画像処理部104は、カメラ101の撮像素子から得られる第1の画像(左画像)と、カメラ102の撮像素子から得られる第2の画像(右画像)とを比較して、それぞれの画像に対して、撮像素子に起因するデバイス固有の偏差の補正や、ノイズ補間などの画像補正を行い、これを記憶部106に記憶する。更に第1および第2の画像の間で、相互に対応する箇所を計算して、視差情報を計算し、先程と同様に、これを記憶部106に記憶する。
演算処理部105は、記憶部106に蓄えられた画像および視差情報(画像上の各点に対する距離情報)を使い、車両周辺の環境を知覚するために必要な、各種物体の認識を行う。各種物体とは、人、車、その他の障害物、信号機、標識、車のテールランプやヘッドライド、などである。これら認識結果や中間的な計算結果の一部が、先程と同様に記憶部106に記録される。演算処理部105は、撮像した画像に対して各種物体認識を行った後に、これら認識結果を用いて車両の制御方針を計算する。
計算の結果として得られた車両の制御方針や、物体認識結果の一部は、CANインタフェース107を通して、車載ネットワークCAN111に伝えられ、これにより車両(自車両)の制動が行われる。また、これらの動作について、各処理部が異常動作を起こしていないか、データ転送時にエラーが発生していないかどうかなどを、制御処理部108が監視しており、異常動作を防ぐ仕掛けとなっている。
上記の画像処理部104は、内部バス109を介して制御処理部108、記憶部106、演算処理部105、およびカメラ101、102の撮像素子との間の入出力部である画像入力インタフェース103と外部の車載ネットワークCAN111との入出力部であるCANインタフェース107に接続されている。制御処理部108、画像処理部104、記憶部106、演算処理部105、および入出力部103、107は、単一または複数のコンピュータユニットにより構成されている。記憶部106は、例えば画像処理部104によって得られた画像情報や、演算処理部105によって走査された結果作られた画像情報等を記憶するメモリ等により構成されている。外部の車載ネットワークCAN111との入出力部であるCANインタフェース107は、車載ステレオカメラ装置100から出力された情報を、車載ネットワークCAN111を介して自車両の制御システムに出力する。
(車載ステレオカメラ装置の処理内容)
図2に、本実施形態の基礎となる車載ステレオカメラ装置100内の処理フロー(換言すれば、ステレオカメラ処理の処理内容)を示す。
まず、左右のカメラ101、102により画像が撮像され(S201、S202)、各々で撮像した画像データ121、122のそれぞれについて、撮像素子が持つ固有の特性を吸収するための補正などの画像処理を行う(S203)。その処理結果は画像バッファ161に蓄えられる。画像バッファ161は、図1の記憶部106に設けられる。更に、補正された2つの画像を使って、画像同士の照合を行い、これにより左右のカメラ101、102で得た画像の視差情報を得る。左右画像の視差により、対象物体上のある着目点が、左右のカメラ101、102の画像上の何処と何処に対応するかが明らかとなり、三角測量の原理によって、対象物までの距離が得られることになる。これを行うのが視差処理である(S204)。画像処理(S203)および視差処理(S204)は、図1の画像処理部104で行われ、最終的に得られた画像、および視差情報は、記憶部106に蓄えられる。
更に上記の記憶された画像、および視差情報を用いて、各種物体認識処理を行う(S205)。認識対象の物体としては、人、車、その他の立体物、標識、信号機、テールランプなどがあるが、認識の際は必要に応じて認識辞書162を利用する。認識辞書162は、例えば認識対象の物体の特徴を機械学習データとして保存・記録したものである。更に、物体認識の結果と、自車両の状態(速度、舵角など)とを勘案して、車両制御処理によって、例えば、乗員に警告を発し、自車両のブレーキングや舵角調整などの制動を行う、あるいは、それによって対象物の回避制御を行う方針を決め(S206)、その結果をCANインタフェース107を通して外部に出力する(S207)。各種物体認識処理(S205)および車両制御処理(S206)は、図1の演算処理部105で行われ、外部の車載ネットワークCAN111への出力(S207)は、CANインタフェース107にて行われる。これらの各処理・各手段は、例えば単一または複数のコンピュータユニットにより構成され、相互にデータを交換可能に構成されている。
図3に、本実施形態の車載ステレオカメラ装置100内の各種処理のタイミングを示す。
図3のタイミングチャートでは、大きく2系統の流れを301、302として示している。301の流れが、図1の画像処理部104における処理タイミングであり、302の流れが、図1の演算処理部105における処理タイミングを示している。
まず、301の流れにおいて、右画像入力処理(S303)が行われる。これは、図2における右カメラ102による画像撮像を行い(S202)、その後で画像処理(S203)を経て、画像バッファ161に右画像を蓄えるまでの処理に相当する。次に、左画像入力処理(S304)が行われる。これは、図2における左カメラ101による画像撮像を行い(S201)、画像処理(S203)を経て、画像バッファ161に左画像を蓄えるまでの処理に該当する。次に、視差処理(S204)を行う。これは、図2において、画像バッファ161から左右の2つの画像を読み出し、両画像間の照合を取ることで視差を計算し、計算して得られた視差情報を記憶部106に蓄えるまでの処理に相当する。この時点で、画像と視差情報が記憶部106に揃ったことになる。
次に、302の流れにおいて、記憶部106に蓄えられた画像と視差情報を用いて、各種物体認識処理(S205)を行い、車両制御処理(S206)を行い、その結果をCANインタフェース107にて車載ネットワークCAN111に出力する運びとなる。
各種物体認識処理(S205)においては、記憶部106に蓄えられた画像と視差情報などから、人、車、その他の立体物、標識、信号機、テールランプなどの認識を行うが、以下では、本実施形態の特徴部分である、道路などに設置された標識の認識を行う標識認識処理(S205a)について説明する。
(標識認識処理)
図4に、標識認識処理(S205a)の処理フローを示す。
本実施形態の標識認識処理(S205a)は、基本的に円検知によって円形物体である標識の認識を行う処理である。そのための前提として、カメラ101、102は、第1シャッタと第2シャッタが用意されている。第1シャッタの露光時間は、暗い物を認識するために、第2シャッタの露光時間よりも長くしている。換言すれば、第1シャッタのシャッタ速度は、第2シャッタのシャッタ速度よりも遅くしている。また、第2シャッタ(相対的に短い露光時間)による撮像は、第1シャッタ(相対的に長い露光時間)による撮像よりも後のフレームで行われる。
上記条件を前提とし、本実施形態の標識認識処理(S205a)は、図4に示すように、基本的に、画像処理(S203)を経て、画像バッファ161に蓄えられた画像(左画像、または、右画像)を用いて、円形物体を抽出する標識検知処理(S401)、円形物体の種別を特定する標識識別処理(S402)、円形物体のフレーム間での対応付けを行う標識追跡処理(S403)、円形物体の複数フレーム(例えば、10フレームなど)での総合的な判定を下す標識判定処理(S404)を含んでいる。
標識検知処理(S401)は、円検知処理を用いて実行され、円検知処理は、中心推定処理と半径推定処理に分けられる。中心推定処理では、図5に示すように、各エッジから法線方向に線分405を引き、その線分405の交点が一定数以上重なる点を中心と推定する。図5では、406が中心(候補)と推定される。半径推定処理では、図6に記載されたヒストグラムに基づいて円の半径を推定する。図6のヒストグラムは、横軸が中心406からの半径、縦軸が所定幅内のエッジ数を表す。図6のヒストグラムの求め方を説明する。図5の中心406から半径が徐々に大きくなる円を想定する。この円とエッジ(例えば、第1エッジ407や第2エッジ408)が重なった場合に、その重なったエッジ数をカウントして、図6のヒストグラムの縦軸とする。407のように円が存在する場合は、図6のヒストグラムのエッジ数410が多くなり、409のように円が存在しない場合は、図6のヒストグラムのエッジ数411は少なくなる。図6のヒストグラムで所定の閾値412を超えたものを半径候補とする。このような処理により、画像バッファ161に蓄えられた画像(左画像、または、右画像)から、円の特徴(中心、半径)を含む円形物体を抽出する。
標識識別処理(S402)では、前記円形物体を含む画像に対して識別器を用いた識別処理が行われる。識別処理の結果、円が標識か否か、標識の種類、内容(例えば、制限速度)など、円形物体の種別が認識される。
標識追跡処理(S403)では、円形物体の追跡処理が行われ、標識判定処理(S404)では、追跡処理の結果を踏まえて、円形物体の判定処理が行われる。これにより、画像中の円形物体である標識の認識処理が実行され、車両制御処理(S206)に利用される。
(標識検知処理)
次に、前述の標識検知処理(S401)について、より詳細に説明する。
図7に、標識検知処理(S401)の処理フローを示す。前述したように、カメラ101、102は、第1シャッタと第2シャッタを有しており、本実施形態の標識検知処理(S401)は、第1シャッタ(相対的に長い露光時間)により得られた画像に対する処理(S710)と、第2シャッタ(相対的に短い露光時間)により得られた画像に対する処理(S720)を含んでいる。
図8は、車載ステレオカメラ装置100の一方のカメラ(例えば右カメラ102)で第1シャッタを使用して撮像された画像を説明する図である。第1シャッタの露光時間は、第2シャッタの露光時間よりも長くしているので、図8では、速度標識801の赤い色の円周部805を撮像することが可能となる。なお、円周部805は、中心付近の発光部分(電光部分)である自発光部804よりも暗い領域である。第1シャッタは円周部805を検出できるが、第1の露光時間を相対的に長く設定しているため、円周部805よりも明るい自発光部804は白とびして検出できない場合もある。
図9は、車載ステレオカメラ装置100の一方のカメラ(例えば右カメラ102)で第2シャッタを使用して撮像された画像を説明する図である。第2シャッタの第2の露光時間は、速度標識801の中心付近の発光部分(電光部分)である自発光部804を白とびしないように、第1シャッタの第1の露光時間よりも短い露光時間となるように設定される。その結果、図9に示すように、円周部805は検出できない場合もあるが、発光部分である自発光部804は検出することが可能となる。よって、前述した第1シャッタの画像で自発光部804が検出できない場合でも、第2シャッタの画像には自発光部804が存在するので、自発光部804を検出することが可能となる。なお、図9中の自発光部804周りの803の領域は、後述する予測エリアを表している。
なお、以下では、第1シャッタによる撮像フレームを第1フレーム、第2シャッタによる撮像フレームを第2フレームとする。
図7に示すように、標識検知処理(S401)のステップS710において、ステップS711では、プロセッサによって、例えば図8の第1シャッタにより得られた画像全体(全面)に対して円を探索する処理が行われる。なお、このステップS711よりも前の画像処理(S203)では、例えば図8の画像に対して微分処理が行われ、エッジが強調される。ステップS711では、このエッジが強調された画像全体に対して、上述した円検知処理を行うことで、円を探索する処理が行われる。
ステップS712では、検知された円の情報(つまり、円の位置を特定するための情報)、例えば、探索した円の中心(候補)の座標、半径(候補)、及び検知した円の数をメモリとしての記憶部106に記憶する。
ステップS712で記憶した円の情報を用いて、前述の標識識別処理(S402)にて、例えば図8の画像に対して識別器を用いた識別処理が行われる。
標識検知処理(S401)のステップS720において、ステップS721では、前回のフレーム、つまり第1シャッタによる処理(S710)の結果得られた円の情報から、例えば図9の第2シャッタにより得られた画像の中にある予測エリア(後で説明)の中心(候補)を計算する。より具体的には、ステップS712で記憶された円の中心座標に経過時間、自車の移動情報(例えば、車速、ヨーレート)を考慮することで、第1フレームで検出された円形領域の中心が第2フレームではどの座標にあるかを計算する。
ステップS722では、ステップS721で計算した中心の座標を含む予測エリア803(図9参照)を定義する。予測エリア803は、少なくともステップS712で記憶された半径d1に経過時間、自車の移動情報(例えば、車速、ヨーレート)を考慮して決定される半径d2によって表現される円を含むように定義される。
ステップS723では、プロセッサは、ステップS722で定義された予測エリア803の内部に対して、上述した円検知処理を行う。このように、限定された領域(換言すれば、ステップS711での円検知処理のための処理領域よりも小さい処理領域)に対して円の特徴を検知する円検知処理を行うことで、全面に対して円検知処理を行う場合(S711)よりもプロセッサの処理負荷を軽くすることが可能となる。
ステップS724では、プロセッサは、予測エリア803内で円が検知されなかったか否かの確認を行う。予測エリア803内に円が検知されなければ(S724:Yes)、処理はステップS725に遷移する。ステップS725は、後の図10などで詳細に説明される。予測エリア803内に円が検知されれば(S724:No)、処理はステップS726に遷移する。ステップS726では、プロセッサは、検知した円の情報をメモリとしての記憶部106に保存・記憶して、処理はステップS721に戻る。なお、円が検知された場合、処理はステップS725に遷移しない。その理由は、ステップS725は、円が検知されないことを前提とした処理だからである。ステップS725は、第1シャッタによる第1の露光時間よりも短い第2シャッタによる第2の露光時間(言い換えれば、シャッター速度)により取得された画像に対してのみ行われる。
そして、ステップS712で記憶された、別の円の情報を読み出して、前述したステップS721からステップS726を繰り返す。この一連の処理は、第1シャッタによる露光時間(言い換えれば、シャッター速度)で検出された円の数だけ、行われる。
その後、ステップS726で記憶した円の情報を用いて、前述した標識識別処理(S402)にて、識別器を用いた識別処理が行われる。
(自発光物体検知処理)
図10に、前述したステップS725の自発光物体検知処理の処理フローを示す。この自発光物体検知処理は、前述したように、ステップS722で計算した予測エリア803(図9参照)内に円が検知されない場合(換言すれば、予測エリア803の画像に円の特徴が含まれないと判断した場合)に、実施される処理である。
図11は、以下のステップS1001を説明する図である。
ステップS1001では、プロセッサによって、予測エリア803内に所定の閾値(後で図14にて説明)よりも高い輝度を有する画素(換言すれば、所定の明るさより明るい画素)の数をカウントし、ヒストグラムを作成(取得)する。ヒストグラムは、ここでは、交差(直交)したx軸、y軸それぞれに対してヒストグラム1008、1009が作成(取得)される。そして、プロセッサは、ヒストグラム1008の重心位置、およびヒストグラム1009の重心位置を得る。その結果、複数のヒストグラム1008、1009の重心位置から、予測エリア803の重心1010の座標が特定される。この重心1010は、予測エリア803の対象物の円の中心(に相当する位置)と推定される。
図12は、以下のステップS1002を説明する図である。
ステップS1002では、ステップS1001で推定した円の中心の座標とステップS722で使用した半径d2を使用して、矩形の領域1013を決定する。矩形の領域1013は、第1の点1011および第2の点1012、それぞれからx軸、y軸に平行な線を引くことで決定する。第1の点1011は、ステップS1001で推定した円の中心の座標(XC、YC)から半径d2を引くことによって決定される。第2の点1012は、ステップS1001で推定した円の中心の座標(XC、YC)から半径d2を足すことによって決定される。
ステップS1003では、領域1013の明るさ(有効/無効)を判断し、ステップS1004では、領域1013の中心周辺に(換言すれば、中心を含む所定の大きさの領域に)、ある所定の明るさ(所定の閾値:後で図14にて説明)より明るい領域があるか否かを判断する。図13に示すように、明るい領域1014があれば、言い換えれば、無効でなければ(S1004:Yes)、発光部分(電光部分)である自発光物体があると判断し、処理はステップS1005に遷移する。
ステップS1005では、領域1013に関する情報(つまり、領域1013の中心付近の明るい領域1014に関する情報)をメモリとしての記憶部106に保存・記憶する。領域1013に関する情報(領域情報)とは、例えば、ステップS1001で計算した中心の座標、及び半径d2である。
明るい領域が無い場合は、言い換えれば、無効であれば(S1004:No)、発光部分(電光部分)である自発光物体がないと判断し、記憶部106への情報の保存・記憶は行われず、処理は終了する。
図14は、予測エリア803内に対する前景(文字部分、発光部分)と背景(黒地部分、非発光部分)を分けるための閾値の決定手法を説明する図である。
前景部分と背景部分を分けるためには幾つかの手法がある。その1つの例が、前景部分のピクセル数と、背景/前景部分の境界部分のピクセル数の比率を見る手法である。
例えば図14の画像1401は、高い輝度のピクセルのみを前景とする場合である。前景部分のピクセル数が少なく(画像1401では3つ)、かつ、この数に比して、前景部分と隣接する黒字部分のピクセル数が多いため、孤立した領域が多いということが分かる。そのため、前景の文字部分を抽出するためには適さないということが、この比率を見ることで推定できる。
また、図14の画像1403は、前景部分の占めるピクセル数が、黒字境界部分のピクセル数に比して、極めて多い場合の事例である。このような場合、文字部分の数字(特にゼロの数字)がつぶれていて、認識には適さない可能性があることが、この比率を見ることで推定できる。
図14の画像1402は、後に続く認識処理などに適した閾値の事例である。前景部分に一定のピクセル数があり、かつ、背景部分のピクセル数との比率も、文字パターンから想定される一定の割合のバランスを持っている事例である。このような手段によって、画像の質(コントラスト、平均階調)に応じた閾値を定めることができる。
なお、前述したステップS725の自発光物体検知処理は、円の特徴が検知された場合に行っても良いことは勿論である。
以上で説明したように、本実施形態は、カメラ101、102で取得した画像から所定の明るさより明るい画素の数を集計した複数のヒストグラム1008、1009を取得し、前記複数のヒストグラム1008、1009から前記画像内の対象物の円の中心に相当する位置を推定する中心推定処理(S1001)を行う。
また、前記画像が円の特徴を含むか否かの判断(S724)に基づいて、前記中心推定処理(S1001)を行うか否かを判断し、前記画像に前記円の特徴が含まれないと判断した場合に(S724:Yes)、前記中心推定処理(S1001)を行う。
また、前記画像は、前記対象物の識別処理を行うために前記対象物内の発光部分を検出可能な露光時間又はシャッタ速度で撮像された画像である。前記露光時間より長い他の露光時間又は前記シャッタ速度より遅い他のシャッタ速度で撮像した他の画像の中から前記円の位置を特定するための情報を取得する円検知処理(S711)を行い、前記中心推定処理(S1001)のための前記画像の処理領域(限定エリア)は、前記円検知処理(S711)のための前記他の画像の処理領域(全面)よりも小さい。前記画像は、前記他の画像より後のフレームで撮像された画像である。
また、前記円の中心に相当する位置周辺に所定の明るさより明るい領域が存在するか否かを判断し(S1004)、前記明るい領域が存在する場合(S1004:Yes)、前記明るい領域に関する情報を記憶部に保存する(S1005)。
言い換えれば、例えば、本実施形態は、第1の明るさを有する領域を検知するのに適した第1の画像(第1シャッタ(相対的に長い露光時間)により得られた画像)を取得し、第1の明るさよりも明るい第2の明るさを有する領域を検知するのに適した第2の画像(第2シャッタ(相対的に短い露光時間)により得られた画像)を取得することを、1つの側面とする。また、第1の画像に対して第1の処理(S710)を行い、第2の画像に対して第2の処理(S720)を行い、特に、第2の処理は第1の処理の結果を使用し、明るい領域を検知する。そして、第2シャッタの撮像の限定エリア(予測エリア803)に円周エッジを使用する円検知処理ができないとき、例えばLED式の電光標識を検知する。
このような構成により、本実施形態によれば、明るい領域とその領域よりも暗い領域とを含む対象物、あるいは、一部が発光し、その他の領域は発光しない対象物を検知することが可能になる。より具体的には、例えば、自発光物体を検知することで、電光標識の検知性能を向上させることができる。よって、例えば電光標識などの画像内の対象物の認識性能を向上させることができる。
なお、前述した実施形態では、2つのカメラから構成される車載ステレオカメラ装置100を用いて説明したが、カメラは1台でもよいし、3台以上使用してもよい。
なお、本発明は上記した実施形態に限定されるものではなく、様々な変形形態が含まれる。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。本発明は、例えば、複数の光学的特性を有するオブジェクト、例えば、一部が発光するオブジェクトの検出に広く適用可能である。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記憶装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
100 車載ステレオカメラ装置101、102 カメラ103 画像入力インタフェース104 画像処理部105 演算処理部106 記憶部107 CANインタフェース108 制御処理部109 内部バス110 処理装置111 車載ネットワークCAN

Claims (7)

  1. 画像内の対象物の認識処理を行う処理装置であって、
    前記画像に円の特徴が含まれないと判断した場合に、前記画像から所定の明るさより明るい画素の数を集計した複数のヒストグラムを取得し、前記複数のヒストグラムから前記画像内の対象物の円の中心に相当する位置を推定する中心推定処理を行うことを特徴とする、処理装置。
  2. 画像内の対象物の認識処理を行う処理装置であって、
    前記画像から所定の明るさより明るい画素の数を集計した複数のヒストグラムを取得し、前記複数のヒストグラムから前記画像内の対象物の円の中心に相当する位置を推定する中心推定処理を行い、
    前記画像は、前記対象物の識別処理を行うために前記対象物内の発光部分を検出可能な露光時間又はシャッタ速度で撮像された画像であり、
    前記露光時間より長い他の露光時間又は前記シャッタ速度より遅い他のシャッタ速度で撮像した他の画像の中から前記円の位置を特定するための情報を取得する円検知処理を行い、
    前記中心推定処理のための前記画像の処理領域は、前記円検知処理のための前記他の画像の処理領域よりも小さいことを特徴とする、処理装置。
  3. 請求項に記載の処理装置において、
    前記画像が円の特徴を含むか否かの判断に基づいて、前記中心推定処理を行うか否かを判断することを特徴とする、処理装置。
  4. 請求項1に記載の処理装置において、
    前記画像は、前記対象物の識別処理を行うために前記対象物内の発光部分を検出可能な露光時間又はシャッタ速度で撮像された画像であることを特徴とする、処理装置。
  5. 請求項4に記載の処理装置において、
    前記露光時間より長い他の露光時間又は前記シャッタ速度より遅い他のシャッタ速度で撮像した他の画像の中から前記円の位置を特定するための情報を取得する円検知処理を行い、
    前記中心推定処理のための前記画像の処理領域は、前記円検知処理のための前記他の画像の処理領域よりも小さいことを特徴とする、処理装置。
  6. 請求項2又は5に記載の処理装置において、
    前記画像は、前記他の画像より後のフレームで撮像された画像であることを特徴とする、処理装置。
  7. 請求項1又は2に記載の処理装置において、
    前記円の中心に相当する位置周辺に所定の明るさより明るい領域が存在するか否かを判断し、
    前記明るい領域が存在する場合、前記明るい領域に関する情報を記憶部に保存することを特徴とする、処理装置。
JP2022504990A 2020-03-03 2020-12-25 処理装置 Active JP7277666B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020035419 2020-03-03
JP2020035419 2020-03-03
PCT/JP2020/048701 WO2021176820A1 (ja) 2020-03-03 2020-12-25 処理装置

Publications (2)

Publication Number Publication Date
JPWO2021176820A1 JPWO2021176820A1 (ja) 2021-09-10
JP7277666B2 true JP7277666B2 (ja) 2023-05-19

Family

ID=77613238

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022504990A Active JP7277666B2 (ja) 2020-03-03 2020-12-25 処理装置

Country Status (3)

Country Link
JP (1) JP7277666B2 (ja)
DE (1) DE112020005250T8 (ja)
WO (1) WO2021176820A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015191626A (ja) 2014-03-28 2015-11-02 富士重工業株式会社 車外環境認識装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6868932B2 (ja) 2018-01-12 2021-05-12 日立Astemo株式会社 物体認識装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015191626A (ja) 2014-03-28 2015-11-02 富士重工業株式会社 車外環境認識装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
内村 圭一, 木村 英雄, 脇山 慎也,道路情景カラー画像における円形道路標識の抽出および認識,電子情報通信学会論文誌,社団法人電子情報通信学会,1998年04月25日,Vol.J81-A, No4,PP.546-553,特に[2. 道路標識抽出アルゴリズム],[3.1.2 中心位置補正],[4. 実験],図6

Also Published As

Publication number Publication date
WO2021176820A1 (ja) 2021-09-10
DE112020005250T8 (de) 2022-11-03
DE112020005250T5 (de) 2022-09-08
JPWO2021176820A1 (ja) 2021-09-10

Similar Documents

Publication Publication Date Title
US8902053B2 (en) Method and system for lane departure warning
WO2014033936A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US10121083B2 (en) Vehicle exterior environment recognition apparatus
US20160379070A1 (en) Vehicle exterior environment recognition apparatus
JP6420650B2 (ja) 車外環境認識装置
WO2019085929A1 (zh) 图像处理方法及其装置、安全驾驶方法
US9524645B2 (en) Filtering device and environment recognition system
US20220171975A1 (en) Method for Determining a Semantic Free Space
US9365195B2 (en) Monitoring method of vehicle and automatic braking apparatus
US20150110358A1 (en) Apparatus and method for detecting vehicle number plate
CN111976585A (zh) 基于人工神经网络的投射信息识别装置及其方法
JP7277666B2 (ja) 処理装置
JP6723492B2 (ja) 霧特定装置、霧特定方法及び霧特定プログラム
JP5125214B2 (ja) 障害物検出方法および障害物検出装置
JP2020126304A (ja) 車外物体検出装置
JP5957182B2 (ja) 路面上パターン認識方法および車両用情報記録装置
JP2008276307A (ja) 動画像処理装置、動画像処理システムおよびナビゲーション装置
KR102109841B1 (ko) 주행 영상으로부터 차량을 검출하는 방법 및 장치
WO2022130780A1 (ja) 画像処理装置
JP7379523B2 (ja) 画像認識装置
JP2021051348A (ja) 物体距離推定装置及び物体距離推定方法
WO2021161508A1 (ja) 検出装置、検出方法、及び検出プログラム
WO2024157413A1 (ja) 環境認識装置及び環境認識方法
JP7390899B2 (ja) レーンマーク認識装置
JP7446445B2 (ja) 画像処理装置、画像処理方法、及び車載電子制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230508

R150 Certificate of patent or registration of utility model

Ref document number: 7277666

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150