JP7256835B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP7256835B2
JP7256835B2 JP2021050360A JP2021050360A JP7256835B2 JP 7256835 B2 JP7256835 B2 JP 7256835B2 JP 2021050360 A JP2021050360 A JP 2021050360A JP 2021050360 A JP2021050360 A JP 2021050360A JP 7256835 B2 JP7256835 B2 JP 7256835B2
Authority
JP
Japan
Prior art keywords
image
vehicle
image processing
processing device
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021050360A
Other languages
English (en)
Other versions
JP2022148611A (ja
Inventor
裕司 安井
成光 土屋
輝 金原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2021050360A priority Critical patent/JP7256835B2/ja
Priority to US17/693,543 priority patent/US20220309796A1/en
Priority to CN202210256571.6A priority patent/CN115131976A/zh
Publication of JP2022148611A publication Critical patent/JP2022148611A/ja
Application granted granted Critical
Publication of JP7256835B2 publication Critical patent/JP7256835B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/052Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • B60R11/0211Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof for record carriers apparatus, e.g. video recorders, tape players or CD players
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/056Detecting movement of traffic to be counted or controlled with provision for distinguishing direction of travel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R2011/0001Arrangements for holding or mounting articles, not otherwise provided for characterised by position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は画像処理装置に関し、特に車載用画像処理装置に関する。
生産時に組み込まれた運転支援機能を有する車両が普及しつつある。この種の運転支援機能には、カメラやレーダで車両の進行方向や車両の周囲の物標を検知し、運転者に注意を促したり、あるいは操舵や制動を行ったりするものがある。このような運転支援機能を果たす装置として、移動体を検知して警報を出力する装置が提案されている(例えば特許文献1等参照)。
特許文献1に記載された装置は、車載カメラにより画像を撮影し、撮影した画像からオプティカルフローを算出し、オプティカルフローの中から移動体を検出する。さらに、オプティカルフローから水蒸気または光源変動による見かけの動きを検出して、水蒸気または光源変動による輝度変化を含む領域を警報抑制領域として設定する。そして検出された移動体のうち、警報抑制領域に含まれる移動体を無効な移動体であるとして、警報の対象から除外する。
このような機能を果たすため、特許文献1に記載された装置には、画像のみならず車輪速センサからの車輪速や舵角センサからの舵角など、車両の有するセンサからの信号が提供されており、さらにその機能は車両に搭載されたECUにより実現されている。このように車輪速や舵角を車両のセンサから得ているため、移動する自車両を基準として移動体を特定すればよく、警報の対象から除外されるのは、見かけ上移動体に見えるが移動体としての実体がない光源の変動と水蒸気とに限られている。
特開2013-186668号公報(図1、図14、段落0032-0054等)
特許文献1に記載された装置は、生産時に車両に組み込まれることが前提であり、既にある車両に後付けすることは困難である。特に、車輪速や舵角の提供を車両から受けられなければ、後付けの運転支援装置が独自に取得した情報に基づいて車速や旋回などの車両の挙動を特定する必要がある。
本発明は上記従来例に鑑みて成されたもので、車両に後付け可能であり、車両の挙動を高精度で特定可能な画像処理装置を提供することを目的とする。
上記目的を達成するために、本発明は以下の構成を有する。すなわち、車両に搭載された画像処理装置であって、
画像取得部と、
前記画像取得部により取得した画像を処理する処理部と、
を有し、
前記処理部は、
前記画像取得部により取得した画像から移動体を認識して、前記画像中で認識された移動体にマスキング処理を行い、
マスキング処理した前記画像に基づいて前記画像処理装置の空間的な動きを推定し、
前記画像取得部は、外界と隔てられた空間の内部と外部との仕切りに設けられた透過部を通して外界の画像を取得し、
前記処理部は、前記透過部を通して取得した前記車両の左右方の画像それぞれの間の差分に基づいて前記車両の進行方向を推定する
ことを特徴とする画像処理装置が提供される。
本発明によれば、車両に後付け可能であり、車両の挙動を高精度で特定可能な画像処理装置を提供することができる。
実施形態のドライブレコーダのカメラを取り付けた車両の図である。 実施形態のドライブレコーダの制御構成のブロック図である。 第1実施形態のドライブレコーダによる速度推定処理のフローチャートである。 車両の速度を推定する構成を示す図である。 速度水平方向のシフト量を推定する構成を示す図である。 実施形態のドライブレコーダによる運転支援処理の一例のフローチャートである。 画像中の移動体の検出およびマスキングの一例を示す図である。 第2実施形態のドライブレコーダによる速度推定処理のフローチャートである。 対象物までの距離推定の原理を示す図である。 速度推定の原理を示す図である。 実施形態のドライブレコーダによる運転支援処理の他の一例のフローチャートである。
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではなく、また実施形態で説明されている特徴の組み合わせの全てが発明に必須のものとは限らない。実施形態で説明されている複数の特徴のうち二つ以上の特徴は任意に組み合わされてもよい。また、同一若しくは同様の構成には同一の参照番号を付し、重複した説明は省略する。
[第1実施形態]
●ドライブレコーダを取り付けた車両の構成
図1は、車両100に本実施形態のドライブレコーダを取り付けた様子を示す図である。図1(A)は、車両のフロントウィンドウの上部を前席左側付近から見た様子を示す、フロントウィンドウ中央情報には、ルームミラー111が設けられている。またその左側にはドライブレコーダのカメラユニット110が設けられている。カメラユニット110には、車両の後方を向いて車室内を撮影する車内カメラ101と、車両の前方を向いてフロントウィンドウ越しに車両前方を撮影する車外カメラ102とが設けられている。本例では車内カメラおよび車外カメラとも単眼レンズを備える。車内カメラ101と車外カメラ102はそれぞれ独立してその撮影範囲を調整可能である。しかしながら車内カメラ101は広角レンズまたは魚眼レンズを採用しているため、撮影範囲は固定されていてもよい。
制御部を含む本体はカメラユニット110に組み込まれていてもよいし、カメラユニットから離れた位置に設けられ、カメラユニット110とケーブルにより接続されていてもよい。
図1(B)は、車両100を、そのルーフを透かして上方から見た図である。この例では、車両100の前方(進行前方)は図の左側であり、前方に向かってルームミラー111の左側にカメラユニット110が設けられている。車両100の室内には、右前席(右ハンドルでは運転席とも呼ぶ。)104Rと左前席(右ハンドルでは助手席とも呼ぶ。)104L、後席105が設けられている。車両100の側方には透過部として窓があり、窓を通して車室の内部から外部を観察できる。なお窓はガラス製であり、その開閉に関わらず透過部として機能する。また、カメラユニット110の車内カメラ102は、前席104R,104L,後席105に着座した乗員のほか、窓を通して車両の外部の風景を撮影できる。すなわち撮影した画像には、車両100の内部の画像と外部の画像とを含み、外部に位置する車両等の移動体も含めて撮影される。
なおカメラユニット110はルームミラー111の右側に設けてもよい。ただし、室内カメラ101のレンズの光軸が、面対称に設けられた窓の対称面に沿うよう、すなわち平行になるよう室内カメラ101の撮影範囲が調整されることが望ましい。また、カメラユニット110は、ルームミラー111に可能な限り近い位置に設けられることが望ましい。これらはいずれも、カメラの方向が対称面からずれることに起因する、左右それぞれの窓を通して撮影した外部の映像から推定した速度の左右差を小さくするためである。このようにカメラユニット110は、外界と隔てられた車両100の空間の内部に設けられる。
●ドライブレーダの構成例
図2に実施形態のドライブレコーダの制御構成の一例を示す。このドライブレコーダは車両に後付けするものであり、外部からの入力信号はなくてよい。ただし、ドライブレコーダの電源は車両100に依存し、またユーザインタフェースについても車両100に搭載されたデバイスを利用できる。本実施形態ではドライブレコーダにより画像処理を行って運転支援を実現する構成及び手順を説明することから、その点に着目してドライブレコーダのことを画像処理装置あるいは運転支援装置と呼ぶこともある。
図2において、ドライブレコーダは制御部200と車内カメラ101と車外カメラ102とを含む。これらのカメラ特に車内カメラ101のことを画像取得部などと呼ぶこともある。カメラインタフェース(IF)210、202はそれぞれ車内カメラ101、車外カメラ102との信号のインタフェースである。それぞれのカメラは、所定のフレームレート、たとえば29fps(フレーム/秒)で映像(動画)を撮影する。撮影した画像は画像処理部203により画像処理が施され、さらに必要な処理がCPU204により実行されて、消去可能ROM209に映像ファイルとして保存される。映像ファイルは所定時間、たとえば30秒から60秒程度の長さの映像を含み、所定時間の記録を終えると、新たな映像ファイルが記録される。映像ファイルは少なくとも2つあり、消去可能ROM209に空き空間がなくなると、最も古い映像ファイルを消去して空き空間が確保され、そこに新たな映像ファイルが記録される。
ドライブレコーダとしての機能を果たすために、ドライブレコーダには加速度センサなども含まれ、所定値を超える加速度が検知されると映像ファイルの記録を停止するなどの制御が行われる。しかし本実施形態では、このドライブレコーダの運転支援機能に着目して説明するために、そのドライブレコーダとしての機能やデバイスについての説明は省略する。
通信部208は有線または無線通信機能を提供する。たとえば後述する警告を出力するために、通信部208を介してスマートフォンなどに接続し、そこに警告を出力してもよい。また他の目的のための通信を行うことももちろん可能である。
入力部206および出力部207はユーザインタフェースとしての入出力部を含み、入出力部はたとえば操作部を構成するタッチパネルなどで実現されてよい。あるいは、車両100に備えられたディスプレイオーディオデバイスと接続するインタフェースを提供してもよい。RAM205は、CPU204や画像処理部203の動作に必要なデータメモリや、CPU204により実行されるプログラムを格納するためのメモリとして用いられる。電源部210は、車両100から提供される電源と接続され、ドライブレコーダに適した電源電力を提供する。
図3以降の図を参照して説明する処理は、CPU204により実行されるものとするが、画像処理部203で実行してもよい。いずれにしても処理の主体を処理部とよぶことがある。また制御部200のことを処理部と呼んでもよい。
●画像の速度推定処理
図3に、車内カメラ101により撮影した画像から車両100の速度を推定する手順を示す。撮影される画像は動画像であり、所定時間おきに撮影されたフレーム(あるいは画像フレーム)で構成され、動画あるいは映像と呼ぶこともある。図3の手順では、車内カメラ101により撮影した1フレーム(フレームk)を取得し、そのフレームkおよびそのフレームの直前のフレームk-1を対象として速度推定処理を実行する。このため本速度推定処理では、撮影されたフレームは少なくとも次のフレームが撮影され、速度推定処理が行われるまで保存される。処理の対象となるフレームkを対象フレームとも呼ぶ。なお図3の処理は撮影と並行して実時間で実行される。
図3において、対象フレームを例えばRAM205に読み込んで図3の処理が開始される。処理の主体は例えばCPU204であってよい。まずフレーム内の画像認識が行われる(S301)。ステップS301における認識の対象は移動体であり、認識の結果移動体が検出される(S303)。移動体には、自律的に或いは外部からの付勢により移動し得るもの(物および人などの生き物を含む)。具体的には、自動車や自転車などの車両、人、犬や猫などの動物、ハンカチなどの移動しやすい物が移動体に含まれる。これらの移動体を認識するために、たとえば予め機械学習により移動体の外観を学習させた学習済モデルを例えば消去可能ROM209に格納し、対象フレームを入力として認識結果を得てよい。出力は、対象フレーム中に含まれた移動体に相当する領域を示す情報でよい。あるいは、様々な視点から見た各種移動体の特徴情報を例えば消去可能ROM209に格納しておき、対象フレームから抽出した特徴点と照合して、所定程度以上の相関があればその特徴に相当する領域を移動体として特定してもよい。
次に検出された移動体を含む領域をマスクする(S305)。マスク処理は、例えば移動体の領域を黒あるいは白などの特定の色で一様に塗りつぶしてよい。撮影したフレームには、車両の内部の光景と窓越しに見える外部の光景とが含まれている。車両の外部の画像には、他の車両や人などの移動体が含まれる可能性がある。また車両の内部にも、移動し得るもの、たとえば乗員や車内に置かれたハンカチなどの移動しやすい物体、吊り下げられたアクセサリやお守りなどの移動体が含まれる可能性がある。そこでステップS305では、フレームから検出した移動体の領域をマスキング処理する。マスキング処理では、画像から検出された移動体が、例えば黒色領域により覆われてマスク処理される。これにより画像中には移動しないものが残される。
図3に戻り、移動体をマスキングしたなら、対象フレームをRAM205等に保存する。そして、対象フレームと、過去に撮影したフレームとから車両100の速度を推定する(S307)。S305におけるマスク処理によって、フレーム内の画像からは移動体がマスクされており、オブジェクトの移動は車両100の移動によってもたらされる見かけの移動である。図4、図5に速度推定の例を示す。
次に、図4、図5を参照して、車両の移動量(速度レベル)を推定する処理について説明する。なお、速度レベルは車両の移動速度をいう。しかし、予め移動速度に対応付けられた速度の程度(例えば高速、中速、低速など)を表してもよい。ドライブレコーダは、車内カメラ101により、例えば所定の時間間隔で撮像画像を取得する。制御部200は、例えば、ある時刻(例えばk)に撮像された撮像画像(フレーム)401と、時刻kより前の時刻(例えばk-1)に撮像された撮像画像とを取得する。これらの撮影画像は、本実施形態では、車両の前部窓または後部窓越しに撮影されたものであってよいが、ここでは後部窓越しの画像を例とする。前部窓越しの画像を用いた場合には、前進と後退の判断が逆転する。また図4,図5の例では移動体が画像に含まれないために明示していないが、図3のステップS305によりマスキングされている。
制御部200は、時刻k-1に撮像された撮像画像に対し、互いに異なる複数の倍率で拡大又は縮小した変倍画像を生成する。例えば、時刻k-1に撮像された撮像画像を、段階的に異なる変倍率{E、E、・・・、1、・・・、R、R}(ここで、E>E>・・・>1>・・・>R>R>0)で変倍した変倍画像(例えば変倍画像411~415)を生成する。そして、制御部200は、生成した変倍画像411~415と撮像画像401のそれぞれの所定領域721を切り出す。このとき、切り出される各所定領域は、同一サイズであり、時刻k及びk-1で撮像された撮像画像の中心と同一の中心を有する。変倍率{E、E、・・・、1、・・・、R、R}はそれぞれ、車両がどの速度レベルで前進又は後退するかに関連付けられている。このため、ある変倍率で変倍された画像は、関連付けられた速度で車両が走行する際に、次のタイミング(つまり時刻k)で撮像される画像と類似する。
制御部200は、時刻kの撮像画像401から切り出した所定領域の画素値と時刻k-1の撮像画像を変倍した変倍画像411~415のそれぞれの所定領域421の画素値との差分を算出し、複数の差分画像を生成する。差分は対応する画素間の差分であってよい。
制御部200は、得られた複数の差分画像のそれぞれを2値化した2値化画像を生成し、2値化画像の画素値の総和を算出する。2値化は例えば所定の2値化閾値と各画素値とを比較して、差が所定の閾値より大きければ1とし、閾値以下ならば0とするなどにより行ってよい。2値画像の画素値の総和は、画素値が"1"の画素数を表すことになる。制御部200は、各変倍率に対応する2値化した差分画像の画素値の総和のうち、総和が最小となる変倍率を選択する。例えば、E、E、1、R、Rで時刻k-1の撮像画像を変倍し、そのうち、Eで変倍した変倍画像を用いた画素値の総和が最小となる場合、制御部201は、変倍率Eを選択する。2値化後の画素値の総和は、画素値が1の画素数を表す。すなわち、対応する画素間の差が閾値よりも大きい差素数が画素値の総和により示される。また画像取得のレート(フレームレート)は一定であるため、選択された変倍率は車両の速度に応じた値となる。そこでそれぞれの変倍率を車両の速度レベルと関連付けておくことで、変倍率Eに関連付けられている速度レベルが車両100の速度レベル(移動量)として推定される。なお、車内カメラ101は固定されているので、撮影画像内における前部窓または後部窓の位置は、たとえば画像の中心から一定の幅の範囲であり、図4の処理により速度を推定する場合には、その窓の領域に限って用いてもよい。
なお、本実施形態では、差分画像を2値化する場合を例に説明したが、差分画像を2値化する代わりに他の画像処理を施してもよい。また、制御部200は、差分を算出する前に各画像を輝度画像に変換したり、エッジを強調したりするなどの所定の画像処理を行ってよい。
更に、図5を参照して、車両の移動量(水平方向の移動量)を推定する処理について説明する。ここでいう水平方向の移動量は、左右方向の移動量であり、それに基づいて車両の転回方向(あるいは進行方向)を推定でき、さらに転回量も推定できる。上述のように、ドライブレコーダは、車内カメラ101により、例えば所定の時間間隔で撮像画像を取得する。制御部200は、例えば、ある時刻(例えばk)に撮像された撮像画像501と、時刻kより前の時刻(例えばk-1)に撮像された撮像画像とを取得する。制御部200は、時刻k-1に撮像された撮像画像から、画像の中心から互いに異なる複数のシフト量で水平方向にシフトした所定領域を切り出す。例えば、時刻k-1に撮像された撮像画像から、段階的に異なるシフト量{-S、-S、・・・、0、・・・、S、S}(ここで、S>S>・・・>0)でシフトした所定領域(例えば所定領域521~525)を切り出す。また、制御部200は、撮像画像501の所定領域820を切り出す。シフト量{-S、-S、・・・、0、・・・、S、S}はそれぞれ、車両がどの移動量で左側又は右側に移動するかに関連付けられている。このため、あるシフト量で切り出された領域は、関連付けられた移動量で車両が移動する際に撮像される画像の中央部を切り出した所定領域と類似する。
制御部200は、時刻kの撮像画像501から切り出した所定領域520の画素値と、撮像画像511から切り出した所定領域521~525のそれぞれの画素値との差分を算出し、複数の差分画像を生成する。
制御部200は、得られた複数の差分画像のそれぞれを2値化した2値化画像を生成し、2値化画像の画素値の総和を算出する。制御部200は、各シフト量に対応する画素値の総和のうち、画素値の総和が最小となるシフト量を選択する。例えば、時刻k-1の撮像画像において-S、-S、0、S、Sのシフト量で移動させた所定領域のうち、Sでシフトした所定領域を用いた画素値の総和が最小となる場合、制御部200は、シフト量Sを選択する。上述のように、それぞれのシフト量は車両の移動量と関連付けられているため、シフト量Sに関連付けられている移動量が車両100の水平方向の移動量として推定される。
なお、図5の処理において、画像k-1を水平方向にシフトする際に、図4の処理で選択した変倍率で変倍し、それを所定画素ずつシフトしてもよい。このようにすることで比較する画像内の距離が一致するため、より高精度にシフト量を推定できる。さらに、図4の要領で選択した変倍率と図5の要領で選択したシフト量とに関連付けて、車両100の走行軌道を推定してもよい。たとえばカーブ走行時の曲率や半径などを変倍率とシフト量とに対応付けて登録しておき、登録された値から該当する値を現在の走行軌道を示す値として決定してよい。たとえば対象画像として後部窓の領域を選択しておけば、シフト量から車幅方向の移動量が推定でき、それは車両100のフレーム間の時間に生じたヨー軸周り回転量に対応する。一方変倍率からは速度が推定できるため、上述したように、カーブ走行時の曲率や半径などを変倍率とシフト量とに対応付けておくことができる。また、いったん車両が左右いずれかの方向へと移動していると判定した場合には、切り出す領域521~525を、車両が転回する方向へとずらしてもよい。すなわち、2つの画像を相関させる方向を移動させる。この場合、切り出す領域の位置は、車両の転回方向とは逆方向へずらされる。これにより、画像間の相関をより確実にとることができる。この切り出される領域を変換領域と呼び、その中心を画像変換中心と呼ぶこともある。
●運転支援手順
さて、以上のようにして推定した車両の速度は、例えば図6に示す運転支援処理において利用することが可能である。本例では、車両100の空間的な動きとして速度を用いて運転支援を行う。図6では、物標との接触の可能性を予想し、警告を出力する手順を示す。図6の手順は、車外カメラ102により撮影した映像を対象として例えばCPU204により実時間で実行される。
まず車外カメラ102により撮影された映像のフレームを取得し、画像認識を行って(S601)、物標特に速度制限の標識を検出する(S603)。次に、図3の手順で得られた車両100の速度と、標識から認識された制限速度と比較する(S605)。推定速度が制限速度を超えていれば、その旨の警告を出威力する(S607)。警告は出力部207から表示や音声で行ってもよいし、スマートフォンに通知して行ってもよいし、接続されたディスプレイオーディオデバイスを介して行ってもよい。このようにして速度超過の可能性を予測し、可能性があれば運転者に警告することができる。
以上説明したように本実施形態によれば、画像に含まれた移動体のオブジェクトをマスキングすることで、固定された物に基づいて速度を推定するため、より推定の精度が向上する。
[第2実施形態]
●画像の速度推定処理
本実施形態では、第1実施形態と同様の図1,2に示した構成により、図3の手順に代えて図8の手順を実行して速度推定する。なお図8のステップS801からS805は図3のステップS301からS305と同様である。ここでステップS301におけるマスキング処理について説明する。
図7に対象フレームの一部から移動体を検出し、マスキングする例を示す。図7に示したフレームは、車内カメラ101で撮影したフレームの、右半分を切り出したもので、窓の配置が右半分とほぼ対称となるフレームの左半分については割愛した。左半分については、画像の内容が右半分と相違しても処理の内容は同様である。
図7(A)は、対象フレームであるフレーム700から移動体を検出した様子を示す図である。フレーム700には、車両の内部の光景と窓越しに見える外部の光景とが含まれている。車両の外部の画像には、他の車両や人などの移動体が含まれる可能性がある。また車両の内部にも、移動し得るもの、たとえば乗員や車内に置かれたハンカチなどの移動しやすい物体、吊り下げられたアクセサリやお守りなどの移動体が含まれる可能性がある。図7(A)にはそれらの移動体が検出された領域を示している。ここでは、車外の移動体として領域701(車両)、領域704(人)が検出され、車内の移動体として領域703(手巾)が検出されている。検出処理では、特に車外と車内とを区別する必要はない。
図7(B)はフレーム700から検出した移動体の領域をマスキング処理する様子を示す図である。検出された移動体はマスク711とマスク713とでマスク処理される。図の見やすさのためにマスクはハッチングで示しているが、黒画素や白画素など、同色の画素で一様に塗りつぶしてよい。また塗りつぶしの範囲も、図7(B)では、検知された移動体の領域としているが、所定幅の余白を含めた領域であってもよい。
図8のステップS805で移動体をマスキングしたなら、対象フレームから物標を検出する(S807)。ステップS807の処理はステップS803と同様であってよいが、検出対象が異なる。ここでは、車両の外部に見えるであろう物標を対象として画像認識が行われる。検出対象の物標には、たとえばビルなどの建物や、電柱、看板などの施設、樹木などが含まれてよい。物標が検出されたなら、その物標を基準として、物標の方向および距離が推定される(S809)。そのために、たとえばカメラユニット110の取り付け時に、車内カメラ101の光軸の方向、特に水平方向についての方向を、入力部206から入力してそれを基準にしてよい。あるいは、カメラユニット110が、車内カメラ101の光軸が車両100の前後方向に沿うように取り付けられることを前提としてもよい。このようにして基準となる方向を定めておけば、フレーム画像内において、その中心すなわち光軸の位置から水平方向に離間した距離に応じて方向を推定できる。
ここで、ステップS809で実行される距離の推定方法の一例を、図9を参照して説明する。この方法の実現のために、カメラユニット110の取り付け後に、フレーム内の物標と距離との関係について較正を行っておく。本例の方法では、フレーム画像から物標と路面との境界を検出し、その境界までの距離を推定する。そこで、車内カメラ101により撮影したフレームに含まれた物標と路面との境界(すなわち接地位置)を特定し、カメラユニット110からその接地位置までの距離を実測しておき、特定した境界のフレーム内における接地位置の高さと接地位置までの実際の距離とを関連付けておく。この関連付けは消去可能ROM209などに保存される。カメラユニット110は車両100に対して固定されているので、この関連付けを基準として、フレーム画像内で特定された位置について、それが路面にあることを条件とすることで距離を推定できる。なおこの実施形態では、特定した接地位置のフレーム内における高さに代えて、接地位置から、光軸すなわち画像の中心を含む水平な線までの高さと、カメラユニット110から接地位置までの距離とを関連付けているが、フレームの下辺から光軸を含む水平線までの高さは一定なので、両者の意味するところは同じである。予め関連付けられて保存された、画像中の接地位置の高さと実際の接地位置までの距離とを、それぞれ高さをh0、長さをL0とする。
図9において、カメラユニット110は、車両100の車内に、車内カメラ101の光軸902が、水平方向903に対して俯角ωとなるように取り付けられている。車内カメラ101は、車両100の窓越しに物標905を含む光景を撮影し、その画像は画像910に投影されているものとする。画像910は、撮影された物標と画像との対応を示している。物標905が路面(道路でなくとも道路と概ね面一の面を路面と呼ぶ。)に接している接地位置901は、画像910においては位置911に対応する。光軸902が画面910に投影された位置910(中心位置と呼ぶ)から位置911までのフレーム中での高さがh1である、求める接地位置901までの距離をLとする。この場合、L0:h0=L:h1なので、L=h1・L0/h0と与えられる。
なお物標と路面との境界が特定できなければ、たとえば大きさを推定しやすい物標の画像中の大きさ(画角)と距離との対応をあらかじめ記憶しておき、それを基準として距離を推定してもよい。たとえば電柱などはその標準的な太さをあらかじめ定め、太さの画角と距離とを対応付けてあらかじめ記憶しておいておく。フレーム中から電柱が検出されたなら、その太さの画角と予め記憶した太さの画角との比を、予め定めた太さと関連付けられた距離に乗じて距離を推定する。これは図9で説明したものと同様である。
以上のようにしてステップS809では物標の方向と距離とを推定する。なおこの推定は、車内カメラ101で撮影したフレームの右半分と左半部とのそれぞれについて実行される。図8に戻り、推定した方向と距離とを保存する(S811)。次に、前のフレームについて図8の処理を行った結果ステップS811で保存された物標の方向と距離とを読み出す(S813)。そしてステップS809で求めた推定値とステップS813で読み出した推定値とに基づいて車両100の速度を推定する(S815)。推定された速度は保存される。速度の推定も、フレームの右半分を用いた推定値と左半分を用いた推定値とに戻づいて、フレームの左右それぞれについて行われる。なお、速度の推定のためには、フレーム間における物標の同一性が必要となるが、そのために、前のフレームで検出された物標の画像をその位置と対応付けて記憶しておき、対象フレームそれぞれで検出された物標の画像との相関を求め、相関値が一定以上あれば同一物標と判定してもよい。この場合、フレーム間で同一と判定された物標の方向および距離に基づいて速度が推定される。さらに左右それぞれの推定速度から、より遅い方が転回方向(あるいは進行方向)であると判定することができる。また左右の速度の平均速度と、左右間の速度差とから転回の半径を推定することもできる。
図10に速度推定の仕方の一例を示す。前のフレームから検出された物標1001に対応するフレーム1010中の画像が物標画像1011である。一方、対象フレームから検出された物標1002に対応するフレーム中の画像が物標画像1012である。車両100の進行に伴って物標の位置は移動しているが、物標1001と物標1002とは同一の物標である。物標画像1011から推定された距離がL1、方向がθ1である。一方、物標画像1012から推定された距離がL2、方向がθ2である。なお物標の方向は、車両の前後方向の中心線に沿った車内カメラ101の光軸の方向を基準として示すものとする。
このとき、距離L1の車両100の進行方向成分はL1・cos(θ1)であり、距離L2の車両100の進行方向成分はL2・cos(θ2)であるので、その差LはL2・cos(θ2)-L1・cos(θ1)となる。この距離を1フレーム間隔の時間で除算することで、速度を推定できる。フレームレートがF(fps)であれば、長さの単位がメートルならば速度はL・F(m/s)である。以上のようにして、撮影した画像から速度を推定する。もちろんこれは一例であって、他の方法で推定することも可能であるし、その方法を用いてもよい。
以上の手順により、車両100の速度を推定することができる。推定した速度は、図6の運転支援処理において参照することができる。また撮影した画像から移動体をマスキング処理したことで、高精度の速度推定を実現できる。
●そのほかの運転支援手順
本実施形態と同様の構成により、推定した速度を例えば図11に示す運転支援処理において利用することが可能である。図11では、物標との接触の可能性を予想し、警告を出力する手順を示す。本例では、車両100の空間的な動きとして、進行方向も含めた速度を求め、それを用いて運転支援を行う。図11の手順は、車外カメラ102により撮影した映像を対象として例えばCPU204により実時間で実行される。
まず車外カメラ102により撮影された映像のフレームを取得し、画像認識を行って(S1101)、物標を検出する(S1103)。検出対象の物標は、道路を走行中に障害になり得るものであり、車両や人、道路わきに設置される施設などであってよい。また特定の物標ではなく、道路ではないなにものかであってもよい。次に物標の距離及び方向(あるいは位置)を推定する(S1105)。これは例えば図3のステップS309で説明した方法と同じ方法であってよい。
次に図3の手順で得られている車両100の左右の速度に基づいて、進行方向を含む車両100の速度ベクトルを推定する(S1107)。車両の左右の車輪間の幅(トレッド幅)は固定値であるので、例えばトレッド幅の両端を始点とする左右それぞれの速度ベクトルを想定する。前輪と後輪のトレッド幅が異なる場合には例えばその平均値を用いてよい。それぞれの速度ベクトルは、図3の手順で推定された左右それぞれの速度を大きさとし、車両100の前方を向いたベクトルとする。そして、それぞれの速度ベクトルの終点を結んだ線分の法線方向で、かつ左右それぞれの速度の平均値を大きさとするベクトルを、車両100の速度ベクトルとする。すなわち、左右の速度ベクトルのいずれかを基準と決めて求めたベクトルの大きさの差をVfとし、車両100のトレッド幅をTwとする。この場合、基準と決めた速度ベクトルの方向を基準として、そこからVf/Tw傾けた方向かつVfの大きさのベクトルが、車両100の速度ベクトルであると推定する。もちろんこれは一例であって、これ以外の方法で速度を推定してもよい。
S1107で推定した自車両の速度から、S1105で距離と方向とを推定した物標に車両100が所定の距離以内に接近する可能性を判定し、可能性があれば接触接近するまでの時間を推定する(S1109)。たとえば車両の現在位置から推定した速度ベクトルを延長した線上あるいはそこから所定距離内に検出した物標があれば、所定距離内に接近する可能性があると判定できる。また、物標の位置から車両100までの距離を推定した速度の大きさで除算することで、そこに至る時間を推定できる。
次に、接触する可能性があり、接触するまでの時間が推定されていれば、その時間を所定の閾値と比較し、閾値以下なら警告を出力する(S1111)。警告は出力部207から表示や音声で行ってもよいし、スマートフォンに通知して行ってもよいし、接続されたディスプレイオーディオデバイスを介して行ってもよい。このようにして物標との接触を予測し、可能性があれば運転者に警告することができる。このようにして物標との過度な接近の可能性を予測し、可能性があれば運転者に警告することができる。
以上のように本実施形態によれば、撮影した画像に含まれた移動体をマスクすることで、移動体に対する相対的な速度ではなく、車両の絶対的な速度、すなわち対地速度を推定することができる。またマスクの対象となる移動体に、車外の移動体のみならず車内における移動体を含めることで、画像の中から車内と車外とを区別することなく、速度を予測することができる。さらに車両の左右の窓を通して左右それぞれの側について速度を推定することで、画像から車両の進行方向を推定することができる。
●変形例1
第1実施形態では前方または後方の画像を撮影し、画像間の差分に基づいて速度を推定した。第2実施形態では、側方の画像についても同様の処理を施す。これを第2実施形態のように、特に前席中央付近から車室方向(すなわち後方)に対して広角のカメラを用いて、左右の窓から撮影した車両外部の映像から車両の転回を判定してもよい。左右窓からの画像では、画像中のオブジェクトは前後(すなわち画像の水平方向)へ移動する。そこで本実施形態では左右それぞれの画像について、図7に示したようにマスキング処理を施し、図5で説明した要領でフレーム間の相関を検出して水平方向の差分を特定する。これにより、時間差で撮影された左右それぞれの画像(フレーム)の差分を検出する。差分が大きい方が転回の外側と判定できる。
この場合、差分については方向に応じて符号を決めておき、符号も含めて左右それぞれの差分を評価する。ただし符号は左右で逆にしておく。たとえば、右側窓から撮影した画像では、前へ直進しているならば、新しい画像ほど中のオブジェクトは右側へ移動する。そこでフレーム間で相関するオブジェクトが、時間の経過に応じて右側へ移動する場合、その差分を正、左側を負とする。左側の窓から撮影した画像については、その逆とする。このように決めたうえで左右それぞれの画像間の差分の大小を判定する。右側の差分が小さければ転回方向は右、左側の差分が小さければ展開方向は左と判定できる。符号を決めたのは、転回中心側の画像では、画像(フレーム)間で相関しているオブジェクトのずれの方向が、直進時のずれ方向とは逆方となることもあり得るためである。
あるいは、転回の外側の窓からの画像はオブジェクトの移動量が大きく、フレームレートや図5に示した画像のずらし量によっては画像間の相関が取れない場合もあり得る。逆に転回の内側の窓からの画像はオブジェクトの移動量が小さい。そこでいずれか一方の窓からの画像についてのみ相関が取れた場合には、相関がとれた側を転回の中心として車両は展開していると判定することもできる。このようにして車両側方の画像から車両の直進や転回を判断することもできる。
●変形例2
車内カメラ101として単眼カメラを用いたが、双眼のステレオカメラを用いれば、それぞれのカメラで撮影した画像の視差から物標の距離及び方向を特定することができる。この場合には、物標の大きさと距離の関係や、接地位置を距離との関係などをあらかじめ登録しておく必要はない。また、上記実施形態では移動体をマスクしたが、画像そのものを加工せず、物標を認識する範囲から外すだけであってもよい。
●実施形態のまとめ
以上説明した本実施形態をまとめると以下のとおりである。
本発明の第1の態様によれば、画像処理装置であって、
画像取得部と、
前記画像取得部により取得した画像を処理する処理部と、
を有し、
前記処理部は、
前記画像取得部により取得した画像から移動体を認識して、前記画像中で認識された移動体にマスキング処理を行い、
マスキング処理した前記画像に基づいて前記画像処理装置の空間的な動きを推定する画像処理装置が提供される。
この構成により、移動体にマスキング処理することで、移動体の動きによる影響を含まない、精度の高い動きを推定することができる。
本発明の第2の態様によれば、第1の態様に加えて、
前記画像取得部は、外界と隔てられた空間の内部に設けられており、前記画像には前記空間の内部の画像と外部の画像とを含み、前記移動体は前記空間の外部に位置すると推定される移動体を含む
ことを特徴とする画像処理装置が提供される。
この構成により、外部空間の移動体の影響を含まない精度の高い動きを推定することができる。
本発明の第3の態様によれば、第2の態様に加えて、
前記移動体は前記空間の内部に位置すると推定される移動体をさらに含む
ことを特徴とする画像処理装置が提供される。
この構成により、内部空間の移動体の影響を含まない精度の高い動きを推定することができる。
本発明の第4の態様によれば、第1乃至第3の態様に加えて、
前記画像取得部は、外界と隔てられた空間の内部と外部との仕切りに設けられた透過部を通して外界の画像を取得する
ことを特徴とする画像処理装置が提供される。
この構成により、外部と隔てられた内部空間からであっても、外部の画像に基づいて動きを推定できる。
本発明の第5の態様によれば、第4の態様に加えて、
前記の透過部は、複数個所に面対称となるよう設けられており、
前記画像取得部はカメラを含み、前記面対称の対称面に光軸が沿うように配置される
ことを特徴とする画像処理装置が提供される。
この構成により、1つの画像に対称的に配置された透過部を通した外部の画像を取得でき。それぞれから動きを推定できる。
本発明の第6の態様によれば、第5の態様に加えて、
前記画像処理装置は車両に搭載され、前記空間の内部は車室の内部であって、前記カメラは、前記車室に設けられたルームミラー近傍に、前記車両の後方に向けて設けられる
ことを特徴とする画像処理装置が提供される。
この構成により、車両の車内カメラにより、車両に設けた左右の透過部を通して画像を取得でき、それぞれから車両の動きを推定できる。
本発明の第7の態様によれば、第1乃至第6の態様に加えて、
前記処理部は、一定の時間をおいて取得した少なくとも2つの画像についてマスキング処理を行い、マスキング処理した前記少なくとも2つの画像間の差に基づいて前記車両の移動の速度を推定する
ことを特徴とする画像処理装置が提供される。
この構成により、時間差を置いて取得した少なくとも2つの画像間にマスキング処理することで、移動体の動きによる影響を含まない、精度の高い動きを推定することができる。さらに速度推定を簡易な処理で実現できる。
本発明の第8の態様によれば、第1乃至第6の態様に加えて、
前記処理部は、一定の時間をおいて取得した少なくとも2つの画像についてマスキング処理を行い、マスキング処理した前記少なくとも2つの画像それぞれに含まれた同一の物標の位置を推定し、推定した前記位置の差から、前記空間的な動きとして前記車両の移動の速度を推定する
ことを特徴とする画像処理装置が提供される。
この構成により、時間差を置いて取得した少なくとも2つの画像に含まれた移動体にマスキング処理することで、移動体の動きによる影響を含まない、精度の高い動きを推定することができる。
本発明の第9の態様によれば、第1乃至第8の態様に加えて、
前記処理部は、一定の時間をおいて取得した少なくとも2つの画像についてマスキング処理を行い、マスキング処理した前記少なくとも2つの画像間の差に基づいて前記車両の転回方向を推定する
ことを特徴とする画像処理装置が提供される。
この構成により、時間差を置いて取得した少なくとも2つの画像に含まれた移動体にマスキング処理することで、移動体の動きによる影響を含まない、高精度で転回方向を推定することができる。
本発明の第10の態様によれば、第9の態様に加えて、
前記処理部は、前記転回方向に応じて、前記少なくとも2つの画像を相関させる方向を移動させる
画像処理装置が提供される。
この構成より、画像間の相関をより確実にとることができる。
本発明の第11の態様によれば、第5または第6の態様に加えて、
前記処理部は、面対称となる前記透過部それぞれを通して撮影した画像それぞれの間の差分に基づいて前記車両の進行方向を推定する
ことを特徴とする画像処理装置が提供される。
この構成により、画像のみから車両などの転回の方向を推定できる。
発明は上記の実施形態に制限されるものではなく、発明の要旨の範囲内で、種々の変形・変更が可能である。
101 車内カメラ、102 車外カメラ、110 カメラユニット、200 制御部

Claims (10)

  1. 車両に搭載された画像処理装置であって、
    画像取得部と、
    前記画像取得部により取得した画像を処理する処理部と、
    を有し、
    前記処理部は、
    前記画像取得部により取得した画像から移動体を認識して、前記画像中で認識された移動体にマスキング処理を行い、
    マスキング処理した前記画像に基づいて前記画像処理装置の空間的な動きを推定し、
    前記画像取得部は、外界と隔てられた空間の内部と外部との仕切りに設けられた透過部を通して外界の画像を取得し、
    前記処理部は、前記透過部を通して取得した前記車両の左右方の画像それぞれの間の差分に基づいて前記車両の進行方向を推定する
    ことを特徴とする画像処理装置。
  2. 請求項1に記載の画像処理装置であって、
    前記画像取得部は、外界と隔てられた空間の内部に設けられており、前記画像には前記空間の内部の画像と外部の画像とを含み、前記移動体は前記空間の外部に位置すると推定される移動体を含む
    ことを特徴とする画像処理装置。
  3. 請求項2に記載の画像処理装置であって、
    前記移動体は前記空間の内部に位置すると推定される移動体をさらに含む
    ことを特徴とする画像処理装置。
  4. 請求項1乃至3のいずれか一項に記載の画像処理装置であって、
    前記過部は、複数個所に面対称となるよう設けられており、
    前記画像取得部はカメラを含み、前記面対称の対称面に光軸が沿うように配置される
    ことを特徴とする画像処理装置。
  5. 請求項に記載の画像処理装置であって、
    前記空間の内部は車室の内部であって、前記カメラは、前記車室に設けられたルームミラー近傍に、前記車両の後方に向けて設けられる
    ことを特徴とする画像処理装置。
  6. 請求項1乃至のいずれか一項に記載の画像処理装置であって、
    前記処理部は、一定の時間をおいて取得した少なくとも2つの画像についてマスキング処理を行い、マスキング処理した前記少なくとも2つの画像間の差に基づいて前記車両の移動の速度を推定する
    ことを特徴とする画像処理装置。
  7. 請求項1乃至のいずれか一項に記載の画像処理装置であって、
    前記処理部は、一定の時間をおいて取得した少なくとも2つの画像についてマスキング処理を行い、マスキング処理した前記少なくとも2つの画像それぞれに含まれた同一の物標の位置を推定し、推定した前記位置の差から、前記空間的な動きとして前記車両の移動の速度を推定する
    ことを特徴とする画像処理装置。
  8. 請求項1乃至のいずれか一項に記載の画像処理装置であって、
    前記処理部は、一定の時間をおいて取得した少なくとも2つの画像についてマスキング処理を行い、マスキング処理した前記少なくとも2つの画像間の差に基づいて前記車両の転回方向を推定する
    ことを特徴とする画像処理装置。
  9. 請求項に記載の画像処理装置であって、
    前記処理部は、前記転回方向に応じて、前記少なくとも2つの画像を相関させる方向を移動させる
    ことを特徴とする画像処理装置。
  10. 請求項またはに記載の画像処理装置であって、
    記処理部は、面対称となる前記透過部それぞれを通して取得した画像それぞれの間の差分に基づいて前記車両の進行方向を推定する
    ことを特徴とする画像処理装置。
JP2021050360A 2021-03-24 2021-03-24 画像処理装置 Active JP7256835B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021050360A JP7256835B2 (ja) 2021-03-24 2021-03-24 画像処理装置
US17/693,543 US20220309796A1 (en) 2021-03-24 2022-03-14 Image processing apparatus
CN202210256571.6A CN115131976A (zh) 2021-03-24 2022-03-16 图像处理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021050360A JP7256835B2 (ja) 2021-03-24 2021-03-24 画像処理装置

Publications (2)

Publication Number Publication Date
JP2022148611A JP2022148611A (ja) 2022-10-06
JP7256835B2 true JP7256835B2 (ja) 2023-04-12

Family

ID=83364802

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021050360A Active JP7256835B2 (ja) 2021-03-24 2021-03-24 画像処理装置

Country Status (3)

Country Link
US (1) US20220309796A1 (ja)
JP (1) JP7256835B2 (ja)
CN (1) CN115131976A (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016126662A (ja) 2015-01-07 2016-07-11 株式会社リコー 地図生成装置、地図生成方法およびプログラム
WO2019202397A2 (en) 2018-04-18 2019-10-24 Mobileye Vision Technologies Ltd. Vehicle environment modeling with a camera
JP2020126432A (ja) 2019-02-04 2020-08-20 パナソニックIpマネジメント株式会社 画像処理システム、画像処理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016126662A (ja) 2015-01-07 2016-07-11 株式会社リコー 地図生成装置、地図生成方法およびプログラム
WO2019202397A2 (en) 2018-04-18 2019-10-24 Mobileye Vision Technologies Ltd. Vehicle environment modeling with a camera
JP2020126432A (ja) 2019-02-04 2020-08-20 パナソニックIpマネジメント株式会社 画像処理システム、画像処理方法

Also Published As

Publication number Publication date
CN115131976A (zh) 2022-09-30
US20220309796A1 (en) 2022-09-29
JP2022148611A (ja) 2022-10-06

Similar Documents

Publication Publication Date Title
US11657604B2 (en) Systems and methods for estimating future paths
US10055650B2 (en) Vehicle driving assistance device and vehicle having the same
US9736364B2 (en) Camera capable of reducing motion blur in a low luminance environment and vehicle including the same
KR101359660B1 (ko) 헤드업 디스플레이를 위한 증강현실 시스템
US10887568B2 (en) Image processing apparatus, and image processing method
KR101587147B1 (ko) 차량용 어라운드뷰 제공 장치 및 이를 구비한 차량
US20150341620A1 (en) Stereo camera and driver assistance apparatus and vehicle including the same
US20180134285A1 (en) Autonomous driving apparatus and vehicle including the same
JP2004056763A (ja) 監視装置、監視方法および監視用プログラム
US20200193570A1 (en) Image processing device, image processing method, and program
JP5516988B2 (ja) 駐車支援装置
JP7426174B2 (ja) 車両周囲画像表示システム及び車両周囲画像表示方法
CN105793909B (zh) 用于借助车辆周围环境的通过摄像机采集的两个图像产生警告的方法和设备
WO2017195459A1 (ja) 撮像装置、および撮像方法
KR20190067578A (ko) 오버랩 촬영 영역을 가지는 이종 카메라를 이용한 충돌 경고 장치 및 방법
JP2022139524A (ja) 運転支援装置及び記録媒体
JP7409309B2 (ja) 情報処理装置と情報処理方法とプログラム
JP7256835B2 (ja) 画像処理装置
KR20150072942A (ko) 차량 운전 보조 장치 및 이를 구비한 차량
KR20150074753A (ko) 차량 운전 보조 장치 및 이를 구비한 차량
JP7322651B2 (ja) 障害物認識装置
JP7185571B2 (ja) 視認方向推定装置、視認方向推定方法、およびプログラム
KR20190066396A (ko) 이종 카메라를 이용한 충돌 경고 방법 및 장치
CN111465818B (zh) 图像处理设备、图像处理方法、程序和信息处理系统
EP3789908A1 (en) Mono vision system and method for a motor vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230320

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230331

R150 Certificate of patent or registration of utility model

Ref document number: 7256835

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150