JP2022188909A - 移動物体検出装置、移動物体認識システム、移動物体検出方法およびコンピュータプログラム - Google Patents

移動物体検出装置、移動物体認識システム、移動物体検出方法およびコンピュータプログラム Download PDF

Info

Publication number
JP2022188909A
JP2022188909A JP2021097193A JP2021097193A JP2022188909A JP 2022188909 A JP2022188909 A JP 2022188909A JP 2021097193 A JP2021097193 A JP 2021097193A JP 2021097193 A JP2021097193 A JP 2021097193A JP 2022188909 A JP2022188909 A JP 2022188909A
Authority
JP
Japan
Prior art keywords
motion vector
moving object
moving
image
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021097193A
Other languages
English (en)
Inventor
竜彦 田中
Tatsuhiko Tanaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2021097193A priority Critical patent/JP2022188909A/ja
Publication of JP2022188909A publication Critical patent/JP2022188909A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】移動体に搭載されたカメラが任意の方向に移動した場合であっても、任意の方向に移動する物体を検出することのできる移動物体検出装置を提供する。【解決手段】移動物体検出装置は、移動体に搭載されたカメラを用いて撮影された画像を取得する画像取得部と、移動体の移動速度を取得する速度取得部と、移動体の移動方向を取得する方向取得部と、対象時刻においてカメラを用いて撮影された対象画像に含まれる物体までの距離を取得する距離取得部と、対象時刻とは異なる第1時刻においてカメラを用いて撮影された第1画像と、移動速度および移動方向と、物体までの距離とに基づいて、物体の動きベクトルを予測する動きベクトル予測部と、第1画像および対象画像に基づいて、物体の動きベクトルを算出する動きベクトル算出部と、予測された動きベクトルおよび算出された動きベクトルに基づいて、対象画像から移動物体を検出する移動物体検出部とを備える。【選択図】図3

Description

本開示は、移動物体検出装置、移動物体認識システム、移動物体検出方法およびコンピュータプログラムに関する。
従来、自動車などの車両に搭載されたカメラにより撮影され、出力される画像データを効率的に圧縮する方法として、車両の移動速度を用いた圧縮方法が提案されている(例えば、特許文献1参照)。
特開2012-151711号公報
特許文献1記載の画像圧縮方法では、スピードメータにより測定された車両の移動速度の情報を映像符号化の動き補償に用い、車両の移動速度に応じて画像に含まれる物体を拡大または縮小することにより、動画像圧縮時の処理負荷の低減を行っている。
しかしながら、特許文献1では、自車両が直進方向に走行することを想定しており、対象とする物体は静止物、追い越し車両または対向車両に限定されている。つまり、物体の移動方向は自車両の直進方向または直進方向と反対の方向に限定されている。このため、自車両が左折または右折等して直進方向とは異なる方向に進行した場合には、特許文献1記載の画像圧縮方法を動画像圧縮に適用することができない。
また、横断歩道を横切る物体(他車両、自転車または歩行者など)などのように画像中で直進方向とは異なる方向または直進方向と反対の方向とは異なる方向に移動する物体に対しても、特許文献1記載の画像圧縮方法は適用できない。これは、特許文献1では移動物体の向きを限定しているからである。
このように、特許文献1によるとカメラが任意の移動している状況において静止物体と移動物体とを見分けることは困難である。
本開示は、このような事情に鑑みてなされたものであり、移動体に搭載されたカメラが任意の方向に移動した場合であっても、任意の方向に移動する物体を検出することのできる移動物体検出装置、移動物体認識システム、移動物体検出方法およびコンピュータプログラムを提供することを目的とする。
本開示の一態様に係る移動物体検出装置は、移動体に搭載されたカメラを用いて撮影された画像を取得する画像取得部と、前記移動体の移動速度を取得する速度取得部と、前記移動体の移動方向を取得する方向取得部と、対象時刻において前記カメラを用いて撮影された対象画像に含まれる物体までの距離を取得する距離取得部と、前記対象時刻とは異なる第1時刻において前記カメラを用いて撮影された第1画像と、前記移動速度および前記移動方向と、前記物体までの距離とに基づいて、前記物体の動きベクトルを予測する動きベクトル予測部と、前記第1画像および前記対象画像に基づいて、前記物体の動きベクトルを算出する動きベクトル算出部と、予測された前記動きベクトルおよび算出された前記動きベクトルに基づいて、前記対象画像から移動物体を検出する移動物体検出部とを備える。
本開示の一態様に係る移動物体認識システムは、上述の移動物体検出装置と、前記移動物体検出装置により検出された移動物体の位置の情報に基づいて、前記移動物体が検出された対象画像に含まれる前記移動物体を認識する移動物体認識装置とを備える。
本開示の他の態様に係る移動物体検出方法は、移動体に搭載されたカメラを用いて撮影された画像を取得するステップと、前記移動体の移動速度を取得するステップと、前記移動体の移動方向を取得するステップと、対象時刻において前記カメラを用いて撮影された対象画像に含まれる物体までの距離を取得するステップと、前記対象時刻とは異なる第1時刻において前記カメラを用いて撮影された第1画像と、前記移動速度および前記移動方向と、前記物体までの距離とに基づいて、前記物体の動きベクトルを予測するステップと、前記第1画像および前記対象画像に基づいて、前記物体の動きベクトルを算出するステップと、予測された前記動きベクトルおよび算出された前記動きベクトルに基づいて、前記対象画像から移動物体を検出するステップとを含む。
本開示の他の態様に係るコンピュータプログラムは、コンピュータを、移動体に搭載されたカメラを用いて撮影された画像を取得する画像取得部、前記移動体の移動速度を取得する速度取得部、前記移動体の移動方向を取得する方向取得部、対象時刻において前記カメラを用いて撮影された対象画像に含まれる物体までの距離を取得する距離取得部、前記対象時刻とは異なる第1時刻において前記カメラを用いて撮影された第1画像と、前記移動速度および前記移動方向と、前記物体までの距離とに基づいて、前記物体の動きベクトルを予測する動きベクトル予測部、前記第1画像および前記対象画像に基づいて、前記物体の動きベクトルを算出する動きベクトル算出部、および予測された前記動きベクトルおよび算出された前記動きベクトルに基づいて、前記対象画像から移動物体を検出する移動物体検出部として機能させる。
なお、このようなコンピュータプログラムを、CD-ROM(Compact Disc-Read Only Memory)等のコンピュータ読取可能な非一時的な記録媒体やインターネット等の通信ネットワークを介して流通させることができるのは、言うまでもない。また、本開示は、移動物体検出装置の一部又は全部を実現する半導体集積回路として実現したり、移動物体検出装置を含むシステムとして実現したりすることもできる。
本開示によると、移動体に搭載されたカメラが任意の方向に移動した場合であっても、任意の方向に移動する物体を検出することができる。
図1は、本開示の実施形態1に係る運転支援システムの全体構成を示す図である。 図2は、本開示の実施形態1に係る車載システムの構成の一例を示すブロック図である。 図3は、プロセッサの機能的な構成を示すブロック図である。 図4は、道路を走行する車両を上方から見た模式図である。 図5は、対象時刻および第2時刻における車両の位置関係の一例を示す図である。 図6Aは、第2時刻において車両に搭載されたカメラにより撮影された画像の一例を示す図である。 図6Bは、対象時刻において車両に搭載されたカメラにより撮影された画像の一例を示す図である。 図7Aは、対象時刻よりも過去の第1時刻において撮影された第1画像の一例を示す図である。 図7Bは、動きベクトル予測部が予測した対象画像の一例を示す図である。 図7Cは、動きベクトル予測部が予測した動きベクトルの一例を示す図である。 図8は、動きベクトル予測部による対象画像および動きベクトルの予測方法について説明するための図である。 図9Aは、走行中の車両から撮影した第1画像の一例を示す図である。 図9Bは、走行中の車両から撮影した対象画像の一例を示す図である。 図10は、図9Aに示した第1画像を用いて予測された対象画像における予測動きベクトルの一例を示す図である。 図11は、図9Aに示した第1画像と図9Bに示した対象画像とに基づいて算出された算出動きベクトルの一例を示す図である。 図12Aは、走行中の車両から撮影した第1画像の一例を示す図である。 図12Bは、走行中の車両から撮影した対象画像の一例を示す図である。 図13は、図12Aに示した第1画像を用いて予測された対象画像における予測動きベクトルの一例を示す図である。 図14は、図12Aに示した第1画像と図12Bに示した対象画像とに基づいて算出された算出動きベクトルの一例を示す図である。 図15は、本開示の実施形態1に係る車載システムの処理手順の一例を示すフローチャートである。 図16は、移動物体検出処理(図15のステップS1)の一例を示すフローチャートである。 図17は、画像処理(図15のステップS2)の一例を示すフローチャートである。 図18は、移動物体認識処理(図15のステップS3)の一例を示すフローチャートである。
[本開示の実施形態の概要]
最初に本開示の実施形態の概要を列記して説明する。
(1)本開示の一実施形態に係る移動物体検出装置は、移動体に搭載されたカメラを用いて撮影された画像を取得する画像取得部と、前記移動体の移動速度を取得する速度取得部と、前記移動体の移動方向を取得する方向取得部と、対象時刻において前記カメラを用いて撮影された対象画像に含まれる物体までの距離を取得する距離取得部と、前記対象時刻とは異なる第1時刻において前記カメラを用いて撮影された第1画像と、前記移動速度および前記移動方向と、前記物体までの距離とに基づいて、前記物体の動きベクトルを予測する動きベクトル予測部と、前記第1画像および前記対象画像に基づいて、前記物体の動きベクトルを算出する動きベクトル算出部と、予測された前記動きベクトルおよび算出された前記動きベクトルに基づいて、前記対象画像から移動物体を検出する移動物体検出部とを備える。
この構成によると、動きベクトル予測部により、カメラが移動体の移動速度および移動方向で移動したと仮定し、対象画像に含まれる物体が静止物体であると仮定した場合の動きベクトルが予測される。また、動きベクトル算出部により、2枚の画像から物体の動きベクトルが算出される。物体が静止している場合には、その物体に対する予測された動きベクトルと算出された動きベクトルとは一致するはずである。一方、物体が移動している場合には、予測された動きベクトルと算出された動きベクトルとは異なるはずである。このため、移動物体検出部は、予測された動きベクトルと算出された動きベクトルとから、物体が移動物体であるか静止物体であるかを判断することができる。よって、移動体に搭載されたカメラが任意の方向に移動した場合であっても、任意の方向に移動する物体を検出することができる。なお、第1時刻は、対象時刻に対して過去の時刻であってもよいし、未来の時刻であってもよい。
(2)好ましくは、前記速度取得部は、さらに、前記物体の移動速度を取得し、前記距離取得部は、前記対象画像および前記対象時刻とは異なる第2時刻において撮影された第2画像における前記物体のサイズと、前記移動体および前記物体の移動速度とに基づいて、前記物体までの距離を算出する。
この構成によると、カメラが移動した場合であっても、物体までの距離を正確に算出することができる。これにより、物体の動きベクトルを正確に予測することができる。なお、第2時刻は、対象時刻に対して過去の時刻であってもよいし、未来の時刻であってもよい。また、第2時刻は、第1時刻と同じ時刻であってもよいし、異なる時刻であってもよい。第2時刻が第1時刻と同じ時刻の場合には、第2画像と第1画像とは同じ画像を示す。
(3)さらに好ましくは、前記移動物体検出部は、予測された前記動きベクトルと算出された前記動きベクトルの大きさの差に基づいて、前記対象画像から移動物体を検出する。
この構成によると、予測された動きベクトルと算出された動きベクトルとの異同を正確に検出することができる。これにより、移動物体を正確に検出することができる。
(4)また、移動物体検出装置は、前記対象画像を圧縮する画像圧縮部をさらに備え、前記画像圧縮部は、検出された前記移動物体を含まない領域を、前記移動物体を含む領域よりも高い圧縮率で圧縮してもよい。
この構成によると、移動物体を含む領域を移動物体を含まない領域に比べ低圧縮率で圧縮するか、移動物体を含む領域を圧縮することなく、画像全体を圧縮することができる。このため、圧縮された移動物体を含む領域を伸張したとしても、当該領域の明瞭さが失われることがない。よって、伸張後の画像から移動物体を正確に認識することができる。
(5)また、移動物体検出装置は、圧縮された前記対象画像に、検出された前記移動物体の位置の情報を付加する情報付加部をさらに備えてもよい。
この構成によると、付加された情報に基づいて移動物体の認識処理を行うことにより、効率的かつ正確に移動物体を認識することができる。
(6)また、前記動きベクトル予測部は、前記第1画像と、前記移動速度および前記移動方向と、前記物体までの距離とに基づいて、前記対象画像における前記物体の位置を予測し、予測された前記物体の位置と、前記第1画像に含まれる前記物体の位置とに基づいて、前記動きベクトルを予測してもよい。
この構成によると、カメラが任意の速度で任意の方向に移動した場合であっても、物体を静止物体と仮定した場合の動きベクトルを正確に予測することができる。
(7)本開示の他の実施形態に係る移動物体認識システムは、上述の移動物体検出装置と、前記移動物体検出装置により検出された移動物体の位置の情報に基づいて、前記移動物体が検出された対象画像に含まれる前記移動物体を認識する移動物体認識装置とを備える。
この構成によると、移動物体の位置の情報に基づいて移動物体の認識処理を行うことにより、効率的かつ正確に移動物体を認識することができる。
(8)本開示の他の実施形態に係る移動物体検出方法は、移動体に搭載されたカメラを用いて撮影された画像を取得するステップと、前記移動体の移動速度を取得するステップと、前記移動体の移動方向を取得するステップと、対象時刻において前記カメラを用いて撮影された対象画像に含まれる物体までの距離を取得するステップと、前記対象時刻とは異なる第1時刻において前記カメラを用いて撮影された第1画像と、前記移動速度および前記移動方向と、前記物体までの距離とに基づいて、前記物体の動きベクトルを予測するステップと、前記第1画像および前記対象画像に基づいて、前記物体の動きベクトルを算出するステップと、予測された前記動きベクトルおよび算出された前記動きベクトルに基づいて、前記対象画像から移動物体を検出するステップとを含む。
この構成は、上述の移動物体検出装置における特徴的な処理をステップとして含む。このため、この構成によると、上述の移動物体検出装置と同様の作用および効果を奏することができる。
(9)本開示の他の実施形態に係るコンピュータプログラムは、コンピュータを、移動体に搭載されたカメラを用いて撮影された画像を取得する画像取得部、前記移動体の移動速度を取得する速度取得部、前記移動体の移動方向を取得する方向取得部、対象時刻において前記カメラを用いて撮影された対象画像に含まれる物体までの距離を取得する距離取得部、前記対象時刻とは異なる第1時刻において前記カメラを用いて撮影された第1画像と、前記移動速度および前記移動方向と、前記物体までの距離とに基づいて、前記物体の動きベクトルを予測する動きベクトル予測部、前記第1画像および前記対象画像に基づいて、前記物体の動きベクトルを算出する動きベクトル算出部、および予測された前記動きベクトルおよび算出された前記動きベクトルに基づいて、前記対象画像から移動物体を検出する移動物体検出部として機能させる。
この構成によると、コンピュータを、上述の移動物体検出装置として機能させることができる。このため、上述の移動物体検出装置と同様の作用および効果を奏することができる。
[本開示の実施形態の詳細]
以下、本開示の実施形態について、図面を参照しながら説明する。なお、以下で説明する実施形態は、いずれも本開示の一具体例を示すものである。以下の実施形態で示される数値、形状、材料、構成要素、構成要素の配置位置および接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定するものではない。また、以下の実施形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意に付加可能な構成要素である。また、各図は、模式図であり、必ずしも厳密に図示されたものではない。
また、同一の構成要素には同一の符号を付す。それらの機能および名称も同様であるため、それらの説明は適宜省略する。
<実施形態1>
〔運転支援システムの全体構成〕
図1は、本開示の実施形態1に係る運転支援システムの全体構成を示す図である。
図1を参照して、運転支援システム1は、無線通信が可能な道路上を走行する複数の車両2と、車両2と無線通信する1または複数の基地局6と、基地局6とインターネット等のネットワーク5を介して有線または無線で通信するサーバ4とを備える。
基地局6は、マクロセル基地局、マイクロセル基地局、およびピコセル基地局などからなる。
車両2には、通常の乗用車だけでなく、路線バスや緊急車両などの公共車両も含まれる。また、車両2は、四輪車だけでなく、二輪車(バイク)であってもよい。
各車両2は、後述するようにカメラを含む車載システム3を備えており、カメラで車両2の周囲を撮影することにより得られる画像データ(以下では、単に「画像」という)を圧縮し、圧縮済みの画像を、ネットワーク5を介してサーバ4に送信する。
サーバ4は、ネットワーク5を介して、各車両2から、圧縮済み画像を受信し、受信した圧縮済み画像を伸張する。サーバ4は、伸張した画像に対して、所定の画像処理を施す。例えば、画像から、車両2、人間などの移動物体を認識する認識処理を実行し、認識結果を地図データ上に反映させた動的マップを作成する。サーバ4は、作成した動的マップを、各車両2に送信する。
各車両2は、サーバ4から動的マップを受信し、受信した動的マップに基づいて、車両2の運転支援処理等を行う。
〔車両2の構成〕
図2は、本開示の実施形態1に係る車載システム3の構成の一例を示すブロック図である。
図2に示すように、車両2の車載システム3は、カメラ31と、通信部32と、クロック33と、制御部(ECU:Electronic Control Unit)34と、衛星信号受信機37と、ジャイロセンサ38と、速度センサ39と、自動運転処理部51とを備える。
カメラ31は、車両2の周囲(特に、車両2の前方)の映像を取り込む画像センサよりなる。カメラ31は、単眼である。ただし、カメラ31は、複眼であってもよい。映像は、時系列の複数の画像より構成される。
通信部32は、例えば5G(第5世代移動通信システム)対応の通信処理が可能な無線通信機よりなる。なお、通信部32は、車両2に既設の無線通信機であってもよいし、搭乗者が車両2に持ち込んだ携帯端末であってもよい。
搭乗者の携帯端末は、車両2の車内LAN(Local Area Network)に接続されることにより、一時的に車載の無線通信機となる。
クロック33は、現在の時刻を計時する。
制御部34は、車両2の各機器31~33、37~39の制御を行うコンピュータ装置よりなる。制御部34は、衛星信号受信機37が定期的に取得するGPS(Global Positioning System)信号などの衛星信号に基づいて自車両の車両位置を求める。なお、制御部34は、衛星信号受信機37が準天頂衛星から受信したGPS補完信号またはGPS補強信号を合わせて用いることで、GPS信号を補完したり、自車両の車両位置を補正したりしてもよい。なお、車両位置は、車線を区別できる程度の位置精度を有しているのが好ましい。
制御部34は、ジャイロセンサ38および速度センサ39の入力信号に基づいて、車両2の位置および方向を補完し、車両2の正確な現在位置および方向を把握する。ここで、車両2の現在位置は、例えば、緯度および経度により示される。また、車両2の方向は、例えば、北を0度とする時計回りの0度~360度の範囲の角度で示される。
衛星信号受信機37、ジャイロセンサ38および速度センサ39は、車両2の現在位置、方向および速度を計測するセンサ類である。
制御部34は、プロセッサ35と、メモリ36とを備える。
プロセッサ35は、メモリ36に格納されたコンピュータプログラムを実行するマイクロコンピュータなどの演算処理装置である。
メモリ36は、SRAM(Static RAM)またはDRAM(Dynamic RAM)などの揮発性のメモリ素子、フラッシュメモリ若しくはEEPROM(Electrically Erasable Programmable Read Only Memory)などの不揮発性のメモリ素子、または、ハードディスクなどの磁気記憶装置などにより構成されている。メモリ36は、制御部34で実行されるコンピュータプログラムや、制御部34におけるコンピュータプログラム実行時に生成されるデータ等を記憶する。
自動運転処理部51は、後述するように制御部34から圧縮済み画像を受け、圧縮済み画像を伸張した後に、当該画像に含まれる移動物体を認識する処理を実行し、車両2の自動運転を支援する処理を行う。つまり、自動運転処理部51は、移動物体との衝突を回避するために、操舵角、速度等を制御する指令を、車両2に搭載された制御系ECUに送信する。自動運転処理部51による、伸張処理および物体認識処理については後述する。
なお、自動運転処理部51は、制御部34と同様に、プロセッサおよびメモリを備え、メモリに格納されたコンピュータプログラムを実行することによりその機能を発揮する。ただし、自動運転処理部51の一部または全部がハードウェアにより構成されていてもよい。
〔プロセッサ35の機能構成〕
図3は、プロセッサ35の機能的な構成を示すブロック図である。
図3を参照して、プロセッサ35は、メモリ36に記憶されたコンピュータプログラムを実行することにより実現される機能的な処理部として、画像取得部41と、速度取得部42と、方向取得部43と、時刻取得部44と、距離取得部45と、動きベクトル予測部46と、動きベクトル算出部47と、移動物体検出部48と、画像圧縮部49と、情報付加部50とを備える。
画像取得部41は、カメラ31が撮影した車両2の前方の画像を時系列で順次取得する。
速度取得部42は、速度センサ39から車両2の速度を取得する。また、速度取得部42は、図示しないミリ波レーダセンサなどの速度を測定可能なセンサから車両2の前方を走行する他の車両2の速度情報を取得する。
方向取得部43は、ジャイロセンサ38から車両2の移動方向情報を取得する。なお、方向取得部43は、車両2に加速度センサが備えられている場合には、加速度センサの計測結果を考慮して移動方向情報を修正してもよい。
時刻取得部44は、クロック33から現在時刻、つまり、カメラ31の撮影時刻を取得する。
距離取得部45は、画像取得部41が取得した時系列の画像と、速度取得部42が取得した車両2の速度と、時刻取得部44が取得した時刻とに基づいて、車両2から画像中に含まれる物体までの距離を算出することにより、当該距離情報を取得する。
以下、距離取得部45による車両2から車両2の前方の物体までの距離の算出方法について説明する。
図4は、道路を走行する車両2を上方から見た模式図である。道路61上を車両2、62~65が走行している。ここで、車両62は、車両2と同一の車線を走行する前方車両であり、車両63~65は、車両2の対向車線を走行する対向車両である。
物体の距離を算出する対象時刻における各車両の位置を実線で示し、対象時刻よりも過去の時刻(以下、「第2時刻」という。)における各車両の位置を破線で示している。ただし、第2時刻は、対象時刻よりも未来の時刻であってもよい。
図5は、対象時刻および第2時刻における車両2および車両62の位置関係の一例を示す図である。
車両2は、第2時刻から対象時刻までの時間tの間に、速度v1で走行し距離d1だけ移動したものとする。また、車両62は、同じ時間tの間に、速度v2で走行し距離d2だけ移動したものとする。対象時刻における車両2の先頭位置と、第2時刻における車両2の後端位置との間の距離をd2とし、対象時刻における車両2から車両62までの距離をxとする。
図6Aは、第2時刻において車両2に搭載されたカメラ31により撮影された画像(以下、「第2画像」という。)の一例を示す図である。図6Bは、対象時刻において車両2に搭載されたカメラ31により撮影された画像(以下、「対象画像」という。)の一例を示す図である。
図6Aに示す第2画像には車両62の像が含まれており、当該像の幅(画素数)はw1であるものとする。また、図6Bに示す対象画像には車両62の像が含まれており、当該像の幅はw2であるものとする。距離取得部45は、各画像に対して所定の画像処理を行うことにより、車両62の幅を算出するものとする。例えば、距離取得部45は、各画像に対してエッジ検出処理や領域分割処理を行うことにより、車両62の領域を抽出し、当該領域の幅を算出してもよい。
距離取得部45は、以下の式1に従い、距離xを算出する。
x=(v2-v1)×t/(1-w2/w1) …(式1)
ここで、xは以下の式2から式5を変形することにより求められる。
x=d2+d3 …(式2)
d1=v1×t …(式3)
d2=v2×t …(式4)
w2/w1=(d1+d3)/(d2+d3) …(式5)
なお、距離取得部45は、車両63~65についても、同様にして各車両までの距離を算出することができる。
再び図3を参照して、動きベクトル予測部46は、画像取得部41が取得した時系列の画像と、速度取得部42が取得した車両2の速度と、方向取得部43が取得した車両2の方向と、時刻取得部44が取得した時刻とに基づいて、画像に含まれる物体の動きを示す動きベクトルを予測する。ここで、動きベクトル予測部46は、速度取得部42及び方向取得部43がそれぞれリアルタイムで取得した車両2の速度及び方向を用いて動きベクトルを予測する。ただし、動きベクトル予測部46は、速度取得部42及び方向取得部43がそれぞれ過去に取得した車両2の速度及び方向から、現在時刻における車両2の速度及び方向をそれぞれ予測し、予測した速度及び方向を用いて動きベクトルを予測してもよい。例えば、動きベクトル予測部46は、複数の時刻において速度取得部42が取得した車両2の速度から車両2の加速度を算出し、取得された最新の車両2の速度と算出した車両2の加速度とから現在時刻の車両2の速度を予測してもよい。また、動きベクトル予測部46は、複数の時刻において方向取得部43が取得した車両2の方向から車両2の角加速度を算出し、取得された最新の車両2の方向と算出した車両2の角加速度とから現在時刻の車両2の方向を予測してもよい。
なお、速度取得部42は、図示しないミリ波レーダセンサなどの速度を測定可能なセンサから車両2の前方を走行する他の車両2の車幅および車高を取得してもよい。
以下、動きベクトル予測部46による動きベクトルの予測方法の一例について説明する。
図7Aは、対象時刻よりも過去の時刻(以下、「第1時刻」という。)において撮影された画像(以下、「第1画像」という。)の一例を示す図である。第1画像には、車両2の前方を走行する車両Bが映っているものとする。なお、第1時刻は、第2時刻と同じ時刻であってもよいし、異なる時刻であってもよい。また、第1時刻は、対象時刻よりも未来の時刻であってもよい。
図7Bは、動きベクトル予測部46が予測した対象画像の一例を示す図である。動きベクトル予測部46は、第1画像と、車両2の速度および方向と、車両2から車両Bまでの距離とに基づいて、対象時刻における車両Bの位置を予測する。車両Bの位置の予測方法については後述する。
図7Cは、動きベクトル予測部46が予測した動きベクトルの一例を示す図である。つまり、動きベクトル予測部46は、予測された対象画像における車両Bの各位置から第1画像における車両Bの対応する各位置に向かうベクトルを動きベクトル71として予測する。
図8は、動きベクトル予測部46による対象画像および動きベクトルの予測方法について説明するための図である。
図8の(A)は、自車両である車両Aを上方から見た上面図の一例を示す。上面図には、車両Aの他、車両Aの前方に位置する車両Bを示している。
図8の(B)は、車両Aに搭載されたカメラ31が撮影した画像における車両Bの投影図を示す。
図8の(C)は、車両Aおよび車両Bを側面から見た側面図の一例を示す。
図8の(D)は、車両Aに搭載されたカメラ31が撮影した画像における車両Bの車高方向の投影図を示す。
以下では、自車両である車両Aが右に曲がった場合の対象画像および動きベクトルの予測方法について説明する。つまり、車両Aが位置A1から位置A2に移動したとする。
なお、説明を簡単にするために、投影図(カメラ31が撮影した画像)の中心に一点透視図法の消失点(座標(x,y)=(0,0))があるとする。
車両Aは、位置A1から位置A2に、速度vおよび移動方向θで移動したとする。また、その移動時間はtであるとする。ここで、説明の簡略化のため、車両Aは、位置A1から位置A2まで直線的に移動しているものとする(距離da、傾きθの移動)。
図8上で、位置A2を位置A1に移動させると、相対的に位置A1は位置A1´に移動し、位置B1は位置B1´に移動したことと同じになる。ここで、位置A2を位置A1に移動させた後の位置をA2´と記載する。つまり、位置A2´と位置A1とは同じである。
位置A1において車両Aから撮影された画像(第1画像)における位置B1に存在する車両Bの左上隅座標を(x1,y1)とする。また、位置A2において車両Aから撮影された画像(対象画像)における位置B1における車両Bの左上隅座標を(x2,y2)とする。座標(x2,y2)は、位置A1(位置A2´)において車両Aから撮影された画像(対象画像)における位置B1´に存在する車両B1´の左上隅座標と同じである。
動きベクトル予測部46は、車両Bの左上隅座標における動きベクトルを(x1-x2,y1-y2)として算出する。ただし、ここでは、左方向および上方向を正とする。
次に、x1、y1、x2およびy2の算出方法について説明する。まず、図8に示す各変数の意味を説明する。なお、(A)の上面図において、位置A1に存在する車両Aの方向をy方向とし、水平面上でy方向に直交する方向をx方向とする。
d[m]:位置A1に存在する車両の先端から位置B1に存在する車両Bの後端までの距離
w[m]:車両Bの実際の車幅
w2[ピクセル]:車両Aから距離dだけ離れた車両Bの画像上での車幅
α[ピクセル/m]:w2とwの換算値(式14参照)
θa[ラジアン]:位置A2´に存在する車両Aの中心(カメラ31の位置)と位置B1に存在する車両Bの左端とを結ぶ直線と、上記中心と位置B1´に存在する車両Bの左端とを結ぶ直線とのなす角度
θb[ラジアン]:位置A2´に存在する車両Aの中心と位置B1に存在する車両Bの中心とを結ぶ直線と、上記中心と位置B1に存在する車両Bの左端とを結ぶ直線とのなす角度
θc[ラジアン]:位置A1に存在する車両Aの中心と位置B1に存在する車両Bの中心とを結ぶ直線と、位置A1に存在する車両Aの中心と位置B1に存在する車両Bの後方上端とを結ぶ直線とのなす角度
θd[ラジアン]:位置A1に存在する車両Aの中心と位置B1に存在する車両Bの後方上端とを結ぶ直線と、位置A1に存在する車両Aの中心と位置B1´に存在する車両Bの後方上端とを結ぶ直線とのなす角度
h[m]:車両Bの実際の車高
h2[ピクセル]:車両Aから距離dだけ離れた車両Bの画像上での車高
d2[m]:位置A1´に存在する車両Aの中心と位置B1´に存在する車両Bの左端とを結ぶ直線のy方向の距離
d3[m]:位置A1´に存在する車両Aの中心と位置B1´に存在する車両Bの左端とを結ぶ直線の距離
d4[m]:位置A1´に存在する車両Aの中心と位置B1´に存在する車両Bの左端とを結ぶ直線のx方向の距離
d5[m]:位置A1に存在する車両Aの中心から位置B1´に存在する車両Bの後端までの距離
動きベクトル予測部46は、以下の式6および式7に従ってx1およびy1を算出する。
x1=w2/2 …(式6)
y1=h2/2 …(式7)
また、動きベクトル予測部46は、以下の式8から式15を演算する。ここで、sqrt(a)はaの平方根を表す。
d3=sqrt((w/2)+d) …(式8)
θb=arcsin((w/2)/d3) …(式9)
d2=d3×cos(θ+θb) …(式10)
d5=d2-da …(式11)
d4=sqrt(d3-(da+d5)) …(式12)
tan(θa+θb)=d4/d5 …(式13)
α=w2/w=D/d …(式14)
tanθ=w/d=w2/D …(式15)
なお、w2とwとdとの対応関係を示す第1データベースがメモリ36にあらかじめ記憶されているものとする。動きベクトル予測部46は、第1データベースに基づいて、dとw2とからwを決定するものとする。同様に、h2とhとdとの対応関係を示す第2データベースがメモリ36にあらかじめ記憶されているものとする。動きベクトル予測部46は、第2データベースに基づいて、dとh2とからhを決定するものとする。
動きベクトル予測部46は、以下の式16に従ってx2を算出する。
x2=d×α×tan(θb+θa) …(式16)
また、動きベクトル予測部46は、以下の式17から式20を演算する。
(1/2)×h2/(d×α)=tan(θc) …(式17)
y2/(d×α)=tan(θc+θd) …(式18)
tan(θc)=h/2×1/d …(式19)
tan(θc+θd)=h/2×1/d5 …(式20)
動きベクトル予測部46は、以下の式21に従ってy2を算出する。
y2=tan(θc+θd)/tan(θc)×h2/2
=d/d5×h2/2 …(式21)
ここでは、位置B1に存在する車両Bの左上隅に着目して説明を行ったが、他の部分についても同様に画像上での座標を算出可能である。
再び図3を参照して、動きベクトル算出部47は、画像取得部41が取得した第1画像および対象画像に基づいて、物体の動きベクトルを算出する。例えば、第1画像を構成する複数のブロックの対象画像における対応位置をブロックマッチング処理を行うことにより探索することで動きベクトルを算出する。なお、動きベクトル算出部47は、例えば、動画像圧縮符号化の標準技術であるH.264/AVC(Advanced Video Coding)またはH.265/HEVC(High Efficiency Video Coding)で採用されている動き予測器の機能を用いて動きベクトルを算出してもよい。また、動きベクトル算出部47がハードウェアにより構成される場合には、動きベクトル算出部47が当該動き予測器を含んでいてもよい。
移動物体検出部48は、動きベクトル予測部46により予測された動きベクトル(以下、「予測動きベクトル」という。)と、動きベクトル算出部47により算出された動きベクトル(以下、「算出動きベクトル」という。)とに基づいて、対象画像から動きベクトルを検出する。
具体的には、移動物体検出部48は、画像中の座標ごとに、当該座標を終点とする予測動きベクトルおよび算出動きベクトルを比較する。ここで、予測動きベクトルが(xmv1,ymv1)であり、算出動きベクトルが(xmv2,ymv2)であるとする。移動物体検出部48は、以下の式22または式23を満たすか否かを判定する。ここで、THxおよびTHyはあらかじめ定められた閾値である。
|xmv1-xmv2|>THx …(式22)
|ymv1-ymv2|>THy …(式23)
移動物体検出部48は、式22または式23を満たす場合には、算出動きベクトルが移動物体の移動ベクトルであると判定し、式22および式23を満たさない場合には、算出動きベクトルが静止物体の移動ベクトルであると判定する。移動物体検出部48は、判定結果に基づいて、移動ベクトルの始点の座標をクラスタリングすることにより、移動物体を検出する。例えば、あらかじめ定められた距離の範囲内に存在する移動物体の移動ベクトルの始点の座標同士を同一のクラスタにクラスタリングすることにより、各クラスタに属する座標を同一の移動物体の座標と判定する。
以下、移動物体検出部48による移動物体の検出処理の具体例について説明する。
図9Aは、走行中の車両2から撮影した第1画像の一例を示す図である。図9Bは、走行中の車両2から撮影した対象画像の一例を示す図である。車両81は、車両2の前方を走行し、車両82は、車両2の対向車線を走行しているものとする。
図10は、図9Aに示した第1画像を用いて予測された対象画像における予測動きベクトルの一例を示す図である。予測動きベクトルは、ビル80の部分の動きベクトル90と、車両81の部分の動きベクトル91と、車両82の部分の動きベクトル92とを含む。動きベクトル91は、車両81が静止物体であると想定した場合の動きベクトルを示し、動きベクトル92は、車両82が静止物体であると想定した場合の動きベクトルを示している。
図11は、図9Aに示した第1画像と図9Bに示した対象画像とに基づいて算出された算出動きベクトルの一例を示す図である。算出動きベクトルは、ビル80の部分の動きベクトル93と、車両81の部分の動きベクトル94と、車両82の部分の動きベクトル95とを含む。
移動物体検出部48は、図10に示した予測動きベクトルと、図11に示した算出動きベクトルとを比較する。ビル80は静止物体である。このため、動きベクトル90と動きベクトル93とはほぼ同じであり、式22および式23を満たさない。一方、車両81は移動しているため、動きベクトル91および動きベクトル94は異なり、式22または式23を満たす。よって、移動物体検出部48は、動きベクトル94を、移動物体の動きベクトルであると判定する。同様に、車両82は移動しているため動きベクトル92および動きベクトル95は異なり、式22または式23を満たす。よって、移動物体検出部48は、動きベクトル95を、移動物体の動きベクトルであると判定する。移動物体検出部48は、移動物体の動きベクトル94および動きベクトル95のそれぞれの始点をクラスタリングすることにより、車両81および車両82を移動物体として検出する。
図12Aは、走行中の車両2から撮影した第1画像の一例を示す図である。図12Bは、走行中の車両2から撮影した対象画像の一例を示す図である。車両81は、車両2の前方を走行し、車両82は、車両2の対向車線を走行しているものとする。また、車両2は、第1時刻から対象時刻の間に左方向に移動したとする。
図13は、図12Aに示した第1画像を用いて予測された対象画像における予測動きベクトルの一例を示す図である。予測動きベクトルは、ビル80の部分の動きベクトル100と、車両81の部分の動きベクトル101と、車両82の部分の動きベクトル102とを含む。動きベクトル101は、車両81が静止物体であると想定した場合の動きベクトルを示し、動きベクトル102は、車両82が静止物体であると想定した場合の動きベクトルを示している。
図14は、図12Aに示した第1画像と図12Bに示した対象画像とに基づいて算出された算出動きベクトルの一例を示す図である。算出動きベクトルは、ビル80の部分の動きベクトル103と、車両81の部分の動きベクトル104と、車両82の部分の動きベクトル105とを含む。
移動物体検出部48は、図13に示した予測動きベクトルと、図14に示した算出動きベクトルとを比較する。ビル80は静止物体である。このため、動きベクトル100と動きベクトル103とはほぼ同じであり、式22および式23を満たさない。一方、車両81は移動しているため、動きベクトル101および動きベクトル104は異なり、式22または式23を満たす。よって、移動物体検出部48は、動きベクトル104を、移動物体の動きベクトルであると判定する。同様に、車両82は移動しているため動きベクトル102および動きベクトル105は異なり、式22または式23を満たす。よって、移動物体検出部48は、動きベクトル105を、移動物体の動きベクトルであると判定する。移動物体検出部48は、移動物体の動きベクトル104および動きベクトル105のそれぞれの始点をクラスタリングすることにより、車両81および車両82を移動物体として検出する。移動物体検出部48は、検出結果を、画像圧縮部49および情報付加部50に出力する。
再び図3を参照して、画像圧縮部49は、移動物体検出部48の検出結果に基づいて対象画像を圧縮する。例えば、画像圧縮部49は、検出された移動物体を含まない領域(以下、「非移動物体領域」という。)を、移動物体を含む領域(以下、「移動物体領域」という。)よりも高い圧縮率で圧縮する。具体的な一例として、画像圧縮部49は、対象画像をJPEG(Joint Photographic Experts Group)圧縮する場合に、量子化後のDC係数のレベル数を比較した場合に、非移動物体領域のほうが移動物体領域よりも小さくなるような量子化テーブルを用いて圧縮を行ってもよい。
移動物体領域は、例えば、移動物体の座標を含む矩形領域であり、非移動物体領域は、例えば、非移動物体の座標を含む矩形領域である。
なお、圧縮方法はJPEG圧縮に限定されるものではなく、圧縮率を変化させることのできる圧縮方法や、圧縮率の異なる2以上の圧縮方法を用いてもよい。例えば、画像をあらかじめ定められた複数のブロックに分割した場合に、移動物体領域を含むブロックについては圧縮率の低いVisually Lossless CompressionまたはVisually Reversible Compressionと呼ばれるアルゴリズムを用いてブロックデータを非可逆的に圧縮してもよい。また、移動物体領域を含まないブロックについては圧縮率の高いJPEG2000と呼ばれる圧縮方式に従ってブロックデータを圧縮してもよい。
また、画像圧縮部49は、非移動物体領域を縮小するダウンスケーリング処理を行うことにより圧縮を行ってもよいし、非移動物体領域の各画素の輝度値を示すビット数を低減して、階調度(色深度)を削減してもよい。また、非移動物体領域の時間的な間引き処理(例えば、時系列画像のうち偶数番目のフレームから得られた非移動物体領域を削除する処理)を行ってもよい。
情報付加部50は、画像圧縮部49により圧縮された対象画像に対し、移動物体の位置を示す情報を付加する。例えば、情報付加部50は、矩形の移動物体領域の左上隅座標と、矩形の横方向の幅および縦方向の幅を示す情報を、移動物体の位置を示す情報として、対象画像に付加する。また、移動物体領域がブロック単位で定められている場合には、情報付加部50は、移動物体領域を含むブロックの識別情報を、移動物体の位置を示す情報として、対象画像に付加してもよい。情報付加部50は、情報が付加された圧縮済みの対象画像を、自動運転処理部51に送信したり、メモリ36に記憶させたり、通信部32を介してサーバ4に送信する。
〔自動運転処理部51の構成〕
次に、図2に示した自動運転処理部51の構成について説明する。
図2を参照して、自動運転処理部51は、情報付加部50から受けた圧縮済み画像に付加された移動物体の位置を示す情報に基づいて、圧縮済み画像を復号する。つまり、自動運転処理部51は、移動物体領域に対しては移動物体領域を圧縮するのに用いた圧縮方法に対応する復号方法を用いて当該領域を復号する。また、自動運転処理部51は、非移動物体領域に対しては非移動物体領域を圧縮するのに用いた圧縮方法に対応する復号方法を用いて当該領域を復号する。
なお、移動物体領域がブロック単位で定められている場合には、自動運転処理部51は、ブロック単位で移動物体領域が含まれているかを判定し、移動物体領域が含まれるブロックに対しては、移動物体領域が含まれるブロックを圧縮するのに用いた圧縮方法に対応する復号方法を用いて当該ブロックを復号する。また、自動運転処理部51は、移動物体領域が含まれないブロックに対しては、移動物体領域が含まれないブロックを圧縮するのに用いた圧縮方法に対応する復号方法を用いて当該ブロックを復号する。
自動運転処理部51は、対象画像のうち、移動物体検出部48で検出された移動物体領域に対して、所定の画像認識処理を実行する。例えば、移動物体が車両2の場合には、車両2の位置、大きさ、速度、移動方向などを認識する。画像認識処理には、例えば、YOLOv3(You Only Look Once v3)などの機械学習モデルを用いてもよい。また、SVM(Support Vector Machine)やAdaBoostなどの識別モデルを用いてもよい。
自動運転処理部51は、自動運転OS(Operating System)に従い動作し、移動物体の認識結果に基づいて、車両2の自動運転制御を行う。自動運転処理部51は、移動物体の認識結果を通信部32を介してサーバ4に送信してもよい。
なお、自動運転処理部51は、対象画像のうち、移動物体検出部48で検出された移動物体領域以外の領域に対して、所定の画像認識処理を実行してもよい。例えば、移動物体検出部48は、交通信号機や道路標識などの静止物体の位置や、交通信号機や道路標識の示す情報などを認識する。当該画像認識処理は、移動物体に対する画像認識処理と同じモデルを用いてもよいし、異なるモデル(例えば、移動物体の認識モデルよりも簡易なモデル)を用いてもよい。
〔車載システム3の処理の流れ〕
図15は、本開示の実施形態1に係る車載システム3の処理手順の一例を示すフローチャートである。
車載システム3は、カメラ31が出力する画像から移動物体を検出する(ステップS1)。移動物体検出処理(ステップS1)の詳細については後述する。
車載システム3は、ステップS1で検出された移動物体に基づいて、画像を圧縮する(ステップS2)。画像圧縮処理(ステップS2)の詳細については後述する。
車載システム3は、カメラ31が出力する画像から、ステップS1で検出された移動物体を認識する(ステップS3)。移動物体認識処理(ステップS3)の詳細については後述する。
図16は、移動物体検出処理(図15のステップS1)の一例を示すフローチャートである。
画像取得部41は、カメラ31から画像を順次取得する(ステップS11)。
速度取得部42は、速度センサ39から車両2の移動速度を順次取得する(ステップS12)。
方向取得部43は、ジャイロセンサ38から車両2の移動方向を順次取得する(ステップS13)。
時刻取得部44は、クロック33から現在時刻を順次取得する(ステップS14)。
距離取得部45は、ステップS11で取得された画像と、ステップS12で取得された車両2の移動速度と、ステップS14で取得された時刻とに基づいて、車両2から、カメラ31により撮影された物体までの距離を算出する(ステップS15)。
動きベクトル予測部46は、ステップS11で取得された第1画像と、ステップS12で取得された車両2の移動速度と、ステップS13で取得された車両2の移動方向と、ステップS15で算出された物体までの距離とに基づいて、カメラ31により撮影された物体が静止していると仮定した場合の物体の位置を予測する(S16)。
動きベクトル予測部46は、第1画像と、ステップS16で予測された物体の位置とに基づいて、ステップS11で取得された対象画像に含まれる座標を始点とする動きベクトルを予測する(ステップS17)。
動きベクトル算出部47は、第1画像と対象画像とに基づいて、対象画像に含まれる座標を始点とする動きベクトルを算出する(ステップS18)。
移動物体検出部48は、画像中の座標ごとにステップS19からステップS22までの処理を繰り返し実行する(ループA)。
つまり、移動物体検出部48は、着目している座標を終点とする予測動きベクトルおよび算出動きベクトルを比較する(ステップS19)。すなわち、移動物体検出部48は、ステップS17において予測された予測動きベクトルおよびステップS18において算出された算出動きベクトルが式22または式23を満たすか否かを判定する。
移動物体検出部48は、式22または式23を満たす場合には、予測動きベクトルおよび算出動きベクトルが乖離していると判定し(ステップS20においてYES)、算出動きベクトルを移動物体の移動ベクトルであると判定する(ステップS21)。
また、移動物体検出部48は、式22および式23を満たさない場合には、予測動きベクトルおよび算出動きベクトルは乖離していないと判定し(ステップS20においてNO)、算出ベクトルを静止物体の移動ベクトルであると判定する(ステップS22)。
ループAの処理の後、移動物体検出部48は、移動物体の移動ベクトルの始点の座標をクラスタリングすることにより、移動物体領域を検出する。移動物体検出部48は、検出結果を画像圧縮部49、情報付加部50および自動運転処理部51に出力する(ステップS23)。
図17は、画像処理(図15のステップS2)の一例を示すフローチャートである。
画像圧縮部49は、処理対象の画像を構成する複数のブロックのそれぞれについて、ステップS31からステップS33までの処理を繰り返し実行する(ループB)。
つまり、画像圧縮部49は、移動物体検出部48から取得した移動物体領域の検出結果に基づいて、着目しているブロックが移動物体領域を含むか否かを判断する(ステップS31)。
着目ブロックが移動物体領域を含む場合には(ステップS31においてYES)、画像圧縮部49は、その着目ブロックを移動物体領域を含まないブロックに比べて圧縮率の低い圧縮方法を用いて符号化する(ステップS32)。
また、着目ブロックが移動物体領域を含まない場合には(ステップS31においてNO)、画像圧縮部49は、その着目ブロックを移動物体領域を含むブロックに比べて圧縮率の高い圧縮方法を用いて符号化する(ステップS33)。
ループBの処理の後、情報付加部50は、移動物体領域を含むブロックの識別情報(例えば、当該ブロックの画像中での位置情報)を移動物体の位置を示す情報として、圧縮済みの画像に付加する。情報付加部50は、情報が付加された圧縮済みの画像を、自動運転処理部51に送信し、メモリ36に記憶させ、通信部32を介してサーバ4に送信する(ステップS34)。
図18は、移動物体認識処理(図15のステップS3)の一例を示すフローチャートである。
自動運転処理部51は、処理対象の画像を構成する複数のブロックのそれぞれについて、ステップS41およびステップS42の処理を繰り返し実行する(ループC)。
つまり、自動運転処理部51は、情報付加部50から取得した圧縮済み画像に付加された移動物体の位置情報に基づいて、着目しているブロックが移動物体領域を含むか否かを判断する(ステップS41)。
着目ブロックが移動物体領域を含む場合には(ステップS41においてYES)、自動運転処理部51は、その着目ブロックを移動物体領域に対する符号化方法(図17のステップS32)に対応した復号化方法で伸張する(ステップS42)。
自動運転処理部51は、伸張した着目ブロックに対して、移動物体の位置、大きさ、速度、移動方向などを認識する画像認識処理を実行する。自動運転処理部51は、認識結果を、通信部32を介してサーバ4とに送信する(ステップS43)。
着目ブロックが移動物体領域を含まない場合には(ステップS41においてNO)、自動運転処理部51は、その着目ブロックを非移動物体領域に対する符号化方法(図17のステップS33)に対応した復号化方法で伸張する(ステップS44)。
自動運転処理部51は、伸張した着目ブロックに対して、交通信号機や道路標識などの静止物体の位置や、交通信号機や道路標識の示す情報などを認識する画像認識処理を実行する。自動運転処理部51は、認識結果を、通信部32を介してサーバ4とに送信する(ステップS45)。
ループCの処理の後、自動運転処理部51は、移動物体の認識結果を参照して、車両2の移動物体との衝突を回避するために、操舵角、速度等を制御する指令を、車両2に搭載された制御系ECUに送信する(ステップS46)。
〔実施形態1の効果等〕
以上説明したように、本開示の実施形態1によると、動きベクトル予測部46により、カメラ31が車両2の移動速度および移動方向で移動したと仮定し、対象画像に含まれる物体が静止物体であると仮定した場合の動きベクトルが予測される。また、動きベクトル算出部47により、2枚の画像から物体の動きベクトルが算出される。物体が静止している場合には、その物体に対する予測された動きベクトルと算出された動きベクトルとは一致するはずである。一方、物体が移動している場合には、予測された動きベクトルと算出された動きベクトルとは異なるはずである。このため、移動物体検出部48は、予測された動きベクトルと算出された動きベクトルとから、物体が移動物体であるか静止物体であるかを判断することができる。よって、移動体に搭載されたカメラ31が任意の方向に移動した場合であっても、任意の方向に移動する物体を検出することができる。
また、距離取得部45は、対象画像および第2画像における物体のサイズと、車両2および物体の移動速度とに基づいて、物体までの距離を算出する。このため、カメラ31が移動した場合であっても、物体までの距離を正確に算出することができる。これにより、物体の動きベクトルを正確に予測することができる。
また、移動物体検出部48は、予測された動きベクトルと算出された動きベクトルの大きさの差に基づいて、対象画像から移動物体を検出する。このため、予測された動きベクトルと算出された動きベクトルとの異同を正確に検出することができる。これにより、移動物体を正確に検出することができる。
また、画像圧縮部49は、移動物体を含まない領域を、移動物体を含む領域よりも高い圧縮率で圧縮する。つまり、画像圧縮部49は、移動物体を含む領域を移動物体を含まない領域に比べ低圧縮率で圧縮するか、移動物体を含む領域を圧縮することなく、画像全体を圧縮することができる。このため、圧縮された移動物体を含む領域を伸張したとしても、当該領域の明瞭さが失われることがない。よって、伸張後の画像から移動物体を正確に認識することができる。
また、情報付加部50は、圧縮済みの対象画像に、検出された移動物体の位置の情報を付加する。これにより、サーバ等で、圧縮済みの対象画像を処理する際に、付加された情報に基づいて移動物体の認識処理を行うことにより、効率的かつ正確に移動物体を認識することができる。
また、動きベクトル予測部46は、第1画像と、車両2の移動速度および移動方向と、物体までの距離とに基づいて、対象画像における物体の位置を予測し、予測された物体の位置と、第1画像に含まれる物体の位置とに基づいて、動きベクトルを予測する。これにより、カメラ31が任意の速度で任意の方向に移動した場合であっても、物体を静止物体と仮定した場合の動きベクトルを正確に予測することができる。
また、自動運転処理部51は、検出された移動物体の位置の情報に基づいて、対象画像に含まれる移動物体を認識する。このため、移動物体の位置の情報に基づいて移動物体の認識処理を行うことにより、効率的かつ正確に移動物体を認識することができる。
<実施形態2>
実施形態1では、カメラ31が撮影した画像から画像中の車両62までの距離を算出した。しかしながら、距離の算出方法はこれに限定されるものではない。例えば、車両2がミリ波レーダセンサや、LiDAR(Light Detection and Ranging)センサなどの距離測センサを備えており、距離測定センサを用いて車両62までの距離を測定してもよい。
距離取得部45は、距離測定センサから、車両2から画像中に含まれる物体までの距離を取得する。
その他の構成は、実施形態1と同様である。
<変形例1>
実施形態1および実施形態2では、ジャイロセンサ38が車両2に搭載されているものとしたが、ジャイロセンサ38は、カメラ31に内蔵されていてもよい。また、ジャイロセンサ38は、カメラ31を内蔵したスマートフォンやタブレット端末などの端末装置に内蔵されていてもよい。端末装置は、通信インタフェースを介して制御部34に接続されることにより、制御部34は、端末装置から画像や車両2の移動方向情報を取得する。
<変形例2>
実施形態1および実施形態2では、速度センサ39を用いて車両2の速度を計測することとしたが、衛星信号受信機37が受信した衛星信号に基づいて車両2の速度を計測してもよい。つまり、速度取得部42は、衛星信号に基づいて車両2の位置を測定し、複数の測定時刻における車両2の位置から、車両2の速度を計算してもよい。なお、みちびき(準天頂衛星システム)などの衛星信号を用いることにより、車両2の位置を高精度に測定可能となる。これにより、車両2の速度を高精度に計算することができる。
<変形例3>
実施形態1および実施形態2では、衛星信号受信機37が車両2に搭載されているものとしたが、衛星信号受信機37は、カメラ31に内蔵されていてもよい。また、衛星信号受信機37は、カメラ31を内蔵したスマートフォンやタブレット端末などの端末装置に内蔵されていてもよい。端末装置は、通信インタフェースを介して制御部34に接続されることにより、制御部34は、端末装置から画像や車両2の位置情報を取得する。
[付記]
以上、本開示の実施形態に係る運転支援システム1について説明したが、本開示は、この実施形態に限定されるものではない。
運転支援システム1の利用用途は、自動車などの車両用途に限定されるものではない。例えば、ドローンや、屋外または屋内を移動する移動ロボットなどに利用することも可能である。具体的には、工場内を移動するカメラ31を搭載されたカメラに車載システム3の機能が備えられ、他の移動ロボットとの衝突を防止しながら、移動制御を行う用途にも本開示は適用可能である。
上記の制御部34を構成する構成要素の一部または全部は、1または複数のシステムLSIなどの半導体装置から構成されていてもよい。
上記したコンピュータプログラムを、コンピュータ読取可能な非一時的な記録媒体、例えば、HDD、CD-ROM、半導体メモリなどに記録して流通させてもよい。また、コンピュータプログラムを、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送して流通させてもよい。
また、上記の制御部34は、複数のコンピュータ又は複数のプロセッサにより実現されてもよい。
また、上記の制御部34の一部または全部の機能がクラウドコンピューティングによって提供されてもよい。つまり、制御部34の一部または全部の機能がクラウドサーバにより実現されていてもよい。
さらに、上記実施形態および上記変形例の少なくとも一部を任意に組み合わせてもよい。
今回開示された実施形態はすべての点で例示であって制限的なものではないと考えられるべきである。本開示の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1 運転支援システム(移動物体認識システム)
2 車両
3 車載システム
4 サーバ
5 ネットワーク
6 基地局
31 カメラ
32 通信部
33 クロック
34 制御部
35 プロセッサ(移動物体検出装置)
36 メモリ
37 衛星信号受信機
38 ジャイロセンサ
39 速度センサ
41 画像取得部
42 速度取得部
43 方向取得部
44 時刻取得部
45 距離取得部
46 動きベクトル予測部
47 動きベクトル算出部
48 移動物体検出部
49 画像圧縮部
50 情報付加部
51 自動運転処理部(移動物体認識装置)
61 道路
62 車両
63 車両
64 車両
65 車両
71 動きベクトル
80 ビル
81 車両
82 車両
90 動きベクトル
91 動きベクトル
92 動きベクトル
93 動きベクトル
94 動きベクトル
95 動きベクトル
100 動きベクトル
101 動きベクトル
102 動きベクトル
103 動きベクトル
104 動きベクトル
105 動きベクトル

Claims (9)

  1. 移動体に搭載されたカメラを用いて撮影された画像を取得する画像取得部と、
    前記移動体の移動速度を取得する速度取得部と、
    前記移動体の移動方向を取得する方向取得部と、
    対象時刻において前記カメラを用いて撮影された対象画像に含まれる物体までの距離を取得する距離取得部と、
    前記対象時刻とは異なる第1時刻において前記カメラを用いて撮影された第1画像と、前記移動速度および前記移動方向と、前記物体までの距離とに基づいて、前記物体の動きベクトルを予測する動きベクトル予測部と、
    前記第1画像および前記対象画像に基づいて、前記物体の動きベクトルを算出する動きベクトル算出部と、
    予測された前記動きベクトルおよび算出された前記動きベクトルに基づいて、前記対象画像から移動物体を検出する移動物体検出部とを備える、移動物体検出装置。
  2. 前記速度取得部は、さらに、前記物体の移動速度を取得し、
    前記距離取得部は、前記対象画像および前記対象時刻とは異なる第2時刻において撮影された第2画像における前記物体のサイズと、前記移動体および前記物体の移動速度とに基づいて、前記物体までの距離を算出する、請求項1に記載の移動物体検出装置。
  3. 前記移動物体検出部は、予測された前記動きベクトルと算出された前記動きベクトルの大きさの差に基づいて、前記対象画像から移動物体を検出する、請求項1または請求項2に記載の移動物体検出装置。
  4. 前記対象画像を圧縮する画像圧縮部をさらに備え、
    前記画像圧縮部は、検出された前記移動物体を含まない領域を、前記移動物体を含む領域よりも高い圧縮率で圧縮する、請求項1から請求項3のいずれか1項に記載の移動物体検出装置。
  5. 圧縮された前記対象画像に、検出された前記移動物体の位置の情報を付加する情報付加部をさらに備える、請求項4に記載の移動物体検出装置。
  6. 前記動きベクトル予測部は、前記第1画像と、前記移動速度および前記移動方向と、前記物体までの距離とに基づいて、前記対象画像における前記物体の位置を予測し、予測された前記物体の位置と、前記第1画像に含まれる前記物体の位置とに基づいて、前記動きベクトルを予測する、請求項1から請求項5のいずれか1項に記載の移動物体検出装置。
  7. 請求項1から請求項6のいずれか1項に記載の移動物体検出装置と、
    前記移動物体検出装置により検出された移動物体の位置の情報に基づいて、前記移動物体が検出された対象画像に含まれる前記移動物体を認識する移動物体認識装置とを備える、移動物体認識システム。
  8. 移動体に搭載されたカメラを用いて撮影された画像を取得するステップと、
    前記移動体の移動速度を取得するステップと、
    前記移動体の移動方向を取得するステップと、
    対象時刻において前記カメラを用いて撮影された対象画像に含まれる物体までの距離を取得するステップと、
    前記対象時刻とは異なる第1時刻において前記カメラを用いて撮影された第1画像と、前記移動速度および前記移動方向と、前記物体までの距離とに基づいて、前記物体の動きベクトルを予測するステップと、
    前記第1画像および前記対象画像に基づいて、前記物体の動きベクトルを算出するステップと、
    予測された前記動きベクトルおよび算出された前記動きベクトルに基づいて、前記対象画像から移動物体を検出するステップとを含む、移動物体検出方法。
  9. コンピュータを、
    移動体に搭載されたカメラを用いて撮影された画像を取得する画像取得部、
    前記移動体の移動速度を取得する速度取得部、
    前記移動体の移動方向を取得する方向取得部、
    対象時刻において前記カメラを用いて撮影された対象画像に含まれる物体までの距離を取得する距離取得部、
    前記対象時刻とは異なる第1時刻において前記カメラを用いて撮影された第1画像と、前記移動速度および前記移動方向と、前記物体までの距離とに基づいて、前記物体の動きベクトルを予測する動きベクトル予測部、
    前記第1画像および前記対象画像に基づいて、前記物体の動きベクトルを算出する動きベクトル算出部、および
    予測された前記動きベクトルおよび算出された前記動きベクトルに基づいて、前記対象画像から移動物体を検出する移動物体検出部として機能させるための、コンピュータプログラム。
JP2021097193A 2021-06-10 2021-06-10 移動物体検出装置、移動物体認識システム、移動物体検出方法およびコンピュータプログラム Pending JP2022188909A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021097193A JP2022188909A (ja) 2021-06-10 2021-06-10 移動物体検出装置、移動物体認識システム、移動物体検出方法およびコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021097193A JP2022188909A (ja) 2021-06-10 2021-06-10 移動物体検出装置、移動物体認識システム、移動物体検出方法およびコンピュータプログラム

Publications (1)

Publication Number Publication Date
JP2022188909A true JP2022188909A (ja) 2022-12-22

Family

ID=84532667

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021097193A Pending JP2022188909A (ja) 2021-06-10 2021-06-10 移動物体検出装置、移動物体認識システム、移動物体検出方法およびコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP2022188909A (ja)

Similar Documents

Publication Publication Date Title
JP7351293B2 (ja) 信号処理装置、および信号処理方法、プログラム、並びに移動体
CN110268450B (zh) 图像处理装置和图像处理方法
JP6944136B2 (ja) 画像処理装置および画像処理方法
US10325339B2 (en) Method and device for capturing image of traffic sign
JP6988815B2 (ja) 画像処理装置および画像処理方法
JP5663352B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP7127539B2 (ja) 画像処理装置および画像処理方法
CN109478348B (zh) 图像处理装置和图像处理方法
CN109643467B (zh) 图像处理设备和图像处理方法
JP2009510827A (ja) 動き検出装置
CN111179162A (zh) 一种特殊环境下的定位初始化方法及车载终端
CN109564696B (zh) 图像处理设备和图像处理方法
US20200137417A1 (en) Generation device and generation method, and reproduction device and reproduction method
US11586843B1 (en) Generating training data for speed bump detection
US20230222671A1 (en) System for predicting near future location of object
JPWO2018021064A1 (ja) 画像処理装置および画像処理方法
WO2019049548A1 (ja) 画像処理装置
CN109643468B (zh) 图像处理装置和图像处理方法
JP7409309B2 (ja) 情報処理装置と情報処理方法とプログラム
JP2022188909A (ja) 移動物体検出装置、移動物体認識システム、移動物体検出方法およびコンピュータプログラム
JP6977725B2 (ja) 画像処理装置および画像処理方法
JP2022168362A (ja) 映像圧縮装置、映像圧縮方法、映像認識システム、及びコンピュータプログラム
JP7363890B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20210248756A1 (en) Image processing apparatus, vehicle-mounted apparatus, image processing method, and program
WO2022176795A1 (ja) 画像認識システム、処理装置、サーバ、画像認識方法、及びコンピュータプログラム