JP2020184134A - 画像分析システムおよび画像分析方法 - Google Patents

画像分析システムおよび画像分析方法 Download PDF

Info

Publication number
JP2020184134A
JP2020184134A JP2019087322A JP2019087322A JP2020184134A JP 2020184134 A JP2020184134 A JP 2020184134A JP 2019087322 A JP2019087322 A JP 2019087322A JP 2019087322 A JP2019087322 A JP 2019087322A JP 2020184134 A JP2020184134 A JP 2020184134A
Authority
JP
Japan
Prior art keywords
image data
captured image
unit
depth
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019087322A
Other languages
English (en)
Other versions
JP7286406B2 (ja
Inventor
伴俊 浦田
Tomotoshi Urata
伴俊 浦田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2019087322A priority Critical patent/JP7286406B2/ja
Publication of JP2020184134A publication Critical patent/JP2020184134A/ja
Application granted granted Critical
Publication of JP7286406B2 publication Critical patent/JP7286406B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】距離測定のための専用の装置を設けず、かつ、複雑な処理を行うことなく物体認識の結果と距離測定の結果とを物体毎に関連付けることができるようにした「画像分析装置および画像分析方法」を提供する。【解決手段】画像分析システム1は、リアカメラ3が出力する撮影画像データにおける所定の種別の物体の範囲を検出する物体認識部7と、撮影画像データの各画素の深度を検出する深度検出部8と、撮影画像データにおける所定の種別の物体の範囲に属する各画素の深度を認識し、その範囲に属する各画素の深度に基づいてその物体までの距離を検出する距離測定部9とを備えており、物体認識と距離測定との双方を撮影画像データを利用して行い、かつ、距離測定を撮影画像データにおける所定の種別の物体の範囲に属する画像(画素群)に基づいて行うようにしている。【選択図】図1

Description

本発明は、画像分析システムおよび画像分析方法に関し、特に、車外を撮影するカメラが出力する撮影画像データを分析する画像分析システムおよび画像分析方法に用いて好適なものである。
従来、車外に存在する所定の種別の物体を認識(以下、「物体認識」という)すると共に、物体までの距離を測定(以下、「距離測定」という)するシステムが存在する。例えば、車両の後方を撮影するカメラの撮影結果に基づく映像を表示するシステムにおいて、後続車両や歩行者等を対象として物体認識および距離測定を行い、物体の位置を示す画像や、物体までの距離を示す情報を映像に付加するものがある。
現在、物体認識および距離測定の手法は、以下の手法が代表的な手法の1つである。すなわち、カメラとLIDAR等の距離センサとを用いる手法であり、カメラの撮影結果を対象として認識用辞書を用いたパターンマッチング等の画像認識技術が利用されて物体認識が行われる。また、距離センサの検出結果が利用されて距離測定が行われる。当手法の距離測定に関し、特許文献1には、ミリ波レーダや、赤外線センサ、超音波センサ等の距離センサが用いられて後方車両までの距離(自車両と後方車両との車間距離)を測定する技術が記載されている。
特開2018−69862号公報
しかしながら、上述した従来の手法は、以下の2つの点で課題がある。すなわち、従来の手法は、カメラとは独立して、距離測定のための専用の装置(距離センサ)が必要であるという課題がある。カメラと独立して専用の装置を設けることは、当該専用の装置を取り付けるスペースを確保する必要性の発生や、車両に取り付ける機材の増大、コストの増大等の不利益をもたらす。更に、従来の手法は、物体認識の結果と距離測定の結果とを物体毎に関連付ける場合、物体認識においてカメラの撮影画像データに基づく2次元空間内の位置として把握される物体の位置と、距離測定において距離センサの検出結果に基づく3次元空間内の距離として把握される物体の距離との対応関係を正確に整合させる必要があり、処理が複雑化するという課題がある。
本発明は、このような問題を解決するために成されたものであり、車外に存在する所定の種別の物体を認識すると共に、物体までの距離を測定するシステムについて、距離測定のための専用の装置を設けず、かつ、複雑な処理を行うことなく物体認識の結果と距離測定の結果とを物体毎に関連付けることができるようにすることを目的とする。
上記した課題を解決するために、本発明は、車外を撮影するカメラの撮影結果に基づく撮影画像データを分析することによって、撮影画像データに記録された風景に所定の種別の物体が含まれているか否かを判定し、所定の種別の物体が当該風景に含まれている場合にはその物体の撮影画像データにおける範囲を検出する。また、本発明は、撮影画像データを分析し、撮影画像データを構成する各画素の深度を検出する。そして、本発明は、撮影画像データにおける所定の種別の物体の範囲に属する各画素の深度を認識し、その範囲に属する各画素の深度に基づいて、その物体までの距離を測定するようにしている。
上記のように構成した本発明によれば、カメラが出力する撮影画像データに基づいて、所定の種別の物体の認識とその物体までの距離の測定との双方が行われるため、物体認識のために必要なカメラのほかに、距離測定のための専用の装置を設ける必要がない。更に、本発明によれば、撮影画像データにおける所定の種別の物体の範囲が検出されると共に、その物体までの距離の測定は、その範囲に属する画像(画素群)に基づいて行われる。このため、撮影画像データにおいて物体が検出された範囲と、撮影画像データにおいて距離が測定される範囲とが常に一対一の関係となる。従って、物体認識の結果と距離測定の結果とを物体毎に関連付けるために、異なる次元の座標系の情報の対応関係を正確に整合させるといった複雑な処理を行う必要がない。つまり、本発明によれば、複雑な処理を行うことなく物体認識の結果と距離測定の結果とを物体毎に関連付けることができる。
本発明の第1実施形態に係る画像分析システムの画像分析装置の機能構成例を示すブロック図である。 撮影画像データの一例を示す図である。 付加画像が付加された画像の一例を示す図である 本発明の第1実施形態に係る画像分析システムの画像分析装置の動作例を示すフローチャートである。 本発明の第1実施形態に係る画像分析システムの画像分析装置の動作例を示すフローチャートである。 本発明の第2実施形態に係る画像分析システムの画像分析装置の機能構成例を示すブロック図である。
<第1実施形態>
以下、本発明の第1実施形態を図面に基づいて説明する。図1は、本実施形態に係る画像分析システム1の画像分析装置2の機能構成例を示すブロック図である。画像分析装置2は車両に搭載される。以下、画像分析装置2が搭載された車両を「自車両」という。
図1に示すように、画像分析装置2にはリアカメラ3が接続されている。リアカメラ3は、自車両の後端部であって、幅方向の中央部に設けられ、自車両の後方を撮影する撮影装置である。リアカメラ3は、魚眼レンズ(広角レンズ)を有する単眼の撮影装置である。リアカメラ3は、所定の周期で撮影を実行し、撮影結果に基づく撮影画像データを生成し、出力する。リアカメラ3は、特許請求の範囲の「カメラ」に相当する。図1に示すように、画像分析装置2には表示装置4が接続されている。表示装置4は、液晶ディスプレイや有機ELパネルといった表示パネルであり、ダッシュボードの中央部に設けられている。また、画像分析装置2には車内に音声を出力するスピーカ5が接続されている。
図1に示すように、画像分析装置2は、機能構成として、撮影画像データ取得部6、物体認識部7、深度検出部8、距離測定部9、表示制御部10および通知部11を備えている。上記各機能ブロック6〜11は、ハードウェア、DSP(Digital Signal Processor)、ソフトウェアの何れによっても構成することが可能である。例えばソフトウェアによって構成する場合、上記各機能ブロック6〜11は、実際にはコンピュータのCPU、RAM、ROM等を備えて構成され、RAMやROM、ハードディスクまたは半導体メモリ等の記録媒体に記憶されたプログラムが動作することによって実現される。
撮影画像データ取得部6は、リアカメラ3から撮影画像データを所定の周期で入力する。撮影画像データ取得部6は、リアカメラ3から撮影画像データを入力する度に以下の処理を実行する。すなわち、撮影画像データ取得部6は、撮影画像データを入力すると、撮影画像データに対して、魚眼レンズに由来する歪みの歪み補正、および、所定距離の投影面への投影を少なくとも含む画像処理を施す。この画像処理は、例えば、リアカメラ3の配置位置および配置角度や、リアカメラ3の仕様(投影方法や、画角、ディストーション、解像度等)、投影面の距離等を反映して設定されたマッピングテーブルに基づいて実行される。撮影画像データ取得部6は、画像処理を施した撮影画像データを物体認識部7、深度検出部8および表示制御部10に出力する。
撮影画像データ取得部6がある1つの撮影画像データを出力すると、物体認識部7、深度検出部8、距離測定部9、表示制御部10および通知部11は連関してその1つの撮影画像データに基づく処理を実行する。以下、撮影画像データ取得部6が撮影画像データD1を出力した場合の上記各機能ブロックの処理について説明する。
物体認識部7は、撮影画像データ取得部6から撮影画像データD1を入力すると、以下の処理を実行する。すなわち、物体認識部7は、撮影画像データD1を分析し、撮影画像データD1に記録された風景に、種別が人間<種別>である物体と、種別が車両<種別>である物体とのうち少なくとも一方が含まれているか否かを判定する。以下、種別が人間<種別>である物体および種別が車両<種別>である物体を総称して「検出対象物体」という。更に物体認識部7は、検出対象物体が当該風景に含まれている場合には、その検出対象物体の撮影画像データD1における範囲(検出対象物体が複数存在する場合には、複数の検出対象物体のそれぞれについての範囲)を検出する。
本実施形態において、検出対象物体の撮影画像データD1における範囲は、矩形の範囲である。そして、物体認識部7は、当該範囲を、撮影画像データD1を構成する各画素の位置を定義するための座標系Z(全ての画素がこの座標系Zの座標によって一意に特定されることになる)における当該範囲の四隅の各画素の座標として検出する。なお、検出対象物体の種別は本実施形態で例示するもの(車両<種別>および人間<種別>)に限られないことは勿論である。例えば、種別は、標識や、壁、中央分離帯等であってもよい。
図2は、撮影画像データD1の一例を説明に適した態様で示す図である。図2の例では、撮影画像データD1に記録された風景に自車両に後続する車両X1が含まれている。図2の例の場合、物体認識部7は、撮影画像データD1に記録された風景に検出対象物体が含まれていると判定する。更に物体認識部7は、撮影画像データD1における車両X1の範囲H1を検出する。図2で示すように、範囲H1は車両X1を囲む矩形の範囲である。
本実施形態では、物体認識部7は、畳み込みニューラルネットワーク(CNN:Convolution Neural Network)を用いた物体認識アルゴリズムに基づくモデルを使用して撮影画像データD1を分析し、検出対象物体が含まれているか否かの判定および検出対象物体の範囲の検出を実行する。物体認識アルゴリズムは、例えば、R−CNNやSPP−net、Fast R−CNN、Faster R−CNN、Mask R−CNNである。十分に学習されたモデルを使用することにより、高い精度で上記処理を行うことができる。
次いで、物体認識部7は、以下の内容の物体認識結果情報を生成し、距離測定部9に出力する。すなわち、撮影画像データD1に係る風景に検出対象物体が含まれていない場合、物体認識部7は、撮影画像データD1に係る風景に検出対象物体が含まれていないことを示す物体認識結果情報を出力する。一方、撮影画像データD1に係る風景に検出対象物体が含まれている場合、物体認識部7は、撮影画像データD1における検出対象物体の範囲を示す情報(以下、検出対象物体の範囲を「検出対象物体範囲」といい、検出対象物体範囲を示す情報を「検出範囲情報」という)と、検出対象物体の種別を示す情報(以下、「検出種別情報」という)とを含む物体認識結果情報を出力する。本実施形態では、検出範囲情報は、座標系Zにおける検出対象物体範囲の四隅の各画素の座標を示す情報である。検出種別情報は、例えば、種別毎に予め定められた識別情報である。
深度検出部8は、撮影画像データ取得部6から撮影画像データD1を入力すると、以下の処理を実行する。すなわち、深度検出部8は、撮影画像データD1を分析し、撮影画像データD1を構成する各画素(撮影画像データD1の全ての画素)の深度を検出する。特に、本実施形態では、深度検出部8は、物体認識部7が検出対象物体範囲を検出する際に用いた座標系Zを利用して、各画素の深度を検出する。この結果、深度検出部8により、撮影画像データD1を構成する各画素について、座標系Zの座標として定義された位置とその深度とが関連付けて把握される。
本実施形態では、深度検出部8は、畳み込みニューラルネットワークを用いた深度推定アルゴリズムに基づくモデルを使用して撮影画像データD1を分析し、各画素の深度を検出する。深度推定アルゴリズムは、例えば、CNN−Depthである。十分に学習されたモデルを使用することにより、高い精度で上記検出を行うことができる。
次いで、深度検出部8は、以下の内容の深度検出結果情報を生成し、距離測定部9に出力する。すなわち、深度検出部8は、撮影画像データD1を構成する各画素について、その深度と座標系Zにおける位置座標との対応関係を示す深度検出結果情報を出力する。
以上のように、リアカメラ3の撮影画像データD1の出力に応じて、物体認識部7による物体認識結果情報の距離測定部9への出力と、深度検出部8による深度検出結果情報の距離測定部9への出力とが同期して行われる。
距離測定部9は、物体認識部7から撮影画像データD1に係る物体認識結果情報を入力すると共に、これと同期して深度検出部8から撮影画像データD1に係る深度検出結果情報を入力する。そして、距離測定部9は、これら情報に基づいて以下の処理を実行する。
すなわち、距離測定部9は、物体認識部7から入力した物体認識結果情報の内容を判定する。そして、物体認識結果情報が撮影画像データD1に係る風景に検出対象物体が含まれていないことを示す情報である場合、距離測定部9は、物体認識結果情報および深度検出結果情報を破棄し、対応する処理を実行しない。この場合、表示制御部10への付加画像関連情報の出力および通知部11への通知関連情報の出力(何れも後述)は行われない。
一方、物体認識結果情報が、検出範囲情報および検出種別情報を含む情報である場合、距離測定部9は、物体認識部7および深度検出部8の分析結果に基づいて、撮影画像データD1から検出された検出対象物体の範囲に属する各画素の深度を認識し、その範囲に属する各画素の深度に基づいて、検出対象物体までの距離を測定する距離測定処理を実行する。以下、距離測定部9の距離測定処理について詳述する。
距離測定処理において、距離測定部9は、物体認識部7から入力した物体認識結果情報(物体認識部7の分析結果に相当)に含まれる検出範囲情報を取得し、当該情報に基づいて検出対象物体範囲(撮影画像データD1における検出対象物体の範囲。より具体的には、座標系Zにおいて、四隅の画素の座標により規定される矩形の領域の範囲)を認識する。次いで、距離測定部9は、認識した検出対象物体範囲と、深度検出部8から入力した深度検出結果情報(深度検出部8の分析結果に相当)とに基づいて、検出対象範囲に属する各画素の深度を認識する。図2の例の場合、距離測定部9は、範囲H1に属する各画素の深度を認識する。ここで、検出範囲情報および深度検出結果情報は共に座標系Zの座標として撮影画像データD1の画素の位置を定義している情報であり、距離測定部9が深度検出結果情報に基づいて検出対象範囲に属する各画素の深度を認識する処理は、非常に簡素な処理である。次いで、距離測定部9は、検出対象物体範囲に属する各画素の深度に基づいて、現実世界におけるリアカメラ3から検出対象物体までの距離を測定する。
検出対象物体までの距離の測定は、物体の種別毎に予め定められた方法で行われる。例えば、検出対象物体が自車両に後続する車両(つまり、種別が車両<種別>の物体)である場合、フロントガラスの領域とバンパの領域との存在に起因して、画素の深度の分布が特徴的な分布となる。これを踏まえ、後続車両についての検出対象物体までの距離を検出する方法は、例えば、画素の深度の分布に基づいてバンパの領域(当然、フロントガラスの領域であってもよい)が特定され、この領域に属する画素の深度に統計的処理(例えば、平均を含む処理)が施されて検出対象物体までの距離が測定されるような方法とされる。以上が距離測定処理の説明である。
検出対象物までの距離を測定した後、距離測定部9は、検出範囲情報と検出種別情報と検出対象物体までの距離を示す情報(以下、「物体距離情報」という)とを含む付加画像関連情報を表示制御部10に出力する。更に距離測定部9は、物体距離情報と検出識別情報とを含む通知関連情報を通知部11に出力する。
以上の処理が距離測定部9により実行される結果、自車両の後方において自車両を基点とする所定範囲(リアカメラ3の撮影範囲に含まれる範囲)内に検出対象物体が存在する場合には、その検出対象物体と自車両との位置関係をリアルタイムに反映して、その検出対象物体に係る付加画像関連情報が所定周期で継続して表示制御部10に出力されると共に、その検出対象物体に係る物体距離情報が所定周期で継続して通知部11に出力される。
以上のように本実施形態に係る画像分析システム1の画像分析装置2は、車外を撮影するリアカメラ3の撮影結果に基づく撮影画像データを分析することによって、撮影画像データに記録された風景に所定の種別の物体が含まれているか否かを判定し、所定の種別の物体が当該風景に含まれている場合にはその物体の撮影画像データにおける範囲を検出する。更に画像分析装置2は、撮影画像データを分析し、撮影画像データを構成する各画素の深度を検出する。そして、画像分析装置2は、撮影画像データにおける所定の種別の物体の範囲に属する各画素の深度を認識し、その範囲に属する各画素の深度に基づいて、その物体までの距離を測定するようにしている。
この構成によれば、リアカメラ3が出力する撮影画像データに基づいて、検出対象物体の検出とその検出対象物体までの距離の検出との双方が行われるため、検出対象物体の検出のために必要なリアカメラ3のほかに、距離測定のための専用の装置を設ける必要がない。更に上記構成によれば、撮影画像データにおける検出対象物体の範囲が検出されると共に、その検出対象物体までの距離の測定は、その範囲に属する画像(画素群)を対象として行われる。このため、撮影画像データにおいて物体が検出された範囲と、撮影画像データにおいて距離が測定される範囲とが常に一対一の関係となる。従って、本実施形態によれば、複雑な処理を行うことなく物体認識の結果と距離測定の結果とを物体毎に関連付けることができる。
特に、本実施形態では、物体認識および距離測定の双方にアルゴリズムとしてCNNを用いている。周知の通り、CNNを用いた物体認識では画像データが展開される2次元座標系の範囲として物体の範囲を検出でき、また、CNNを用いた距離測定は2次元座標系に展開された画像データの画素毎の深度を検出することができる。これを踏まえ、本実施形態では、物体認識および距離測定の双方にアルゴリズムとしてCNNを用いることにより、共通する座標系Zを利用した簡素な処理で、撮影画像データにおいて所定の2次元座標系で範囲が特定される物体までの距離を検出することを実現している。
表示制御部10は、基本的には以下の処理を実行する。すなわち、表示制御部10は、撮影画像データ取得部6から所定周期で撮影画像データを入力する。次いで、表示制御部10は、撮影画像データを入力する度に、VRAM等に形成されたバッファに撮影画像データを展開し、表示装置4に撮影画像データの画像(リアカメラ3の撮影結果に基づく画像)を表示する。以上の処理により、表示装置4には、リアカメラ3の撮影結果をリアルタイムに反映した映像(動画)が表示される。
上記処理に加え、表示制御部10は、撮影画像データの入力と同期して、距離測定部9から付加画像関連情報を入力した場合には、以下の処理を実行する。すなわち、表示制御部10は、撮影画像データをバッファに展開する。そして、表示制御部10は、付加画像関連情報に含まれる検出範囲情報に基づいて、検出対象物体の範囲を示す画像をバッファに展開した撮影画像データに付加する。更に表示制御部10は、付加画像関連情報に含まれる検出種別情報に基づいて、検出対象物体の種別を示す情報をバッファに展開した撮影画像データに付加する。更に表示制御部10は、付加画像関連情報に含まれる物体距離情報に基づいて、検出対象物体までの距離を示す情報をバッファに展開した撮影画像データに付加する。その後、表示制御部10は、バッファに展開された画像データに基づいて表示装置4に画像を表示する。以下、検出対象物体の範囲を示す画像、検出対象物体の種別を示す情報および検出対象物体までの距離を示す情報を総称して、「付加画像」という。
図3は、図2で例示した撮影画像データD1と同期して所定の内容の付加画像関連情報を表示制御部10が入力した場合に、撮影画像データD1とその付加画像関連情報とに基づいて表示装置4に表示される付加画像の一例を示す図である。図3の例において、画像Q1は、検出対象物体の範囲を示す画像であり、範囲H1(図2参照)に沿って検出対象物体(本例では車両X1)を囲む矩形の枠として構成されている。また、情報J1は、検出対象物体の種別を示す情報であり、情報J2は、検出対象物体までの距離を示す情報である。図3に示すように、情報J1および情報J2は共に、画像Q1と関連付けられ、情報J1および情報J2が枠状の画像Q1内の物体に関する情報であることが明示された状態で表示されている。
以上の処理が行われる結果、自車両を基点とする所定範囲(リアカメラ3の撮影範囲に含まれる範囲)内に検出対象物体が存在する場合には、表示装置4に表示された映像には検出対象物体の画像と関連付けて、その検出対象物体に係る付加画像が付加された状態となる。運転手(搭乗者)は、付加画像を確認することにより、表示装置4に表示された映像における検出対象物体の位置、検出対象物体までの距離および検出対象物体の種別を迅速かつ的確に認識できる。
通知部11は、距離測定部9が通知関連情報を出力する度に、距離測定部9から通知関連情報を入力する。通知部11は、通知関連情報に含まれる物体距離情報を継続して分析することによって検出対象物体毎に距離の変化を監視し、ある検出対象物体までの距離が予め定められた閾値よりも近くなったときに、スピーカ5を駆動して運転手に対して音声により警告(通知)を行う。通知部11は、通知関連情報に含まれる検出種別情報に基づいて、検出対象物体の種別に応じた情報を警告として音声出力する。警告は、例えば、物体の種別によって態様が異なる所定態様の電子音であり、また例えば「車両に後続車両が接近しています」といった内容の文言の音声を出力するものである。運転手は、警告に基づいて、自車両に接近する物体が存在することおよびその物体の種別を認識できる。
次いで、本実施形態に係る画像分析システム1の画像分析装置2の動作例についてフローチャートを用いて説明する。図4、5は、リアカメラ3が1つの撮影画像データを出力した場合の画像分析装置2の動作を示すフローチャートである。図4(A)のフローチャートFAは撮影画像データ取得部6の動作を示し、図4(B)のフローチャートFBは物体認識部7の動作を示し、図4(C)のフローチャートFCは深度検出部8の動作を示している。また、図5(A)のフローチャートFDは距離測定部9の動作を示し、図5(B)のフローチャートFEは表示制御部10の動作を示し、図5(C)のフローチャートFFは通知部11の動作を示している。
図4(A)のフローチャートFAに示すように、撮影画像データ取得部6は、リアカメラ3から撮影画像データを入力する(ステップSA1)。次いで、撮影画像データ取得部6は、撮影画像データに対して、魚眼レンズに由来する歪みの歪み補正等の画像処理を施す(ステップSA2)。次いで、撮影画像データ取得部6は、画像処理を施した撮影画像データを物体認識部7、深度検出部8および表示制御部10に出力する(ステップSA3)。
図4(B)のフローチャートFBに示すように、物体認識部7は、撮影画像データ取得部6から撮影画像データD1を入力すると(ステップSB1)、撮影画像データD1を分析し、撮影画像データD1に記録された風景に検出対象物体が含まれているか否かを判定する(ステップSB2)。次いで、物体認識部7は、ステップSB2の判定結果を踏まえて物体認識結果情報を生成する(ステップSB3)。物体認識結果情報は、撮影画像データD1に係る風景に検出対象物体が含まれていない場合、そのことを示す情報であり、一方、含まれている場合、検出範囲情報と検出種別情報とを含む情報である。物体認識部7は、ステップSB3で生成した物体認識結果情報を距離測定部9に出力する(ステップSB4)。
図4(C)のフローチャートFCに示すように、深度検出部8は、撮影画像データ取得部6から撮影画像データD1を入力すると(ステップSC1)、撮影画像データD1を分析し、撮影画像データD1を構成する各画素(撮影画像データD1の全ての画素)の深度を検出する(ステップSC2)。次いで、深度検出部8は、撮影画像データD1を構成する各画素について、その深度と座標系Zにおける位置座標との対応関係を示す深度検出結果情報を生成する(ステップSC3)。次いで、深度検出部8は、ステップSC3で生成した深度検出結果情報を距離測定部9に出力する(ステップSC4)。
図5(A)のフローチャートFDに示すように、距離測定部9は、物体認識部7から撮影画像データD1に係る物体認識結果情報を入力すると共に、これと同期して深度検出部8から撮影画像データD1に係る深度検出結果情報を入力する(ステップSD1)。次いで、距離測定部9は、物体認識部7から入力した物体認識結果情報が、検出範囲情報および検出種別情報を含む情報であるか否かを判定する(ステップSD2)。物体認識結果情報が検出範囲情報および検出種別情報を含む情報ではない場合(=物体認識結果情報が撮影画像データD1に係る風景に検出対象物体が含まれていないことを示す情報である場合)(ステップSD2:NO)距離測定部9は、物体認識結果情報および深度検出結果情報を破棄し、対応する処理を実行しない(ステップSD3)。ステップSD3の処理後、フローチャートFDの処理は終了する。
一方、物体認識結果情報が、検出範囲情報および検出種別情報を含む情報である場合(ステップSD2:YES)、距離測定部9は、物体認識部7および深度検出部8の分析結果に基づいて、撮影画像データD1から検出された検出対象物体の範囲に属する各画素の深度を認識し、その範囲に属する各画素の深度に基づいて、検出対象物体までの距離を測定する(=距離測定処理を実行する)(ステップSD4)。次いで、距離測定部9は、検出範囲情報と検出種別情報と物体距離情報とを含む付加画像関連情報を表示制御部10に出力する(ステップSD5)。更に距離測定部9は、物体距離情報と検出識別情報とを含む通知関連情報を通知部11に出力する(ステップSD6)。ステップSD5の処理とステップSD6との処理は順不同であり、同時に行われてもよい。
図5(B)のフローチャートFEに示すように、表示制御部10は、撮影画像データ取得部6から撮影画像データを入力し、これと同期して距離測定部9から付加画像関連情報を入力する(ステップSE1)。次いで、表示制御部10は、撮影画像データをバッファに展開する(ステップSE2)。次いで、表示制御部10は、付加画像関連情報に含まれる検出範囲情報に基づいて、検出対象物体の範囲を示す画像をバッファに展開した撮影画像データに所定態様で付加する(ステップSE3)。更に表示制御部10は、付加画像関連情報に含まれる検出種別情報に基づいて、検出対象物体の種別を示す情報をバッファに展開した撮影画像データに所定態様で付加する(ステップSE4)。更に表示制御部10は、付加画像関連情報に含まれる物体距離情報に基づいて、検出対象物体までの距離を示す情報をバッファに展開した撮影画像データに所定態様で付加する(ステップSE5)。ステップSE3、SE4、SE5の処理は順不同であり、同時に行われてもよい。次いで、表示制御部10は、バッファに展開された画像データに基づいて表示装置4に画像を表示する(ステップSE6)。
図5(C)のフローチャートFFに示すように、通知部11は、距離測定部9から通知関連情報を入力する(ステップSF1)。通知部11は、ある検出対象物体までの距離が予め定められた閾値よりも短くなったか否かを判定する(ステップSF2)。閾値よりも短くなっていない場合(ステップSF2:NO)、フローチャートFFの処理は終了する。閾値よりも短くなった場合(ステップSF2:YES)、通知部11は、スピーカ5を駆動して運転手に対して音声により警告(通知)を行う(ステップSF3)。
<第2実施形態>
次に第2実施形態について説明する。図6は、第2実施形態に係る画像分析システム1Aの画像分析装置2Aの機能構成例を示すブロック図である。以下の第2実施形態の説明では、第1実施形態と同様の要素については同一の符号を付し、その説明を省略する。
図1と図6との比較で明らかな通り、本実施形態に係る画像分析装置2Aは、第1実施形態に係る撮影画像データ取得部6に代えて撮影画像データ取得部6Aを備え、第1実施形態に係る物体認識部7に代えて物体認識部7Aを備え、第1実施形態に係る深度検出部8に代えて深度検出部8Aを備え、第1実施形態に係る距離測定部9に代えて距離測定部9Aを備えている。
撮影画像データ取得部6Aは、リアカメラ3から撮影画像データを所定の周期で入力し、画像処理を施した撮影画像データを所定の周期で物体認識部7Aおよび表示制御部10に出力する(深度検出部8Aには出力しない)。以下、撮影画像データ取得部6Aが撮影画像データD2を物体認識部7Aに出力したものとして、各機能ブロックの処理を説明する。
物体認識部7Aは、撮影画像データ取得部6Aから撮影画像データD2を入力すると、撮影画像データD2に基づいて第1実施形態と同様の方法で物体認識結果情報を生成し、距離測定部9Aに応答する。本実施形態では、物体認識部7Aは、物体認識結果情報が検出範囲情報および検出種別情報を含む情報である場合、物体認識結果情報と共に撮影画像データD2を距離測定部9Aに出力する。
距離測定部9Aは、物体認識部7Aから物体認識結果情報を入力すると、この物体認識結果情報の内容を判定する。物体認識結果情報が撮影画像データD2に係る風景に検出対象物体が含まれていないことを示す情報である場合、距離測定部9Aは、物体認識結果情報を破棄し、対応する処理を実行しない。この場合、距離測定部9Aによって、深度検出部8Aへの深度検出結果情報の応答の要求、表示制御部10への付加画像関連情報の出力および通知部11への通知関連情報の出力は何れも行われない。
一方、物体認識結果情報が検出範囲情報および検出種別情報を含む情報である場合、距離測定部9Aは、物体認識部7Aから入力した撮影画像データD2を深度検出部8Aに出力すると共に、深度検出部8Aに深度検出結果情報の応答を要求する。
深度検出部8Aは、距離測定部9Aから深度検出結果情報の応答の要求があると、距離測定部9Aから入力した撮影画像データD2に基づいて第1実施形態と同様の方法で深度検出結果情報を生成し、距離測定部9Aに応答する。
距離測定部9Aは、深度検出部8Aから深度検出結果情報を入力すると、物体認識部7Aから入力した物体認識結果情報および深度検出部8Aから入力した深度検出結果情報に基づいて、第1実施形態と同様の方法で検出対象物体までの距離を測定する。次いで、距離測定部9Aは、付加画像関連情報を表示制御部10に出力し、更に通知関連情報を通知部11に出力する。
本実施形態の構成によれば、第1実施形態で説明した効果に加え、以下の効果を奏する。すなわち、深度検出部8Aによる各画素の深度の検出に係る処理が、物体認識部7Aにより撮影画像データに検出対象物体が含まれると判定された場合にのみ行われる。このため、深度検出部8Aの処理が不必要に実行されることを防止でき、処理負荷の低減を図ることができる。特に、自車両の走行中は、その後方に検出対象物体が存在しない状態は少なからず現出することが想定されるため、効果的に処理負荷を低減できる。
以上、本発明の実施形態を2つ説明したが、上記各実施形態は、本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその要旨、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。
例えば、第1実施形態において、図3を用いて付加画像の表示態様の一例を挙げたが、他の態様で付加画像が表示されてもよい。一例として、種別を示す情報および距離を示す情報について、撮影結果の映像の外側に専用の欄を設け、各情報がこの欄に表示される構成でもよい。また、検出対象物体の範囲を示す画像および種別を示す情報、距離を示す情報のうち、何れか1つまたは何れか2つのみが撮影画像データに付加され、表示される構成でもよい。以上のことは第2実施形態についても同様である。
また、通知部11の処理は、第1実施形態で例示した処理に限られない。例えば、通知部11が検出対象物体までの距離が予め定められた閾値よりも近くなったときに、LED等の発光部材を所定の態様で発光させる構成としてもよく、また、表示装置4(他の表示手段であってもよい)に所定の情報を表示する構成としてもよい。以上のことは第2実施形態についても同様である。
また、上記各実施形態では、ダッシュボードの中央部に設けられた表示パネル(表示装置4)が特許請求の範囲の「表示装置」として機能したが、表示装置は上記各実施形態で例示するものに限られない。一例として、電子ミラーシステムのモニタを特許請求の範囲の表示装置として機能させる構成でもよい。
また、第1実施形態において画像分析装置2の機能ブロックが実行するとした処理の一部または全部を、画像分析装置2と外部装置とが協働して、または、外部装置が単独で実行する構成としてもよい。この場合、画像分析装置2と外部装置とが協働して画像分析システム1として機能する。一例として、画像分析装置2の距離測定部9の処理の一部または全部を、画像分析装置2と、この画像分析装置2とネットワークを介して通信可能なクラウドサーバとが協働して実行するようにしてもよく、また、クラウドサーバが単独で実行するようにしてもよい。以上のことは第2実施形態についても同様である。
また、上記各実施形態では、リアカメラ3が特許請求の範囲の「カメラ」として機能した。しかしながら、カメラは上記各実施形態で例示したものに限られない。フロントカメラや、サイドカメラ等のカメラであってもよい。
1、1A 画像分析システム
2、2A 画像分析装置
3 リアカメラ(カメラ)
4 表示装置
7、7A 物体認識部
8、8A 深度検出部
9、9A 距離測定部
10 表示制御部
11 通知部

Claims (7)

  1. 車外を撮影するカメラの撮影結果に基づく撮影画像データを分析することによって、前記撮影画像データに記録された風景に所定の種別の物体が含まれているか否かを判定し、前記所定の種別の物体が当該風景に含まれている場合にはその物体の前記撮影画像データにおける範囲を検出する物体認識部と、
    前記撮影画像データを分析し、前記撮影画像データを構成する各画素の深度を検出する深度検出部と、
    前記物体認識部および前記深度検出部の分析結果に基づいて、前記撮影画像データにおける前記所定の種別の物体の範囲に属する各画素の深度を認識し、その範囲に属する各画素の深度に基づいて、その物体までの距離を測定する距離測定部と、
    を備えることを特徴とする画像分析システム。
  2. 前記カメラが撮影結果に基づいて前記撮影画像データを出力したときに、前記深度検出部の処理より前に前記物体認識部の処理が行われ、
    前記距離測定部は、
    前記物体認識部により前記撮影画像データに記録された風景に所定の種別の物体が含まれていると判定された場合、前記深度検出部に前記撮影画像データを構成する各画素の深度を検出させ、検出結果を利用してその物体までの距離を測定する一方、含まれていないと判定された場合、前記深度検出部に前記撮影画像データを構成する各画素の深度を検出させない
    ことを特徴とする請求項1に記載の画像分析システム。
  3. 前記撮影画像データに基づく画像を表示装置に表示すると共に、前記撮影画像データに基づいて前記距離測定部により測定された前記所定の種別の物体までの距離を示す情報をその画像に付加する表示制御部を更に備えることを特徴とする請求項1または2に記載の画像分析システム。
  4. 前記表示制御部は、前記所定の種別の物体までの距離に関する情報に加え、前記表示装置に表示された画像におけるその物体の範囲を示す画像と、その物体の種別を示す情報とのうち少なくとも一方を付加することを特徴とする請求項3に記載の画像分析システム。
  5. 前記距離測定部により測定された前記所定の種別の物体までの距離に基づいて、距離に応じた通知を車両の搭乗者に対して行う通知部を更に備えることを特徴とする請求項1から4の何れか1項に記載の画像分析システム。
  6. 前記物体認識部および前記深度検出部は、アルゴリズムとして畳み込みニューラルネットワークを用いて前記撮影画像データを分析することを特徴とする請求項1から4の何れか1項に記載の画像分析システム。
  7. 画像分析システムの物体認識部が、車外を撮影するカメラの撮影結果に基づく撮影画像データを分析することによって、前記撮影画像データに記録された風景に所定の種別の物体が含まれているか否かを判定し、前記所定の種別の物体が当該風景に含まれている場合にはその物体の前記撮影画像データにおける範囲を検出し、また、前記画像分析システムの深度検出部が、前記撮影画像データを分析し、前記撮影画像データを構成する各画素の深度を検出するステップと、
    前記画像分析システムの距離測定部が、前記物体認識部および前記深度検出部の分析結果に基づいて、前記撮影画像データから検出された前記所定の種別の物体の範囲に属する各画素の深度を認識し、その範囲に属する各画素の深度に基づいて、その物体までの距離を測定するステップと、
    を含むことを特徴とする画像分析方法。
JP2019087322A 2019-05-07 2019-05-07 画像分析システムおよび画像分析方法 Active JP7286406B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019087322A JP7286406B2 (ja) 2019-05-07 2019-05-07 画像分析システムおよび画像分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019087322A JP7286406B2 (ja) 2019-05-07 2019-05-07 画像分析システムおよび画像分析方法

Publications (2)

Publication Number Publication Date
JP2020184134A true JP2020184134A (ja) 2020-11-12
JP7286406B2 JP7286406B2 (ja) 2023-06-05

Family

ID=73045421

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019087322A Active JP7286406B2 (ja) 2019-05-07 2019-05-07 画像分析システムおよび画像分析方法

Country Status (1)

Country Link
JP (1) JP7286406B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023286217A1 (ja) * 2021-07-14 2023-01-19 日本電信電話株式会社 位置検出装置、位置検出方法、及び位置検出プログラム
WO2023127000A1 (ja) * 2021-12-27 2023-07-06 日立Astemo株式会社 認識システム及び物体認識方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07334799A (ja) * 1994-06-10 1995-12-22 Nissan Motor Co Ltd 車間距離検出装置
JP2016136321A (ja) * 2015-01-23 2016-07-28 トヨタ自動車株式会社 物体検出装置及び物体検出方法
JP2018124890A (ja) * 2017-02-03 2018-08-09 日本電信電話株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP2019008460A (ja) * 2017-06-22 2019-01-17 株式会社東芝 物体検出装置、物体検出方法およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07334799A (ja) * 1994-06-10 1995-12-22 Nissan Motor Co Ltd 車間距離検出装置
JP2016136321A (ja) * 2015-01-23 2016-07-28 トヨタ自動車株式会社 物体検出装置及び物体検出方法
JP2018124890A (ja) * 2017-02-03 2018-08-09 日本電信電話株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP2019008460A (ja) * 2017-06-22 2019-01-17 株式会社東芝 物体検出装置、物体検出方法およびプログラム

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CLEMENT GODARD, OISIN MAC AODHA, GABRIEL J.BROSTOW: "Unsupervised Monocular Depth Estimation with Left-Right Consistency", ARXIV, JPN6023012518, April 2017 (2017-04-01), pages 270 - 279, XP093151683, ISSN: 0005021412 *
GREGOIRE PAYEN DE LA GARANDERIE, AMIR ATAPOUR ABARGHOUEI, AND TOBY P.BRECKON: "Eliminating the Blind Spot: Adapting 3D Object Detection and Monocular Depth Estimation to 360°Pano", ARXIV, JPN6023012519, August 2018 (2018-08-01), pages 1 - 19, ISSN: 0005021411 *
I. MOHAMED ELZAYAT: "Real-Time Car Detection-Based Depth Estimation Using Mono Camera", 2018 30TH INTERNATIONAL CONFERENCE ON MICROELECTRONICS, JPN7023001250, December 2018 (2018-12-01), pages 248 - 251, XP033544494, ISSN: 0005021413, DOI: 10.1109/ICM.2018.8704024 *
八谷 大岳: "3D Faster R−CNNとレーザスキャンとの組み合わせによる特定物体の頑健な距離推定", 計測自動制御学会論文集 第55巻 第1号, vol. Vol.55, No.1, 42/50 (2019), JPN6023012517, 31 January 2019 (2019-01-31), JP, pages 42 - 50, ISSN: 0005021414 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023286217A1 (ja) * 2021-07-14 2023-01-19 日本電信電話株式会社 位置検出装置、位置検出方法、及び位置検出プログラム
WO2023127000A1 (ja) * 2021-12-27 2023-07-06 日立Astemo株式会社 認識システム及び物体認識方法

Also Published As

Publication number Publication date
JP7286406B2 (ja) 2023-06-05

Similar Documents

Publication Publication Date Title
US11527077B2 (en) Advanced driver assist system, method of calibrating the same, and method of detecting object in the same
TWI585436B (zh) 深度資訊量測方法及裝置
US7684590B2 (en) Method of recognizing and/or tracking objects
JP5057936B2 (ja) 鳥瞰画像生成装置および方法
US10642422B2 (en) Information processing apparatus, control method for the information processing apparatus, and storage medium
US20170374331A1 (en) Auto keystone correction and auto focus adjustment
US20090121851A1 (en) Vehicle-Periphery Image Generating Apparatus and Method of Correcting Distortion of a Vehicle-Periphery Image
US20200111225A1 (en) Depth estimation apparatus, autonomous vehicle using the same, and depth estimation method thereof
JP2006252473A (ja) 障害物検出装置、キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
JP2004117078A (ja) 障害物検出装置及び方法
JP6239186B2 (ja) 表示制御装置及び表示制御方法及び表示制御プログラム
JP2005072888A (ja) 画像投影方法、及び画像投影装置
JP2010039634A (ja) 画像処理装置
KR20180045745A (ko) 이동체에서의 객체 검출 장치 및 방법
US20160259402A1 (en) Contact detection apparatus, projector apparatus, electronic board apparatus, digital signage apparatus, projector system, and contact detection method
JP7286406B2 (ja) 画像分析システムおよび画像分析方法
KR20180121259A (ko) 카메라 탑재형 컴퓨터의 거리검출장치 및 그 방법
US20230342953A1 (en) Information processing apparatus, control method, and program
JP2010079582A (ja) 物体を検出する装置、方法及びプログラム
JP2014154898A (ja) 物体検知装置
JP2022045947A5 (ja)
JP2015230703A (ja) 物体検出装置及び物体検出方法
US11346663B2 (en) Stereo camera
US20220373683A1 (en) Image processing device, monitoring system, and image processing method
US20190227488A1 (en) Information processing apparatus, information processing system, and non-transitory computer readable medium storing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230524

R150 Certificate of patent or registration of utility model

Ref document number: 7286406

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150