JP7375806B2 - 画像処理装置、及び画像処理方法 - Google Patents

画像処理装置、及び画像処理方法 Download PDF

Info

Publication number
JP7375806B2
JP7375806B2 JP2021501857A JP2021501857A JP7375806B2 JP 7375806 B2 JP7375806 B2 JP 7375806B2 JP 2021501857 A JP2021501857 A JP 2021501857A JP 2021501857 A JP2021501857 A JP 2021501857A JP 7375806 B2 JP7375806 B2 JP 7375806B2
Authority
JP
Japan
Prior art keywords
moving object
tracking information
predetermined area
information
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021501857A
Other languages
English (en)
Other versions
JPWO2020175085A1 (ja
Inventor
俊之 村松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Publication of JPWO2020175085A1 publication Critical patent/JPWO2020175085A1/ja
Application granted granted Critical
Publication of JP7375806B2 publication Critical patent/JP7375806B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本開示は、画像処理装置、及び画像処理方法に関する。
カメラ等で撮影された画像に基づいて、撮像領域内に存在する物体の位置を検出する画像処理装置が知られている。この種の画像処理装置は、特に、工事現場や工場などの業務環境において、人や作業機(以下、「動体」と総称する)の位置を正確に把握し、当該動体の行動又は動作を解析したり、当該動体の行動又は動作を予測する用途(以下、「行動解析」と総称する)への適用が期待されている。
動体の位置を把握するための技術には様々なものがあるが、特に工事現場などの粉塵や電磁波の反響が激しい環境においては、レーザーレーダー(Light Detection And Ranging:LiDARとも称される)のような光の反射を用いた位置測定が有効である。
図1は、レーザーレーダーに生成された距離画像の一例を示す図である。
一般に、レーザーレーダーは、レーザ光を打ち出し、当該レーザ光が物体に反射して戻ってくるまでの時間(TOF:Time of Flight)を測定することで、自身の位置から物体の位置までの距離を求める。そして、レーザーレーダーは、かかる処理を、監視対象領域が映り込む所定範囲内を走査しながら行うことにより、距離画像に係る画像データを生成する。かかる距離画像は、動体の各部の三次元位置の情報を含むため、当該動体の姿勢や動作を認識する上で有用である。
特許文献1には、レーザーレーダーを利用して周辺環境を測定し、点群化した測距点をクラスタリングして解析することで動体を認識し、これにより、当該動体の位置を把握しようとする技術が開示されている。
特開2014-167702号公報
ところで、この種の画像処理装置において、動体の行動を解析するためには、時系列に並んだ複数の画像(フレーム)内において、同一物体を認識し続ける必要がある。即ち、この種の画像処理装置においては、動画像内に映る動体のトラッキングの精度を高める要請がある。
この点、特許文献1は、レーザーレーダーの測定結果のみを用いて、物体認識を行うものであるため、物体認識の精度の向上には限界がある。特に、レーザーレーダーにより生成される距離画像は、一般的なカメラにより生成されるカメラ画像と比較して、水平方向及び垂直方向の分解能が低く、加えて撮像対象の物体の色彩の情報等を含まない。そのため、例えば、レーザーレーダーで監視する監視対象領域内に、身体的特徴が類似した人が複数存在する場合、レーザーレーダーにより生成される距離画像からは、複数の人それぞれを正しくトラッキングすることが困難である。
本開示は、上記問題点に鑑みてなされたもので、レーザーレーダーを用いた動体トラッキングの精度を向上し得る画像処理装置及び画像処理方法を提供することを目的とする。
前述した課題を解決する主たる本開示に係る画像処理装置は、
所定領域を監視するレーザーレーダーから距離画像の画像データを取得する第1画像取得部と、
前記所定領域を監視するカメラからカメラ画像の画像データを取得する第2画像取得部と、
時系列に並ぶ前記距離画像に基づいて、前記所定領域に存在する動体の位置をトラッキングした第1トラッキング情報を生成する第1解析部と、
時系列に並ぶ前記カメラ画像に基づいて、前記所定領域に存在する動体の位置をトラッキングした第2トラッキング情報を生成する第2解析部と、
前記第1トラッキング情報と前記第2トラッキング情報とを時間軸を揃えて比較し、前記第1トラッキング情報と前記第2トラッキング情報とに基づいて前記所定領域に存在する動体の識別情報及び位置を確定するデータ比較処理部と、を備え、
前記データ比較処理部は、前記所定領域に存在する動体が所定の状況に該当する場合、前記第1トラッキング情報と前記第2トラッキング情報とに基づいて、前記所定領域に存在する動体の識別情報及び位置を確定し、前記所定の状況に該当しない場合、前記第2トラッキング情報を参照することなく前記第1トラッキング情報に基づいて、前記所定領域に存在する動体の識別情報及び位置を確定する。
また、本開示に係る画像処理装置は、
所定領域を監視するレーザーレーダーから距離画像の画像データを取得する第1画像取得部と、
前記所定領域を監視するカメラからカメラ画像の画像データを取得する第2画像取得部と、
時系列に並ぶ前記距離画像に基づいて、前記所定領域に存在する動体の位置をトラッキングした第1トラッキング情報を生成する第1解析部と、
時系列に並ぶ前記カメラ画像に基づいて、前記所定領域に存在する動体の位置をトラッキングした第2トラッキング情報を生成する第2解析部と、
前記第1トラッキング情報と前記第2トラッキング情報とを時間軸を揃えて比較し、前記第1トラッキング情報と前記第2トラッキング情報とに基づいて前記所定領域に存在する動体の識別情報及び位置を確定するデータ比較処理部と、を備え、
前記データ比較処理部は、前記レーザーレーダーの視野情報及び前記カメラの視野情報を参照するとともに、前記第1トラッキング情報に含まれる動体の位置と前記第2トラッキング情報に含まれる動体の位置との近接度合い又は大きさの情報に基づいて、前記第1トラッキング情報に含まれる動体と前記第2トラッキング情報に含まれる動体との対応関係を特定して、前記所定領域に存在する動体の識別情報及び位置を確定する。
本開示に係る画像処理方法は、
所定領域を監視するレーザーレーダーから距離画像の画像データを取得し、
前記所定領域を監視するカメラからカメラ画像の画像データを取得し、
時系列に並ぶ前記距離画像に基づいて、前記所定領域に存在する動体の位置をトラッキングした第1トラッキング情報を生成し、
時系列に並ぶ前記カメラ画像に基づいて、前記所定領域に存在する動体の位置をトラッキングした第2トラッキング情報を生成し、
前記第1トラッキング情報と前記第2トラッキング情報とを時間軸を揃えて比較し、前記第1トラッキング情報と前記第2トラッキング情報とに基づいて前記所定領域に存在する動体の識別情報及び位置を確定し、
前記所定領域に存在する動体の識別情報及び位置を確定する工程では、前記所定領域に存在する動体が所定の状況に該当する場合、前記第1トラッキング情報と前記第2トラッキング情報とに基づいて、前記所定領域に存在する動体の識別情報及び位置を確定し、前記所定の状況に該当しない場合、前記第2トラッキング情報を参照することなく前記第1トラッキング情報に基づいて、前記所定領域に存在する動体の識別情報及び位置を確定する。
また、本開示に係る画像処理方法は、
所定領域を監視するレーザーレーダーから距離画像の画像データを取得し、
前記所定領域を監視するカメラからカメラ画像の画像データを取得し、
時系列に並ぶ前記距離画像に基づいて、前記所定領域に存在する動体の位置をトラッキングした第1トラッキング情報を生成し、
時系列に並ぶ前記カメラ画像に基づいて、前記所定領域に存在する動体の位置をトラッキングした第2トラッキング情報を生成し、
前記第1トラッキング情報と前記第2トラッキング情報とを時間軸を揃えて比較し、前記第1トラッキング情報と前記第2トラッキング情報とに基づいて前記所定領域に存在する動体の識別情報及び位置を確定し、
前記所定領域に存在する動体の識別情報及び位置を確定する工程では、前記レーザーレーダーの視野情報及び前記カメラの視野情報を参照するとともに、前記第1トラッキング情報に含まれる動体の位置と前記第2トラッキング情報に含まれる動体の位置との近接度合い又は大きさの情報に基づいて、前記第1トラッキング情報に含まれる動体と前記第2トラッキング情報に含まれる動体との対応関係を特定して、前記所定領域に存在する動体の識別情報及び位置を確定する。
本開示に係る画像処理装置によれば、レーザーレーダーを用いた動体トラッキングの精度を向上させることが可能である。
レーザーレーダーに生成された距離画像の一例を示す図 第1の実施形態に係る監視システムの一例を示す図 第1の実施形態に係る画像処理装置のハードウェア構成を示す図 第1の実施形態に係る画像処理装置の機能ブロックを示す図 第1解析部により生成されるトラッキング情報の一例を示す図 第2解析部により生成されるトラッキング情報の一例を示す図 データ比較処理部の処理を模式的に説明する図 レーザーレーダーの視野及びカメラの視野を示す図 第1の実施形態に係る画像処理装置(データ比較処理部)が確定トラッキング情報を生成する際に実行する処理を示すフローチャート 第2の実施形態に係る画像処理装置の構成を示す図 第3の実施形態に係る画像処理装置の構成を示す図
以下に添付図面を参照しながら、本開示の好適な実施形態について詳細に説明する。尚、本明細書及び図面において、実質的に同一の機能を有する構成要素については、同一の符号を付することにより重複説明を省略する。
(第1の実施形態)
[監視システムの全体構成]
以下、図2~図4を参照して、一実施形態に係る監視システムの構成、及び監視システムに適用した画像処理装置の構成の概要について説明する。
図2は、本実施形態に係る監視システムUの一例を示す図である。本実施形態に係る監視システムUは、工事現場内に存在する動体(ここでは、人M1、作業機M2、作業機M3)をトラッキングする用途に適用されている。
本実施形態に係る監視システムUは、画像処理装置100、レーザーレーダー200、及び、カメラ300を備えている。
レーザーレーダー200は、例えば、レーザ光を打ち出し、当該レーザ光が物体に反射して戻ってくるまでの時間(TOF:Time of Flight)を測定することで、自身の位置から物体の位置までの距離を求める。レーザーレーダー200は、かかる処理を、監視対象領域が映る所定範囲内を走査しながら行うことにより、距離画像に係る画像データ(以下、「距離画像」と略称する)を生成する。尚、レーザーレーダー200は、フレーム単位の距離画像を連続的に生成し、時系列に並んだ距離画像(即ち、動画像)を画像処理装置100に対して出力する。
距離画像は、各走査位置を画素として、画素毎に、レーザーレーダー200の測定データ(例えば、距離及び反射強度)が画素値として対応付けられた画像である(点群データとも称される)。距離画像は、監視対象領域内における物体の3次元(例えば、水平方向、鉛直方向、及び奥行方向)の位置を示すものであり、例えば、物体の存在位置を3次元の直交座標系(X、Y、Z)で表す。
カメラ300は、例えば、一般的な可視カメラであり、自身の有する撮像素子(CMOSセンサ又はCCDセンサ)が生成した画像信号をAD変換して、画像データ(以下、「カメラ画像」と称する)を生成する。尚、カメラ300は、フレーム単位のカメラ画像を連続的に生成して、時系列に並んだカメラ画像(即ち、動画像)を画像処理装置100に対して出力する。
カメラ画像は、例えば、画素毎に、RGBそれぞれについての輝度値(例えば、RGBそれぞれについての256階調の輝度値)が画素値として対応付けられた画像である。
尚、レーザーレーダー200及びカメラ300は、同一の監視対象領域を撮像するように、当該監視対象領域付近の適宜な位置に設置されている。
画像処理装置100は、レーザーレーダー200で生成された距離画像の画像データ、及び、カメラ300で生成されたカメラ画像の画像データに基づいて、監視対象領域内に存在する動体(図2では、人M1、作業機M2、作業機M3)の動きをトラッキングし、そのトラッキング結果を出力する。
図3は、本実施形態に係る画像処理装置100のハードウェア構成を示す図である。
画像処理装置100は、主たるコンポーネントとして、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、外部記憶装置(例えば、フラッシュメモリ)104、及び、通信インタフェイス105等を備えたコンピュータである。
画像処理装置100の後述する各機能は、例えば、CPU101がROM102、RAM103、外部記憶装置104等に記憶された制御プログラム(例えば、画像処理プログラム)や各種データを参照することによって実現される。但し、各機能の一部又は全部は、CPUによる処理に代えて、又は、これと共に、DSP(Digital Signal Processor)による処理によって実現されてもよい。又、同様に、各機能の一部又は全部は、ソフトウェアによる処理に代えて、又は、これと共に、専用のハードウェア回路(例えば、ASIC又はFPGA)による処理によって実現されてもよい。
[画像処理装置の構成]
図4は、本実施形態に係る画像処理装置100の機能ブロックを示す図である。尚、図4中の矢印は、データの流れを表す。
図5Aは、第1解析部30により生成されるトラッキング情報D1(以下、「第1トラッキング情報」と称する)の一例を示す図であり、図5Bは、第2解析部40により生成されるトラッキング情報D2(以下、「第2トラッキング情報」と称する)の一例を示す図である。尚、図5A、図5Bは、各クレームにおける動体の位置を示しており、ID(本発明の「識別情報」に相当する)は各動体の識別番号を表し、t=0、t=1、t=2…はフレーム番号を表す。
図6は、データ比較処理部50の処理を説明する図である。図6は、第1解析部30により生成される第1トラッキング情報D1(左図)、及び、第2解析部40により生成される第2トラッキング情報D2(右図)の一例を示している。尚、図6の第1トラッキング情報D1(左図)及び第2トラッキング情報D2(右図)は、同一の時間帯に生成されたものである。
画像処理装置100は、第1画像取得部10、第2画像取得部20、第1解析部30、第2解析部40、データ比較処理部50、及び、データ出力部60を備えている。
第1画像取得部10は、レーザーレーダー200が生成した距離画像の画像データを取得する。尚、第1画像取得部10は、レーザーレーダー200から、時系列に並んだ距離画像を順次取得する。
第2画像取得部20は、カメラ300が生成したカメラ画像の画像データを取得する。尚、第2画像取得部20は、カメラ300から、時系列に並んだカメラ画像を順次取得する。
第1解析部30は、時系列に並んだ距離画像に基づいて、監視対象領域に存在する動体の位置をトラッキングし、その結果を第1トラッキング情報D1として出力する。
具体的には、第1解析部30は、時系列に並んだ距離画像の各フレームに映る動体を検出し、動体毎に、IDを付与すると共に、及びその動体が存在する位置を、IDと関連付けて記憶する。第1解析部30は、例えば、注目フレームで検出された動体とその前フレームで検出された動体との関連度を算出し、当該関連度に基づいて、注目フレームで検出された動体と前フレームで検出された動体との同一性を判定する。そして、この際、第1解析部30は、注目フレームで検出された動体と前フレームで検出された動体とが同一である場合には、注目フレームで検出された動体に対して、前フレームで検出された動体と同一のIDを付与し、注目フレームで検出された動体と前フレームで検出された動体とが同一でない場合には、注目フレームで検出された動体に対して、新規なIDを付与する。このようにして、第1解析部30は、各フレームに映る動体を、各別に、トラッキングする。
第1解析部30は、本実施形態では、人や作業機等、一体的な動体毎に、IDを付与すると共に、その存在位置を特定する。但し、第1解析部30は、人の腕、頭、又は脚等、一つの個体の各部位を各別の動体として認識し、当該個体の部位毎の位置を認識するものであってもよい。
尚、第1解析部30が距離画像中から動体を検出する手法は、公知の任意の手法であってよい。第1解析部30は、例えば、注目フレームと前フレームとの差分を取ることによって、動体を検出してもよい。又、第1解析部30は、例えば、距離画像中の測距点のクラスタの特徴量(例えば、形状及びサイズ等)に基づいて、パターンマッチングにより、動体(例えば、人や車)を検出してもよい。
又、第1解析部30が異なるフレーム間で各動体の同一性を判定する手法は、公知の任意の手法であってよい。尚、第1解析部30は、例えば、注目フレームで検出された動体と前フレームで検出された動体との間の距離、両者の間のサイズの類似性、両者の間の形状の類似性、両者の間の色の類似性、及び、両者の間の移動速度の類似性等に基づいて、両者の間の関連度を算出する。そして、第1解析部30は、当該関連が所定値以上の場合、注目フレームで検出された動体と前フレームで検出された動体とが同一であると判定する。
但し、より好適には、第1解析部30は、機械学習により学習済みの識別器モデルを用いて、距離画像中から動体を検出したり、第1解析部30が異なるフレーム間で各動体の同一性を判定する。これにより、動体の見え方の変化に対する、動体検出のロバスト性や動体の同一性判定のロバスト性を高めることが可能である。例えば、第1解析部30が距離画像中から動体を検出する際には、畳み込みニュートラルネットワーク(Convolutional Neural Network:CNN)を用いるのが好適である。又、第1解析部30が異なるフレーム間で各動体の同一性を判定する際には、例えば、隠れマルコフモデル(Hidden Markov Model:HMM)を用いるのが好適である。その際、識別器モデルに対しては、入力画像と正解値とが関連付けられて構成された学習データを用いた強化学習により、機械学習を実行すればよい。
第1トラッキング情報D1は、例えば、時系列に並んだ距離画像の各フレームにおける動体の位置(ここでは、三次元の座標位置)を示すデータである(図5Aを参照)。第1トラッキング情報D1は、例えば、動体毎に、IDと当該動体の位置の時間的変化に係る情報を含む。即ち、第1トラッキング情報D1は、各フレームに映る同一の動体には、一つのIDのみを付与して、当該動体を識別している。そして、監視対象領域内に複数の動体が存在する場合には、第1トラッキング情報D1は、複数の動体それぞれに個別のIDを付与して、当該動体の位置の時間的変化を関連付けて記録する。
第2解析部40は、時系列に並んだカメラ画像に基づいて、監視対象領域に存在する動体の位置をトラッキングし、その結果を第2トラッキング情報D2として出力する。
第2解析部40がカメラ画像中から動体を検出する手法、及び異なるフレーム間で各動体を同定する手法は、第1解析部30と同様に、公知の任意の手法を用いることができる。尚、第2解析部40は、これらの処理の際に、第1解析部30と同様に、学習済みの識別器モデルを用いるのが望ましい。
第2トラッキング情報D2は、例えば、時系列に並んだカメラ画像の各フレームにおける動体の位置(ここでは、二次元の座標位置)を示すデータである(図5Bを参照)。第2トラッキング情報D2には、第1トラッキング情報D1と同様に、動体毎に、IDと当該動体の位置の時間的変化とが関連付けて記録されている。
データ比較処理部50は、第1トラッキング情報D1と第2トラッキング情報D2とを時間軸を揃えて比較し、第1トラッキング情報D1と第2トラッキング情報D2とに基づいて監視対象領域に存在する動体の位置及びIDを確定して、その結果を確定トラッキング情報D3として出力する。
図6の左図は、第1解析部30における動体の識別処理に誤りが生じ、同一の動体(ここでは、人)に対して付与するIDが、途中で変更された態様(ID:M11⇒ID:M12)を表している。一方、図6の右図は、第2解析部40が同一の動体(ここでは、人)のIDを正確に捉えている態様を表している。
一般に、距離画像からは、水平方向と垂直方向の座標に加えて、奥行方向の座標について動体の位置を特定することが可能である。そのため、距離画像に基づいて動体の各部の位置を特定することは、当該動体の姿勢や当該動体の行動を正確に特定する上で、有用である。
しかしながら、距離画像は、カメラ画像と異なり、分解能が低く、且つ、色情報を含まないため、距離画像からは、異なるフレーム間での動体の同定が困難な場合がある。特に、動体のトラッキングを行う際に、当該動体が、他の動体と交差したり、姿勢を変化させたりしたときに、当該動体が前の時点で検出されていた動体と同一のものか否かを同定することができないおそれがある。
一方、カメラ画像は、分解能が高く、且つ、色情報を含むため、異なるフレーム間での動体の同定をより正確に行うことが可能である。
そこで、データ比較処理部50は、第2トラッキング情報D2を用いて第1トラッキング情報D1に含まれる動体のIDの正誤判定を行う。そして、データ比較処理部50は、第1トラッキング情報D1に含まれる動体のIDの変化が、第2トラッキング情報D2に含まれる動体のIDの変化と異なる場合には、第1トラッキング情報D1に含まれる動体のIDの変化に誤りがあるとみなして、第1トラッキング情報D1に含まれる動体のIDを、第2トラッキング情報D2に含まれる動体のIDに補正して、補正後の第1トラッキング情報D1を確定トラッキング情報D3として出力する。
データ比較処理部50が第1トラッキング情報D1に含まれる動体と第2トラッキング情報D2に含まれる動体との対応関係を特定する手法としては、典型的には、第1トラッキング情報D1に含まれる動体の位置と第2トラッキング情報D2に含まれる動体の位置との近接度合い(例えば、両者の距離又は両者の重複する領域)を算出する手法を用いる。尚、データ比較処理部50にて当該処理を実行し得るように、第1トラッキング情報D1が示す座標位置と第2トラッキング情報D2が示す座標位置との対応関係を示すデータを、予め画像処理装置100のROM102等に記憶しておくのが望ましい。
但し、データ比較処理部50は、レーザーレーダー200の視野情報とカメラ300の視野情報とを参照して、両者の視野の相違を考慮した上で、第1トラッキング情報D1に含まれる動体と第2トラッキング情報D2に含まれる動体との対応関係を特定するのが望ましい。
図7は、レーザーレーダー200の視野及びカメラ300の視野を示す図である。レーザーレーダー200の視野R1は、一般に、カメラ300の視野R2に比べて垂直方向の撮像範囲が狭い。そのため、距離画像内に映る動体は、カメラ画像内に映る動体とは異なって、動体の全部が距離画像内に映っていない可能性がある。例えば、カメラ画像内には、人の全身が映っている一方、距離画像内には、人の上半身のみが映っている可能性がある。従って、データ比較処理部50は、例えば、距離画像内に映る動体とカメラ画像内に映る動体との間における形状の相違を考慮し、第1トラッキング情報D1に含まれる動体と第2トラッキング情報D2に含まれる動体との対応関係を特定するのが望ましい。データ比較処理部50は、例えば、レーザーレーダー200において縦画角に完全に見切れている物体の場合はそれ以上に縦に大きなものが同一物体の条件となり、レーザーレーダー200の縦画角内に物体が完全に収まっているようならそれよりも大きな物体は距離的に近似であっても別物体の可能性が高い、と判断できる。これによって、物体判別の正確性を向上させることができる。
他方、データ比較処理部50は、処理負荷を軽減する観点から、より好適には、第1トラッキング情報D1を参照して、以下の第1状況乃至第3状況のいずれかが発生しているか否かを判定して、第1状況乃至第3状況のいずれかが発生している場合に限って、第2トラッキング情報D2を参照するのが望ましい。換言すると、データ比較処理部50は、第1状況乃至第3状況のいずれも発生していない場合には、第2トラッキング情報D2を参照することなく、第1トラッキング情報D1をそのまま確定トラッキング情報D3として出力するのが望ましい。
具体的には、第1状況は、第1トラッキング情報D1において、同一タイミングにおいて、一つのIDが消滅すると共に新たに別個のIDが生成されている状況である。第2状況は、第1トラッキング情報D1において、ある動体が他の動体と交差している状況である。第3状況は、第1トラッキング情報D1において、ある動体が、一旦、距離画像内から消えた後に、再度、同一のIDの動体として出現している状況である。
第1トラッキング情報D1において、第1状況乃至第3状況のいずれかが発生している場合には、第1トラッキング情報D1に含まれる動体のIDに誤りが発生している可能性がある。例えば、第1状況では、同一の動体が、一のフレームと他のフレームとで異なる動体と誤認識されている可能性がある。又、第2状況では、ある動体が他の動体と交差したタイミングで、当該ある動体が交差した他の動体と誤認識されている可能性がある。又、第3状況では、ある動体が監視対象領域から消えた位置と近接する位置から、当該監視対象領域に入った他の動体が、先に存在した動体と誤認識されている可能性がある(または、その反対の可能性もある)。一方、第1状況乃至第3状況のいずれの状況も発生していない場合には、第1トラッキング情報D1に含まれる動体のIDに誤りが発生している可能性が低い。
かかる観点から、データ比較処理部50は、上記したように、状況に応じて、第1トラッキング情報D1の正誤判定を実施するか否かを決定するのが望ましい。これによって、不必要なデータ処理を割愛し、処理負荷の軽減を図ることができる。
データ出力部60は、データ比較処理部50が生成した確定トラッキング情報D3を、外部に出力する。データ出力部60は、例えば、確定トラッキング情報D3を表示画像形式のデータに変換して、ディスプレイに表示させる。
[画像処理装置の動作フロー]
次に、図8を参照して、本実施形態に係る画像処理装置100の動作の一例について説明する。
図8は、本実施形態に係る画像処理装置100(データ比較処理部50)が確定トラッキング情報を生成する際に実行する処理を示すフローチャートである。図8に示すフローチャートは、例えば、画像処理装置100がコンピュータプログラムに従って、実行するものである。
ステップS1~S5は、第1トラッキング情報D1と第2トラッキング情報D2とを比較する処理を行うための前処理工程である。この前処理工程では、まず、画像処理装置100(第1解析部30)は、時系列に並んだ距離画像に基づいて、第1トラッキング情報D1を生成する(ステップS1)。次に、画像処理装置100(第2解析部40)は、時系列に並んだカメラ画像に基づいて、第2トラッキング情報D2を生成する(ステップS2)。次に、画像処理装置100は、第1トラッキング情報D1と第2トラッキング情報D2とを比較する解析対象時刻(例えば、時刻T=8:00:00)を設定する(ステップS3)。次に、画像処理装置100は、第1トラッキング情報D1と第2トラッキング情報D2とを比較する際の解析対象のフレーム数(例えば、フレーム数n=5)を設定する(ステップS4)。次に、画像処理装置100は、解析対象の時間間隔(例えば、解析対象間隔d=1秒間隔)を設定する(ステップS5)。
次に、画像処理装置100は、ステップS3~S5で設定した条件に沿って、データ比較用の記憶部(例えば、比較用キュー)に、1フレーム分の第1トラッキング情報D1と第2トラッキング情報D2とを登録する(ステップS6)。次に、画像処理装置100は、記憶部に、2フレーム分以上のデータ(第1トラッキング情報D1及び第2トラッキング情報D2)が含まれるか否かを判定し(ステップS7)、2フレーム分以上のデータが含まれる場合(S7:YES)、続くステップS8の判定処理に処理を進め、一方、2フレーム分以上のデータが含まれない場合(S7:NO)、続くステップS12に処理を進める。
次に、画像処理装置100は、記憶部に記憶した第1トラッキング情報D1に、同一タイミング内でのIDの消滅と生成とが含まれる否かを判定し(ステップS8)、IDの消滅と生成とが含まれる場合(S8:YES)、続くステップS9に処理を進める。一方、IDの消滅と生成とが含まれない場合(S8:NO)、続くステップS12に処理を進める。
次に、画像処理装置100は、ステップS8で抽出した消滅IDの動体と、新規生成IDの動体とが、位置及びサイズに関して所定条件を充足するか否かを判定し(ステップS9)、当該所定条件を充足する場合(S9:YES)、続くステップS10に処理を進め、当該所定条件を充足しない場合(S9:NO)、続くステップS12に処理を進める。具体的には、画像処理装置100は、ステップS8で抽出した消滅IDの動体の重心位置と、新規生成IDの動体の重心位置との距離が、画像内で閾値以下(例えば、100ピクセル以内)であるか、及び、両者のサイズの比が、所定範囲内(例えば、0.8~1.2)であるかを判定する。
次に、画像処理装置100は、記憶部に記憶した第2トラッキング情報D2に、第1トラッキング情報D1において動体のIDの消滅と生成が検出された位置付近で、動体のIDの切り替わりが生じていたか否かを判定する(ステップS10)。そして、画像処理装置100は、動体のIDの切り替わりが生じていた場合(S10:YES)、第1トラッキング情報D1のIDに誤りはないとみなして、記憶部に記憶した第1トラッキング情報D1を、そのまま確定トラッキング情報D3として出力する(ステップS12)。一方、画像処理装置100は、動体のIDの切り替わりが生じていない場合(S10:NO)、第1トラッキング情報D1のIDに誤りが生じているとみなして、記憶部に記憶した第1トラッキング情報D1の動体のIDを、第1トラッキング情報D1の元のIDに補正した後(ステップS11)、補正後の第1トラッキング情報D1を、確定トラッキング情報D3として出力する(ステップS12)。
かかる処理により、ステップS4で設定したフレーム数分の第1トラッキング情報D1の補正処理が終了する。そして、画像処理装置100は、続く時刻の第1トラッキング情報D1についての補正処理を実行するため、解析対象時刻を先に進める(T←T+d)(ステップS13)。次に、画像処理装置100は、第1解析部30が出力した第1トラッキング情報D1で、未処理のデータがあるか否かを判定し(ステップS14)、未処理のデータがある場合(S14:YES)、ステップS6に戻って、同様の処理を実行する。一方、未処理のデータがない場合(S14:NO)、一連のフローチャートの処理を終了する。
[効果]
以上のように、本実施形態に係る画像処理装置100は、データ比較処理部50にて、第1トラッキング情報D1と第2トラッキング情報D2とを時間軸を揃えて比較し、第1トラッキング情報D1と第2トラッキング情報D2とに基づいて監視対象領域に存在する動体の位置及びIDを確定して、その結果を確定トラッキング情報D3として出力する。
従って、本実施形態に係る画像処理装置100によれば、監視対象領域に存在する動体の識別性能を向上させることが可能である。これによって、レーザーレーダー200を用いた動体トラッキングの精度を向上させることができる。
(第2の実施形態)
次に、図9を参照して、第2の実施形態に係る画像処理装置100について説明する。図9は、第2の実施形態に係る画像処理装置100の構成を示す図である。
本実施形態に係る画像処理装置100は、レーザーレーダー200に内蔵されている点で、第1の実施形態と相違する。そして、画像処理装置100の第1画像取得部10は、レーザーレーダー200の距離画像生成部210(即ち、距離画像を生成する撮像部)から直接画像データを取得する。
本実施形態に係る画像処理装置100によれば、レーザーレーダー200及びカメラ300以外の別体のコンピュータを用意する必要性をなくすことが可能である。
(第3の実施形態)
次に、図10を参照して、第3の実施形態に係る画像処理装置100について説明する。図10は、第3の実施形態に係る画像処理装置100の構成を示す図である。
本実施形態に係る画像処理装置100は、上記実施形態のカメラ300(以下、「可視光カメラ」と称する)に代えて、サーマルカメラ400からカメラ画像を取得する構成としている点で、第1の実施形態と相違する。
可視光カメラ300により生成されたカメラ画像は、色情報を含むため、高い物体識別精度を実現することができる。一方、監視対象領域が霧に覆われている状況下や、夜間においては、カメラ画像を用いた物体識別精度は低下する。
この点、サーマルカメラ400は、物体から放射される赤外光に基づいてカメラ画像を生成するため、夜間等の状況下においても、高い物体識別精度を実現することができる。そこで、本実施形態に係る画像処理装置100(第2解析部40)は、サーマルカメラ400により生成されたカメラ画像を用いて、第2トラッキング情報D2を生成する。そして、本実施形態に係る画像処理装置100(データ比較処理部50)は、当該第2トラッキング情報D2を用いて、第1トラッキング情報D1のIDの誤りを補正する。
以上のように、本実施形態に係る画像処理装置100によれば、監視対象領域が霧に覆われている状況下や、夜間においても、高精度に動体トラッキングを実行することができる。
尚、本実施形態に係る画像処理装置100は、可視光カメラにより生成されたカメラ画像、及びサーマルカメラ400により生成されたカメラ画像の両方を用いてもよい。又、第2トラッキング情報D2を生成する際には、可視光カメラにより生成されたカメラ画像、及びサーマルカメラ400により生成されたカメラ画像の両方を用いてもよいし、選択的に使用するカメラ画像を切り替えるようにしてもよい。
(その他の実施形態)
本発明は、上記実施形態に限らず、種々に変形態様が考えられる。
例えば、上記実施形態では、レーザーレーダー200の一例として、TOF方式のレーザーレーダーを用いる態様を示したが、レーザーレーダー200の構成は、任意である。例えば、レーザーレーダー200としては、FMCW方式のレーザーレーダー等が用いられてもよい。
又、上記実施形態では、画像処理装置100の構成の一例として、第1画像取得部10、第2画像取得部20、第1解析部30、第2解析部40、データ比較処理部50、及び、データ出力部60の機能が一のコンピュータによって実現されるものとして記載したが、画像処理装置100が複数のコンピュータによって実現されてもよいのは勿論である。又、当該コンピュータに読み出されるプログラムやデータも、複数のコンピュータに分散して格納されてもよい。
以上、本発明の具体例を詳細に説明したが、これらは例示にすぎず、請求の範囲を限定するものではない。請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。
2019年2月26日出願の特願2019-032921の日本出願に含まれる明細書、図面および要約書の開示内容は、すべて本願に援用される。
本開示に係る画像処理装置によれば、レーザーレーダーを用いた動体トラッキングの精度を向上させることが可能である。
U 監視システム
100 画像処理装置
101 CPU
102 ROM
103 RAM
104 外部記憶装置
105 通信インタフェイス
10 第1画像取得部
20 第2画像取得部
30 第1解析部
40 第2解析部
50 データ比較処理部
60 データ出力部
200 レーザーレーダー
210 距離画像生成部
300 カメラ(可視光カメラ)
400 サーマルカメラ
D1 第1トラッキング情報
D2 第2トラッキング情報
D3 確定トラッキング情報

Claims (12)

  1. 所定領域を監視するレーザーレーダーから距離画像の画像データを取得する第1画像取得部と、
    前記所定領域を監視するカメラからカメラ画像の画像データを取得する第2画像取得部と、
    時系列に並ぶ前記距離画像に基づいて、前記所定領域に存在する動体の位置をトラッキングした第1トラッキング情報を生成する第1解析部と、
    時系列に並ぶ前記カメラ画像に基づいて、前記所定領域に存在する動体の位置をトラッキングした第2トラッキング情報を生成する第2解析部と、
    前記第1トラッキング情報と前記第2トラッキング情報とを時間軸を揃えて比較し、前記第1トラッキング情報と前記第2トラッキング情報とに基づいて前記所定領域に存在する動体の識別情報及び位置を確定するデータ比較処理部と、を備え、
    前記データ比較処理部は、前記所定領域に存在する動体が所定の状況に該当する場合、前記第1トラッキング情報と前記第2トラッキング情報とに基づいて、前記所定領域に存在する動体の識別情報及び位置を確定し、前記所定の状況に該当しない場合、前記第2トラッキング情報を参照することなく前記第1トラッキング情報に基づいて、前記所定領域に存在する動体の識別情報及び位置を確定する、
    画像処理装置。
  2. 前記所定の状況は、前記第1トラッキング情報において、同一のタイミングで、一つの識別情報が消滅すると共に、新たに別個の識別情報が生成されている状況を含む、
    請求項1に記載の画像処理装置。
  3. 前記所定の状況は、前記第1トラッキング情報において、一の動体が他の動体と交差している状況を含む、
    請求項1又は2に記載の画像処理装置。
  4. 前記所定の状況は、前記第1トラッキング情報において、一の動体が、一旦、前記距離画像内から消えた後に、再度、同一の識別情報の動体として出現している状況を含む、
    請求項1乃至のいずれか一項に記載の画像処理装置。
  5. 所定領域を監視するレーザーレーダーから距離画像の画像データを取得する第1画像取得部と、
    前記所定領域を監視するカメラからカメラ画像の画像データを取得する第2画像取得部と、
    時系列に並ぶ前記距離画像に基づいて、前記所定領域に存在する動体の位置をトラッキングした第1トラッキング情報を生成する第1解析部と、
    時系列に並ぶ前記カメラ画像に基づいて、前記所定領域に存在する動体の位置をトラッキングした第2トラッキング情報を生成する第2解析部と、
    前記第1トラッキング情報と前記第2トラッキング情報とを時間軸を揃えて比較し、前記第1トラッキング情報と前記第2トラッキング情報とに基づいて前記所定領域に存在する動体の識別情報及び位置を確定するデータ比較処理部と、を備え、
    前記データ比較処理部は、前記レーザーレーダーの視野情報及び前記カメラの視野情報を参照するとともに、前記第1トラッキング情報に含まれる動体の位置と前記第2トラッキング情報に含まれる動体の位置との近接度合い又は大きさの情報に基づいて、前記第1トラッキング情報に含まれる動体と前記第2トラッキング情報に含まれる動体との対応関係を特定して、前記所定領域に存在する動体の識別情報及び位置を確定する、
    画像処理装置。
  6. 前記データ比較処理部は、前記第2トラッキング情報に基づいて、前記第1トラッキング情報に含まれる動体の識別情報を補正する、
    請求項1乃至5のいずれか一項に記載の画像処理装置。
  7. 前記第1解析部及び/又は前記第2解析部は、機械学習により学習済みの識別器モデルを用いて、前記所定領域に存在する動体の位置をトラッキングする、
    請求項1乃至6のいずれか一項に記載の画像処理装置。
  8. 前記カメラは、可視カメラである、
    請求項1乃至7のいずれか一項に記載の画像処理装置。
  9. 前記カメラは、サーマルカメラである、
    請求項1乃至8のいずれか一項に記載の画像処理装置。
  10. 前記カメラは、可視カメラとサーマルカメラとを含む、
    請求項1乃至9のいずれか一項に記載の画像処理装置。
  11. 所定領域を監視するレーザーレーダーから距離画像の画像データを取得し、
    前記所定領域を監視するカメラからカメラ画像の画像データを取得し、
    時系列に並ぶ前記距離画像に基づいて、前記所定領域に存在する動体の位置をトラッキングした第1トラッキング情報を生成し、
    時系列に並ぶ前記カメラ画像に基づいて、前記所定領域に存在する動体の位置をトラッキングした第2トラッキング情報を生成し、
    前記第1トラッキング情報と前記第2トラッキング情報とを時間軸を揃えて比較し、前記第1トラッキング情報と前記第2トラッキング情報とに基づいて前記所定領域に存在する動体の識別情報及び位置を確定し、
    前記所定領域に存在する動体の識別情報及び位置を確定する工程では、前記所定領域に存在する動体が所定の状況に該当する場合、前記第1トラッキング情報と前記第2トラッキング情報とに基づいて、前記所定領域に存在する動体の識別情報及び位置を確定し、前記所定の状況に該当しない場合、前記第2トラッキング情報を参照することなく前記第1トラッキング情報に基づいて、前記所定領域に存在する動体の識別情報及び位置を確定する、
    画像処理方法。
  12. 所定領域を監視するレーザーレーダーから距離画像の画像データを取得し、
    前記所定領域を監視するカメラからカメラ画像の画像データを取得し、
    時系列に並ぶ前記距離画像に基づいて、前記所定領域に存在する動体の位置をトラッキングした第1トラッキング情報を生成し、
    時系列に並ぶ前記カメラ画像に基づいて、前記所定領域に存在する動体の位置をトラッキングした第2トラッキング情報を生成し、
    前記第1トラッキング情報と前記第2トラッキング情報とを時間軸を揃えて比較し、前記第1トラッキング情報と前記第2トラッキング情報とに基づいて前記所定領域に存在する動体の識別情報及び位置を確定し、
    前記所定領域に存在する動体の識別情報及び位置を確定する工程では、前記レーザーレーダーの視野情報及び前記カメラの視野情報を参照するとともに、前記第1トラッキング情報に含まれる動体の位置と前記第2トラッキング情報に含まれる動体の位置との近接度合い又は大きさの情報に基づいて、前記第1トラッキング情報に含まれる動体と前記第2トラッキング情報に含まれる動体との対応関係を特定して、前記所定領域に存在する動体の識別情報及び位置を確定する、
    画像処理方法。
JP2021501857A 2019-02-26 2020-02-07 画像処理装置、及び画像処理方法 Active JP7375806B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019032921 2019-02-26
JP2019032921 2019-02-26
PCT/JP2020/004719 WO2020175085A1 (ja) 2019-02-26 2020-02-07 画像処理装置、及び画像処理方法

Publications (2)

Publication Number Publication Date
JPWO2020175085A1 JPWO2020175085A1 (ja) 2021-12-23
JP7375806B2 true JP7375806B2 (ja) 2023-11-08

Family

ID=72239834

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021501857A Active JP7375806B2 (ja) 2019-02-26 2020-02-07 画像処理装置、及び画像処理方法

Country Status (2)

Country Link
JP (1) JP7375806B2 (ja)
WO (1) WO2020175085A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022012564A (ja) * 2020-07-01 2022-01-17 京セラ株式会社 画像処理装置および測距装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110211754A1 (en) 2010-03-01 2011-09-01 Primesense Ltd. Tracking body parts by combined color image and depth processing
JP2017146957A (ja) 2016-02-19 2017-08-24 トヨタ自動車株式会社 深層畳み込みニューラルネットワークによるレイヤベースの物体検出の強化
WO2019003688A1 (ja) 2017-06-30 2019-01-03 パナソニックIpマネジメント株式会社 投影指示装置、荷物仕分けシステムおよび投影指示方法
JP2019016098A (ja) 2017-07-05 2019-01-31 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110211754A1 (en) 2010-03-01 2011-09-01 Primesense Ltd. Tracking body parts by combined color image and depth processing
JP2017146957A (ja) 2016-02-19 2017-08-24 トヨタ自動車株式会社 深層畳み込みニューラルネットワークによるレイヤベースの物体検出の強化
WO2019003688A1 (ja) 2017-06-30 2019-01-03 パナソニックIpマネジメント株式会社 投影指示装置、荷物仕分けシステムおよび投影指示方法
JP2019016098A (ja) 2017-07-05 2019-01-31 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Rafael Munoz-Salinas et al.,People Detection and Tracking using Stereo Vision and Color,[online],2005年04月,http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.104.7232&rep=rep1&type=pdf

Also Published As

Publication number Publication date
JPWO2020175085A1 (ja) 2021-12-23
WO2020175085A1 (ja) 2020-09-03

Similar Documents

Publication Publication Date Title
US11257223B2 (en) Systems and methods for user detection, identification, and localization within a defined space
US11392146B2 (en) Method for detecting target object, detection apparatus and robot
EP3539054B1 (en) Neural network image processing apparatus
WO2012056443A2 (en) Tracking and identification of a moving object from a moving sensor using a 3d model
US20190266425A1 (en) Identification apparatus, identification method, and non-transitory tangible recording medium storing identification program
JP2018119833A (ja) 情報処理装置、システム、推定方法、コンピュータプログラム、及び記憶媒体
JP2018156408A (ja) 画像認識撮像装置
JP2016143414A (ja) インタラクティブシステム、リモコン及びその操作方法
CN110991292A (zh) 动作识别比对方法、系统、计算机存储介质和电子装置
JP7375806B2 (ja) 画像処理装置、及び画像処理方法
US10796186B2 (en) Part recognition method, information processing apparatus, and imaging control system
WO2021111747A1 (ja) 画像処理装置、監視システム、及び画像処理方法
JP2002366958A (ja) 画像認識方法および画像認識装置
JP6288770B2 (ja) 顔検出方法、顔検出システム、および顔検出プログラム
JP5482412B2 (ja) ロボット、位置推定方法及びプログラム
JP5217917B2 (ja) 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム
JP2019179289A (ja) 処理装置、及びプログラム
JP7124760B2 (ja) 画像処理装置、及び画像処理方法
JP7300331B2 (ja) 機械学習用情報処理装置、機械学習用情報処理方法、および機械学習用情報処理プログラム
Ristić-Durrant et al. Low-level sensor fusion-based human tracking for mobile robot
KR20230158474A (ko) 센싱 시스템
JP7117878B2 (ja) 処理装置、及びプログラム
US20220270282A1 (en) Information processing device, data generation method, and non-transitory computer-readable medium storing program
JP2022118954A (ja) 物体検出装置、及び自律移動体
JP2021051524A (ja) 作業機械周辺検出対象物位置検出システム、作業機械周辺検出対象物位置検出プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231009

R150 Certificate of patent or registration of utility model

Ref document number: 7375806

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150