JP7124760B2 - 画像処理装置、及び画像処理方法 - Google Patents

画像処理装置、及び画像処理方法 Download PDF

Info

Publication number
JP7124760B2
JP7124760B2 JP2019032963A JP2019032963A JP7124760B2 JP 7124760 B2 JP7124760 B2 JP 7124760B2 JP 2019032963 A JP2019032963 A JP 2019032963A JP 2019032963 A JP2019032963 A JP 2019032963A JP 7124760 B2 JP7124760 B2 JP 7124760B2
Authority
JP
Japan
Prior art keywords
image
data
moving object
analysis
analysis data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019032963A
Other languages
English (en)
Other versions
JP2020140225A (ja
Inventor
俊之 村松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2019032963A priority Critical patent/JP7124760B2/ja
Publication of JP2020140225A publication Critical patent/JP2020140225A/ja
Application granted granted Critical
Publication of JP7124760B2 publication Critical patent/JP7124760B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、画像処理装置、及び画像処理方法に関する。
カメラ等で撮影された画像に基づいて、撮像領域内に存在する動体の位置を検出する画像処理装置が知られている。この種の画像処理装置は、特に、工事現場や工場などの業務環境において、人や作業機(以下、「動体」と総称する)の位置を正確に把握し、当該動体の行動又は動作を解析したり、当該動体の行動又は動作を予測する用途(以下、「行動解析」と総称する)への適用が期待されている。
例えば、特許文献1には、解像能力の異なる2つのセンサを利用して動体認識を行い、状況に応じてどちらのセンサの動体認識結果を採用するかを切り替えることで、認識精度を向上させようとする技術が開示されている。
特開2014-167702号公報
ところで、この種の画像処理装置において、動体の行動解析の精度を高めるためには、画像内に映る動体の各部位がどの位置に存在するかを認識する必要がある。
しかしながら、実際には、必ずしも行動解析の対象となる動体の全体が、画像内に映るように撮像されるわけではなく、当該動体の一部が、画像からはみ出すようにして撮像されている場合もある。このような場合、典型的には、当該動体は、画像内において、当該動体の複数の部位が分離するようにして映ることになる(後述する図6A、図6Bを参照)。
この際、従来技術に係る画像処理装置では、画像内に分離して映る一つの動体の複数の部位それぞれを、別個の動体と認識してしまうおそれがある。その結果、動体の数や姿勢、動体のトラッキングの認識の精度悪化を招くことになる。
本開示は、上記問題点に鑑みてなされたもので、画像端に映る動体の認識精度を向上し得る画像処理装置及び画像処理方法を提供することを目的とする。
前述した課題を解決する主たる本開示は、
第1領域を撮像する第1センサから第1画像に係る画像データを取得する第1画像取得部と、
前記第1領域と少なくとも一部が重複し、且つ、前記第1領域に含まれない領域を含む第2領域を撮像する第2センサから第2画像に係る画像データを取得する第2画像取得部と、
前記第1画像に係る画像データに基づいて、前記第1画像内に映る動体の位置及び占有領域を検出した第1解析データを生成する第1解析部と、
前記第2画像に係る画像データに基づいて、前記第2画像内に映る動体の位置及び占有領域を検出した第2解析データを生成する第2解析部と、
前記第1解析データと前記第2解析データとに基づいて、前記第1画像又は前記第2画像の画像端からはみ出るようにして映る動体の識別情報を補間又は補正するデータ比較処理部と、
を備える画像処理装置である。
又、他の局面では、
第1領域を撮像する第1センサから第1画像に係る画像データを取得し、
前記第1領域と少なくとも一部が重複し、且つ、前記第1領域に含まれない領域を含む第2領域を撮像する第2センサから第2画像に係る画像データを取得し、
前記第1画像に係る画像データに基づいて、前記第1画像内に映る動体の位置及び占有領域を検出した第1解析データを生成し、
前記第2画像に係る画像データに基づいて、前記第2画像内に映る動体の位置及び占有領域を検出した第2解析データを生成し、
前記第1解析データと前記第2解析データとに基づいて、前記第1画像又は前記第2画像の画像端からはみ出るようにして映る動体の識別情報を補間又は補正する、
画像処理方法である。
本開示に係る画像処理装置によれば、画像端に映る動体の認識精度を向上することが可能である。
第1の実施形態に係る監視システムの一例を示す図 第1の実施形態に係る監視システムにおけるレーザーレーダーの視野(即ち、撮像範囲)とカメラの視野(即ち、撮像範囲)とを示す図 第1の実施形態に係る画像処理装置のハードウェア構成を示す図 第1の実施形態に係る画像処理装置の機能ブロックを示す図 第1解析部により生成される解析データの一例を示す図 第2解析部により生成される解析データの一例を示す図 第1解析部により生成される解析データを距離画像に重ね合わせて示した図 第2解析部により生成される解析データをカメラ画像に重ね合わせて示した図 データ出力部が生成する表示画像の一例を示す図 第1の実施形態に係る画像処理装置(データ比較処理部)が第1解析データと第2解析データとを比較する処理を示すフローチャート 第2の実施形態に係る図8のフローチャートの処理を模式的に説明する図 第2の実施形態に係る図8のフローチャートの処理を模式的に説明する図 第2の実施形態に係る図8のフローチャートの処理を模式的に説明する図 第2の実施形態に係る画像処理装置の構成を示す図 第3の実施形態に係る画像処理装置の構成を示す図
以下に添付図面を参照しながら、本開示の好適な実施形態について詳細に説明する。尚、本明細書及び図面において、実質的に同一の機能を有する構成要素については、同一の符号を付することにより重複説明を省略する。
(第1の実施形態)
[監視システムの全体構成]
以下、図1~図4を参照して、一実施形態に係る監視システムの構成、及び監視システムに適用した画像処理装置の構成の概要について説明する。
図1は、本実施形態に係る監視システムUの一例を示す図である。本実施形態に係る監視システムUは、工事現場内に存在する動体(ここでは、作業機M1、作業機M2)の動きを解析する用途に適用されている。
本実施形態に係る監視システムUは、画像処理装置100、レーザーレーダー200、及び、カメラ300を備えている。
レーザーレーダー200(本発明の「第1センサ」に相当)(Light Detection And Ranging:LiDARとも称される)は、レーザ光を打ち出し、当該レーザ光が動体に反射して戻ってくるまでの時間(TOF:Time of Flight)を測定することで、自身の位置から動体の位置までの距離を求める。レーザーレーダー200は、かかる処理を、監視対象領域が映る所定範囲内を走査しながら行うことにより、距離画像に係る画像データ(以下、「距離画像」と略称する)を生成する。尚、レーザーレーダー200は、フレーム単位の距離画像を連続的に生成し、時系列に並んだ距離画像(即ち、動画像)を画像処理装置100に対して出力する。
距離画像は、各走査位置を画素として、画素毎に、レーザーレーダー200の測定データ(例えば、距離及び反射強度)が画素値として対応付けられた画像である(点群データとも称される)。距離画像は、監視対象領域内における動体の3次元(例えば、水平方向、鉛直方向、及び奥行方向)の位置を示すものであり、例えば、動体の存在位置を3次元の直交座標系(X、Y、Z)で表す。
カメラ300(本発明の「第2センサ」に相当)は、例えば、可視カメラであり、自身の有する撮像素子(CMOSセンサ又はCCDセンサ)が生成した画像信号をAD変換して、カメラ画像に係る画像データ(以下、「カメラ画像」と略称する)を生成する。尚、カメラ300は、フレーム単位のカメラ画像を連続的に生成して、時系列に並んだカメラ画像(即ち、動画像)を画像処理装置100に対して出力する。
カメラ画像は、例えば、画素毎に、RGBそれぞれについての輝度値(例えば、RGBそれぞれについての256階調の輝度値)が画素値として対応付けられた画像である。
図2は、本実施形態に係る監視システムUにおけるレーザーレーダー200の視野(即ち、撮像範囲)とカメラ300の視野(即ち、撮像範囲)とを示す図である。尚、図2中では、R1領域がレーザーレーダー200の視野を表し、R2領域がカメラ300の視野を表す。
レーザーレーダー200及びカメラ300は、同一の監視対象領域を撮像するように、当該監視対象領域付近の適宜な位置に設置されている。即ち、レーザーレーダー200の視野とカメラ300の視野とは、注目視野が共通となるように設置されている。但し、レーザーレーダー200の視野の一部は、カメラ300の視野外の領域を含み、カメラ300の視野の一部は、レーザーレーダー200の視野外の領域を含む。
一般に、レーザーレーダー200の視野は、図2のR1領域に示すように、横方向(ここでは、水平方向)に長く、縦方向(ここでは、垂直方向)に短い。一方、カメラ300の視野は、図2のR2領域に示すように、レーザーレーダー200の視野に比較して、正方形に近い。そのため、レーザーレーダー200の視野(即ち、撮像対象領域)は、横方向については、カメラ300の視野(即ち、撮像対象領域)よりも広く、縦方向については、カメラ300の視野(即ち、撮像対象領域)よりも狭くなるケースが多い。そのため、レーザーレーダー200の視野とカメラ300の視野とは、一部が重複し、一部が他方の視野外の領域を含んでいる。
画像処理装置100は、レーザーレーダー200で生成された距離画像の画像データ、及び、カメラ300で生成されたカメラ画像の画像データに基づいて、監視対象領域内に存在する動体(図1では、作業機M1、作業機M2)の動きをトラッキングし、そのトラッキング結果を出力する。
図3は、本実施形態に係る画像処理装置100のハードウェア構成を示す図である。
画像処理装置100は、主たるコンポーネントとして、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、外部記憶装置(例えば、フラッシュメモリ)104、及び通信インタフェイス105等を備えたコンピュータである。
画像処理装置100の後述する各機能は、例えば、CPU101がROM102、RAM103、外部記憶装置104等に記憶された制御プログラム(例えば、画像処理プログラム)や各種データを参照することによって実現される。但し、各機能の一部又は全部は、CPUによる処理に代えて、又は、これと共に、DSP(Digital Signal Processor)による処理によって実現されてもよい。又、同様に、各機能の一部又は全部は、ソフトウェアによる処理に代えて、又は、これと共に、専用のハードウェア回路(例えば、ASIC又はFPGA)による処理によって実現されてもよい。
[画像処理装置の構成]
次に、図4~図7を参照して、本実施形態に係る画像処理装置100の構成の一例について説明する。
図4は、本実施形態に係る画像処理装置100の機能ブロックを示す図である。尚、図4中の矢印は、データの流れを表す。
図5Aは、第1解析部30により生成される解析データD1の一例を示す図であり、図5Bは、第2解析部40により生成される解析データD2の一例を示す図である。尚、図5A、図5Bは、各クレームにおける動体の位置を示しており、ID(本発明の「識別情報」に相当する)は各動体の識別番号を表し、t=0、t=1、t=2…はフレーム番号を表す。
図6Aは、第1解析部30により生成される解析データD1(即ち、動体の位置及び占有領域)を距離画像に重ね合わせて示した図であり、図6Bは、第2解析部40により生成される解析データD2(即ち、動体の位置及び占有領域)をカメラ画像に重ね合わせて示した図である。
画像処理装置100は、第1画像取得部10、第2画像取得部20、第1解析部30、第2解析部40、データ比較処理部50、及び、データ出力部60を備えている。
第1画像取得部10は、レーザーレーダー200が生成した距離画像(本発明の「第1画像」に相当)を取得する。尚、第1画像取得部10は、レーザーレーダー200から、時系列に並んだ距離画像を順次取得する。
第2画像取得部20は、カメラ300が生成したカメラ画像(本発明の「第2画像」に相当)を取得する。尚、第2画像取得部20は、カメラ300から、時系列に並んだカメラ画像を順次取得する。
第1解析部30は、距離画像内に映る動体の位置及び占有領域を検出した解析データ(以下、「第1解析データ」と称する)D1を生成する。この際、第1解析部30は、時系列に並んだ距離画像に基づいて、監視対象領域に存在する動体の位置を解析し、その結果を第1解析データD1として出力する。
具体的には、第1解析部30は、時系列に並んだ距離画像の各フレームに映る動体を検出し、動体毎に、IDを付与すると共に、その動体が存在する位置及び占有領域を、IDと関連付けて記憶する。第1解析部30は、例えば、注目フレームで検出された動体とその前フレームで検出された動体との関連度を算出し、当該関連度に基づいて、注目フレームで検出された動体と前フレームで検出された動体との同一性を判定する。そして、この際、第1解析部30は、注目フレームで検出された動体と前フレームで検出された動体とが同一である場合には、注目フレームで検出された動体に対して、前フレームで検出された動体と同一のIDを付与し、注目フレームで検出された動体と前フレームで検出された動体とが同一でない場合には、注目フレームで検出された動体に対して、新規なIDを付与する。このようにして、第1解析部30は、各フレームに映る動体を、各別に、トラッキングする。
第1解析部30は、本実施形態では、人や作業機等、一体的な動体毎に、IDを付与すると共に、その存在位置を特定する。但し、第1解析部30は、人の腕、頭、又は脚等、一つの個体の各部位を各別の動体として認識し、当該個体の部位毎の位置を認識するものであってもよい。
尚、第1解析部30が距離画像中から動体を検出する手法は、公知の任意の手法であってよい。第1解析部30は、例えば、注目フレームと前フレームとの差分を取ることによって、動体を検出してもよい。又、第1解析部30は、例えば、距離画像中の測距点のクラスタの特徴量(例えば、形状及びサイズ等)に基づいて、パターンマッチングにより、動体(例えば、人や車)を検出してもよい。
又、第1解析部30が異なるフレーム間で各動体の同一性を判定する手法は、公知の任意の手法であってよい。第1解析部30は、例えば、注目フレームで検出された動体と前フレームで検出された動体との間の距離、両者の間のサイズの類似性、両者の間の形状の類似性、両者の間の色の類似性、及び、両者の間の移動速度の類似性等に基づいて、両者の間の関連度を算出し、両者の間の関連度が閾値以上の場合には、注目フレームで検出された動体と前フレームで検出された動体とを同一の動体と認識する。
但し、より好適には、第1解析部30(及び/又は第2解析部40)は、機械学習により学習済みの識別器モデルを用いて、画像(ここでは、距離画像)中から動体を検出したり、異なるフレーム間で動体の同一性を判定する。これにより、動体の見え方の変化に対する、動体検出のロバスト性を高めることが可能である。例えば、画像中から動体を検出する手法としては、畳み込みニュートラルネットワーク(Convolutional Neural Network:CNN)を用いるのが好適である。又、異なるフレーム間で各動体の同一性を判定する手法としては、例えば、隠れマルコフモデル(Hidden Markov Model:HMM)を用いるのが好適である。その際、識別器モデルに対しては、入力画像と正解値とが関連付けられて構成された学習データを用いた強化学習により、機械学習を実行すればよい。
第1解析データD1は、例えば、時系列に並んだ距離画像の各フレームにおける動体の位置(ここでは、三次元の座標位置)及び占有領域を示すデータである(図5Aを参照)。第1解析データD1は、例えば、動体毎に、IDと当該動体の位置及び占有領域の時間的変化に係る情報を含む。即ち、第1解析データD1は、各フレームに映る同一の動体には、一つのIDのみを付与して、当該動体を識別している。そして、監視対象領域内に複数の動体が存在する場合には、第1解析データD1は、複数の動体それぞれに各別のIDを付与して、当該動体の位置及び占有領域の時間的変化を関連付けて記録する。
第2解析部40は、カメラ画像内に映る動体の位置及び占有領域を検出した解析データ(以下、「第2解析データ」と称する)を生成する。この際、第2解析部40は、時系列に並んだカメラ画像に基づいて、監視対象領域に存在する動体の位置をトラッキングし、その結果を第2解析データD2として出力する。
第2解析部40がカメラ画像中から動体を検出する手法、及び異なるフレーム間で各動体を同定する手法は、第1解析部30と同様に、公知の任意の手法を用いることができる。尚、第2解析部40は、これらの処理の際に、第1解析部30と同様に、学習済みの識別器モデルを用いるのが望ましい。
第2解析データD2は、例えば、時系列に並んだカメラ画像の各フレームにおける動体の位置(ここでは、二次元の座標位置)及び占有領域を示すデータである(図5Bを参照)。第2解析データD2には、第1解析データD1と同様に、動体毎に、IDと当該動体の位置及び占有領域の時間的変化とが関連付けて記録されている。
データ比較処理部50は、第1解析データD1と第2解析データD2とを時間軸を揃えて比較し、第1解析データD1と第2解析データD2とに基づいて、距離画像又はカメラ画像の画像端からはみ出るようにして映る動体の識別情報(即ち、ID)を補間又は補正した上で、監視対象領域に存在する動体の位置、占有領域及びIDを確定した確定データD3を出力する。
まず、図6A及び図6Bを参照して、データ比較処理部50における、1フレーム分のデータ比較処理について、説明する。
図6Aでは、距離画像において、動体M1の下方側の部位が下方側の画像端からはみ出し、当該動体M1の前部M1aと後部M1bとが分離して映った状態を示している。又、図6Aでは、距離画像内においては、動体M2の上方側の部位が上方側の画像端からはみ出し、当該動体M2の前部M2aと後部M2bとが分離して映った状態を示している。このような場合、第1解析部30は、動体M1の前部M1aと後部M1bとを別個の動体として認識し、又、動体M2の前部M2aと後部M2bとを別個の動体として認識してしまう。
一方、図6Bでは、カメラ画像において、動体M1のすべての部位、及び動体M2のすべての部位が、画像内に映った状態を示している。このような場合、第2解析部40は、動体M1を一体的な一つの動体として認識し、同様に、動体M2を一体的な一つの動体として認識する。
データ比較処理部50は、かかる観点から、距離画像から検出された動体の位置及び占有領域と、当該距離画像と同一時刻に生成されたカメラ画像から検出された動体の位置及び占有領域とを比較して、距離画像又はカメラ画像の一方の画像端からはみ出るようにして映る動体の識別情報を補間又は補正する。
具体的には、データ比較処理部50は、カメラ画像又は距離画像の一方から検出された一つの動体の占有領域内に、カメラ画像又は距離画像の他方から検出された動体が複数存在するか否かを判定し、一方から検出された一つの動体の占有領域内に、他方から検出された動体が複数存在する場合、他方から検出された複数の動体を一体的な一つの動体(即ち、単一の動体)と識別する。
図6A、図6Bの例では、カメラ画像から検出された動体M1の占有領域内に、距離画像から検出された動体M1aと動体M1bとが含まれているため、データ比較処理部50は、距離画像から検出された動体M1aと動体M1bとを同一の動体であると認識する。又、同様に、カメラ画像から検出された動体M2の占有領域内に、距離画像から検出された動体M2aと動体M2bとが含まれているため、データ比較処理部50は、距離画像から検出された動体M2aと動体M2bとを同一の動体であると認識する。
そして、データ比較処理部50は、この識別結果(例えば、距離画像内で検出された動体の位置及び占有領域と、カメラ画像内で検出された動体の位置及び占有領域とを関連付けたデータ)を、確定データD3として出力する。このように、データ比較処理部50は、より広角な視野を有するカメラ300で生成されたカメラ画像を利用して、距離画像からはみ出して映る動体の全体領域を把握する。これによって、距離画像及び/又はカメラ画像に映る動体の数、位置及び占有領域を、正確に認識することを可能とする。
尚、データ比較処理部50にて当該処理を実行し得るように、距離画像が示す座標位置(即ち、第1解析データD1が示す座標位置)とカメラ画像が示す座標位置(即ち、第2解析データD2が示す座標位置)との対応関係を示すデータを、予め画像処理装置100のROM102等に記憶しておくのが望ましい。
データ比較処理部50は、このようにして、第1解析データD1と第2解析データD2との比較処理を行い、1フレーム分の確定データD3を生成する。そして、データ比較処理部50は、第1解析データD1及び第2解析データD2の各フレームについて、上記と同様の処理を行い、監視対象領域内に存在する動体の位置及び占有領域を、IDと関連付けた時系列な情報を、確定データD3として生成する。
データ比較処理部50が生成する確定データD3のデータ構成は、任意である。確定データD3は、例えば、第1解析データD1及び第2解析データD2と共に、距離画像又はカメラ画像の画像端からはみ出るようにして映る動体の識別情報を補間したデータを付帯させたものであってもよい。又、確定データD3は、例えば、第1解析データD1及び第2解析データD2の一方のIDを、上記した比較処理にて補正したデータであってもよい。
データ出力部60は、確定データD3に基づいて、監視対象領域内に存在する動体の位置及び占有領域を特定する表示画像を生成し、当該表示画像をディスプレイ(図示せず)に表示させる。
図7は、データ出力部60が生成する表示画像の一例を示す図である。尚、図7に示す表示画像は、距離画像上に、2つの動体M1、M2それぞれの位置及び占有領域をマークにより表したものである。
表示画像内では、動体M1、M2それぞれの位置及び占有領域は、実線で囲むようにマークされている。又、表示画像内では、一つの動体M1の部位M1a及びM1bそれぞれの位置及び占有領域は、動体M1の占有領域を示す実線の中で、点線で囲むようにマークされている。又、表示画像内では、他の動体M2の部位M2a及びM2bそれぞれの位置及び占有領域が、動体M2の占有領域を示す実線の中で、点線で囲むようにマークされている。
図7中では、動体M2は、当該動体M2の上端側の部位が距離画像の画像端からはみ出すように、画像内に映っているが、当該動体M2の位置及び占有領域は、確定データD3上では、カメラ画像から検出された動体M2の位置及び占有領域により、データ補間されている。
このようにして、ユーザは、表示画像から動体M1、M2それぞれの数や位置、及び占有領域を正確に把握することができる。そして、これによって、ユーザは、動体M1、M2それぞれの姿勢を推定したり、動体M1、M2それぞれの行動を予測したりすることができる。
[画像処理装置の動作フロー]
次に、図8、図9A、図9B、図9Cを参照して、本実施形態に係る画像処理装置100の動作の一例について説明する。
図8は、本実施形態に係る画像処理装置100(データ比較処理部50)が第1解析データD1と第2解析データD2とを比較する処理を示すフローチャートである。図8に示すフローチャートは、例えば、画像処理装置100がコンピュータプログラムに従って、所定間隔(例えば、100ms間隔)で実行するものである。
図9A、図9B、図9Cは、図8のフローチャートの処理を模式的に説明する図である。
ステップS1~S4は、第1解析データD1と第2解析データD2とを比較する処理を行うための前処理工程である。この前処理工程では、まず、画像処理装置100は、時系列の距離画像に基づいて、第1解析データD1を生成する(ステップS1)。次に、画像処理装置100は、時系列のカメラ画像に基づいて、第2解析データD2を生成する(ステップS2)。次に、画像処理装置100は、第1解析データD1と第2解析データD2とを比較する解析対象時刻(例えば、時刻T=8:00:00)を設定する(ステップS3)。次に、画像処理装置100は、解析対象の間隔(例えば、時間間隔d=1秒)を設定する(ステップS4)。
次に、画像処理装置100は、第1解析データD1(ID、動体の位置、及び動体の占有領域を示すデータ)のうち、時刻Tのフレームのデータを、配列形式の記憶部である第1配列に設定する(図9Aを参照)(ステップS5)。次に、画像処理装置100は、時刻Tの第2解析データD2(ID、動体の位置、及び動体の占有領域を示すデータ)のうち、時刻Tのフレームのデータを、配列形式の記憶部である第2配列に記憶する(図9Aを参照)(ステップS6)。次に、画像処理装置100は、配列形式の記憶部である補間データ配列を作成(又は初期化)する(図9Aを参照)(ステップS7)。
次に、画像処理装置100は、第2解析データD2中の読み出し対象の変数n(ここでは、第2解析データD2中のIDの要素を表す)を、まず、n=0に設定し(ステップS8)、ステップS8a~S8bまで、変数nを順番にインクリメントしていくループ処理を実行する。次に、画像処理装置100は、第1解析データD1中の読み出し対象の変数i(ここでは、第1解析データD1中のIDの要素を表す)を、まず、i=0に設定し(ステップS9)、ステップS9a~S9bまで、変数iを順番にインクリメントしていくループ処理を実行する。
このステップS9a~S9bのループ処理内では、画像処理装置100は、第2解析データD2中の動体[n]の占有領域内に、第1解析データD1中の動体[i]の占有領域が閾値(例えば、80%)以上含まれるか否かを判定する(ステップS10)。そして、画像処理装置100は、第2解析データD2中の動体[n]の占有領域内に、第1解析データD1中の動体[i]の占有領域が閾値(例えば、80%)以上含まれる場合には(S10:Yes)、補間データ配列に、第2解析データD2中の動体[n]と第1解析データD1中の動体[i]とを関連付けて記憶した上で(ステップS11)(図9Bを参照)、変数iをインクリメントして(i←i+1)、再度、ステップS10の判定処理を実行する。一方、第2解析データD2中の動体[n]の占有領域内に、第1解析データD1中の動体[i]の占有領域が閾値(例えば、80%)以上含まれない場合には(S10:No)、画像処理装置100は、特に処理を実行せず、変数iをインクリメントして(i←i+1)、再度、ステップS10の判定処理を実行する。
変数iに係るすべて要素について、ステップS9a~S9bの処理が終了した後、同様に、ステップS8a~S8bのループ処理に従って、変数nを順番にインクリメントし、補間データ配列に、第2解析データD2中の動体[n]と第1解析データD1中の動体[i]とを関連付けて記憶していく(図9Cを参照)。そして、画像処理装置100は、すべての第2解析データD2中の動体[n]と第1解析データD1中の動体[i]との関係について判定する。
これにより、第2解析データD2の各動体と、第1解析データD1の各動体との対応関係が特定される。図9B、図9Cの例では、距離画像から生成された各動体M1a、M1b、M2a、M2bと、カメラ画像から生成された各動体M1、M2との対応関係が特定され、第1解析データD1の動体M1a及び動体M1bは、第2解析データD2の動体M1と同一の動体であり、第1解析データD1の動体M2a及び動体M2bは、第2解析データD2の動体M2と同一の動体であることが、補間データ配列に記憶されている。
次に、画像処理装置100は、すべての時刻のフレームについて、第1解析データD1と第2解析データD2との間の対応関係の判定処理が実行されたか否かを判定し(ステップS12)、すべての時刻のフレームについて、第1解析データD1と第2解析データD2との間の対応関係の判定処理が実行されていない場合(S12:Yes)、時刻を進めて(T←T+d)(ステップS13)、ステップS5~S12の処理を同様に実行する。そして、すべての時刻のフレームについて、第1解析データD1と第2解析データD2との間の対応関係の判定処理が実行された場合(S12:No)、図8のフローチャートの処理を終了する。
[効果]
以上のように、本実施形態に係る画像処理装置100は、データ比較部50にて、第1解析データD1と第2解析データD2とに基づいて、第1画像(例えば、距離画像)又は第2画像(例えば、カメラ画像)の画像端からはみ出るようにして映る動体の識別情報(ID)を補間又は補正して、動体の位置及び占有領域を確定した確定データD3を生成する。
従って、本実施形態に係る画像処理装置100によれば、第1画像(例えば、距離画像)又は第2画像(例えば、カメラ画像)から、はみ出るようにして映る動体を正確に識別することが可能である。
これによって、監視対象領域内に存在する動体の正確な数と位置を認識することが可能となる。加えて、これによって、監視対象領域内に存在する動体の姿勢をより正確に把握することも可能となるため、行動解析の精度向上にも資する。
(第2の実施形態)
次に、図10を参照して、第2の実施形態に係る画像処理装置100について説明する。図10は、第2の実施形態に係る画像処理装置100の構成を示す図である。
本実施形態に係る画像処理装置100は、レーザーレーダー200に内蔵されている点で、第1の実施形態と相違する。そして、画像処理装置100の第1画像取得部10は、レーザーレーダー200の距離画像生成部210(即ち、距離画像を生成する撮像部)から直接画像データを取得する。
本実施形態に係る画像処理装置100によれば、レーザーレーダー200及びカメラ300以外の別体のコンピュータを用意する必要性をなくすことが可能である。
(第3の実施形態)
次に、図11を参照して、第3の実施形態に係る画像処理装置100について説明する。図11は、第3の実施形態に係る画像処理装置100の構成を示す図である。
本実施形態に係る画像処理装置100は、上記実施形態のカメラ300(以下、「可視光カメラ」と称する)に代えて、サーマルカメラ400からカメラ画像を取得する構成としている点で、第1の実施形態と相違する。
可視光カメラ300により生成されたカメラ画像は、色情報を含むため、高い動体識別精度を実現することができる。一方、監視対象領域が霧に覆われている状況下や、夜間においては、カメラ画像を用いた動体識別精度は低下する。
この点、サーマルカメラ400は、動体から放射される赤外光に基づいてカメラ画像を生成するため、夜間等の状況下においても、高い動体識別精度を実現することができる。そこで、本実施形態に係る画像処理装置100(第2解析部40)は、サーマルカメラ400により生成されたカメラ画像を用いて、第2解析データD2を生成する。そして、本実施形態に係る画像処理装置100(データ比較処理部50)は、当該第2解析データD2を用いて、第1解析データD1のIDの誤りを補正する。
以上のように、本実施形態に係る画像処理装置100によれば、監視対象領域が霧に覆われている状況下や、夜間においても、高精度に動体を認識することができる。
尚、画像処理装置100は、可視光カメラ300により生成されたカメラ画像、及びサーマルカメラ400により生成されたカメラ画像の両方を用いてもよい。そして、第2解析データD2を生成する際には、可視光カメラ300により生成されたカメラ画像、及びサーマルカメラ400により生成されたカメラ画像の両方を用いてもよいし、選択的に使用するカメラ画像を切り替えるようにしてもよい。
(その他の実施形態)
本発明は、上記実施形態に限らず、種々に変形態様が考えられる。
上記実施形態では、画像処理装置100の構成の一例として、第1画像取得部10、第2画像取得部20、第1解析部30、第2解析部40、データ比較処理部50、及び、データ出力部60の機能が一のコンピュータによって実現されるものとして記載したが、複数のコンピュータによって実現されてもよいのは勿論である。又、当該コンピュータに読み出されるプログラムやデータも、複数のコンピュータに分散して格納されてもよい。
以上、本発明の具体例を詳細に説明したが、これらは例示にすぎず、請求の範囲を限定するものではない。請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。
本開示に係る画像処理装置によれば、画像端に映る動体の認識精度を向上することが可能である。
U 監視システム
100 画像処理装置
101 CPU
102 ROM
103 RAM
104 外部記憶装置
105 通信インタフェイス
10 第1画像取得部
20 第2画像取得部
30 第1解析部
40 第2解析部
50 データ比較処理部
60 データ出力部
200 レーザーレーダー
210 距離画像生成部
300 カメラ(可視光カメラ)
400 サーマルカメラ
D1 第1解析データ
D2 第2解析データ
D3 確定データ

Claims (9)

  1. 第1領域を撮像する第1センサから第1画像に係る画像データを取得する第1画像取得部と、
    前記第1領域と少なくとも一部が重複し、且つ、前記第1領域に含まれない領域を含む第2領域を撮像する第2センサから第2画像に係る画像データを取得する第2画像取得部と、
    前記第1画像に係る画像データに基づいて、前記第1画像内に映る動体の位置及び占有領域を検出した第1解析データを生成する第1解析部と、
    前記第2画像に係る画像データに基づいて、前記第2画像内に映る動体の位置及び占有領域を検出した第2解析データを生成する第2解析部と、
    前記第1解析データと前記第2解析データとに基づいて、前記第1画像又は前記第2画像の画像端からはみ出るようにして映る動体の識別情報を補間又は補正するデータ比較処理部と、
    を備える画像処理装置。
  2. 前記データ比較処理部は、前記第1画像内で検出された一つの動体の占有領域内に、前記第2画像内で検出された動体が複数存在する場合、前記第2画像内で検出された複数の動体を単一の動体と識別する、
    請求項1に記載の画像処理装置。
  3. 前記データ比較処理部は、前記第1解析データ又は前記第2解析データの少なくともいずれか一方の識別情報を補間又は補正したデータを、確定データとして出力する、
    請求項1又は2に記載の画像処理装置。
  4. 前記第1センサは、レーザーレーダーであり、
    前記第2センサは、可視光カメラである、
    請求項1乃至3のいずれか一項に記載の画像処理装置。
  5. 前記第1センサは、レーザーレーダーであり、
    前記第2センサは、サーマルカメラである、
    請求項1乃至3のいずれか一項に記載の画像処理装置。
  6. 前記第1センサは、レーザーレーダーであり、
    前記第2センサは、可視光カメラ及びサーマルカメラである、
    請求項1乃至3のいずれか一項に記載の画像処理装置。
  7. 前記第1解析部は、時系列に並ぶ前記第1画像に係る画像データに基づいて、前記第1画像に映る動体の位置及び占有領域を検出した前記第1解析データを生成し、
    前記第2解析部は、時系列に並ぶ前記第2画像に係る画像データに基づいて、前記第2画像に映る動体の位置及び占有領域を検出した前記第2解析データを生成し、
    前記データ比較処理部は、前記第1解析データと前記第2解析データとを時間軸を揃えて比較する、
    請求項1乃至6のいずれか一項に記載の画像処理装置。
  8. 前記第1解析部及び/又は前記第2解析部は、機械学習により学習済みの識別器モデルを用いて、画像内に映る動体の位置及び占有領域を検出する、
    請求項1乃至7のいずれか一項に記載の画像処理装置。
  9. 第1領域を撮像する第1センサから第1画像に係る画像データを取得し、
    前記第1領域と少なくとも一部が重複し、且つ、前記第1領域に含まれない領域を含む第2領域を撮像する第2センサから第2画像に係る画像データを取得し、
    前記第1画像に係る画像データに基づいて、前記第1画像内に映る動体の位置及び占有領域を検出した第1解析データを生成し、
    前記第2画像に係る画像データに基づいて、前記第2画像内に映る動体の位置及び占有領域を検出した第2解析データを生成し、
    前記第1解析データと前記第2解析データとに基づいて、前記第1画像又は前記第2画像の画像端からはみ出るようにして映る動体の識別情報を補間又は補正する、
    画像処理方法。
JP2019032963A 2019-02-26 2019-02-26 画像処理装置、及び画像処理方法 Active JP7124760B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019032963A JP7124760B2 (ja) 2019-02-26 2019-02-26 画像処理装置、及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019032963A JP7124760B2 (ja) 2019-02-26 2019-02-26 画像処理装置、及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2020140225A JP2020140225A (ja) 2020-09-03
JP7124760B2 true JP7124760B2 (ja) 2022-08-24

Family

ID=72264861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019032963A Active JP7124760B2 (ja) 2019-02-26 2019-02-26 画像処理装置、及び画像処理方法

Country Status (1)

Country Link
JP (1) JP7124760B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110211754A1 (en) 2010-03-01 2011-09-01 Primesense Ltd. Tracking body parts by combined color image and depth processing
JP2015195018A (ja) 2014-03-18 2015-11-05 株式会社リコー 画像処理装置、画像処理方法、運転支援システム、プログラム
JP2017182696A (ja) 2016-03-31 2017-10-05 株式会社デンソー 物体認識装置及び物体認識方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002099907A (ja) * 2000-09-22 2002-04-05 Mazda Motor Corp 物体認識装置
JP3941765B2 (ja) * 2003-09-11 2007-07-04 トヨタ自動車株式会社 物体検出装置
JP6151670B2 (ja) * 2014-06-30 2017-06-21 本田技研工業株式会社 移動支援装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110211754A1 (en) 2010-03-01 2011-09-01 Primesense Ltd. Tracking body parts by combined color image and depth processing
JP2015195018A (ja) 2014-03-18 2015-11-05 株式会社リコー 画像処理装置、画像処理方法、運転支援システム、プログラム
JP2017182696A (ja) 2016-03-31 2017-10-05 株式会社デンソー 物体認識装置及び物体認識方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Zheng Zhang, 外1名,"Accurate pedestrian detection using RGB-D camera",2017 IEEE 9th International Conference on Communication Software and Networks (ICCSN),2017年,p.1218-1222
栗田裕二, 外2名,"車載画像認識ソフトウェア",映像情報インダストリアル,日本,産業開発機構(株),2018年08月01日,第50巻, 第8号,p.25-29

Also Published As

Publication number Publication date
JP2020140225A (ja) 2020-09-03

Similar Documents

Publication Publication Date Title
JP4883517B2 (ja) 三次元計測装置および三次元計測方法並びに三次元計測プログラム
US10540777B2 (en) Object recognition device and object recognition system
JP5950296B2 (ja) 人物追跡属性推定装置、人物追跡属性推定方法、プログラム
JP6621836B2 (ja) 光パターンの強度変動を利用した体積内の物体の深さマッピング
JP6897787B2 (ja) 姿勢認識システム、画像補正プログラムおよび画像補正方法
JP2017103602A (ja) 位置検出装置、位置検出方法及びプログラム
JP5262705B2 (ja) 運動推定装置及びプログラム
US10509513B2 (en) Systems and methods for user input device tracking in a spatial operating environment
CN110991292A (zh) 动作识别比对方法、系统、计算机存储介质和电子装置
JP2002366958A (ja) 画像認識方法および画像認識装置
Yu et al. Anchor distance for 3d multi-object distance estimation from 2d single shot
KR102129916B1 (ko) 이벤트 정보를 포함하는 영상을 분석하는 장치 및 방법
JP6288770B2 (ja) 顔検出方法、顔検出システム、および顔検出プログラム
WO2021111747A1 (ja) 画像処理装置、監視システム、及び画像処理方法
KR100998709B1 (ko) 물체의 공간적 의미정보를 이용한 로봇의 자기위치 추정 방법
JP7124760B2 (ja) 画像処理装置、及び画像処理方法
JP7375806B2 (ja) 画像処理装置、及び画像処理方法
CN112233139A (zh) 用于在3d数据重建过程中检测运动的系统和方法
JP5482412B2 (ja) ロボット、位置推定方法及びプログラム
US20230091536A1 (en) Camera Placement Guidance
US20220201164A1 (en) Image registration apparatus, image generation system, image registration method, and image registration program product
US20220270282A1 (en) Information processing device, data generation method, and non-transitory computer-readable medium storing program
JP4475060B2 (ja) 人検出装置
JP7117878B2 (ja) 処理装置、及びプログラム
JP7300331B2 (ja) 機械学習用情報処理装置、機械学習用情報処理方法、および機械学習用情報処理プログラム

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190708

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191016

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220725

R150 Certificate of patent or registration of utility model

Ref document number: 7124760

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150