JP2021047684A - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP2021047684A
JP2021047684A JP2019170342A JP2019170342A JP2021047684A JP 2021047684 A JP2021047684 A JP 2021047684A JP 2019170342 A JP2019170342 A JP 2019170342A JP 2019170342 A JP2019170342 A JP 2019170342A JP 2021047684 A JP2021047684 A JP 2021047684A
Authority
JP
Japan
Prior art keywords
image
depth image
image data
camera
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019170342A
Other languages
English (en)
Inventor
浜崎 岳史
Takeshi Hamazaki
岳史 浜崎
元田 一真
Kazuma Motoda
一真 元田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2019170342A priority Critical patent/JP2021047684A/ja
Publication of JP2021047684A publication Critical patent/JP2021047684A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

【課題】カメラ画像と、デプス画像との対応付けを容易に行うことができる画像処理装置を提供する。【解決手段】画像処理装置10は、対象物のカメラ画像データ、及び、対象物のデプス画像データの入力を受け付ける画像入力部11と、デプス画像データに対して階調補正処理を施した補正デプス画像データを生成する画像処理部12と、カメラ画像データ及び補正デプス画像データを出力する画像出力部13と、カメラ画像データに基づく画像であるカメラ画像における位置と、補正デプス画像データに基づく画像である補正デプス画像における位置との対応付けに関する対応情報の入力を受け付ける情報入力部14と、カメラ画像データ、デプス画像データ、及び対応情報に基づいて、カメラ画像に撮像されている物体の距離情報を検出し、物体と距離情報とを関連付ける検出部15と、を備える。【選択図】図1

Description

本開示は、画像処理装置に関する。
従来、撮像素子を用いて撮像したカメラ画像から被写体を抽出するために、被写体の距離画像(つまり、デプス画像)を用いる技術が知られている(例えば、特許文献1など参照)。
特許文献1に記載され被写体識別装置においては、デプス画像から面を検出し、当該面に対応するカメラ画像の画像領域を切り出すことで、カメラ画像に撮像されている被写体の領域を特定しようとしている。
特開2014−134856号公報
本開示は、カメラ画像と、デプス画像との対応付けを容易に行うことができる画像処理装置を提供する。
本開示の一態様に係る画像処理装置は、対象物のカメラ画像データ、及び、前記対象物のデプス画像データの入力を受け付ける画像入力部と、前記デプス画像データに対して階調補正処理を施した補正デプス画像データを生成する画像処理部と、前記カメラ画像データ及び前記補正デプス画像データを出力する画像出力部と、前記カメラ画像データに基づく画像であるカメラ画像における位置と、前記補正デプス画像データに基づく画像である補正デプス画像における位置との対応付けに関する対応情報の入力を受け付ける情報入力部と、前記カメラ画像データ、前記デプス画像データ、及び前記対応情報に基づいて、前記カメラ画像に撮像されている物体の距離情報を検出し、前記物体と前記距離情報とを関連付ける検出部と、を備える。
本開示に係る画像処理装置によれば、カメラ画像と、デプス画像との対応付けを容易に行うことができる。
図1は、実施の形態に係る画像処理装置の機能構成を示すブロック図である。 図2は、実施の形態に係る画像処理装置の機能をソフトウェアにより実現するコンピュータのハードウェア構成の一例を示す図である。 図3は、実施の形態に係る画像処理装置のキャリブレーションの流れを示すフローチャートである。 図4は、実施の形態に係るカメラ画像の一例を示す概略図である。 図5は、実施の形態に係るデプス画像の一例を示す概略図である。 図6は、図5に示されるデプス画像に階調補正処理を施すことによって得られる補正デプス画像の一例を示す図である。 図7は、実施の形態に係る階調補正処理の第1の例を示すグラフである。 図8は、実施の形態に係る階調補正処理の第2の例を示すグラフである。 図9は、実施の形態に係る階調補正処理の第3の例を示すグラフである。 図10は、実施の形態に係るデプス画像の単位面積内の画素を示す模式図である。 図11は、実施の形態に係る画像処理装置が生成するリサイズ後のデプス画像の単位面積内の画素を示す図である。 図12は、実施の形態に係る画像処理装置を用いた複数被写体追尾の流れを示すフローチャートである。 図13は、実施の形態に係る画像処理装置を用いた応用例で用いるカメラ画像の第1の例を示す図である。 図14は、実施の形態に係る画像処理装置を用いた応用例で用いるカメラ画像の第2の例を示す図である。 図15は、実施の形態に係る画像処理装置を用いた応用例で用いるカメラ画像の第3の例を示す図である。
以下、実施の形態について、図面を参照しながら具体的に説明する。
なお、以下で説明する実施の形態は、いずれも包括的又は具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。
また、各図は、模式図であり、必ずしも厳密に図示されたものではない。また、各図において、同じ構成部材については同じ符号を付している。
(実施の形態)
実施の形態に係る画像処理装置について説明する。本実施の形態に係る画像処理装置は、撮像装置によって取得された対象物のカメラ画像データと、デプス画像取得装置によって取得された当該対象物のデプス画像データとを表示装置に出力する。これに伴い、表示装置はカメラ画像と、デプス画像とを並べて表示する。表示装置に表示されたカメラ画像上の点と、デプス画像上の点とを対応付ける対応情報をユーザが画像処理装置に入力することで、画像処理装置は、当該対応情報に基づいてカメラ画像の全領域とデプス画像の全領域との対応関係を取得できる。これにより、カメラ画像上の任意の点の距離情報を、デプス画像データから容易に取得できる。
例えば、対応情報として、表示装置に表示されたカメラ画像上の複数の点と、当該複数の点にそれぞれ対応するデプス画像上の複数の点とをユーザが入力する。ここで、デプス画像データの各画素値を輝度に変換することでデプス画像をグレースケール画像として表示することが可能となる。デプス画像データにおいて、画素値は、距離にほぼ比例するため、このようなデプス画像を表示装置に表示すると、距離が比較的小さい位置に配置された対象物の画像のコントラストは低く、距離が比較的大きい位置に配置された対象物の画像のコントラストは高くなる。このため、カメラ画像上の点に対応する対象物までの距離が比較的小さい場合、当該点に対応するデプス画像上の点を含む領域のコントラストが低くなり、当該点に対応するデプス画像上の点の視認性が悪くなる。このようにデプス画像上の点の視認性が悪くなるため、ユーザがカメラ画像上の点とデプス画像上の点とを高精度に対応づけることが難しい場合がある。
そこで、本実施の形態に係る画像処理装置では、デプス画像データにガンマ補正(つまり、階調補正)を施した補正デプス画像データを表示装置に出力することで、補正デプス画像を表示装置に表示させる。これにより、コントラストが適正化された補正デプス画像が表示されるため、カメラ画像上の点に対応するデプス画像上の点の視認性が向上する。
[1.機能構成]
まず、本実施の形態に係る画像処理装置の構成について、図1を用いて説明する。図1は、本実施の形態に係る画像処理装置10の機能構成を示すブロック図である。図1には、画像処理装置10と併せて、撮像装置60、デプス画像取得装置70、入力装置50、及び表示装置40も示されている。
画像処理装置10は、対象物のカメラ画像データと、当該対象物のデプス画像データとを対応付ける装置であり、カメラ画像データに基づく画像であるカメラ画像に撮影されている物体の距離情報を、デプス画像データから検出する。画像処理装置10などは、例えば、コンピュータなどによって実現できる。画像処理装置10のハードウェア構成については、後述する。
ここで、カメラ画像データとは、撮像装置60によって撮像される画像のデータである。カメラ画像データは、被写体によって反射される可視光、赤外線などの電磁波の強度の2次元分布を、2次元に配置された複数の画素を有する撮像素子によって検出することで得られる。デプス画像データとは、デプス画像取得装置70から被写体までの距離の2次元分布を示すデータである。また、ここで、対象物とは、カメラ画像データの撮像対象(つまり、被写体)となる物、及び、デプス画像データの測距対象となる物である。デプス画像データの各画素値は、デプス画像取得装置70から被写体までの距離を示す。デプス画像データの各画素値を輝度値とみなして、デプス画像データに対応するグレースケール画像であるデプス画像を表示装置40で表示することができる。このように各画素値を輝度値とみなしたデプス画像データに対して通常のカメラ画像と同様の画像処理を施すことが可能である。したがって、デプス画像データ及びそれに階調補正を施した補正デプス画像データに対応するグレースケール画像を表示装置40で表示することが可能となる。
画像処理装置10によって、カメラ画像データとデプス画像データとを対応付けることができれば、カメラ画像に複数の物体の像が含まれる場合に、それらの複数の物体の距離情報をデプス画像データから直ちに取得できる。これにより、例えば、カメラ画像として、動画像の各フレームの画像を用いて、カメラ画像に撮影されている複数の物体を追尾する場合、一時的に一つの物体が他の物体の背後に隠れることがあっても(つまり、オクルージョンが発生しても)、各物体の距離情報を用いることで、距離情報を用いない場合より各物体を正確に識別できる。つまり、オクルージョンが発生する前後において、デプス画像取得装置70から各物体のまでの距離の相対的な大小関係が変化しないことを利用すると、利用しない場合より、オクルージョン発生後において各物体を正確に識別できる。
画像処理装置10は、図1に示されるように、機能的には、画像入力部11と、画像処理部12と、画像出力部13と、情報入力部14と、検出部15と、を備える。
画像入力部11は、撮像される対象物のカメラ画像データ、及び、当該対象物のデプス画像データの入力を受け付けるインタフェースである。本実施の形態では、画像入力部11は、撮像装置60及びデプス画像取得装置70から、それぞれ、カメラ画像データ及びデプス画像データの入力を受け付ける。画像入力部11は、入力されたカメラ画像データを、画像出力部13及び検出部15に出力する。画像入力部11は、カメラ画像データを画像処理部12にも出力してもよい。また、画像入力部11は、入力されたデプス画像データを、画像処理部12及び検出部15に出力する。画像入力部11は、入力されたデプス画像データを、画像出力部13にも出力してもよい。
画像処理部12は、デプス画像データに対して階調補正処理を施した補正デプス画像データを生成し、当該補正デプス画像データを画像出力部13に出力する処理部である。本実施の形態では、画像処理部12は、階調補正処理によって、対象物の一部の距離情報である注目距離を含む距離の範囲におけるコントラストを高める。当該注目距離は、情報入力部14から画像処理部12に入力される。画像処理部12による階調補正処理の詳細については後述する。また、画像処理装置10において、カメラ画像に含まれる複数の物体の像を検出するために、画像処理部12は、カメラ画像から特定の像を検出する機能を有してもよい。
画像出力部13は、カメラ画像データ及び補正デプス画像データを出力する出力部である。画像出力部13は、デプス画像データも出力してもよい。本実施の形態では、画像出力部13は、表示装置40に各画像データを出力する。
情報入力部14は、カメラ画像における位置と、補正デプス画像データに基づく画像である補正デプス画像における位置との対応付けに関する対応情報の入力を受け付けるインタフェースである。本実施の形態では、情報入力部14は、対象物の一部の距離情報である注目距離に関する情報の入力を受け付ける。
検出部15は、カメラ画像データ、デプス画像データ、及び対応情報に基づいて、カメラ画像に撮像されている物体の距離情報を検出し、物体と距離情報とを関連付ける処理部である。本実施の形態では、検出部15は、対応情報に基づいて、カメラ画像と、補正デプス画像とを対応付ける。また、検出部15は、カメラ画像の各画素と、補正デプス画像の各画素を対応付ける。ここで、補正デプス画像の各画素の位置情報は、デプス画像の各画素の位置情報と同一であるため、補正デプス画像の各画素は、補正前のデプス画像の各画素に対応する。したがって、検出部15は、補正デプス画像データ及びデプス画像データから、補正デプス画像の各画素に対応するデプス画像の各画素の画素値である距離情報を取得できる。以上のことから、検出部15は、カメラ画像の各画素に対応する距離情報をデプス画像から取得できる。本実施の形態では、検出部15は、対応情報に基づいて、カメラ画像の各画素と、デプス画像の各画素との対応関係を示すルックアップテーブル(LUT)を生成する。LUTは、例えば、カメラ画像の各画素と、当該各画素に対応するデプス画像の各画素との関係を示すテーブルである。このようなLUTを用いることで、カメラ画像データにおける特定の位置(又は、座標)に対応する距離情報を得ることができる。つまり、カメラ画像に撮像されている物体の位置と、LUTとに基づいて物体までの距離情報を取得できる。カメラ画像の各画素と、デプス画像の各画素とが1対1に対応していない場合には、カメラ画像の各画素に対応するデプス画像上の点の周辺に配置された複数の画素の画素値から、当該点における画素値を求めるための補間に係る情報がLUTに含まれていてもよい。ここで、補間に係る情報とは、例えば、当該点からその周辺に配置された複数の画素の各々の中心までの距離である。このような補間に係る情報を用いることで、当該点における距離情報を、周辺の画素の画素値を補間することで算出できる。
このようにLUTにより、検出部15は、カメラ画像に撮像されている物体の距離情報を取得できる。検出部15で取得された距離情報は、画像処理部12に出力される。
撮像装置60は、対象物のカメラ画像データを取得する装置である。撮像装置60として、例えば、CMOS(Complementary Metal-Oxide-Semiconductor)、CCD(Charge-Coupled Devices)などの撮像素子を備えるビデオカメラ又はスチールカメラを用いることができる。本実施の形態では、撮像装置60は、画像処理装置10の画像入力部11にカメラ画像データを出力する。
デプス画像取得装置70は、対象物のデプス画像データを取得する装置である。デプス画像取得装置70として、例えば、LiDAR(Light Detection and Ranging)方式、TOF(Time-Of-Flight)方式などの測距方式を用いた装置を用いることができる。本実施の形態では、デプス画像取得装置70は、画像処理装置10の画像入力部11にデプス画像データを出力する。
撮像装置60とデプス画像取得装置70とは、互いに同一の対象物を、ほぼ同一の方向から撮影できるように配置される。言い換えると、撮像装置60とデプス画像取得装置70とは、互いの撮影領域の少なくとも一部が重複するように配置される。撮像装置60とデプス画像取得装置70とは、互いにできるだけ近づけて配置される。また、撮像装置60の光軸とデプス画像取得装置70の撮像方向の中心軸とが一致してもよい。また、撮像装置60とデプス画像取得装置70とで、光学系及び撮像素子を共用してもよい。これにより、撮像装置60とデプス画像取得装置70との撮影範囲を一致させることが可能となる。
入力装置50は、画像処理装置10に情報を入力する装置である。本実施の形態では、入力装置50には、ユーザによって、対応情報、及び、注目距離に対応する情報が入力され、入力装置50は、対応情報、及び、注目距離に対応する情報を画像処理装置10に入力する。入力装置50として、例えば、キーボード、マウスなどの装置を用いることができる。
表示装置40は、画像処理装置10から出力される画像データに基づく画像を表示する装置である。表示装置40として、液晶ディスプレイ、有機ELディスプレイなどを用いることができる。また、表示装置40として、タッチパネルを搭載したディスプレイを用いることで、表示装置40と、入力装置50とを一体化させてもよい。
[2.ハードウェア構成]
次に、本実施の形態に係る画像処理装置10のハードウェア構成について、図2を用いて説明する。図2は、本実施の形態に係る画像処理装置10の機能をソフトウェアにより実現するコンピュータ900のハードウェア構成の一例を示す図である。
コンピュータ900は、図2に示されるように、入力インタフェース(IF)901、出力インタフェース(IF)902、CPU(Central Processing Unit)903、内蔵ストレージ904、RAM(Random Access Memory)905及びバス909を備える。入力インタフェース901、出力インタフェース902、CPU903、内蔵ストレージ904及びRAM905は、バス909により接続される。
入力インタフェース901は、コンピュータ900の外部からの信号を受け付けるインタフェースである。入力インタフェース901は、画像処理装置10の画像入力部11及び情報入力部14に相当する。入力インタフェース901には、図1に示される撮像装置60からのカメラ画像データ、デプス画像取得装置70からのデプス画像データ、及び入力装置50からの注目距離に関する情報、対応情報などに対応する信号が入力される。入力インタフェース901は、例えば、有線通信用の受信機であってもよいし、無線通信用の受信機であってもよい。
出力インタフェース902は、コンピュータ900からの信号を外部に出力するインタフェースである。出力インタフェース902は、画像処理装置10の画像出力部13に相当する。出力インタフェース902は、画像データなどを、図1に示される表示装置40などに出力する。出力インタフェース902は、例えば、有線通信用の送信機であってもよいし、無線通信用の送信機であってもよい。
内蔵ストレージ904は、フラッシュメモリなどの不揮発性記憶装置である。また、内蔵ストレージ904は、画像処理装置10の機能を実現するためのプログラム、及び、画像処理装置10の機能構成を利用したアプリケーションの少なくとも一方が、予め記憶されていてもよい。また、内蔵ストレージ904には、検出部15で生成されたLUTなどが記憶される。
RAM905は、プログラム又はアプリケーションの実行に際してデータ等の記憶に利用される揮発性記憶装置である。RAM905には、カメラ画像データ、デプス画像データ、補正デプス画像データ、注目距離に対応する情報、対応情報などが記憶される。
CPU903は、内蔵ストレージ904に記憶されたプログラム、アプリケーションをRAM905にコピーし、そのプログラムやアプリケーションに含まれる命令をRAM905から順次読み出して実行するプロセッサである。CPU903によって、画像処理部12、検出部15などによって行われる処理が実行される。
[3.キャリブレーション]
次に、本実施の形態に係る画像処理装置10のキャリブレーションについて説明する。本実施の形態に係る画像処理装置10では、カメラ画像とデプス画像とを対応付けるキャリブレーションを行う。以下、本実施の形態に係る画像処理装置10のキャリブレーションについて、図3を用いて説明する。図3は、本実施の形態に係る画像処理装置10のキャリブレーションの流れを示すフローチャートである。
図3に示されるように、まず、画像処理装置10の画像入力部11は、対象物のカメラ画像データ、及び、対象物のデプス画像データの入力を受け付ける(S10)。ここで、画像処理装置10の画像入力部11は、入力されたカメラ画像データ及びデプス画像データを画像処理部12、画像出力部13、及び検出部15に出力する。ここで、カメラ画像及びデプス画像について、図4及び図5を用いて説明する。図4及び図5は、それぞれ、本実施の形態に係るカメラ画像及びデプス画像の一例を示す概略図である。図4及び図5に示されるように、カメラ画像及びデプス画像は、同一の対象物の画像である。図4及び図5に示される例では、カメラ画像及びデプス画像には、物体P1、P2、及びP3を含む対象物の画像が示されている。
図3に戻り、ステップS10に続いて、情報入力部14は、撮像された対象物の一部の距離情報である注目距離に関する情報の入力を受け付ける(S12)。ここで注目距離は、対象物の少なくとも一部に対応する距離情報であれば特に限定されないが、対象物のうち、カメラ画像及びデプス画像の両方において、認識しやすい部分の距離であってもよい。特に、対象物のうち、特徴的な形状を有する部分であって、カメラ画像及びデプス画像の両方において認識しやすい部分であってもよい。図4及び図5に示される例では、例えば、物体P1の位置に対応する距離を注目距離としてもよい。また、注目距離は、例えば4mなどの一つの距離値であってもよいし、3m以上5m以下などの距離値の範囲であってもよい。
図3に戻り、ステップS12に続いて、画像処理部12は、デプス画像のリサイズを行う(S14)。図4及び図5に示される例では、カメラ画像及びデプス画像は、対象物の同一の領域を示す画像であるが、カメラ画像データを取得する撮像装置60とデプス画像データを取得するデプス画像取得装置70とでは、画角と解像度とが異なる場合がある。具体的には、デプス画像取得装置70のほうが画角が広い場合が多い。また、撮像装置60のほうが解像度(画素数)が高い場合が多い。この場合、1画素当たりの画角は撮像装置60のほうが小さくなる。
このような2つの画像データに対応する画像をそのまま表示装置40で表示すると、同じ物体でも表示されたときの大きさが異なる(つまり、同じ物体がカメラ画像ではより大きく、デプス画像ではより小さく表示される)ため、ユーザが対応付けを行うのが困難になる場合がある。
そこで、2つの画像内の同じ物体が同じ大きさで(又は、ほぼ同じ大きさで)表示されるように、少なくとも一方の画像の解像度を変換してもよい。上述した例では、デプス画像の解像度を拡大(つまり、高解像度化)してもよい。撮像装置60及びデプス画像取得装置70の各々の画角及び画素数は既知であるとすると、拡大率もそれらの画角及び画素数に基づいて計算できる。例えば、カメラ画像の水平方向の画素数1800、画角90度の場合、画角1度あたりの画素数は、1800/90=20となる。また、デプス画像の水平方向の画素数360、画角180度の場合、画角1度あたりの画素数は360/180=2となる。ここで、デプス画像の画角は180度のままで、解像度を水平方向に10倍拡大すると、画素数3600となり、画角1度あたりの画素数は、3600/180=20となる。これにより、カメラ画像と、リサイズしたデプス画像とで、同じ物体が表示装置上で同じ大きさで表示される。
続いて、画像処理部12は、デプス画像データに対して階調補正処理を施した補正デプス画像データを生成する(S16)。一般に、デプス画像において、物体が存在する位置に対応する距離においても、それ以外の距離においても、距離の変化に対してほぼ線形に画素値が変化する。このため、デプス画像をそのまま表示装置40に出力すると、デプス画像取得装置70と物体との間の距離が小さい場合には、非常に暗く表示されてコントラストが低くなる。逆にデプス画像取得装置70と物体との距離が大きくなるにつれて、急激に明るく表示されてコントラストが高くなる。したがって、デプス画像取得装置70と物体との間の距離が小さい場合には、デプス画像において物体を視認しにくくなる。そこで、本実施の形態に係る画像処理装置10の画像処理部12は、ステップS12で入力された注目距離に関する情報に応じてデプス画像データの階調補正処理を行う。デプス画像データに階調補正処理を施した補正デプス画像について図6を用いて説明する。図6は、図5に示されるデプス画像に階調補正処理を施すことによって得られる補正デプス画像の一例を示す図である。図6に示される補正デプス画像においては、物体P1に対応する距離が小さい部分のコントラストを上げ、距離が大きい部分のコントラストを下げることにより、デプス画像全体のコントラストを適正にする階調補正処理が施されている。図5及び図6を比較すると、図6の補正デプス画像においては、図5のデプス画像より、物体P1を認識しやすくなっている。
ここで、階調補正処理について図7〜図9を用いて説明する。図7〜図9は、それぞれ、本実施の形態に係る階調補正処理の各例を示すグラフである。図7〜図9には、距離と、当該距離に対応する階調補正前及び階調補正後の画素値との関係が、それぞれ破線及び実線で示されている。図7は、注目距離が比較的小さい場合の階調補正処理の例を示すグラフである。図5に示されるデプス画像の例では、デプス画像取得装置70から図5に示される物体P1までの距離が注目距離である場合に相当する。図9は、注目距離が比較的大きい場合の階調補正処理の例を示すグラフである。図5に示されるデプス画像の例では、デプス画像取得装置70から図5に示される物体P3までの距離が注目距離である場合に相当する。図8は、注目距離が中程度の場合の階調補正処理の例を示す。図5に示されるデプス画像の例では、デプス画像取得装置70から図5に示される物体P2までの距離が注目距離である場合に相当する。
図7〜図9に示される例では、いずれも注目距離を含む距離の範囲において、単位距離の変化に対する画素値の変化率が、階調補正前の変化率よりも大きくなっている。つまり、注目距離を含む距離の範囲において、階調補正前より、階調補正後の方がコントラストが大きくなっている。これにより、階調補正後の補正デプス画像においては、注目距離周辺に配置された物体を視認しやすくなる。
つまり、図7に示される例では、デプス画像取得装置70から図5に示される物体P1までの距離において、補正デプス画像のコントラストが高くなるため、補正デプス画像において物体P1を視認しやすくなる。また、図8に示される例では、デプス画像取得装置70から図5に示される物体P2までの距離において、補正デプス画像のコントラストが高くなるため、補正デプス画像において物体P2を視認しやすくなる。また、図9に示される例では、デプス画像取得装置70から図5に示される物体P3までの距離において、補正デプス画像のコントラストが高くなるため、補正デプス画像において物体P3を視認しやすくなる。
図3に戻り、ステップS16に続いて、画像出力部13は、カメラ画像データ及び補正デプス画像データを出力する(S18)。本実施の形態では、画像出力部13は、表示装置40にカメラ画像データ及び補正デプス画像データを出力する。これにより、表示装置40は、カメラ画像及び補正デプス画像を表示することができる。
続いて、情報入力部14は、カメラ画像における位置と、補正デプス画像における位置との対応付けに関する対応情報の入力を受け付ける(S20)。例えば、カメラ画像上の複数の点と、当該複数の点に対応する図6の補正デプス画像上の複数の点とが対応情報として入力される。以下、対応情報について図4及び図6を用いて説明する。まず、ユーザは、図4に示されるカメラ画像において、視認しやすい複数の点を選択する。例えば、ユーザは、図4の点a1〜点d1を選択する。図4の点a1は、物体P1の上端の点であり、点b1は、物体P1の左側の下端の点であり、点c1は、物体P2の右側の下端の点であり、点d1は、物体P3の上端の点である。続いて、ユーザは、図6の補正デプス画像において、カメラ画像の点a1〜点d1に対応する点を見つける。図6の補正デプス画像においては、階調補正により視認性が向上しているため、ユーザは、カメラ画像の点a1〜点d1に対応する点a2〜点d2を容易に見つけることができる。続いて、ユーザは、カメラ画像上の点a1〜点d1と、これらの点に対応する補正デプス画像上の点a2〜点d2とを対応情報として入力装置50を介して画像処理装置10に入力する。例えば、表示装置40に表示されたカメラ画像上の点a1〜点d1と、補正デプス画像上の点a2〜点d2とをマウスなどの入力装置50を用いてクリックすることで、対応情報を入力してもよい。
なお、対応情報の入力態様は、上記態様に限定されない。例えば、ユーザは、対応情報として、点a1〜点d1を示すカメラ画像上の座標、及び、点a2〜点d2を示す補正デプス画像上の座標を、キーボードなどの入力装置50を用いて入力してもよい。このようにして入力された対応情報に基づいて、検出部15は、カメラ画像の各画素と、デプス画像の各画素との対応関係を示すLUTを生成する(S22)。
以上のように、本実施の形態に係る画像処理装置10のキャリブレーションを行うことができる。
[4.各画像の解像度調整]
次に、本実施の形態に係る画像処理装置10におけるカメラ画像及びデプス画像のリサイズ方法について説明する。本実施の形態では、上述したように、撮像装置60及びデプス画像取得装置70の画角が大きく異なる場合は、カメラ画像及びデプス画像の少なくとも一方をリサイズする。また、カメラ画像及びデプス画像の画素の解像度が異なる場合には、それらの解像度を調整することで一致させてもよい。以下、本実施の形態に係るカメラ画像及びデプス画像の解像度の調整方法について図10及び図11を用いて説明する。
図10は、本実施の形態に係るデプス画像の単位面積内の画素を示す模式図である。図11は、本実施の形態に係る画像処理装置10が生成するリサイズ後のデプス画像の単位面積内の画素を示す図である。
図10に示される例では、デプス画像の単位面積内において、図10の横方向(つまり、水平方向)に3個、図10の縦方向(つまり、上下方向)に3個の画素が配列される。図10に示されるように、デプス画像の単位面積内には、画素p(x1,y1)〜画素p(x1,y3)、画素p(x2,y1)〜画素p(x2,y3)、及び画素p(x3,y1)〜画素p(x3,y3)の9個の画素が含まれる。一方、デプス画像の単位面積に対応するカメラ画像の単位面積内において、横方向に3個、縦方向に9個の画素が配列される場合、図11に示されるように、リサイズ後のデプス画像の単位面積内において、図11の横方向に3個、図11の縦方向に9個の画素が配列されてもよい。図11に示される例では、図10に示される画素p(x1,y1)が、リサイズ後のデプス画像においては、画素p(x1,Y11)〜p(x1,Y13)の3個に分割されている。デプス画像の他の画素についても同様に、リサイズ後のデプス画像においては、それぞれ3個に分割されている。
このようにリサイズされたデプス画像の階調補正を施すことでリサイズされた補正デプス画像が得られる。
なお、リサイズ及び階調補正の順序は上述した順序に限定されず、階調補正後にリサイズしてもよい。
以上のようにデプス画像の画素を分割することで、補正デプス画像の画素の解像度を、カメラ画像の画素の解像度と同一としてもよい。この場合、補正デプス画像の各画素は、カメラ画像の各画素と1対1で対応していることから、このような補正デプス画像を用いることで、カメラ画像と補正デプス画像とを容易に対応付けることができる。
また、図11に示されるリサイズ後デプス画像の各画素の画素値は、デプス画像の画素値を補間することによって算出された値としてもよいし、当該画素に対応する補正デプス画像の画素の画素値そのものとしてもよい。例えば、リサイズ後デプス画像の画素p(x1,Y13)の画素値は、デプス画像の画素p(x1,y1)の画素値と、p(x1,y2)の画素値との補間値であってもよし、デプス画像の画素p(x1,y1)の画素値そのものであってもよい。
なお、以上では、デプス画像の解像度調整を行った後で、階調補正を行って補正デプス画像データを生成したが、階調補正を行って補正デプス画像データを生成した後で、補正デプス画像の解像度調整を行ってもよい。
[5.応用例]
次に、本実施の形態に係る画像処理装置10の応用例について説明する。ここでは、画像処理装置10を用いて複数被写体追尾(Multiple-Object Tracking:MOT)を行う応用例について図12を用いて説明する。図12は、本実施の形態に係る画像処理装置10を用いた複数被写体追尾の流れを示すフローチャートである。複数被写体追尾においては、撮像装置60から画像処理装置10に複数のカメラ画像からなる動画像が入力され、デプス画像取得装置70から、複数のデプス画像からなる動画像が入力される。カメラ画像及びデプス画像には、図4〜図6に示される物体P1〜P3のような追尾対象である複数の物体の像が含まれる。
図12に示されるように、まず、画像処理装置10において、上述したキャリブレーションを行う(S110)。これにより、カメラ画像の各画素と、デプス画像の各画素との対応関係を示すLUTが生成される。
続いて、画像処理装置10の画像入力部11は、撮像装置60及びデプス画像取得装置70から、それぞれ、カメラ画像及びデプス画像の入力を受け付ける(S112)。画像入力部11は、受け付けたカメラ画像及びデプス画像を画像処理部12に出力する。
続いて、画像処理部12は、入力されたカメラ画像から、追尾対象である複数の物体の像を検出する(S114)。ここで、画像から物体の像を検出するとは、追尾対象である物体の特徴を有する物体が撮影された画像上の領域を特定することを意味する。言い換えると、画像から物体の像を検出するとは、画像上において追尾対象である物体の特徴を有する物体が撮影された領域とそれ以外の領域(背景が撮影された領域など)とを区別することを意味する。具体的には、例えば、複数の物体の像の寸法、形状、色などの視覚的特徴に基づいて、画像処理部12がカメラ画像から複数の物体の像を検出する。なお、カメラ画像から追尾対象である複数の物体の像を検出するために、カメラ画像に対応するデプス画像を用いてもよい。つまり、カメラ画像の各画素に撮影された対象物の距離情報をLUTに基づいてデプス画像から取得して、物体の検出に利用してもよい。
続いて、画像処理部12は、ステップS114でカメラ画像から検出した各物体の距離情報をデプス画像データから取得する(S116)。具体的には、カメラ画像において検出した各物体の像を形成する画素に対応するデプス画像内の画素の情報をLUTに基づいて取得し、デプス画像から当該画素の距離情報を取得する。
続いて、画像処理部12は、ステップS114でカメラ画像から検出した各物体と、その距離情報とから、各物体を識別する(S118)。ここで、各物体を識別するとは、複数の物体の各々を区別して認識することである。例えば、画像処理部12は、複数の物体の各々に固有の識別番号等を付して、各物体を識別してもよい。また、各物体を識別するとは、各物体の種類を特定することを意味してもよい。言い換えると、各物体を識別するとは、各物体を種類毎(人、自動車など)に分類することを意味してもよい。
各物体の識別をカメラ画像だけに基づいて行うことは、特にオクルージョンが発生した場合に困難となるが、本応用例では、各物体の距離情報を用いることで、各物体の識別が容易となる。例えば、オクルージョンが発生した場合、二つの物体がカメラ画像上において重なり、一つの物体だけがカメラ画像上に検出される。当該カメラ画像に続くカメラ画像において、オクルージョンが解消された場合に、二つの物体が検出されるが、カメラ画像だけからでは二つの物体を識別できない場合がある。このような場合に、二つの物体の距離情報と、オクルージョン発生前に撮影されたカメラ画像において検出される二つの物体の距離情報とから、オクルージョン発生後のカメラ画像において検出された二つの物体の各々が、オクルージョン発生前のカメラ画像において検出された二つの物体のどちらに相当するかを識別できる。つまり、オクルージョン発生後のカメラ画像において検出された二つの物体の各々の距離情報が、オクルージョン発生前のカメラ画像において検出された二つの物体のどちらの距離情報と近いかを判定することで、二つの物体を識別できる。
続いて、ステップS112に戻り、ステップS112からステップS118までの工程を繰り返す。
これにより、撮像装置60から入力されるカメラ画像に含まれる複数の物体の像を追尾することができる。
ここで、本応用例の効果について、図13〜図15を用いて説明する。図13〜図15は、本応用例で用いるカメラ画像の例を示す図である。図13、図14、及び図15は、時刻t1、時刻t2、及び時刻t3における対象物を撮像した画像である。撮像装置60におけるカメラ画像の撮像周期をΔtとすると、時刻t2=t1+Δt、時刻t3=t2+Δtと表される。
図13に示される時刻t1におけるカメラ画像には、物体P1及び物体P2の二つの物体の像が含まれることが画像処理装置10の画像処理部12によって検出される。物体P1及び物体P2は、例えば、人などの移動し得る物体である。物体P1及び物体P2からデプス画像取得装置70までの距離は、デプス画像取得装置70によって測定されている。物体P1及び物体P2の像に含まれる画素に対応するデプス画像の画素が示す距離情報に基づいて、デプス画像取得装置70から物体P1までの距離は、物体P2までの距離より小さいことが分かる。つまり、デプス画像取得装置70から見て、物体P1の方が、物体P2より手前に位置している。
時刻t1から時刻t2の間に、物体P1が図13及び図14における右向きに移動することで、図14に示されるように、時刻t2においては、物体P1は、物体P2の手前に位置している。これに伴い、物体P2が物体P1の背後に隠れている。つまり、図14のカメラ画像において、オクルージョンが発生している。このため、図14のカメラ画像に含まれる物体の像が、カメラ画像だけからでは、物体P1の像であるのか、物体P2の像であるのかを判定できない場合があり得る。
しかしながら、図14のカメラ画像に対応するデプス画像から、図14のカメラ画像に含まれる像の距離情報を検出し、図13のカメラ画像に含まれる各物体の像の距離情報と対比することで、図14のカメラ画像に含まれる像の距離情報が、図13のカメラ画像に含まれる物体P1の距離情報と近いことが分かる。したがって、図14のカメラ画像に含まれる像は、物体P1の像であることが推測される。
続いて、時刻t2から時刻t3の間に、物体P1が図14及び図15における右向きに移動することで、図15に示されるように、時刻t3におけるカメラ画像には、二つの物体の像が含まれることが、画像処理部12によって検出される。また、二つの物体の距離情報を、デプス画像から検出できる。図14のカメラ画像と対比すると、時刻t2から時刻t3の間に、あたかも一つの物体の像が、二つの物体の像に分離したかのように見える。
ここで、図13のカメラ画像を参酌すれば、図15のカメラ画像に含まれる二つの物体の像が、図13のカメラ画像に含まれる物体P1及び物体P2のいずれかであることが推測される。しかしながら、カメラ画像だけからでは、図15のカメラ画像に含まれる二つの物体の像の各々が、図13のカメラ画像に含まれる物体P1の像又は物体P2の像のいずれに相当するのかを判定し難い。
本実施の形態に係る画像処理装置10の応用例によれば、図15のカメラ画像に含まれる二つの物体の像の各々の距離情報と、図13のカメラ画像に含まれる物体P1の像及び物体P2の像の距離情報とから、図15のカメラ画像に含まれる二つの物体の像を識別できる。つまり、図15のカメラ画像に含まれる二つの物体の像の各々が、図13のカメラ画像に含まれる物体P1の像又は物体P2の像のいずれに相当するのかを判定できる。具体的には、図15のカメラ画像に含まれる二つの物体の像のうち、デプス画像取得装置70からの距離が小さい方が、物体P1の像に相当し、デプス画像取得装置70からの距離が大きい方が、物体P2の像に相当すると判定できる。
以上のように、本実施の形態に係る画像処理装置10の応用例によれば、複数被写体追尾において、オクルージョンの発生に伴う、被写体の誤認識を低減できる。
(変形例など)
以上、本開示の画像処理装置10について、実施の形態に基づいて説明したが、本開示は、上記実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を上記実施の形態に施したものも、本開示の範囲内に含まれてもよい。
例えば、上記実施の形態において、注目距離に関する情報として、注目距離そのものが画像処理装置10の情報入力部14に入力されたが、注目距離に関する情報は、注目距離そのものでなくてもよい。注目距離に関する情報は、例えば、注目距離に配置された物体のデプス画像における位置(言い換えると、座標)などであってもよい。例えば、ユーザは、表示装置40に表示されたデプス画像(又はリサイズ後デプス画像)上において、注目距離に配置された物体の位置をマウスなどの入力装置50を用いて入力する。当該位置に対応する情報と、デプス画像とから、当該位置にある物体の距離情報を取得できる。つまり、画像処理装置10は、当該位置に対応するデプス画像の画素値から、当該位置に対応する距離情報を取得できる。このようにして取得した距離情報を注目距離として用いることができる。
また、注目距離に関する情報は、カメラ画像における位置(言い換えると、座標)などであってもよい。カメラ画像における位置とデプス画像における位置との対応関係が概ね判明している場合には(つまり、大まかな対応関係が得られている場合には)、カメラ画像における位置を注目情報として用いることも可能である。例えば、表示装置40に表示されたカメラ画像上において注目距離に配置された物体の位置をマウスなどの入力装置50を用いて入力する。当該位置に対応する情報と、当該位置と概ね対応するデプス画像の位置とから、当該位置にある物体の大まかな距離情報を取得できる。このようにして取得した距離情報を注目距離として用いることができる。カメラ画像における位置とデプス画像における位置との大まかな対応関係を得るためには、例えば、仮の注目距離を画像処理装置10に入力するなどして、図3に示されるキャリブレーションを行ってもよい。
また、上記実施の形態に係る画像処理装置10で生成したLUTの利用態様は、上述した態様に限定されない。例えば、撮像装置60及びデプス画像取得装置70の撮影範囲が完全に一致しない場合、カメラ画像データ及びデプス画像データの一方だけにしか含まれない画像領域(以下「非対応領域」という。)が存在する。このような場合に生成されたLUTにおいて、カメラ画像データとデプス画像データとの対応関係が示されている画像領域が、両画像データに含まれる画像領域であることが分かる。言い換えると、LUTにおいて、カメラ画像データとデプス画像データとの対応関係が得られていない画像領域は、非対応領域であることが分かる。したがって、このような非対応領域をLUTを用いて特定し、カメラ画像及びデプス画像(又は補正デプス画像)を表示する際に、非対応領域をユーザが判別できるように表示してもよい。例えば、カメラ画像がカラー画像である場合、カメラ画像の非対応領域のみをグレースケールし、それ以外の画像領域をカラーで表示してもよい。また、デプス画像の非対応領域をグレースケール以外の特定の色で表示してもよい。また、各画像の非対応領域を表示しなくてもよい。つまり、非対応領域をトリミングした各画像を表示してもよい。
また、上記実施の形態に係る画像処理装置が行う処理の各ステップは、上述のとおり、コンピュータ(コンピュータシステム)によって実行されてもよく、本開示は、それらの方法に含まれるステップを、コンピュータに実行させるためのプログラムとして実現できる。さらに、本開示は、そのプログラムを記録したCD−ROM等である非一時的なコンピュータ読み取り可能な記録媒体として実現できる。
例えば、本開示が、プログラム(ソフトウェア)で実現される場合には、コンピュータのCPU、メモリ及び入出力回路等のハードウェア資源を利用してプログラムが実行されることによって、各ステップが実行される。つまり、CPUがデータをメモリ又は入出力回路等から取得して演算したり、演算結果をメモリ又は入出力回路等に出力したりすることによって、各ステップが実行される。
また、上記実施の形態の画像処理装置に含まれる複数の構成要素は、それぞれ、専用又は汎用の回路として実現されてもよい。これらの構成要素は、1つの回路として実現されてもよいし、複数の回路として実現されてもよい。
また、上記実施の形態の画像処理装置に含まれる複数の構成要素は、集積回路(IC:Integrated Circuit)であるLSI(Large Scale Integration)として実現されてもよい。これらの構成要素は、個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。LSIは、集積度の違いにより、システムLSI、スーパーLSI又はウルトラLSIと呼称される場合がある。
また、集積回路はLSIに限られず、専用回路又は汎用プロセッサで実現されてもよい。上述したように、プログラム可能なFPGA、又は、LSI内部の回路セルの接続及び設定が再構成可能なリコンフィギュラブル・プロセッサが、利用されてもよい。
さらに、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて、情報通知システムに含まれる各構成要素の集積回路化が行われてもよい。
その他、本開示の趣旨を逸脱しない範囲で各実施の形態における構成要素及び機能を任意に組み合わせることで実現される形態なども本開示に含まれる。
本開示の画像処理装置は、例えば、複数被写体追尾装置などにおいて利用可能である。
10 画像処理装置
11 画像入力部
12 画像処理部
13 画像出力部
14 情報入力部
15 検出部
40 表示装置
50 入力装置
60 撮像装置
70 デプス画像取得装置
900 コンピュータ
901 入力インタフェース
902 出力インタフェース
903 CPU
904 内蔵ストレージ
905 RAM
909 バス
P1、P2、P3 物体

Claims (4)

  1. 対象物のカメラ画像データ、及び、前記対象物のデプス画像データの入力を受け付ける画像入力部と、
    前記デプス画像データに対して階調補正処理を施した補正デプス画像データを生成する画像処理部と、
    前記カメラ画像データ及び前記補正デプス画像データを出力する画像出力部と、
    前記カメラ画像データに基づく画像であるカメラ画像における位置と、前記補正デプス画像データに基づく画像である補正デプス画像における位置との対応付けに関する対応情報の入力を受け付ける情報入力部と、
    前記カメラ画像データ、前記デプス画像データ、及び前記対応情報に基づいて、前記カメラ画像に撮像されている物体の距離情報を検出し、前記物体と前記距離情報とを関連付ける検出部と、を備える
    画像処理装置。
  2. 前記情報入力部は、前記対象物の一部の前記距離情報である注目距離に関する情報の入力を受け付け、
    前記画像処理部は、前記注目距離に関する情報に応じて前記デプス画像データの階調補正処理を行う
    請求項1に記載の画像処理装置。
  3. 前記画像処理部は、前記階調補正処理によって、前記注目距離を含む距離の範囲におけるコントラストを高める
    請求項2に記載の画像処理装置。
  4. 前記補正デプス画像データの解像度は、前記カメラ画像データの解像度と同一である
    請求項1〜3のいずれか1項に記載の画像処理装置。
JP2019170342A 2019-09-19 2019-09-19 画像処理装置 Pending JP2021047684A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019170342A JP2021047684A (ja) 2019-09-19 2019-09-19 画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019170342A JP2021047684A (ja) 2019-09-19 2019-09-19 画像処理装置

Publications (1)

Publication Number Publication Date
JP2021047684A true JP2021047684A (ja) 2021-03-25

Family

ID=74876357

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019170342A Pending JP2021047684A (ja) 2019-09-19 2019-09-19 画像処理装置

Country Status (1)

Country Link
JP (1) JP2021047684A (ja)

Similar Documents

Publication Publication Date Title
US8988317B1 (en) Depth determination for light field images
KR102336064B1 (ko) 촬상 장치 및 그 촬상 방법, 화상 처리 장치 및 그 화상 처리 방법, 및, 프로그램
JP6732522B2 (ja) 画像処理装置、画像処理方法およびプログラム
WO2009098743A1 (ja) 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法
WO2016199244A1 (ja) 物体認識装置及び物体認識システム
JP2017520050A (ja) 局所的適応ヒストグラム平坦化
KR20170106385A (ko) 지문 중첩 영역의 면적을 계산하는 방법 및 전자 기기
JP6502511B2 (ja) 計算装置、計算装置の制御方法および計算プログラム
KR102438078B1 (ko) 어라운드뷰 제공 장치 및 방법
JP2005072888A (ja) 画像投影方法、及び画像投影装置
US10540750B2 (en) Electronic device with an upscaling processor and associated method
JP2019067150A (ja) 周辺監視装置および周辺監視方法
CN113822942A (zh) 一种基于二维码的单目摄像头测量物体尺寸的方法
KR20170107269A (ko) Rgbd 카메라의 깊이 영상 필터링 장치 및 방법
JP6585668B2 (ja) 物体検出装置
CN109325909B (zh) 一种图像放大方法和图像放大装置
WO2013161407A1 (ja) 物体検出装置およびプログラム
CN115423804B (zh) 影像标定方法及装置、影像处理方法
JP2013115738A (ja) 車両周辺撮影装置および車両周辺画像の処理方法
JP2021047684A (ja) 画像処理装置
CN108805883B (zh) 一种图像分割方法、图像分割装置及电子设备
JP6643301B2 (ja) 欠陥検査装置及び欠陥検査方法
KR101559338B1 (ko) 카메라 모듈용 결함 픽셀 평가 시스템 및 이를 사용한 카메라 모듈용 결함 픽셀 평가 방법
JP6482589B2 (ja) カメラ校正装置
JP5911063B2 (ja) 物体検出装置およびプログラム