JP2008040724A - Image processing device and image processing method - Google Patents
Image processing device and image processing method Download PDFInfo
- Publication number
- JP2008040724A JP2008040724A JP2006213115A JP2006213115A JP2008040724A JP 2008040724 A JP2008040724 A JP 2008040724A JP 2006213115 A JP2006213115 A JP 2006213115A JP 2006213115 A JP2006213115 A JP 2006213115A JP 2008040724 A JP2008040724 A JP 2008040724A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- partial
- image processing
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、周辺を撮像する撮像装置で撮像した画像データに基づいて、画像の領域分割を精度良く行うことができる画像処理装置、及び画像処理方法に関する。 The present invention relates to an image processing apparatus and an image processing method capable of accurately dividing an area of an image based on image data captured by an imaging apparatus that captures the periphery.
周囲を撮像することが可能な撮像装置により撮像された画像中から、認識すべき対象物を検出して画像認識する場合、認識精度を向上するべく、画像を特定の条件に基づいて分割し、分割された領域について対象物の検出処理を行う方法が良く用いられている。画像を複数の領域へ分割する方法は、領域の移動情報(動き量)、色又は輝度情報、初期エッジのトラッキング等による。 When detecting an object to be recognized from an image captured by an imaging device capable of capturing the surroundings, the image is divided based on specific conditions in order to improve recognition accuracy, A method of performing object detection processing on the divided areas is often used. A method of dividing an image into a plurality of regions is based on region movement information (motion amount), color or luminance information, initial edge tracking, and the like.
例えば非特許文献1に開示されているように、画素単位で前フレームの位置と現在のフレームの位置との乖離を算出することにより画素ごとのフレーム間での動き量を把握し、動き量が所定量よりも大きい領域を部分領域として抽出する方法が開発されている。
For example, as disclosed in Non-Patent
また、非特許文献2に開示されているように、画素単位で輝度値、又はカラー画像の場合にはY、U、V信号値(又はR、G、B信号値)を取得し、信号値が所定の範囲内である画素を一グループとして候補領域を抽出する方法が開発されている。
しかし、非特許文献1に開示されているように、画素ごとのフレーム間での動き量に基づく画像の領域分割方法では、例えば遠赤外線撮像装置で撮像された画像のように情報量が少ない場合には、動き量を正確に把握することができず、画像の領域分割を精度良く行なうことができないおそれがあるという問題点があった。
However, as disclosed in Non-Patent
また、非特許文献2に開示されているように、画素ごとの輝度値等が類似する画素群を1つの領域として抽出する領域分割方法では、本来その領域に含まれるべき画素ではないにも関わらず、輝度値等が類似する画素を該領域に含めるおそれがあり、誤った領域分割を行うおそれがあるという問題点があった。
Further, as disclosed in Non-Patent
本発明は、斯かる事情に鑑みてなされたものであり、例えば遠赤外線撮像装置で撮像された画像のように情報量が少ない画像であっても、画像の領域分割を精度良く行うことができる画像処理装置、及び画像処理方法を提供することを目的とする。 The present invention has been made in view of such circumstances. For example, even an image with a small amount of information, such as an image captured by a far-infrared imaging device, can perform image segmentation with high accuracy. An object is to provide an image processing apparatus and an image processing method.
上記目的を達成するために第1発明に係る画像処理装置は、周辺をフレーム単位で時系列的に撮像する撮像装置で撮像された画像データを取得して、対象物が存在する画像中の部分領域を検出する画像処理装置において、前記撮像装置から取得した画像データに基づ
いて、画素ごとに画面上での単位時間当たりの移動量及び移動方向に関する移動情報を取得する移動情報取得手段と、前記撮像装置から取得した画像データに基づいて、画素ごとに色情報及び/又は輝度情報を取得する色/輝度情報取得手段と、前記画面上での座標値、移動情報、並びに色情報及び/又は輝度情報に基づいて、複数の次元で構成される特徴空間を生成する特徴空間生成手段と、該特徴空間生成手段で生成した特徴空間を所定の条件を具備する部分空間に分割し、分割された部分空間に対応する画面上での座標値を特定して画像を複数の部分領域に分割する画像分割手段とを備えることを特徴とする。
In order to achieve the above object, an image processing device according to a first aspect of the present invention obtains image data captured by an imaging device that images the periphery in time series in units of frames, and a portion in an image in which an object exists. In the image processing device for detecting a region, based on the image data acquired from the imaging device, movement information acquisition means for acquiring movement information about a movement amount and a movement direction per unit time on the screen for each pixel, and Color / luminance information acquisition means for acquiring color information and / or luminance information for each pixel based on image data acquired from the imaging device, coordinate values on the screen, movement information, and color information and / or luminance Based on the information, the feature space generating means for generating a feature space composed of a plurality of dimensions, and the feature space generated by the feature space generating means are divided into partial spaces having predetermined conditions. Identifying a coordinate value on the screen corresponding to the divided partial space, characterized in that it comprises an image dividing means for dividing an image into a plurality of partial regions.
第2発明に係る画像処理装置は、第1発明において、前記画像分割手段で分割された複数の部分領域につき、隣接する部分領域間の類似度を算出する手段と、該手段で算出した類似度が所定値より大きいか否かを判断する手段と、該手段で大きいと判断した場合、隣接する部分領域を一の部分領域へ統合する手段とを備えることを特徴とする。 An image processing apparatus according to a second invention is the image processing apparatus according to the first invention, wherein, for the plurality of partial areas divided by the image dividing means, a means for calculating a similarity between adjacent partial areas, and a similarity calculated by the means Means for determining whether or not is greater than a predetermined value, and means for integrating adjacent partial areas into one partial area when it is determined that the means is larger.
第3発明に係る画像処理方法は、周辺をフレーム単位で時系列的に撮像する撮像装置で撮像された画像データを取得して、対象物が存在する画像中の部分領域を検出する画像処理方法において、前記撮像装置から取得した画像データに基づいて、画素ごとに画面上での単位時間当たりの移動量及び移動方向に関する移動情報を取得し、前記撮像装置から取得した画像データに基づいて、画素ごとに色情報及び/又は輝度情報を取得し、前記画面上での座標値、移動情報、並びに色情報及び/又は輝度情報に基づいて、複数の次元で構成される特徴空間を生成し、生成された特徴空間を所定の条件を具備する部分空間に分割し、分割された部分空間に対応する画面上での座標値を特定して画像を複数の部分領域に分割することを特徴とする。 An image processing method according to a third aspect of the present invention is an image processing method for detecting a partial region in an image in which an object is present by acquiring image data captured by an imaging device that images the periphery in time series in units of frames. In the above, based on the image data acquired from the imaging device, movement information regarding a movement amount and a movement direction per unit time on the screen is acquired for each pixel, and the pixel is determined based on the image data acquired from the imaging device. Color information and / or luminance information is acquired for each, and a feature space composed of a plurality of dimensions is generated and generated based on the coordinate values, movement information, and color information and / or luminance information on the screen. The feature space is divided into partial spaces having predetermined conditions, and coordinate values on the screen corresponding to the divided partial spaces are specified to divide the image into a plurality of partial regions.
第1発明、及び第3発明では、周辺をフレーム単位で時系列的に撮像する撮像装置で撮像された画像データを取得して、対象物が存在する画像中の部分領域を検出する。撮像装置から取得した画像データに基づいて、画素ごとに画面上での単位時間当たりの移動量及び移動方向に関する移動情報を取得する。一方、撮像装置から取得した画像データに基づいて、画素ごとに色情報及び/又は輝度情報を取得する。画面上での座標値、移動情報、並びに色情報及び/又は輝度情報に基づいて、複数の次元で構成される特徴空間を生成し、生成された特徴空間を所定の条件を具備する部分空間に分割し、分割された部分空間に対応する画面上での座標値を特定して画像を複数の部分領域に分割する。これにより、画素ごとのフレーム間での移動情報だけでなく、画素ごとの色情報及び/又は輝度情報も考慮した複数次元の特徴空間を生成することにより、移動情報の取得、並びに色情報及び/又は輝度情報の取得の信頼性が低い場合であっても、これらを相補的に利用することにより画像の領域分割を精度良く行うことが可能となる。 In the first invention and the third invention, image data captured by an imaging device that images the periphery in a time-series manner is acquired, and a partial region in an image in which an object is present is detected. Based on the image data acquired from the imaging device, movement information regarding the movement amount and movement direction per unit time on the screen is acquired for each pixel. On the other hand, based on the image data acquired from the imaging device, color information and / or luminance information is acquired for each pixel. A feature space composed of a plurality of dimensions is generated based on coordinate values on the screen, movement information, and color information and / or luminance information, and the generated feature space is converted into a partial space having a predetermined condition. The image is divided, the coordinate value on the screen corresponding to the divided partial space is specified, and the image is divided into a plurality of partial areas. Thus, by generating a multi-dimensional feature space considering not only movement information between frames for each pixel but also color information and / or luminance information for each pixel, acquisition of movement information, color information and / or Alternatively, even when luminance information acquisition reliability is low, it is possible to perform region segmentation of an image with high accuracy by using these in a complementary manner.
第2発明では、分割された複数の部分領域につき、隣接する部分領域間の類似度を算出し、算出された類似度が所定値より大きい場合、隣接する部分領域を一の部分領域へ統合する。これにより、過剰に分割されて特定されている部分領域を適切な大きさ、例えば検出する対象物の物理的な大きさに近い大きさへと更新することが可能となる。 In the second invention, for a plurality of divided partial areas, the similarity between adjacent partial areas is calculated, and if the calculated similarity is greater than a predetermined value, the adjacent partial areas are integrated into one partial area. . Thereby, it becomes possible to update the partial area specified by being excessively divided to an appropriate size, for example, a size close to the physical size of the object to be detected.
第1発明、及び第3発明によれば、画素ごとのフレーム間での移動情報だけでなく、画素ごとの色情報及び/又は輝度情報も考慮した複数次元の特徴空間を生成することにより、移動情報の取得、並びに色情報及び/又は輝度情報の取得の信頼性が低い場合であっても、これらを相補的に利用することにより画像の領域分割を精度良く行うことが可能となる。 According to the first and third aspects of the invention, by generating a multi-dimensional feature space that considers not only movement information between frames for each pixel but also color information and / or luminance information for each pixel, Even when the acquisition of information and the reliability of acquisition of color information and / or luminance information is low, it is possible to perform image segmentation with high accuracy by using these in a complementary manner.
第2発明によれば、過剰に分割されて特定されている部分領域を適切な大きさ、例えば検出する対象物の物理的な大きさに近い大きさへと更新することが可能となる。 According to the second aspect of the present invention, it is possible to update the partial area specified by being excessively divided to an appropriate size, for example, a size close to the physical size of the object to be detected.
以下、本発明の実施の形態について、図面を参照しながら詳細に説明する。なお、以下の実施の形態では、車両が走行中に遠赤外線撮像装置で撮像された画像を部分領域に分割し、分割された部分領域を利用して、車両の前方に存在する障害物、例えば歩行者、自転車等の存在を検出する場合を例として説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the following embodiment, an image captured by the far-infrared imaging device while the vehicle is traveling is divided into partial areas, and obstacles existing in front of the vehicle, for example, using the divided partial areas, for example, A case where the presence of a pedestrian, a bicycle, or the like is detected will be described as an example.
図1は、本発明の実施の形態に係る画像処理装置1の構成を示すブロック図である。本発明の実施の形態に係る画像処理装置1は、少なくともLSI11、RAM12、画像メモリ13、映像入力部14、映像出力部15、及び警報出力部16で構成されている。
FIG. 1 is a block diagram showing a configuration of an
LSI11は、画像メモリ13に記憶された画像データをフレーム単位で読出し、画素ごとに特徴量を抽出する。LSI11は、抽出された特徴量が所定の条件を具備する領域について、画面上の座標値x、y、フレーム単位での動き量Vx、Vy、及び色情報として例えばL* u* v* 表色系の信号値であるL* u* v* 信号値を取得し、七次元の特徴空間を生成する。以下、七次元の場合について説明を行うが、グレイ画像を対象とし、色ではなく輝度情報を用いる場合には、L* u* v* に代わり輝度情報の一次元情報を用いる。したがって、特徴空間は五次元となる。LSI11は、特徴空間上において画素に対応する点を所定距離範囲ごとにグループ化することにより特徴空間を複数の部分空間に分割する。分割された部分空間に基づいて、画面上の領域を複数の部分領域へ分割する。
The
RAM12は、SRAM、フラッシュメモリ等であり、演算処理の途上で生成したデータ及び特徴量が所定の条件を具備する領域の時系列的位置データ、すなわち移動量、移動ベクトル等を記憶する。画像メモリ13は、SRAM、フラッシュメモリ、SDRAM等であり、映像入力部14を介して遠赤外線撮像装置2、2から入力された画像データを記憶する。
The
映像入力部14は、遠赤外線撮像装置2、2で撮像された画像データの入力を、NTSC等のアナログ映像方式、又はデジタル映像方式に対応した映像ケーブル7を介して受け付ける。映像入力部14で取得した画像データは、例えば1フレーム単位に同期させて画像メモリ13に記憶される。
The
映像出力部15は、NTSC、VGA、DVI等の映像方式に対応したケーブル8を介して液晶ディスプレイ等の表示装置4に対して画像データを出力し、警報出力部16は、音声、効果音等により聴覚的な警告を発する警報装置5に対して、CANに準拠した車載LANケーブル6を介して合成音等の出力信号を送信する。
The
本実施の形態では、車両の周辺の画像を撮像する遠赤外線撮像装置2、2を、車両前方の中央近傍のフロントグリル内に搭載している。なお、遠赤外線撮像装置2、2は、波長が7〜14マイクロメートルの赤外光を用いた撮像装置である。なお、撮像装置として遠赤外線撮像装置2、2を用いることに限定されるものではなく、波長が0.8〜3マイクロメートルの赤外光を用いた近赤外線撮像装置であっても良いし、可視光撮像装置であっても良い。
In the present embodiment, the far-
図2は、本発明の実施の形態に係る画像処理装置1で用いる遠赤外線撮像装置2の構成を示すブロック図である。画像撮像部21は、光学信号を電気信号に変換する撮像素子をマトリックス状に備えている。赤外光用の撮像素子としては、マイクロマシニング(micromachining)技術を用いた酸化バナジウムのボロメータ型、BST(Barium−Strontium−Titanium)の焦電型等の赤外線センサを用いている。画像撮像部21は、車両の周囲の赤外光像を輝度信号として読み取り、読み取った
輝度信号を信号処理部22へ送信する。
FIG. 2 is a block diagram showing the configuration of the far-
信号処理部22は、LSIであり、画像撮像部21から受信した輝度信号をL* u* v* 表色系の信号であるL* u* v* 信号等のデジタル信号に変換し、撮像素子のばらつきを補正する処理、欠陥素子の補正処理、ゲイン制御処理等を行い、画像データとして画像メモリ23へ記憶する。なお、画像データを画像メモリ23へ一時記憶することは必須ではなく、映像出力部24を介して直接画像処理装置1へ送信しても良いことは言うまでもない。
The
映像出力部24は、LSIであり、NTSC等のアナログ映像方式、又はデジタル映像方式に対応した映像ケーブル7を介して画像処理装置1に映像データを出力する。
The
以下、画像処理装置1のLSI11での詳細な処理について説明する。図3は、本発明の実施の形態に係る画像処理装置1のLSI11の処理の手順を示すフローチャートである。
Hereinafter, detailed processing in the
LSI11は、画像メモリ13に記憶してある遠赤外線撮像装置2、2から取得した画像データを読み出す(ステップS301)。
The
LSI11は、画像メモリ13に記憶してある画像データに基づいて、画素ごと(座標値(x、y)ごと)に前のフレームからの動き量d(x、y、t)を算出する(ステップS302)。画素ごとのフレーム単位の動き量の算出方法は、特に限定されるものではなく、例えば周知であるKanade−Lucas−Tomasiトラッカ(以下、KLTという)を用いる。
The
KLTでは、時刻tにおける座標値(x、y)の明度をI(x、y、t)とした場合、フレーム間の動き量d(x、y、t)を(数1)で表すことができる。なお、(数1)において、τはフレーム間隔を、nは撮像装置、画像中の対象物の移動により生じるノイズを示している。 In KLT, when the brightness of the coordinate value (x, y) at time t is I (x, y, t), the motion amount d (x, y, t) between frames can be expressed by (Equation 1). it can. In (Equation 1), τ represents the frame interval, and n represents the noise generated by the movement of the imaging device and the object in the image.
I(x、y、t+τ)=
I(x−d(x、y、t)、y−d(x、y、t)、t)+n(x、y、t)
・・・(数1)
I (x, y, t + τ) =
I (x−d (x, y, t), yd (x, y, t), t) + n (x, y, t)
... (Equation 1)
したがって、(数1)のノイズn(x、y、t)が所定の閾値より小さくなるような動き量d(x、y、t)を探索することにより、座標置(x、y)に対応する特徴点を対応付ける。 Therefore, by searching for the motion amount d (x, y, t) such that the noise n (x, y, t) in (Equation 1) is smaller than a predetermined threshold, the coordinate position (x, y) is supported. Corresponding feature points.
しかし、KLTを用いた動き量の推定では、対応付けられた特徴点の動き量しか推定することができない。すべての画素に対する動き量を求めるため、本実施の形態では、対応付けられていない特徴点の動き量を、空間的に最も近接している特徴点の動き量と同等であると仮定することにより動き量を補完する。このようにすることで特徴点が抽出されなかった画素についても動き量を推定することが可能となる。 However, in estimating the amount of motion using KLT, only the amount of motion of the associated feature point can be estimated. In order to obtain the motion amount for all the pixels, in this embodiment, it is assumed that the motion amount of the feature points that are not associated with each other is equivalent to the motion amount of the spatially closest feature point. Complement the amount of movement. In this way, it is possible to estimate the amount of motion for pixels from which feature points have not been extracted.
図4は、本発明の実施の形態に係る画像処理装置1の動き量の抽出結果の一例を示す図である。図4に示すように、例えば特徴点41の近傍には同じ方向及び動き量を有する移動ベクトルが分布していることがわかる。したがって、動き量だけから移動ベクトルが類似する画素をグループ化することにより領域分割することも可能である。ただし、動き量の検出が困難である画像(フレーム)においては、動き量の信頼度が低いことから、正確
に領域分割を行うことができない。
FIG. 4 is a diagram illustrating an example of a motion amount extraction result of the
次にLSI11は、画像メモリ13に記憶してある画像データに基づいて、画素ごと(座標値(x、y)ごと)に、色情報及び/又は輝度情報を取得する(ステップS303)。取得した画像がカラー画像である場合には、色情報として例えばL* u* v* 表色系の信号値であるL* u* v* 信号値を、モノクロ画像である場合には輝度情報として輝度値を、それぞれ取得する。
Next, the
LSI11は、抽出した特徴領域の画面上での座標値(x、y)、動き量d(x、y、t)、並びに色情報及び/又は輝度情報に基づいて、複数の次元で構成される特徴空間を生成する(ステップS304)。例えば画像メモリ13に記憶してある画像データがカラー画像データである場合、抽出した特徴領域の画面上での座標値(x、y)、動き量(Vx、Vy)、及び色情報であるL* u* v* 信号値(l、u、v)の七次元の特徴空間を生成する。
The
図5は、特徴空間の生成方法を模式的に示す図である。図5(a)に示すように、画像メモリ13に記憶してある画像データの任意の画素Pの座標値(x、y)について、動き量(Vx、Vy)、及び色情報であるL* u* v* 信号値(l、u、v)を算出する。算出された動き量(Vx、Vy)、及び色情報であるL* u* v* 信号値(l、u、v)を用いて、図5(b)に示すように、それぞれの値を正規化した七次元(x’、y’、Vx’、Vy’、l’、u’、v’)の特徴空間上に対応点P’をプロットする。このようにすることで、画像データを七次元の特徴空間へ写像することができる。すなわち、図5(b)の対応点1つ1つが画像メモリ13に記憶してある画像データの任意の画素の座標値(x、y)に対応しており、それぞれの対応点につき特徴空間の原点からの空間距離を算出することが可能となっている。
FIG. 5 is a diagram schematically illustrating a feature space generation method. As shown in FIG. 5A, with respect to the coordinate value (x, y) of an arbitrary pixel P of the image data stored in the
なお、正規化された七次元(x’、y’、Vx’、Vy’、l’、u’、v’)は、画像メモリ13に記憶してある画像データの任意の座標値(x、y)、動き量(Vx、Vy)、及び色情報であるL* u* v* 信号値(l、u、v)を、それぞれ重み付け係数により除算した値となっている。 Note that the normalized seven dimensions (x ′, y ′, Vx ′, Vy ′, l ′, u ′, v ′) are arbitrary coordinate values (x, y), the amount of motion (Vx, Vy), and L * u * v * signal values (l, u, v), which are color information, are values divided by weighting coefficients, respectively.
LSI11は、特定された特徴空間内で所定の条件を具備するか否か、例えば特徴空間上での距離が所定の距離より短いか否かに応じて、一又は複数の部分空間へ分割する(ステップS305)。具体的には、LSI11は、特徴空間内での空間距離を画素の座標値(x、y)に対応する対応点ごとに算出することにより、特徴空間内で空間距離が近接している対応点の集合を1つのグループとして部分空間を特定する。LSI11は、分割された部分空間に含まれる座標値(x、y)を用いて、部分空間ごとに対応する画面上の部分領域を特定する(ステップS306)。
The
図6は、部分領域の分割方法を模式的に示す図である。図6(b)に示すように、特徴空間を複数の部分空間61、61、・・・に分割した場合、各部分空間61の座標値は七次元の座標値となる。その中に画面上の位置を示す二次元座標値(x、y)が含まれていることから、図6(a)に示すように、部分空間61、61、・・・は1対1対応で画面上の画素群62、62、・・・へ写像することができる。したがって、画素群62、62、・・・で構成される領域を部分領域として分割することができる。
FIG. 6 is a diagram schematically illustrating a partial region dividing method. As shown in FIG. 6B, when the feature space is divided into a plurality of partial spaces 61, 61,..., The coordinate values of each partial space 61 are seven-dimensional coordinate values. Since the two-dimensional coordinate value (x, y) indicating the position on the screen is included therein, the partial spaces 61, 61,... Correspond one-to-one as shown in FIG. Can be mapped to the
フレーム間での画素の動き量だけでは、遠赤外線撮像装置2、2で撮像された画像のように情報量が少ない場合には、部分領域を精度良く分割することができない。また、画素ごとの色情報が類似する画素群を部分領域として分割する方法では、異なる画素であるにもかかわらず、輝度値等が類似する画素を同一の部分領域に属すると誤認識するおそれが
ある。それに対して、図6(b)に示すように、動き量及び色情報を含む1つの特徴空間を生成し、生成した特徴空間内での空間距離の大小に応じて部分空間に分割することにより、動き量の取得、並びに色情報及び/又は輝度情報の取得の信頼性が低い場合であっても、これらを相補的に利用することにより、画像の領域分割を精度良く行うことが可能となる。
If the amount of information is small, such as images captured by the far-
図7は、色情報及び/又は輝度情報のみを用いて部分領域に分割した場合の一例を示す図である。背景画像との区別をつけることが困難であることから、対象物を検出することが可能な部分領域として分割することができていない。一方、図8は、同じ画像データに対して本実施の形態に係る画像処理を施した結果を示す図である。図8に示すように、動き量及び色情報を含む1つの特徴空間を生成し、生成した特徴空間内での空間距離の大小に応じて部分空間に分割することにより、対象物を検出することが可能な部分領域を精度良く特定することが可能となる。 FIG. 7 is a diagram illustrating an example of the case where the image is divided into partial areas using only color information and / or luminance information. Since it is difficult to distinguish the background image from the background image, it cannot be divided as a partial region where the object can be detected. On the other hand, FIG. 8 is a diagram illustrating a result of performing image processing according to the present embodiment on the same image data. As shown in FIG. 8, one feature space including the amount of motion and color information is generated, and an object is detected by dividing the feature space into subspaces according to the spatial distance in the generated feature space. It is possible to accurately identify a partial area where the image can be captured.
LSI11は、分割された部分領域につき、例えば歩行者、自転車等の対象物が存在するか否かを周知の方法で判定して、判定結果に応じて表示装置4に対して警告表示データを送信し、又は警報装置5に対して警報信号を送信する。
The
なお、複数次元の特徴空間から部分領域を分割する場合、部分空間の分割アルゴリズム又は閾値の大きさによっては、部分領域が過剰に細分化されて特定される場合も想定される。そこで、LSI11は、分割された部分領域間の類似度を算出して、算出した類似度に基づいて類似すると判断される部分領域を統合することにより新たな部分領域とする。
Note that, when a partial area is divided from a multi-dimensional feature space, it may be assumed that the partial area is excessively subdivided and specified depending on the partial space division algorithm or the size of the threshold. Therefore, the
具体的には、LSI11は、画像上で隣接する部分領域について、動き量(Vx、Vy)、及び色情報であるL* u* v* 信号値(l、u、v)の差の二乗平均を算出する。LSI11は、算出した二乗平均が所定の閾値より小さいか否かを判断し、LSI11が所定の閾値より小さいと判断した場合、LSI11は、両部分領域の類似度が高いものと判断して、部分領域を統合する。
Specifically, the
このようにすることで、部分領域が過剰に細分化されることを防止することができ、画像中に存在する対象物を検出するのに最適な部分領域を特定することができる。 By doing so, it is possible to prevent the partial area from being excessively subdivided, and it is possible to identify the optimal partial area for detecting an object present in the image.
なお、類似度に基づいて部分領域を統合する方法に限定されるものではなく、例えばMorphological処理等を用いることで分離した部分領域を統合しても良い。Morphological処理は例えばOpening等を用いる。 Note that the method is not limited to the method of integrating the partial regions based on the similarity, and the partial regions separated by using, for example, morphological processing may be integrated. The morphological process uses, for example, Opening.
以上のように本実施の形態によれば、画素ごとのフレーム間での移動情報だけでなく、画素ごとの色情報及び/又は輝度情報も考慮した複数次元の特徴空間を生成することにより、移動情報の取得、並びに色情報及び/又は輝度情報の取得の信頼性が低い場合であっても、これらを相補的に利用することにより画像の領域分割を精度良く行うことが可能となる。 As described above, according to the present embodiment, by generating not only the movement information between frames for each pixel but also the multi-dimensional feature space considering the color information and / or luminance information for each pixel, Even when the acquisition of information and the reliability of acquisition of color information and / or luminance information is low, it is possible to perform image segmentation with high accuracy by using these in a complementary manner.
1 画像処理装置
2 遠赤外線撮像装置
4 表示装置
5 警報装置
6 車載LANケーブル
7 映像ケーブル
8 ケーブル
11 LSI
12 RAM
13 画像メモリ
14 映像入力部
15 映像出力部
16 警報出力部
DESCRIPTION OF
12 RAM
13
Claims (3)
前記撮像装置から取得した画像データに基づいて、画素ごとに画面上での単位時間当たりの移動量及び移動方向に関する移動情報を取得する移動情報取得手段と、
前記撮像装置から取得した画像データに基づいて、画素ごとに色情報及び/又は輝度情報を取得する色/輝度情報取得手段と、
前記画面上での座標値、移動情報、並びに色情報及び/又は輝度情報に基づいて、複数の次元で構成される特徴空間を生成する特徴空間生成手段と、
該特徴空間生成手段で生成した特徴空間を所定の条件を具備する部分空間に分割し、分割された部分空間に対応する画面上での座標値を特定して画像を複数の部分領域に分割する画像分割手段と
を備えることを特徴とする画像処理装置。 In an image processing device that acquires image data captured by an imaging device that images the periphery in time series in units of frames, and detects a partial region in an image in which an object exists,
Based on the image data acquired from the imaging device, movement information acquisition means for acquiring movement information regarding a movement amount and a movement direction per unit time on the screen for each pixel;
Color / luminance information acquisition means for acquiring color information and / or luminance information for each pixel based on image data acquired from the imaging device;
Feature space generating means for generating a feature space composed of a plurality of dimensions based on coordinate values on the screen, movement information, and color information and / or luminance information;
The feature space generated by the feature space generation means is divided into partial spaces having predetermined conditions, and coordinate values on the screen corresponding to the divided partial spaces are specified to divide the image into a plurality of partial regions. An image processing apparatus comprising: an image dividing unit.
該手段で算出した類似度が所定値より大きいか否かを判断する手段と、
該手段で大きいと判断した場合、隣接する部分領域を一の部分領域へ統合する手段と
を備えることを特徴とする請求項1記載の画像処理装置。 Means for calculating a similarity between adjacent partial areas for a plurality of partial areas divided by the image dividing means;
Means for determining whether the similarity calculated by the means is greater than a predetermined value;
The image processing apparatus according to claim 1, further comprising: means for integrating adjacent partial areas into one partial area when the means determines that the area is large.
前記撮像装置から取得した画像データに基づいて、画素ごとに画面上での単位時間当たりの移動量及び移動方向に関する移動情報を取得し、
前記撮像装置から取得した画像データに基づいて、画素ごとに色情報及び/又は輝度情報を取得し、
前記画面上での座標値、移動情報、並びに色情報及び/又は輝度情報に基づいて、複数の次元で構成される特徴空間を生成し、
生成された特徴空間を所定の条件を具備する部分空間に分割し、分割された部分空間に対応する画面上での座標値を特定して画像を複数の部分領域に分割することを特徴とする画像処理方法。
In an image processing method for acquiring image data captured by an imaging device that captures the periphery in a time-series manner in units of frames and detecting a partial region in an image in which an object exists,
Based on the image data acquired from the imaging device, to acquire movement information about the movement amount and movement direction per unit time on the screen for each pixel,
Based on the image data acquired from the imaging device, color information and / or luminance information is acquired for each pixel,
Based on coordinate values on the screen, movement information, and color information and / or luminance information, a feature space composed of a plurality of dimensions is generated,
Dividing the generated feature space into partial spaces having a predetermined condition, specifying coordinate values on the screen corresponding to the divided partial spaces, and dividing the image into a plurality of partial regions Image processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006213115A JP2008040724A (en) | 2006-08-04 | 2006-08-04 | Image processing device and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006213115A JP2008040724A (en) | 2006-08-04 | 2006-08-04 | Image processing device and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008040724A true JP2008040724A (en) | 2008-02-21 |
Family
ID=39175658
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006213115A Pending JP2008040724A (en) | 2006-08-04 | 2006-08-04 | Image processing device and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008040724A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104881883A (en) * | 2015-05-08 | 2015-09-02 | 广州铁路职业技术学院 | Method and system for detecting walking locus of insect |
JP2016101771A (en) * | 2014-11-27 | 2016-06-02 | クラリオン株式会社 | Head-up display device for vehicle |
JP2018093266A (en) * | 2016-11-30 | 2018-06-14 | キヤノン株式会社 | Information processing device, information processing method, and program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2870415B2 (en) * | 1994-08-22 | 1999-03-17 | 日本電気株式会社 | Area division method and apparatus |
JP3196749B2 (en) * | 1998-12-25 | 2001-08-06 | 日本電気株式会社 | Area dividing method and apparatus using area attribute model |
-
2006
- 2006-08-04 JP JP2006213115A patent/JP2008040724A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2870415B2 (en) * | 1994-08-22 | 1999-03-17 | 日本電気株式会社 | Area division method and apparatus |
JP3196749B2 (en) * | 1998-12-25 | 2001-08-06 | 日本電気株式会社 | Area dividing method and apparatus using area attribute model |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016101771A (en) * | 2014-11-27 | 2016-06-02 | クラリオン株式会社 | Head-up display device for vehicle |
CN104881883A (en) * | 2015-05-08 | 2015-09-02 | 广州铁路职业技术学院 | Method and system for detecting walking locus of insect |
CN104881883B (en) * | 2015-05-08 | 2018-05-11 | 广州铁路职业技术学院 | Insect run trace detection method and system |
JP2018093266A (en) * | 2016-11-30 | 2018-06-14 | キヤノン株式会社 | Information processing device, information processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10943141B2 (en) | Object detection device and object detection method | |
JP4359710B2 (en) | Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method | |
JP4203512B2 (en) | Vehicle periphery monitoring device | |
KR100476019B1 (en) | Monitoring method for detecting an intruding object and monitoring apparatus therefor | |
JP4631096B2 (en) | Vehicle periphery monitoring device | |
JP5274216B2 (en) | Monitoring system and monitoring method | |
JP5760090B2 (en) | Biological recognition device | |
JP2008026998A (en) | Obstacle location calculation system and method | |
JP2007011490A (en) | Device and method for detecting road parameter | |
JP2008026999A (en) | Obstacle detection system and obstacle detection method | |
JP4887540B2 (en) | Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method | |
JP2008040724A (en) | Image processing device and image processing method | |
JP4765113B2 (en) | Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method | |
US9030560B2 (en) | Apparatus for monitoring surroundings of a vehicle | |
JP6939065B2 (en) | Image recognition computer program, image recognition device and image recognition method | |
JP3625442B2 (en) | Object detection method, object detection apparatus, and object detection program | |
JP4457077B2 (en) | Obstacle detection system and obstacle detection method | |
JP2011221630A (en) | Vehicle periphery monitoring device | |
JP2009069145A (en) | Method for detecting object | |
JP2008028478A (en) | Obstacle detection system, and obstacle detecting method | |
JP2018072884A (en) | Information processing device, information processing method and program | |
JP2010257229A (en) | Vehicle periphery monitoring device | |
JP5904927B2 (en) | Vehicle periphery monitoring device | |
JP4394053B2 (en) | Image recognition device | |
JP4712741B2 (en) | Still-time identification image generation method and apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100518 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100525 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100928 |