JP6586051B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP6586051B2
JP6586051B2 JP2016129616A JP2016129616A JP6586051B2 JP 6586051 B2 JP6586051 B2 JP 6586051B2 JP 2016129616 A JP2016129616 A JP 2016129616A JP 2016129616 A JP2016129616 A JP 2016129616A JP 6586051 B2 JP6586051 B2 JP 6586051B2
Authority
JP
Japan
Prior art keywords
image
images
unit
region
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016129616A
Other languages
Japanese (ja)
Other versions
JP2018005435A (en
Inventor
隼平 國芳
隼平 國芳
政範 島田
政範 島田
高之進 渡邉
高之進 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Industry and Control Solutions Co Ltd
Original Assignee
Hitachi Industry and Control Solutions Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Industry and Control Solutions Co Ltd filed Critical Hitachi Industry and Control Solutions Co Ltd
Priority to JP2016129616A priority Critical patent/JP6586051B2/en
Publication of JP2018005435A publication Critical patent/JP2018005435A/en
Application granted granted Critical
Publication of JP6586051B2 publication Critical patent/JP6586051B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理装置および画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method.

交差点を通行する車両等の物体を複数のカメラで撮影し、撮像した複数の画像から合成画像を生成する技術が従来から知られている。
例えば、下記特許文献1の要約書には、「路面上に存在している立体物を良好な距離感をもって認識することができる俯瞰画像を車載カメラの撮影画像から生成する画像生成装置は、第1射影変換を用いて撮影画像から周辺俯瞰画像を生成する周辺俯瞰画像生成部と、車載カメラの視野内に存在する立体物を検知して、当該立体物の位置を含む立体物情報を出力する立体物検知部と、立体物情報に基づいて撮影画像から立体物が写っている画像領域である立体物画像を抽出する立体物抽出部と、周辺俯瞰画像における立体物の歪みを低減する第2射影変換を用いて立体物画像から立体物俯瞰画像を生成する立体物俯瞰画像生成部と、立体物情報に基づき周辺俯瞰画像に立体物俯瞰画像を画像合成する画像合成部を備える」と記載されている。
2. Description of the Related Art Conventionally, a technique for capturing an object such as a vehicle passing through an intersection with a plurality of cameras and generating a composite image from the captured images is known.
For example, the abstract of the following Patent Document 1 states that “an image generation device that generates a bird's-eye view image capable of recognizing a three-dimensional object existing on a road surface with a good sense of distance from a photographed image of an in-vehicle camera, A peripheral bird's-eye view image generation unit that generates a peripheral bird's-eye view image from a photographed image using one projective transformation, and a three-dimensional object existing in the field of view of the in-vehicle camera are detected and three-dimensional object information including the position of the three-dimensional object is output. A three-dimensional object detection unit; a three-dimensional object extraction unit that extracts a three-dimensional object image that is an image region in which a three-dimensional object is captured from a captured image based on the three-dimensional object information; and a second that reduces distortion of the three-dimensional object in the surrounding overhead image. It includes a three-dimensional object overhead image generation unit that generates a three-dimensional object overhead image from a three-dimensional object image using projective transformation, and an image composition unit that synthesizes a three-dimensional object overhead image based on the three-dimensional object information. ing.

また、下記特許文献2の要約書には、「停車時に立体物の有無を検出することを可能にした立体物確認装置を提供することを目的とする。」、「ドアミラーに検出用カメラを設け、ドアミラー格納状態及び展開状態の各々で撮影して、各々の撮影画像を俯瞰変換すると共に、位置合わせのために、格納状態で撮影した撮影画像を回転して、各々の撮影画像を比較する(100〜114)。そして、撮影画像上にずれる部分が存在する場合に立体物と判定して警報を行う(116)。」と記載されている。   In addition, the abstract of the following Patent Document 2 states that “an object is to provide a three-dimensional object confirmation device that can detect the presence or absence of a three-dimensional object when the vehicle is stopped.”, “A detection camera is provided on a door mirror. Each of the images taken in the door mirror retracted state and in the unfolded state is converted to a bird's eye view, and the images captured in the retracted state are rotated for alignment, and the captured images are compared ( 100 to 114), and if there is a portion that is shifted on the captured image, it is determined that the object is a three-dimensional object and an alarm is issued (116). "

また、下記特許文献3の要約書には、「複数の俯瞰画像を合成したときの見にくさを解消して見やすい画像を運転者に提示し、障害物を確実に認識させることのできる車両周辺監視装置を提供する。」、「本発明の車両周辺監視装置1は、自車の周囲の映像を撮像し、撮像領域がオーバーラップしている複数の撮像部2と、撮像部2によって撮像された画像を変換して複数の俯瞰画像を生成する画像変換部3と、複数の俯瞰画像の差分を計算し、オーバーラップ領域において画像が一致している一致領域と一致していない不一致領域とを確定させる領域確定部4と、一致領域と不一致領域とを異なる方法で合成して出力画像を生成する画像合成部5と、出力画像を運転者に提示する表示部6とを備えることを特徴とする。」と記載されている。   In addition, the abstract of the following Patent Document 3 states: “Vehicle periphery monitoring that eliminates the difficulty of viewing when combining a plurality of overhead images and presents an easy-to-see image to the driver so that an obstacle can be recognized reliably. "The vehicle periphery monitoring device 1 according to the present invention captures an image of the surroundings of the host vehicle, and is captured by the imaging unit 2 and a plurality of imaging units 2 in which imaging regions overlap." The image conversion unit 3 that converts an image to generate a plurality of overhead images, calculates a difference between the plurality of overhead images, and determines a mismatch region that does not match a matching region that matches the image in the overlap region And a display unit 6 for presenting the output image to the driver. The region determining unit 4 is configured to generate the output image by synthesizing the matching region and the non-matching region by different methods. . "

国際公開第2012/096058号International Publication No. 2012/096058 特開2015−74318号JP2015-74318A 特開2007−027948号JP 2007-027948

ところで、上述した各技術においては、生成された合成画像によって物体の正確な位置を把握することが難しいという問題があった。
この発明は上述した事情に鑑みてなされたものであり、撮影された物体の正確な位置を画像から把握できる画像処理装置および画像処理方法を提供することを目的とする。
By the way, in each technique mentioned above, there existed a problem that it was difficult to grasp | ascertain the exact position of an object with the produced | generated synthesized image.
The present invention has been made in view of the above-described circumstances, and an object thereof is to provide an image processing apparatus and an image processing method capable of grasping an accurate position of a photographed object from an image.

上記課題を解決するため本発明の画像処理装置は、異なる視点から撮影された複数の原画像をそれぞれ正規化し、複数の正規化画像を生成する正規化部と、複数の前記正規化画像に対して、所定条件を満たす物体に対応する物体領域をそれぞれ抽出し、複数の前記正規化画像に基づいて複数の背景画像を生成する物体領域抽出部と、複数の前記正規化画像に係る前記物体領域が重なる部分である共通領域を抽出する共通領域抽出部と、複数の前記背景画像を合成することにより、所定領域のうち前記共通領域以外の領域の画像を表す総合背景画像を生成する画像割当部と、を有することを特徴とする。 In order to solve the above problems, an image processing apparatus according to the present invention normalizes a plurality of original images taken from different viewpoints, generates a plurality of normalized images, and a plurality of the normalized images. Each of object regions corresponding to an object satisfying a predetermined condition and generating a plurality of background images based on the plurality of normalized images; and the object region relating to the plurality of normalized images. A common area extracting unit that extracts a common area that is a part where the two overlap, and an image allocating unit that generates a general background image representing an image of a region other than the common region among the predetermined regions by combining a plurality of the background images and having a, the.

本発明によれば、撮影された物体の正確な位置を画像から把握できる。   According to the present invention, an accurate position of a photographed object can be grasped from an image.

本発明の第1実施形態による画像処理システムのブロック図である。1 is a block diagram of an image processing system according to a first embodiment of the present invention. 第1実施形態における処理プログラムのフローチャートである。It is a flowchart of the processing program in 1st Embodiment. 第1実施形態における各要素の一の配置例を示す図である。It is a figure which shows one example of arrangement | positioning of each element in 1st Embodiment. 図3の配置例における(a)正規化画像の例、(b)二値化画像の例、(c)共通領域表示画像の例を示す図である。FIG. 4 is a diagram illustrating (a) an example of a normalized image, (b) an example of a binarized image, and (c) an example of a common area display image in the arrangement example of FIG. 3. 第1実施形態における各要素の他の配置例を示す図である。It is a figure which shows the other example of arrangement | positioning of each element in 1st Embodiment. 図5の配置例における(a)正規化画像の例、(b)二値化画像の例、(c)共通領域表示画像の例を示す図である。FIG. 6 is a diagram illustrating (a) an example of a normalized image, (b) an example of a binarized image, and (c) an example of a common area display image in the arrangement example of FIG. 5. 第2実施形態による画像処理システムのブロック図である。It is a block diagram of the image processing system by 2nd Embodiment. 第2実施形態における処理プログラムのフローチャートである。It is a flowchart of the processing program in 2nd Embodiment. 第2実施形態における各要素の配置例を示す図である。It is a figure which shows the example of arrangement | positioning of each element in 2nd Embodiment. 図9の配置例における(a)正規化画像の例、(b)二値化画像の例、(c)共通領域表示画像の例、(d)重心位置の例、(e)軌跡画像の例を示す図である。In the arrangement example of FIG. 9, (a) an example of a normalized image, (b) an example of a binarized image, (c) an example of a common area display image, (d) an example of a center of gravity position, (e) an example of a trajectory image FIG. 第3実施形態による画像処理システムのブロック図である。It is a block diagram of the image processing system by 3rd Embodiment. 第3実施形態における処理プログラムのフローチャートである。It is a flowchart of the processing program in 3rd Embodiment. 第3実施形態における各要素の配置例を示す図である。It is a figure which shows the example of arrangement | positioning of each element in 3rd Embodiment. 図13の配置例における(a)正規化画像の例、(b)共通領域表示画像の例、(c)合成画像の表示例、(d)比較例による合成画像の表示例を示す図である。FIG. 14 is a diagram illustrating (a) an example of a normalized image, (b) an example of a common area display image, (c) a display example of a composite image, and (d) a display example of a composite image according to a comparative example in the arrangement example of FIG. 13. . 第4実施形態による画像処理システムのブロック図である。It is a block diagram of the image processing system by 4th Embodiment.

[第1実施形態]
〈第1実施形態の構成〉
図1は、本発明の第1実施形態による画像処理システムA1のブロック図である。
画像処理システムA1は、画像処理装置201と、N台(Nは複数)のカメラ10−1〜10−Nと、表示部12とを有している。カメラ10−1〜10−Nは、撮影した画像であるカメラ画像V1〜VN(原画像)を出力する。以下、カメラ10−1〜10−Nを総称して「カメラ10」と呼ぶことがある。また、表示部12は、LCD(liquid crystal display)等のディスプレイである。
[First Embodiment]
<Configuration of First Embodiment>
FIG. 1 is a block diagram of an image processing system A1 according to the first embodiment of the present invention.
The image processing system A1 includes an image processing apparatus 201, N (N is a plurality) cameras 10-1 to 10-N, and a display unit 12. The cameras 10-1 to 10-N output camera images V1 to VN (original images) that are captured images. Hereinafter, the cameras 10-1 to 10-N may be collectively referred to as “camera 10”. The display unit 12 is a display such as an LCD (liquid crystal display).

画像処理装置201は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)等、一般的なコンピュータとしてのハードウエアを備えており、HDDには、OS(Operating System)、アプリケーションプログラム、各種データ等が格納されている。OSおよびアプリケーションプログラムは、RAMに展開され、CPUによって実行される。図1において画像処理装置201の内部は、RAMに展開されたアプリケーションプログラム等によって実現される機能を、ブロックとして示す。   The image processing apparatus 201 includes hardware as a general computer such as a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and an HDD (Hard Disk Drive). Stores an OS (Operating System), application programs, various data, and the like. The OS and application programs are expanded in the RAM and executed by the CPU. In FIG. 1, the inside of the image processing apparatus 201 shows functions realized by application programs developed in a RAM as blocks.

画像処理装置201は、正規化部22と、物体領域抽出部24と、共通領域抽出部26とを有している。正規化部22は、カメラ画像V1〜VNに対して正規化処理を施し、その結果を正規化画像VS1〜VSNとして出力する。なお、「正規化処理」とは、具体的には、カメラ画像V1〜VNの視点を共通化するように、これらカメラ画像V1〜VNを射影変換する処理である。物体領域抽出部24は、正規化画像VS1〜VSNの各々の画像領域の中から、所定条件を満たす物体に対応する物体領域を抽出し、物体領域を特定する二値化画像VB1〜VBNを出力する。   The image processing apparatus 201 includes a normalization unit 22, an object region extraction unit 24, and a common region extraction unit 26. The normalizing unit 22 performs normalization processing on the camera images V1 to VN, and outputs the results as normalized images VS1 to VSN. The “normalization processing” is specifically processing for projective transformation of the camera images V1 to VN so that the viewpoints of the camera images V1 to VN are shared. The object area extraction unit 24 extracts an object area corresponding to an object satisfying a predetermined condition from the image areas of the normalized images VS1 to VSN, and outputs binarized images VB1 to VBN that specify the object area. To do.

例えば、正規化画像VS1〜VSNが「道路」を撮影したものであるとすると、抽出対象の「物体領域」とは例えば「車両または人等を撮影した領域」とすることができる。物体領域の抽出方法としては、例えば背景差分を求める等、周知の技術を採用するとよい。背景差分による方法を採用する場合、「予め計測した背景色とは異なる色を有する」ということが上述の「所定条件」になる。二値化画像VB1〜VBNは、例えば物体領域を構成する画素の画素値を“1”とし、その他の領域を構成する画素の画素値を“0”とするビットマップとして表現することができる。   For example, if the normalized images VS1 to VSN are images of “roads”, the “object region” to be extracted can be, for example, “an area where a vehicle or a person is imaged”. As an object region extraction method, for example, a known technique such as obtaining a background difference may be employed. When the background difference method is employed, “having a color different from the background color measured in advance” is the above-mentioned “predetermined condition”. The binarized images VB <b> 1 to VBN can be expressed, for example, as a bitmap in which the pixel value of the pixels constituting the object region is “1” and the pixel value of the pixels constituting the other region is “0”.

ここで、二値化画像VB1〜VBNの物体領域が重なる領域を「共通領域」と呼び、共通領域抽出部26は、この共通領域を抽出する。すなわち、上記例にあっては、二値化画像VB1〜VBNの相互に対応する画素値の論理積を求めると、論理積が“1”である範囲が共通領域になる。そして、共通領域抽出部26は、共通領域を表す共通領域表示画像VCを出力する。出力された共通領域表示画像VCは、表示部12に表示される。   Here, a region where the object regions of the binarized images VB1 to VBN overlap is referred to as a “common region”, and the common region extraction unit 26 extracts the common region. That is, in the above example, when the logical product of the pixel values corresponding to each other of the binarized images VB1 to VBN is obtained, a range where the logical product is “1” becomes a common region. Then, the common area extraction unit 26 outputs a common area display image VC representing the common area. The output common area display image VC is displayed on the display unit 12.

〈第1実施形態の動作〉
次に、図2を参照し、本実施形態の動作を説明する。なお、図2は、画像処理装置201にて実行される制御プログラムのフローチャートである。
図2において処理がステップS10に進むと、正規化部22は、各カメラ画像V1〜VNのフレームを取得する。次に、処理がステップS12(正規化過程)に進むと、正規化部22は、各カメラ画像V1〜VNを正規化画像VS1〜VSNに変換する。すなわち、各カメラ画像V1〜VNのフレームを、正規化画像VS1〜VSNのフレームに変換する。次に、処理がステップS14(物体領域抽出過程)に進むと、物体領域抽出部24は、各正規化画像VS1〜VSNから物体領域を抽出し、二値化画像VB1〜VBNのフレームを生成する。
<Operation of First Embodiment>
Next, the operation of this embodiment will be described with reference to FIG. FIG. 2 is a flowchart of a control program executed by the image processing apparatus 201.
In FIG. 2, when the process proceeds to step S10, the normalization unit 22 acquires frames of the camera images V1 to VN. Next, when the process proceeds to step S12 (normalization process), the normalization unit 22 converts the camera images V1 to VN into normalized images VS1 to VSN. That is, the frames of the camera images V1 to VN are converted into the frames of the normalized images VS1 to VSN. Next, when the process proceeds to step S14 (object region extraction process), the object region extraction unit 24 extracts an object region from each of the normalized images VS1 to VSN, and generates frames of the binarized images VB1 to VBN. .

次に、処理がステップS16(共通領域抽出過程)に進むと、共通領域抽出部26は、二値化画像VB1〜VBNから共通領域表示画像VCを生成する。すなわち、二値化画像VB1〜VBNのフレームから共通領域を抽出し、共通領域表示画像VCのフレームを生成する。次に、処理がステップS30に進むと、正規化部22は、今回生成した共通領域表示画像VCのフレームが最終フレームであるか否かを判定する。なお、処理期間を特に定めない場合、ステップS30では、常に「No」と判定される。ステップS30において「No」と判定されると、処理はステップS10に戻り、以降のフレームに対して同様の処理が繰り返される。これにより、表示部12には、共通領域を表す共通領域表示画像VCが連続的に表示される。   Next, when the process proceeds to step S16 (common area extraction process), the common area extraction unit 26 generates a common area display image VC from the binarized images VB1 to VBN. That is, a common area is extracted from the frames of the binarized images VB1 to VBN, and a frame of the common area display image VC is generated. Next, when the process proceeds to step S30, the normalization unit 22 determines whether or not the frame of the common area display image VC generated this time is the last frame. If the processing period is not particularly defined, it is always determined as “No” in step S30. If "No" is determined in step S30, the process returns to step S10, and the same process is repeated for the subsequent frames. Thereby, the common area display image VC representing the common area is continuously displayed on the display unit 12.

〈動作の具体例(1)〉
次に、図3、図4(a)〜(c)を参照し、本実施形態の動作の具体例を説明する。
まず、図3は、本実施形態における各要素の配置例を示す図である。図3において、平面領域50は正方形の領域であり、そのほぼ中央に角柱部材52が配置されている。角柱部材52は、断面形状が正方形である長尺部材である。従って、角柱部材52が平面領域50に接する接触領域52aも、正方形になる。また、本実施形態においては、複数のカメラ10として、2台のカメラ10−1,10−2が設けられている。
<Specific example of operation (1)>
Next, a specific example of the operation of the present embodiment will be described with reference to FIGS. 3 and 4A to 4C.
First, FIG. 3 is a diagram illustrating an arrangement example of each element in the present embodiment. In FIG. 3, the planar region 50 is a square region, and a prism member 52 is disposed at the approximate center thereof. The prism member 52 is a long member having a square cross-sectional shape. Therefore, the contact region 52a where the prism member 52 is in contact with the planar region 50 is also square. In the present embodiment, two cameras 10-1 and 10-2 are provided as the plurality of cameras 10.

カメラ10−1,10−2は、平面領域50および角柱部材52を斜め上方向から見下ろす位置に配置されている。カメラ10−1,10−2は、撮影した画像をカメラ画像V1,V2として出力する。カメラ画像V1,V2の内容の図示は省略するが、これらの画像領域において、平面領域50に対応する領域は、略台形状になる。   The cameras 10-1 and 10-2 are arranged at positions where the planar region 50 and the prism member 52 are looked down obliquely from above. The cameras 10-1 and 10-2 output the captured images as camera images V1 and V2. Although illustration of the contents of the camera images V1 and V2 is omitted, in these image areas, an area corresponding to the plane area 50 is substantially trapezoidal.

次に、図4(a)は、図3におけるカメラ画像V1,V2に基づいて、正規化部22(図1参照)が生成した正規化画像VS1,VS2の例を示す図である。カメラ画像V1,V2において、平面領域50に対応する領域は、略台形状であったが、正規化画像VS1,VS2においては、これら領域が正方形の領域70−1,70−2になるように、射影変換されている。これにより、角柱部材52に対応する物体画像72−1,72−2は、角柱部材52を上部に向かうほど膨らませたような形状になる。   Next, FIG. 4A is a diagram illustrating an example of normalized images VS1 and VS2 generated by the normalization unit 22 (see FIG. 1) based on the camera images V1 and V2 in FIG. In the camera images V1 and V2, the areas corresponding to the planar area 50 are substantially trapezoidal, but in the normalized images VS1 and VS2, these areas are square areas 70-1 and 70-2. Projective transformations have been made. As a result, the object images 72-1 and 72-2 corresponding to the prismatic member 52 are shaped such that the prismatic member 52 is expanded toward the top.

次に、図4(b)は、図4(a)に示す正規化画像VS1,VS2に基づいて、物体領域抽出部24(図1参照)が生成した二値化画像VB1,VB2の例を示す図である。二値化画像VB1,VB2においては、正規化画像VS1,VS2の物体画像72−1,72−2に対応する領域が物体領域82−1,82−2になり、これら領域の画素値が“1”に設定される。また、物体領域82−1,82−2以外の領域の画素値は“0”に設定される。   Next, FIG. 4B shows an example of binarized images VB1 and VB2 generated by the object region extraction unit 24 (see FIG. 1) based on the normalized images VS1 and VS2 shown in FIG. FIG. In the binarized images VB1 and VB2, regions corresponding to the object images 72-1 and 72-2 of the normalized images VS1 and VS2 are object regions 82-1 and 82-2, and the pixel values of these regions are “ Set to 1 ". Further, the pixel values in the areas other than the object areas 82-1 and 82-2 are set to “0”.

次に、図4(c)は、二値化画像VB1,VB2に基づいて、共通領域抽出部26(図1参照)が生成した共通領域表示画像VCの例を示す図である。共通領域表示画像VCは、二値化画像VB1,VB2の論理積によって求めることができる。なお、図4(c)において、物体領域82−1,82−2に対応する領域を破線で示し、両者の重なる部分が共通領域90になる。共通領域90の位置、大きさおよび形状は、図3に示した角柱部材52の接触領域52aのものにほぼ一致している。従って、共通領域表示画像VCは、角柱部材52の位置を高精度で表す画像になる。   Next, FIG. 4C is a diagram illustrating an example of the common area display image VC generated by the common area extraction unit 26 (see FIG. 1) based on the binarized images VB1 and VB2. The common area display image VC can be obtained by a logical product of the binarized images VB1 and VB2. In FIG. 4C, regions corresponding to the object regions 82-1 and 82-2 are indicated by broken lines, and a portion where both overlap is a common region 90. The position, size, and shape of the common region 90 substantially match those of the contact region 52a of the prismatic member 52 shown in FIG. Therefore, the common area display image VC is an image that represents the position of the prism member 52 with high accuracy.

〈動作の具体例(2)〉
次に、図5、図6(a)〜(c)を参照し、本実施形態の他の動作の具体例を説明する。
まず、図5は、本実施形態における各要素の他の配置例を示す図である。図5において、平面領域50は正方形の領域であり、そのほぼ中央に角柱部材52および円柱部材54が配置されている。角柱部材52は、図3に示したものと同様である。従って、角柱部材52および円柱部材54が平面領域50に接する接触領域52a,54aも、正方形および円形になる。また、図5の例においては、複数のカメラ10として、3台のカメラ10−1〜10−3が設けられている。
<Specific example of operation (2)>
Next, a specific example of another operation of the present embodiment will be described with reference to FIGS. 5 and 6A to 6C.
First, FIG. 5 is a diagram illustrating another arrangement example of each element in the present embodiment. In FIG. 5, the planar region 50 is a square region, and a prismatic member 52 and a cylindrical member 54 are disposed at the approximate center thereof. The prism member 52 is the same as that shown in FIG. Therefore, the contact regions 52a and 54a where the prismatic member 52 and the cylindrical member 54 are in contact with the planar region 50 are also square and circular. In the example of FIG. 5, three cameras 10-1 to 10-3 are provided as the plurality of cameras 10.

カメラ10−1〜10−3は、平面領域50、角柱部材52および円柱部材54を斜め上方向から見下ろす位置に配置され、撮影した画像をカメラ画像V1〜V3として出力する。なお、カメラ画像V1〜V3の内容は図示を省略するが、これらの画像領域において、平面領域50に対応する領域は、略台形状になる。   The cameras 10-1 to 10-3 are arranged at positions where the planar region 50, the prismatic member 52, and the cylindrical member 54 are looked down obliquely from above, and output captured images as camera images V1 to V3. Although the contents of the camera images V <b> 1 to V <b> 3 are not shown, the area corresponding to the plane area 50 in these image areas is substantially trapezoidal.

次に、図6(a)は、図5におけるカメラ画像V1〜V3に基づいて、正規化部22(図1参照)が生成した正規化画像VS1〜VS3の例を示す図である。カメラ画像V1〜V3において、平面領域50に対応する領域は、略台形状であったが、正規化画像VS1〜VS3においては、これら領域が正方形の領域70−1〜70−3になるように、射影変換されている。物体画像72−1〜72−3は、角柱部材52および円柱部材54に対応する画像である。   Next, FIG. 6A is a diagram illustrating an example of normalized images VS1 to VS3 generated by the normalization unit 22 (see FIG. 1) based on the camera images V1 to V3 in FIG. In the camera images V1 to V3, the regions corresponding to the planar region 50 are substantially trapezoidal, but in the normalized images VS1 to VS3, these regions become square regions 70-1 to 70-3. Projective transformations have been made. The object images 72-1 to 72-3 are images corresponding to the prismatic member 52 and the cylindrical member 54.

次に、図6(b)は、図6(a)に示す正規化画像VS1〜VS3に基づいて、物体領域抽出部24(図1参照)が生成した二値化画像VB1〜VB3の例を示す図である。二値化画像VB1〜VB3においては、正規化画像VS1〜VS3の物体画像72−1〜72−3に対応する領域が物体領域82−1〜82−3になり、これら領域の画素値が“1”に設定される。また、物体領域82−1〜82−3以外の領域の画素値は“0”に設定される。   Next, FIG. 6B shows examples of binarized images VB1 to VB3 generated by the object region extraction unit 24 (see FIG. 1) based on the normalized images VS1 to VS3 shown in FIG. FIG. In the binarized images VB1 to VB3, regions corresponding to the object images 72-1 to 72-3 of the normalized images VS1 to VS3 are object regions 82-1 to 82-3, and the pixel values of these regions are “ Set to 1 ". Further, the pixel values in the areas other than the object areas 82-1 to 82-3 are set to “0”.

次に、図6(c)は、二値化画像VB1〜VB3に基づいて、共通領域抽出部26(図1参照)が生成した共通領域表示画像VCの例を示す図である。共通領域表示画像VCは、二値化画像VB1〜VB3の論理積によって求めることができる。なお、図6(c)において、物体領域82−1〜82−3に対応する領域を破線で示し、両者の重なる部分が共通領域90になる。共通領域90の位置、大きさおよび形状は、図5に示した角柱部材52および円柱部材54の接触領域52a,54aのものに近似している。従って、共通領域表示画像VCは、角柱部材52および円柱部材54の位置を高精度で表す画像になる。   Next, FIG. 6C is a diagram illustrating an example of the common area display image VC generated by the common area extraction unit 26 (see FIG. 1) based on the binarized images VB1 to VB3. The common area display image VC can be obtained by a logical product of the binarized images VB1 to VB3. In FIG. 6C, regions corresponding to the object regions 82-1 to 82-3 are indicated by broken lines, and a portion where both overlap is a common region 90. The position, size, and shape of the common region 90 are similar to those of the contact regions 52a and 54a of the prismatic member 52 and the cylindrical member 54 shown in FIG. Therefore, the common area display image VC is an image that represents the positions of the prismatic member 52 and the cylindrical member 54 with high accuracy.

以上のように、本実施形態によれば、異なる視点から撮影された複数の原画像(V1〜VN)をそれぞれ正規化し、複数の正規化画像(VS1〜VSN)を生成する正規化部(22)と、複数の正規化画像(VS1〜VSN)に対して、所定条件を満たす物体に対応する物体領域(82−1〜82−3)をそれぞれ抽出する物体領域抽出部(24)と、複数の正規化画像(VS1〜VSN)に係る物体領域(82−1〜82−3)が重なる部分である共通領域(90)を抽出する共通領域抽出部(26)と、を設けたため、撮影された物体の正確な位置を画像から把握できる。また、図5および図6(a)〜(c)に示したように、平面領域50に配置される物体(角柱部材52、円柱部材54)の数が多い場合であっても、カメラ10の台数を増加させることにより、精度の高い共通領域表示画像VCを得ることができる。   As described above, according to the present embodiment, a normalization unit (22) that normalizes a plurality of original images (V1 to VN) photographed from different viewpoints and generates a plurality of normalized images (VS1 to VSN). ) And a plurality of normalized regions (VS1 to VSN), an object region extraction unit (24) that respectively extracts object regions (82-1 to 82-3) corresponding to objects that satisfy a predetermined condition, and a plurality of Since the common region extraction unit (26) that extracts the common region (90) that is a portion where the object regions (82-1 to 82-3) related to the normalized images (VS1 to VSN) overlap is provided, The exact position of the object can be grasped from the image. Further, as shown in FIGS. 5 and 6A to 6C, even when the number of objects (the prismatic member 52 and the cylindrical member 54) arranged in the planar region 50 is large, the camera 10 By increasing the number, the common area display image VC with high accuracy can be obtained.

[第2実施形態]
〈第2実施形態の構成〉
図7は、本発明の第2実施形態による画像処理システムA2のブロック図である。なお、図7において、図1の各部に対応する部分には同一の符号を付し、その説明を省略する場合がある。
画像処理システムA2においては、画像処理システムA1(図1参照)の画像処理装置201に代えて、画像処理装置202が設けられている。画像処理装置202は、画像処理装置201と同様に、CPU、RAM、ROM、HDD等、一般的なコンピュータとしてのハードウエアを備えている。図7において画像処理装置202の内部は、RAMに展開されたアプリケーションプログラム等によって実現される機能を、ブロックとして示す。
[Second Embodiment]
<Configuration of Second Embodiment>
FIG. 7 is a block diagram of an image processing system A2 according to the second embodiment of the present invention. In FIG. 7, portions corresponding to the respective portions in FIG. 1 are denoted by the same reference numerals and description thereof may be omitted.
In the image processing system A2, an image processing apparatus 202 is provided instead of the image processing apparatus 201 of the image processing system A1 (see FIG. 1). Similar to the image processing apparatus 201, the image processing apparatus 202 includes hardware as a general computer such as a CPU, RAM, ROM, and HDD. In FIG. 7, the inside of the image processing apparatus 202 shows functions realized by an application program or the like developed in a RAM as a block.

画像処理装置202は、正規化部22と、物体領域抽出部24と、共通領域抽出部26と、重心位置算出部30と、軌跡画像生成部32と、を有している。ここで、正規化部22、物体領域抽出部24および共通領域抽出部26の機能は、第1実施形態のもの(図1参照)と同様である。すなわち、正規化部22は、カメラ画像V1〜VNに基づいて、正規化画像VS1〜VSNを出力する。また、物体領域抽出部24は、正規化画像VS1〜VSNに基づいて、物体領域を特定する二値化画像VB1〜VBNを出力する。   The image processing apparatus 202 includes a normalization unit 22, an object region extraction unit 24, a common region extraction unit 26, a centroid position calculation unit 30, and a trajectory image generation unit 32. Here, the functions of the normalization unit 22, the object region extraction unit 24, and the common region extraction unit 26 are the same as those in the first embodiment (see FIG. 1). That is, the normalizing unit 22 outputs the normalized images VS1 to VSN based on the camera images V1 to VN. The object region extraction unit 24 outputs binarized images VB1 to VBN that specify the object region based on the normalized images VS1 to VSN.

また、共通領域抽出部26は、 二値化画像VB1〜VBNに基づいて、共通領域を表す共通領域表示画像VCを出力する。また、重心位置算出部30は、共通領域の重心位置(図心位置)を算出する。また、軌跡画像生成部32は、共通領域と、重心位置の軌跡とを表す軌跡画像VDを生成する。   Further, the common area extraction unit 26 outputs a common area display image VC representing the common area based on the binarized images VB1 to VBN. The centroid position calculation unit 30 calculates the centroid position (centroid position) of the common area. In addition, the trajectory image generation unit 32 generates a trajectory image VD that represents the common area and the trajectory of the center of gravity.

〈第2実施形態の動作〉
次に、図8を参照し、本実施形態の動作を説明する。なお、図8は、画像処理装置202にて実行される制御プログラムのフローチャートである。
図8において、ステップS10〜S16の処理内容は、第1実施形態のもの(図2参照)と同様である。すなわち、ステップS10,S12では、正規化部22は各カメラ画像V1〜VNのフレームを取得し、正規化画像VS1〜VSNのフレームを出力する。また、ステップS14では、物体領域抽出部24は、物体領域を抽出し、二値化画像VB1〜VBNのフレームを生成する。また、処理がステップS16では、共通領域抽出部26は、二値化画像VB1〜VBNのフレームから共通領域を抽出し、共通領域表示画像VCのフレームを生成する。
<Operation of Second Embodiment>
Next, the operation of this embodiment will be described with reference to FIG. FIG. 8 is a flowchart of a control program executed by the image processing apparatus 202.
In FIG. 8, the processing contents of steps S10 to S16 are the same as those in the first embodiment (see FIG. 2). That is, in steps S10 and S12, the normalization unit 22 acquires the frames of the camera images V1 to VN and outputs the frames of the normalized images VS1 to VSN. In step S14, the object region extraction unit 24 extracts the object region and generates frames of the binarized images VB1 to VBN. In step S16, the common area extraction unit 26 extracts a common area from the frames of the binarized images VB1 to VBN, and generates a frame of the common area display image VC.

次に、処理がステップS18に進むと、重心位置算出部30は、共通領域表示画像VCに基づいて、共通領域の重心位置(図心位置)を計算する。次に、処理がステップS20に進むと、軌跡画像生成部32は、共通領域と、重心位置の軌跡とを表す軌跡画像VDを生成する。すなわち、過去のフレームの重心位置と、今回のフレームの重心位置とをスーパーインポーズしつつ描画すると、描画結果は線状の軌跡になる。軌跡画像生成部32は、共通領域表示画像VCに対して、この軌跡をスーパーインポーズすることにより、軌跡画像VDを生成する。   Next, when the process proceeds to step S18, the centroid position calculation unit 30 calculates the centroid position (centroid position) of the common area based on the common area display image VC. Next, when the process proceeds to step S <b> 20, the trajectory image generation unit 32 generates a trajectory image VD that represents the common area and the trajectory of the barycentric position. That is, if drawing is performed while superimposing the gravity center position of the past frame and the gravity center position of the current frame, the drawing result becomes a linear locus. The trajectory image generation unit 32 generates a trajectory image VD by superimposing the trajectory on the common area display image VC.

次に、処理がステップS30に進むと、正規化部22は、今回生成した軌跡画像VDのフレームが最終フレームであるか否かを判定する。ここで、「No」と判定されると、処理はステップS10に戻り、以降のフレームに対して同様の処理が繰り返される。これにより、表示部12には、共通領域と、重心位置の軌跡とを表す軌跡画像VDが表示される。   Next, when the process proceeds to step S30, the normalizing unit 22 determines whether or not the frame of the trajectory image VD generated this time is the last frame. If “No” is determined here, the process returns to step S10, and the same process is repeated for the subsequent frames. Thereby, the trajectory image VD representing the common area and the trajectory of the center of gravity is displayed on the display unit 12.

〈動作の具体例〉
次に、図9、図10(a)〜(e)を参照し、本実施形態の動作の具体例を説明する。
まず、図9は、本実施形態における各要素の配置例を示す図である。図9において、平面領域50は、道路の交差点である正方形の領域である。平面領域50の上には、バス56が通行している。また、本実施形態においては、複数のカメラ10として、2台のカメラ10−1,10−2が設けられている。
<Example of operation>
Next, a specific example of the operation of the present embodiment will be described with reference to FIGS. 9 and 10A to 10E.
First, FIG. 9 is a diagram illustrating an arrangement example of each element in the present embodiment. In FIG. 9, a plane area 50 is a square area that is an intersection of roads. A bus 56 passes over the plane area 50. In the present embodiment, two cameras 10-1 and 10-2 are provided as the plurality of cameras 10.

カメラ10−1,10−2は、平面領域50およびバス56を斜め上方向から見下ろす位置に配置されている。カメラ10−1,10−2から出力されるカメラ画像V1,V2の内容の図示は省略するが、これらの画像領域において、平面領域50に対応する領域は、略台形状になる。   The cameras 10-1 and 10-2 are disposed at positions where the planar region 50 and the bus 56 are looked down obliquely from above. Although illustration of the contents of the camera images V1 and V2 output from the cameras 10-1 and 10-2 is omitted, in these image areas, an area corresponding to the planar area 50 is substantially trapezoidal.

次に、図10(a)は、カメラ画像V1,V2に基づいて、正規化部22(図7参照)が生成した正規化画像VS1,VS2の例を示す図である。第1実施形態のもの(図4(a)参照)と同様に、正規化画像VS1,VS2においては、平面領域50に対応する領域は、正方形の領域70−1,70−2になっている。また、バス56に対応する物体画像76−1,76−2は、バス56の形状を上下方向に引き延ばしたような形状になる。   Next, FIG. 10A is a diagram illustrating an example of normalized images VS1 and VS2 generated by the normalization unit 22 (see FIG. 7) based on the camera images V1 and V2. As in the first embodiment (see FIG. 4A), in the normalized images VS1 and VS2, the areas corresponding to the planar area 50 are square areas 70-1 and 70-2. . Further, the object images 76-1 and 76-2 corresponding to the bus 56 have a shape obtained by extending the shape of the bus 56 in the vertical direction.

次に、図10(b)は、正規化画像VS1,VS2に基づいて、物体領域抽出部24(図7参照)が生成した二値化画像VB1,VB2の例を示す図である。二値化画像VB1,VB2においては、正規化画像VS1,VS2の物体画像76−1,76−2に対応する領域が物体領域86−1,86−2になり、これら領域の画素値が“1”に設定される。また、物体領域86−1,86−2以外の領域の画素値は“0”に設定される。   Next, FIG. 10B is a diagram illustrating an example of the binarized images VB1 and VB2 generated by the object region extraction unit 24 (see FIG. 7) based on the normalized images VS1 and VS2. In the binarized images VB1 and VB2, regions corresponding to the object images 76-1 and 76-2 of the normalized images VS1 and VS2 are object regions 86-1 and 86-2, and pixel values of these regions are “ Set to 1 ". Further, the pixel values in the areas other than the object areas 86-1 and 86-2 are set to “0”.

次に、図10(c)は、二値化画像VB1,VB2に基づいて、共通領域抽出部26(図7参照)が生成した共通領域表示画像VCの例を示す図である。共通領域表示画像VCは、二値化画像VB1,VB2の論理積によって求めることができる。なお、図10(c)において、共通領域90の形状は、バス56の床面の形状にほぼ一致している。   Next, FIG. 10C is a diagram illustrating an example of the common area display image VC generated by the common area extraction unit 26 (see FIG. 7) based on the binarized images VB1 and VB2. The common area display image VC can be obtained by a logical product of the binarized images VB1 and VB2. In FIG. 10C, the shape of the common region 90 substantially matches the shape of the floor surface of the bus 56.

また、図10(d)は、重心位置算出部30によって算出された共通領域90の重心位置94を示す。また、図10(e)は、軌跡画像生成部32によって生成された軌跡画像VDの例を示す。本実施形態によれば、第1実施形態のものと同様に、撮影された物体(バス56)の正確な位置を画像から把握できる。さらに、本実施形態によれば、共通領域90の正確な重心位置94を求めることができ、正確な軌跡画像VDを得ることができる。   FIG. 10D shows the centroid position 94 of the common area 90 calculated by the centroid position calculation unit 30. FIG. 10E shows an example of the trajectory image VD generated by the trajectory image generation unit 32. According to the present embodiment, as in the first embodiment, the exact position of the photographed object (bus 56) can be grasped from the image. Furthermore, according to the present embodiment, the accurate center-of-gravity position 94 of the common area 90 can be obtained, and an accurate trajectory image VD can be obtained.

[第3実施形態]
〈第3実施形態の構成〉
図11は、本発明の第3実施形態による画像処理システムA3のブロック図である。なお、図11において、図1、図7の各部に対応する部分には同一の符号を付し、その説明を省略する場合がある。
画像処理システムA3においては、画像処理システムA1(図1参照)の画像処理装置201に代えて、画像処理装置203が設けられている。画像処理装置203は、画像処理装置201と同様に、CPU、RAM、ROM、HDD等、一般的なコンピュータとしてのハードウエアを備えている。図11において画像処理装置203の内部は、RAMに展開されたアプリケーションプログラム等によって実現される機能を、ブロックとして示す。
[Third Embodiment]
<Configuration of Third Embodiment>
FIG. 11 is a block diagram of an image processing system A3 according to the third embodiment of the present invention. In FIG. 11, parts corresponding to those in FIGS. 1 and 7 are denoted by the same reference numerals, and the description thereof may be omitted.
In the image processing system A3, an image processing apparatus 203 is provided instead of the image processing apparatus 201 of the image processing system A1 (see FIG. 1). Similar to the image processing apparatus 201, the image processing apparatus 203 includes hardware as a general computer such as a CPU, RAM, ROM, and HDD. In FIG. 11, the inside of the image processing apparatus 203 shows functions realized by application programs or the like developed in the RAM as blocks.

画像処理装置203は、正規化部22と、物体領域抽出部24と、共通領域抽出部26と、リサイズ部34と、画像割当部36とを有している。ここで、正規化部22、物体領域抽出部24および共通領域抽出部26の機能は、第1実施形態のもの(図1参照)と同様である。すなわち、正規化部22は、カメラ画像V1〜VNに基づいて、正規化画像VS1〜VSNを出力する。また、物体領域抽出部24は、正規化画像VS1〜VSNに基づいて、物体領域を特定する二値化画像VB1〜VBNを出力する。また、共通領域抽出部26は、 二値化画像VB1〜VBNに基づいて、共通領域を表す共通領域表示画像VCを出力する。   The image processing apparatus 203 includes a normalization unit 22, an object region extraction unit 24, a common region extraction unit 26, a resizing unit 34, and an image allocation unit 36. Here, the functions of the normalization unit 22, the object region extraction unit 24, and the common region extraction unit 26 are the same as those in the first embodiment (see FIG. 1). That is, the normalizing unit 22 outputs the normalized images VS1 to VSN based on the camera images V1 to VN. The object region extraction unit 24 outputs binarized images VB1 to VBN that specify the object region based on the normalized images VS1 to VSN. Further, the common area extraction unit 26 outputs a common area display image VC representing the common area based on the binarized images VB1 to VBN.

さらに、本実施形態の物体領域抽出部24は、各正規化画像VS1〜VSNの物体領域を除いた画像である背景画像VJ1〜VJNを出力するとともに、正規化画像VS1〜VSNの何れかにおける物体領域の画像を、物体画像VKとして出力する機能を有している。リサイズ部34は、物体画像VKの寸法を、共通領域表示画像VCにおける共通領域に対応してリサイズし、伸縮物体画像VLとして出力する。例えば、共通領域に収まるように物体画像VKを縮小したものを伸縮物体画像VLにするとよい。   Furthermore, the object region extraction unit 24 of the present embodiment outputs background images VJ1 to VJN that are images obtained by removing the object regions of the normalized images VS1 to VSN, and the object in any of the normalized images VS1 to VSN. It has a function of outputting an image of a region as an object image VK. The resizing unit 34 resizes the size of the object image VK corresponding to the common area in the common area display image VC, and outputs the resized object image VL. For example, a contracted object image VL may be obtained by reducing the object image VK so as to fit in the common area.

画像割当部36は、背景画像VJ1〜VJNをスーパーインポーズし、新たな背景画像を生成する。生成された背景画像を「総合背景画像」と呼ぶ。総合背景画像は、共通領域以外の領域において、平面領域50を表す画像になる。さらに、画像割当部36は、総合背景画像と、伸縮物体画像VLとをスーパーインポーズし、その結果を合成画像VEとして出力する。表示部12は、この合成画像VEを表示する。   The image assignment unit 36 superimposes the background images VJ1 to VJN and generates a new background image. The generated background image is referred to as a “total background image”. The general background image is an image representing the planar area 50 in an area other than the common area. Furthermore, the image allocation unit 36 superimposes the general background image and the stretchable object image VL, and outputs the result as a composite image VE. The display unit 12 displays the composite image VE.

〈第3実施形態の動作〉
次に、図12を参照し、本実施形態の動作を説明する。なお、図12は、画像処理装置203にて実行される制御プログラムのフローチャートである。
図12において、ステップS10〜S16の処理内容は、第1実施形態のもの(図2参照)と同様である。すなわち、ステップS10,S12では、正規化部22は各カメラ画像V1〜VNのフレームを取得し、正規化画像VS1〜VSNのフレームを出力する。また、ステップS14では、物体領域抽出部24は、物体領域を抽出し、二値化画像VB1〜VBNのフレームを生成する。また、処理がステップS16では、共通領域抽出部26は、二値化画像VB1〜VBNのフレームから共通領域を抽出し、共通領域表示画像VCのフレームを生成する。
<Operation of Third Embodiment>
Next, the operation of this embodiment will be described with reference to FIG. FIG. 12 is a flowchart of a control program executed by the image processing apparatus 203.
In FIG. 12, the processing contents of steps S10 to S16 are the same as those in the first embodiment (see FIG. 2). That is, in steps S10 and S12, the normalization unit 22 acquires the frames of the camera images V1 to VN and outputs the frames of the normalized images VS1 to VSN. In step S14, the object region extraction unit 24 extracts the object region and generates frames of the binarized images VB1 to VBN. In step S16, the common area extraction unit 26 extracts a common area from the frames of the binarized images VB1 to VBN, and generates a frame of the common area display image VC.

次に、処理がステップS22に進むと、物体領域抽出部24は、各正規化画像VS1〜VSNの背景画像VJ1〜VJNと、物体画像VKとを出力する。次に、処理がステップS24に進むと、リサイズ部34は、物体画像VKをリサイズずる。すなわち、物体画像VKを、共通領域表示画像VCにおける共通領域に対応してリサイズし、伸縮物体画像VLとして出力する。   Next, when the process proceeds to step S22, the object region extraction unit 24 outputs the background images VJ1 to VJN of the normalized images VS1 to VSN and the object image VK. Next, when the process proceeds to step S24, the resizing unit 34 resizes the object image VK. That is, the object image VK is resized corresponding to the common area in the common area display image VC, and is output as a stretchable object image VL.

次に、処理がステップS26に進むと、画像割当部36は、合成画像VEを生成する。すなわち、画像割当部36は、背景画像VJ1〜VJNに基づいて総合背景画像を生成し、総合背景画像と伸縮物体画像VLとをスーパーインポーズすることにより、合成画像VEを生成する。そして、生成された合成画像VEは、表示部12表示される。   Next, when the process proceeds to step S26, the image assignment unit 36 generates a composite image VE. That is, the image allocation unit 36 generates a combined background image by generating a combined background image based on the background images VJ1 to VJN and superimposing the combined background image and the expandable object image VL. Then, the generated composite image VE is displayed on the display unit 12.

次に、処理がステップS30に進むと、正規化部22は、今回生成した合成画像VEのフレームが最終フレームであるか否かを判定する。ここで、「No」と判定されると、処理はステップS10に戻り、以降のフレームに対して同様の処理が繰り返される。これにより、表示部12には、合成画像VEが表示され続ける。   Next, when the process proceeds to step S30, the normalization unit 22 determines whether or not the frame of the composite image VE generated this time is the final frame. If “No” is determined here, the process returns to step S10, and the same process is repeated for the subsequent frames. As a result, the composite image VE continues to be displayed on the display unit 12.

〈動作の具体例〉
次に、図13、図14(a)〜(d)を参照し、本実施形態の動作の具体例を説明する。
まず、図13は、本実施形態における各要素の配置例を示す図である。図13に示す配置例では、図9に示した配置例と同様に、平面領域50の上にバス56が通行しており、複数のカメラ10として、2台のカメラ10−1,10−2が設けられている。さらに、図13においては、バス56の近傍に歩行者58が存在している。カメラ10−1,10−2は、カメラ画像V1,V2を出力する。但し、カメラ10−2から見て歩行者58はバス56の死角に入るため、カメラ画像V2には歩行者58の画像は含まれないこととする。
<Example of operation>
Next, a specific example of the operation of the present embodiment will be described with reference to FIGS. 13 and 14A to 14D.
First, FIG. 13 is a diagram illustrating an arrangement example of each element in the present embodiment. In the arrangement example shown in FIG. 13, as in the arrangement example shown in FIG. 9, the bus 56 passes over the planar region 50, and two cameras 10-1 and 10-2 are used as the plurality of cameras 10. Is provided. Further, in FIG. 13, a pedestrian 58 exists near the bus 56. The cameras 10-1 and 10-2 output camera images V1 and V2. However, since the pedestrian 58 enters the blind spot of the bus 56 as viewed from the camera 10-2, the camera image V2 does not include the image of the pedestrian 58.

次に、図14(a)は、カメラ画像V1,V2に基づいて、正規化部22(図11参照)が生成した正規化画像VS1,VS2の例を示す図である。第2実施形態のもの(図10(a)参照)と同様に、正規化画像VS1,VS2においては、平面領域50に対応する領域は、正方形の領域70−1,70−2になっている。また、バス56に対応する物体画像76−1,76−2は、バス56の形状を上下方向に引き延ばしたような形状になる。ここで、正規化画像VS1には、歩行者58の物体画像78が含まれているが、正規化画像VS2には歩行者58の画像は含まれていない。   Next, FIG. 14A is a diagram illustrating an example of normalized images VS1 and VS2 generated by the normalization unit 22 (see FIG. 11) based on the camera images V1 and V2. As in the second embodiment (see FIG. 10A), in the normalized images VS1 and VS2, the areas corresponding to the plane area 50 are square areas 70-1 and 70-2. . Further, the object images 76-1 and 76-2 corresponding to the bus 56 have a shape obtained by extending the shape of the bus 56 in the vertical direction. Here, the normalized image VS1 includes the object image 78 of the pedestrian 58, but the normalized image VS2 does not include the image of the pedestrian 58.

物体領域抽出部24が出力する二値化画像VB1,VB2の図示は省略するが、図14(a)における物体画像76−1,78,76−2に対応する領域を“1”とし、他の領域を“0”とした画像になる。次に、図14(b)は、共通領域抽出部26(図11参照)が生成した共通領域表示画像VCの例を示す図である。同図に示す共通領域表示画像VCの内容は、第2実施形態のもの(図10(c)参照)と同様である。すなわち、共通領域表示画像VC内の共通領域90の形状は、バス56の床面の形状にほぼ一致している。   Although illustration of the binarized images VB1 and VB2 output by the object region extraction unit 24 is omitted, the regions corresponding to the object images 76-1, 78, and 76-2 in FIG. The image is set to “0”. Next, FIG. 14B is a diagram illustrating an example of the common area display image VC generated by the common area extraction unit 26 (see FIG. 11). The content of the common area display image VC shown in the figure is the same as that of the second embodiment (see FIG. 10C). That is, the shape of the common area 90 in the common area display image VC substantially matches the shape of the floor surface of the bus 56.

次に、図14(c)は、画像割当部36が出力する合成画像VEの例を示す図である。合成画像VE内で、平面領域50(図13参照)に対応する領域100は、背景画像VJ1〜VJNをスーパーインポーズした総合背景画像に基づいて生成される。また、物体画像106は、図14(a)に示した物体画像76−2を、共通領域90に対応してリサイズしたものであり、物体画像108は物体画像78をそのまま用いたものである。   Next, FIG. 14C is a diagram illustrating an example of the composite image VE output from the image allocation unit 36. In the composite image VE, an area 100 corresponding to the planar area 50 (see FIG. 13) is generated based on the overall background image obtained by superimposing the background images VJ1 to VJN. Further, the object image 106 is obtained by resizing the object image 76-2 shown in FIG. 14A corresponding to the common area 90, and the object image 108 is obtained by using the object image 78 as it is.

次に、図14(d)は、比較例による合成画像VFの例を示す図である。本比較例は、上述した特許文献3(特開2007−027948号公報)の技術を用いて、リサイズしていない物体画像76−2を、そのまま合成画像VFの物体画像116として、平面領域50に対応する領域110にスーパーインポーズしたものである。図14(a)に示した歩行者58がカメラ10−1で撮影されていたとしても、その位置は物体画像116で占められているため、ユーザは、合成画像VFに基づいて歩行者58の存在を認識できない。これに対して、本実施形態(図14(c)参照)の合成画像VEによれば、バス56の物体画像106は、バス56の床面の形状にほぼ一致するため、物体画像108によって、歩行者58の存在を明確に認識できる。より一般的に表現すると、平面領域50(図13参照)の上に存在するものを高い確率で表示できるようになる。   Next, FIG. 14D is a diagram illustrating an example of the composite image VF according to the comparative example. In this comparative example, the object image 76-2 which has not been resized is directly used as the object image 116 of the composite image VF in the plane region 50 by using the technique of Patent Document 3 (Japanese Patent Laid-Open No. 2007-027948) described above. The corresponding area 110 is superimposed. Even if the pedestrian 58 shown in FIG. 14A is captured by the camera 10-1, the position of the pedestrian 58 is occupied by the object image 116. Therefore, the user can select the pedestrian 58 based on the composite image VF. Cannot recognize existence. On the other hand, according to the composite image VE of the present embodiment (see FIG. 14C), the object image 106 of the bus 56 substantially matches the shape of the floor surface of the bus 56. The presence of the pedestrian 58 can be clearly recognized. More generally expressed, it is possible to display what exists on the planar region 50 (see FIG. 13) with high probability.

[第4実施形態]
図15は、本発明の第4実施形態による画像処理システムA4のブロック図である。なお、図15において、図1〜図14の各部に対応する部分には同一の符号を付し、その説明を省略する場合がある。
画像処理システムA4においては、画像処理システムA3(図11参照)の画像処理装置203に代えて、画像処理装置204が設けられている。画像処理装置204は、画像処理装置203と同様に、CPU、RAM、ROM、HDD等、一般的なコンピュータとしてのハードウエアを備えている。図15において画像処理装置204の内部は、RAMに展開されたアプリケーションプログラム等によって実現される機能を、ブロックとして示す。
[Fourth Embodiment]
FIG. 15 is a block diagram of an image processing system A4 according to the fourth embodiment of the present invention. In FIG. 15, portions corresponding to the respective portions in FIGS. 1 to 14 are denoted by the same reference numerals, and description thereof may be omitted.
In the image processing system A4, an image processing apparatus 204 is provided instead of the image processing apparatus 203 of the image processing system A3 (see FIG. 11). Similar to the image processing apparatus 203, the image processing apparatus 204 includes hardware as a general computer such as a CPU, RAM, ROM, and HDD. In FIG. 15, the inside of the image processing apparatus 204 shows, as a block, functions realized by an application program or the like developed in the RAM.

画像処理装置204は、正規化部22と、物体領域抽出部24と、共通領域抽出部26とを有している。これらの機能は、第3実施形態のもの(図11参照)と同様である。さらに、本実施形態の画像処理装置204は、画像メモリ33を有している。画像メモリ33は、車両や人間等のアニメーション画像、抽象イメージ等の画像データ(以下、シンボル画像という)を格納している。   The image processing apparatus 204 includes a normalization unit 22, an object region extraction unit 24, and a common region extraction unit 26. These functions are the same as those of the third embodiment (see FIG. 11). Furthermore, the image processing apparatus 204 of the present embodiment has an image memory 33. The image memory 33 stores image data (hereinafter referred to as a symbol image) such as an animation image or an abstract image of a vehicle or a person.

また、本実施形態におけるリサイズ部34は、画像メモリ33から何れかのシンボル画像を物体画像VKとして読み出し、これを共通領域表示画像VCの共通領域90に対応してリサイズし、伸縮物体画像VLとして出力する。画像割当部36は、第3実施形態のものと同様に、背景画像VJ1〜VJNをスーパーインポーズし、総合背景画像を生成する。さらに、画像割当部36は、総合背景画像と、伸縮物体画像VLとをスーパーインポーズし、その結果を合成画像VEとして出力する。表示部12は、この合成画像VEを表示する。   In addition, the resizing unit 34 in the present embodiment reads any symbol image from the image memory 33 as the object image VK, resizes the symbol image corresponding to the common area 90 of the common area display image VC, and forms the expandable object image VL. Output. Similar to the third embodiment, the image allocation unit 36 superimposes the background images VJ1 to VJN to generate a comprehensive background image. Furthermore, the image allocation unit 36 superimposes the general background image and the stretchable object image VL, and outputs the result as a composite image VE. The display unit 12 displays the composite image VE.

本実施形態によれば、図14(c)に示したものと同様の合成画像VEを表示部12に表示させることができる。但し、本実施形態において、物体画像106は、画像メモリ33に記憶された何れかのシンボル画像をリサイズしたものになる。本実施形態によれば、第3実施形態と同様に、平面領域50(図13参照)の上に存在するものを高い確率で表示できるようになる。さらに、実際に撮影された物体画像に代えて、シンボル画像を合成画像VEに適用するため、ユーザにとって合成画像VEが見やすくなるという効果も奏する。   According to the present embodiment, a composite image VE similar to that shown in FIG. 14C can be displayed on the display unit 12. However, in this embodiment, the object image 106 is obtained by resizing any symbol image stored in the image memory 33. According to the present embodiment, as in the third embodiment, it is possible to display what exists on the planar region 50 (see FIG. 13) with high probability. Furthermore, since the symbol image is applied to the composite image VE instead of the actually photographed object image, the composite image VE can be easily viewed by the user.

[変形例]
本発明は上述した実施形態に限定されるものではなく、種々の変形が可能である。上述した実施形態は本発明を理解しやすく説明するために例示したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について削除し、若しくは他の構成の追加・置換をすることが可能である。また、制御線や情報線は説明上必要と考えられるものを示しており、必ずしも製品上必要な全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。上記実施形態に対して可能な変形は、例えば以下のようなものである。
[Modification]
The present invention is not limited to the above-described embodiments, and various modifications can be made. The above-described embodiments are illustrated for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. Further, a part of the configuration of an embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of an embodiment. Further, it is possible to delete a part of the configuration of each embodiment, or to add or replace another configuration. Further, the control lines and information lines are those that are considered necessary for the explanation, and do not necessarily indicate all the control lines and information lines that are necessary for the product. Actually, it may be considered that almost all the components are connected to each other. Examples of possible modifications to the above embodiment are as follows.

(1)上記第3,第4実施形態において、第2実施形態と同様の軌跡画像生成部32(図7参照)を追加し、これらの合成画像VE(図14(c)参照)に軌跡96(図10(e)参照)を表示させてもよい。 (1) In the third and fourth embodiments, a locus image generation unit 32 (see FIG. 7) similar to that in the second embodiment is added, and a locus 96 is added to these synthesized images VE (see FIG. 14C). (See FIG. 10E) may be displayed.

(2)上記第2〜第4実施形態は、複数のカメラ10によって道路の交差点を撮影した場合の例を説明したが、本発明の撮影対象は道路に限られるものではない。本発明は、例えば、複数のカメラ10によって、駅構内や商店等における「人」を撮影し、「人」の動線を把握する分野にも適用することができる。 (2) In the second to fourth embodiments described above, an example in which a road intersection is photographed by a plurality of cameras 10 is described. However, the photographing target of the present invention is not limited to a road. The present invention can also be applied to a field in which a “person” is photographed by a plurality of cameras 10 in a station premises, a store, or the like and the flow line of the “person” is grasped.

(3)上記各実施形態における画像処理装置201〜204のハードウエアは一般的なコンピュータによって実現できるため、図2、図8、図12に示したフローチャートに係るプログラム等を記憶媒体に格納し、または伝送路を介して頒布してもよい。 (3) Since the hardware of the image processing apparatuses 201 to 204 in each of the above embodiments can be realized by a general computer, the programs according to the flowcharts shown in FIGS. 2, 8, and 12 are stored in a storage medium, Or you may distribute via a transmission line.

(4)上記各実施形態において、図2、図8、図12に示した処理は、上記各実施形態ではプログラムを用いたソフトウエア的な処理として説明したが、その一部または全部をASIC(Application Specific Integrated Circuit;特定用途向けIC)、あるいはFPGA(field-programmable gate array)等を用いたハードウエア的な処理に置き換えてもよい。 (4) In each of the above embodiments, the processing shown in FIGS. 2, 8, and 12 has been described as software processing using a program in each of the above embodiments. Application specific integrated circuit (IC for specific application), or hardware processing using FPGA (field-programmable gate array) or the like may be used.

22 正規化部
24 物体領域抽出部
26 共通領域抽出部
30 重心位置算出部
32 軌跡画像生成部
33 画像メモリ
34 リサイズ部
36 画像割当部
82−1〜82−3,86−1,86−2 物体領域
90 共通領域
94 重心位置
201〜204 画像処理装置
S12 ステップ(正規化過程)
S14 ステップ(物体領域抽出過程)
S16 ステップ(共通領域抽出過程)
V1〜VN カメラ画像(原画像)
VD 軌跡画像
VE 合成画像
VJ1〜VJN 背景画像
VK 物体画像
VL 伸縮物体画像
VS1〜VSN 正規化画像
22 Normalization unit 24 Object region extraction unit 26 Common region extraction unit 30 Center of gravity position calculation unit 32 Trajectory image generation unit 33 Image memory 34 Resize unit 36 Image allocation units 82-1 to 82-3, 86-1, 86-2 Object Area 90 Common area 94 Center of gravity position 201-204 Image processing device S12 Step (normalization process)
S14 step (object region extraction process)
S16 step (common area extraction process)
V1-VN camera image (original image)
VD locus image VE composite image VJ1 to VJN background image VK object image VL telescopic object image VS1 to VSN normalized image

Claims (6)

異なる視点から撮影された複数の原画像をそれぞれ正規化し、複数の正規化画像を生成する正規化部と、
複数の前記正規化画像に対して、所定条件を満たす物体に対応する物体領域をそれぞれ抽出し、複数の前記正規化画像に基づいて複数の背景画像を生成する物体領域抽出部と、
複数の前記正規化画像に係る前記物体領域が重なる部分である共通領域を抽出する共通領域抽出部と、
複数の前記背景画像を合成することにより、所定領域のうち前記共通領域以外の領域の画像を表す総合背景画像を生成する画像割当部と、
を有することを特徴とする画像処理装置。
A normalization unit that normalizes each of a plurality of original images taken from different viewpoints and generates a plurality of normalized images;
An object region extraction unit that extracts object regions corresponding to objects satisfying a predetermined condition with respect to the plurality of normalized images, and generates a plurality of background images based on the plurality of normalized images ;
A common area extraction unit that extracts a common area that is a portion where the object areas related to the plurality of normalized images overlap;
An image allocating unit that generates a general background image representing an image of a region other than the common region in a predetermined region by combining a plurality of the background images;
An image processing apparatus comprising:
前記共通領域の重心位置を算出する重心位置算出部と、
前記重心位置の軌跡を表す軌跡画像を生成する軌跡画像生成部と、
をさらに有することを特徴とする請求項1に記載の画像処理装置。
A center-of-gravity position calculation unit for calculating the position of the center of gravity of the common area;
A trajectory image generation unit that generates a trajectory image representing the trajectory of the center of gravity position;
The image processing apparatus according to claim 1, further comprising:
給された物体画像を、前記共通領域に対応する大きさにリサイズした伸縮物体画像を生成するリサイズ部と、
前記総合背景画像と、前記伸縮物体画像とを合成して合成画像を出力する画像割当部と、
をさらに有することを特徴とする請求項1に記載の画像処理装置。
A resizing unit the test sheet has been the object image to generate an elastic object image resized to a size corresponding to the common region,
An image assigning unit that synthesizes the general background image and the stretchable object image and outputs a composite image;
The image processing apparatus according to claim 1, further comprising:
前記物体画像は、何れかの前記正規化画像における前記物体領域の画像である
ことを特徴とする請求項3に記載の画像処理装置。
The image processing apparatus according to claim 3, wherein the object image is an image of the object region in any one of the normalized images.
一または複数のシンボル画像を予め記憶する画像メモリをさらに有し、
前記物体画像は、前記画像メモリに記憶された何れかの前記シンボル画像である
ことを特徴とする請求項3に記載の画像処理装置。
An image memory for storing one or more symbol images in advance;
The image processing apparatus according to claim 3, wherein the object image is any one of the symbol images stored in the image memory.
異なる視点から撮影された複数の原画像をそれぞれ正規化し、複数の正規化画像を生成する正規化過程と、
複数の前記正規化画像に対して、所定条件を満たす物体に対応する物体領域をそれぞれ抽出し、複数の前記正規化画像に基づいて複数の背景画像を生成する物体領域抽出過程と、
複数の前記正規化画像に係る前記物体領域が重なる部分である共通領域を抽出する共通領域抽出過程と、
複数の前記背景画像を合成することにより、所定領域のうち前記共通領域以外の領域の画像を表す総合背景画像を生成する画像割当過程と、
を有することを特徴とする画像処理方法。
A normalization process of normalizing each of a plurality of original images taken from different viewpoints to generate a plurality of normalized images;
An object region extracting step of extracting object regions corresponding to objects satisfying a predetermined condition with respect to the plurality of normalized images, and generating a plurality of background images based on the plurality of normalized images ;
A common region extraction process for extracting a common region that is a portion where the object regions related to the plurality of normalized images overlap;
An image assignment process for generating a comprehensive background image representing an image of an area other than the common area in a predetermined area by combining a plurality of the background images;
An image processing method comprising:
JP2016129616A 2016-06-30 2016-06-30 Image processing apparatus and image processing method Active JP6586051B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016129616A JP6586051B2 (en) 2016-06-30 2016-06-30 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016129616A JP6586051B2 (en) 2016-06-30 2016-06-30 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2018005435A JP2018005435A (en) 2018-01-11
JP6586051B2 true JP6586051B2 (en) 2019-10-02

Family

ID=60949287

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016129616A Active JP6586051B2 (en) 2016-06-30 2016-06-30 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP6586051B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102333912B1 (en) * 2019-03-25 2021-12-07 이헌수 digital gardening content service system
WO2023142602A1 (en) * 2022-01-25 2023-08-03 腾讯科技(深圳)有限公司 Image processing method and apparatus, and computer-readable storage medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5422902B2 (en) * 2008-03-27 2014-02-19 三洋電機株式会社 Image processing apparatus, image processing program, image processing system, and image processing method
JP5870608B2 (en) * 2011-10-13 2016-03-01 アイシン精機株式会社 Image generation device
JP6371553B2 (en) * 2014-03-27 2018-08-08 クラリオン株式会社 Video display device and video display system

Also Published As

Publication number Publication date
JP2018005435A (en) 2018-01-11

Similar Documents

Publication Publication Date Title
US8254643B2 (en) Image processing method and device for object recognition
US8908991B2 (en) Image processing apparatus, image processing method and storage medium
US9807300B2 (en) Display apparatus for generating a background image and control method thereof
JP4692371B2 (en) Image processing apparatus, image processing method, image processing program, recording medium recording image processing program, and moving object detection system
EP3739545A1 (en) Image processing method and apparatus, vehicle-mounted head up display system, and vehicle
US20120114198A1 (en) Facial image gender identification system and method thereof
US9826166B2 (en) Vehicular surrounding-monitoring control apparatus
JP5003395B2 (en) Vehicle periphery image processing apparatus and vehicle periphery state presentation method
KR101729486B1 (en) Around view monitor system for detecting blind spot and method thereof
KR20090109437A (en) Method and System for Image Matching While Driving Vehicle
JP6031819B2 (en) Image processing apparatus and image processing method
JP6586051B2 (en) Image processing apparatus and image processing method
JPWO2020157901A1 (en) Driving support device
JPH09153137A (en) Method for recognizing picture
JP4821355B2 (en) Person tracking device, person tracking method, and person tracking program
JP2011210087A (en) Vehicle circumference monitoring device and vehicle circumference monitoring method
JP2008026999A (en) Obstacle detection system and obstacle detection method
US10979675B2 (en) Video monitoring apparatus for displaying event information
JP2006201817A (en) Method and device for discriminating vehicle body color
JP2019504414A (en) Method and device for displaying a front view around a vehicle and each vehicle
JP2010165299A (en) White line detector
US20220309682A1 (en) Object tracking apparatus, object tracking method, and program
KR102545199B1 (en) Electronic apparatus and control method thereof
JP2012222664A (en) On-vehicle camera system
WO2019087513A1 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190906

R150 Certificate of patent or registration of utility model

Ref document number: 6586051

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150