JP7038935B2 - Image processing device, image processing method, and image processing program - Google Patents
Image processing device, image processing method, and image processing program Download PDFInfo
- Publication number
- JP7038935B2 JP7038935B2 JP2021575900A JP2021575900A JP7038935B2 JP 7038935 B2 JP7038935 B2 JP 7038935B2 JP 2021575900 A JP2021575900 A JP 2021575900A JP 2021575900 A JP2021575900 A JP 2021575900A JP 7038935 B2 JP7038935 B2 JP 7038935B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- value
- pixel
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Description
本開示は、画像処理装置、画像処理方法、及び画像処理プログラムに関する。 The present disclosure relates to an image processing apparatus, an image processing method, and an image processing program.
複数のカメラによって撮影された複数の撮像画像(すなわち、カメラ画像)を、視点変換して複数の俯瞰画像を生成し、これらを合成して1枚の俯瞰合成画像を生成する技術がある。通常、視点変換では、地面より高い位置にある物体は、地面に倒れこむような伸びた状態(すなわち、投影面としての地面に投影された状態)の俯瞰画像に変換される。このため、俯瞰画像における物体は歪んでいる。また、俯瞰合成画像を生成する際には、隣り合うカメラ画像が一部重なるように撮影が行われる。一般に、隣り合うカメラ画像が重なる領域(以下「重畳領域」とも言う。)の画像をシームレスに接続するためには、画素ごとに設定された透過度であるアルファ(α)値を用いて重畳領域の画像が作成される。しかし、俯瞰合成画像を作成するシステムを構築する際には、各カメラ画像の投影範囲及び各カメラ画像の重畳領域であるブレンド領域を手動で設定する必要があり、これらの作業は、煩わしく、また、システムの導入コストを上げる原因になっていた。 There is a technique of converting a viewpoint of a plurality of captured images (that is, camera images) taken by a plurality of cameras to generate a plurality of bird's-eye view images, and combining these to generate a single bird's-eye view composite image. Normally, in the viewpoint conversion, an object located higher than the ground is converted into a bird's-eye view image in a stretched state (that is, a state projected on the ground as a projection surface) so as to fall on the ground. Therefore, the object in the bird's-eye view image is distorted. Further, when the bird's-eye view composite image is generated, the images are taken so as to partially overlap the adjacent camera images. Generally, in order to seamlessly connect images in an area where adjacent camera images overlap (hereinafter, also referred to as "superimposed area"), an alpha (α) value, which is a transparency set for each pixel, is used in the superimposed area. Image is created. However, when constructing a system for creating a bird's-eye view composite image, it is necessary to manually set the projection range of each camera image and the blend area which is a superposed area of each camera image, and these operations are troublesome and cumbersome. , Was a cause of increasing the introduction cost of the system.
そこで、特許文献1は、2つのカメラ画像の重畳領域に高さのある被写体が存在し、2つのカメラ画像における被写体の特徴量の相関が高い場合には、被写体のブレンド率を変えることにより、重畳領域の画像が二重像に見えにくい俯瞰合成画像を生成する技術を提案している。
Therefore, in
しかしながら、特許文献1に記載の技術では、カメラから被写体までの距離に応じて投影面に投影された被写体が歪んで見える場合に、俯瞰合成画像の視認性が低下する。
However, in the technique described in
本開示は、上記課題を解決するためになされたものであり、視認性の高い合成画像を生成することを目的とする。 The present disclosure has been made to solve the above problems, and an object of the present disclosure is to generate a highly visible composite image.
本開示に係る画像処理装置は、複数の撮像装置によってそれぞれ撮影された複数の撮像画像に基づいて合成画像を生成する装置であって、前記複数の撮像装置のカメラパラメータ、前記複数の撮像装置によって撮影された被写体を予め決められた投影面に投影して得られた複数の投影画像における前記被写体の伸び率の許容値を示す許容閾値、及び前記複数の投影画像の内の隣り合う投影画像における前記伸び率の差分の許容値を示す差分閾値を取得するカメラパラメータ入力部と、前記カメラパラメータ、前記許容閾値、及び前記差分閾値を用いて、前記複数の投影画像の投影範囲と前記複数の投影画像の内の隣り合う投影画像が重なり合う部分であるブレンド領域とを決定し、前記ブレンド領域における前記合成画像の各画素と、前記ブレンド領域における前記合成画像の各画素に対応する前記複数の撮像装置の各々の画素である対応画素との関係を示す参照テーブルを作成する参照テーブル作成部と、前記参照テーブルを用いて前記隣り合う投影画像を接続する合成処理を行うことで前記合成画像を作成する合成処理部と、を有する。 The image processing device according to the present disclosure is a device that generates a composite image based on a plurality of captured images taken by a plurality of image pickup devices, and is based on the camera parameters of the plurality of image pickup devices and the plurality of image pickup devices. A permissible threshold indicating the permissible value of the elongation rate of the subject in a plurality of projected images obtained by projecting the photographed subject onto a predetermined projection surface, and adjacent projected images among the plurality of projected images. The projection range of the plurality of projected images and the plurality of projections are performed by using the camera parameter input unit for acquiring the difference threshold indicating the allowable value of the difference in the elongation rate, the camera parameter, the allowable threshold, and the difference threshold. The plurality of image pickup devices corresponding to each pixel of the composite image in the blend region and each pixel of the composite image in the blend region by determining a blend region in which adjacent projected images in the image overlap each other. The composite image is created by performing a composite process of connecting the adjacent projected images using the reference table and the reference table creation unit that creates a reference table showing the relationship between the corresponding pixels, which are the respective pixels of the above. It has a synthesis processing unit and.
本開示に係る画像処理方法は、複数の撮像装置によってそれぞれ撮影された複数の撮像画像に基づいて合成画像を生成する画像処理装置によって実行される方法であって、前記複数の撮像装置のカメラパラメータ、前記複数の撮像装置によって撮影された被写体を予め決められた投影面に投影して得られた複数の投影画像における前記被写体の伸び率の許容値を示す許容閾値、及び前記複数の投影画像の内の隣り合う投影画像における前記伸び率の差分の許容値を示す差分閾値を取得するステップと、前記カメラパラメータ、前記許容閾値、及び前記差分閾値を用いて、前記複数の投影画像の投影範囲と前記複数の投影画像の内の隣り合う投影画像が重なり合う部分であるブレンド領域とを決定し、前記ブレンド領域における前記合成画像の各画素と、前記ブレンド領域における前記合成画像の各画素に対応する前記複数の撮像装置の各々の画素である対応画素との関係を示す参照テーブルを作成するステップと、前記参照テーブルを用いて前記隣り合う投影画像を接続する合成処理を行うことで前記合成画像を作成するステップと、を有する。 The image processing method according to the present disclosure is a method executed by an image processing device that generates a composite image based on a plurality of captured images taken by a plurality of image pickup devices, and is a method executed by a camera parameter of the plurality of image pickup devices. , A permissible threshold indicating the permissible value of the elongation rate of the subject in the plurality of projected images obtained by projecting the subject photographed by the plurality of image pickup devices onto a predetermined projection surface, and the plurality of projected images. The step of acquiring the difference threshold indicating the permissible value of the difference of the elongation rate in the adjacent projected images in the image, and the projection range of the plurality of projected images using the camera parameter, the permissible threshold, and the difference threshold. The blend region, which is a portion where adjacent projected images overlap in the plurality of projected images, is determined, and the pixels of the composite image in the blend region and the pixels of the composite image in the blend region correspond to each other. The composite image is created by performing a step of creating a reference table showing the relationship between the corresponding pixels, which are pixels of each of the plurality of image pickup devices, and a composite process of connecting the adjacent projected images using the reference table. And have a step to do.
本開示に係る画像処理装置、画像処理方法、及び画像処理プログラムによれば、視認性の高い合成画像を生成することができる。 According to the image processing apparatus, the image processing method, and the image processing program according to the present disclosure, it is possible to generate a composite image with high visibility.
以下に、実施の形態に係る画像処理装置、画像処理方法、及び画像処理プログラムを、図面を参照しながら説明する。以下の実施の形態は、例にすぎず、実施の形態を適宜組み合わせること及び各実施の形態を適宜変更することが可能である。 Hereinafter, the image processing apparatus, the image processing method, and the image processing program according to the embodiment will be described with reference to the drawings. The following embodiments are merely examples, and it is possible to appropriately combine the embodiments and change the embodiments as appropriate.
〈画像処理装置10の構成〉
図1は、実施の形態に係る画像処理装置10のハードウェア構成を示す図である。画像処理装置10は、複数の撮像装置(一般には、複数のカメラ)でそれぞれ撮影された複数の撮像画像(「カメラ画像」とも言う。)に基づいて合成画像を生成する。図1には、複数のカメラが、2台のカメラCam1、Cam2を含む例が示されている。ただし、カメラの台数は3台以上であってもよい。また、画像処理装置10と、複数のカメラCam1、Cam2、…とは、画像合成システムを構成している。また、画像合成システムは、合成画像を表示する液晶ディスプレイなどのような表示装置20を有してもよい。<Configuration of
FIG. 1 is a diagram showing a hardware configuration of the
図1に示されるように、画像処理装置10は、各種の演算処理及び各種のハードウェアの制御処理を行う情報処理部としてのプロセッサ11と、主記憶装置であるメモリ12と、HDD(ハードディスクドライブ)又はSSD(ソリッドステートドライブ)などの補助記憶装置である記憶装置13とを有している。また、画像処理装置10は、複数のカメラCam1、Cam2、…からそれぞれ送信された複数のカメラ画像I1、I2、…を受信し、これらを画像データに変換して画像処理装置10の内部に取り込む入力インタフェース14と、画像処理装置10によって生成された合成画像(すなわち、合成画像データ)を表示装置20に出力する出力インタフェース15とを有している。
As shown in FIG. 1, the
画像処理装置10は、例えば、処理回路によって構成される。画像処理装置10は、ソフトウェアプログラムである画像処理プログラムを実行するプロセッサ11を備えたコンピュータによって構成されてもよい。また、画像処理プログラムは、情報を記録するコンピュータ読み取り可能な情報記録媒体から又はネットワークを介するダウンロードによって画像処理装置10にインストールされる。
The
複数のカメラCam1、Cam2、…は、画像を撮影する機能を有する撮像装置である。複数のカメラCam1、Cam2、…は、CCD(Charged-Coupled Devices)又はCMOS(Complementary Metal-Oxide-Semiconductor)などの撮像素子と、レンズとを有する撮像装置である。複数のカメラCam1、Cam2、…は、例えば、監視カメラである。このとき、図1に示される画像合成システムは、監視システムである。 The plurality of cameras Cam1, Cam2, ... Are image pickup devices having a function of capturing an image. The plurality of cameras Cam1, Cam2, ... Is an image pickup device having an image pickup device such as a CCD (Chaged-Coupled Devices) or CMOS (Complementary Metal-Oxide-Semiconductor) and a lens. The plurality of cameras Cam1, Cam2, ... Are, for example, surveillance cameras. At this time, the image composition system shown in FIG. 1 is a monitoring system.
複数のカメラCam1、Cam2、…は、同一種類の機器であることが望ましい。複数のカメラCam1、Cam2、…は、画像処理装置10の入力インタフェース14と有線で接続されているが、無線で接続されもよい。また、複数のカメラCam1、Cam2と入力インタフェース14との接続方式は、特定の方式に限定されない。接続方式は、例えば、IP(Internet Protocol)ネットワークによる接続方式又は同軸ケーブルによる接続方式などである。入力インタフェース14は、複数のカメラCam1、Cam2、…から送信される複数のカメラ画像I1、I2、…すなわち複数の画像信号を同時に受信する機能を持つことが望ましい。
It is desirable that the plurality of cameras Cam1, Cam2, ... Are the same type of equipment. The plurality of cameras Cam1, Cam2, ... Are connected to the
記憶装置13又はメモリ12は、本実施の形態に係る画像処理方法を画像処理装置10に実行させるためのソフトウェアプログラムである画像処理プロクラムを記憶する。プロセッサ11は、この画像処理プログラムを実行することによって、実施の形態に係る画像処理方法を実行することができる。
The
画像処理装置10に取り込まれた画像データは、メモリ12に記憶される。画像処理装置10に取り込まれた画像データは、撮像対象領域の上方に視点を設けた画像である俯瞰画像に変換する処理である視点変換(すなわち、座標変換)された後に、合成される。画像処理装置10で合成された画像である合成画像は、出力インタフェース15を介して表示装置20に送信される。また、俯瞰画像を合成することによって得られた合成画像は、「俯瞰合成画像」とも呼ばれる。また、画像処理装置10が監視システムに使用される場合には、撮像対象領域は「監視対象領域」とも呼ばれる。
The image data captured in the
図2は、本実施の形態に係る画像処理装置10の構成を示す機能ブロック図である。
図3は、作成される合成画像及び複数のカメラ(例えば、Cam1~Cam4)で撮影された複数のカメラ画像を示す図である。FIG. 2 is a functional block diagram showing the configuration of the
FIG. 3 is a diagram showing a composite image created and a plurality of camera images taken by a plurality of cameras (for example, Cam1 to Cam4).
図2に示されるように、画像処理装置10は、画像取得部101と、カメラパラメータ入力部102と、参照テーブル作成部103と、合成処理部104と、表示制御部105とを有している。
As shown in FIG. 2, the
画像取得部101は、複数のカメラCam1、Cam2、…でそれぞれ撮影された撮像画像である複数のカメラ画像I1、I2、…を受信する。
The
カメラパラメータ入力部102は、複数のカメラCam1、Cam2、…のカメラパラメータ、複数のカメラCam1、Cam2、…によって撮影された被写体を予め決められた投影面に投影して得られた複数の投影画像(例えば、図3に示されるP1、P2、…)における被写体の伸び率kの許容値を示す許容閾値kth、及び複数の投影画像の内の隣り合う投影画像(例えば、図3に示されるP1、P2)における伸び率kの値k1、k2の差分Subの許容値を示す差分閾値Subthを取得する。カメラパラメータは、例えば、各カメラCam1、Cam2、…の内部パラメータ及び外部パラメータ、各カメラCam1、Cam2、…のレンズ歪補正データ、などを含む。像撮像対象領域内(すなわち、投影画像内)の各点における各カメラCam1、Cam2の被写体の伸び率kは、「k値」とも呼ばれる。カメラパラメータ入力部102は、カメラパラメータ及び伸び率kの許容閾値kth、及び差分閾値Subthを、図1に示される記憶装置13から又は画像処理装置10の外部から取得してもよい。なお、伸び率kについては、後述の図5で詳細に説明される。The camera
参照テーブル作成部103は、カメラパラメータ入力部102で取得されたカメラパラメータ、許容閾値kth、及び差分閾値Subthを用いて、複数の投影画像(図3における、P1、P2、…)の投影範囲と、複数の投影画像の内の隣り合う投影画像(図3における、P1、P2)が重なり合う重畳領域(「ブレンド領域」とも言う。)とを決定し、重畳領域における合成画像の各画素と、重畳領域における合成画像の各画素に対応する複数の撮像装置Cam1、Cam2、…の各々の画素である対応画素との関係を示す参照テーブルを作成する。言い換えれば、参照テーブル作成部103は、カメラパラメータ入力部102で取得されたカメラパラメータと、地面などの投影面とに基づいて、各カメラCam1、Cam2用の参照テーブルを作成する。つまり、参照テーブル作成部103は、カメラの台数に等しい個数の参照テーブルを作成する。作成された参照テーブルは、例えば、メモリ12に格納される。各参照テーブルは、横Wsyn個で縦Hsyn個の画素の各々のα値で構成される。横Wsyn個で縦Hsyn個の画素は、合成画像の画素に対応する。The reference
合成処理部104は、各カメラCam1、Cam2用の参照テーブルを用いて、ある任意の視点の合成画像、すなわち、任意視点画像を作成する。任意の視点が被写体の上方にある場合には、投影画像は俯瞰画像であり、任意視点画像は俯瞰合成画像である。
The
表示制御部105は、合成処理部104で作成された任意視点画像に基づく画像信号を表示装置20に送信する。表示装置20は、受信した画像信号に基づく画像を表示する。
The
図4は、作成される合成画像の画素に対応するカメラ画像の対応画素を示す図である。参照テーブル作成部103で作成される参照テーブルは、作成される合成画像の横Wsyn個で縦Hsyn個の画素(xsyn,ysyn)に対応する、各カメラCam1、Cam2の対応画素(xcam1,ycam1)、(xcam2,ycam2)並びに対応画素のα値(すなわち、ブレンド処理に利用する重み付き係数)を有している。言い換えれば、参照テーブルは、画素(xsyn,ysyn)ごとに、カメラCam1の対応画素(xcam1,ycam1)とそのα値、及びカメラCam2の対応画素(xcam2,ycam2)とそのα値を有している。FIG. 4 is a diagram showing the corresponding pixels of the camera image corresponding to the pixels of the created composite image. The reference table created by the reference
参照テーブルは、カメラCam1、Cam2が建物の外壁などに設置される固定の監視カメラである場合は、事前に作成され記憶装置に記憶されているものであってもよい。また、参照テーブルは、カメラCam1、Cam2が無人航空機のような動体に設置された監視カメラである場合は、各カメラCam1、Cam2が撮影する映像のフレームごとに作成されてもよい。 When the cameras Cam1 and Cam2 are fixed surveillance cameras installed on the outer wall of a building or the like, the reference table may be created in advance and stored in a storage device. Further, when the cameras Cam1 and Cam2 are surveillance cameras installed on a moving object such as an unmanned aerial vehicle, the reference table may be created for each frame of the image taken by each of the cameras Cam1 and Cam2.
参照テーブル作成部103は、合成画像上の画素に対応するカメラCam1、Cam2の対応画素(xcam1,ycam1)、(xcam2,ycam2)(すなわち、対応する2つの画素)が存在しない場合は、参照テーブルに対応画素が存在しないことを示す値を設定する。参照テーブル作成部103は、各カメラCam1、Cam2の画素と合成画像の各画素の対応を、定義した投影面(すなわち、予め決められた投影面)上の座標から投影変換処理前の座標、視点変換処理前の座標、レンズ歪補正処理前の座標と逆算することにより算出する。参照テーブルを利用することによって、合成処理部104は、合成画像の各画素に対応する各カメラCam1、Cam2の対応画素の画素値を受け取るだけで、複数のカメラCam1、Cam2のカメラ画像I1、I2に基づく合成画像を作成することができる。When the reference
図5は、被写体の位置(x,y,z)における各カメラCam1、Cam2の被写体の伸び率kを示す図である。カメラパラメータ入力部102は、投影面上の撮影対象領域の各点における各カメラCam1、Cam2の被写体の伸び率kを取得する。
FIG. 5 is a diagram showing the elongation rate k of the subject of each of the cameras Cam1 and Cam2 at the position of the subject (x, y, z). The camera
(すなわち、各画素)
図5において、被写体は人物である。点(x,y,z)におけるカメラCam1の伸び率kであるk(x,y,z)Cam1、及び点(x,y,z)におけるカメラCam2の伸び率kであるk(x,y,z)Cam2は、以下の式(1)及び(2)で表される。(That is, each pixel)
In FIG. 5, the subject is a person. The elongation rate k of the camera Cam1 at the point (x, y, z) is k (x, y, z) Cam1 , and the elongation rate k of the camera Cam2 at the point (x, y, z) is k (x, y ). , Z) Cam2 is represented by the following equations (1) and (2).
ここで、Length(AC)は、点Aと点Cとの間の距離すなわち投影面上の投影画像における被写体の長さを示す。また、Length(BD)は、点Bと点Dとの間の距離すなわち投影面上の投影画像における被写体の長さを示す。また、Hは、現実の被写体の高さを示す。なお、k(x,y,z)Cam1、はk1とも表記され、k(x,y,z)Cam2はk2とも表記される。なお、伸び率kは、各カメラについての投影画像における各画素について算出される。また、伸び率kは、カメラが撮影する画像の中心である画像中心から離れるほど大きな値になり、画像の歪みも大きくなる。Here, Length (AC) indicates the distance between points A and C, that is, the length of the subject in the projected image on the projection plane. Further, the Length (BD) indicates the distance between the points B and the point D, that is, the length of the subject in the projected image on the projection plane. Further, H indicates the height of the actual subject. Note that k (x, y, z) Cam1 is also referred to as k1, and k ( x, y, z) Cam2 is also referred to as k2. The elongation rate k is calculated for each pixel in the projected image for each camera. Further, the elongation rate k becomes larger as the distance from the center of the image, which is the center of the image captured by the camera, increases, and the distortion of the image also increases.
複数のカメラのうちの伸び率kが小さいカメラを選択することによって、合成画像上における被写体の伸びを小さくすることができ、その結果、画質の低下を抑制することができる。 By selecting a camera having a small elongation rate k from among the plurality of cameras, it is possible to reduce the elongation of the subject on the composite image, and as a result, it is possible to suppress the deterioration of the image quality.
参照テーブル作成部103は、式(1)及び(2)で、各カメラCam1、Cam2の画素ごとに算出された伸び率kを用いて、自動的にカメラCam1、Cam2の投影範囲とカメラCam1、Cam2の重畳領域におけるα値を決定する。
The reference
〈画像処理装置10の動作〉
次に、本実施の形態に係る画像処理装置10の動作について説明する。ここでは、カメラが2台のカメラCam1、Cam2である場合の動作について説明する。画像処理装置10が行う処理は、カメラパラメータ及び伸び率kの取得、参照テーブルの作成、及びカメラ画像の合成を含む。<Operation of
Next, the operation of the
カメラパラメータ入力部102は、各カメラCam1、Cam2の焦点距離及び画像中心などの情報を含む内部パラメータ(すなわち、カメラ固有パラメータ)、各カメラCam1、Cam2の位置姿勢情報を含む外部パラメータ(すなわち、カメラ位置姿勢パラメータ)、各カメラCam1、Cam2によって撮影されたカメラ画像におけるレンズ歪みを補正する歪み補正テーブル、被写体(例えば、人物)の各位置(x,y,z)における各カメラCam1、Cam2の被写体の伸び率kの値k1、k2の許容閾値kthと、カメラCam1の画素における被写体の伸び率kの値k1とカメラCam2の画素における被写体の伸び率kの値k2の差分Sub(=|k1-k2|)の許容値を示す差分閾値Subthなどの各種のパラメータを取得する。ここでは、カメラパラメータ入力部102がメモリ12(図1)上にある設定ファイルなどから各種のパラメータを読み込む例を挙げているが、各種のパラメータ入力は、設定ファイルからの読み込みに限定されず、通信可能な外部の装置から提供されてもよい。The camera
図6は、画像処理装置10の参照テーブル作成部103によって実行される参照テーブルの作成処理を示すフローチャートである。まず、参照テーブル作成部103は、作成される合成画像の各画素(xsyn,ysyn)に対応する、各カメラCam1、Cam2の対応画素(xcam,ycam)のα値を示す参照テーブルを作成する(ステップS10)。例えば、複数のカメラが2台のカメラCam1、Cam2である場合、参照テーブル作成部103は、合成画像の画素(xsyn,ysyn)ごとに、カメラCam1の対応画素(xcam1,ycam1)のα値、カメラCam2の対応画素(xcam2,ycam2)のα値を決定する。FIG. 6 is a flowchart showing a reference table creation process executed by the reference
参照テーブル作成部103は、合成画像の各画素(xsyn,ysyn)に対して以下の処理(ステップS11~S14)を繰り返す。まず、参照テーブル作成部103は、合成画像の各画素に対応する各カメラCam1、Cam2の対応画素のα値を示す参照テーブルを用いて、合成画像の画素として使用される対応画素を撮影した1台以上のカメラを選択(すなわち、抽出)する(ステップS11)。The reference
次に、参照テーブル作成部103は、ステップS11で抽出されたカメラが1台のカメラである場合(ステップS12においてYESの場合)、抽出された1台のカメラの投影画像の各画素における被写体の伸び率kが許容閾値kthよりも大きいか否かを判定し、被写体の伸び率kが許容閾値kthよりも大きい場合(k>kthである場合)はα値を0とし、該当カメラの画素における被写体の伸び率kが許容閾値kth以下である場合(k≦kthである場合)はα値を1とする。Next, when the camera extracted in step S11 is one camera (YES in step S12), the reference
参照テーブル作成部103は、ステップS11で抽出されたカメラが2台以上のカメラである場合(ステップS12においてNOの場合)、被写体の伸び率kの最も低い値k1を持つカメラと、被写体の伸び率kが2番目に低い値k2を持つカメラを抽出する(ステップS13)。被写体の伸び率kの最も低い値k1を持つカメラを、「カメラA1」と表記し、被写体の伸び率kが2番目に低い値k2を持つカメラを、「カメラA2」と表記する。When the reference
参照テーブル作成部103は、ステップS13で抽出した2台のカメラの被写体の画素ごとの伸び率kの値k1、k2の差分Subが予め決められた差分閾値Subthより大きい場合(Sub>Subthである場合)はα値を0とし、伸び率k1、k2の差分Subが差分閾値Subth以下である場合(Sub≦Subthである場合)はα値を1とする。これらの処理によって、参照テーブル作成部103は、合成画像における重畳領域であるブレンド領域を決定する。The reference
次に、参照テーブル作成部103は、決定したブレンド領域においてアルファブレンド処理を適用し、α値の参照テーブルを作成する(ステップS14)。アルファブレンド処理では、2枚の画像の合成を行う際に、合成画像の画素値を2枚の元画像の画素値の重みつき平均によって算出する。
Next, the reference
図7は、画像処理装置10の画像取得部101によって実行される合成画像の作成処理を示すフローチャートである。
FIG. 7 is a flowchart showing a composite image creation process executed by the
画像取得部101は、カメラ画像をデコードし、RAW画像データを取得する。RAW画像データは、画像が圧縮していない画像データである。例えば、カメラCam1、Cam2からH.264形式で圧縮符号化された画像がストリーミング配信されている場合、画像取得部101は、H.264に対応するデコードを行うことで、RGBA32ビットのRAW画像データを取得する。RGBAは、Red、Green、Blueの3色に加えてα値の情報を持つ画像データである。なお、ここでは、RGBAを例として挙げているが、画像データの形式は、RGBAに限定されない。
The
合成処理部104は、カメラ画像に対して歪み補正と俯瞰変換を行い(ステップS20)、参照テーブル作成部103で作成した参照テーブルのα値を用いて射影投影を行い、合成画像としての俯瞰合成画像を作成する(ステップS21)。表示制御部105は、合成処理部104で作成した合成画像を表示装置20送信する(ステップS22)。
The
〈画像処理装置10の効果〉
以上に説明したように、本実施の形態の画像処理装置及び画像処理方法で設定するパラメータは、カメラの台数によらず、許容閾値kthと伸び率の差分閾値Subthを設定することで、シームレスな合成画像を自動的に作成することが可能である。<Effect of
As described above, the parameters set by the image processing apparatus and the image processing method of the present embodiment can be set by setting the allowable threshold value kth and the difference threshold value Subth of the elongation rate regardless of the number of cameras. It is possible to automatically create a seamless composite image.
また、合成画像上における被写体の伸び率kに応じた、投影領域及び重畳領域(つまり、ブレンド領域)を決定することで、監視者の視認性を確保すると共に画像合成システムの設置時に必要となる作業を軽減することができる。 Further, by determining the projection area and the superimposition area (that is, the blend area) according to the elongation rate k of the subject on the composite image, the visibility of the observer is ensured and it is necessary when installing the image composition system. Work can be reduced.
10 画像処理装置、 20 表示装置、 101 画像取得部、 102 カメラパラメータ入力部、 103 参照テーブル作成部、 104 合成処理部、 105 表示制御部、 Cam1、Cam2 カメラ、 I1、I2 カメラ画像。 10 image processing device, 20 display device, 101 image acquisition unit, 102 camera parameter input unit, 103 reference table creation unit, 104 composition processing unit, 105 display control unit, Cam1, Cam2 camera, I1, I2 camera image.
Claims (7)
前記複数の撮像装置のカメラパラメータ、前記複数の撮像装置によって撮影された被写体を予め決められた投影面に投影して得られた複数の投影画像における前記被写体の伸び率の許容値を示す許容閾値、及び前記複数の投影画像の内の隣り合う投影画像における前記伸び率の差分の許容値を示す差分閾値を取得するカメラパラメータ入力部と、
前記カメラパラメータ、前記許容閾値、及び前記差分閾値を用いて、前記複数の投影画像の投影範囲と前記複数の投影画像の内の隣り合う投影画像が重なり合う部分であるブレンド領域とを決定し、前記ブレンド領域における前記合成画像の各画素と、前記ブレンド領域における前記合成画像の各画素に対応する前記複数の撮像装置の各々の画素である対応画素との関係を示す参照テーブルを作成する参照テーブル作成部と、
前記参照テーブルを用いて前記隣り合う投影画像を接続する合成処理を行うことで前記合成画像を作成する合成処理部と、
を有する画像処理装置。An image processing device that generates a composite image based on a plurality of captured images taken by a plurality of image pickup devices.
The camera parameters of the plurality of image pickup devices, and the permissible threshold value indicating the permissible value of the elongation rate of the subject in the plurality of projected images obtained by projecting the subject photographed by the plurality of image pickup devices onto a predetermined projection surface. , And a camera parameter input unit that acquires a difference threshold indicating the allowable value of the difference in the elongation rate in the adjacent projected images among the plurality of projected images.
Using the camera parameters, the permissible threshold, and the difference threshold, the projection range of the plurality of projected images and the blended region, which is a portion of the plurality of projected images where adjacent projected images overlap, are determined. Creation of a reference table for creating a reference table showing the relationship between each pixel of the composite image in the blend region and the corresponding pixel which is each pixel of the plurality of image pickup devices corresponding to each pixel of the composite image in the blend region. Department and
A compositing processing unit that creates the compositing image by performing a compositing process of connecting the adjacent projection images using the reference table, and a compositing processing unit.
Image processing device with.
前記複数の撮像装置から、前記合成画像の画素として投影される前記撮像画像を撮影した撮像装置を選択し、
前記選択された撮像画像が1台の前記撮像装置によって撮影された撮像画像である場合には、前記投影画像の各画素における前記被写体の前記伸び率が許容閾値よりも大きいか否かを判定し、
前記伸び率が前記許容閾値よりも大きい場合はα値を0とし、前記伸び率が前記許容閾値以下である場合はα値を1とする
請求項1から3のいずれか1項に記載の画像処理装置。The reference table creation unit
From the plurality of image pickup devices, an image pickup device that has captured the captured image projected as pixels of the composite image is selected.
When the selected captured image is an captured image captured by one imaging device, it is determined whether or not the elongation rate of the subject in each pixel of the projected image is larger than the allowable threshold value. ,
The image according to any one of claims 1 to 3, wherein the α value is 0 when the elongation rate is larger than the allowable threshold value, and the α value is 1 when the elongation rate is equal to or less than the allowable threshold value. Processing equipment.
前記複数の撮像装置から、前記合成画像の画素として投影される前記撮像画像を撮影した撮像装置を選択し、
前記選択された撮像画像が2台以上の撮像画像である場合には、前記投影画像の各画素における前記被写体の前記伸び率のうちの最も低い値を持つ撮像装置と、前記被写体の前記伸び率が2番目に低い値を持つ撮像装置を抽出し、
前記最も低い値と前記2番目に低い値の差分が前記差分閾値よりも大きいか否かを判定し、
前記差分が前記差分閾値よりも大きい場合はα値を0とし、前記差分が前記差分閾値以下である場合はα値を1とする
請求項1から4のいずれか1項に記載の画像処理装置。The reference table creation unit
From the plurality of image pickup devices, an image pickup device that has captured the captured image projected as pixels of the composite image is selected.
When the selected captured images are two or more captured images, the image pickup device having the lowest value among the elongation rates of the subject in each pixel of the projected image and the elongation rate of the subject. Extracts the imager with the second lowest value,
It is determined whether or not the difference between the lowest value and the second lowest value is larger than the difference threshold value.
The image processing apparatus according to any one of claims 1 to 4, wherein the α value is 0 when the difference is larger than the difference threshold value, and the α value is 1 when the difference is equal to or less than the difference threshold value. ..
前記複数の撮像装置のカメラパラメータ、前記複数の撮像装置によって撮影された被写体を予め決められた投影面に投影して得られた複数の投影画像における前記被写体の伸び率の許容値を示す許容閾値、及び前記複数の投影画像の内の隣り合う投影画像における前記伸び率の差分の許容値を示す差分閾値を取得するステップと、
前記カメラパラメータ、前記許容閾値、及び前記差分閾値を用いて、前記複数の投影画像の投影範囲と前記複数の投影画像の内の隣り合う投影画像が重なり合う部分であるブレンド領域とを決定し、前記ブレンド領域における前記合成画像の各画素と、前記ブレンド領域における前記合成画像の各画素に対応する前記複数の撮像装置の各々の画素である対応画素との関係を示す参照テーブルを作成するステップと、
前記参照テーブルを用いて前記隣り合う投影画像を接続する合成処理を行うことで前記合成画像を作成するステップと、
を有する画像処理方法。An image processing method executed by an image processing device that generates a composite image based on a plurality of captured images taken by a plurality of image pickup devices.
A permissible threshold indicating the camera parameters of the plurality of image pickup devices and the permissible value of the elongation rate of the subject in the plurality of projected images obtained by projecting the subject photographed by the plurality of image pickup devices onto a predetermined projection surface. , And the step of acquiring a difference threshold indicating the permissible value of the difference in the elongation rate in the adjacent projection images among the plurality of projection images.
Using the camera parameters, the permissible threshold, and the difference threshold, the projection range of the plurality of projected images and the blended region, which is a portion of the plurality of projected images where adjacent projected images overlap, are determined. A step of creating a reference table showing a relationship between each pixel of the composite image in the blend region and a corresponding pixel which is a pixel of each of the plurality of image pickup devices corresponding to each pixel of the composite image in the blend region.
A step of creating the composite image by performing a composite process of connecting the adjacent projection images using the reference table, and
Image processing method having.
前記複数の撮像装置のカメラパラメータ、前記複数の撮像装置によって撮影された被写体を予め決められた投影面に投影して得られた複数の投影画像における前記被写体の伸び率の許容値を示す許容閾値、及び前記複数の投影画像の内の隣り合う投影画像における前記伸び率の差分の許容値を示す差分閾値を取得するステップと、
前記カメラパラメータ、前記許容閾値、及び前記差分閾値を用いて、前記複数の投影画像の投影範囲と前記複数の投影画像の内の隣り合う投影画像が重なり合う部分であるブレンド領域とを決定し、前記ブレンド領域における前記合成画像の各画素と、前記ブレンド領域における前記合成画像の各画素に対応する前記複数の撮像装置の各々の画素である対応画素との関係を示す参照テーブルを作成するステップと、
前記参照テーブルを用いて前記隣り合う投影画像を接続する合成処理を行うことで前記合成画像を作成するステップと、
をコンピュータに実行させる画像処理プログラム。An image processing program executed by a computer that generates a composite image based on a plurality of captured images taken by a plurality of imaging devices.
A permissible threshold indicating the camera parameters of the plurality of image pickup devices and the permissible value of the elongation rate of the subject in the plurality of projected images obtained by projecting the subject photographed by the plurality of image pickup devices onto a predetermined projection surface. , And the step of acquiring a difference threshold indicating the permissible value of the difference in the elongation rate in the adjacent projection images among the plurality of projection images.
Using the camera parameters, the permissible threshold, and the difference threshold, the projection range of the plurality of projected images and the blended region, which is a portion of the plurality of projected images where adjacent projected images overlap, are determined. A step of creating a reference table showing a relationship between each pixel of the composite image in the blend region and a corresponding pixel which is a pixel of each of the plurality of image pickup devices corresponding to each pixel of the composite image in the blend region.
A step of creating the composite image by performing a composite process of connecting the adjacent projection images using the reference table, and
An image processing program that lets your computer run.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/013351 WO2021192096A1 (en) | 2020-03-25 | 2020-03-25 | Image processing device, image processing method, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021192096A1 JPWO2021192096A1 (en) | 2021-09-30 |
JP7038935B2 true JP7038935B2 (en) | 2022-03-18 |
Family
ID=77890021
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021575900A Active JP7038935B2 (en) | 2020-03-25 | 2020-03-25 | Image processing device, image processing method, and image processing program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7038935B2 (en) |
WO (1) | WO2021192096A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014090349A (en) | 2012-10-31 | 2014-05-15 | Clarion Co Ltd | Image processing system and image processing method |
JP2015192198A (en) | 2014-03-27 | 2015-11-02 | クラリオン株式会社 | Video display device and video display system |
WO2018087856A1 (en) | 2016-11-10 | 2018-05-17 | 三菱電機株式会社 | Image synthesis device and image synthesis method |
JP2019168967A (en) | 2018-03-23 | 2019-10-03 | キヤノン株式会社 | Imaging device, image processing device, image processing method, and program |
-
2020
- 2020-03-25 WO PCT/JP2020/013351 patent/WO2021192096A1/en active Application Filing
- 2020-03-25 JP JP2021575900A patent/JP7038935B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014090349A (en) | 2012-10-31 | 2014-05-15 | Clarion Co Ltd | Image processing system and image processing method |
JP2015192198A (en) | 2014-03-27 | 2015-11-02 | クラリオン株式会社 | Video display device and video display system |
WO2018087856A1 (en) | 2016-11-10 | 2018-05-17 | 三菱電機株式会社 | Image synthesis device and image synthesis method |
JP2019168967A (en) | 2018-03-23 | 2019-10-03 | キヤノン株式会社 | Imaging device, image processing device, image processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
WO2021192096A1 (en) | 2021-09-30 |
JPWO2021192096A1 (en) | 2021-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5413002B2 (en) | Imaging apparatus and method, and program | |
US8238695B1 (en) | Data reduction techniques for processing wide-angle video | |
CN112532855B (en) | Image processing method and device | |
US10521891B2 (en) | Image processing apparatus, system, image processing method, and non-transitory recording medium | |
JP4806476B2 (en) | Image processing apparatus, image generation system, method, and program | |
JP6361931B2 (en) | Image processing apparatus, imaging system including the same, and image processing method | |
JP2009124685A (en) | Method and system for combining videos for display in real-time | |
CN106600548B (en) | Fisheye camera image processing method and system | |
JP2004266317A (en) | Monitoring apparatus | |
JP5411786B2 (en) | Image capturing apparatus and image integration program | |
TW201906401A (en) | Multi-sensor video camera, method and processing pipeline thereof | |
JP2018186514A (en) | Image processing device, imaging system having the same and image processing method | |
JP2013029995A (en) | Imaging system | |
JP6456039B2 (en) | Surveillance camera system | |
JP4793449B2 (en) | Network video composition display system | |
JP2007067714A (en) | Image processing circuit, and camera device and vehicle-mounted camera device using same | |
JP2010268520A (en) | Vehicle mounted camera apparatus and vehicle | |
WO2018105097A1 (en) | Image synthesis device, image synthesis method, and image synthesis program | |
JP7038935B2 (en) | Image processing device, image processing method, and image processing program | |
JP5733588B2 (en) | Image processing apparatus and method, and program | |
CN109218602B (en) | Image acquisition device, image processing method and electronic device | |
KR20170011928A (en) | Camera system for compensating distortion of lens using super wide angle camera and Transport Video Interface Apparatus used in it | |
JPH08305841A (en) | Distorted image correcting display device | |
JP5004680B2 (en) | Image processing apparatus, image processing method, video conference system, video conference method, program, and recording medium | |
JP2014236226A (en) | Image processing device and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211217 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20211217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220208 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220308 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7038935 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |