JP2011077982A - 監視カメラシステム - Google Patents
監視カメラシステム Download PDFInfo
- Publication number
- JP2011077982A JP2011077982A JP2009229428A JP2009229428A JP2011077982A JP 2011077982 A JP2011077982 A JP 2011077982A JP 2009229428 A JP2009229428 A JP 2009229428A JP 2009229428 A JP2009229428 A JP 2009229428A JP 2011077982 A JP2011077982 A JP 2011077982A
- Authority
- JP
- Japan
- Prior art keywords
- image
- user
- stored
- camera system
- surveillance camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
- Image Processing (AREA)
Abstract
【課題】監視カメラシステムにおける遮蔽物画像処理を行う。
【解決手段】対応座標関係蓄積部で蓄積されている座標関係を用いて、第2の撮像画像蓄積部で蓄積されている画像に対して視点を変換した画像を生成する視点変換画像生成部106と、画像表示部102で表示されている画像と、前記ユーザ画面指定部103で指定された画面の位置から、視点変換画像生成部106で生成された画像と、第1の撮像画像蓄積手段101で蓄積されている画像の合成度合いを決定する画像合成度合決定部107と、画像合成度合決定部107で決定された画像の合成度合を用いて、視点変換画像生成部106で生成された画像と、第1の撮像画像蓄積手段101で蓄積されている画像の合成する画像合成部108とを備える。
【選択図】図1
【解決手段】対応座標関係蓄積部で蓄積されている座標関係を用いて、第2の撮像画像蓄積部で蓄積されている画像に対して視点を変換した画像を生成する視点変換画像生成部106と、画像表示部102で表示されている画像と、前記ユーザ画面指定部103で指定された画面の位置から、視点変換画像生成部106で生成された画像と、第1の撮像画像蓄積手段101で蓄積されている画像の合成度合いを決定する画像合成度合決定部107と、画像合成度合決定部107で決定された画像の合成度合を用いて、視点変換画像生成部106で生成された画像と、第1の撮像画像蓄積手段101で蓄積されている画像の合成する画像合成部108とを備える。
【選択図】図1
Description
本発明は、複数の撮像装置で取得した画像を用いて、ある一つの撮像装置では、遮蔽物によって撮像できないときに、別の撮像装置で取得できた画像の視点を変換した画像と、合成することで、遮蔽物の先にある対象物を表示することができる表示装置を提供するものである。
従来、監視カメラシステムにおいては、複数のカメラによって撮影された画像を1つの画面に表示していた。さらに、各カメラの画像に対して重要度が付与され、その順位のもとに監視カメラの画像が表示されていた(例えば、特許文献1)。
近年、撮像装置の低価格化にともない、複数のカメラが一般家庭でも設置され、一般ユーザが監視カメラシステムで家の治安を確認できるようになってきた。従来までの監視システムのように、画面上に複数の視点からの画像を表示されても、一般ユーザは、その画像がどこを撮影している画像なのか、直感的に、判別できないことが多い。そこで、例えば、屋根の上から、家屋を眺めたときの画像に、撮像されている画像の視点を変換することで、ユーザは容易に、家の周囲の状況を確認できるようになる。
しかしながら、既に設置されたカメラの前に車両等の遮蔽物が存在した場合には、ユーザは、遮蔽物の先の画像を確認できなくなってしまう。そこで、本願発明においては、家屋の周囲を監視するカメラシステムにおいて、遮蔽物が存在した場合には、他のカメラで撮影された画像の視点を変換することで、遮蔽物の先の画像を生成し、シースルー画像でユーザに画像を提供することで、容易に、家屋の周囲の状況を確認できるシステムを提供するものである。
上記目的を達成するために、本発明では、複数の撮像装置によって撮影された画像を合成して出力する監視カメラシステムにおいて、
第1の撮像装置によって撮影された画像が蓄積される第1の撮像画像蓄積手段と、
第1の撮像装置とは異なる地点に設置された撮像装置によって撮影された画像が蓄積される第2の撮像画像蓄積手段と、
前記第1の撮像画像蓄積手段で蓄積されている画像から遮蔽物の領域を検出する遮蔽領域検出手段と、
前記遮蔽領域検出手段で検出された遮蔽物の領域に応じて第1の撮像画像蓄積手段で蓄積されている画像の合成に利用する度合いを決定する画像合成度合決定手段と、
前記第1の撮像画像蓄積手段で蓄積される画像の座標と、前記第2の撮像画像蓄積手段で蓄積される画像の座標との対応関係を蓄積する対応座標関係蓄積手段と、
前記座標対応関係蓄積手段で蓄積されている座標の対応関係と、前記第2の撮像画像蓄積手段で蓄積されている画像とを用いて、前記第1の撮像画像蓄積手段で蓄積されている画像の視点からの画像を生成する視点変換画像生成手段と、
前記視点変換画像生成手段で生成された画像と、前記第1の撮像画像蓄積手段で蓄積されている画像とを用いて、前記画像合成度合決定手段で決定された画像の合成度合に基づいて画像を合成する画像合成手段と、
前記画像合成手段で合成した画像を表示する画像表示手段と
を備えるシステムである。
第1の撮像装置によって撮影された画像が蓄積される第1の撮像画像蓄積手段と、
第1の撮像装置とは異なる地点に設置された撮像装置によって撮影された画像が蓄積される第2の撮像画像蓄積手段と、
前記第1の撮像画像蓄積手段で蓄積されている画像から遮蔽物の領域を検出する遮蔽領域検出手段と、
前記遮蔽領域検出手段で検出された遮蔽物の領域に応じて第1の撮像画像蓄積手段で蓄積されている画像の合成に利用する度合いを決定する画像合成度合決定手段と、
前記第1の撮像画像蓄積手段で蓄積される画像の座標と、前記第2の撮像画像蓄積手段で蓄積される画像の座標との対応関係を蓄積する対応座標関係蓄積手段と、
前記座標対応関係蓄積手段で蓄積されている座標の対応関係と、前記第2の撮像画像蓄積手段で蓄積されている画像とを用いて、前記第1の撮像画像蓄積手段で蓄積されている画像の視点からの画像を生成する視点変換画像生成手段と、
前記視点変換画像生成手段で生成された画像と、前記第1の撮像画像蓄積手段で蓄積されている画像とを用いて、前記画像合成度合決定手段で決定された画像の合成度合に基づいて画像を合成する画像合成手段と、
前記画像合成手段で合成した画像を表示する画像表示手段と
を備えるシステムである。
この構成によると、遮蔽物が検出された場合においても、その遮蔽物のさえぎられた被写体の存在を確認することができるようになる。特に、セキュリティシステムに利用する監視カメラシステムにおいては、不審者等を容易に確認することができるようになる。
本発明の画像合成装置によれば、家屋の周囲を監視するカメラシステムにおいて、遮蔽物が存在した場合には、他のカメラで撮影された画像の視点を変換することで、遮蔽物の先の画像を生成し、シースルー画像でユーザに画像を提供することで、容易に、家屋の周囲の状況を確認できるシステムを提供するものである。
(実施の形態1)
第1の実施の形態のシステム構成の例を図1に示す。図1において、101は第1の撮像装置で撮像し、撮像した画像を蓄積する第1の撮像画像蓄積部、102は第1の撮像画像蓄積部101で蓄積されている画像を表示する画像表示部、103は画像表示部102で表示されている画像に対して、ユーザが画面の一部を指定する入力を受け付けるユーザ画面指定受付部、104は第1の撮像装置とは異なる地点に設置された撮像装置によって撮影された画像が蓄積される第2の撮像画像蓄積部、105は第1の撮像画像蓄積部で蓄積されている画像と第2の撮像画像蓄積部で蓄積されている画像に対して、設置されている撮像装置の位置、方向に応じて撮像装置で撮影される画像の対応関係に対して、それらの画像間での対応座標関係を蓄積している対応座標関係蓄積部、106は対応座標関係蓄積部で蓄積されている座標関係を用いて、第2の撮像画像蓄積部で蓄積されている画像に対して視点を変換した画像を生成する視点変換画像生成部、107は画像表示部102で表示されている画像と、前記ユーザ画面指定部103で指定された画面の位置から、視点変換画像生成部106で生成された画像と、第1の撮像画像蓄積手段101で蓄積されている画像の合成度合いを決定する画像合成度合決定部、108は画像合成度合決定部107で決定された画像の合成度合を用いて、視点変換画像生成部106で生成された画像と、第1の撮像画像蓄積手段101で蓄積されている画像の合成する画像合成部から構成される画像合成システムである。
第1の実施の形態のシステム構成の例を図1に示す。図1において、101は第1の撮像装置で撮像し、撮像した画像を蓄積する第1の撮像画像蓄積部、102は第1の撮像画像蓄積部101で蓄積されている画像を表示する画像表示部、103は画像表示部102で表示されている画像に対して、ユーザが画面の一部を指定する入力を受け付けるユーザ画面指定受付部、104は第1の撮像装置とは異なる地点に設置された撮像装置によって撮影された画像が蓄積される第2の撮像画像蓄積部、105は第1の撮像画像蓄積部で蓄積されている画像と第2の撮像画像蓄積部で蓄積されている画像に対して、設置されている撮像装置の位置、方向に応じて撮像装置で撮影される画像の対応関係に対して、それらの画像間での対応座標関係を蓄積している対応座標関係蓄積部、106は対応座標関係蓄積部で蓄積されている座標関係を用いて、第2の撮像画像蓄積部で蓄積されている画像に対して視点を変換した画像を生成する視点変換画像生成部、107は画像表示部102で表示されている画像と、前記ユーザ画面指定部103で指定された画面の位置から、視点変換画像生成部106で生成された画像と、第1の撮像画像蓄積手段101で蓄積されている画像の合成度合いを決定する画像合成度合決定部、108は画像合成度合決定部107で決定された画像の合成度合を用いて、視点変換画像生成部106で生成された画像と、第1の撮像画像蓄積手段101で蓄積されている画像の合成する画像合成部から構成される画像合成システムである。
次に、画像合成システムが動作するハードウエア構成例を、図2を用いて説明する。図2においては、カメラA〜カメラEの5台のカメラによって、被写体が撮影されるシステムとなっている。各撮像装置は、CCDやCMOSセンサ等のイメージセンサと、イメージセンサからの出力をデジタル信号に変換するモジュールで構成されている。さらに、各撮像装置で生成された画像のデジタル信号がPC等で構成される画像処理装置へ入力される。この画像処理装置では、ハードディスク等の記憶媒体でデータが蓄積され、さらに、CPUによって、視点変換、画像合成等の計算処理がなされる。また、画像処理されたデータを、VRAM等を用いて、外部のモニター等の表示装置で出力される構成となっている。
次に、図1の各モジュールの動作について説明する。第1の撮像画像蓄積部101では、第1の撮像装置で被写体を撮影し、静止画の画像情報として蓄積する。また、画像情報は、動画情報から各フレームでの静止画像の情報を蓄積してもよい。例えば、640×480ドットからなる画像情報を、各ピクセルのRGB情報として蓄積する。同様に、第2の撮像画像蓄積部104においても、同様の画像情報を蓄積している。図3において、2つの撮像装置で被写体の画像を、異なる角度から撮影している状況を示している。同じ被写体であっても、異なる角度から撮影することで複数の画像情報を取得することができる。例えば、図3において、カメラAの画像が第1の撮像画像蓄積部101で蓄積され、カメラBの画像が第2の撮像画像蓄積部103で蓄積されていることとなる。
画像表示部102では、第1の撮像画像蓄積部101で蓄積されている画像や、第2の撮像画像蓄積部104で蓄積されている画像を用いた合成画像を表示するものである。一般に、テレビやPC用モニターのハードウエアで構成されるものである。
図3では、被写体に対して遮蔽物が存在しなかった。しかしながら、図4に示すように、被写体とカメラAの間に円筒の遮蔽物が存在した場合には、カメラAで取得される画像においては、遮蔽物によって、被写体の画像を撮影することができなくなる。さらに、遮蔽物の位置によってカメラAで取得している画像における遮蔽物の領域が異なる。遮蔽物が撮像装置に近いほど、画像データの中で遮蔽物の占める領域が大きくなる。逆に、遮蔽物が被写体に近いほど、画像データの中で遮蔽物が占める領域が小さくなる。
図5では、遮蔽物が存在する場所によって、第1の撮像装置で撮像される画像における遮蔽物の領域を示している。なお、遮蔽物であるか否かについては、遮蔽物が存在しなかった状況(図3の状況)での被写体の画像と、図4の状況で撮像された画像との差分画像を算出することで、遮蔽物の領域の大きさ、形状を算出することが可能になる。図5の例においては、遮蔽物の領域が全体の画像領域に占める割合を用いて遮蔽物領域割合を算出し、その値が0から1.0までの値で示している。遮蔽物の領域が大きくなると、その撮像装置で取得されている画像によって、ユーザに提供される情報が少なくなる。
本願発明においては、図4のように、第1の撮像装置で取得される画像が遮蔽物によって、被写体の画像情報を取得できないときに、第2の撮像装置で取得されている画像を用いて、被写体によって隠れている画像を生成するものである。第1の撮像装置で取得される画像では、遮蔽物によって被写体の画像を取得することができなくなるが、一方で、第2の撮像装置においては、被写体の画像を取得することができる。そこで、第2の撮像装置で撮像された画像を用いて、第1の撮像装置において遮蔽物によって取得できなくなった画像情報を、第2の撮像装置で取得した画像を用いて補間するものである。
対応関係蓄積部105では、複数個、設置された撮像装置において、ある撮像装置の画像が遮蔽物で十分に撮像できなくなった場合に、別のどの撮像装置の画像を用いて補間すればよいかに関する、撮像装置間の関係の情報を記憶している。例えば、図6に示すように、5個設置された撮像装置において、例えば、カメラ1の画像において遮蔽物が存在した場合には、カメラ2、カメラ3の画像を用いて補完できることを示している。同様に、カメラ2の画像であれば、カメラ1、カメラ3で補間することが可能である。一方、カメラ4はカメラ5で相互に補完関係が存在する。さらに、対応座標関係蓄積部105では、前記対応関係のある画像間において、その画像間での対応座標関係を蓄積している。図7に示すように、壁等の「あいうえお」という文字が書かれている平面に対して、同じ被写体であっても、撮像装置の位置によって異なる画像が取得される。カメラBでは、被写体を正面の位置から撮影しているため、「あいうえお」の大きさが同じ大きさとして撮影される。一方で、カメラAからは、「あ」から順に文字の大きさが小さく撮影される。これは、被写体に対して、撮像するカメラの位置が異なることから生じるものである。一方で、カメラAで撮影された画像であれば、画像データの座標を変換することにより、カメラBから撮影された画像のように視点を変換することが可能になる。
例えば、図8に示すように、被写体の平面で長方形であったものが、カメラBの画像データでは、長方形として撮影される。一方で、カメラAからは、図8に示すように台形の形で撮影される。そこで、カメラAで撮影された台形を、カメラBの長方形へ座標を変換する。カメラAの台形の内部の点のRGBの色情報を、カメラBの長方形の内部の点のRGBの色情報に変換する。これにより、カメラBで撮影することなく、カメラAで撮影された画像情報を用いて、カメラAの視点変換画像で代替することが可能になる。
次に、視点変換を行うための座標の変換方法について説明する。カメラAの台形OABCが、カメラBの長方形OPQRに変換されるものとする。このとき、OAをs: (1-s)に内分する点と、OCをt: (1-t)に内分する点によるDの位置ベクトルが、OPをs: (1-s)に内分する点Gと、ORをt: (1-t)に内分する点によるS(u,v)の位置ベクトルに変換されるとする。ここで、Gの位置ベクトルはsPで表現される。また、Hの位置ベクトルは、sQ+(1-s)Rで表現される。さらに、Sの位置ベクトルは、tG+(1-t)Hで表現される。よって、S(u,v)の座標は、O,P,Q,R,の座標と、s,tで表現できることとなり、Dの位置ベクトルに対応するSの座標を算出することができる。すなわち、カメラAのOABCの4点の座標と、カメラBのOPQRの4点の座標によって、対応点の座標が算出できることとなる。この対応座標の情報を図9に示すように、対応座標関係蓄積部105において、予め蓄積しておく。
なお、対応座標関係蓄積部105では、各画像中の座標の対応関係で表現されたものであったが、回転変換、アフィン変換、透過変換等の変数の値で表現してもよい。さらには、画像中の全てのドットの対応関係を蓄積しておくことによる変換式を用いてもよい。
視点変換画像生成部106では、対応座標関係蓄積部105で蓄積されている座標関係を用いて、第2の撮像画像蓄積部で蓄積されている画像に対して視点を変換した画像を生成する。
ユーザ画面指定受付部103では、画像表示部102で表示された画像に対して、ユーザにとって、遮蔽物である物体や、ユーザが注目したい物体を、画像が表示されている画面に対して指定したものを受け付ける。例えば、図10に示すように、第1の撮像画像蓄積部101で蓄積されている画像が表示されたときに、ユーザがマウス等のポインティングデバイスを用いて、画面の一部を指定する。図10では遮蔽物と思われる円筒への指定が受付けられている例である。
画像合成度合決定部107では、画像表示部102で表示している画像に対して、ユーザ画面指定受付部103で受け付けた指示によって、画像の合成度合いを決定する。例えば、図10に示すように円筒の内部の座標が指定されたときには、円筒部分が表示されている画像の度合いの重みを低下させ、別視点から撮影された画像を視点変換したものの画像の重みを増大させる。この合成度合いにより、図11に示すように、遮蔽物の透過度を変化させた画像を生成することが可能になる。
画像合成部108では、画像合成度合決定部107で決定された画像の合成度合に応じて、第1の撮像画像と、視点変換生成部で生成された第2の撮像画像を合成する。画像合成方法としては、例えば、第1の撮像画像の各ドットのRGB情報と、視点変換された第2の画像情報の各ドットのRGB情報の重み付平均によって、各ドットのRGB情報を求めることが可能である。例えば、合成画像が640×480ドットの画像を生成する場合に、i×jにおけるRGB情報を8ビット×3色の情報とするとき、第1の画像のi×jのRの8ビットの色情報と、第2の画像のi×jのRの8ビットの色情報との重み付平均の計算を利用して算出する。同様にG、Bの情報も算出する。これにより、第1の画像情報と第2の画像情報を重ね合わせた色で表現された画像を生成することができる。さらに、画像表示部102では、ユーザ画面指定受付部103で受け付けたユーザ指示に基づき、画像合成部108で合成された画像に表示を変更するものである。
なお、本実施例では、図4に示すように、カメラAの画像に遮蔽物が存在し、カメラBの画像に遮蔽物が存在しない場合についての動作について説明した。しかしながら、遮蔽物の置かれる場所が被写体の近くづくと、カメラBにおいても遮蔽物が画像中に存在することとなる。図12では、カメラBに遮蔽物が存在した場合の図である。このとき、カメラBの画像の全てを用いてカメラAの視点の画像を生成した場合には、合成画像において、座標変換された位置において遮蔽物が存在することとなる。そこで、カメラBで撮影された画像の被写体が存在する画像のみに対して視点変換を行い、その画像を合成画像として利用することで、画像合成を行う。
具体的には、図13に示すように、第2の撮像装置で撮影された画像であるカメラBの画像から、遮蔽物の領域と被写体の領域の分別を行う。さらに、遮蔽物の存在する部分の画像を除去する。そして、遮蔽物の画像領域が除去された画像を用いて、視点変換を行い。合成画像を生成する。この遮蔽物を除去する処理を入れることで、遮蔽物を透過した形式での画像合成を実現することが可能になる。なお、遮蔽物の領域の抽出方法については、第1の撮像装置で撮影した画像から遮蔽物の領域を抽出した方法と同様に、遮蔽物がないときの画像との差分画像を用いることにより生成領域抽出が可能になる。
なお、図13の例においては、遮蔽物の画像領域と被写体の画像領域が重なっていない場合である。カメラBにおいても、被写体と遮蔽物が重なり、遮蔽物によって被写体の一部が遮蔽されている場合には、さらに、被写体を撮影した過去の画像を利用して、遮蔽物がなかったときの画像を用いて合成画像に利用することも可能である。
ここで、画像表示部102で表示されている画像に対して、ユーザ画面指定受付部103で入力されるユーザ入力によって、画像の合成度合いを決定する画像合成度合決定部107での処理について、図14を用いてさらに詳細に説明する。図14では、図1でのシステム構成に、さらに、画像合成度合い決定部107の中で処理されている、物体表示座標蓄積部1401と、ユーザ指定物体特定部1402がある。各モジュールの処理について述べる。
物体表示座標蓄積部1401では、第1の撮像画像蓄積部101で蓄積されている画像を画像表示部102で表示したときに、表示されている物体ごとの領域に関する情報を蓄積している。具体的には、第1の撮像画像蓄積部101においては、所定の撮像装置で撮影された画像の履歴が、画像とその画像が撮影された時刻の情報が組みとして蓄積されている。同様に、第2の撮像画像蓄積部104においても、第1の撮像装置とは異なる視点での画像の履歴が蓄積されている。これらの撮像された画像の履歴から、表示されている物体の単位(処理を行う単位、一般的には同一物体)を抽出し、それらの物体の座標を抽出する。これにより、ユーザが画面に対して位置情報を入力したときに、どの物体をユーザが指示しているかを判断する。
図15に、遮蔽物としての物体AがカメラAのみの写る場合(1)と、カメラA、Bの両方に写る場合(2)の例を示している。図15の各場合において、撮影される画像の履歴の例を図16に示す。図16では、上記(1)、(2)の場合において、定期的に撮像日時(9月29日13:00、14:00、15:00)と各撮像装置で撮影された画像が履歴として蓄積されている。ここで、図16の(1)の場合には、撮影された画像の差分情報を利用することにより、各撮像装置で撮影されている画像において、物体の単位を判定する。具体的には、13:00には物体が存在しなかったが、14:00の時点でカメラA、カメラBの両方に新たな物体が表示された場合には、その物体は同一物体として判定する。一方、15:00においては、カメラAのみに新たな物体(遮蔽物)が表示され、以前、表示されていた物体が消えているのに対して、カメラBにおいては、以前に、同一物体として判定された物体が写っている場合には、カメラAと被写体の間に遮蔽物が存在し、その後ろに、以前の物体が存在すると認識する。
また、図16(2)の場合においては、13:00には物体が存在しなかったが、14:00の時点でカメラA、カメラBの両方に新たな物体が表示されているため、(1)の場合と同様に、カメラA、カメラBの両方に新たな物体が表示されたと認識する。さらに、15:00の時点においては、14:00の時点で追加された物体の一部が表示されているが、その前に新たな物体が追加されたと判定する。ここで、追加された物体は、カメラA、カメラBの両方に存在すると認識する。
これにより、図17に示すように、表示されている画像を矩形に分割し、各分割領域に対して、追加された日時情報が蓄積される。この情報の蓄積を、第1の撮像画像蓄積部と第2の撮像画像蓄積部に対して行うことにより、同一時刻に追加された物体領域は、同一の物体であると判断するものである。これにより、第1の撮像装置に写っている遮蔽物が、第2の撮像装置にも写っているか否かを判断することが可能になる。
ユーザ指定物体特定部1402においては、画像が表示されている画面に対するユーザ入力があった場合に、物体表示座標蓄積部1401で蓄積されている矩形のどの領域であるかを判断することにより、ユーザが指定している物体を特定する。
その結果、図18に示すように、ユーザが指定した画面上の座標が、被写体の部分か、遮蔽物の部分かを判断することで、表示する画像の合成度合いを変更することが可能になる。例えば、被写体が指定された場合には、遮蔽物が写っている画像の重み度合いを減少させ、被写体がはっきり見える画像にすることが可能になる。一方で、遮蔽物が指定された場合には、遮蔽物の重み度合いを減少させる動画を提示することが可能になる。このように、ユーザが見たい位置を指定することで、それに応じた画像合成を実現することが可能になる。
上記のシステムの動作を図19のフローチャートにまとめる。
<ステップ1901>
画像表示部102で表示されている画像に対して、ユーザ画面指定受付部103でユーザの画面に対する入力があったか。もし、入力があった場合には、次のステップへ進む。入力がない場合には、本ステップを繰り返す。
画像表示部102で表示されている画像に対して、ユーザ画面指定受付部103でユーザの画面に対する入力があったか。もし、入力があった場合には、次のステップへ進む。入力がない場合には、本ステップを繰り返す。
<ステップ1902>
ユーザ画面指定受付部103で入力された位置において、物体が存在した場合には、次のステップへ進む。指定された位置において物体が表示されていない場合には、ステップ1901へ戻る。
ユーザ画面指定受付部103で入力された位置において、物体が存在した場合には、次のステップへ進む。指定された位置において物体が表示されていない場合には、ステップ1901へ戻る。
<ステップ1903>
ユーザが入力した位置にある物体は、別の物体によって隠されている物体であるかを判定する。すなわち、他の物体によって隠されている物体をユーザが指定したかを判定する。図18においては、(1)の場合に相当する。この場合には、ステップ1904へ進む。他の物体によって隠されていない場合には、ステップ1905へ進む。
ユーザが入力した位置にある物体は、別の物体によって隠されている物体であるかを判定する。すなわち、他の物体によって隠されている物体をユーザが指定したかを判定する。図18においては、(1)の場合に相当する。この場合には、ステップ1904へ進む。他の物体によって隠されていない場合には、ステップ1905へ進む。
<ステップ1904>
画像合成度合決定部107において、現在表示されている画像の合成度合を10%とする。
画像合成度合決定部107において、現在表示されている画像の合成度合を10%とする。
<ステップ1905>
ユーザが入力した位置にある物体は、別の物体を隠す物体になっているかを判定する。すなわち、ユーザが指定した物体は、他の物体を隠しているかを判定する。図18においては、(2)の場合に相当する。この場合には、ステップ1906へ進む。他の物体を隠していない場合には、ステップ1901へ戻る。
ユーザが入力した位置にある物体は、別の物体を隠す物体になっているかを判定する。すなわち、ユーザが指定した物体は、他の物体を隠しているかを判定する。図18においては、(2)の場合に相当する。この場合には、ステップ1906へ進む。他の物体を隠していない場合には、ステップ1901へ戻る。
<ステップ1906>
画像合成度合決定部107において、現在表示されている画像の合成度合を50%とする。
画像合成度合決定部107において、現在表示されている画像の合成度合を50%とする。
<ステップ1907>
現在表示されている画像に対応する視点変換画像を、第2の撮像画像蓄積部104で蓄積されている画像に対して、視点変換画像生成部106で生成する。このとき、表示されている画像に対応する座標情報は、対応座標関係蓄積部105において蓄積されている。
現在表示されている画像に対応する視点変換画像を、第2の撮像画像蓄積部104で蓄積されている画像に対して、視点変換画像生成部106で生成する。このとき、表示されている画像に対応する座標情報は、対応座標関係蓄積部105において蓄積されている。
<ステップ1908>
合成する画像の各ピクセルのRGB値を重み係数に応じて加算平均する。ここで、ステップ1904からの場合には、表示画像0.1に対して視点変換画像0.9の割合となる。一方、ステップ1906からの場合には、表示画像0.5に対して視点変換画像0.5の割合となる。
合成する画像の各ピクセルのRGB値を重み係数に応じて加算平均する。ここで、ステップ1904からの場合には、表示画像0.1に対して視点変換画像0.9の割合となる。一方、ステップ1906からの場合には、表示画像0.5に対して視点変換画像0.5の割合となる。
<ステップ1909>
合成画像を生成して、画像表示部102において画像を表示する。
合成画像を生成して、画像表示部102において画像を表示する。
これによって、画像が表示されている画面に対して、ユーザが所定の点を入力したときに、別の視点からの画像と合成した画像に変更することが可能になる。あたかも、ユーザにとっては、指定した部分が透過されたかのように画像を確認することができるようになる。
本実施の形態では、第1の撮像画像蓄積部で蓄積されている画像に対して遮蔽物の領域があった場合に、別の撮像装置による別の視点からの画像の視点変換処理を実施することで合成する画像を生成した。しかしながら、別の撮像画像が1つでは不十分な場合がある。そこで、本実施の形態においては、別の2つの撮像装置の画像を利用して、合成画像を生成する実施の形態について説明する。
図20にハードウエアの概観の例を示す。図20のハードウエアの概観においては、1つの被写体に対して、3つの撮像装置で撮像を行っている例である。図21に示すように1つの被写体が3つの画像で撮像されている。さらに、被写体と撮像装置の間に遮蔽物が存在すると、各撮像装置で撮像される画像において、遮蔽物によって、被写体が撮影できなくなる場合がある(図22参照)。図22の場合には、正面からの画像であるイメージBでは、被写体がほぼ隠蔽された状態になる。一方、イメージAでは被写体の葉の部分が隠蔽され、イメージCでは被写体の根の部分が隠蔽されている。そこで、イメージBの視点での合成画像を生成するのに、イメージAの一部分と、イメージCの一部分を利用して合成することが可能になる。図23に示すように、イメージBの左半分に関しては、イメージAの画像と重ね合わせ、イメージBの右半分に関しては、イメージCの画像と重ね合わせることで、合成画像を生成する。
このように、本実施の形態では、他の視点の1つの画像に対して視点変換を実施することで、合成画像を生成していたが、本実施の形態では、他の視点の複数画像に対して視点変換を実施することで、合成画像を生成する。これにより、ある撮像装置と被写体の間に遮蔽物が存在する場合でも、他の撮像装置で補間できる可能性が高くなる。
特に、セキュリティに利用する監視カメラシステムにおいて、事前に、遮蔽される可能性が高い領域に関しては、あらかじめ、複数の視点からのカメラを設置しておくことにより、被写体が遮蔽される可能性を減少させることが可能になる。
本実施の形態では、被写体に対して遮蔽物が1つ存在する場合について説明した。しかしながら、複数の奥行きレベルが存在する場合がある。図24にその例を示す。図24では、主に、物体Aはカメラ1から撮影している。さらに、物体Aの奥にある物体Bは、カメラ2,3によって撮影している。さらに、物体Bの奥にある平面Cに書かれた三角の図形は、カメラ4、カメラ5から撮影されている。このようにカメラが設置された場合、図25に示すように各カメラでは撮影される。
ここで、カメラ1で撮影された画像に対して、カメラ2の画像、カメラ3の画像の対応座標点に関する情報は、対応座標関係蓄積部105において事前に蓄積されている。このとき、図26に示すように、カメラ1の画像が表示されており、ユーザが物体Bのある位置を指定したとする。図26の上段では、カメラ1の画像に対するユーザ指定座標と、下段では、カメラ1の画像に対するユーザ指定座標が異なっている。このとき、カメラ1の画像で指定したユーザ位置座標を、カメラ2の対応座標、カメラ3の対応座標に変換したときに、図26の場合には、どちらの画像での物体Bの表面に位置している。このときには、カメラ1の画像を変更する画像として、カメラ2の画像でもカメラ3の画像でも、どちらを利用してもよい。なお、画像間における座標変換は、図8で説明した対応ベクトルの関係から算出することが可能である。
一方、図27に示すように、カメラ2の画像が表示されていたときに、図26の場合と同様に、上段と下段で異なる2つの点をユーザが指定したとする。このとき、上段の画像の場合には、カメラ4の画像では、対応する座標は別の物体に隠されていない。しかしながら、カメラ5の画像では対応する座標は別の物体に隠されている。一方、下段の画像の場合には、カメラ4の画像では、対応する座標が隠されてしまい、カメラ5の画像では、対応する画像が隠されてしまっている。そこで、図27の場合には、ユーザ指定座標によって、変更する画像は異なることとなる。カメラ3の画像が表示されているときにも、図27の場合と同様に、ユーザが指定する座標によって、合成に利用する画像が異なる。
このように、ユーザが入力した座標に対して、その座標に対応する別の複数の画像から適切な画像を選択することができ、ユーザにとって見やすい合成画像を提供することが可能になる。
上記の画像合成をセキュリティシステムへ応用した例について述べる。例えば、図29に示すように、家屋の周辺にカメラが設置され、不審者等を事前に発見するシステムがある。図29では、カメラ1、2によって、家屋の門の外からの画像を撮影し、カメラ3,4によって、門と車両の間が撮影され、さらに、カメラ5、6によって車両から家の壁までの間が撮影されている。このようなシステムにおいて、図30(A)(B)に示すように、家屋の門の外に設置されたカメラ1,2によって撮像された画像が表示されているとする。このとき、ユーザが図30(A)の場合には、車両部分の位置をユーザが指定したとする。このときは、カメラ3,4を利用した家の門と車両の間の部分が確認できるような画像を主に生成する。一方、図30(B)に示すように、ユーザが家屋を指定した場合には、車両部分も透過させ、家屋の壁と車両の間の部分を中心としてカメラ5,6を主に利用して画像を生成する。このように、ユーザが見たい場所を指定することで、画像の透過度を変更して表示することが可能になる。
また、別のセキュリティ応用の例について述べる。図31に示すように、家屋に対して、多くの撮像装置が設置されるセキュリティシステムがある。このようなシステムによって、例えば、図32に示すように、家屋を天空から見た画像を生成することが可能になる。しかしながら、家屋を天空から見た画像には、遮蔽物によって確認できない領域が存在する。例えば、図32(1)においては、カーポートが設置され、その下の画像を確認することができなくなっている。
そこで、ユーザが確認したい地点を指定することにより、別のカメラによって生成された画像を用いて、新たな合成画像を生成することが可能である。例えば、図32では、カーポートの部分をユーザが指定した場合には、カーポートが写っている画像の度合いを減少させ、さらにカーポートの下を撮影しているカメラの画像を用いて、透過しているように表現することが可能である。一方で、ユーザが直接、不審者の存在に気づき、ユーザ指定座標2の部分を指定した場合には、透過画像を生成せずに、直接、カーポートの画像を除去した画像を生成することも可能である。このように、ユーザが指定する座標、物体によって、異なる画像を生成することが可能である。
ここで、ユーザは、カーポートの画像が表示されている部分を指示したため、カーポートの領域についてのみ、合成画像を利用して表示を変更している。これは、カーポートが表示される画像部分が同一物体であることを認識しておく必要がある。このために、撮像装置直後の画像と、カーポートが設置された後の画像の差分情報を保有しておくことにより実現することが可能になる。これは、撮像装置において、過去の画像との比較を行い、カーポートを一つの物体と認識し、さらに、ユーザがそのカーポートを指示するための座標を入力したことによって、カーポートが表示されている部分だけについて、合成画像を利用することができるようになる。
本発明の画像合成装置によって、所定の撮像装置では遮蔽物によって死角になる領域の画像を、別の撮像装置の画像と合成して出力することで、遮蔽された領域も画像で確認することが可能になる。特に、セキュリティ分野における監視カメラシステムの有効である。
101 第1の撮像画像蓄積部
102 画像表示部
103 ユーザ画面指定受付部
104 第2の撮像画像蓄積部
105 対応座標関係蓄積部
106 視点変換画像生成部
107 画像合成度合決定部
108 画像合成部
109 画像表示部
1401 物体表示座標蓄積部
1402 ユーザ指定物体特定部
102 画像表示部
103 ユーザ画面指定受付部
104 第2の撮像画像蓄積部
105 対応座標関係蓄積部
106 視点変換画像生成部
107 画像合成度合決定部
108 画像合成部
109 画像表示部
1401 物体表示座標蓄積部
1402 ユーザ指定物体特定部
Claims (13)
- 複数の撮像装置によって撮影された画像を合成して出力する監視カメラシステムにおいて、
第1の撮像装置によって撮影された画像が蓄積される第1の撮像画像蓄積手段と、
第1の撮像画像蓄積手段で蓄積されている画像を所定の画面に表示する画像表示手段と、
前記画像表示手段で表示された画面に対して、ユーザによる画面の位置の指定を受け付けるユーザ画面指定受付手段と、
第1の撮像装置とは異なる地点に設置された撮像装置によって撮影された画像が蓄積される第2の撮像画像蓄積手段と、
前記第1の撮像画像蓄積手段で蓄積される画像の座標と、前記第2の撮像画像蓄積手段で蓄積される画像の座標との対応関係を蓄積する対応座標関係蓄積手段と、
前記座標対応関係蓄積手段で蓄積されている座標の対応関係と、前記第2の撮像画像蓄積手段で蓄積されている画像とを用いて、前記第1の撮像画像蓄積手段で蓄積されている画像の視点からの画像を生成する視点変換画像生成手段と、
前記画像表示手段で表示されている画像と、前記ユーザ画面指定受付手段で受け付けた画面の位置から、前記視点変換画像生成手段で生成された画像と、第1の撮像画像蓄積手段で蓄積されている画像の合成度合いを決定する画像合成度合決定手段と、
前記画像合成度合決定手段で決定された画像の合成度合に基づいて画像を合成する画像合成手段と、
前記画像合成手段で合成された画像を前記画像表示手段で表示する
ことを特徴とする監視カメラシステム。 - 前記監視カメラシステムにおいて、
前記画像合成手段で合成する処理は、
前記第1の撮像画像蓄積手段で蓄積されている画像のRGB値と、前記視点変換画像生成手段で生成された画像のRGB値との、重み付き平均で、
前記画像合成手段で合成される画像の各座標におけるRGB値を決定する
ことを特徴とする請求項1記載の監視カメラシステム。 - 前記監視カメラシステムにおいて、
前記画像合成度合決定手段では、前記画像表示手段で表示している画像に含まれる物体と前記物体の座標に関する情報を保有する物体表示座標蓄積手段と
前記ユーザ画面指定受付手段で受け付けた位置を基に前記物体表示座標蓄積手段で蓄積されている物体を特定するユーザ指定物体特定手段とを保有し、
ユーザが指定した物体に応じて画像合成度合を変更する
ことを特徴とする請求項2記載の監視カメラシステム。 - 前記監視カメラシステムにおいて、
前記ユーザ指定物体特定手段で特定された物体が他の物体を隠蔽している場合と、他の物体に隠蔽されている場合で、画像合成度合を変更する
ことを特徴とする請求項3記載の監視カメラシステム。 - 前記監視カメラシステムにおいて、
前記ユーザ指定物体特定手段で特定された物体が他の物体を隠蔽している場合の前記画面表示部で表示している画像の利用度合が、他の物体に隠蔽されている場合の前記画面表示部で表示している画像の利用度合よりも大きい
ことを特徴とする請求項4記載の監視カメラシステム。 - 前記監視カメラシステムにおいて、
前記第1の撮像画像蓄積手段では、撮像された画像と撮像された時刻に関する情報を組みとして記憶し、
前記物体表示座標蓄積手段では、所定の領域の物体の存在を前記第1の撮像画像蓄積手段で蓄積されている画像の差分情報を用いて判断する
ことを特徴とする請求項3記載の監視カメラシステム。 - 前記監視カメラシステムにおいて、
前記物体表示座標蓄積手段では、所定の領域の物体の存在を前記第1の撮像画像蓄積手段で蓄積されている画像と、前記第2の撮像画像蓄積手段で蓄積されている画像とから判断し、
前記判断は、所定領域の被写体に対して1つの撮像装置で隠蔽され、別の撮像装置では隠蔽されなかったときに、前記被写体が隠蔽されたと判断する
ことを特徴とする請求項6記載の監視カメラシステム。 - 前記監視カメラシステムにおいて、
前記物体表示座標蓄積手段では、所定の領域の物体の存在を前記第1の撮像画像蓄積手段で蓄積されている画像の履歴を用いて判断し、
前記表示座標蓄積手段では、
前記画像表示手段で表示されている画像を矩形領域に分割し、各矩形領域に対して物体の存在の有無を蓄積し、
前記ユーザ指定物体特定手段では、前記ユーザ画面指定受付手段で受け付けた位置が前記矩形に対応する物体に応じて前記画像合成度合決定部における合成度合が決定される
ことを特徴とする請求項3記載の監視カメラシステム。 - 前記監視カメラシステムにおいて、
前記ユーザ画面指定受付手段でユーザの指示を受け付けたときに、
前記画像合成手段では、
前記ユーザ指定物体特定手段で特定された物体の領域についてのみ、合成した画像を生成し、
前記画像表示手段では、前記ユーザ指定物体特定手段で特定された物体の領域の画像のみを変更する
ことを特徴とする請求項3記載の監視カメラシステム。 - 前記監視カメラシステムにおいて、
前記対応座標関係蓄積手段において、前記第2の撮像画像蓄積手段で蓄積されている2種類以上の画像を保有している場合に、
前記ユーザ指定画面指定受付手段で受け付けた位置に対応する座標において、遮蔽物が存在しない画像を利用して視点変換画像を生成する
ことを特徴とする請求項2記載の監視カメラシステム。 - 前記監視カメラシステムにおいて、
前記撮像装置は家屋の周囲に設置された撮像装置であり、
前記画像表示手段で表示する画像は、家屋の上からの視点の画像を表示する
ことを特徴とする請求項2記載の監視カメラシステム。 - 前記監視カメラシステムにおいて、
前記画像合成度合決定手段では、前記画像表示手段で表示している画像に含まれる物体と前記物体の座標に関する情報を保有する物体表示座標蓄積手段と
前記ユーザ画面指定受付手段で受け付けた位置を基に前記物体表示座標蓄積手段で蓄積されている物体を特定するユーザ指定物体特定手段とを保有し、
前記ユーザ画面指定受付手段でユーザの指示を受け付けたときに、
前記画像合成手段では、
前記ユーザ指定物体特定手段で特定された物体の領域についてのみ、合成した画像を生成し、
前記画像表示手段では、前記ユーザ指定物体特定手段で特定された物体の領域の画像のみを変更する
ことを特徴とする請求項11記載の監視カメラシステム。 - 第1の撮像装置によって撮影された画像が蓄積される第1の撮像画像蓄積手段と、
前記第1の撮像装置とは異なる地点に設置された撮像装置によって撮影された画像が蓄積される第2の撮像画像蓄積手段と、
前記第1の撮像画像蓄積手段で蓄積される画像の座標と、前記第2の撮像画像蓄積手段で蓄積される画像の座標との対応関係を蓄積する対応座標関係蓄積手段と、
第1の撮像画像蓄積手段で蓄積されている画像を所定の画面に表示する画像表示手段と、
を用いて、
前記画像表示手段で表示された画面に対して、ユーザによる画面の位置の指定を受け付けるユーザ画面指定受付ステップと、
前記座標対応関係蓄積手段で蓄積されている座標の対応関係と、前記第2の撮像画像蓄積手段で蓄積されている画像とを用いて、前記第1の撮像画像蓄積手段で蓄積されている画像の視点からの画像を生成する視点変換画像生成ステップと、
前記画像表示手段で表示されている画像と、前記ユーザ画面指定受付ステップで受け付けた画面の位置から、前記視点変換画像生成ステップで生成された画像と、第1の撮像画像蓄積手段で蓄積されている画像の合成度合いを決定する画像合成度合決定ステップと、
前記第1の撮像画像蓄積ステップで蓄積されている画像のRGB値と、前記視点変換画像生成ステップで生成された画像のRGB値との、重み付き平均により、合成画像の各座標におけるRGB値を決定し、
前記画像合成度合決定ステップで決定された画像の合成度合に基づいて画像を合成する画像合成ステップと、
前記画像合成ステップで合成された画像を前記画像表示手段で表示に変更するステップと
からなることを特徴とする監視カメラシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009229428A JP2011077982A (ja) | 2009-10-01 | 2009-10-01 | 監視カメラシステム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009229428A JP2011077982A (ja) | 2009-10-01 | 2009-10-01 | 監視カメラシステム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011077982A true JP2011077982A (ja) | 2011-04-14 |
Family
ID=44021432
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009229428A Pending JP2011077982A (ja) | 2009-10-01 | 2009-10-01 | 監視カメラシステム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011077982A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015087730A1 (ja) * | 2013-12-10 | 2015-06-18 | 株式会社日立国際電気 | 監視システム |
WO2016208066A1 (ja) * | 2015-06-26 | 2016-12-29 | 三菱電機株式会社 | モニタリング装置 |
US9898829B2 (en) | 2012-09-18 | 2018-02-20 | Hanwha Techwin Co., Ltd. | Monitoring apparatus and system using 3D information of images and monitoring method using the same |
KR20200137931A (ko) * | 2019-05-30 | 2020-12-09 | 주식회사 아임클라우드 | 인공지능(ai) 기반 콘텐츠 융합 서비스 시스템 및 방법 |
-
2009
- 2009-10-01 JP JP2009229428A patent/JP2011077982A/ja active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9898829B2 (en) | 2012-09-18 | 2018-02-20 | Hanwha Techwin Co., Ltd. | Monitoring apparatus and system using 3D information of images and monitoring method using the same |
WO2015087730A1 (ja) * | 2013-12-10 | 2015-06-18 | 株式会社日立国際電気 | 監視システム |
JPWO2015087730A1 (ja) * | 2013-12-10 | 2017-03-16 | 株式会社日立国際電気 | 監視システム |
WO2016208066A1 (ja) * | 2015-06-26 | 2016-12-29 | 三菱電機株式会社 | モニタリング装置 |
JPWO2016208066A1 (ja) * | 2015-06-26 | 2017-08-31 | 三菱電機株式会社 | モニタリング装置 |
CN107710752A (zh) * | 2015-06-26 | 2018-02-16 | 三菱电机株式会社 | 监视装置 |
CN107710752B (zh) * | 2015-06-26 | 2018-11-20 | 三菱电机株式会社 | 监视装置 |
KR20200137931A (ko) * | 2019-05-30 | 2020-12-09 | 주식회사 아임클라우드 | 인공지능(ai) 기반 콘텐츠 융합 서비스 시스템 및 방법 |
KR102270572B1 (ko) * | 2019-05-30 | 2021-06-29 | 주식회사 아임클라우드 | 인공지능(ai) 기반 콘텐츠 융합 서비스 시스템 및 방법 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109716398B (zh) | 图像处理设备、图像生成方法和存储介质 | |
JP4201809B2 (ja) | 手ぶれ補正装置及び方法並びに撮像装置 | |
JP5867424B2 (ja) | 画像処理装置、画像処理方法、プログラム | |
JP6371553B2 (ja) | 映像表示装置および映像表示システム | |
JP5803467B2 (ja) | 画像処理装置および撮像装置、ならびに画像処理方法 | |
US20160227137A1 (en) | Flare Detection and Mitigation in Panoramic Images | |
US20120092529A1 (en) | Method for processing an image and an image photographing apparatus applying the same | |
JP2010041586A (ja) | 撮像装置 | |
US10853926B2 (en) | Image processing device, imaging device, and image processing method | |
JP2012099876A (ja) | 画像処理装置、撮像装置、画像処理方法、プログラム | |
US10412374B2 (en) | Image processing apparatus and image processing method for imaging an image by utilization of a pseudo image | |
KR20060098815A (ko) | 감시카메라 및 감시카메라의 프라이버시 보호방법 | |
CN112995500A (zh) | 拍摄方法、装置、电子设备及介质 | |
JP2017201745A (ja) | 画像処理装置、画像処理方法およびプログラム | |
KR101778744B1 (ko) | 다중 카메라 입력의 합성을 통한 실시간 모니터링 시스템 | |
JP2009059107A (ja) | 画像処理方法と該画像処理方法を用いた撮像装置 | |
JP2015005925A (ja) | 画像処理装置および画像処理方法 | |
JP2011077982A (ja) | 監視カメラシステム | |
JP2011077981A (ja) | 監視カメラシステム | |
JP2014241569A (ja) | 画像処理装置及びその制御方法、プログラム、記憶媒体 | |
JP2007053621A (ja) | 画像生成装置 | |
JP2011035638A (ja) | 仮想現実空間映像制作システム | |
JP2005135014A (ja) | 物体検出装置 | |
CN108810326B (zh) | 一种拍照方法、装置及移动终端 | |
JP6513305B2 (ja) | 映像合成装置及び映像合成方法 |