JP6635384B2 - 画像処理装置およびこれを備えた監視システムならびに画像処理方法 - Google Patents

画像処理装置およびこれを備えた監視システムならびに画像処理方法 Download PDF

Info

Publication number
JP6635384B2
JP6635384B2 JP2017507359A JP2017507359A JP6635384B2 JP 6635384 B2 JP6635384 B2 JP 6635384B2 JP 2017507359 A JP2017507359 A JP 2017507359A JP 2017507359 A JP2017507359 A JP 2017507359A JP 6635384 B2 JP6635384 B2 JP 6635384B2
Authority
JP
Japan
Prior art keywords
image
unit
corrected
disturbance
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017507359A
Other languages
English (en)
Other versions
JPWO2016152007A1 (ja
Inventor
親和 王
親和 王
邦昭 磯貝
邦昭 磯貝
松山 好幸
好幸 松山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2016152007A1 publication Critical patent/JPWO2016152007A1/ja
Application granted granted Critical
Publication of JP6635384B2 publication Critical patent/JP6635384B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R2011/0001Arrangements for holding or mounting articles, not otherwise provided for characterised by position
    • B60R2011/0003Arrangements for holding or mounting articles, not otherwise provided for characterised by position inside the vehicle
    • B60R2011/0026Windows, e.g. windscreen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20216Image averaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • G07C5/0866Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本開示は、画像処理装置およびこれを備えた監視システムならびに画像処理方法に関する。
近年、映像記録型ドライブレコーダと称される車載カメラが自動車に搭載されるようになってきた。例えば車両前方の道路状況を撮影して記録する車載カメラは、屋外使用に対応していない場合にはフロントウィンドウの内側に搭載される。このようにフロントウィンドウの内側に搭載された車載カメラでは、ワイパー装置を作動させた場合にワイパーブレードが画面を横切る画像が撮影される。
例えば、道路の白線を画像処理により検出し、車線に沿った走行を可能にする走行支援を行う場合に、ワイパーブレードが撮影対象の白線を消してしまう視野妨害物として撮影されると、白線の検出が困難になることがある。また、警備等で巡回しながら撮影したものを見直す場合には、注目すべき車両や人物等がワイパーブレードの動きにより邪魔されて、集中力が低減する虞がある。
また、屋外に設置する監視カメラの場合でも、降雪時に画面を通り過ぎる雪が撮影対象の景色の一部を消してしまう視野妨害物となり、画像の必要な箇所を鮮明に映し出すことができなくなるという問題がある。そのような降雪時の雪に対しては、処理対象となる対象フレームから時間軸で前へ遡った複数フレームの画像を用い、対象フレームから前の複数フレームに於ける画像の各画素の階調を比較し、例えば最も階調の高いものから所定番目の階調となる画素を集めて、1フレームに相当する画像データを構築するようにしたものがある(例えば特許文献1参照)。
上記特許文献1によれば、視野妨害物が撮像された画像に於いて、視野妨害物を構成する画素には、複数フレームの各画素の所定番目の階調の画素が用いられる。これにより、視野妨害物の画素は用いられなくなり、視野妨害物を除去することができるため、上記特許文献1の画像処理を車載カメラに於けるワイパーブレードの映り込みに対して適用することが考えられる。
しかしながら、車載カメラの場合には、自車の走行により相対的に移動する景色や他の車両等が移動被写体になる。このような車載カメラで撮影された画像に対して上記特許文献1による画像処理を行うと、景色や他の車両等の移動被写体に於いても影響し、撮影対象である移動被写体に於ける残像やぶれ、または一部が消失するという問題が生じる。
また、屋外の被写体を撮影する監視カメラ等では、降雪時に撮影を行うと、雪粒に視野が遮られて監視対象としている被写体が判然としない撮影画像が得られる。そこで、例えば、時間的に連続する複数の撮影画像を対象にして時間軸方向のメディアンフィルタ処理を行うことで降雪ノイズを除去して画像を鮮明化する技術が知られている(特許文献2参照)。この技術は、時間的に連続する複数の撮影画像において同一座標の画素が雪粒を写した画素である確率が低いことに着目したものであり、時間的に連続する複数の撮影画像から抽出された画素値を大きさの順に並び替えてその中央値を取得する時間軸方向のメディアンフィルタ処理により、雪粒を写した画素値が排除されるため、降雪ノイズを除去することができる。
また、屋外における降雪等の気象状況を人の判断によらずに検出する技術が存在し、例えば、降雪、降雨、風速等の天気情報を得るための複数のセンサを設け、それらのセンサによって得られた天気情報を処理して、屋内に設けた天気表示手段に表示する天気表示システムが知られている(特許文献3参照)。
ところで、屋外での撮影においてノイズを発生し得る気象状況としては、上述の降雪以外にもいくつか存在するが、例えば、降雨時の撮影の場合には、撮影画像におけるノイズの発生状況が降雪時とは異なるため、上記特許文献1に記載された降雪ノイズ除去のための画像処理をそのまま適用しても、降雪の場合と同様のノイズ除去効果を得ることは難しい場合がある。したがって、異なる気象状況に起因するノイズを撮影画像からより適切に除去するためには、撮影時の気象状況に応じて異なる画像処理を適用する(例えば、画像処理に関するパラメータを変更する)ことが望ましい。
そこで、例えば、気象状況を検出するための複数のセンサの検出結果に基づき、各気象状況に適した画像処理(ノイズ除去)を実行することが考えられるが、その場合、カメラの設置場所ごとに各種のセンサを設ける必要があるため、センサの設置に手間がかかり、設備コストも嵩むという問題がある。
さらに、撮影者が例えば手持ちしたビデオカメラで動画を撮影した場合に、視聴時にモニタの画面に映し出される映像が揺れるという不快な映像となることを抑制するために、光学式や電子式の画揺れ補正機構を備えたビデオカメラが知られている。電子式画揺れ補正機構では、撮影された複数の画像を比較して被写体のずれを打ち消すことにより、画揺れを解消するようにしている。
画揺れ補正された画像が画面から外れないようにするには、画面に映し出す画像の範囲よりも受光素子による撮像範囲を広くしておくとよいが、高解像度の受光素子を用いることによりカメラか高騰化したり、大型の受光素子を搭載することによりカメラが大型化したりするという問題がある。一方、警備員が肩や頭にカメラを付けて監視する場合があり、そのような場合にはカメラの小型化を促進しかつ解像度の低下を抑制する要望があり、その場合には、小型の受光素子を用い、受光素子と画面に映し出す画像との解像度を略同じにすることが考えられる。
しかしながら、受光素子と画面に映し出す画像との解像度が略同じになる場合には、画揺れ補正により被写体のずれを打ち消した画像を生成すると、画面に対して画像のずれが生じ、画面に映し出されない空白領域が生じてしまう。それにより、画像と空白領域との境界が明瞭になると、画像の輪郭がエッジとなり、そのエッジが画揺れに伴って揺れてちらつくという問題がある。それに対して、空白領域をエッジと共に一定濃度のマスクで隠すようにして、エッジの揺れが映し出されないようにしたものがある(例えば特許文献4参照)。
また、画揺れによるカメラの動きを表す平行移動ベクトル及び回転角ベクトルを取り出し、意図的な動き成分と意図的でない動き成分とを分離してフィルタリングし、画揺れに対する補正量が許容される閾値を超えていないかを確認し、超えていなければ、許容範囲内に留まるように画揺れ補正を行うようにしたものがある(例えば特許文献5参照)。
しかしながら、画面の中央部分に被写体が位置するように撮影された画像がシフトして画揺れ補正される場合には、上記マスクが画面の周辺部に額縁のように表示されるため、補正画像(マスクがされないで画面に映し出される撮影画像)の表示領域が小さくなり、画面全体に画像が表示される場合に対して画像の表示効率が低下するという問題がある。特に、画像の回転方向の揺れを補正する場合には、エッジを隠すためのマスクの領域が拡大し、表示効率がより一層低下する。
また、エッジを含む空白領域を前のフレームの画像で補うことにより、エッジを隠すためのマスクによる非表示領域の拡大を抑制することができるが、その場合には、そのように補正された動画を再生する際に、空白領域に映し出される前のフレームの画像が現在のフレームの補正画像に対して遅延が生じることにより固まった状態に映し出され、画面全体を見る際に違和感が生じる場合がある。
画面の画像領域が狭くなることにより表示効率が低下するという問題に対しては、画面全体に画像領域を拡大することにより対応することができる。しかしながら、表示すべき画像を拡大して画面全体に表示する場合には、基の画像を拡大処理するだけなので、画揺れ補正された補正画像の画素の鮮明度が低下する虞がある。特に、例えば監視用途に映像を記録する際に歩きながら撮影する場面があり、その記録された動画から細部を確認するために画像の鮮明度が求められる場合に不向きであり、また、空白領域として処理された部分の画像が記録として残らない。
また、手揺れ補正の補正量(平行移動ベクトルや回転角ベクトル)が許容される閾値を超えないように制限すると、閾値を超えた手揺れに対しては画揺れ補正が不十分となる。その場合には、揺れた画像が映し出され、不快な映像となる。
本開示は、撮影中の外乱に起因するノイズを除去し得ると共に、画像に映し出されるノイズ以外の移動被写体に於ける残像やぶれ、または一部が消失することを抑制することを目的とする。
より詳細には、本開示は、外乱として出現する視野妨害物を除去し得ると共に、画像に映し出される視野妨害物以外の移動被写体に於ける残像やぶれ、または一部が消失することを抑制することを目的とする。
また、より詳細には、本開示は、屋外での撮影において、簡易な構成により気象状況を判定できると共に、その判定された気象状況に応じた画像処理によってノイズを適切に除去した画像を取得可能とすることを目的とする。
さらに、より詳細には、本開示は、電子式画揺れ補正による補正画像の解像度を保持すると共に、モニタの画面に映し出される映像に不自然さが生じないようにすることを目的とする。
特開2000−115763号公報 特許第3439669号公報 特開平10−206559号公報 特表2006−510282号公報 特表2009−505477号公報
本開示の画像処理装置は、撮影中の外乱に起因するノイズを画像処理によって撮影画像から除去する画像処理装置であって、時間的に連続する複数の撮影画像が入力される画像入力部と、撮影画像における外乱に関する特徴を抽出する画像特徴抽出部と、外乱に関する特徴に応じて、撮影画像に対する外乱の影響を抑制する外乱抑制部と、を備える。
また、本開示の画像処理方法は、撮影中の外乱に起因するノイズを画像処理によって撮影画像から除去する画像処理方法であって、時間的に連続する複数の撮影画像が入力される画像入力ステップと、撮影画像における外乱に関する画像特徴を抽出する画像特徴抽出ステップと、外乱に関する特徴に応じて、撮影画像に対する外乱の影響を抑制する外乱抑制ステップと、を有する。
本開示によれば、撮影中の外乱の影響を抑制すると共に、画像に映し出されるノイズ以外の移動被写体に於ける残像やぶれ、または一部が消失することを抑制できる。
より詳細には、本開示によれば、外乱として出現する視野妨害物を除去し得ると共に、画像に映し出される視野妨害物以外の移動被写体に於ける残像やぶれ、または一部が消失することを抑制できる。
また、より詳細には、本開示によれば、屋外での撮影において、簡易な構成より気象状況を判定できると共に、その判定された気象状況に応じた画像処理によってノイズを適切に除去した画像を取得できる。
さらに、より詳細には、本開示によれば、電子式画揺れ補正による補正画像の解像度を保持すると共に、モニタの画面に映し出される映像に不自然さが生じないようにすることができる。
図1は、自動車のフロントウィンドウを車両前側から見た図である。 図2は、本開示が適用された車載カメラによる撮影例を示す模式図である。 図3は、第1実施形態に基づく画像処理装置の第1実施例を示すブロック図である。 図4は、第1実施形態の第1実施例のフロー図である。 図5は、画面に於ける動きベクトルを示す図である。 図6は、第1実施形態の第2実施例の図3に対応する図である。 図7は、第1実施形態の第2実施例のフロー図である。 図8は、修正領域の補正要領の説明図である。 図9は、修正領域を示す説明図である。 図10は、第2実施形態に係る監視システムの概略を示す構成図である。 図11は、図10中の画像処理装置の機能ブロック図である。 図12は、図11中の気象判定部で用いられる気象状況判定テーブルの一例を示す説明図である。 図13は、第2実施形態に係る監視システムによる処理の流れを示すフロー図である。 図14は、第3実施形態に係る監視システムの概略を示す構成図である。 図15は、図14中のインターフォン親機132の機能ブロック図である。 図16は、第3実施形態に係る監視システムによる処理の流れを示すフロー図である。 図17は、図16中のステップST208における画像表示の一例を示す説明図である。 図18Aは、第4実施形態が適用されたビデオカメラによる撮影例を示す模式図である。 図18Bは、第4実施形態が適用されたビデオカメラによる撮影例を示す模式図である。 図19Aは、本開示に基づく画像処理により画面に映し出される映像の連続的変化を示す模式図である。 図19Bは、本開示に基づく画像処理により画面に映し出される映像の連続的変化を示す模式図である。 図19Cは、本開示に基づく画像処理により画面に映し出される映像の連続的変化を示す模式図である。 図20は、第4実施形態に基づく画像処理装置の第1実施例を示すブロック図である。 図21は、図20に対応するフロー図である。 図22Aは、図19Aに対応する要部拡大模式図である。 図22Bは、図19Bに対応する要部拡大模式図である。 図23は、画像処理装置の第4実施形態の第2実施例を示すブロック図である。 図24は、図23に対応するフロー図である。 図25は、画像処理装置の第4実施形態の第3実施例を示すブロック図である。 図26は、図25に対応するフロー図である。
以下、本開示の実施の形態を、図面を参照しながら説明する。
(第1実施形態)
図1は、自動車1のフロントウィンドウ2を車両前側から見た図である。自動車1の車室内の適所には、フロントウィンドウ2を介して前方を撮影する車載カメラ3が搭載されている。本実施の形態では巡回監視車両に於ける監視カメラとして用いられる例について以下に説明するが、本開示は、巡回監視車両の監視カメラに限定されるものではなく、例えば運転支援システムにも適用可能であり、また、屋外の監視用固定カメラにも適用可能である。
図2は、車載カメラ3で撮影された画像を、車載カメラ3を直接的にモニタ4に接続してモニタ4の画面4aに映像として映し出す場合、または、車載カメラ3に装着されている記憶媒体(メモリカード等)3aの画像データを、パーソナルコンピュータPCにより読み出しかつ画像処理して、パーソナルコンピュータPCに接続されたモニタ4に出力する場合(図の破線の流れ)を示す。いずれの場合も、画面4aに映し出す画像処理は、公知の画像処理であってよく、その説明は省略する。また、モニタ4に映し出す場合に限らず、レコーダに記録する場合にも適用され得る。
次に、本開示の第1実施形態に基づく画像処理の制御要領について説明する。この画像処理は、例えばコンピュータプログラムにより実現されるが、コンピュータプログラムに限定されるものではない。なお、モニタ4に映し出す動画を公知のフレーム処理により生成し、適宜本開示に基づく画像処理を行う。
図3は、本開示の第1実施形態に基づく画像処理装置5の第1実施例を示すブロック図である。図に示されるように、画像処理装置5は、車載カメラ3で撮像された画像を時系列に保存する入力画像バッファ10と、今回の処理対象となる所定の処理対象画像を設定し、入力画像バッファ10から処理対象画像及び処理対象画像に近接する複数の関連画像を読み出す画像設定部11と、入力画像バッファ10からの複数の関連画像が入力する動きベクトル計算部12と、動きベクトル計算部12で動きベクトルが算出された複数の関連画像の各動きベクトル算出値が入力すると共に、当該複数の関連画像が入力画像バッファ10から入力するフレーム動き補正部13と、フレーム動き補正部13で動き補正された各補正画像と入力画像バッファ10からの処理対象画像とが入力し、それらを合成してモニタ4に映し出す合成画像を出力する画像合成部14と、により構成されている。入力画像バッファ10および動きベクトル計算部12は、画像特徴抽出部の一例であり、フレーム動き補正部13および画像合成部14は、外乱抑制部の一例である。
次に、第1実施形態の第1実施例による画像処理装置5の制御要領について、図4のフロー図、図5の画面4aの映像説明図を参照して説明する。なお、入力画像バッファ10には、車載カメラ3で撮影された画像が、車載カメラ3から直接またはパーソナルコンピュータPCを介して時系列に複数フレーム保存されている。今回の処理対象となる画像を処理対象画像と称し、それに対して時系列で過去となる画像を前画像と称し、未来となる画像を後画像と称して説明する。
ステップST1では、画像設定部11により処理対象画像に相当する処理対象フレームを入力画像バッファ10から読み出して、動きベクトル計算部12と画像合成部14とに入力する。ステップST2では、画像設定部11により、前画像に相当する前フレームと後画像に相当する後フレームとを入力画像バッファ10から読み出して、動きベクトル計算部12とフレーム動き補正部13とに入力する。これら前画像及び後画像は処理対象画像に対して時系列に近接する複数の関連画像であるが、前後それぞれの画像に限らず、前画像または後画像のいずれかであってもよく、また、それぞれ複数の画像であってよい。さらに、フレーム処理に於ける連続するフレームに限らず、処理対象画像に対して前後にそれぞれ複数フレーム離れた画像であってもよい。
ステップST3では、動きベクトル計算部12で、処理対象画像を基準にして、前・後フレームの画像のそれぞれについての動きベクトルを求める。画素または任意の画素数からなるブロック単位の動きベクトルが、例えば図5に部分的に示されている矢印(MV1,MV2,MV3)で示されるように算出される。動きベクトルの算出は、公知のブロックマッチング法や勾配法等により求めるものであってよい。なお、図5は、自動車1が左折している場合である。
ステップST4では、フレーム動き補正部13で、入力画像バッファ10から読み込んだ前・後フレームに対して、各フレームのステップST3で算出された各動きベクトルに基づいてそれぞれ動き補正した画像(以下、動き補正画像と称す)を生成する。
ステップST5では、画像合成部14による画像の合成を行う。ここでは、前・後フレームに対してフレーム動き補正部13で生成された各動き補正画像と、入力画像バッファ10から読み込んだ処理対象フレーム(処理対象画像)とを用いて、時間軸に対して対応する画素間でメディアン処理して、合成画像を生成する。本開示によるメディアン処理とは、公知のメディアンフィルタを用いた処理であってよく、平均化処理の一例である。平均化処理とは、上記メディアン処理の他に、注目画素に隣接する複数の画素を対象として、所定番目(例えば4番目や5番目)の輝度や、単純な平均輝度や、頻度の高い輝度を用いたりする等の処理をいうものとする。
処理対象画像に雪が写り、関連画像の該当する部分に雪が写っていない場合には、複数の動き補正画像のメディアン処理により、合成画像は雪が消された画像となり得る。なお、定点観察用の固定カメラの場合には通り過ぎる車両や人物等が移動被写体となるが、移動被写体に対して動き補正された動き補正画像を用いて合成された合成画像に於いて、雪が消され、かつ移動被写体に於ける残像やぶれ、または一部が消失することが抑制される。また、本実施形態に於ける車載カメラ3に於いては、走行により移動する風景や他の車両等が撮影対象としての移動被写体になる。上述した画像処理により、処理対象画像と、処理対象画像を基準にして動き補正された動き補正画像とを用いて合成画像を生成することから、合成画像に於いて、移動被写体に於ける残像やぶれ、または一部が消失することが抑制される。これにより、車載カメラ3のように移動被写体を撮影対象とする場合でも、外乱除去と画像の乱れの抑制とを両立し得る。
次に、第1実施形態の第2実施例について、図3に対応する図6を参照して説明する。なお、上記実施例と同様の部分については同一の符号を付してその詳しい説明を省略する。この第1実施形態の第2実施例では、図に示されるように、動きベクトル計算部12で動きベクトルが算出された複数の画像の各動きベクトル算出値が入力する修正領域検出部15と、修正領域検出部15からの修正領域情報が入力すると共に動きベクトル計算部12からの各動きベクトル算出値が入力する修正領域修正部16とが設けられている。修正領域修正部16では修正領域に対する動きベクトルを修正し、その修正領域動きベクトル修正情報がフレーム動き補正部13に入力し、フレーム動き補正部13では、動きベクトル計算部12からの各動きベクトル算出値と、修正領域修正部16からの動きベクトル修正情報とに基づいて動き補正画像を生成し、その動き補正画像を画像合成部14に出力する。画像合成部14での画像の合成は第1実施形態の上記第1実施例と同様である。
この第1実施形態の第2実施例に於ける制御要領について、図4に対応する図7のフロー図を参照して説明する。ステップST11〜ST13は、それぞれ第1実施形態の第1実施例のステップST1〜ST3と同じである。
ステップST13の次のステップST14では、ステップST3で算出した動きベクトルに基づいてフレームの各部分(例えば複数分割されたブロック)に対して修正領域(図8の符号21)であるか否かを判別する。この修正領域21の判定要領を、図8を参照して説明する。
図8には、動きベクトルを修正する対象となる今回フレームF(n)と、今回のフレームF(n)より時系列で前となる前フレームF(n−1)と、時系列で後となる後フレームF(n+1)とが示されている。これらは隣接するフレームであってもよく、または所定のフレーム数をおいたフレームであってもよい。
また、図に於けるX軸及びY軸は画面4aの空間(二次元)を示し、T軸は各フレーム間の時間軸を示す。図は、空間軸の3×3ブロックと、時間軸の3フレームとを用いた例であるが、空間軸・時間軸に対するブロック数とフレーム数を限定するものではなく、他のブロック数とフレーム数の組合せであってもよい。ブロックは、フレームを所定の画素数で分割したものであり、視野妨害物が本実施形態のようにワイパーブレード6であるとして特定可能な場合には、その物体の大きさ等に応じてブロックの大きさを設定することにより処理を高速化し得る。
また、図には、今回フレームF(n)に於いて、中央のブロックに所定の閾値(MVr)以上の動きベクトルMV1(>=MVr)が算出され、その周囲のブロックでは閾値未満の動きベクトルMV2(<MVr)が算出された例が示されている。図では説明の簡略化のために、今回フレームF(n)に於いて中央のブロックのみに所定の閾値MVr以上の動きベクトルMV1が算出され、前フレームF(n−1)及び後フレームF(n+1)では、図に示される3×3ブロックに対しては閾値未満の動きベクトルMV2(<MVr)が算出された例が示されている。なお、各ブロックに対して同一の動きベクトルMV2を示しているが、同一の値を意味するものではなく、略同じでありかつ閾値MVrより小さいことを意味する程度である。
また、本実施形態では、閾値MVrは、通常の走行時の景色の動きベクトルより大きく、ワイパーブレード6の低速時の動きよりは小さい値とする。ワイパーブレード6の移動速度は、運転者の視界の邪魔にならないように通常走行時のフロントウィンドウ2越しの景色の流れの速度より十分高速であり、ワイパーブレード6の動きと景色の動きとを、動きベクトルに対して上記閾値MVrを用いて判別することができる。
なお、ワイパーブレード6の動きに対応する動きベクトルMV1となる部分は、例えば図9に於ける修正領域21として示される範囲になる。
ステップST14で、ブロックに対する動きベクトル算出で修正領域21に対応すると判定された場合には、ステップST15で、修正領域修正部16により修正領域21の各ブロックの動きベクトルを修正する。例えば、今回フレームF(n)の修正領域21に対して、前・後フレームF(n−1)・F(n+1)の対応する領域の動きベクトルを用いて修正する。図8のブロックの例では、今回フレームF(n)に於いて動きベクトルMV1が算出されたブロック(修正領域21)に対して、前・後フレームF(n−1)・F(n+1)の対応するブロック21a・21bの各動きベクトルMV2を対象として平均化処理する。
平均化処理の一例としては、上述した画素に対するメディアン処理と同様にして、対象を動きベクトルとして処理するものであってよい。図示例の場合にはメディアン値がMV2となり、その動きベクトルMV2を修正領域21の修正された修正動きベクトルとする。なお、図8では前・後フレームF(n−1)・F(n+1)がそれぞれ1フレームずつ図示されているが、前側または後側のいずれかの複数フレームを対象としてもよく、さらにメディアン処理の対象となるフレーム数としては3以上であってもよい。
なお、修正領域21の動きベクトルの修正に於いて、時系列に並ぶ複数の関連画像の修正領域21に対応する領域を対象とする処理に限られるものではない。例えば、修正領域21の修正動きベクトルを0に設定してもよく、また、修正領域21の周辺の動きベクトルのメディアン処理した動きベクトルを修正動きベクトルとしてもよい。
ステップST15の次、または上記ステップST14で修正領域21に対応する動きベクトルが無いと判定された場合にステップST16に進む。ステップST16では、フレーム動き補正部13により、入力画像バッファ10からの前・後フレームF(n−1)・F(n+1)に対して、ステップST13で算出した各動きベクトル(MV2)と、ステップST15で修正された修正領域21の修正動きベクトル(MV2)とを参照して、各動き補正画像を生成する。
そして、ステップST17では、画像合成部14で、入力画像バッファ10からの処理対象画像と、ステップST16で動き補正された各動き補正画像とを、第1実施形態の第1実施例と同様に合成する。次のステップST18では、ステップST17で合成された合成画像をモニタ4に出力する。
ワイパーブレード6の動きベクトルはワイパーブレード6の周囲の動きベクトルに対して大きく影響する。それに対して、ワイパーブレード6の通過領域となる修正領域21の動きベクトルを修正動きベクトル(MV2)で修正した処理対象画像を基準にして前・後フレームF(n−1)・F(n+1)を動き補正することから、前・後フレームF(n−1)・F(n+1)の動き補正に於いて、ワイパーブレード6の大きな動きベクトルの影響を受けることなく補正することができる。
このように、視野妨害物として動きベクトルの大きなワイパーブレード6が撮像された場合に、処理対象画像に於けるワイパーブレード6が写り込んでいる部分に対して、移動被写体としての景色に対して動き補正された各動き補正画像の対応する部分の画像で補完した合成画像が生成される。その補完部分の画像はワイパーブレード6が通過する領域(修正領域21)の周囲と同様の動きベクトル(自動車1の走行に伴う動き)となる部分であり、例えば30フレーム/秒のようなフレーム間が僅かな時間差の場合には、時間差の生じる部分が目立つ程にはならない。これにより、処理対象画像に対応する合成画像を、ワイパーブレード6が消された画像にすることができると共に、景色の中の一部を注視する際に、画面4a上でワイパーブレード6が動くことによる煩わしさが解消され、見易い動画が得られる。
また、ワイパーブレード6の動きはフロントウィンドウ2の広い範囲に亘るため、車載カメラ3により撮影された画像に於いて、ワイパーブレード6の動きベクトルが大きな影響を及ぼすことになる。それに対して上述した画像処理により、ワイパーブレード6の大きな動きベクトルによる影響を受けることのない合成画像を生成することができ、ワイパーブレード6が消された画像に於いて、景色として映し出される部分(走行による移動被写体)がワイパーブレード6の残像やぶれ等で消失してしまうことを回避し得る。
なお、第1実施形態の上記第2実施例では、動きベクトルの大きさの違いでワイパーブレード6の動きを判別して修正領域21を求めたが、例えばワイパーブレード6の場合には黒い物体の像として撮影されることにより、濃度(輝度)の違いによりワイパーブレード6を特定することができる。その場合には、図7に於ける修正領域検出部15に於いて閾値MVr以上の動きベクトルが算出された領域がワイパーブレード6に相当する濃度(輝度)であるか否かを判別し、ワイパーブレード6に相当する濃度(輝度)であると判定され部分を修正領域21になると判定することができる。これにより、修正領域21の判定をより一層確実に行うことができる。
また、ワイパーブレード6の動きは決まっており、例えば上記輝度によりワイパーブレード6であるとされた画素の延在方向の角度が、予め入力されたワイパーブレード6の動きに於いて生じる角度(円弧に於ける法線の傾き)と略一致する場合には、ワイパーブレード6であると判定することができる。このようにして、修正領域21の判定を行ってもよい。
なお、定点観察用の固定カメラの場合には通り過ぎる車両や人物等が移動被写体となる。そのような場合に、例えば降雪時にカメラの近くを通過する雪は、遠方で移動する車両や人物に対してワイパーブレード6と同様に視野妨害物となる。このような降雪時の雪に対しても動きベクトルの修正を同様に行うことができる。処理対象画像に雪が写り、関連画像の該当する部分に雪が写っていない場合には、複数の動き補正画像のメディアン処理により、合成画像は雪が消された画像となり得る。
以上に説明した第1実施形態の開示内容は、後述の第2〜第4実施形態においても適用可能である。
(第2実施形態)
図10は、本開示の第2実施形態に係る監視システム101の概略を示す構成図である。図10に示すように、監視システム101は、屋外の被写体を撮影する複数の監視カメラ(撮影装置)102A〜102Cと、監視カメラ102A〜102Cによって撮影された撮影画像を取得して所定の画像処理を行う画像処理装置103とを備えている。また、監視システム101では、監視カメラ102A〜102C(以下、総称して監視カメラ102という。)は、それぞれネットワーク104を介して画像処理装置103と通信可能に接続されている。ここで、ネットワーク104は、公衆回線や専用回線に基づくインターネット等の広域ネットワークからなるが、これに限らず、監視カメラ102および画像処理装置103は、LAN(Local Area Network)や専用ケーブル等によって相互に通信する構成であってもよい。
監視カメラ102は、公知の構成を有しており、図示しないレンズを通した映像をイメージセンサに結像させることにより、電気信号に変換した映像信号として出力する。監視カメラ102A〜102Cには、それぞれマイク(音声入力装置)105A〜105C(以下、総称してマイク105という。)が設けられており、撮影時に周辺音(ここでは、特に降雨、降雹、雷鳴等の撮影時の気象状況に関する音)を取得することが可能である。監視カメラ102A〜102Cは、屋外の複数の監視エリアに対応してそれぞれ設置される。図10では、3台の監視カメラ102A〜102Cを設けた例を示したが、これに限らず、監視カメラ102やマイク105の数量や配置は種々の変更が可能である。
画像処理装置103は、撮影中の気象状況に基づき監視カメラ102の撮影画像に発生したノイズを画像処理によって除去する機能を備えたPC(Personal Computer)から構成される。詳細は図示しないが、画像処理装置103は、所定の制御プログラム(画像処理プログラム)に基づき各種画像処理や周辺機器の制御などを統括的に実行するCPU(Central Processing Unit)、CPUのワークエリア等として機能するRAM(Random Access Memory)、CPUが実行する制御プログラムやデータを格納するROM(Read Only Memory)、ネットワークを介した通信処理を実行するネットワークインタフェース、入力デバイス、及びHDD(Hard Disk Drive)などが設けられた本体部107と、本体部107で処理された画像等の各種情報を表示する監視用モニタとしての表示部108とを有している。なお、画像処理装置103は、PCに限らず、専用のハードウェアによって構成されてもよい。
図11は、図10中の画像処理装置の機能ブロック図であり、図12は、図11中の気象判定部で用いられる気象状況判定テーブルの一例を示す説明図である。
図11に示すように、画像処理装置103において、画像入力部111には、監視カメラ102からの映像信号がネットワーク104を介してリアルタイムに入力され、蓄積される。一方、音入力部112には、マイク105からの音信号がネットワーク104を介してリアルタイムに入力され、蓄積される。
また、画像処理装置103は、入力された映像信号に基づく時間的に連続する複数の撮影画像(フレーム画像のデータ)において、気象状況に関する画像特徴を抽出する画像特徴抽出部113と、入力された音信号に基づく撮影時の周辺音(音データ)において、気象状況に関する音特徴を抽出する音特徴抽出部114と、撮影画像の撮影時における気象状況を判定する気象状況判定部115と、この気象状況判定部115によって判定された気象状況に応じた画像処理を実行することにより、撮影中の気象状況に起因するノイズを撮影画像から除去する画像鮮明化部116と、表示部108に表示する監視オペレータ向けの画像(監視用画像)を選択する画像選択部117とを有している。画像鮮明化部116は、外乱抑制部に含まれる。又は、画像鮮明化部116は、外乱抑制部そのものであってもよい。
画像特徴抽出部113は、画像入力部111に入力された時間的に連続する複数のフレーム画像(ここでは、RGBフォーマットによる60fpsのフレームレートの画像)から、注目画素を対象にして、R、GおよびBの各チャンネルの画素値を取得し、さらに、それらR値、G値およびB値から輝度(Y値)を算出する。
そして、画像特徴抽出部113は、所定の気象状況(ここでは、降雪、降雨、降雹)に関する画像特徴として、処理対象の撮影画像と時間的に隣接する他の撮影画像との間の各対応画素(対応する位置の各画素)における輝度の瞬時変化(比較的短い時間における画素値の変化)を抽出(検出)する。また、画像特徴抽出部113は、所定の気象状況(ここでは、雷(雷光))に関する画像特徴として、処理対象の撮影画像における画面フラッシュの発生(すなわち、規定値以上の輝度を有する画素の数が撮影画像全域において規定値以上の割合を占める状態)を抽出する。
音特徴抽出部114は、音入力部112に入力された周辺音の強さ(音圧レベル)および周波数を所定のサイクル(例えば、複数の撮影画像の撮影時間に対応するサイクル)で取得し、それら音の強さおよび周波数を所定の気象状況(ここでは、降雨、降雹、雷(雷鳴))に関する音特徴として抽出(検出)する。
気象状況判定部115は、画像特徴抽出部113および音特徴抽出部114からそれぞれ画像特徴(輝度の瞬時変化および画面フラッシュの発生の情報)および音特徴(周辺音の強さおよび周波数の情報)を取得し、それら画像特徴および音特徴に基づき気象状況を仮判定する。
より詳細には、気象状況判定部115は、画像特徴抽出部113から画像特徴として取得した各画素の輝度の瞬時変化の情報に基づき、撮影時の気象状況について降雪、降雨、及び降雹のいずれかの可能性があると仮判定する。つまり、気象状況が降雪、降雨、または降雹である場合には、撮影画像中に雪粒、雨粒、雹粒などの白色またはそれに類する色を有する多数の小領域(点や線等)が生じる(すなわち、互いに離隔された複数の画素に輝度の瞬時変化が起こる)ため、これにより、気象状況判定部115は、降雪、降雨、及び降雹のいずれかの可能性があると仮判定することができる。
本実施形態では、気象状況判定部115は、撮影画像(画素値の変化)に基づく降雪、降雨、及び降雹の区別は行わないが、これに限らず、画素値(R値、G値、B値、及びY値)の大きさや、撮影画像において画素値の変化が生じた領域(画素の配置)に基づき、降雪、降雨、及び降雹を判定してもよい。
また、気象状況判定部115は、画像特徴抽出部113から画像特徴として取得した画面フラッシュ発生の情報に基づき、撮影時の気象状況について雷(雷光)の可能性があると仮判定する。つまり、気象状況が雷(雷光)である場合には、撮影画像中の全域(または予め設定された一定割合以上の広い領域)の画素において雷光による画素値の変化(輝度の上昇)が生じるため、これにより、気象状況判定部115は、気象状況が雷(雷光)であると仮判定することができる。
また、気象状況判定部115は、音特徴抽出部114から音特徴として取得した周辺音の強さおよび周波数の情報(ここでは、所定帯域の音圧レベル)に基づき、撮影時の気象状況について降雨、降雹、及び雷(雷鳴)のいずれかの可能性があると仮判定する。つまり、気象状況が降雨、降雹、及び雷(雷鳴)のいずれかである場合には、地面や家屋などに降る雨粒もしくは雹粒または雷鳴によって、特有の強さや周波数を有する音が発生するため、これにより、気象状況判定部115は、気象状況が降雨、降雹、及び雷(雷鳴)のいずれかであると仮判定することができる。この場合、監視システム101では、予め降雨、降雹、及び雷(雷鳴)の各々関する音の強さおよび周波数の基準値(音特徴に基づき気象状況を判定するための基準範囲)が設定されており、気象状況判定部115は、周辺音の強さおよび周波数が、降雨、降雹、及び雷(雷鳴)のいずれかの基準値と一致する場合には、その基準値に対応する気象状況を撮影時の気象状況と仮判定する。
なお、気象状況判定部115は、周辺音の強さに基づき、降雨、降雹の強さや、雷の発生位置(撮影場所(マイク105)からの距離)を推定することも可能である。また気象状況判定部115は、周辺音の強さおよび周波数の少なくとも一方の時間的変化に基づき、撮影時の気象状況が降雨、降雹、及び雷(雷鳴)のいずれかであると仮判定することもできる。また、気象状況判定部115は、音特徴のない(ほとんど音を発生しない)降雪については仮判定を行わない。
気象状況判定部115は、上述の画像特徴および音特徴に基づく仮判定の結果に基づき、図12に示した気象状況判定テーブルを参照して気象状況を判定(本判定)する。
より詳細には、画像特徴に関し、気象状況判定部115が、撮影時の気象状況について降雪、降雨、及び降雹のいずれかの可能性があると仮判定した場合には、図12中の左側の画像処理結果の欄における判定項目「画素輝度瞬時変化」の結果が「検出」となる。一方、気象状況判定部115が、降雪、降雨、及び降雹のいずれかの可能性があると仮判定しなかった(すなわち、画素における所定の輝度の瞬時変化が生じていない)場合には、判定項目「画素輝度瞬時変化」の結果が「未検出」となる。また、気象状況判定部115が、撮影時の雷(雷光)の可能性があると仮判定した場合には、画像処理結果の欄における判定項目「画面フラッシュ発生」の結果が「検出」となる。一方、気象状況判定部115が、撮影時の雷(雷光)の可能性があると仮判定しなかった(すなわち、画面フラッシュが発生していない)場合には、判定項目「画面フラッシュ発生」の結果が「未検出」となる。
音特徴に関し、気象状況判定部115が、気象状況について降雨の可能性があると仮判定した場合には、図12中の中央の音処理結果の欄における判定項目「降雨特徴音」の結果が「検出」となる。一方、気象状況判定部115が、降雨の可能性があると仮判定しなかった場合には、判定項目「降雨特徴音」の結果が「未検出」となる。また、気象状況判定部115が、気象状況について降雹の可能性があると仮判定した場合には、音処理結果の欄における判定項目「降雹特徴音」の結果が「検出」となる。一方、気象状況判定部115が、降雹の可能性があると仮判定しなかった場合には、判定項目「降雹特徴音」の結果が「未検出」となる。さらに、気象状況判定部115が、気象状況について雷(雷鳴)の可能性があると仮判定した場合には、音処理結果の欄における判定項目「雷鳴特徴音」の結果が「検出」となる。一方、気象状況判定部115が、雷(雷鳴)の可能性があると仮判定しなかった場合には、判定項目「雷鳴特徴音」の結果が「未検出」となる。
気象状況判定部115は、上述の画像処理結果に関する判定項目「画素輝度瞬時変化」または「画面フラッシュ発生」の結果が「未検出」であり、かつ音処理結果に関する判定項目「降雨特徴音」、「降雹特徴音」、または「雷鳴特徴音」の結果が「未検出」の場合、図12中の右側の「気象状況判定結果」の欄を参照し、降雪、降雨、降雹、雷(雷光)のいずれも未検出(撮影画像のノイズを発生し難い晴れや曇り等の気象状況)と判定する。
また、気象状況判定部115は、音処理結果に関する判定項目「降雨特徴音」の結果が「検出」の場合、画像処理結果に関する判定項目「画素輝度瞬時変化」の結果に拘わらず、「気象状況判定結果」の欄を参照し、気象状況を降雨と判定する。これにより、監視システム101では、他の気象状況と比較的判別容易な降雨の音特徴が抽出された場合には、他の気象状況と比較的判別の難しい降雨の画像特徴の影響を受けることなく、降雨に応じた画像処理によってノイズを適切に除去した画像を取得することが可能となる。
また、気象状況判定部115は、判定項目「画素輝度瞬時変化」の結果が「検出」であり、かつ音処理結果に関する判定項目「降雨特徴音」および「降雹特徴音」の結果が「未検出」の場合、「気象状況判定結果」の欄を参照し、気象状況を降雪と判定する。
また、気象状況判定部115は、音処理結果に関する判定項目「降雹特徴音」の結果が「検出」の場合、画像処理結果に関する判定項目「画素輝度瞬時変化」の結果に拘わらず、「気象状況判定結果」の欄を参照し、気象状況を降雹と判定する。これにより、監視システム101では、他の気象状況と比較的判別容易な降雹の音特徴が抽出された場合には、他の気象状況と比較的判別の難しい降雹の画像特徴の影響を受けることなく、降雹に応じた画像処理によってノイズを適切に除去した画像を取得することが可能となる。
また、気象状況判定部115は、音処理結果に関する判定項目「雷鳴特徴音」の結果が「検出」の場合、画像処理結果に関する判定項目「画面フラッシュ発生」の結果に拘わらず、「気象状況判定結果」の欄を参照し、気象状況を雷と判定することができる。ただし、音処理結果に関する判定項目「雷鳴特徴音」の結果が「検出」の場合でも、雷光が生じていない(撮影画像のノイズとならない雷鳴のみが発生している)可能性があるため、気象状況判定部115は、画像処理結果に関する判定項目「画面フラッシュ発生」の結果が「検出」であり、かつ音処理結果に関する判定項目「雷鳴特徴音」の結果が「検出」の場合にのみ気象状況を雷と判定してもよい。
また、気象状況判定部115は、画像処理結果に関する判定項目「画面フラッシュ発生」の結果が「検出」の場合、音処理結果に関する判定項目「雷鳴特徴音」の結果に拘わらず、「気象状況判定結果」の欄を参照し、気象状況を雷と判定することができる。
再び図11を参照して、画像鮮明化部116は、時間軸方向のメディアンフィルタ処理により、撮影画像におけるノイズを除去する。より詳細には、画像鮮明化部116は、処理対象の撮影画像を含む時間的に連続する複数の撮影画像(フレーム画像)について、時間軸に対して対応する画素間で画素値のソート処理を行って、その中央値を取得する。この場合、時間的に連続する複数の撮影画像は、処理対象の撮影画像と時間的に前後する撮影画像(処理対象を基準として時間的に前の撮影画像もしくは時間的に後の撮影画像、またはその両方)である。そして、画像鮮明化部116は、それら各画素の中央値に基づいて気象状況に起因するノイズが除去された撮影画像(以下、「ノイズ除去画像」という。)を生成する。なお、画像鮮明化部116は、メディアンフィルタ処理と共に、画像の鮮明化に寄与する他の公知の画像処理(例えば、階調補正)を実行することが可能である。
画像鮮明化部116は、気象状況判定部115で判定された特定の気象状況(ここでは、降雪、降雨、降雹、及び雷)に応じて複数の異なる画像鮮明化処理(ノイズを除去するための画像処理)を実行する。より詳細には、画像鮮明化部116は、メディアンフィルタ処理において、ソート処理を行う時間的に連続する撮影画像の数を気象状況に応じて変更することができる。例えば、画像鮮明化部116は、降雪の場合にメディアンフィルタ処理におけるソート処理の対象となる時間的に連続する撮影画像の数nよりも、降雨の場合にソート処理の対象となる撮影画像を少ない数m(<n)とすることができる。
なお、画像鮮明化部116は、気象状況判定部115で特定の気象状況(ここでは、降雪、降雨、降雹、及び雷のいずれか)が判定されない場合には、画像鮮明化処理を実行しない。また、画像鮮明化部116は、メディアンフィルタ処理に限らず、他の公知の画像処理によって撮影画像におけるノイズを除去することが可能である。その場合にも、画像鮮明化部116は、気象状況に応じて、降雪、降雨、降雹、及び雷光に起因するノイズの除去に適した公知のノイズ除去方法を複数の公知の方法の中から選択的に実行可能な構成となる。
画像選択部117には、画像入力部111からのノイズ除去前の撮影画像(以下、「入力画像」という。)と、画像鮮明化部116からのノイズ除去画像が入力される。画像処理装置103のオペレータは、画像選択部117の動作モードとして、表示部108に対してノイズ除去画像(監視用画像)を出力する監視モードと、表示部108に対して入力画像(天候確認用画像)を出力する通常モード(天候確認モード)とを選択することが可能である。これにより、オペレータは、監視が必要な場合には、ノイズ除去画像を表示部108に表示して、注目する被写体を良好に確認できる一方、監視が不要な場合には、入力画像を表示部108に表示して、外部(撮影場所)の天候を目視確認することができる。また、オペレータは、画像選択部117の動作モードをリアルタイムに切り替えることにより、画像処理によるノイズ除去が難しい気象状況であっても、入力画像とノイズ除去画像の双方を確認して監視の精度を高めることができるという利点もある。
なお、画像処理装置103では、画像選択部117を省略し、入力画像とノイズ除去画像の双方を表示部108から出力する構成としてもよい。その場合、表示部108では、二画面表示により、入力画像とノイズ除去画像の双方を同時に表示することができる。
図13は、監視システム101による処理の流れを示すフロー図である。監視システム101では、監視カメラ102およびマイク105によって取得された撮影画像および周辺音が、それぞれ画像入力部111および音入力部112に対して適宜入力され、蓄積される(ST101)。そこで、画像特徴抽出部113が、蓄積された撮影画像から画像特徴を抽出する一方、音特徴抽出部114が、蓄積された周辺音から音特徴を抽出する(ST102)。続いて、気象状況判定部115が、抽出された画像特徴および音特徴に基づき、撮影画像の撮影時における気象状況を判定する(ST103)。
次に、画像処理装置103では、画像選択部117の動作モードとして監視モードが選択されている場合(ST104:Yes)、画像鮮明化部116は、ステップST103において特定の気象状況(ここでは、降雪、降雨、降雹、及び雷のいずれか)が判定されたか否かを判定する(ST105)。そこで、特定の気象状況が判定された場合(ST105:Yes)、画像鮮明化部116は、画像鮮明化処理を実行し(ST106)、続いて、画像選択部117は、その画像鮮明化処理により得られたノイズ除去画像(動画または静止画)を表示部108に表示する(ST107)。これにより、画像処理装置103のオペレータは、被写体の監視を容易に行うことができる。ステップST105において、特定の気象状況が判定されていない場合(No)は、入力画像が表示部108に表示される(ST109)。なお、画像処理装置103にはスピーカが設けられており、ステップST107では、ノイズ除去画像の表示と共に、当該ノイズ除去画像に対応する周辺音(例えば、雨音)をスピーカから出力することが可能である。
一方、ステップST104において、監視モードが選択されていない(通常モードが選択されている)場合(ST104:No)、画像鮮明化部116は、特定の気象状況(ここでは、降雪、降雨、降雹、及び雷のいずれか)が判定されたか否かを判定する(ST108)。そこで、特定の気象状況が判定された場合(ST108:Yes)、画像選択部117は、ノイズ除去されていない入力画像(動画または静止画)を表示部108に表示する(ST109)。これにより、画像処理装置103のオペレータは、天候の確認を容易に行うことができる。なお、ST109において、入力画像の代わりに、画像鮮明化部116において画像処理された撮影画像(特定の気象状況以外の気象状況(例えば、晴天)においてノイズ除去された画像)を表示してもよい。
また、ステップST108において、特定の気象状況が判定されていない場合(No)、画像選択部117は、表示部108をOFF状態とする、或いはOFF状態を維持する(ST110)。これにより、オペレータは、通常モードでは、表示部108がON状態にある場合のみ、特定の気象状況が発生したこと(例えば、晴天の後に雨が降り出すなどの天候の変化)を認識することができる。なお、ステップST110では、表示部108をOFF状態とする(或いはOFF状態を維持する)代わりに、予め準備された画像(例えば、コマーシャル映像、テレビ番組映像など)を表示することもできる。監視システム101では、上述のステップST101〜ST110を繰り返し実行することができる。
このように、監視システム101によれば、屋外での撮影において、撮影画像および撮影時の周辺音に基づき簡易な構成により気象状況を判定することができ、また、その判定された気象状況に応じた画像処理によってノイズを適切に除去した画像を取得することが可能となる。
以上に説明した第2実施形態の開示内容は、前述の第1実施形態及び後述の第4実施形態においても適用可能である。特に、第2実施形態での気象状況の判定を、第1実施形態に開示する車載カメラを用いて、第2実施形態での気象状況の判定を行う場合、降雨、降雪時においては、ワイパーが動作していることもあり得る。その場合には、第2実施形態での降雨、降雪のノイズ除去に加えて、第1実施形態でのワイパーの除去も行えば、より適切にノイズを除去した画像を取得することが可能となる。
また、第2実施形態での気象状況の判定をより確実なものとするために、実施形態1でのワイパーの動作状況を、気象状況の判定条件の一つとして、外乱検出条件として加えてもよい。ワイパーが動作しているということは、気象状況が激しい降雨又は降雪の状態にあることが多い、ということを意味し、降雨又は降雪のノイズ除去は必要とされることが多い。逆に、気象状況が降雨又は降雪の状態にあってもワイパーの動作が無い場合は、降雨又は降雪がそれほどひどくないことが多いため、降雨又は降雪のノイズ除去を行わなくてもよい。
すなわち、画像処理装置103では、画像選択部117の動作モードとして監視モードが選択されている場合(ST104:Yes)、画像鮮明化部116は、ステップST103において特定の外乱状況(ここでは、降雪、降雨、降雹、及び雷のいずれかに加えて、動作するワイパー)が検出されたか否かを判定する(ST105)。そこで、特定の外乱が検出された場合(ST105:Yes)、画像鮮明化部116は、画像鮮明化処理を実行し(ST106)、続いて、画像選択部117は、その画像鮮明化処理により得られたノイズ除去画像(動画または静止画)、すなわちワイパーを除去した画像を表示部108に表示する(ST107)。これにより、画像処理装置103のオペレータは、被写体の監視を容易に行うことができる。ステップST105において、特定の外乱が検出されていない場合(No)は、入力画像が表示部108に表示される(ST109)。なお、画像処理装置103にはスピーカが設けられており、ステップST107では、ノイズ除去画像、すなわちワイパーを除去した画像の表示と共に、当該ノイズ除去画像に対応する周辺音(例えば、雨音やワイパーが車の窓を擦る音)をスピーカから出力することが可能である。
一方、ステップST104において、監視モードが選択されていない(通常モードが選択されている)場合(ST104:No)、画像鮮明化部116は、特定の外乱(ここでは、降雪、降雨、降雹、及び雷のいずれかに加えてワイパーの動作)が検出されたか否かを判定する(ST108)。そこで、特定の外乱が検出された場合(ST108:Yes)、画像選択部117は、ノイズ除去されていない入力画像(動画または静止画)、すなわちワイパーが除去されていない画像を表示部108に表示する(ST109)。これにより、画像処理装置103のオペレータは、天候の確認を容易に行うことができる。
さらには、第2実施形態での気象状況の判定を行う場合、強風雨、暴風雨、強風雪または暴風雪時においては、暴風又は強風により画揺れが発生していることもあり得る。その場合には、第2実施形態での降雨、降雪のノイズ除去に加えて、第4実施形態での画揺れ補正も行えば、より適切にノイズを除去した画像を取得することが可能となる。
すなわち、画像処理装置103では、画像選択部117の動作モードとして監視モードが選択されている場合(ST104:Yes)、画像鮮明化部116は、ステップST103において特定の外乱(ここでは、降雪、降雨、降雹、及び雷のいずれかに加えて暴風又は強風)が検出されたか否かを判定する(ST105)。そこで、特定の外乱が検出された場合(ST105:Yes)、画像鮮明化部116は、画像鮮明化処理を実行し(ST106)、続いて、画像選択部117は、その画像鮮明化処理により得られたノイズ除去画像(動画または静止画)、すなわち画揺れ補正を行った画像を表示部108に表示する(ST107)。これにより、画像処理装置103のオペレータは、被写体の監視を容易に行うことができる。ステップST105において、特定の外乱が判定されていない場合(No)は、入力画像が表示部108に表示される(ST109)。なお、画像処理装置103にはスピーカが設けられており、ステップST107では、ノイズ除去画像、すなわち画揺れ補正を行った画像の表示と共に、当該ノイズ除去画像に対応する周辺音(例えば、雨音)をスピーカから出力することが可能である。
一方、ステップST104において、監視モードが選択されていない(通常モードが選択されている)場合(ST104:No)、画像鮮明化部116は、特定の外乱(ここでは、降雪、降雨、降雹、及び雷のいずれかに加えて暴風又は強風)が検出されたか否かを判定する(ST108)。そこで、特定の外乱が検出された場合(ST108:Yes)、画像選択部117は、ノイズ除去されていない入力画像(動画または静止画)、すなわち画揺れ補正を行っていない画像を表示部108に表示する(ST109)。これにより、画像処理装置103のオペレータは、天候の確認を容易に行うことができる。なお、ST109において、入力画像の代わりに、画像鮮明化部116において画像処理された撮影画像(特定の気象状況以外の気象状況(例えば、晴天)においてノイズ除去された画像)を表示してもよい。
さらには、監視モードにおいては、天候状況の判定によるノイズ除去に加えて、上記に説明したワイパーの除去および画揺れ補正を適宜行い、通常モードにおいては、天候状況の判定によるノイズ除去、ワイパーの除去および画揺れ補正のいずれも行わないようにしてもよい。
(第3実施形態)
図14は、本開示の第3実施形態に係る監視システム101の概略を示す構成図である。第3実施形態に係る監視システム101に関し、以下で特に言及しない事項については、第2実施形態の場合と同様として詳細な説明を省略する。図14では、上述の第2実施形態に係る構成要素と同様の構成要素については同一の符号が付されている(後述の図15についても同様)。
図14に示すように、第3実施形態に係る監視システム101は、屋外(住宅の玄関周辺)に設置されたインターフォン子機(撮影装置)131と、住宅の室内に設置されたインターフォン親機132とを備えている。また、監視システム101では、インターフォン子機131およびインターフォン親機132は互いに通信可能に(ここでは、公知の無線通信)接続され、また、インターフォン親機132は、ネットワーク104を介して、携帯端末133と互いに通信可能に接続されている。
インターフォン子機131は、屋外の被写体を撮影するカメラ(撮影装置)141と、撮影時に周辺音(ここでは、特に降雨、降雹、雷鳴等の気象状況に関する音)を取得するマイク(音声入力装置)142とを有している。また、インターフォン親機132は、カメラ141によって撮影された撮影画像を表示する親機モニタ(表示部)151と、マイク142によって取得された周辺音を出力するスピーカ152と、気象状況に関する情報(例えば、カメラ141によって撮影された撮影画像、マイク142によって取得された周辺音、気象状況に関するメッセージなど)の出力先を選択する操作をユーザが行うための表示選択ボタン153とを有している。なお、ここでは、インターフォン子機131およびインターフォン親機132について、主として第3実施形態と関連性の高い構成要素について説明するが、それらには、公知のインターフォン機能を果たすための他の構成要素を設けることができる。
インターフォン親機132において、監視システム101のユーザは、表示選択ボタン153の操作により、インターフォン親機132の動作モードとして、外出モードおよび通常モード(非外出モード)のいずれか選択することができる。通常モードが選択された場合には、気象状況に関する情報の出力先がインターフォン親機132(親機モニタ151)に設定される。一方、外出モードが選択された場合には、気象状況に関する情報の出力先が携帯端末133(携帯端末モニタ155)に設定される。ただし、監視システム101では、カメラ141によって撮影された気象状況に関する情報の出力先をインターフォン親機132および携帯端末133の両方とする更なる動作モードを有する構成も可能である。
携帯端末133は、インターフォン親機132のユーザ(住人等)が携帯する携帯型情報機器である。ここでは、携帯端末133は、タッチパネルからなる携帯端末モニタ155を備えた携帯電話機(スマートフォン)から構成され、また、少なくともインターフォン親機132と通信可能な公知のネットワーク通信機能を有する。ただし、携帯端末133としては、携帯電話機に限らず、同様の機能を有するタブレットやノートパソコン等の他の情報機器を利用することもできる。また、携帯端末133には、インターフォン親機132との間で画像や音を送受信可能とする専用のアプリケーションプログラムがインストールされている。
図15は、図14中のインターフォン親機132の機能ブロック図である。図15に示すように、第3実施形態に係るインターフォン親機132は、図11に示した第2実施形態に係る画像処理装置103と同様の機能を有する画像入力部111、音入力部112、画像特徴抽出部113、音特徴抽出部114、及び気象状況判定部115を備えている。
インターフォン親機132において、表示選択部161には、画像入力部111からの撮影画像(以下、「入力画像」という。)と、気象状況判定部115からの気象状況の判定結果とが入力される。表示選択部161は、気象状況に関する情報の出力先について、表示選択ボタン153の操作によって予め設定された動作モードに基づき、撮影画像の出力先(ここでは、インターフォン親機132の親機モニタ151または携帯端末133の携帯端末モニタ155の一方または両方)を選択する。また、表示選択部161は、気象状況判定部115からの気象状況の判定結果に基づき、親機モニタ151のON状態/OFF状態の切り替えや、画像表示内容の変更などを行うことが可能である。また、気象状況判定部115は、気象状況の判定結果に基づき、予め準備された気象状況に関するメッセージを選択し、気象状況の判定結果の一部として表示選択部161に入力する。
なお、第3実施形態に係るインターフォン親機132において、図11に示した第2実施形態の場合と同様の構成要素(画像鮮明化部116、画像選択部117など)を設けるにより、親機モニタ151または携帯端末モニタ155にノイズ除去画像を表示させる構成も可能である。
図16は、第3実施形態に係る監視システムによる処理の流れを示すフロー図であり、図17は、図16中のステップST208における画像表示の一例を示す説明図である。
第3実施形態に係る監視システム101では、図13に示した第2実施形態におけるステップST101〜ST103、及びST105とそれぞれ同様のステップST201〜ST204が実行される。
ステップST205において、インターフォン親機132の動作モードとして外出モードが選択されている場合(Yes)、表示選択部161は、気象状況に関する情報が存在する旨を携帯端末133に通知する(ST206)。そこで、携帯端末133のユーザが、気象状況に関する情報の取得操作を実行すると、携帯端末モニタ155に気象状況に関する情報が表示される(ST207)。ステップST207では、気象状況に関する情報として、携帯端末モニタ155には、カメラ141によって撮影された撮影画像(動画または静止画)および気象状況に関するメッセージの少なくとも一方が表示される。この場合、気象状況に関するメッセージのみを表示することで、データ量を低減し、表示にかかる時間を低減することができる。また、このとき、マイク142によって取得された周辺音を携帯端末133のスピーカから出力することもできる。なお、携帯端末133のユーザの操作に拘わらず、気象状況に関する情報が携帯端末モニタ155にポップアップされる構成としてもよい。
また、ステップST204において、特定の気象状況が判定されていない場合(No)、画像選択部117は、親機モニタ151をOFF状態とする、或いはOFF状態を維持する(ST209)。これにより、ユーザは、親機モニタ151がON状態にある場合のみ、特定の気象状況が発生したこと(晴天の後に雨が降り出すなどの天候の変化)を認識することができる。
また、ステップST205において、インターフォン親機132の動作モードとして外出モードが選択されていない場合(No)、表示選択部161は、気象状況に関する情報を親機モニタ151に表示する(ST208)。ステップST208では、例えば、図17に示すように、親機モニタ151の画面には、カメラ141によって撮影された撮影画像を表示する画像表示フィールド171と、気象状況に関するメッセージが表示されるメッセージ表示フィールド172とが設定される。監視システム101では、上述のステップST201〜ST209を繰り返し実行することができる。
以上に説明した第3実施形態の開示内容に加えて、前述の第2実施形態ならびに後述の第4実施形態の開示内容も適用可能である。特に、第3実施形態のステップST205における外出モード時に、前述の第2実施形態の監視モードと通常モードの切り替えを行ってもよい。
通常モードの場合、表示選択部161は、上記の第3実施形態におけるST206と同様に、気象状況に関する情報が存在する旨を、携帯端末133に通知する。そこで、携帯端末133のユーザが、気象状況に関する情報の取得操作を実行すると、携帯端末モニタ155には、ST207と同様に、気象状況に関する情報が表示される。
監視モードの場合、表示選択部161は、ST206における気象状況に関する情報が存在する旨の代わりに、インターフォン子機131のカメラ(撮影装置)141が撮影する屋外の被写体又は映像と、撮影時にマイク(音声入力装置)142が取得する周辺音(ここでは、特に降雨、降雹、雷鳴等の気象状況に関する音)を、携帯端末133に通知する(ST206)。そこで、携帯端末133のユーザが、インターフォン子機131のカメラ141が撮影する屋外の被写体又は映像と、マイク(音声入力装置)142が取得する周辺音の取得操作を実行すると、携帯端末モニタ155には、ST207における気象状況に関する情報の代わりに、インターフォン子機131のカメラ141が撮影する屋外の被写体又は映像が表示され、携帯端末が備えるスピーカ又はイヤフォンジャックからは、マイク(音声入力装置)142が取得する周辺音が出力される。
さらには、上記監視モードの場合、強風雨、暴風雨、強風雪または暴風雪時においては、暴風又は強風により画揺れが発生していることもあり得る。その場合には、第2実施形態での降雨、降雪のノイズ除去や、後述の第4実施形態での画揺れ補正も行えば、より適切にノイズを除去した画像を取得し、携帯端末モニタ155に表示することが可能となる。そして、通常モードにおいては、天候状況の判定によるノイズ除去、ワイパーの除去および画揺れ補正のいずれも行わないようにしてもよい。
(第4実施形態)
図18A及び図18Bは、本開示の第4実施形態が適用されたビデオカメラ201による撮影例を示す模式図である。図18Aは、本開示の第4実施形態で、撮影者(図示省略)が手持ちしたビデオカメラ201で前を行く撮影対象の被写体Mを撮影する場面を示す。なお、ビデオカメラ201は、デジタルビデオカメラであり、また手持ちに限られず、頭部(ヘルメット等)に装着して使用されるものであってもよい。図18Bは、本開示の第4実施形態で、ビデオカメラ201で撮影された画像を、ビデオカメラ201を直接的にモニタ202に接続してモニタ202の画面202aに映像として映し出す場合、または、ビデオカメラ201に装着されている記憶媒体(メモリカード等)203の画像データを、パーソナルコンピュータPCにより読み出しかつ画像処理して、パーソナルコンピュータPCに接続されたモニタ202に出力する場合(図の破線の流れ)を示す。いずれの場合も、画面202aに映し出す画像処理は、公知の画像処理であってよく、その説明は省略する。
図19A〜図19Cは、本開示に基づく画像処理によりモニタ202の画面202aに映し出される映像の連続的変化を示す模式図である。なお、本実施形態における画揺れ補正は、公知の電子式により連続する画像の各フレームを用いて処理するものであってよい。また、説明上、画面202aの表示領域とビデオカメラ201による画像204a(204b・204c・204d)の領域とが同一面積の場合として図示するが、同一に限定されるものではなく、ドット数の多い高解像度の画面202aの場合にはその一部に映し出される。
図19Aの実線で囲まれた部分が画面202aの表示範囲である。画面202aには、前のフレーム処理では第1の画像204aが全体に表示されていたものとする。それに対して二点鎖線で囲まれた画面202aと同一面積の部分は、現在のフレーム処理において入力された第2の画像204bである。上記したように画揺れ補正により、第1の画像204aに対して第2の画像204bにおける被写体Mにずれが生じ、図19Aでは、第1の画像204aに対して図において矢印S1で示される左側に第2の画像204bが平行移動した場合の例が示されている。この例では、第2の画像204bの画面202a内に映し出される領域が補正画像としての第2の補正画像205bとなる。
次のフレーム処理による図19Bには、破線で示される第2の画像204bに対して、二点鎖線で示される第3の画像204cが図において矢印S2で示されるように上記と同じく左側にさらに移動した場合の例が示されている。このように画像シフトした第3の画像204cの画面202a内に映し出される領域が第3の補正画像205cとなる。さらに次のフレーム処理による図19Cには、破線で示される第3の画像204cに対して、二点鎖線で示される第4の画像204dが図において矢印S3で示されるように右回転した場合の例が示されており、このように画像シフトした第4の画像204dの画面202a内に映し出される領域が第4の補正画像205dとなる。
画揺れ補正のフレーム処理により、各画像204a〜204dが順に上述したように画像シフトして映し出されることにより、画面202aには、最初の補正画像に相当する第1の画像204aから、第2〜第4の補正画像205b〜205dが表示される領域と、それぞれにおいて各補正画像205b〜205d以外の各補正画像外領域206a〜206cが生じる。
図19Aにおける画面202aには、現在のフレームの補正画像となる第2の補正画像205b以外の領域となる図における右側に新たな補正画像外領域206aが生じる(ドットの網掛け部分)。次のフレーム処理による図19Bにおける画面202aでは、現在のフレームの補正画像となる第3の補正画像205cの図における右側に、かつ前のフレームの補正画像外領域206a(ハッチング部分)とは異なる補正画像外領域206bが生じる(ドットの網掛け部分)。その次のフレーム処理による図19Cでは、現在のフレームの補正画像となる第4の補正画像205dの回転により、前のフレームとなる補正画像外領域206b(ハッチング部分)及びそれより前のフレームとなる補正画像外領域206a(クロスハッチング部分)とは異なる領域に新たな補正画像外領域206cが生じる(ドットの網掛け部分)。なお、以下の説明において、各補正画像外領域206a〜206cにグラデーションを付けた領域外画像を説明する場合に、同一部分を指すため同一の符号を付して説明する。
次に、上述した画像処理のための制御要領について説明する。この画像処理は、例えばコンピュータプログラムにより実現されるが、コンピュータプログラムに限定されるものではない。また、画揺れ補正に関する部分については、公知の種々の電子式画揺れ補正方式における一例(例えばマッチング法)であり、後記する説明に限定されるものではない。
図20は、本開示に基づく画像処理装置208の第1実施例を示すブロック図である。図に示されるように、画像処理装置208は、ビデオカメラ201で撮像された画像(204a〜204d)が入力する画像位置合わせ部211と、同じく画像(204a〜204d)が入力すると共に後記する揺れ補正量計算部214からの揺れ補正量が入力する揺れ画像補正部212と、入力した画像(204a〜204d)の所定のフレーム数分を時系列に保存する入力画像バッファ213と、画像位置合わせ部211で求められた画像位置合わせ情報(フレーム画像間の動き)が入力する揺れ補正量計算部214と、揺れ補正量計算部214で計算された揺れ補正量を保存する補正量バッファ215と、を有する。これらにより画揺れ補正機構が構成される。
また、画像処理装置208には、ビデオカメラ201で撮像された画像(204a〜204d)が入力する画素平均値計算部220と、揺れ補正量計算部214において画像位置合わせ情報及び前のフレームの揺れ補正量に基づいて計算された現在のフレームの揺れ補正量が入力する境界判定部(境界判定手段)216と、境界判定部216において現在のフレームの揺れ補正量に基づいて補正画像以外に新たに生じた補正画像外領域の情報及び画素平均値計算部220で計算された画像(204a〜204d)の全体または一部領域の各画素の濃度平均値が入力する領域外画像濃度変換部(グラデーション設定手段)217と、領域外画像濃度変換部217で補正画像外領域にグラデーションが付けられた領域外画像を保存する領域外画像バッファ(画像保存手段)218と、領域外画像バッファ218からの領域外画像及び揺れ画像補正部212からの補正画像に基づいて画面202aの全体に映し出す合成画像を生成する画像合成部(画像生成手段)219と、が設けられている。画像位置合わせ部211、揺れ画像補正部212、入力画像バッファ213、揺れ補正量計算部214、補正量バッファ215、境界判定部216および領域外画像バッファ218は、補正外領域の設定手段およびその保存手段からなる画像特徴抽出部の一例である。また、画素平均値計算部220、領域外画像濃度変換部217および画像合成部219は、外乱抑制部の一例である。
次に、画像処理装置208の第1実施例による制御要領について図21のフロー図を参照して説明する。なお、入力画像バッファ213には前のフレームの画像である第1の画像204aが保存されており、第2の画像204bが入力されたフレーム処理からの説明とする。
ステップST301では、ビデオカメラ201から直接またはパーソナルコンピュータPCに装着された記憶媒体203から入力された第2の画像204bを、画像位置合わせ部211・揺れ画像補正部212・入力画像バッファ213・画素平均値計算部220にそれぞれ読み込む。入力画像バッファ213では第2の画像204bを保存する。ステップST302では、入力画像バッファ213から第1の画像204aを画像位置合わせ部211に読み込む。
ステップST303では、画像位置合わせ部211において、位置合わせ処理した際の画像位置合わせ情報(平行移動量や回転角度)として例えば被写体Mを含む分割ブロックのローカル動きベクトルを求め、両画像204a・204bの位置合わせを行う(図19A参照)。このローカル動きベクトルは、次のステップST304〜ST307における揺れ補正量ΔWの計算に用いられる。
ステップST304では、補正量バッファ215から前のフレームの揺れ補正量ΔW(n−1)を揺れ補正量計算部214に読み込み、ステップST305では、揺れ補正量計算部214で前のフレームの揺れ補正量ΔW(n−1)に画像位置合わせ部211からの位置合わせ情報を積算して現在のフレームの揺れ補正量ΔW(n)を計算し、ステップST306では、現在のフレームの揺れ補正量ΔW(n)を補正量バッファ215に保存する。
ステップST307では、現在のフレームの揺れ補正量ΔW(n)に基づき、揺れ画像補正部212により揺れ補正した画像の切り出しを行う。この切り出し結果が第2の補正画像205bとなる。ステップST308では、境界判定部216において現在のフレームの揺れ補正量ΔW(n)に基づいて第2の補正画像205bにより画面202aに生じる境界(207a)の位置を決定する。例えば、図19Aに示されるように、画面202aの全範囲に映し出された第1の画像204aに対して、第2の画像204bが図の矢印S1に示されるように平行移動した場合に、揺れ補正量ΔW(n)は平行移動量に対応し、第1の画像204aの縁(図示例では右縁)を揺れ補正量ΔW(n)だけ平行移動させることにより境界207aの位置(座標)を決定することができる。なお、図19Bに対応するフレーム処理では境界207bが、図19Cに対応するフレーム処理では境界207cがそれぞれ同様にして決定される。
ステップST309では、領域外画像濃度変換部217に領域外画像バッファ218から前のフレームの領域外画像を読み出す。なお、図19Aの例では、第1の画像204aが前のフレームの補正画像であり、それに対して画像シフトされた第2の補正画像205bが映し出されることにより、画面202aに第2の補正画像205b以外に新たに生じた第1の補正画像外領域206aが領域外画像となる。図19Aの例では前のフレームの領域外画像は保存されていないため、第1の補正画像外領域206aの各画素に対しては例えば空値が設定される。
次のステップST310では、領域外画像のグラデーションの初期値を変更するか否かを判別する。グラデーションについては、濃度を代表して以下の説明に用いるが、ぼかしを含む濃淡の段階的変化を言うものとする。
ステップST310において、現在のフレーム画像の全体または一部の領域(例えば図19Aの境界207aに使い領域)の濃度平均値を用いてグラデーションの初期値を変更すると判定した場合にはステップST311に進む。なお、初期値を変更しないと判定された場合(予め決定された定数値を用いる場合)にはステップST312に進む。
ステップST311では、画素平均値計算部220で画面202aに映し出される第2の補正画像205bの入力画像である第2の画像204bの濃度平均値を算出する。濃度平均値の算出は、公知の種々のフィルタ処理(例えば平滑化)によるものであってよい。また、カラー画像における画素の濃度平均値には、各画素の濃度の平均値を求めるとよいが、赤・青・緑の各色チャンネル別に平均値をそれぞれ算出してから画素の平均値を求めてもよい。
次に、図22A,Bを参照して領域外画像濃度変換部217によるステップST312における補正画像外領域の濃度の設定要領について説明する。図22Aは図19Aに対応する要部拡大模式図であり、図22Bは図19Bに対応する要部拡大模式図である。図における四角の枠内は画素(P1・P2)に対応する。
図22Aにおける補正画像外領域206aは第2の画像204bの入力時の処理により新たに生じることから、その新たに生じた補正画像外領域206aの画素P1の濃度設定値Ciには初期値C1が設定される(Ci=C1)。
第2の画像204bが入力した場合の図22Bにおける補正画像外領域206bも、第3の画像204cの入力時の画揺れ補正処理により新たに生じることから、その画素P2の濃度設定値Ciには同じく初期値C1が設定される。そして、図22Bにおける補正画像外領域206aは前のフレーム処理のものであり、図22Bにおける現在のフレーム処理により新たに生じた補正画像外領域206bに対して過去に生成されたものであり、また第3の補正画像205cに対して新たに生じた補正画像外領域206bよりも相対的に遠くに位置するようになる。
このように、過去に生成された補正画像外領域206aの画素P1に対する濃度設定値C(n)の設定もステップST312で行われ、その設定要領についても、図22Bを例として説明する。
図22Bでは、第3の補正画像205cが画面202aに映し出されることにより、画面202aに前のフレームの補正画像外領域206aとは異なる領域となる補正画像外領域206bが新たに生じた場合である。新たに生じた補正画像外領域206bの画素P2の濃度設定値C(1)は上述したように初期値C1である(C(1)=C1)。そして、前のフレームの補正画像外領域206aの画素P1の濃度設定値をC(n)とし(n=2,3,......)、領域外画像の濃度の目標値をCoとし、濃度の変化率を係数K(0<K<1)とした場合に、濃度設定値C(n)は、
C(n)=(C(n−1)−Co)*K+Co (式1)
により求められるとよい。
目標値Coは、昼間の撮影に対応した値(明側の濃度)と、夜間の撮影に対応した値(暗側の濃度)とを適宜選択して設定するとよい。その選択方法としては、入力画像の全体または一部の領域に対して濃度の平均値を求め、その濃度平均値との差が大きい(数値化した濃度の差が大きい)方を選択する方法であってよい。
補正画像外領域206aの画素P1では、1回目のフレーム処理に対応する図22Aにおける濃度設定値(C(1))は上記したように初期値C1であるが、2回目のフレーム処理に対応する図22Bにおける濃度設定値C(2)は、上記式1から、
C(2)=(C(1)−Co)*K+Co (式2)
となる。例えば目標値Coを暗側の濃度(0に近い値)とすることにより、C1>Coとなり、C(2)には係数Kが含まれることから、C(2)<C(1)=C1となる。
また、図19Cの場合には、第4の画像204dが回転し、前のフレームの補正画像外領域206b及びそれより前のフレームの補正画像外領域206aの一部が第4の補正画像205dにより所謂上書きされる。そして、画面202aに新たに補正画像外領域206cが生じる。新たに生じた補正画像外領域206cの画素の濃度設定値には初期値C1が設定され、前のフレームの補正画像外領域206b及びそれより前のフレームの補正画像外領域206aの上書きされずに残った部分の画素の濃度設定値には上記式1による処理が施される。この場合には、それより前のフレームの補正画像外領域206aの対応する濃度設定値C(3)は、
C(3)=(C(2)−Co)*K+Co<C(2)
となる。なお、前のフレームの補正画像外領域206bの対応する濃度設定値C(2)は上記式2により求められる値となる。このように、現在のフレームの濃度設定値C(n)は、前のフレームの濃度設定値C(n−1)より小さくなり(C(n)<C(n−1))、処理を繰り返すことにより目標値Coに近付くことになる。
また、ステップST310においてグラデーション初期値を変更すると判定し、ステップST312で補正画像外領域の濃度を設定する場合には、図19Aにおいて新たに生じた第1の補正画像外領域206aの画素の濃度は、ステップST311で算出された上記濃度平均値による濃度である。画面202aの全体において、第2の補正画像205bと略等しい第2の画像204bの濃度平均値からなる濃度が第1の補正画像外領域206aの画素に設定されることから、境界207aが目立たなくなる。
次のステップST313では、濃度設定値C(n)が設定された領域外画像を領域外画像バッファ218に保存する。ステップST314では、画像合成部219で、揺れ画像補正部212からの補正画像と、領域外画像濃度変換部217から濃度設定された領域外画像とを読み込み、それらを合成した出力画像(合成画像)を生成する。図19Aの場合には、領域外画像バッファ218に保存されている領域外画像(206a)と、第2の補正画像205bとを図に示されるように合成することができる。次のステップST315では、画像合成部219から出力された合成画像(205b・206a)をモニタ202に出力する。これにより、モニタ202の画面202aには図19Aに示されるような映像が表示される。
続けて、第3の画像204cが入力されたらステップST301から上述した処理を実行し、以下、同様に繰り返す。フレーム処理の繰り返しに伴って実行されるステップST312における上述した濃度設定により、各補正画像外領域206a〜206cの濃度が、過去に生じたもの程初期値C1から目標値Coに近付く。これにより、例えば図19Cにおいて、画面202aにおける領域外画像(206a〜206c)の部分に、第4の補正画像205dの境界207cから滑らかに変化するグラデーションが付けられ、領域外画像(206a〜206c)によるちらつき等が低減される。
このようにして、動画を再生する際の連続する補正画像205b〜205dの周囲における異なる動きが目立たないようになり、画面202aにおいて補正画像205b〜205dによる注視対象を見る場合に支障が生じないようになる。また、境界207a〜207cが目立たなくなることから、境界207a〜207cを従来例のようにマスクで隠す必要がないため、補正画像205b〜205dの表示領域が狭まることがなく、情報量の低減が抑制される。
次に、第2実施例について、図23のブロック図及び図24のフロー図を参照して以下に説明する。なお、上記第1実施例と同様の部分については同一の符号を付してその詳しい説明を省略する。
図23に示されるように、第1実施例に対して、境界判定部216が省略され、画素平均値計算部220からの濃度平均値及び出力画像バッファ222(後記する)からの合成画像が入力する画像濃度変換部(グラデーション設定手段)221と、画像合成部219から出力される合成画像を保存する出力画像バッファ(画像保存手段)222とが設けられている。画像濃度変換部221には出力画像バッファ222から前のフレームの合成画像が入力する。画像濃度変換部221では、前のフレームの合成画像に対して画素平均値計算部220からの濃度平均値に基づいて濃度を変換し、その濃度変換された濃度変換画像を画像合成部219に出力する点で異なり、他の部分では同様である。画像位置合わせ部211、揺れ画像補正部212、入力画像バッファ213、揺れ補正量計算部214および出力画像バッファ222は、補正外領域の設定手段およびその保存手段からなる画像特徴抽出部の一例である。また、画素平均値計算部220、画像濃度変換部221および画像合成部219は、外乱抑制部の一例である。
この第2実施例について図24のフローを参照して説明する。ステップST301〜ST307は第1実施例と同じである。ステップST307の次のステップST321では、出力画像バッファ222から前のフレームの合成画像を画像濃度変換部221に読み込む。この前のフレームの合成画像は、例えば図19Bのフレーム処理を行う場合には、図19Aの第2の補正画像205bと第1の領域外画像(206a)とからなる画像になる。なお、前のフレームの合成画像は、後記するステップST324で、前のフレームのフレーム処理時に出力画像バッファ222に保存され、図19Aの場合には合成されていないが第1の画像204aが相当する。
次のステップST322では、グラデーションの目標値を変更するか否かを判別する。グラデーションの目標値とは、上記目標値Coに相当する。なお、ステップST322における判別要領は、上記ステップST310と同様であってよい。
グラデーションの目標値を変更する場合に進むステップST323では、上記ステップST311と同じく濃度平均値を算出する。次のステップST324では、画像濃度変換部221において前のフレームの合成画像の濃度を変換する。この濃度変換には、前のフレームの合成画像の各画素に対して、上記式1を用いて濃度設定値C(n)を算出して行うことができる。この場合の初期値C1は前のフレームの合成画像の各画素の濃度であり、各画素の濃度が式1により変換された結果の濃度変換画像を画像合成部219に出力する。
次のステップST325では、画像合成部219において、揺れ画像補正部212からの補正画像と上記濃度が変換された前のフレームの合成画像とに基づいて現在のフレームの合成画像を生成する。現在のフレームの合成画像は、上記と同様に図19Bのフレーム処理を行う場合には、第3の補正画像205cと第1及び第2の領域外画像(206a・206b)とからなる。
次のステップST326では、ステップST325で生成された合成画像を出力画像バッファ222に保存し、ステップST327では、画像合成部219から出力された合成画像をモニタ202に出力する。そして、上記実施例と同様に本フローを繰り返す。
例えば、図19Bの例においては、揺れ画像補正部212から第3の補正画像205cが入力し、画像濃度変換部221から前のフレームの合成画像(205b・206a)の濃度変換された画像が入力し、それらから現在のフレームの合成画像(205c・206a・206b)が生成される。この第2実施例では、各画素を式1により濃度変換しており、上記第1実施例のように各領域外画像(206a・206b)がそれぞれ単一の濃度で塗りつぶされたものではなく、各画像204a・204bの対応する部分の形状が映し出される。その際に、第3の補正画像205cに対して第2の領域外画像(206b)の濃度コントラストが例えば低減し、第1の領域外画像(206a)の濃度コントラストはさらに低減して映し出されることにより、第3の補正画像205c以外の領域外画像(206a・206b)の部分の絵柄が薄くなるため、過去の画像204a・204bのため映し出される部分に時間遅れが生じるようになっても、画面202aの全体において大きな違和感が生じることはない。また、画面202aの全体に撮影された部分が映し出されるため、画面202aの周囲が枠のようにマスクされて中央部分の小さな領域に映し出される従来例のものにおける画像の狭小化となるイメージが払拭される。
次に、第3実施例について、図25のブロック図及び図26のフロー図を参照して以下に説明する。なお、上記第1実施例と同様の部分については同一の符号を付してその詳しい説明を省略する。
図25に示されるように、第1実施例に対して、境界判定部216及び画素平均値計算部220が省略され、画像合成部219から出力される合成画像を保存する出力画像バッファ(画像保存手段)222と、出力画像バッファ222から前のフレームの合成画像が入力する画像ぼかし部(グラデーション設定手段)223とが設けられていると共に、画像ぼかし部223から、ぼかし処理が行われた前のフレームの合成画像を画像合成部219に出力する点で異なり、他の部分では同様である。画像位置合わせ部211、揺れ画像補正部212、入力画像バッファ213、揺れ補正量計算部214および出力画像バッファ222は、補正外領域の設定手段およびその保存手段からなる画像特徴抽出部の一例である。また、画像ぼかし部223および画像合成部219は、外乱抑制部の一例である。
この第3実施例について図26のフローを参照して説明する。ステップST301〜ST307は第1実施例と同じであり、ステップST331もステップST321と同じである。ステップST331の次のステップST332では、画像ぼかし部223により、出力画像バッファ222から読み込んだ前のフレームの画像に対してぼかし処理を行う。ぼかし処理としては、空間フィルタ(例えば空間平滑化フィルタ)による処理であってよい。また、ステップST333〜ST335は、ステップST324〜ST327と同様である。そして、上記実施例と同様に本フローを繰り返す。
このように、前のフレームの画像に対してぼかし処理を施し、そのぼかし画像と、現在のフレームの画像シフトされた補正画像とを合成することにより、例えば図19Aでは、第1の領域外画像(206a)にはぼかし処理された第1の画像204aの対応する部分が該当する。これにより、第1の領域外画像(206a)には、第1の画像204aにおいて明瞭に映し出された部分が、ピントが合わずにぼけた感じとなり、第2の補正画像205bに対して遅れた映像となる部分の明瞭さが低下する。
次のフレーム処理における図19Bでは、第1の領域外画像206aに対してさらにぼかし処理が行われる。新規の第2の領域外画像206bに対するぼかし処理よりも大きくぼかし処理されるため、第2の補正画像205bに対して領域外となる第1及び第2の領域外画像206a・206bにおいて、過去に生成された方(第1の領域外画像206a)程ぼかしが大きくなるグラデーションが生成される。図19Cにおいても同様となる。このようにして、上記各実施例と同様の効果を奏し得ると共に、画揺れ補正によっても画面202aの全体に多少の揺れが生じた場合でも、画面全体の映像に不自然さが生じないようになり、見易い動画が得られる。
以上に説明した第4実施形態の開示内容は、前述の第1〜第3実施形態においても適用可能である。特に、第1実施形態に開示する車載カメラにおいては、車の振動による画揺れが発生するので、第4実施形態に開示する画揺れ補正を、車載カメラの画像を処理する画像処理装置に適用してもよい。また、第2〜第3実施形態に開示する気象状況の判定においては、風や地震などによりカメラが振動し画揺れが発生するので、第4実施形態に開示する画揺れ補正を、第2〜第3実施形態に開示するカメラの画像を処理する画像処理装置に適用してもよい。
課題を解決するためになされた第1の開示は、時系列の複数の画像に外乱として出現する視野妨害物を除去するための画像処理装置であって、時系列に並ぶ複数の画像を保存する画像保存手段(10)と、複数の画像に於いて、所定の処理対象画像を基準にして、該処理対象画像に近接する複数の関連画像のそれぞれについての動きベクトルを求める動きベクトル算出手段(12)と、複数の関連画像を、動きベクトルにより動き補正する画像動き補正手段(13)と、動き補正された複数の関連画像及び処理対象画像の画素値を平均化処理して、処理対象画像に対応する合成画像を生成する合成画像生成手段(14)と、を有する構成とする。
これによると、動き補正された関連画像と処理対象画像との画素値を平均化処理(例えばメディアンフィルタを用いた処理)して合成画像を生成することにより、処理対象画像に外乱として出現する視野妨害物の画素が用いられなくなり、合成画像から視野妨害物を消去することができると共に、外乱とはならない他の移動被写体に対しては、関連画像が動き補正されていることより、残像やぶれ、または一部が消失することを抑制し得る。
また、第2の開示は、第1の開示に於いて、処理対象画像から、動きベクトルが閾値以上となる修正領域を検出する修正領域検出手段(15)と、修正領域に閾値未満となる修正動きベクトルを設定する動きベクトル修正手段(16)と、を有する構成とする。
これによると、閾値以上となる動きベクトルが算出された修正領域に対して、閾値未満となる動きベクトルを設定することから、画像の動き補正に於いて修正領域の大きな動きベクトルによる画像の乱れが生じることを抑制し得る。
また、第3の開示は、第2の開示に於いて、動きベクトル修正手段は、処理対象画像に対する他の関連画像の修正領域に対応する部分の動きベクトルに基づいて修正動きベクトルを設定する。
これによると、修正領域の動きベクトルが、他の関連画像に於ける動きベクトルにより設定されるため、修正領域を関連画像の動きベクトルに合わせることができ、修正領域に関連画像に於ける対応する画素が読み込まれた場合に、修正領域に時間差が生じることがない画像を生成することができる。
また、第4の開示は、第2の開示に於いて、修正動きベクトルは、処理対象画像に対する他の関連画像の修正領域に対応する部分の動きベクトルのメディアン値である構成とする。
これによると、公知のメディアンフィルタを用いることができ、処理を容易に行うことができる。
また、第5の開示は、第2の開示に於いて、動きベクトル修正手段は、修正領域の周囲の動きベクトルに基づいて修正動きベクトルを設定する。
これによると、修正領域の動きベクトルを、周囲の閾値未満となる動きベクトルに合わせることができ、周囲の動きとの間で違和感のない画像が得られる。
また、第6の開示は、第2の開示に於いて、動きベクトル修正手段は、修正動きベクトルを0に設定する。
これによると、修正領域の動きベクトルの設定を単純化することができ、処理を高速化し得る。
また、第7の開示は、第2乃至第5のいずれかの開示に於いて、複数の画像が、自動車に搭載された車載カメラにより撮影された画像であり、閾値が、ワイパー装置が作動した際のワイパーブレードの動きを検出するように設定されている構成とする。
これによると、ワイパー装置の作動時にワイパーブレードの動きが画像に於ける景色に対してノイズとなるが、その動きを検出して修正領域とすることから、ワイパーブレードが消去された景色からなる合成画像を生成することができる。
また、第8の開示は、時系列の複数の画像に外乱として出現する視野妨害物を除去するための画像処理方法であって、時系列に並ぶ複数の画像を保存する過程と、複数の画像に於いて、所定の処理対象画像を基準にして、該処理対象画像に近接する複数の関連画像のそれぞれについての動きベクトルを求める過程と、複数の関連画像を、動きベクトルにより動き補正する過程と、動き補正された複数の関連画像及び処理対象画像の画素値を平均化処理して、処理対象画像に対応する合成画像を生成する過程と、を有する構成とする。これによると、第1の開示と同様の効果を奏し得る。
また、第9の開示は、撮影中の気象状況に起因するノイズを画像処理によって撮影画像から除去する画像処理装置であって、時間的に連続する複数の撮影画像が入力される画像入力部と、撮影画像の撮影時に取得された周辺音が入力される音入力部と、撮影画像における気象状況に関する画像特徴を抽出する画像特徴抽出部と、周辺音における気象状況に関する音特徴を抽出する音特徴抽出部と、画像特徴および音特徴に基づき、撮影画像の撮影時の気象状況を判定する気象状況判定部と、気象状況判定部によって判定された気象状況に応じた画像処理を実行することにより、撮影画像におけるノイズを除去する画像鮮明化部とを備えたことを特徴とする。
この第9の開示に係る画像処理装置によれば、屋外での撮影において、撮影画像および撮影時の周辺音に基づき簡易な構成により気象状況を判定できると共に、その判定された気象状況に応じた画像処理によってノイズを適切に除去した画像を取得することが可能となる。
また、第10の開示では、上記第9の開示において、音特徴抽出部は、周辺音における音の強さおよび周波数の少なくとも一方を音特徴として抽出することを特徴とする。
この第10の開示に係る画像処理装置によれば、周辺音における音の強さおよび周波数の少なくとも一方に基づき、簡易かつ高精度に気象状況を判定することができる。
また、第11の開示では、上記第10の開示において、気象状況判定部は、音特徴抽出部において降雨の音特徴が抽出された場合、画像特徴に拘わらず、気象状況を降雨と判定することを特徴とする。
この第11の開示に係る画像処理装置によれば、他の気象状況と比較的判別容易な降雨の音特徴が抽出された場合には、他の気象状況と比較的判別の難しい降雨の画像特徴の影響を受けることなく、降雨に応じた画像処理によってノイズを適切に除去した画像を取得することが可能となる。
また、第12の開示では、上記第10または第11の開示において、気象状況判定部は、音特徴抽出部において降雹の音特徴が抽出された場合、画像特徴に拘わらず、気象状況を降雹と判定することを特徴とする。
この第12の開示に係る画像処理装置によれば、他の気象状況と比較的判別容易な降雹の音特徴が抽出された場合には、他の気象状況と比較的判別の難しい降雹の画像特徴の影響を受けることなく、降雹に応じた画像処理によってノイズを適切に除去した画像を取得することが可能となる。
また、第13の開示では、上記第9から第12の開示のいずれかにおいて、画像特徴抽出部は、撮影画像における画素の輝度変化を画像特徴として抽出し、気象状況判定部は、輝度変化に基づき気象状況における雷を判定することを特徴とする。
この第13の開示に係る画像処理装置によれば、撮影画像における輝度変化に基づき、簡易かつ高精度に雷の発生(雷光)を判定することができる。
また、第14の開示では、上記第13の開示において、気象状況判定部は、画像特徴抽出部において雷光の画像特徴が抽出された場合、音特徴に拘わらず、気象状況を雷と判定することを特徴とする。
この第14の開示に係る画像処理装置によれば、他の気象状況と比較的判別容易な雷光の画像特徴が抽出された場合には、雷鳴の音特徴の影響(特に、画像のノイズに無関係な雷光を伴わない雷鳴の影響)を受けることなく、雷(雷光)に応じた画像処理によってノイズを適切に除去した画像を取得することが可能となる。
また、第15の開示では、上記第9から第14の開示のいずれかにおいて、画像鮮明化部は、気象状況判定部によって判定された気象状況が特定の気象状況以外である場合、画像処理を実行しないことを特徴とする。
この第15の開示に係る画像処理装置によれば、特定の気象状況(例えば、降雨、降雪、降雹、雷など)以外の場合(すなわち、画像のノイズを発生しない気象状況である場合)には、画像処理を中止するため、不要な画像処理の実行による撮影画像の劣化を防止することができる。
また、第16の開示は、上記第9から第15の開示のいずれかに係る画像処理装置と、画像入力部に対して撮影画像を入力する撮影装置と、音入力部に対して周辺音を入力する音声入力装置とを備えた監視システムである。
また、第17の開示は、撮影中の気象状況に起因するノイズを画像処理によって撮影画像から除去する画像処理方法であって、時間的に連続する複数の撮影画像が入力される画像入力ステップと、撮影画像の撮影時に取得された周辺音が入力される音入力ステップと、撮影画像における気象状況に関する画像特徴を抽出する画像特徴抽出ステップと、周辺音における気象状況に関する音特徴を抽出する音特徴抽出ステップと、画像特徴および音特徴に基づき、撮影画像の撮影時の気象状況を判定する気象状況判定ステップと、気象状況判定ステップによって判定された気象状況に応じた画像処理を実行することにより、撮影画像におけるノイズを除去する画像鮮明化ステップとを有することを特徴とする。
また、第18の開示は、連続して撮影された画像を画揺れ補正により画像シフトして画面に映し出す補正画像を生成する画像処理装置であって、画面に映し出されていた前のフレームの補正画像の領域に対し、画揺れ補正により現在のフレームの補正画像が映し出されない部分が生じた場合には当該部分を補正画像外領域に設定する領域外設定手段と、補正画像外領域を順次保存する保存手段と、複数の補正画像外領域にグラデーションを付けるグラデーション設定手段と、複数の補正画像外領域にグラデーションが付けられた領域外画像と補正画像とからなる合成画像を画面に映し出すべく生成する画像生成手段と、を有する構成とする。
これによると、撮影された画像を画揺れ補正した補正画像を受光素子の解像度の大きさで画面に映し出すことにより、補正画像の解像度を保持すると共に、画揺れ補正の画像シフトにより補正画像がずれて、画面に映し出されない部分からなる補正画像外領域が生じても、その補正画像外領域にグラデーションを付けることにより、補正画像外領域が目立たなくなり、画面に映し出される補正画像外領域の不自然さが解消され、画面における表示効率の低下を抑制し得る。
また、第19の開示は、第18の開示において、保存手段は、合成画像を保存し、グラデーション設定手段は、画像保存手段に保存された前のフレームの合成画像にぼかし処理を行い、当該ぼかし処理が行われたぼかし画像を画像生成手段に出力し、画像生成手段は、領域外画像にぼかし画像の対応する部分を用いる構成とする。
これによると、領域外画像の補正画像に近い領域は補正画像とそれ程変わらないぼかし画像が映し出されることから、画面の一部に補正画像のみが映し出されるものに対して画面の広い範囲に画像が映し出されるようなると共に、前のフレームの補正画像外領域が残って映し出される場合にはぼかしの度合が増大されたものとなるため、前のフレームの映像による時間差に伴う不自然さが抑制される。
また、第20の開示は、第18の開示において、グラデーションの変化は、補正画像の平均濃度に応じて明暗いずれかに変えていく構成とする。
これによると、昼間に撮影した場合には補正画像の全体が明るいことから、その場合には領域外画像の過去となる領域程暗くなるように変化させ、反対に夜間に撮影した場合には補正画像の全体が暗いことから、その場合には領域外画像の過去となる領域程明るくなるように変化させることにより、補正画像に対して領域外画像での明暗の急激な変化が生じることが無く、映像の不自然さが生じないようにし得る。
また、第21の開示は、第20の開示において、平均濃度が、補正画像において略一定濃度で存在する所定領域の濃度の平均値である構成とする。
これによると、補正画像に例えば青空のように略一定の濃度で映っている所定領域がある場合に、その所定領域の平均濃度を補正画像の平均濃度とすることにより、補正画像全体に対して平均濃度を求めることなくグラデーションを変えていく濃度を決定することができるため、簡単な処理でグラデーションを付けることができる。
また、第22の開示は、第20または第21の開示において、領域外画像のグラデーションの初期値または目標値が、平均濃度である構成とする。
これによると、現在のフレームの補正画像により生じた領域外画像のグラデーションの初期値または目標値が補正画像の平均濃度であることから、補正画像との境界が目立たなくなり、マスクで隠す必要がないため、補正画像の表示領域が狭まることがなく、情報量の低減が抑制される。
また、第23の開示は、連続して撮影された画像を画揺れ補正により画像シフトして画面に映し出す補正画像を生成する画像処理方法であって、画面に映し出されていた前のフレームの補正画像の領域に対し、画揺れ補正により現在のフレームの補正画像が映し出されない部分が生じた場合には当該部分を補正画像外領域に設定する過程と、補正画像外領域を順次保存する過程と、複数の補正画像外領域にグラデーションを付ける過程と、補正画像と補正画像の領域外になる領域外画像とからなる合成画像を画面に映し出すべく生成する過程と、複数の補正画像外領域にグラデーションが付けられた領域外画像と補正画像とからなる合成画像を画面に映し出すべく生成する過程と、を有する構成とする。これによると、第18の開示と同様の効果を奏し得る。
以上、本開示を、その好適実施形態の実施例について説明したが、当業者であれば容易に理解できるように、本開示はこのような実施例に限定されるものではなく、本開示の趣旨を逸脱しない範囲で適宜変更可能である。上記実施形態では視野妨害物としてワイパーブレード6について説明したが、ワイパーブレード6に限定されるものではなく、撮影したい景色に対して異なる動きをする視野妨害物を消去する場合に有効であり、例えば降雨時の雨や、カメラのレンズ面を流れ落ちる水滴等を対象とすることができる。また、例えば、本実施形態による気象状況の判定は、撮像画像のノイズ除去を目的とするものに限らず、単に屋外の天候を自動で判定する目的に利用ことも可能である。更に、例えば、上記実施形態では、補正画像に被写体Mが略中央に位置するような画揺れ補正の例について説明したが、被写体を特定しないで画揺れ補正する場合にも適用し得る。その場合には、画面202aの全体に対する補正画像の表示範囲が所定の割合以下になった場合には一旦リセットし、その時に入力した画像を画面202aに表示し、上述した画像処理をし直すようにしてもよい。また、連続して入力する画像に対して毎回処理しなくてもよく、任意の回数おきに処理するようにしてもよい。また更に、上記実施形態に示した構成要素は必ずしも全てが必須なものではなく、本開示の趣旨を逸脱しない限りに於いて適宜取捨選択することが可能である。
本開示にかかる画像処理装置及び画像処理方法は、景色の移動よりも高速に動く視野妨害物によるノイズのない映像を得ることができ、車載カメラや監視用カメラ等に於いて有用である。また、本開示に係る画像処理装置およびこれを備えた監視システムならびに画像処理方法は、屋外での撮影において、簡易な構成より気象状況を判定できると共に、その判定された気象状況に応じた画像処理によってノイズを適切に除去した画像を取得可能とし、撮影中の降雪などの気象状況に起因するノイズ(視野妨害物)を画像処理によって撮影画像から除去する画像処理装置およびこれを備えた監視システムならびに画像処理方法などとして有用である。更に、本開示にかかる画像処理装置は、電子式画揺れ補正による補正画像を画面に映し出す場合の映像に不自然さが生じないようにし得るため、移動しながら撮影するビデオカメラ等として有用である。
1 自動車
4a 画面
5 画像処理装置
6 ワイパーブレード(視野妨害物)
10 入力画像バッファ(画像保存手段)
11 画像設定部
12 動きベクトル計算部(動きベクトル算出手段)
13 フレーム動き補正部(画像動き補正手段)
14 画像合成部(合成画像生成手段)
15 修正領域検出部(修正領域検出手段)
16 修正領域修正部(動きベクトル修正手段)
101 監視システム
102 監視カメラ(撮影装置)
103 画像処理装置
105 マイク(音声入力装置)
111 画像入力部
112 音入力部
113 画像特徴抽出部
114 音特徴抽出部
115 気象状況判定部
116 画像鮮明化部
117 画像選択部
131 インターフォン子機
132 インターフォン親機(画像処理装置)
133 携帯端末
141 カメラ(撮影装置)
142 マイク(音声入力装置)
151 親機モニタ
153 表示選択ボタン
155 携帯端末モニタ
161 表示選択部
201 ビデオカメラ
202a 画面
204a〜204d 第1〜第4の画像
205a〜205d 第1〜第4の補正画像
206a〜206c 第1〜第3の補正画像外領域(領域外画像)
207a〜207c 境界
208 画像処理装置
211 画像位置合わせ部
212 揺れ画像補正部
213 入力画像バッファ
214 揺れ補正量計算部
215 補正量バッファ
216 境界判定部(境界判定手段)
217 領域外画像濃度変換部(グラデーション設定手段)
218 領域外画像バッファ(画像保存手段)
219 画像合成部(画像合成手段)
220 画素平均値計算部
221 画像濃度変換部(グラデーション設定手段)
222 出力画像バッファ(画像保存手段)
223 画像ぼかし部(グラデーション設定手段)

Claims (17)

  1. 撮影中の外乱に起因するノイズを画像処理によって撮影画像から除去する画像処理装置であって、
    時間的に連続する複数の撮影画像が入力される画像入力部と、
    前記撮影画像における外乱に関する特徴を抽出する画像特徴抽出部と、
    前記外乱に関する特徴に応じて、前記撮影画像に対する前記外乱の影響を抑制する外乱抑制部と、を備え、
    前記外乱は時系列の複数の撮影画像に出現する視野妨害物であり、
    前記画像特徴抽出部は、
    時系列に並ぶ前記複数の撮影画像を保存する画像保存手段と、
    前記複数の撮影画像に於いて、所定の処理対象画像を基準にして、該処理対象画像に近接する複数の関連画像のそれぞれについての動きベクトルを求める動きベクトル算出手段と、を備え、
    前記外乱抑制部は、
    前記複数の関連画像を、前記動きベクトルにより動き補正する画像動き補正手段と、
    前記動き補正された前記複数の関連画像及び前記処理対象画像の画素値を平均化処理して、前記処理対象画像に対応する合成画像を生成する合成画像生成手段と、
    前記処理対象画像から、前記動きベクトルが閾値以上となる修正領域を検出する修正領域検出手段と、
    前記修正領域に前記閾値未満となる修正動きベクトルを設定する動きベクトル修正手段と、を備える画像処理装置。
  2. 前記動きベクトル修正手段は、前記処理対象画像に対する他の前記関連画像の前記修正領域に対応する部分の動きベクトルに基づいて前記修正動きベクトルを設定する請求項に記載の画像処理装置。
  3. 前記修正動きベクトルは、前記処理対象画像に対する他の前記関連画像の前記修正領域に対応する部分の動きベクトルのメディアン値である請求項に記載の画像処理装置。
  4. 前記動きベクトル修正手段は、前記修正領域の周囲の動きベクトルに基づいて前記修正動きベクトルを設定する請求項に記載の画像処理装置。
  5. 前記動きベクトル修正手段は、前記修正動きベクトルを0に設定する請求項に記載の画像処理装置。
  6. 前記複数の画像が、自動車に搭載された車載カメラにより撮影された画像であり、
    前記閾値が、ワイパー装置が作動した際のワイパーブレードの動きを検出するように設定される請求項に記載の画像処理装置。
  7. 請求項に記載の画像処理装置であって、
    前記ワイパー装置が作動した際のワイパーブレードの画像除去処理を実行する監視モードと、前記ワイパー装置が作動した際のワイパーブレードの画像除去処理を非実行とする通常モードと、を切り替えるモード切り替え手段と、をさらに備える、画像処理装置。
  8. 連続して撮影された画像に外乱として発生する画揺れを画像シフトして画面に映し出す補正画像を生成する画像処理装置であって、
    時間的に連続して撮像された複数の撮影画像が入力される画像入力部と、
    前記撮影画像における外乱に関する特徴を抽出する画像特徴抽出部と、
    前記外乱に関する特徴に応じて、前記撮影画像に対する前記外乱の影響を抑制する外乱抑制部と、を備え、
    前記画像特徴抽出部は、
    前記画面に映し出されていた前のフレームの前記補正画像の領域に対し、前記画揺れ補正により現在のフレームの前記補正画像が映し出されない部分が生じた場合には当該部分を補正画像外領域に設定する領域外設定手段と、
    前記補正画像外領域を順次保存する保存手段と、を備え、
    前記外乱抑制部は、
    複数の前記補正画像外領域にグラデーションを付けるグラデーション設定手段と、
    前記複数の補正画像外領域に前記グラデーションが付けられた領域外画像と前記補正画像とからなる合成画像を前記画面に映し出すべく生成する画像生成手段と、を備えて画揺れ補正を実行する画像処理装置。
  9. 前記保存手段は、前記合成画像を保存し、
    前記グラデーション設定手段は、前記画像保存手段に保存された前のフレームの前記合成画像にぼかし処理を行い、当該ぼかし処理が行われたぼかし画像を前記画像生成手段に出力し、
    前記画像生成手段は、前記領域外画像に前記ぼかし画像の対応する部分を用いることを特徴とする請求項に記載の画像処理装置。
  10. 前記グラデーションの変化は、前記補正画像の平均濃度に応じて明暗いずれかに変えていくことを特徴とする請求項に記載の画像処理装置。
  11. 前記平均濃度が、前記補正画像において略一定濃度で存在する所定領域の濃度の平均値であることを特徴とする請求項10に記載の画像処理装置。
  12. 前記領域外画像の前記グラデーションの初期値または目標値が、前記平均濃度であることを特徴とする請求項10に記載の画像処理装置。
  13. 請求項8〜12のいずれかに記載の画像処理装置であって、
    前記画揺れ補正を実行する監視モードと、前記画揺れ補正を非実行とする通常モードと、を切り替えるモード切り替え手段と、をさらに備える、画像処理装置。
  14. 請求項1〜13のいずれかに記載の画像処理装置と、前記画像入力部に対して前記撮影画像を入力する撮影装置と、音入力部に対して周辺音を入力する音声入力装置とを備えたことを特徴とする監視システム。
  15. 撮影中の外乱に起因するノイズを画像処理によって撮影画像から除去する画像処理方法であって、
    前記外乱は時系列の複数の画像に出現する視野妨害物であり、
    時間的に連続する複数の撮影画像が入力される画像入力ステップと、
    前記撮影画像における外乱に関する画像特徴を抽出する画像特徴抽出ステップと、
    前記外乱に関する特徴に応じて、前記撮影画像に対する前記外乱の影響を抑制する外乱抑制ステップと、
    有し、
    前記画像特徴抽出ステップは、
    時系列に並ぶ複数の画像を保存する過程と、
    前記複数の画像に於いて、所定の処理対象画像を基準にして、該処理対象画像に近接する複数の関連画像のそれぞれについての動きベクトルを求める過程と、を有し、
    前記外乱抑制ステップは、
    前記複数の関連画像を、前記動きベクトルにより動き補正する過程と、
    前記動き補正された前記複数の関連画像及び前記処理対象画像の画素値を平均化処理して、前記処理対象画像に対応する合成画像を生成する過程と、
    前記処理対象画像から、前記動きベクトルが閾値以上となる修正領域を検出する過程と、
    前記修正領域に前記閾値未満となる修正動きベクトルを設定する過程と、を有する画像処理方法。
  16. 連続して撮影された画像に外乱として発生する画揺れを画像シフトして画面に映し出す補正画像を生成する画像処理方法であって、
    時間的に連続する複数の撮影画像が入力される画像入力ステップと、
    前記撮影画像における外乱に関する画像特徴を抽出する画像特徴抽出ステップと、
    前記外乱に関する特徴に応じて、前記撮影画像に対する前記外乱の影響を抑制する外乱抑制ステップと、を有し、
    前記画像特徴抽出ステップは、
    前記画面に映し出されていた前のフレームの前記補正画像の領域に対し、前記画揺れ補正により現在のフレームの前記補正画像が映し出されない部分が生じた場合には当該部分を補正画像外領域に設定する過程と、
    前記補正画像外領域を順次保存する過程と、を有し、
    前記外乱抑制過程は、
    複数の前記補正画像外領域にグラデーションを付ける過程と、
    前記補正画像と前記補正画像の領域外になる領域外画像とからなる合成画像を前記画面に映し出すべく生成する過程と、
    前記複数の補正画像外領域に前記グラデーションが付けられた領域外画像と前記補正画像とからなる合成画像を前記画面に映し出すべく生成する過程と、を有する画像処理方法。
  17. 請求項15又は16に記載の画像処理方法であって、
    前記外乱に関する特徴に応じた画像処理を実行する監視モードと、前記外乱に関する特徴に応じた画像処理を非実行とする通常モードと、を切り替えるモード切替ステップと、をさらに有する、画像処理方法。
JP2017507359A 2015-03-25 2016-02-17 画像処理装置およびこれを備えた監視システムならびに画像処理方法 Active JP6635384B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
JP2015062576 2015-03-25
JP2015062570 2015-03-25
JP2015062576 2015-03-25
JP2015062570 2015-03-25
JP2015065649 2015-03-27
JP2015065649 2015-03-27
PCT/JP2016/000812 WO2016152007A1 (ja) 2015-03-25 2016-02-17 画像処理装置およびこれを備えた監視システムならびに画像処理方法

Publications (2)

Publication Number Publication Date
JPWO2016152007A1 JPWO2016152007A1 (ja) 2018-01-11
JP6635384B2 true JP6635384B2 (ja) 2020-01-22

Family

ID=56977208

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017507359A Active JP6635384B2 (ja) 2015-03-25 2016-02-17 画像処理装置およびこれを備えた監視システムならびに画像処理方法

Country Status (4)

Country Link
US (1) US10297014B2 (ja)
JP (1) JP6635384B2 (ja)
CN (1) CN107431753B (ja)
WO (1) WO2016152007A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230042767A (ko) * 2021-09-23 2023-03-30 주식회사 토비스 진동 보정 기능을 제공하는 디스플레이 장치 및 그의 제어 방법

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3073449A1 (en) * 2015-03-23 2016-09-28 Continental Automotive GmbH Apparatus and method for recording data associated with a vehicle
US11400860B2 (en) * 2016-10-06 2022-08-02 SMR Patents S.à.r.l. CMS systems and processing methods for vehicles
US10332243B2 (en) * 2016-12-12 2019-06-25 International Business Machines Corporation Tampering detection for digital images
JP7037117B2 (ja) * 2018-04-16 2022-03-16 トヨタ自動車株式会社 運転支援装置
CN108922528B (zh) * 2018-06-29 2020-10-23 百度在线网络技术(北京)有限公司 用于处理语音的方法和装置
US11049300B2 (en) * 2018-09-04 2021-06-29 Dish Network L.L.C. Devices, systems and methods for mini-banner content
JP7455620B2 (ja) 2020-03-11 2024-03-26 三星電子株式会社 動画像処理装置及び動画像処理方法
CN112689125B (zh) * 2020-12-18 2021-10-08 中标慧安信息技术股份有限公司 基于物联网的多终端安全监控方法和系统
CN112887611A (zh) * 2021-01-27 2021-06-01 维沃移动通信有限公司 图像处理方法、装置、设备和存储介质
CN113014799B (zh) * 2021-01-28 2023-01-31 维沃移动通信有限公司 图像显示方法、装置和电子设备
CN116802689A (zh) * 2021-03-08 2023-09-22 谷歌有限责任公司 减少闪烁和分隔显示器的区域的边界的出现的运动诱发的模糊
JP7273438B1 (ja) 2022-07-13 2023-05-15 株式会社岩崎 鮮明化装置、鮮明化プログラムおよび鮮明化方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10206559A (ja) 1997-01-21 1998-08-07 Mitsubishi Electric Corp 天気表示システム
JP3439669B2 (ja) * 1998-10-09 2003-08-25 株式会社立山システム研究所 画像処理装置
JP3199174B2 (ja) * 1998-10-15 2001-08-13 日本電気株式会社 画像処理方法
GB0229096D0 (en) * 2002-12-13 2003-01-15 Qinetiq Ltd Image stabilisation system and method
US8134603B2 (en) 2005-08-12 2012-03-13 Nxp B.V. Method and system for digital image stabilization
JP2010192835A (ja) 2009-02-20 2010-09-02 Showa Denko Kk 発光ダイオード及びその製造方法、並びに発光ダイオードランプ
JP5388910B2 (ja) 2010-03-10 2014-01-15 パナソニック株式会社 画像揺れ補正装置および画像揺れ補正方法
JP6101432B2 (ja) * 2012-04-23 2017-03-22 ローム株式会社 プロジェクタ
JP6035995B2 (ja) * 2012-08-17 2016-11-30 大日本印刷株式会社 気象情報生成装置、プログラム及び通信システム
US9271077B2 (en) * 2013-12-17 2016-02-23 Personics Holdings, Llc Method and system for directional enhancement of sound using small microphone arrays

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230042767A (ko) * 2021-09-23 2023-03-30 주식회사 토비스 진동 보정 기능을 제공하는 디스플레이 장치 및 그의 제어 방법
WO2023048376A1 (ko) * 2021-09-23 2023-03-30 주식회사 토비스 진동 보정 기능을 제공하는 디스플레이 장치 및 그의 제어 방법
KR102611017B1 (ko) * 2021-09-23 2023-12-07 주식회사 토비스 진동 보정 기능을 제공하는 디스플레이 장치 및 그의 제어 방법

Also Published As

Publication number Publication date
US10297014B2 (en) 2019-05-21
WO2016152007A1 (ja) 2016-09-29
US20180033120A1 (en) 2018-02-01
CN107431753A (zh) 2017-12-01
JPWO2016152007A1 (ja) 2018-01-11
CN107431753B (zh) 2020-03-17

Similar Documents

Publication Publication Date Title
JP6635384B2 (ja) 画像処理装置およびこれを備えた監視システムならびに画像処理方法
KR101008917B1 (ko) 화상 처리 방법 및 장치와 그 프로그램을 기록한 기록 매체
US9544505B2 (en) Image processing apparatus for synthesizing images based on a plurality of exposure time periods and image processing method thereof
EP2571249B1 (en) Image synthesizing device, image synthesizing method and computer readable medium
EP3484141B1 (en) Image processing device, image processing method, and image processing circuit
JP4844979B2 (ja) 画像処理方法と該画像処理方法を用いた撮像装置
JP2013255144A (ja) 撮像装置
JPWO2011077659A1 (ja) 画像処理装置、撮像装置、及び画像処理方法
JP2012119804A (ja) 画像記録装置
JP5528028B2 (ja) 画像処理装置およびその方法
JP2003209735A (ja) 監視装置及びブレ補正機能付蓄積型カメラ
JP6513309B2 (ja) 画像合成装置、画像合成方法、及び画像合成プログラム
Weerasinghe et al. Digital zoom camera with image sharpening and suppression
JP2015103867A (ja) 車載画像処理装置
JP2019001325A (ja) 車載用撮像装置
JP2011077981A (ja) 監視カメラシステム
JP2015177528A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6455354B2 (ja) 動画撮影装置、動画撮影方法及びプログラム
JP7384343B2 (ja) 画像処理装置、画像処理プログラム
KR102150705B1 (ko) 영상 처리 장치 및 방법
JP2009296224A (ja) 撮像手段及びプログラム
KR102042131B1 (ko) 단말기에서 실시간 글자 인식시 영상을 안정화하는 방법
KR100927554B1 (ko) 주야간 영상 합성에 기반한 야간 영상 감시 시스템 및 방법
JP4747670B2 (ja) 画像処理装置
JP2019180002A (ja) 画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20190123

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190208

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190213

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191206

R151 Written notification of patent or utility model registration

Ref document number: 6635384

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151