JP6821090B2 - 画像処理装置、画像処理方法、及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法、及び画像処理プログラム Download PDF

Info

Publication number
JP6821090B2
JP6821090B2 JP2020513014A JP2020513014A JP6821090B2 JP 6821090 B2 JP6821090 B2 JP 6821090B2 JP 2020513014 A JP2020513014 A JP 2020513014A JP 2020513014 A JP2020513014 A JP 2020513014A JP 6821090 B2 JP6821090 B2 JP 6821090B2
Authority
JP
Japan
Prior art keywords
image processing
image
texture
subject
target area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020513014A
Other languages
English (en)
Other versions
JPWO2019198198A1 (ja
Inventor
古木 一朗
一朗 古木
浩平 岡原
浩平 岡原
司 深澤
司 深澤
寛夫 松村
寛夫 松村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2019198198A1 publication Critical patent/JPWO2019198198A1/ja
Application granted granted Critical
Publication of JP6821090B2 publication Critical patent/JP6821090B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06T5/70
    • G06T5/90
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像処理装置、画像処理方法、及び画像処理プログラムに関する。
撮像装置によって取得された撮像画像データ(以下「撮像画像」とも言う)に対してノイズ除去処理を行うと、撮像画像における被写体の微小部分がぼける、すなわち、画質を低下させることがある。この対策として、ノイズ除去処理の必要性の有無を撮像画像の輝度に基づいて判断し、必要と判断された場合に、撮像画像にノイズ除去処理を施す装置が提案されている(例えば、特許文献1参照)。
特開2005−94087号公報
しかしながら、上記従来の装置は、撮像画像が暗い場合にノイズ除去処理を行うので、夜間の屋外を監視するシステムには適していない。例えば、暗い道路と道路上の空域とを含む撮像画像にノイズ除去処理が行われると、監視優先度が高い道路及び道路上の物体(例えば、車両)の画像領域がぼけるという問題がある。
本発明は、上記従来技術の課題を解決するためになされたものであり、ノイズ除去処理を行った場合であっても、監視優先度が高い画像領域にぼけを生じさせない画像処理装置、画像処理方法、及び画像処理プログラムを提供することを目的とする。
本発明の一態様に係る画像処理装置は、撮像画像のノイズを低減する画像処理を行う装置であって、前記撮像画像を分割して得られた複数の画像領域から、前記複数の画像領域の輝度バラツキを示す第1のテクスチャ量を計測し、前記第1のテクスチャ量に基づいて前記画像処理の対象となる画像処理対象領域を予め決定する画像領域演算部と、現在の撮像画像の前記画像処理対象領域の輝度に基づいて前記現在の撮像画像に対する前記画像処理の要否を判定する輝度判定部と、前記輝度判定部によって前記画像処理が必要であると判定された前記画像処理対象領域の輝度バラツキを示す第2のテクスチャ量を算出し、前記第2のテクスチャ量に基づいて前記画像処理対象領域に対して前記画像処理を行うか否かを判定するテクスチャ判定部と、前記テクスチャ判定部によって前記画像処理を行うと判定された前記画像処理対象領域に対して前記画像処理を実行する画像処理部とを有することを特徴とする。
本発明の他の態様に係る画像処理方法は、撮像画像のノイズを低減する画像処理を行う方法であって、前記撮像画像を分割して得られた複数の画像領域から、前記複数の画像領域の輝度バラツキを示す第1のテクスチャ量を計測し、前記第1のテクスチャ量に基づいて前記画像処理の対象となる画像処理対象領域を予め決定する対象領域決定ステップと、現在の撮像画像の前記画像処理対象領域の輝度に基づいて前記現在の撮像画像に対する前記画像処理の要否を判定する輝度判定ステップと、前記輝度判定ステップにおいて前記画像処理が必要であると判定された前記画像処理対象領域の輝度バラツキを示す第2のテクスチャ量を算出し、前記第2のテクスチャ量に基づいて前記画像処理対象領域に対して前記画像処理を行うか否かを判定するテクスチャ判定ステップと、前記テクスチャ判定ステップにおいて前記画像処理を行うと判定された前記画像処理対象領域に対して前記画像処理を実行する画像処理ステップとを有することを特徴とする。
本発明によれば、ノイズ除去処理を行った場合であっても、監視優先度が高い画像領域にぼけを生じさせないことができる。
本発明の実施の形態1に係る画像処理装置の構成を概略的に示すブロック図である。 図1の画像領域演算部の構成を概略的に示すブロック図である。 撮像装置によって撮像された撮像画像の例を示す図である。 実施の形態1に係る画像処理装置が行う撮像画像の領域分割動作と画像処理対象領域の選定動作を示すフローチャートである。 実施の形態1に係る画像処理装置において撮像画像を2つの画像領域に分割して得られた分割領域画像の例を示す図である。 実施の形態1に係る画像処理装置において画像処理対象領域に対する画像処理の適用の有無の判定動作を示すフローチャートである。 本発明の実施の形態2に係る画像処理装置の構成を概略的に示すブロック図である。 実施の形態2に係る画像処理装置の被写体位置検出部とマスク処理部と画像処理部の動作を示すフローチャートである。 カメラ座標系の被写体座標をカメラ画像座標系の被写体座標に変換する処理を示す説明図である。 (a)は、被写界照度が低い(暗い)夜間に撮像装置により撮像された撮像画像内に被写体がある場合を示す図であり、(b)は、実施の形態2に係る画像処理装置による処理を実施した後の分割領域画像上に画像処理を実施しないマスク範囲を重畳表示した場合を示す図である。 被写体の移動速度が分かっている場合の速度補正が行われた補正後マスク範囲の大きさを説明する図である。
以下に、本発明の実施の形態に係る画像処理装置、画像処理方法、及び画像処理プログラムを、添付図面を参照しながら説明する。以下の実施の形態は、例にすぎず、本発明の範囲内で種々の変更が可能である。
《1》実施の形態1.
《1−1》構成
図1は、実施の形態1に係る画像処理装置1の構成を概略的に示すブロック図である。図2は、図1の画像領域演算部110の構成を概略的に示すブロック図である。画像処理装置1は、実施の形態1に係る画像処理方法を実施することができる装置である。画像処理装置1は、実施の形態1に係る画像処理プログラムを実行することができるコンピュータであってもよい。
図1に示されるように、画像処理装置1は、制御部10と、記憶部20と、入力インタフェース30と、出力インタフェース40とを有する。制御部10は、画像領域演算部110と、画像領域読出し部120と、輝度判定部130と、テクスチャ判定部140と、画像処理部150とを有する。図2に示されるように、画像領域演算部110は、画像領域分割部111と、テクスチャ計測部112と、画像処理領域選定部113とを有する。
制御部10は、例えば、情報を処理する1つ以上のプロセッサ、すなわち、プロセッシングを行う1つ以上のIC(Integrated Circuit)を有する。具体的には、制御部10は、1つ以上のCPU(Central Processing Unit)を有する。制御部10は、他のハードウェアを制御することができる。制御部10は、記憶部20に記憶されているソフトウェアを実行することができる。
制御部10は、情報、データ、信号値、及び変数値などを、記憶装置210、メモリ220、又は、制御部10内のレジスタ又はキャッシュメモリに記憶させる。図1において、制御部10内の各構成と記憶装置210とを結ぶ矢印は、制御部10内の各構成が処理の結果を記憶装置210に記憶させること、又は、制御部10内の各構成が記憶装置210から情報を読み出すことを表している。また、制御部10内の構成同士を結ぶ矢印は、処理の流れを表している。なお、図1において、制御部10内の構成間の画像情報の授受は、メモリ220を介して行われる場合があるが、図1において、メモリ220と制御部10内の各構成とを結ぶ矢印又は接続線は示していない。
制御部10の機能を実現するコンピュータ読み取り可能なプログラムは、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD(Digital Versatile Disc)などのような可搬記録媒体に記憶されてもよい。
記憶部20は、情報を記憶する情報記憶手段である。記憶部20は、1つ以上の記憶装置210と1つ以上のメモリ220とを含む。記憶装置210は、例えば、ROM(Read Only Memory)、フラッシュメモリ、又は、HDD(Hard Disk Drive)を有する。メモリ220は、例えば、RAM(Random Access Memory)を有する。なお、記憶部20は、図1の構成のものに限定されない。
記憶装置210には、例えば、撮像領域を分割する際に使用される予め決められた第1の閾値であるテクスチャ閾値211と、画像処理領域情報212と、画像処理の必要性を判定するために使用される予め決められた輝度判定閾値213と、同じく画像処理の必要性を判定するために使用される予め決められた第2の閾値であるテクスチャ判定閾値214とが記憶される。
記憶装置210には、制御部10の機能を実現するための画像処理プログラムが記憶されてもよい。この画像処理プログラムは、メモリ220にロードされ、制御部10によって読み込まれ、制御部10によって実行される。画像処理装置1がコンピュータである場合には、記憶装置210には、OS(Operating System)が記憶されてもよい。OSの少なくとも一部がメモリ220にロードされ、制御部10は、OSを実行しながら、画像処理プログラムを実行する。
入力インタフェース30は、撮像装置3に接続されるポートである。入力インタフェース30は、撮像装置3により撮像画像を画像処理装置1に取り込む画像入力インタフェースである。入力インタフェース30により取り込まれた撮像画像は、例えば、メモリ220に記憶される。また、入力インタフェース30は、マウス、キーボード、タッチパネルなどのような入力装置(すなわち、ユーザー操作部)と接続されるポートを備えてもよい。入力インタフェース30は、例えば、LAN(Local Area Network)(登録商標)などのネットワークと接続されるポートであってもよい。入力インタフェース30は、USB(Universal Serial Bus)端子であってもよい。入力インタフェース30は、SDI(Serial Digital Interface)、HDMI(登録商標)(High Definition Multimedia Interface)、VGA(Video Graphics Array)、DVI(Digital Video Interface)、コンポーネント等の映像信号を画像処理装置1に取り込むことのできる、キャプチャボードであってもよい。
出力インタフェース40は、ディスプレイなどのような表示機器のケーブルが接続されるポートである。出力インタフェース40は、例えば、USB端子又はHDMI(登録商標)端子である。ディスプレイは、例えば、LCD(Liquid Crystal Display)である。
《1−2》動作
図3は、撮像装置3により撮像された撮像画像の例を示す図である。図3の例では、撮影対象は、道路301及び道路301を走る車両を含む。撮像装置3は、例えば、道路状況を監視する監視カメラである。監視対象(被写体)は、撮像画像300内の下部にある道路を走る車両である。撮像画像300内の上部には、空域が映っている。
撮像装置3は、CCD(Charged−Coupled Device)又はCMOS(Complementary Metal−Oxide−Semiconductor)などのような撮像素子とレンズとを備えるカメラ機器である。撮像装置3は、例えば、固定カメラである。また、撮像装置3は、AGC(Automatic Gain Control)機能を備えることが望ましい。AGCは、入力信号が弱い(被写界照度が低い)場合に感度を上げ、逆に入力信号が強い(被写界照度が高い)場合に感度を下げることで、出力が常に一定であるように可変制御することである。撮像装置3は、画像処理装置1に撮像画像を提供する。
図4は、画像処理装置1が行う撮像画像の領域分割動作と画像処理対象領域の選定動作を示すフローチャートである。
まず、画像処理装置1は、記憶装置210における画像処理領域情報212をリセットする(ステップS11)。すなわち、画像処理装置1は、記憶装置210に画像処理領域情報212が無いことを示す情報を記憶させる。
次に、撮像装置3により取得された撮像画像が、入力インタフェース30によって画像処理装置1に取り込まれ、メモリ220に一時的に保持され、その後、画像領域演算部110に送られる。画像領域演算部110の画像領域分割部111は、撮像画像内の画像の濃淡差のあるエッジ部分(すなわち、画像の輪郭)を検出する処理を行い、エッジ部分を示すエッジ情報に基づいて画像をn個(n≧2)の画像領域に分割する(ステップS12)。すなわち、画像領域演算部110は、例えば、撮像画像を監視の優先度が高い画像領域と、監視の優先度が低い画像領域に分割するための分割処理を行う。
次に、画像領域演算部110のテクスチャ計測部112は、分割された画像領域の各々における第1のテクスチャ量を計測する。第1のテクスチャ量は、分割された画像領域の各々における画素値(すなわち、輝度値)のバラツキ(すなわち、輝度バラツキ)を示す分散として計測される(ステップS13)。
次に、画像領域演算部110の画像処理領域選定部113は、分割された画像領域の各々の第1のテクスチャ量(すなわち、輝度バラツキ)が、予め決められたテクスチャ閾値211以下であるか否かを判定する(ステップS14)。
画像領域演算部110の画像処理領域選定部113は、分割された画像領域の各々における第1のテクスチャ量がテクスチャ閾値211以下である領域を、画像処理対象領域として選定し、画像処理対象領域として選定された画像領域の撮像画像内における位置を示す位置情報を画像処理領域情報212として、予め記憶装置210に記憶させる(ステップS15)。
ステップS13からS15までの処理は、全ての分割された画像領域に対して実行されるまで繰り返される(ステップS16)。全ての分割された画像領域の第1のテクスチャ量がテクスチャ閾値211を超えた場合は、画像処理領域情報212には、画像処理対象領域が無いことを示す「無」情報が記憶される。
実施の形態1では、監視優先度が高い領域は、道路301を含む地表部分であり、空域の監視優先度は低い。画像処理領域選定部113は、空域のように、画像領域内の第1のテクスチャ量が少ない(すなわち、輝度バラツキが少ない)画像領域を画像処理対象領域として選定する。
なお、画像領域演算部110の処理は、常時行われる必要はなく、例えば、監視動作開始前に、又は監視動作中に定期的(間欠的)に、又は、監視領域に変更が生じた場合に、すなわち、予め決められた時点で行えばよい。これにより、画像処理装置1に、過度な演算負荷をかけることを回避することができる。また、被写界照度が高い(明るい)場合に、画像領域演算部110の処理を行えば、撮像画像内における画像領域における第1のテクスチャ量の差が大きいので、領域分割の精度を向上させることができる。
図5は、撮像画像300を2つの画像領域に分割して得られた分割領域画像の例を示す図である。図5の例では、分割領域画像310は、第1のテクスチャ量の多い画像領域330と、第1のテクスチャ量の少ない画像領域320(図3における空域に対応する)とに2分割されている。この場合、画像処理対象領域は、第1のテクスチャ量の少ない(すなわち、輝度バラツキが少ない)画像領域320である。
図6は、画像処理対象領域に対する、画像処理の適用の有無の判定動作を示すフローチャートである。まず、画像領域読出し部120は、記憶装置210に記憶された画像処理領域情報を読み出す(ステップS21)。画像領域読出し部120は、記憶装置210に画像処理領域情報212が有るか無いか判定し(ステップS22)、無い場合(ステップS22においてNO)は、画像処理を行わずに処理を終了する。
画像処理領域情報212が有る場合(ステップS22においてYES)は、輝度判定部130は、画像処理領域情報212に基づき、撮像画像内の画像処理対象領域の平均輝度を算出する(ステップS23)。
次に、輝度判定部130は、算出された平均輝度が記憶装置210に予め記憶されている輝度判定閾値213以下か否かを判定する(ステップS24)。画像処理対象領域の平均輝度が輝度判定閾値213以下である場合は、輝度判定部130は、被写界照度が低い(暗い)ので、撮像装置3のAGC機能により撮像感度が高く設定されており、撮像画像にノイズが生じやすく、画像処理が必要であると判定する。一方、画像処理対象領域の平均輝度が輝度判定閾値213より高い場合は、輝度判定部130は、被写界照度が高く(明るく)、ノイズ補正などの画像処理の必要はないと判定する。
ステップS24において、平均輝度が輝度判定閾値213以下と判定された場合(ステップS24においてYES)、テクスチャ判定部140は、現在の撮像画像、すなわち、撮像装置3で取得された監視対象の撮像画像の画像処理対象領域の第2のテクスチャ量(すなわち、輝度バラツキ)を算出し(ステップS25)、算出された第2のテクスチャ量を記憶装置210に予め記憶された第2の閾値であるテクスチャ判定閾値214と比較する(ステップS26)。なお、第2のテクスチャ量(すなわち、輝度バラツキ)は、画像処理対象領域内の画素値の分散としてもよいが、画像処理対象領域内の画素値の絶対値に依存しない、画像処理対象領域内の画素値の変動係数(すなわち、標準偏差/平均値)で求めることが望ましい。
第2のテクスチャ量(すなわち、輝度バラツキ)がテクスチャ判定閾値214以上の場合(ステップS26においてYES)は、画像処理部150は、画像処理対象領域内のノイズが多いと判断し、ノイズを補正(低減)するための画像処理を実行する(ステップS27)。第2のテクスチャ量(すなわち、輝度バラツキ)がテクスチャ判定閾値214よりも少ない場合(ステップS26においてNO)は、画像処理部150は、画像処理対象領域内のノイズが少ないと判断し、ノイズを補正(低減)するための画像処理は不要と判断する。全ての画像処理対象領域に対して、ステップS23からS27までの処理が実行される(ステップS28)。
以上のようにして生成された画像処理後の画像は、出力インタフェース40を介して、ディスプレイなどの表示機器に出力される。なお、ここでの画像処理とは、画像に生じたノイズを低減(補正)する処理のことを示す。画像処理は、例えば、平滑化フィルタを用いた処理などがある。ただし、画像処理の方法は、これらに限定せず、画像に生じたノイズを低減する処理であれば他の処理であってもよい。
《1−3》効果
図3の撮像画像300では、夜間などの被写界照度が低い(暗い)場合、撮像画像300内で撮像装置3から遠方の距離にある空域では、撮像画像にノイズが発生しやすい。監視者は、監視優先度の高い領域である画面下部(道路301、車両)を見たいにもかかわらず、監視優先度の低い画面上部(空域)に発生するノイズの影響で、画面全体が見難い画像となる。特に、動画の場合は、ノイズが映像のチラツキとして知覚され、一層、見難い画像(映像)となる。実施の形態1に係る画像処理装置1によれば、監視カメラである撮像装置3の撮像画像を、複数の画像領域に分割し、監視優先度の低い領域に対してノイズ補正処理を施すようにしたので、監視優先度の低い領域のノイズを低減でき、かつ、監視優先度の高い領域において、ノイズ補正の影響による画像のぼけが発生しないので、見やすい監視画像を得ることができる。
また、画像処理が必要な領域判定処理を監視動作開始前に、又は監視動作中に定期的(間欠的)に、又は、監視領域に変更が生じた場合に行うように構成したので、画像処理装置1にかかる演算負荷を軽減することができる。
また、ノイズ補正処理対象である監視優先度の低い領域内の平均輝度及び輝度バラツキ(変動係数)からノイズ補正処理の必要の有無が判断されるため、ノイズ補正処理の必要の有無の判断の精度が向上する。このため、不要なノイズ補正が実施されることがなく、不要な画像処理に起因する画質劣化を防ぐことができる。
《2》実施の形態2.
《2−1》構成
実施の形態1では、監視すべき被写体が、画像処理対象領域外にある場合を説明した。実施の形態2では、監視対象の1つである被写体が、画像処理対象領域内にある場合の、画像処理(すなわち、ノイズ補正処理)の動作を説明する。
図7は、実施の形態2に係る画像処理装置2の構成を概略的に示すブロック図である。図7において、図1に示される構成要素と同一又は対応する構成要素には、図1に示される符号と同じ符号が付される。画像処理装置2は、実施の形態2に係る画像処理方法を実施することができる装置である。画像処理装置2は、実施の形態2に係る画像処理プログラムを実行することができるコンピュータであってもよい。
図7に示されるように、画像処理装置2は、制御部10aと、記憶部20aと、入力インタフェース30と、出力インタフェース40と、被写体の実空間位置情報を取得する被写体位置情報取得部50とを有する。制御部10aは、画像領域演算部110と、画像領域読出し部120と、輝度判定部130と、テクスチャ判定部140と、実空間における被写体位置を撮像装置3で撮影したカメラ画像内の位置に変換する被写体位置検出部160と、画像処理対象領域内で画像処理をかけない領域を決定するマスク処理部170と、画像処理部150とを有する。記憶部20aは、1つ以上の記憶装置210と1つ以上のメモリ220とを含む。記憶装置210には、例えば、予め決められたテクスチャ閾値211と、画像処理領域情報212と、予め決められた輝度判定閾値213と、予め決められたテクスチャ判定閾値214と、撮像装置3の設置位置情報を示すカメラ設置情報215とが記憶される。
《2−2》動作
実施の形態2に係る画像処理装置2における画像処理対象領域を選定するまでの動作は、実施の形態1のもの(すなわち、図4に示される動作)と同じである。
図8は、実施の形態2に係る画像処理装置2の被写体位置検出部160とマスク処理部170と画像処理部150の動作を説明するフローチャートである。
テクスチャ判定部140で、画像処理対象領域の画像処理(すなわち、ノイズ補正処理)が必要と判断された場合、被写体位置検出部160は、記憶装置210から予め記憶されている撮像装置3(すなわち、カメラ)に関するカメラ設置情報215を読み出し、被写体位置情報取得部50から被写体の位置情報を読み出す(ステップS31及びS32)。ここで、カメラ設置情報215は、カメラの画角、焦点距離、カメラの画像の大きさ(画素数)、実空間(世界座標系)でのカメラ位置を表す座標情報を含む。被写体の位置情報は、実空間における被写体位置を表す座標情報を含む。カメラ設置情報215は、撮像装置3を設置する際に予め取得される。また、被写体位置情報取得部50から送られる被写体位置情報は、例えば、被写体に搭載されたGPS(Global Positioning System)モジュールが取得し、被写体に備えられた送信機から送信されたGPS情報(例えば、緯度、経度、高度)である。この場合、被写体位置情報取得部50は、GPSレシーバーを有する。実施の形態2における被写体は、例えば、GPSモジュールを搭載した無人航空機(例えば、ドローン)である。
次に、被写体位置検出部160は、被写体位置情報とカメラ設置情報215とに基づいて、実空間座標系の被写体位置を、撮像装置3から見た画像の座標位置に変換する(ステップS33)。具体的には、被写体位置検出部160は、実空間座標系の被写体位置をカメラ座標系に変換してから、撮像装置3が撮影する画像上の座標に変換する。カメラ座標系は、例えば、カメラである撮像装置3のレンズ中心を原点とする座標系である。被写体位置情報(世界座標系)は、カメラ設置情報215(世界座標系でのレンズ位置座標、光軸の向きなど)に基づいて、カメラ座標系に変換できる。次に、被写体位置検出部160は、カメラ座標系に変換した後の被写体位置座標を、カメラ画像座標に変換する。
図9は、カメラ座標系の被写体座標をカメラ画像座標に変換する処理を示す説明図である。図9において、Cは、カメラ座標系の原点(レンズ中心)を示し、Z軸は、Cを通りレンズ面に直交する直線(光軸)を示す。(x,y,z)は、実空間にある被写体Qのカメラ座標を示す。カメラ画像面500は、カメラ座標系の原点Cから焦点距離f離れた位置にある。カメラ画像面500の座標軸U,Vは、カメラ座標系の座標軸X,Yとそれぞれ平行である。(u,v)は、カメラ画像面500上における被写体q(図9において、白丸印で示される)の座標を示す。このとき、qの座標(u,v)は、以下の式で求められる。
u=f・(x/z) …(1)
v=f・(y/z) …(2)
よって、カメラ座標系での被写体Qの座標位置(x,y,z)、すなわち、被写体Qの実空間座標系での緯度、経度、高さ(高度)の情報があれば、被写体Qの位置をカメラ画像上で示すことができる。なお、焦点距離fの情報は、カメラ設置情報215内に含まれている。
次に、被写体位置検出部160は、カメラ画像400上の被写体座標q(u,v)が、画像処理対象領域に含まれるか否かを判定する(ステップS34)。q(u,v)が、画像処理対象領域に含まれる場合(ステップS34においてYES)は、被写体位置検出部160は、(u,v)座標を含む、その周辺領域、例えば、m×nの矩形範囲を、画像処理をかけないマスク範囲として設定する(ステップS35)。m及びnは、2以上の整数である。このとき、画像処理が行われない領域であるマスク範囲であるm×nの矩形範囲の大きさは、被写体と撮像装置3の距離に応じて決定してもよい。例えば、被写体から撮像装置3までの距離が大きい場合は、マスク範囲を小さくし、被写体から撮像装置3までの距離が小さい場合は、マスク範囲を大きくする。被写体から撮像装置3までの距離は、カメラ設置情報215と、被写体位置情報取得部50から取得する被写体位置情報から求めることができる。なお、マスク範囲は、矩形に限らず、円形などの他の形状であってもよい。
ステップS34において、q(u,v)が画像処理対象領域に含まれないと判断された場合は、ステップS35の処理を行わず、次の(別の)被写体に対してステップS33からステップS35の処理が実行される(ステップS36)。全ての被写体に対する処理が終了した場合、画像処理対象領域内で、画像処理部150において、マスク範囲に設定された領域を除く部分に画像処理としてのノイズ補正処理を実行する(ステップS38)。
ここで、実施の形態2に係る画像処理装置2の処理結果について説明する。図10(a)は、実施の形態2における、被写界照度が低い(暗い)夜間に撮像装置3により撮像された撮像画像300内に、被写体510がある場合を示す図であり、実施の形態2の画像処理を実施する前の状態を示す。実施の形態2において、画像処理対象領域を選定するテクスチャ判定部140による動作までは、実施の形態1のものと同じであり、図5に示す画像処理対象領域である第1のテクスチャ量がテクスチャ閾値211以下の領域(「第1のテクスチャ量の少ない領域」とも言う)320に、被写体510が位置していることを示す。
被写体510は、撮像装置3から離れた距離に位置しているため、撮像画像300上では、微小物体として被写体510が映っている。この状態で、画像処理対象領域320に画像処理(すなわち、ノイズ補正処理)を実施すると、被写体510の撮像画像300上の領域が微小なため、被写体510の画像部分が誤ってノイズと判定される可能性があり、ノイズと判定された場合、ノイズ除去処理によって被写体510が撮像画像300上から消える可能性がある。特に、夜間において、被写体510が照明灯或いは点滅灯のような発光手段を持つ場合は、ノイズと判定される可能性が高い。
図10(b)は、実施の形態2に係る画像処理装置2の処理を実施した後の分割領域画像310上に、画像処理を実施しないマスク範囲520の矩形範囲を重畳表示した図である。マスク範囲520は、画像処理対象領域である第1のテクスチャ量の少ない領域320内で、撮像画像300上の被写体510の位置を含む位置にあり、この状態でノイズ補正処理を実施すると、被写体510の位置するマスク範囲520には、ノイズ補正処理が行われないので、撮像画像300上の被写体510が微小物体であっても、撮像画像300上から消えることはない。したがって、監視者は、撮像画像300上で被写体510を視認することができる。また、ノイズが発生しやすいマスク範囲520以外の第1のテクスチャ量の少ない領域320には、ノイズ補正処理が行われるので、監視者が見やすい画像を得ることができる。
なお、マスク範囲520の輪郭を色付きの枠線などの強調表示を用いて表示してもよい。これにより、監視者にとって、被写体510の位置がより判りやすくなる。
なお、実施の形態2では、被写体位置検出部160で得られる情報が、被写体の方位と高度を表す位置情報(例えば、経度、緯度、高度)であることを前提とした。しかし、被写体位置検出部160で得られる情報に被写体の個体情報(例えば、識別情報、機体情報)も含まれる場合は、被写体の大きさが分かるので、被写体の大きさと被写体までの距離に基づいてマスク範囲520の大きさを決定してもよい。例えば、被写体までの距離がLであり、撮像画像の幅方向の画素数がwであり、撮像装置3のカメラ画角がθである場合、単位画素あたりの被写体の大きさΔdは、以下の式(3)で求められる。
Δd=(2L/w)・tan(θ/2) …(3)
被写体の水平方向の大きさがWである場合、式(3)より、マスク範囲の幅方向に必要な画素数mに必要な条件は、以下の式(4)で表すことができる。
m>W/Δd …(4)
同様に、被写体の垂直方向の大きさがわかれば、式(4)と同様の計算により、マスク範囲の縦方向に必要な画素数を求めることができる。
また、実施の形態2では、撮像装置3が撮影する画像毎に、被写体位置検出部160から被写体位置情報を得ることを前提としていたが、動画撮影の場合は、撮像装置3の撮影周期と、被写体位置検出部160の被写体位置情報の取得周期とが異なる場合がある。一般的には、撮像装置3の撮影周期のほうが被写体位置情報の取得周期より短い。このような場合、マスク範囲520の決定には、次の被写体位置情報を取得するまで、先に取得した被写体位置情報を使用する。例えば、撮像装置3の撮影周期が1/30[秒](すなわち、1秒間に30枚撮影する)、被写体位置検出部160の被写体位置情報の取得周期が1[秒](すなわち、1秒毎に1枚撮影する)である場合は、1枚目の画像に対しては、その際に取得した被写体位置情報を用いてマスク範囲520を決定し、その後の29枚分の画像に対しては、前記先の1枚に対する被写体位置情報から決定したマスク範囲520を用い、次の被写体位置情報を取得したら、新たにマスク範囲520を求める。その際、次の被写体位置が先に設定したマスク範囲520内に収まるように、マスク範囲520は、余裕を持った大きさに設定することが望ましい。
被写体位置情報に、被写体の速度情報が含まれる場合、又は、過去の被写体位置情報から、被写体の移動速度が推定可能な場合は、例えば、以下のようにマスク範囲520の大きさを決定してもよい。被写体位置情報を取得する周期がF[秒]であり、被写体の移動速度がr[m/秒]であり、単位画素あたりの被写体の大きさがΔd[m]である場合、被写体位置検出部160が次の被写体位置情報を取得する間に被写体が移動する画像上の距離(画素数)pは、以下の式(5)で表すことができる。
p=r・F/Δd …(5)
図11は、被写体の移動速度が分かっている場合の速度補正が行われた補正後のマスク範囲530の大きさを説明する図である。最初に求めたマスク範囲520の大きさを、幅m、縦nとすると、式(5)より、補正後のマスク範囲は、幅m+2p、縦n+2pである。なお、幅方向と縦方向にそれぞれ元の大きさに2pを加えた理由は、被写体の移動方向が上下左右の内のいずれの方向に移動するか不明だからである。被写体の移動方向が分かっている場合は、補正後のマスク範囲530は、被写体の移動方向に応じて、上下左右の内のいずれかの方向に、元の大きさにpを加えた大きさとしてもよい。
《2−3》効果
以上に説明したように、実施の形態2に係る画像処理装置2によれば、被写体510の位置するマスク範囲520には、ノイズ処理が行われないので、撮像画像300上の被写体510が微小であっても、撮像画像300上から消えることはなく、監視者が撮像画像300上で視認することが可能である。また、ノイズが発生しやすいマスク範囲520以外の第1のテクスチャ量の少ない領域320には、ノイズ補正処理が行われるので、監視者が見やすい画像を得ることができる。
《3》変形例.
上記実施の形態では、監視対象を道路としていたが、画像処理装置1及び2の使用例は、これに限るものではない。例えば、画像処理装置1及び2は、飛行場面(空港面、滑走路面)の監視用途に適用することができる。この場合、図3における道路が滑走路面、被写体(車両)が飛行機に相当し、これらが監視優先度の高い領域である。また、監視優先度の低い領域は、飛行場面上空の空域であるが、飛行機の場合は、空域に位置する場合も多いため、画像処理装置2を適用することにより、第1のテクスチャ量の少ない領域である空域のノイズを低減しつつ、空域に位置する被写体(飛行機)を見やすく表示することが可能である。飛行場面の場合、空港監視レーダーの情報等から飛行機の位置情報を得ることができる。例えば、被写体位置情報取得部50を、SSR(Secondary Surveillance Radar)の情報と飛行機のフライト情報を取得するように構成すれば、空域の飛行機の位置情報(距離、方位、高度)及び機種情報を得ることができる。
1,2 画像処理装置、 3 撮像装置、 10,10a 制御部(プロセッサ)、 20,20a 記憶部、 30 入力インタフェース、 40 出力インタフェース、 50 被写体位置情報取得部、 110 画像領域演算部、 111 画像領域分割部、 112 テクスチャ計測部、 113 画像処理領域選定部、 120 画像領域読出し部、 130 輝度判定部、 140 テクスチャ判定部、 150 画像処理部、 160 被写体位置検出部、 170 マスク処理部、 210、210a 記憶装置、 220 メモリ、 211 テクスチャ閾値(第1の閾値)、 212 画像処理領域情報、 213 輝度判定閾値、 214 テクスチャ判定閾値(第2の閾値)、 215 カメラ設置情報、 300 撮像画像、 301 道路、 310 分割領域画像、 320 第1のテクスチャ量の少ない領域、 330 第1のテクスチャ量の多い領域、 500 カメラ画像面、 510 被写体、 520 マスク範囲、 530 補正後マスク範囲。

Claims (14)

  1. 撮像画像のノイズを低減する画像処理を行う画像処理装置であって、
    前記撮像画像を分割して得られた複数の画像領域から、前記複数の画像領域の輝度バラツキを示す第1のテクスチャ量を計測し、前記第1のテクスチャ量に基づいて前記画像処理の対象となる画像処理対象領域を予め決定する画像領域演算部と、
    現在の撮像画像の前記画像処理対象領域の輝度に基づいて前記現在の撮像画像に対する前記画像処理の要否を判定する輝度判定部と、
    前記輝度判定部によって前記画像処理が必要であると判定された前記画像処理対象領域の輝度バラツキを示す第2のテクスチャ量を算出し、前記第2のテクスチャ量に基づいて前記画像処理対象領域に対して前記画像処理を行うか否かを判定するテクスチャ判定部と、
    前記テクスチャ判定部によって前記画像処理を行うと判定された前記画像処理対象領域に対して前記画像処理を実行する画像処理部と
    を有することを特徴とする画像処理装置。
  2. 前記画像領域演算部は、複数の画像領域の内の前記第1のテクスチャ量が予め決められた第1の閾値以下である画像領域を、前記画像処理対象領域として選定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記輝度判定部は、前記画像処理対象領域の前記輝度が予め決められた輝度判定閾値以下であるときに、前記現在の撮像画像に対する前記画像処理が必要であると判定することを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記テクスチャ判定部は、前記画像処理対象領域の前記第2のテクスチャ量が予め決められた第2の閾値以上であるときに、前記現在の撮像画像に対する前記画像処理が必要であると判定することを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
  5. 前記第1のテクスチャ量は、前記複数の画像領域の各々における分散であることを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
  6. 前記画像処理対象領域の前記輝度は、前記画像処理対象領域における輝度値の平均値であることを特徴とする請求項1から5のいずれか1項に記載の画像処理装置。
  7. 前記第2のテクスチャ量は、前記画像処理対象領域における画素値の変動係数であることを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
  8. 記憶部をさらに有し、
    前記画像領域演算部によって予め決定された前記画像処理対象領域を示す画像処理領域情報は前記記憶部によって記憶される
    ことを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
  9. 前記撮像画像を取得するカメラの位置情報が記憶された記憶部と、
    被写体の位置情報を取得する被写体位置情報取得部と、
    前記被写体の実空間での位置座標を前記カメラのカメラ画像空間の位置座標に変換する被写体位置検出部と、
    前記カメラ画像空間において前記被写体が前記画像処理対象領域内に位置する場合、前記カメラ画像空間において、前記被写体の位置座標を含む領域をマスク範囲として設定するマスク処理部と
    をさらに有し、
    前記画像処理は、前記画像処理対象領域内における前記マスク範囲以外の領域に対して行われる
    ことを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
  10. 前記マスク処理部は、
    前記現在の撮像画像から前記被写体の大きさを示す大きさ情報と前記カメラから前記被写体までの距離を示す距離情報を取得し、
    前記大きさ情報と前記距離情報とに基づいて、前記マスク範囲の大きさを決定する
    ことを特徴とする請求項9に記載の画像処理装置。
  11. 前記マスク処理部は、
    前記現在の撮像画像から前記被写体の移動速度を取得し、
    前記移動速度と、前記位置情報を取得する取得周期と、前記カメラの撮像周期とに基づいて、前記マスク範囲の大きさを決定する
    ことを特徴とする請求項9又は10に記載の画像処理装置。
  12. 前記マスク処理部は、前記マスク範囲を強調表示することを特徴とする請求項9から11のいずれか1項に記載の画像処理装置。
  13. 撮像画像のノイズを低減する画像処理を行う画像処理方法であって、
    前記撮像画像を分割して得られた複数の画像領域から、前記複数の画像領域の輝度バラツキを示す第1のテクスチャ量を計測し、前記第1のテクスチャ量に基づいて前記画像処理の対象となる画像処理対象領域を予め決定する対象領域決定ステップと、
    現在の撮像画像の前記画像処理対象領域の輝度に基づいて前記現在の撮像画像に対する前記画像処理の要否を判定する輝度判定ステップと、
    前記輝度判定ステップにおいて前記画像処理が必要であると判定された前記画像処理対象領域の輝度バラツキを示す第2のテクスチャ量を算出し、前記第2のテクスチャ量に基づいて前記画像処理対象領域に対して前記画像処理を行うか否かを判定するテクスチャ判定ステップと、
    前記テクスチャ判定ステップにおいて前記画像処理を行うと判定された前記画像処理対象領域に対して前記画像処理を実行する画像処理ステップと
    を有することを特徴とする画像処理方法。
  14. コンピュータに撮像画像のノイズを低減する画像処理を実行させる画像処理プログラムであって、
    前記撮像画像を分割して得られた複数の画像領域から、前記複数の画像領域の輝度バラツキを示す第1のテクスチャ量を計測し、前記第1のテクスチャ量に基づいて前記画像処理の対象となる画像処理対象領域を予め決定する対象領域決定ステップと、
    現在の撮像画像の前記画像処理対象領域の輝度に基づいて前記現在の撮像画像に対する前記画像処理の要否を判定する輝度判定ステップと、
    前記輝度判定ステップにおいて前記画像処理が必要であると判定された前記画像処理対象領域の輝度バラツキを示す第2のテクスチャ量を算出し、前記第2のテクスチャ量に基づいて前記画像処理対象領域に対して前記画像処理を行うか否かを判定するテクスチャ判定ステップと、
    前記テクスチャ判定ステップにおいて前記画像処理を行うと判定された前記画像処理対象領域に対して前記画像処理を実行する画像処理ステップと
    を前記コンピュータに実行させることを特徴とする画像処理プログラム。
JP2020513014A 2018-04-12 2018-04-12 画像処理装置、画像処理方法、及び画像処理プログラム Active JP6821090B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/015383 WO2019198198A1 (ja) 2018-04-12 2018-04-12 画像処理装置、画像処理方法、及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JPWO2019198198A1 JPWO2019198198A1 (ja) 2020-10-08
JP6821090B2 true JP6821090B2 (ja) 2021-01-27

Family

ID=68164154

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020513014A Active JP6821090B2 (ja) 2018-04-12 2018-04-12 画像処理装置、画像処理方法、及び画像処理プログラム

Country Status (5)

Country Link
US (1) US11526966B2 (ja)
JP (1) JP6821090B2 (ja)
CN (1) CN111989910B (ja)
DE (1) DE112018007258T5 (ja)
WO (1) WO2019198198A1 (ja)

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005094087A (ja) * 2003-09-12 2005-04-07 Auto Network Gijutsu Kenkyusho:Kk ノイズ除去装置
JP2006067409A (ja) * 2004-08-30 2006-03-09 Olympus Corp 画像処理装置と撮像装置、および画像処理プログラム
JP2006270274A (ja) 2005-03-22 2006-10-05 Olympus Corp 被写体認識装置、および被写体認識方法
JP4635779B2 (ja) * 2005-08-18 2011-02-23 ソニー株式会社 データ処理装置およびデータ処理方法、並びにプログラム
JP4924430B2 (ja) 2005-10-28 2012-04-25 株式会社ニコン 撮影装置、画像処理装置およびプログラム
US7587099B2 (en) 2006-01-27 2009-09-08 Microsoft Corporation Region-based image denoising
JP4211838B2 (ja) * 2006-11-09 2009-01-21 ソニー株式会社 撮像装置および画像処理方法
TWI361618B (en) * 2006-12-26 2012-04-01 Realtek Semiconductor Corp Method and device for estimating noise
JP2008299670A (ja) * 2007-05-31 2008-12-11 Canon Inc 画像領域抽出装置およびその制御方法、複合現実感提示システム及びコンピュータプログラム
JP5509610B2 (ja) 2009-02-09 2014-06-04 セイコーエプソン株式会社 画像処理装置、画像表示装置及び画像処理方法
TW201035910A (en) * 2009-03-18 2010-10-01 Novatek Microelectronics Corp Method and apparatus for reducing spatial noise of images
JP5669489B2 (ja) * 2009-10-15 2015-02-12 オリンパス株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP2011199750A (ja) 2010-03-23 2011-10-06 Olympus Corp 撮像端末、外部端末、撮像システム、及び撮像方法
JP5672527B2 (ja) 2010-09-01 2015-02-18 パナソニックIpマネジメント株式会社 画像処理装置及び画像処理方法
JP5657375B2 (ja) * 2010-12-24 2015-01-21 オリンパス株式会社 内視鏡装置及びプログラム
US20130002936A1 (en) * 2011-06-30 2013-01-03 Nikon Corporation Image pickup apparatus, image processing apparatus, and storage medium storing image processing program
JP5816511B2 (ja) * 2011-10-04 2015-11-18 オリンパス株式会社 画像処理装置、内視鏡装置及び画像処理装置の作動方法
JP6242072B2 (ja) * 2012-09-27 2017-12-06 オリンパス株式会社 画像処理装置、プログラム及び画像処理装置の作動方法
JP5975932B2 (ja) * 2013-04-24 2016-08-23 キヤノン株式会社 画像処理装置及び画像処理方法
US9639771B2 (en) 2013-09-06 2017-05-02 Sharp Kabushiki Kaisha Image processing device
CN103778609A (zh) * 2014-01-22 2014-05-07 南京航空航天大学 基于像素连续性判断的二值化图像和灰度图像的高效去噪声法
CN103888764B (zh) * 2014-03-14 2017-02-15 西安交通大学 一种自适应补偿视频压缩失真的系统及方法
US9710715B2 (en) * 2014-12-26 2017-07-18 Ricoh Company, Ltd. Image processing system, image processing device, and image processing method
CN105208376B (zh) * 2015-08-28 2017-09-12 青岛中星微电子有限公司 一种数字降噪方法和装置

Also Published As

Publication number Publication date
CN111989910B (zh) 2021-12-14
CN111989910A (zh) 2020-11-24
US20210012467A1 (en) 2021-01-14
US11526966B2 (en) 2022-12-13
JPWO2019198198A1 (ja) 2020-10-08
DE112018007258T5 (de) 2020-12-10
WO2019198198A1 (ja) 2019-10-17

Similar Documents

Publication Publication Date Title
EP3783564A1 (en) Image processing method, computer readable storage medium, and electronic device
US9846927B2 (en) Systems and methods for haziness detection
EP3506228A1 (en) Image capturing apparatus, image processing apparatus, control method, and program
US10467733B2 (en) Multiplexed high dynamic range images
US11838674B2 (en) Image processing system, image processing method and storage medium
US20190230269A1 (en) Monitoring camera, method of controlling monitoring camera, and non-transitory computer-readable storage medium
US10491874B2 (en) Image processing method and device, computer-readable storage medium
US20170064177A1 (en) Image processing apparatus, image processing method, and storage medium
CN108053438B (zh) 景深获取方法、装置及设备
CN111917991B (zh) 图像的质量控制方法、装置、设备及存储介质
US11250581B2 (en) Information processing apparatus, information processing method, and storage medium
JP2010226652A (ja) 画像処理装置、画像処理方法、および、コンピュータプログラム
JP6513309B2 (ja) 画像合成装置、画像合成方法、及び画像合成プログラム
JP6821090B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
US20170364765A1 (en) Image processing apparatus, image processing system, vehicle, imaging apparatus and image processing method
CN103491286A (zh) 成像装置及其图像显示方法
US11727716B2 (en) Information processing apparatus, imaging apparatus, which determines exposure amount with respect to face detection and human body detection
JP2015233202A (ja) 画像処理装置および画像処理方法、並びにプログラム
US11838645B2 (en) Image capturing control apparatus, image capturing control method, and storage medium
CN108111831B (zh) 拍摄方法、成像装置、计算机可读存储介质和计算机设备
KR101946946B1 (ko) 이미지 처리 장치 및 이의 이미지 처리 방법
TWI573099B (zh) 區域性水位監測方法
US11838646B2 (en) Apparatus, method, and storage medium for deciding an exposure condition based on brightness of a combined area of a captured image
US11659270B2 (en) Image processing device for detecting horizontal direction of photographing angle
US10902574B2 (en) Information processing apparatus, image capture system, control method and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200602

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200602

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200602

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210105

R150 Certificate of patent or registration of utility model

Ref document number: 6821090

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250