JP7297455B2 - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP7297455B2
JP7297455B2 JP2019016305A JP2019016305A JP7297455B2 JP 7297455 B2 JP7297455 B2 JP 7297455B2 JP 2019016305 A JP2019016305 A JP 2019016305A JP 2019016305 A JP2019016305 A JP 2019016305A JP 7297455 B2 JP7297455 B2 JP 7297455B2
Authority
JP
Japan
Prior art keywords
image
moving object
superimposed
edge
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019016305A
Other languages
English (en)
Other versions
JP2020123280A (ja
Inventor
士 ▲高▼木
稔 日下部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019016305A priority Critical patent/JP7297455B2/ja
Priority to US16/773,698 priority patent/US11263759B2/en
Publication of JP2020123280A publication Critical patent/JP2020123280A/ja
Application granted granted Critical
Publication of JP7297455B2 publication Critical patent/JP7297455B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • G06T5/75Unsharp masking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、画像処理技術に関する。
現在、撮像装置が撮像した画像から撮像された領域の様子を監視するシステムが活用されている。また、撮像装置によって撮像された画像に映る人物のプライバシーを保護する重要性が高まっている。
特許文献1では、まず背景画像を準備し、撮影した画像から輪郭線を取得し、取得した輪郭線を背景画像に上書きする技術が開示されている。
特開2007-133847号公報
画像に映る人物の顔が小さい場合、当該人物の顔の輪郭を背景画像に重畳しても当該人物が誰であるかは識別ができない。一方で、画像に映る人物の顔が大きい場合、当該人物の顔の輪郭を背景画像に重畳した場合、当該人物が誰であるかを識別できることがある。
特許文献1では、顔抽出を用い、一定の閾値以上の大きさの顔は目鼻の輪郭を描かないという技術が開示されているが、画像から人物の顔を抽出する精度は低いことがある。そのため、特許文献1では、画像から人物の顔の抽出を適切に行えなかった場合、画像に大きく顔が映る人物に対して輪郭を重畳し、当該人物が誰であるかを識別可能にしてしまい、プライバシーを保護できないことがあった。
そこで、本発明は、撮像した画像に映る人物のプライバシーを適切に保護することを目的としている。
本発明の一態様による画像処理装置は、撮像手段により撮像された撮像画像から動体を検知する検知手段と、前記撮像画像からエッジを抽出する抽出手段と、前記撮像画像に含まれる前記動体の位置に基づき、当該動体の領域を抽象化したシルエット画像が重畳される画像である背景画像における当該動体に対応する領域に対して前記エッジを重畳するかを決定する決定手段と、前記背景画像における前記動体に対応する領域に前記シルエット画像が重畳された出力画像であって、前記決定手段により前記エッジを重畳すると決定された前記背景画像における領域に前記エッジが重畳された出力画像を生成する生成手段と、を有し、前記決定手段は、前記撮像画像に含まれる動体と前記撮像手段との距離が閾値を超える場合、前記動体に対応する領域を、前記背景画像に前記エッジが重畳させる領域として決定することを特徴とする
本発明によれば、撮像した画像に映る人物のプライバシーを適切に保護することができる。
システム構成を示す図である。 画像処理装置の機能ブロックを示す図である。 出力画像を生成する処理の流れを示すフローチャートである。 出力画像を生成する処理を説明するための図である。 設定画面を説明するための図である。 出力画像を生成する処理の流れを示すフローチャートである。 出力画像を生成する処理を説明するための図である。 設定画面を説明するための図である。 各装置のハードウェア構成を示す図である。
以下、添付図面を参照しながら、本発明に係る実施形態について説明する。なお、以下の実施形態において示す構成は一例に過ぎず、図示された構成に限定されるものではない。
(実施形態1)
図1は、本実施形態におけるシステム構成を示す図である。本実施形態におけるシステムは、画像処理装置100、撮像装置110、記録装置120、およびディスプレイ130を有している。
本実施形態に係る画像処理装置100は、撮像装置110により撮像された撮像画像に対し、出力画像を生成する生成処理を次のように実行する。すなわち、本実施形態に係る画像処理装置100は、撮像画像から動体を検知し、撮像画像からエッジを抽出する。更に、画像処理装置100は、検知した動体の位置に基づき、動体の領域を抽象化したシルエット画像が重畳される画像である背景画像における当該動体に対応する領域に対してエッジを重畳するかを決定する。そして、画像処理装置100は、シルエット画像が背景画像に重畳された画像であって、エッジを重畳すると決定された背景画像における領域に抽出されたエッジが重畳された画像を生成する。なお、画像処理装置100による出力画像の生成処理についての詳しい説明は後述する。なお、画像処理装置100は、例えば、後述する画像処理の機能を実現するためのプログラムがインストールされたパーソナルコンピュータ等によって実現される。
画像処理装置100、撮像装置110、および記録装置120は、ネットワーク140を介して相互に接続されている。ネットワーク140は、例えばETHERNET(登録商標)等の通信規格に準拠する複数のルータ、スイッチ、ケーブル等から実現される。
なお、ネットワーク140は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless Lan)、WAN(Wide Area Network)等により実現されてもよい。
撮像装置110は、画像を撮像する装置である。撮像装置110は、撮像した画像である撮像画像に基づく画像データと、撮像装置110を識別する情報である識別情報とを関連付けて、ネットワーク140を介し、画像処理装置100や記録装置120等の外部装置へ送信する。なお、本実施形態に係るシステムにおいて、撮像装置110は1つとするが、複数であってもよい。
記録装置120は、撮像装置110が撮像した撮像画像の画像データと、撮像装置110を識別する識別情報とを関連付けて記録する。そして、画像処理装置100からの要求に従って、記録装置120は、記録したデータ(撮像画像、識別情報など)を画像処理装置100へ送信する。
ディスプレイ130は、LCD(Liquid Crystal Display)等により構成された表示装置である。また、ディスプレイ130は、HDMI(登録商標)(High Definition Multimedia Interface)等の通信規格に準拠したディスプレイケーブルを介して画像処理装置100と接続されている。
また、ディスプレイ130は、表示手段として機能し、撮像装置110が撮像した撮像画像や、後述する画像処理に係る設定画面等を表示する。なお、ディスプレイ130、画像処理装置100、および記録装置120の少なくともいずれか2つ又は全ては、単一の筐体に設けられてもよい。
次に、図2に示す本実施形態に係る画像処理装置100の機能ブロックを参照して、本実施形態に係る画像処理装置100の画像処理について説明する。なお、図2に示す各機能は、本実施形態の場合、図9に示すROM(Read Only Memory)920とCPU(Central Processing Unit)900とを用いて、次のようにして実現されるものとする。図2に示す各機能は、画像処理装置100のROM920に格納されたコンピュータプログラムを画像処理装置100のCPU900が実行することにより実現される。
通信部200は、図9を参照して後述するI/F(Interface)940によって実現でき、ネットワーク140を介して、撮像装置110や記録装置120と通信を行う。通信部200は、例えば、撮像装置110が撮像した撮像画像の画像データを受信したり、撮像装置110を制御するための制御コマンドを撮像装置110へ送信したりする。なお、制御コマンドは、例えば、撮像装置110に対して画像を撮像するよう指示を行うコマンドなどを含む。
記憶部201は、図9を参照して後述するRAM(Random Access Memory)910やHDD(Hard Disk Drive)930等によって実現でき、画像処理装置100による生成処理に関わる情報やデータを記憶する。例えば、記憶部201は、撮像画像から検知された動体の位置に関する情報を記憶する。
表示制御部202は、撮像装置110が撮像した撮像画像や、本実施形態に係る生成処理に関する設定を行う設定画面、生成処理により生成された出力画像などをディスプレイ130に表示させる。なお、表示制御部202によりディスプレイ130に表示される設定画面や出力画像についての詳しい説明は後述する。
操作受付部203は、キーボードやマウス等の入力装置(不図示)を介して、ユーザが行った操作を受け付ける。
検知部204は、撮像画像に含まれる動体を検知する。なお、検知部204は、通信部200が受信した撮像画像と背景画像とを比較する背景差分法により、動体を検知するものとする。なお、背景画像は、画像にプライバシーを保護する対象(隠蔽対象)とする特定の物体(本実施形態では人物)が含まれていない状態の画像であるものとする。
検知部204は、例えば、背景画像に対する差分の領域を示す前景領域を「1」とし、その他の領域を「0」とする2値画像を生成する。この場合、検知部204は、例えば、背景画像の各画素と撮像画像の各画素とで差分値を算出し、算出した差分値が閾値以上の画素については前景領域を表す「1」を設定し、閾値未満の場合は「0」を設定することにより、2値画像を生成することができる。このようにして検知部204は、特定した前景領域を動体とする。なお、検知部204により検知される動体は、背景差分法により特定される静止した前景領域を含むものとする。なお、検知部204は、背景差分のみならず、他の手法によって前景領域を特定してもよい。例えば、検知部204は、前フレームと現在のフレームとのフレーム間差分処理を行って、動体を検知してもよい。
抽出部205は、撮像画像からエッジを抽出する。なお、本実施形態に係る抽出部205は、検知部204により検知された撮像画像における動体に対応する領域からエッジを抽出する。具体的には、抽出部205は、例えば、撮像画像における動体に対応する領域において隣接する画素同士の輝度や明度の差分を算出し、算出した輝度(または明度)が閾値を超えた場合、輝度(または明度)の値が高い方の画素をエッジとして抽出する。なお、抽出部205は、撮像画像全体からエッジを抽出するようにしてもよいし、撮像画像において予め設定された領域からエッジを抽出するようにしてもよい。なお、撮像画像からエッジを抽出する方法としては、公知の技術を用いればよく、ソーベルフィルタやラプラシアンフィルタを用いる方法、キャニー法などを用いてもよい。
決定部206は、撮像画像に含まれる動体の位置に基づき、動体の領域を抽象化したシルエット画像が重畳される画像である背景画像における動体に対応する領域に対してエッジを重畳するかを決定する。本実施形態における決定部206は、検知部204により検知された動体が撮像画像における所定位置より上部に位置する場合、背景画像における当該動体に対応する領域に対してエッジを重畳すると決定する。なお、決定部206は、撮像画像に含まれる動体と撮像装置110との距離を取得し、取得した距離が閾値以上の場合、背景画像における当該動体に対応する領域に対してエッジを重畳すると決定するようにしてもよい。この場合、決定部206は、撮像画像に含まれる動体と撮像装置110との距離が閾値未満の場合、背景画像における当該動体に対応する領域に対してエッジを重畳しないと決定する。決定部206による処理の詳細な説明については後述する。
生成部207は、検知部204により検知された動体の領域を抽象化したシルエット画像を生成する。シルエット画像とは、被写体のプライバシーを守るために、抽象化(個人を識別できないように画像を加工)したものである。生成部207は、例えば、画像における動体の領域を所定の色(青や赤など)に塗りつぶしたり、当該動体の領域をモザイクにしたりすることで、シルエット画像を生成する。なお、シルエット画像は、個人を識別できないよう画像を加工するものであればよく、上記の方法には限らない。
また、生成部207は、背景画像における動体に対応する領域にシルエット画像が重畳された出力画像であって、決定部206によりエッジを重畳すると決定された背景画像における領域に抽出部205により抽出されたエッジが重畳された出力画像を生成する。生成部207により生成された出力画像は表示制御部202によってディスプレイ130に表示される。なお生成部207により生成される出力画像は、ディスプレイ130等の表示装置に表示されるだけでなく、記憶部201に記憶したり、記録装置120等の外部装置へ配信したりしてもよい。
なお、本実施形態において検知部204による背景差分法にて用いられる背景画像と、シルエット画像が重畳される背景画像は異ならせてもよい。例えば、検知部204による背景差分法にて用いられる背景画像は、直近5フレームの撮像画像に基づき生成された画像とし、シルエット画像が重畳される背景画像は予めユーザが設定した画像であってもよい。
次に、図3および図4を参照して、本実施形態に係る画像処置装置100の画像処理について更に詳細に説明する。なお、図3は、本実施形態に係る画像処理装置100による出力画像を生成する生成処理の流れを示すフローチャートである。また、図4は、本実施形態に係る画像処理装置100による出力画像を生成する生成処理を説明するための図である。なお、図3に示すフローを実行することにより、シルエット画像が背景画像に重畳された画像であって、決定部206によりエッジを重畳すると決定された背景画像における領域に抽出部205により抽出されたエッジが重畳された画像が生成される。
なお、図3に示すフローチャートは、なお、図3に示すフローチャートの処理は、ユーザによる操作に従って開始または終了するものとする。なお、図3に示すフローチャートの処理は、画像処理装置100のROM920に格納されたコンピュータプログラムを画像処理装置100のCPU900が実行して実現される図2に示す各機能ブロックにより実行されるものとする。
図3に示すS301にて、通信部200は、撮像装置110が撮像した撮像画像を受信する。図4(a)は、S301にて通信部200が受信する撮像画像の一例を示す図である。図4(a)に示すように、通信部200が受信した撮像画像には人物401a~404aの4人が含まれている。
次にS302にて、検知部204は、通信部200が受信した撮像画像と、背景画像とで比較を行い、動体を検知する。具体的には、検知部204は、撮像画像の各画素の輝度と、背景画像の各画素の輝度とで差分値を算出し、算出した差分値が閾値以上の画素を動体として検知する。図4(b)は、撮像画像から検知された動体を示す図である。図4(b)に示す動体領域401b~404bは、検知部204により検知された動体の領域である。
なお、検知部204が動体を検知するにあたって用いる背景画像は、生成部207により生成されるものとする。例えば、生成部207は、現在注目している最新の撮像画像より前に撮像された直近の5フレーム分の撮像画像を用いて、当該5フレーム分の撮像画像の各画素値の平均値を求めることで背景画像を生成する。なお、生成部207により生成される背景画像は予め登録されたものであってもよい。なお、図4(e)に示す撮像画像は、生成部207により生成される背景画像の一例である。
次に、S303にて、生成部207は、検知部204により検知された動体の領域を抽象化したシルエット画像を生成する。図4(c)に示すシルエット画像401c~404cは、検知部204により検知された動体領域401b~404bに対して、生成部207によって、抽象化(個人を識別できないように画像を加工)の処理が行われた画像である。本実施形態における生成部207は、動体領域401b~404bの各々に対し、単色で塗りつぶすことでシルエット画像401c~404cを生成する。
次に、S304にて、抽出部205は、撮像画像からエッジを抽出する。本実施形態における抽出部205は、検知部204により検知された撮像画像における動体に対応する領域からエッジを抽出する。具体的には、抽出部205は、検知部204により検知された撮像画像における動体領域401b~404bごとに、動体領域を囲う領域であって、当該動体領域より面積の大きい領域からエッジを抽出する。なお、本実施形態における抽出部205は、動体に対応する領域からエッジを抽出するものとしたが、画像全体からエッジを抽出してもよい。
次に、S305にて、決定部206は、撮像画像に含まれる動体の位置に基づき、背景画像における当該動体に対応する領域に対して抽出部205により抽出されたエッジを重畳するかを決定する。本実施形態における決定部206は、検知部204により検知された動体が撮像画像における所定位置より上部に位置する場合、背景画像における当該動体に対応する領域を、エッジが重畳される領域として決定する。一方、決定部206は、検知部204により検知された動体が撮像画像における所定位置より下部に位置する場合、背景画像における当該動体に対応する領域を、エッジが重畳されない領域として決定する。
図4に示す例では、決定部206は、動体領域401b~404bのうち、背景画像における領域であって、撮像画像における所定位置であるライン405より上部に位置する動体領域に対応する背景画像における領域を、エッジが重畳される領域として決定する。図4(b)に示す例では、決定部206は、動体領域401bおよび402bを、背景画像にエッジが重畳される領域として決定する。なお、このとき、決定部206は、動体領域401b~404b各々の重心位置とライン405とを比較し、ライン405より重心位置が上部に位置する動体領域を、背景画像にエッジが重畳される領域として決定するものとする。なお、一つの動体領域とライン405が重なっている場合、決定部206は、次のような処理を行ってもよい。すなわち、決定部206は、当該動体領域においてライン405より上部の領域を、背景画像にエッジが重畳される領域として決定し、当該動体領域においてライン405より下部の領域を、背景画像にエッジが重畳されない領域といて決定するようにしてもよい。
次に、S306にて、生成部207は、生成したシルエット画像が背景画像に重畳された出力画像であって、決定部206によりエッジを重畳すると決定された背景画像における領域に抽出部205により抽出されたエッジが重畳された出力画像を生成する。図4(d)に示す画像は、生成部207により生成される出力画像の一例を示す図である。図4(d)に示すように、生成部207は、シルエット画像401c~404cが背景画像に重畳された出力画像であって、決定部206によりエッジを重畳すると決定された動体領域401bおよび402bに対しエッジが重畳された出力画像を生成する。図4(d)に示す出力画像のシルエット画像401dが示すように、シルエット画像401cが背景画像に重畳された出力画像であって、撮像画像における動体領域401bから抽出されたエッジが背景画像に重畳された出力画像が生成されている。シルエット画像401dが示すように、シルエット画像401cに対して動体領域401から抽出されたエッジが重畳されたような出力画像が生成される。同様に、シルエット画像402dが示すように、シルエット画像402cが背景画像に重畳された出力画像であって、撮像画像における動体領域402bから抽出されたエッジが背景画像に重畳された出力画像が生成されている。
次に、S307にて、表示制御部202は、S306にて生成部207により生成された出力画像をディスプレイ130に表示させる。
次に、S308にて、ユーザにより終了が指示されている場合は、処理を終了し、終了が指示していなければ、S301へ遷移し、通信部200は次のフレームの画像を取得する。
本実施形態では、撮像画像の手前側では人物が大きく映り、撮像画像の奥側では人物が小さく映る場合を想定している。そのため、撮像画像における所定位置であるライン405より上部の領域(撮像装置110からより遠い領域)に映る人物は比較的小さく映るため、エッジを重畳しても個人を識別可能な度合である識別性は低い。よって、ライン405より上部の領域(撮像装置110からより遠い領域)においては、人物の数が多く混雑していても、人物の各々のプライバシーを保護しつつ、エッジを重畳することで直感的に何人いるのかユーザに分かり易く提示することができる。
一方、撮像画像における所定位置であるライン405より下部の領域(撮像装置110により近い領域)に映る人物は比較的大きく映ってしまうため、エッジを重畳してしまうと、個人を識別可能な度合である識別性は高いことがある。よって、ライン405より下部の領域(撮像装置110により近い領域)においては、人物の各々のプライバシーを保護するために、エッジを重畳しない。なお、ライン405より下部の領域(撮像装置110により近い領域)においては、シルエット画像であっても比較的大きく映る。そのため、人物が混雑している場合であっても、エッジを重畳することなく、何人存在しているのか直感的にユーザは認識することができると考えられる。このように、本実施形態における画像処理装置100の画像処理は、検知された動体の位置に応じて、適応的にエッジを重畳するか否かを制御する。このようにすることで、画像に映る人物のプライバシーを保護しつつ、画像に多くの人物が存在しても、何人いるのか把握しやすくすることができる。
なお、本実施形態における画像処理装置100の決定部206は、画像に含まれる動体の位置に基づき、画像が示す全ての領域のうちから、背景画像に抽出部205が抽出したエッジが重畳される領域を決定したが、これに限らない。例えば、決定部206は、画像に含まれる動体の位置に基づき、画像が示す全ての領域においてユーザが指定した領域のうちから、背景画像に抽出部205が抽出したエッジが重畳される領域を決定してもよい。
ここで、図5を参照して、決定部206が、撮像画像に含まれる動体の位置に基づき、撮像画像が示す全ての領域においてユーザが指定した領域のうちから、背景画像に抽出部205が抽出したエッジが重畳される領域を決定する処理について説明する。図5に示す設定画面501は、表示制御部202によりディスプレイ130に表示される画面の一例である。設定画面501における撮像画像502は、撮像装置110が撮像した画像である。
対象領域503は、エッジが重畳される対象となる領域を示している。ユーザは、設定ボタン504を押すことで、撮像画像502に対し領域を表示し、当該領域のサイズと位置とをマウスのドラッグなどにより調節することで、対象領域503の設定を行うことができる。なお、図4を参照して説明した、背景画像に対しエッジを重畳するか否かの基準であるライン405は、図5に示すように、ユーザによって設定されてもよい。
最後に、ユーザは、OKボタン505を押すことで、設定画面501上で設定した情報が保存され、設定画面501は閉じられる。一方、ユーザは、キャンセルボタン506を押した場合、設定画面501上で設定した情報は保存されずに設定画面501は閉じられる。
以上説明したように図5に示す設定画面501において対象領域503が設定された場合、決定部206は次のような処理を実行する。すなわち、決定部206は、画像に含まれる動体の位置と、設定された対象領域503の情報と、に基づき、背景画像に抽出部205が抽出したエッジが重畳される領域を決定する。例えば、画像から検知された動体がライン405より上部であっても、決定部206は、対象領域503以外の領域における当該動体の領域は、重畳領域としない。言い換えれば、本実施形態における決定部206は、ライン405より上部であり、対象領域503に含まれる動体の領域を重畳領域とする。
なお、本実施形態における決定部206は、撮像画像に含まれる動体の位置に基づき、背景画像における当該動体に対応する領域に対してエッジを重畳するかを決定するが、次のような処理を行ってもよい。すなわち、決定部206は、撮像画像から被写界深度に関連するパラメータである焦点距離の情報を取得し、取得した焦点距離の情報に基づき、撮像画像におけるボケが発生している領域を判定する。または、決定部206は、撮像画像から抽出したエッジの長さや密度に基づき、撮像画像におけるボケが発生している領域を判定する。そして、決定部206は、画像におけるボケが発生している領域から抽出部205により抽出されたエッジは背景画像に重畳する。一方、決定部206は、画像におけるボケが発生していない領域から抽出部205により抽出されたエッジは背景画像に重畳にしないようにする。この方法は、画像中の位置によって被写界深度に応じてボケ具合が変化することから、ボケが少ない領域では識別性が高いと考えられるため、そのような領域ではエッジを重畳しないという考えに基づいている。
撮像画像に含まれる顔の認識を行い、一定の閾値以上の大きさの顔から抽出されたエッジは背景画像に重畳しない技術では、撮像画像から適切に顔の認識を行えなかった場合、比較的大きく映る顔のエッジが背景画像に重畳されることがある。その結果、適切に画像に売る人物のプライバシーを保護できなくなることがある。しかしながら、本実施形態における画像処理装置100は、検知された動体の位置に応じて、エッジを重畳させる重畳領域を決定し、適応的にエッジを重畳するか否かを制御する。このようにすることで、画像に映る人物のプライバシーを保護しつつ、さらに、画像に多くの人物が存在しても、何人いるのか把握しやすくすることができる。
(実施形態2)
本実施形態における画像処理装置100は、画像を複数に分割した分割領域の各々の明るさに基づき、背景画像にエッジが重畳される領域を決定する。以下、図6および図7を参照して本実施形態に係る画像処置装置100の画像処理について説明する。以下、実施形態1と異なる部分を主に説明し、実施形態1と同一または同等の構成要素、および処理には同一の符号を付すとともに、重複する説明は省略する。図6に示すフローは、本実施形態における画像処理装置100による生成処理の流れを説明するためのフローチャートである。図6に示すフローの生成処理を実行することで、画像を複数に分割した分割領域の各々の明るさに基づき、背景画像にシルエット画像とエッジが重畳された出力画像を生成および表示することができる。
なお、図3に示すフローチャートの処理は、ユーザによる操作に従って開始または終了するものとする。なお、図3に示すフローチャートの処理は、画像処理装置100のROM920に格納されたコンピュータプログラムを画像処理装置100のCPU900が実行して実現される図2に示す各機能ブロックにより実行されるものとする。
S301~S304までの処理は実施形態1と同様であるため説明を省略する。S601にて、決定部206は、撮像画像を複数に分割した分割領域の各々の明るさに基づき、背景画像にエッジが重畳される領域を決定する。図7(a)に示すように撮像画像700に対して分割領域701~709が設定されている。決定部206は、分割領域701~709の各々について、明るさを算出する。具体的には、決定部206は、例えば、各分割領域における画素の輝度の平均値を算出することで、各分割領域における明るさを算出する。なお、決定206は、各分割領域における画素の明度の平均値を算出することで、各分割領域における明るさを算出するようにしてもよい。
S602にて、決定部206は、複数の分割領域のうち、明るさが所定の条件を満たす分割領域において検知された動体の領域を、背景画像にエッジが重畳される領域として決定する。具体的には、決定部206は、例えば、輝度の平均値が閾値を超える分割領域において検知された動体の領域を、背景画像にエッジが重畳される領域として決定する。S306~S307までの処理は実施形態1と同様であるため説明を省略する。
なお、本実施形態における決定部206は、複数の分割領域のうち、明るさが所定の条件を満たす分割領域において検知された動体の領域を、背景画像にエッジが重畳される領域として決定するがこれに限らない。例えば、決定部206は、撮像画像全体の明るさが所定の条件を満たす場合において、検知された動体の領域を、背景画像にエッジが重畳される領域として決定してもよい。このとき、決定部206は、撮像画像全体の各画素の輝度(または明度)の平均値が閾値を超える場合、検知された動体の領域を、背景画像にエッジが重畳される領域として決定する。
ここで、図8に示す設定画面801を参照して、本実施形態に係る出力画像を生成する処理に関する設定で用いられるユーザインターフェースについて説明する。図8に示す設定画面801は、表示制御部202によりディスプレイ130に表示される画面の一例である。画像502は、対象領域503は、設定ボタン504、OKボタン505、およびキャンセルボタン506の説明は実施形態1と同様であるため説明を省略する。
分割領域801~809は、明るさの判定が行われる領域を示している。ユーザは、設定ボタン810をマウスのクリック等により押すことで、画像502に対し分割領域801~809の各々を設定することができる。例えば、ユーザは、設定ボタン810を押したのち表示される入力画面(不図示)上で分割領域の個数を入力することで、ユーザが入力した個数に基づく分割領域が設定画面801における画像502上に表示される。
なお、ユーザは、条件テーブル811におけるチェックボックスをマウス等により入力することで、実施形態1に係る処理により出力画像を生成するか、実施形態2に係る処理により出力画像を生成するか選択できるようにしてもよい。
以上説明したように本実施形態に係る画像処理装置100の決定部206は、撮像画像の明るさに基づき、動体の領域を抽象化したシルエット画像が重畳される画像である背景画像における当該動体に対応する領域に対してエッジを重畳するかを決定する。そして、画像処理装置100は、シルエット画像が前記背景画像に重畳された画像であって、決定部206によりエッジを重畳すると決定された背景画像における領域に抽出部205により抽出されたエッジが重畳された画像を生成する。このようにすることで、撮像した画像に映る人物のプライバシーを適切に保護することができる。
(その他の実施形態)
次に図9を参照して、各実施形態の各機能を実現するための画像処理装置100のハードウェア構成を説明する。なお、以降の説明において画像処理装置100のハードウェア構成について説明するが、記録装置120および撮像装置110も同様のハードウェア構成によって実現される。
本実施形態における撮像装置110は、CPU900と、RAM910と、ROM920、HDD930と、I/F940と、を有している。
CPU900は画像処理装置100を統括制御する中央処理装置である。RAM910は、CPU1400が実行するコンピュータプログラムを一時的に記憶する。また、RAM1410は、CPU900が処理を実行する際に用いるワークエリアを提供する。また、RAM910は、例えば、フレームメモリとして機能したり、バッファメモリとして機能したりする。
ROM920は、CPU900が画像処理装置100を制御するためのプログラムなどを記憶する。HDD930は、画像データ等を記録する記憶装置である。
I/F940は、ネットワーク140を介して、TCP/IPやHTTPなどに従って、外部装置との通信を行う。
なお、上述した各実施形態の説明では、CPU900が処理を実行する例について説明するが、CPU900の処理のうち少なくとも一部を専用のハードウェアによって行うようにしてもよい。例えば、ディスプレイ130にGUI(Graphical User Interface)や画像データを表示する処理は、GPU(Graphics Processing Unit)で実行してもよい。また、ROM920からプログラムコードを読み出してRAM910に展開する処理は、転送装置として機能するDMA(Direct Memory Access)によって実行してもよい。
なお、本発明は、上述の実施形態の1以上の機能を実現するプログラムを1つ以上のプロセッサが読出して実行する処理でも実現可能である。プログラムは、ネットワーク又は記憶媒体を介して、プロセッサを有するシステム又は装置に供給するようにしてもよい。また、本発明は、上述の実施形態の1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。また、撮像装置110の各部は、図9に示すハードウェアにより実現してもよいし、ソフトウェアにより実現することもできる。
なお、各実施形態に係る画像処理装置100の1以上の機能は、撮像装置110が有していてもよい。例えば、図1に示す画像処理装置100の検知部204、抽出部205、決定部206、生成部207は撮像装置110が有していてもよい。この場合、撮像装置110は、上述した各実施形態に係る画像処理により生成した出力画像を外部装置(画像処理装置100等)へ送信する。そして、当該外部装置に接続された表示装置(ディスプレイ130等)に出力画像が表示されるようにしてもよい。
以上、本発明を実施形態と共に説明したが、上記実施形態は本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲は限定的に解釈されるものではない。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱しない範囲において、様々な形で実施することができる。例えば、各実施形態を組み合わせたものも本明細書の開示内容に含まれる。
100 画像処理装置
110 撮像装置
120 記録装置
130 ディスプレイ
200 通信部
201 記憶部
202 表示制御部
203 操作受付部
204 検知部
205 抽出部
206 決定部
207 生成部

Claims (21)

  1. 撮像手段により撮像された撮像画像から動体を検知する検知手段と、
    前記撮像画像からエッジを抽出する抽出手段と、
    前記撮像画像に含まれる前記動体の位置に基づき、当該動体の領域を抽象化したシルエット画像が重畳される画像である背景画像における当該動体に対応する領域に対して前記エッジを重畳するかを決定する決定手段と、
    前記背景画像における前記動体に対応する領域に前記シルエット画像が重畳された出力画像であって、前記決定手段により前記エッジを重畳すると決定された前記背景画像における領域に前記エッジが重畳された出力画像を生成する生成手段と、を有し、
    前記決定手段は、前記撮像画像に含まれる動体と前記撮像手段との距離が閾値を超える場合、前記動体に対応する領域を、前記背景画像に前記エッジが重畳させる領域として決定することを特徴とする画像処理装置。
  2. 前記抽出手段は、前記撮像画像に含まれる動体に対応する領域からエッジを抽出することを特徴とする請求項1に記載の画像処理装置。
  3. 前記検知手段は、背景差分法により前記撮像画像から前記動体を検知することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記生成手段により生成された出力画像を表示装置に出力する出力手段を更に有することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 撮像手段により撮像された撮像画像から動体を検知する検知手段と、
    前記撮像画像からエッジを抽出する抽出手段と、
    前記撮像画像の明るさに基づき、前記動体の領域を抽象化したシルエット画像が重畳される画像である背景画像における当該動体に対応する領域に対して前記エッジを重畳するかを決定する決定手段と、
    前記背景画像における前記動体に対応する領域に前記シルエット画像が重畳された出力画像であって、前記決定手段により前記エッジを重畳すると決定された前記背景画像における領域に前記エッジが重畳された出力画像を生成する生成手段と、を有することを特徴とする画像処理装置。
  6. 前記決定手段は、前記撮像画像を複数に分割した分割領域の明るさに基づき、前記背景画像における領域であって、前記分割領域の前記動体に対応する領域に対して前記エッジを重畳するかを決定することを特徴とする請求項5に記載の画像処理装置。
  7. 前記決定手段は、前記背景画像における領域であって、複数の前記分割領域のうち、輝度の平均値が閾値以下の分割領域における前記動体に対応する領域に対して前記エッジを重畳すると決定することを特徴とする請求項6に記載の画像処理装置。
  8. 前記抽出手段は、前記撮像画像に含まれる動体に対応する領域からエッジを抽出することを特徴とする請求項5乃至7のいずれか1項に記載の画像処理装置。
  9. 前記検知手段は、背景差分法により前記撮像画像から前記動体を検知することを特徴とする請求項5乃至8のいずれか1項に記載の画像処理装置。
  10. 前記生成手段により生成された出力画像を表示装置に出力する出力手段を更に有することを特徴とする請求項5乃至9のいずれか1項に記載の画像処理装置。
  11. 撮像手段により撮像された撮像画像から動体を検知する検知手段と、
    前記撮像画像からエッジを抽出する抽出手段と、
    前記撮像画像に含まれる前記動体の位置に基づき、当該動体の領域を抽象化したシルエット画像が重畳される画像である背景画像における当該動体に対応する領域に対して前記エッジを重畳するかを決定する決定手段と、
    前記背景画像における前記動体に対応する領域に前記シルエット画像が重畳された出力画像であって、前記決定手段により前記エッジを重畳すると決定された前記背景画像における領域に前記エッジが重畳された出力画像を生成する生成手段と、を有し、
    前記決定手段は、前記撮像画像に含まれる動体が前記撮像画像における所定位置より上部に位置する場合、前記背景画像における前記動体に対応する領域を、前記エッジが重畳される領域として決定することを特徴とする画像処理装置。
  12. 前記撮像手段により撮像された撮像画像に対し、ユーザによるラインの指定を受け付ける受付手段を更に有し、
    前記決定手段は、前記動体が前記撮像画像における前記ラインより上部に位置する場合、前記背景画像における前記動体の領域を、前記エッジが重畳される領域として決定することを特徴とする請求項11に記載の画像処理装置。
  13. 撮像手段により撮像された撮像画像から動体を検知する検知手段と、
    前記撮像画像からエッジを抽出する抽出手段と、
    前記撮像画像に含まれる前記動体の位置に基づき、当該動体の領域を抽象化したシルエット画像が重畳される画像である背景画像における当該動体に対応する領域に対して前記エッジを重畳するかを決定する決定手段と、
    前記背景画像における前記動体に対応する領域に前記シルエット画像が重畳された出力画像であって、前記決定手段により前記エッジを重畳すると決定された前記背景画像における領域に前記エッジが重畳された出力画像を生成する生成手段と、を有し、
    前記抽出手段は、前記撮像画像に含まれる動体に対応する領域からエッジを抽出することを特徴とすることを特徴とする画像処理装置。
  14. 撮像手段により撮像された撮像画像から動体を検知する検知工程と、
    前記撮像画像からエッジを抽出する抽出工程と、
    前記撮像画像に含まれる前記動体の位置に基づき、当該動体の領域を抽象化したシルエット画像が重畳される画像である背景画像における当該動体に対応する領域に対して前記エッジを重畳するかを決定する決定工程と、
    前記背景画像における前記動体に対応する領域に前記シルエット画像が重畳された出力画像であって、前記決定工程において前記エッジを重畳すると決定された前記背景画像における領域に前記エッジが重畳された出力画像を生成する生成工程と、を有し、
    前記決定工程は、前記撮像画像に含まれる動体と前記撮像手段との距離が閾値を超える場合、前記動体に対応する領域を、前記背景画像に前記エッジが重畳させる領域として決定することを特徴とする画像処理方法。
  15. 撮像手段により撮像された撮像画像から動体を検知する検知工程と、
    前記撮像画像からエッジを抽出する抽出工程と、
    前記撮像画像の明るさに基づき、前記動体の領域を抽象化したシルエット画像が重畳される画像である背景画像における当該動体に対応する領域に対して前記エッジを重畳するかを決定する決定工程と、
    前記背景画像における前記動体に対応する領域に前記シルエット画像が重畳された出力画像であって、前記決定工程において前記エッジを重畳すると決定された前記背景画像における領域に前記エッジが重畳された出力画像を生成する生成工程と、を有することを特徴とする画像処理方法。
  16. 撮像手段により撮像された撮像画像から動体を検知する検知工程と、
    前記撮像画像からエッジを抽出する抽出工程と、
    前記撮像画像に含まれる前記動体の位置に基づき、当該動体の領域を抽象化したシルエット画像が重畳される画像である背景画像における当該動体に対応する領域に対して前記エッジを重畳するかを決定する決定工程と、
    前記背景画像における前記動体に対応する領域に前記シルエット画像が重畳された出力画像であって、前記決定工程により前記エッジを重畳すると決定された前記背景画像における領域に前記エッジが重畳された出力画像を生成する生成工程と、を有し、
    前記決定工程は、前記撮像画像に含まれる動体が前記撮像画像における所定位置より上部に位置する場合、前記背景画像における前記動体に対応する領域を、前記エッジが重畳される領域として決定することを特徴とする画像処理方法。
  17. 撮像手段により撮像された撮像画像から動体を検知する検知工程と、
    前記撮像画像からエッジを抽出する抽出工程と、
    前記撮像画像に含まれる前記動体の位置に基づき、当該動体の領域を抽象化したシルエット画像が重畳される画像である背景画像における当該動体に対応する領域に対して前記エッジを重畳するかを決定する決定工程と、
    前記背景画像における前記動体に対応する領域に前記シルエット画像が重畳された出力画像であって、前記決定工程により前記エッジを重畳すると決定された前記背景画像における領域に前記エッジが重畳された出力画像を生成する生成工程と、を有し、
    前記抽出工程は、前記撮像画像に含まれる動体に対応する領域からエッジを抽出することを特徴とすることを特徴とする画像処理方法。
  18. コンピュータを請求項1乃至4のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
  19. コンピュータを請求項5乃至10のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
  20. コンピュータを請求項11または12に記載の画像処理装置の各手段として機能させるためのプログラム。
  21. コンピュータを請求項13に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2019016305A 2019-01-31 2019-01-31 画像処理装置、画像処理方法、およびプログラム Active JP7297455B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019016305A JP7297455B2 (ja) 2019-01-31 2019-01-31 画像処理装置、画像処理方法、およびプログラム
US16/773,698 US11263759B2 (en) 2019-01-31 2020-01-27 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019016305A JP7297455B2 (ja) 2019-01-31 2019-01-31 画像処理装置、画像処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2020123280A JP2020123280A (ja) 2020-08-13
JP7297455B2 true JP7297455B2 (ja) 2023-06-26

Family

ID=71836036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019016305A Active JP7297455B2 (ja) 2019-01-31 2019-01-31 画像処理装置、画像処理方法、およびプログラム

Country Status (2)

Country Link
US (1) US11263759B2 (ja)
JP (1) JP7297455B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019204602B4 (de) * 2019-04-01 2020-10-15 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Maskierung von in einem Bild enthaltenen Objekten
CN115866315B (zh) * 2023-02-14 2023-06-30 深圳市东微智能科技股份有限公司 数据处理方法、装置、设备及计算机可读存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016002152A1 (ja) 2014-06-30 2016-01-07 日本電気株式会社 個人情報に配慮した画像処理システム、画像処理方法及びプログラム記憶媒体
JP2017098879A (ja) 2015-11-27 2017-06-01 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6678413B1 (en) * 2000-11-24 2004-01-13 Yiqing Liang System and method for object identification and behavior characterization using video analysis
JP5060047B2 (ja) 2005-10-14 2012-10-31 旭化成株式会社 混雑状況提示装置、及び、混雑状況情報閲覧システム
US8300890B1 (en) * 2007-01-29 2012-10-30 Intellivision Technologies Corporation Person/object image and screening
US8831357B2 (en) * 2007-11-09 2014-09-09 Cognitech, Inc. System and method for image and video search, indexing and object classification
US9153031B2 (en) * 2011-06-22 2015-10-06 Microsoft Technology Licensing, Llc Modifying video regions using mobile device input
WO2014203248A1 (en) * 2013-06-17 2014-12-24 Quantumrgb Ltd. System and method for biometric identification
US9693023B2 (en) * 2014-02-05 2017-06-27 Panasonic Intellectual Property Management Co., Ltd. Monitoring apparatus, monitoring system, and monitoring method
US20160198097A1 (en) * 2015-01-05 2016-07-07 GenMe, Inc. System and method for inserting objects into an image or sequence of images
US9600742B2 (en) * 2015-05-05 2017-03-21 Lucasfilm Entertainment Company Ltd. Determining control values of an animation model using performance capture
JP6624852B2 (ja) 2015-08-27 2019-12-25 キヤノン株式会社 画像情報生成装置、画像情報生成方法、画像処理システム及びプログラム
WO2017126036A1 (ja) * 2016-01-19 2017-07-27 オリンパス株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP6485709B2 (ja) 2016-05-26 2019-03-20 パナソニックIpマネジメント株式会社 座席モニタリング装置、座席モニタリングシステムおよび座席モニタリング方法
US10691947B2 (en) * 2016-09-23 2020-06-23 Hitachi Kokusai Electric Inc. Monitoring device
US11238304B2 (en) * 2017-03-08 2022-02-01 Quantum Rgb Ltd. System and method for biometric identification

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016002152A1 (ja) 2014-06-30 2016-01-07 日本電気株式会社 個人情報に配慮した画像処理システム、画像処理方法及びプログラム記憶媒体
JP2017098879A (ja) 2015-11-27 2017-06-01 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法

Also Published As

Publication number Publication date
US20200250833A1 (en) 2020-08-06
JP2020123280A (ja) 2020-08-13
US11263759B2 (en) 2022-03-01

Similar Documents

Publication Publication Date Title
US8254630B2 (en) Subject extracting method and device by eliminating a background region using binary masks
JP6525545B2 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
EP3506228A1 (en) Image capturing apparatus, image processing apparatus, control method, and program
WO2017163955A1 (ja) 監視システム、画像処理装置、画像処理方法およびプログラム記録媒体
JP6610545B2 (ja) 個人情報に配慮した画像処理システム、画像処理方法及びプログラム
JP2009211311A (ja) 画像処理装置及び方法
US20180144206A1 (en) Setting apparatus, setting method, and storage medium
US10863113B2 (en) Image processing apparatus, image processing method, and storage medium
JP6007523B2 (ja) 生成装置、生成プログラムおよび生成方法
US10713797B2 (en) Image processing including superimposed first and second mask images
JP7297455B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP5111934B2 (ja) 監視装置
JP2016144049A (ja) 画像処理装置、画像処理方法、およびプログラム
US9542777B2 (en) Image processing apparatus, image processing method, and storage medium
WO2018179119A1 (ja) 映像解析装置、映像解析方法および記録媒体
US11410398B2 (en) Augmenting live images of a scene for occlusion
CN110443213A (zh) 面部检测方法、目标检测方法和装置
JP5769468B2 (ja) 物体検出システム及び物体検出方法
US10885348B2 (en) Information processing device, information processing method, and storage medium
JP6348020B2 (ja) 画像処理装置、画像処理方法およびそれを用いた検査方法。
JP7130375B2 (ja) 画像処理装置、撮影装置、画像処理方法、およびプログラム
JP2021056901A (ja) 情報処理装置、情報処理方法、およびプログラム
WO2021014873A1 (ja) 監視装置、監視方法、及びコンピュータ読み取り可能な記録媒体
JP7327936B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5834671B2 (ja) 画像処理装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230614

R151 Written notification of patent or utility model registration

Ref document number: 7297455

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151