JP2020022097A - 画像処理装置、画像処理装置の制御方法、システム、及び、プログラム - Google Patents

画像処理装置、画像処理装置の制御方法、システム、及び、プログラム Download PDF

Info

Publication number
JP2020022097A
JP2020022097A JP2018145412A JP2018145412A JP2020022097A JP 2020022097 A JP2020022097 A JP 2020022097A JP 2018145412 A JP2018145412 A JP 2018145412A JP 2018145412 A JP2018145412 A JP 2018145412A JP 2020022097 A JP2020022097 A JP 2020022097A
Authority
JP
Japan
Prior art keywords
mask
image
captured image
drawn
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018145412A
Other languages
English (en)
Other versions
JP7129843B2 (ja
Inventor
祐治 荒巻
Yuji Aramaki
祐治 荒巻
岩本 和成
Kazunari Iwamoto
和成 岩本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018145412A priority Critical patent/JP7129843B2/ja
Priority to EP19185195.5A priority patent/EP3605468A1/en
Priority to US16/507,517 priority patent/US11165974B2/en
Priority to CN201910639900.3A priority patent/CN110798590B/zh
Priority to KR1020190089550A priority patent/KR102495547B1/ko
Publication of JP2020022097A publication Critical patent/JP2020022097A/ja
Priority to US17/491,552 priority patent/US11765312B2/en
Application granted granted Critical
Publication of JP7129843B2 publication Critical patent/JP7129843B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3872Repositioning or masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • G06T5/75
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Abstract

【課題】固定領域の隠蔽を確実に実現するための技術を提供する。【解決手段】撮像画像に含まれる動体を検出し、検出された動体に基づき、前記動体を隠すように第1のマスクを描画し、前記第1のマスクが描画された撮像画像に対し所定の位置に第2のマスクを重畳して描画し、前記第1のマスクと前記第2のマスクとが描画された撮像画像を表示装置に出力し、前記撮像画像が前記表示装置に表示される場合に、前記第2のマスクが描画された領域内では前記第1のマスクが前記表示装置に表示されないように前記撮像画像を出力する。【選択図】 図1

Description

本発明は、画像処理装置、画像処理装置の制御方法、システム、及び、プログラムに関する。
監視カメラ等で撮像した画像内の特定の領域に対するセキュリティやプライバシーを確保するため、当該特定の領域に固定的にマスクを重畳する技術が知られている。本明細書では、これ以降、特定の領域に固定的に重畳されるマスクのことを固定マスクという。また、画像内に動体が含まれる場合に、当該動体のプライバシーを考慮するため、画像中で動体が含まれる領域(動体領域)にマスクを重畳する技術が知られている。本明細書では、これ以降、動体領域に重畳されるマスクのことを動体マスクという。
特許文献1は、物流センターにおいて搬送される荷物に動体マスクが重畳表示されることを防止するため、ユーザによる設定領域の外にある動体に対してのみ、動体マスクを重畳する方法を開示する。
特開2016−158156号公報
上述の特許文献1に開示された技術では、画像中で動体マスクが描画される可能性のある領域が固定領域に含まれる場合、固定領域に描画される固定マスクの上に更に動体マスクが重畳されると、固定領域における動体の存在が通知されることになりかねない。このような場合、意図している固定マスクによる固定領域の隠蔽が不十分になってしまうおそれがある。
そこで本発明は、固定領域の隠蔽を確実に実現するための技術を提供する。
上記課題を解決するための発明は、画像処理装置であって、
撮像画像を取得する取得手段と、
前記撮像画像に含まれる動体を検出する検出手段と、
検出された前記動体に基づき前記撮像画像に対し、前記動体を隠すように第1のマスクを描画し、前記第1のマスクが描画された撮像画像に対し所定の位置に第2のマスクを重畳して描画する描画手段と、
前記第1のマスクと前記第2のマスクとが描画された撮像画像を表示装置に出力する出力手段と
を備え、
前記出力手段が出力した前記撮像画像が前記表示装置に表示される場合に、前記第2のマスクが描画された領域内では前記第1のマスクが前記表示装置に表示されないように前記出力手段が前記撮像画像を出力することを特徴とする。
本発明によれば、固定領域の隠蔽を確実に実現するための技術を提供できる。
発明の実施形態に対応するシステムの構成の一例を示す図。 発明の実施形態に対応する撮像装置110のハードウェア構成例、及び、クライアント装置120のハードウェア構成例を示すブロック図。 発明の実施形態に対応する撮像装置110の機能構成の一例、及び、クライアント装置120の機能構成のいくつかの例を示すブロック図。 発明の実施形態1に対応するクライアント装置120が行う処理の一例を示すフローチャート。 発明の実施形態1に対応する撮像画像に対する画像処理を説明するための図。 発明の実施形態に対応するシステムにおける出力画像の一例を示す図。 発明の実施形態2に対応するクライアント装置120が行う処理の一例を示すフローチャート。 発明の実施形態2に対応する撮像画像に対応する画像処理を説明するための図。 発明の実施形態3に対応するクライアント装置120が行う処理の一例を示すフローチャート。
<実施形態1>
以下、添付図面を参照し、発明の実施形態について説明する。本実施形態に対応するシステムでは、所定の実空間を撮像して得られた画像において動体を検出し、検出された動体の上に第1のマスクである動体マスクを重畳する。さらに、動体マスクが重畳された画像に対し、撮像画像に対して予め設定された固定領域の情報に基づいて第2のマスクである固定マスクを更に重畳する。このようにして得られた、動体マスク及び固定マスクという2種類のマスクが重畳された画像を出力(表示)する。
本実施形態において、動体には、例えば人物や車両の他、任意のものが含まれる。動体は、それが存在しない実空間を撮像した画像等に基づいて作成される背景画像と、撮像画像との差分に基づいて検出可能な被写体であれば任意のものを含むことができる。また、物体は、撮像対象の実空間内を移動していてもよいし、実空間内の所定の場所に留まっていたり、静止していたりしてもよい。
図1は、発明の実施形態に対応するシステム構成の一例を示す図である。図1に示すように、本実施形態のシステム100は、撮像装置110、クライアント装置120、入力装置130、表示装置140、ネットワーク150を含むように構成される。図1に示すシステム100の構成は、あくまで一例であって、これら以外の構成要素が更に追加されてもよい。以下、各構成要素について説明する。
撮像装置110は、ネットワークカメラなどの撮像装置であり、クライアント装置120において設定された姿勢や画角などの撮像パラメータに従って、実空間を撮像して撮像画像を生成し、ネットワーク150を通して撮像画像をクライアント装置120に対して送信する。撮像装置110は、1台のネットワークカメラだけでなく、複数台のネットワークカメラから構成されてもよい。
クライアント装置120は、撮像装置110からネットワーク150を通して撮像画像を受信する。クライアント装置120は、受信した撮像画像から動体を検出し、検出した動体に基づき撮像画像内に動体領域を設定する。また、動体領域に動体マスクを重畳した後、撮像画像に予め設定されている固定領域に固定マスクを重畳する。クライアント装置120は、動体マスクと固定マスクを重畳した撮像画像を表示装置140に出力して表示する。
入力装置130は、キーボードやマウス、タッチパネルなどのユーザインターフェースにより構成されており、ユーザが操作することで各種の指示をクライアント装置120に対して入力することができる。表示装置140は、CRTや液晶画面などにより構成されており、クライアント装置120による処理結果を画像や文字などを用いて表示することができる。
なお、図1では、クライアント装置120、入力装置130、表示装置140はそれぞれ別個の装置としているが、このような構成に限らない。例えば、これらの装置を一体化させて1つの装置としても良いし、クライアント装置120と表示装置140とを一体化させても良いし、入力装置130と表示装置140とを一体化させても良い。また、クライアント装置120と撮像装置110とを一体化させても良い。
ネットワーク150は、撮像装置110とクライアント装置120とを相互に通信可能な状態で接続する通信網である。ネットワーク150は、例えばEthernet(登録商標)等の通信規格を満足する複数のルータ、スイッチ、ケーブル等から構成される。本実施形態では、ネットワーク150は、撮像装置110とクライアント装置120との間の通信を行うことができるものであればよく、その通信規格、規模、構成を問わない。例えば、ネットワーク150は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless Lan)、WAN(Wide Area Network)等により構成されてもよい。
次に、図2を参照して、撮像装置110とクライアント装置120のハードウェア構成を説明する。まず、撮像装置110のハードウェア構成例について、図2(a)のブロック図を用いて説明する。図2(a)に示すように、撮像装置110は、CPU211、主記憶装置212、補助記憶装置213、駆動部214、撮像部215を含んで構成することができる。なお、図2(a)に示した構成は、撮像装置110に適用可能な構成の一例に過ぎず、適宜変形/変更が可能である。
CPU211は、主記憶装置212に格納されているコンピュータプログラムやデータを用いて処理を実行する。これによりCPU211は、撮像装置110全体の動作制御を行うと共に、撮像装置110が実行する後述の各処理を実行若しくは制御する。例えばCPU211は、主記憶装置212に格納されているコンピュータプログラムやデータを用いて処理を実行することで、図3(a)に示した各機能部の機能を実現する。これら各機能部の詳細については後述する。
主記憶装置212は、RAM(Random Access Memory)等の記憶装置である。主記憶装置212は、補助記憶装置213からロードされたコンピュータプログラムやデータ、撮像部215による撮像画像、ネットワークI/F216を通してクライアント装置120から受信した各種のデータ、を格納するためのエリアを有する。さらに主記憶装置212は、CPU211が各種の処理を実行する際に用いるワークエリアを有する。このように主記憶装置212は、各種のエリアを適宜提供することができる。
補助記憶装置213は、ハードディスクドライブ(HDD)、ROM(Read Only Memory)、SSD(Solid State Drive)等の大容量情報記憶装置である。補助記憶装置213には、OS(オペレーティングシステム)や、撮像装置110が行うものとして後述する各処理をCPU211に実行若しくは制御させるためのコンピュータプログラムやデータが保存されている。また補助記憶装置213には、ネットワークI/F216を通してクライアント装置120から受信したデータ(例えば上記の撮像パラメータ)も保存される。補助記憶装置213に保存されているコンピュータプログラムやデータは、CPU211による制御に従って適宜主記憶装置212にロードされ、CPU211による処理対象となる。
駆動部214は、クライアント装置120から受信した撮像パラメータに基づいて撮像部215を駆動して、該撮像部215の姿勢(撮像方向)や画角等を制御する。駆動部214による制御対象は特定の対象に限らず、撮像部215の姿勢及び画角であっても良いし、何れか一方のみであっても良いし、その他の対象(例えば撮像部215の位置)であっても良い。また、撮像部215の位置や姿勢、画角などは固定しても良く、その場合は、駆動部214は設けなくても良い。
撮像部215は、撮像素子と光学系とを有し、光学系の光軸と撮像素子との交点を撮像中心として被写体の像を撮像素子上に結像する。撮像素子には、CMOS(Complementary metal-Oxide Semiconductor)、CCD(Charged Coupled Device)等がある。ネットワークI/F216は、撮像装置110がネットワーク150を通してクライアント装置120との間のデータ通信を行うために利用するインターフェースである。
図2(b)は、クライアント装置120のハードウェア構成の一例を示す図である。図2(b)に示すように、クライアント装置120は、CPU221、主記憶装置222、補助記憶装置223、入力I/F224、出力I/F225、ネットワークI/F226を有する。
CPU221は、主記憶装置222に格納されているコンピュータプログラムやデータを用いて処理を実行することで、クライアント装置120全体の動作制御を行うと共に、クライアント装置120が行うものとして後述する各処理を実行若しくは制御する。例えばCPU221は、主記憶装置222に格納されているコンピュータプログラムやデータを用いて処理を実行することで、図3(b)の各機能部の機能を実現する。図3(b)の各機能部については後述する。
主記憶装置222は、RAM(Random Access Memory)等の記憶装置である。主記憶装置222は、補助記憶装置223からロードされたコンピュータプログラムやデータ、ネットワークI/F226を通して撮像装置110から受信した各種のデータ(例えば、撮像画像)、を格納するためのエリアを有する。さらに主記憶装置222は、CPU221が各種の処理を実行する際に用いるワークエリアを有する。このように主記憶装置222は、各種のエリアを適宜提供することができる。
補助記憶装置223は、ハードディスクドライブ(HDD)、ROM(Read Only Memory)、SSD(Solid State Drive)等の大容量情報記憶装置である。補助記憶装置223には、OS(オペレーティングシステム)や、クライアント装置120が行うものとして後述する各処理をCPU221に実行若しくは制御させるためのコンピュータプログラムやデータが保存されている。また補助記憶装置223には、ネットワークI/F226を通して撮像装置110から受信した各種のデータ(例えば、撮像画像)や動体検出に使用する背景画像も保存される。補助記憶装置223に保存されているコンピュータプログラムやデータは、CPU221による制御に従って適宜主記憶装置222にロードされ、CPU221による処理対象となる。
入力I/F224は、入力装置130をクライアント装置120に接続するためのインターフェースである。出力I/F225は、表示装置140をクライアント装置120に接続するためのインターフェースである。ネットワークI/F226は、クライアント装置120がネットワーク150を通して撮像装置110との間のデータ通信を行うために利用するインターフェースである。
次に、図3を参照して、撮像装置110とクライアント装置120の機能構成を説明する。まず、図3(a)は、発明の実施形態に対応する撮像装置110の機能構成の一例を示す図である。図3(a)に示した各機能部はハードウェアとして実装しても良いし、ソフトウェア(コンピュータプログラム)として実装しても良い。後者の場合、コンピュータプログラムは補助記憶装置213に保存される。CPU211はコンピュータプログラムを必要に応じて主記憶装置212にロードして実行することで、対応する機能部の機能を実現する。
図3(a)に示すように、撮像装置110の機能構成には、撮像制御部311、信号処理部312、駆動制御部313、通信制御部314を含むことができる。撮像制御部311は、撮像部215の撮像動作を制御し、撮像部215によって撮像された画像を撮像画像として取得する。信号処理部312は、撮像制御部311が取得した撮像画像に対して所定の画像処理を行う。当該画像処理には、例えば、現像処理や符号化処理を含むことができる。なお、撮像装置110による撮像画像に対する符号化は必須ではなく、信号処理部312は、撮像画像に対して符号化処理を行わなくてもよい。
駆動制御部313は、クライアント装置120から受信した撮像パラメータに基づいて撮像部215を駆動して、該撮像部215の姿勢(撮像方向)や画角等を制御する。上記の通り、撮像部215の姿勢(撮像方向)や画角等は固定であっても良い。通信制御部314は、信号処理部312により処理された撮像画像を、ネットワークI/F216を通してクライアント装置120に対して送信する。また通信制御部314は、ネットワークI/F216を通して、クライアント装置120から送信された撮像装置110に対する制御命令(撮像パラメータを含む)等を受信する。
次に、本実施形態に対応するクライアント装置120の機能構成例について図3(b)のブロック図を用いて説明する。図3(b)に示した各機能部はハードウェアとして実装しても良いし、ソフトウェア(コンピュータプログラム)として実装しても良い。後者の場合、コンピュータプログラムは補助記憶装置223に保存される。CPU221はコンピュータプログラムを必要に応じて主記憶装置222にロードして実行することで、対応する機能部の機能を実現する。クライアント装置120の機能構成には、設定判定部321、通信制御部322、画像取得部323、検出部324、描画部325、表示部326を含むことができる。
設定判定部321は、補助記憶装置223に保存された固定領域の設定情報を取得して固定領域の設定(あるいは、固定マスクの描画)に関する種々の判定を行う。当該判定には、例えば、固定領域が設定されているか否か(あるいは、固定マスクを描画する設定であるか否か)、設定されている場合には固定領域の位置、大きさ(あるいは、固定マスクを描画する位置、大きさ)についての判定を含むことができる。また、設定された固定領域(あるいは、描画する固定マスク)が変更されたか否か、固定領域(あるいは、固定マスクを描画する)の設定が解除されたかどうか等を含むこともできる。固定領域の設定方法は特定の設定方法に限らない。例えば、予めユーザが入力装置130を操作して撮像画像上に固定領域を設定し、当該固定領域の設定情報を補助記憶装置223に保存しておいても良い。また、他の形態として、本システムを適用する現場において、撮像画像において隠したい物体があらかじめ決まっていたとする。このとき、システム100を稼働させて撮像画像を取得し、該撮像画像に対して隠したい物体の検出処理を行い、検出した物体が隠れるような領域を固定領域に定め、その情報を補助記憶装置223に保存しても良い。固定領域の設定情報には様々な情報が考えられる。例えば、固定領域の左上隅の位置及び右下隅の位置の情報としても良いし、固定領域の左上隅の位置と固定領域の縦及び横のサイズの情報としても良い。
通信制御部322は、撮像装置110から送信された画像(符号化済み)をネットワークI/F226を介して取得する。また通信制御部322は、撮像装置110への制御命令を、ネットワークI/F226を介して撮像装置110に対して送信する。画像取得部323は、通信制御部322が撮像装置110から受信した撮像画像を取得して復号する。なお、撮像装置110が符号化することなく撮像画像をクライアント装置120に対して送信する場合、画像取得部323は通信制御部322が撮像装置110から受信した画像を復号することなく取得する。
検出部324は、画像取得部323が取得した撮像画像に対して動体検出処理を行い、検出した動体と関連付けられる領域を動体領域とする。本実施形態の動体検出処理においては、撮像画像から動体を検出するために背景差分法を用いることができる。具体的には、予め取得しておいた背景画像と撮像画像とを比較し、対応する位置にある画素同士で輝度値の差分を計算する。背景画像は補助記憶装置223に保存しておくことができる。そして、得られた差分が閾値を超えた画素からなる領域を動体領域と判断する。ただし、動体検出処理の実現方法は背景差分法に限定されるものではなく、他の公知の方法を使用してもよい。例えば、本実施形態では輝度値の差分を用いたが、RGB値を三次元の座標として扱い、差分として背景画像のRGB値と撮像画像のRGB値の距離を測っても良い。また、背景差分に限らず、例えばオプティカルフローのように画像内の各座標の移動方向を計算して動体を検出してもよい。本実施形態では、あらかじめ用意しておく背景画像には、固定マスクは重畳されていないものとする。
描画部325は、撮像画像上の動体領域に動体マスクを描画し、撮像画像上の固定領域に固定マスクを描画する。表示部326は、描画部325による描画処理済みの撮像画像を表示装置140に表示させる。なお、図3(c)に示すクライアント装置120の機能構成については、後述する実施形態2及び3で説明する。
次に、図4を参照して、発明の実施形態に対応するクライアント装置120における画像の出力処理の一例を説明する。ここでは特に、クライアント装置120が動体マスクを重畳した画像に固定マスクを重畳した画像を出力する処理を説明する。図4のフローチャートに従った処理は、撮像装置110による1枚の撮像画像についての処理である。したがって、撮像装置110から複数の撮像画像がクライアント装置120に対して送信される場合、クライアント装置120は、それぞれの撮像画像について図4のフローチャートに従った処理を行う。以下では説明を簡単にするために、撮像装置110からは画像を符号化せずに送信したものとする。
S400では、画像取得部323が、通信制御部322がネットワークI/F226を介して撮像装置110から受信した撮像画像を主記憶装置222に記憶させる。ここで取得される撮像画像の一例を図5(a)、(b)を参照して説明する。図5(a)の撮像画像500は、動体である作業員501、502、503が含まれている撮像画像の一例を示す。図5(b)の撮像画像510は、作業員501等の動体を含んでいない撮像画像の一例を示す。
続くS401では、検出部324が、S400で主記憶装置222に記憶された撮像画像から、上記の背景差分法により動体を検出し、検出した動体に基づき動体領域を設定する。例えば、図5(a)の撮像画像500を取得した場合、検出部324は作業員501、502、503を検出することになるので、検出された作業員501、502、503のそれぞれについて動体領域が設定される。このとき設定される動体領域の一例を図5(c)に示す。図5(c)では、画像500において検出された作業員501から503のそれぞれの位置に対して、動体領域521から523が設定されている。一方、図5(b)の撮像画像500を取得した場合、検出部324は動体を検出しないので動体領域は設定されない。また、図5(d)は、動体検出に使用される背景画像の一例を示した図である。
続くS402では、描画部325が、撮像画像のS401で設定した動体領域に動体マスクを描画する。このとき、S401において撮像画像から動体が検出されなかった場合には、動体マスクは描画されない。続くS403では、設定判定部321が固定領域の設定についての判定を行う。本実施形態では、図5(a)中の領域504が固定領域として設定されたと判定される。図5(c)に示されるように、固定領域504は、作業員503を動体として検出することで設定された動体領域523と重なることになる。続くS404では、描画部325は、撮像画像における固定領域に固定マスクを描画する。但し、S403において固定領域が設定されていないと判定された場合には固定マスクは描画されない。続くS405では、上記処理によって得られた撮像画像を、出力I/F225を通して表示装置140に対して出力する。
上記処理の結果として得られる出力画像について図6を参照して説明する。図6は、撮像画像が図5(a)、(b)の場合に、表示装置140に表示される撮影画像の一例を示す。図6(a)は、撮像画像が図5(a)の撮像画像500であった場合の表示画像の一例を示している。図6(a)に示す表示画像600では、画像500で作業員501、502のそれぞれに対して設定された動体領域521、522に対して、動体マスク601、602が描画されている。また、撮像画像500の固定領域504の領域に対して、固定マスク603が描画されている。
このとき、図4の処理の順序では、S402において先に動体領域523に対して動体マスクが描画され、その後のS404において動体領域523を含めた固定領域504に固定マスク603を重畳するよう描画が行われる。従って、動体領域523に先に描画された動体マスクは、固定マスク603により上書きされ、画像600の固定マスク603が描画された固定領域504内には動体マスクが視認可能に描画されることがなくなる。よって、固定領域504内の作業員503の存在を処理結果の画像600からは判別できないことになり、固定領域504の隠蔽を確実に実現することができる。
ここで、動体マスクは、動体領域の形状に対応する画像であってもよいし、また、動体領域を包含する任意の形状を有する画像であってもよい。また、固定マスクは、固定領域を包含する形状を有する画像である。しかし、これらのマスクに適用可能な画像は特定の画像に限らない。例えば、一定のパターンで塗りつぶされた画像、ドット柄やボーダ、一色で塗りつぶされた画像を動体マスク、固定マスクとして使用しても良い。また、例えば、特定のタイミングで取得された撮像画像、あらかじめ補助記憶装置223に登録されている画像を動体マスク、固定マスクとして使用しても良い。また、撮像画像と動体マスク、固定マスクとのアルファブレンドを用いて、撮像画像に動体マスク、固定マスクを描画するようにしても良い。また、動体マスクと固定マスクとは同じマスクでなくても良いし、描画方法も同じでなくても良い。なお、固定マスクを設定しているときに動体マスクを有効化した場合、固定マスクの設定を削除するようにユーザに通知してもよい。
また、図6(b)は、撮像画像が図5(b)の撮像画像510であった場合の表示画像の一例を示す。図6(b)に示す撮像画像610では、撮像画像510に動体が存在していなかったので動体マスクは描画されず、固定領域504に固定マスク613だけが描画されている。
以上説明したように、本実施形態によれば、撮像画像中に動体が含まれる場合であって、かつ、固定領域が設定されている場合に、先に描画された動体マスクの上に固定マスクを重畳する。これにより、表示出力される画像の固定マスク領域内には動体マスクが視認可能に残存することが無くなるので、固定領域を確実に隠蔽することができる。
<実施形態2>
上述の実施形態1では、固定領域が設定された場合に、固定領域を確実に隠蔽する方法について記述した。実施形態1では、あらかじめ用意しておく背景画像には固定マスクが重畳されていなかったので、固定領域の設定が解除(削除)された場合でも、表示装置140における表示結果に影響を与えることはなかった。しかし、背景画像に固定マスクが重畳されている場合に固定領域の設定が解除、あるいは、設定されていた固定領域の数が減少すると、表示装置140が表示する画像において固定マスクと同色の動体の一部の領域が露出してしまうおそれがある。
例えば、撮像画像が図8(a)の撮像画像800であり、背景画像が図8(b)の背景画像810であった場合を考える。撮像画像800には、作業員801から803の3人が動体として含まれる。一方、背景画像810では、固定マスク813が設定されている。この2つの画像に基づき背景差分法を適用すると、作業員801から803が動体として検出される。そして、動体領域に対して動体マスクが描画された後、固定マスクがさらに重畳される。この処理の過程において、作業員803は動体として検出されるが、作業員803の衣服の色が固定マスク813の色と同色、あるいは、類似しているために、衣服部分(動体の一部)は動体として検出されず、結果として衣服部分には動体マスクが描画されなくなってしまう。しかし、固定領域が設定されている限りは、固定領域に対して固定マスクが描画されるので、最終的に得られる画像において作業員803に対して描画される動体マスクの範囲は問題とならない。
しかし、固定領域の設定が解除された場合、動体マスクの上に固定マスクが重畳されなくなるため、動体マスクが適切に描画されていない場合には、動体を適切に隠蔽することができないおそれがある。図8(c)に、そのような場合の一例として、撮像画像800に動体マスクを描画した結果の画像820を示す。図8(a)に示した撮像画像800では、作業員803の衣服の色が灰色であり、背景画像810の固定マスク813の色と同色である。このような場合に、衣服部分で背景差分の値が有意値を示さないと判定されると、設定される動体領域は図8(c)に示すようになる。図8(c)において、ハッチング領域821、822、823が動体領域であるが、動体領域823においては、矩形領域の全部にハッチングがかけられておらず、作業員803の衣服の部分824が元々の衣服の色のまま残存している。
このような事態は、例えば固定領域の設定が解除された後、背景画像が再作成され更新されるまでの間に起こりえる。背景画像が固定マスクを含んでいる場合、固定領域の設定解除により当該固定マスクが除去された新たな背景画像により更新されなければならない。しかし、設定解除の直後においては当該更新が間に合わないために、固定マスクが残存したままの背景画像が使用されることがなる。
そこで本実施形態では、背景画像が更新されるまでの間において、検出された動体を適切に隠蔽できなくなるという問題を解決する方法を提供する。以下の説明において、実施形態1と共通の内容については説明を省略する。本実施形態において、クライアント装置120の機能構成は図3(c)に示すようになる。本実施形態のクライアント装置120は、図3(b)に示す機能構成に追加して背景作成部327及び背景判定部328を有することができる。背景作成部327は背景画像の作成及び更新を行う。背景作成部327は、設定判定部321における固定領域が設定されているかどうかの判定結果に従って、設定された固定領域に対応する固定マスクを重畳した背景画像を作成する。また、設定判定部321による判定結果に従って、背景画像の更新を随時行う。作成した背景画像は補助記憶装置223に保存する。背景判定部328は、動体検出に用いられていた背景画像に固定マスクが含まれているかどうかを判定する。
次に、図7を参照して、本実施形態に対応するクライアント装置120における画像の出力処理の一例を説明する。ここでは特に、クライアント装置120が、動体マスクと固定マスクが重畳された画像を出力するために行う処理を説明する。図7(a)及び(b)のフローチャートに従った処理は、撮像装置110による1枚の撮像画像についての処理である。したがって、撮像装置110から複数の撮像画像がクライアント装置120に対して送信される場合、クライアント装置120は、それぞれの撮像画像について図7(a)及び(b)のフローチャートに従った処理を行う。
まず、図7(a)においてS700からS702までの処理は図4のS400からS402までの処理と同様であるので詳細な説明を省略する。続くS703では、背景判定部328は、補助記憶装置223に保存され動体検出に用いられた背景に固定マスクの画像が含まれているかどうかを判定する。当該判定は、例えば、動体検出に用いた背景画像に固定マスクの画像が残存しているかどうかを、背景画像を画像解析することにより行うことができる。判定の結果、動体検出に用いる背景に固定マスクの画像が含まれている場合、処理はS704に進む。一方、背景画像に固定マスクの画像が含まれていない場合、処理はS705に進む。S704では、描画部325は、S700で取得した撮像画像における固定領域に固定マスクを描画する。S705では、表示部326が、S702及びS704によるマスクの描画処理によってマスクが重畳された撮像画像を、出力I/F225を通して表示装置140に対して出力する。これにより、設定が解除された固定マスクを含む背景画像が、当該固定マスクを含まない新たな背景画像に更新されるまでの間、固定マスクを重畳する処理を継続することが可能となる。
次に図7(b)を参照して、背景画像の更新処理について説明する。当該更新処理は、図7(a)のフローチャートに対応する処理と並列に実行することができる。以下では、固定領域が1つのみ設定されていた場合を想定し、1つの固定領域が設定されている状態から、設定が解除された状態に変化したかどうかを判定する場合を説明する。但し、発明の実施形態はこれに限定されるものではなく、設定された固定領域が複数あった場合に、その数が減少した場合も含みうる。
まず、S710では、設定判定部321が固定領域の設定情報を補助記憶装置223から取得する。続くS711において設定判定部321は、取得した設定情報に基づいて、固定領域の設定が解除されたか否かを判定する。設定が解除されたと判定された場合、処理はS712に進む。一方、設定が解除されていないと判定された場合、処理はS710に戻る。S712において、背景作成部327が、解除された固定領域に対応する固定マスクを含まない背景画像を再作成する。続くS713において、背景作成部327が再作成した背景画像を補助記憶装置223に保存することにより、背景画像を更新する。
上記では背景画像の更新を自動的に行なう場合を説明したが、システムのユーザからの指示に応じて実行されてもよい。また、上述の処理では、背景判定部327は、背景画像を画像解析して固定マスク画像が含まれているかどうかを判定した。しかし、判定方法はこれに限らず、例えば背景判定部327が固定領域が削除された日時を主記憶装置222に保存しておき、保存しておいた日時から経過した期間が所定期間未満の場合に背景画像に固定マスクが含まれていると判定し、所定期間以上の場合に背景画像に固定マスクが含まれていないと判定してもよい。当該所定期間の長さは、固定マスクが重畳された背景画像から固定マスクが除去された背景画像に、背景作成部327により更新される平均的な時間的長さに基づいて設定することができる。
さらに、図7(a)のフローチャートでは、図4のS403に対応するような固定領域が設定されているかどうかの判定処理を省略したが、当該判定処理を実行してもよい。その場合、判定処理において、固定領域が設定されていないと判定された場合、あるいは、設定されている固定領域の数が減少したと判定された場合にS703の処理を実行することができる。更に、固定領域が設定されていると判定された場合、あるいは、設定されている固定領域の数が減少していないと判定された場合にはS703の処理をスキップしてS704の処理を実行してもよい。
ここで、S700で取得した撮像画像が図8の撮像画像800であった場合、上記の処理によりS705において表示装置140に出力されて表示される撮像画像は、例えば図8(d)に示すようになる。作業員501、502のそれぞれの領域には動体マスク831、832が描画され、撮像画像800の固定領域には固定マスク833が描画される。このような処理によって得られる画像が撮像画像830である。
以上説明したように、本実施形態によれば、背景画像に固定マスクが描画されている場合に、固定領域の設定が解除された場合、あるいは、設定されている固定領域の数が減少した場合であっても、撮像画像中で検出された動体を確実に隠蔽することができる。
<実施形態3>
実施形態2では、背景画像に固定マスクが描画されている場合に固定領域の設定が解除、あるいは、設定された固定領域の数が減少した場合の処理について説明した。これに対し本実施形態では、新たな固定領域の設定が行われた、あるいは、固定領域の数が増加した場合の処理について説明する。
以下の説明において、実施形態1と共通の内容については説明を省略する。本実施形態において、クライアント装置120の機能構成は図3(c)に示すようになる。但し、本実施形態においてクライアント装置120は背景判定部328を有していなくてもよい。
本実施形態において設定判定部321は、固定領域の設定が変更されて新しい固定領域が設定されたか否かを判定する。背景作成部327は、設定判定部321における判定結果に応じて、動体検出に用いる背景画像を再作成する。例えば、背景作成部327は、単一もしくは複数の撮像画像を用いてに、背景画像を作成してもよい。
次に、図9を参照して、本実施形態に対応するクライアント装置120における画像の出力処理の一例を説明する。ここでは特に、クライアント装置120が、新たな固定領域の設定、あるいは、固定領域の増加に応じて背景画像を再作成しつつ、動体マスクや固定マスクが重畳された画像を出力するために行う処理を説明する。図9のフローチャートに従った処理は、撮像装置110による1枚の撮像画像についての処理である。したがって、撮像装置110から複数の撮像画像がクライアント装置120に対して送信される場合、クライアント装置120は、それぞれの撮像画像について図11のフローチャートに従った処理を行う。
S900からS904までの処理は、図4のS400からS404までの処理と同様であるので詳細な説明は省略する。S905では、設定判定部321が、S903で取得された固定領域の設定に基づき、固定領域が新しく設定されたか否かを判定する。設定判定部321は、前回判定時の固定領域の設定情報を主記憶装置222に保持しておき、S903で取得した固定領域の設定情報と比較することにより判定を行うことができる。この判定の結果、固定領域が新しく設定されていた場合、処理はS906に進む。一方、固定領域が新しく設定されていなかった場合、処理はS907に進む。S906では、背景作成部327が新たな背景画像を再作成する。背景作成部327は、当該新たな背景画像を補助記憶装置223に保存することにより、S901における動体検出に用いられた背景画像を更新する。S907では、S902及びステップS904による描画処理によって得られた撮像画像を、出力I/F225を通して表示装置140に対して出力する。
以上によれば、本実施形態では新たな固定領域が設定されている、あるいは、固定領域が増加したと判定された場合に、それまで使用していた背景画像を破棄して、新しい背景画像を再生成し、固定領域を確実に隠蔽することができる。また、以上では発明の各実施形態について詳述したが、発明は記載に係る個々の実施形態に限定されるものではなく、上述した各実施形態を任意に組み合わせてもよい。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
110:撮像装置、120:クライアント装置、130:入力装置、140:表示装置、150:ネットワーク

Claims (13)

  1. 撮像画像を取得する取得手段と、
    前記撮像画像に含まれる動体を検出する検出手段と、
    検出された前記動体に基づき前記撮像画像に対し、前記動体を隠すように第1のマスクを描画し、前記第1のマスクが描画された撮像画像に対し所定の位置に第2のマスクを重畳して描画する描画手段と、
    前記第1のマスクと前記第2のマスクとが描画された撮像画像を表示装置に出力する出力手段と
    を備え、
    前記出力手段が出力した前記撮像画像が前記表示装置に表示される場合に、前記第2のマスクが描画された領域内では前記第1のマスクが前記表示装置に表示されないように前記出力手段が前記撮像画像を出力することを特徴とする画像処理装置。
  2. 前記検出手段は、背景画像と前記撮像画像との差分に基づき前記動体を検出することを特徴とする請求項1に記載の画像処理装置。
  3. 前記撮像画像に対する前記第2のマスクの描画に関する設定について判定する第1の判定手段を更に備え、
    前記描画手段は、前記第1の判定手段により前記撮像画像に前記第2のマスクを描画する設定であると判定された場合に、前記第1のマスクが描画された撮像画像に対し前記第2のマスクを重畳して描画することを特徴とする請求項2に記載の画像処理装置。
  4. 前記背景画像に、前記所定の位置に対応する前記背景画像の位置に描画された前記第2のマスクが含まれている場合、前記描画手段は、前記第1の判定手段が前記撮像画像に前記第2のマスクを描画する設定が解除されたと判定した場合であっても、前記背景画像に前記描画された前記第2のマスクが含まれている間は、前記第1のマスクが描画された撮像画像に対し前記第2のマスクを重畳して描画することを特徴とする請求項3に記載の画像処理装置。
  5. 前記背景画像を作成する作成手段を更に備え、
    前記作成手段は、前記第1の判定手段が前記撮像画像に前記第2のマスクを描画する設定が解除されたと判定した場合に、前記第2のマスクを含まない新たな背景画像を作成して、前記検出手段が前記動体を検出するために用いた背景画像を該新たな背景画像により更新し、
    前記描画手段は、前記作成手段が前記新たな背景画像により前記更新を行うまで、前記第1のマスクが描画された撮像画像に対し前記第2のマスクを重畳して描画することを特徴とする請求項4に記載の画像処理装置。
  6. 前記背景画像に、前記所定の位置に対応する前記背景画像の位置に描画された前記第2のマスクが含まれている場合、前記描画手段は、前記第1の判定手段が前記撮像画像に前記第2のマスクを描画する設定が解除されたと判定した場合であっても、前記設定が解除されてから所定期間が経過するまで、前記第1のマスクが描画された撮像画像に対し前記第2のマスクを重畳して描画することを特徴とする請求項3に記載の画像処理装置。
  7. 前記背景画像を作成する作成手段を更に備え、
    前記作成手段は、前記第1の判定手段が前記第2のマスクを描画する設定が解除されたと判定した場合に、前記第2のマスクを含まない新たな背景画像を作成して、前記検出手段が前記動体を検出するために用いた背景画像を該新たな背景画像により更新し、
    前記所定の期間は、前記作成手段が前記新たな背景画像により前記更新を行うまでの期間に基づいて定められることを特徴とする請求項6に記載の画像処理装置。
  8. 前記背景画像に前記第2のマスクが描画されているかどうかを判定する第2の判定手段を更に備え、
    前記描画手段は、前記第2の判定手段が前記背景画像に前記第2のマスクが描画されていると判定した場合に、前記第2のマスクを前記第1のマスクが描画された撮像画像に重畳して描画することを特徴とする請求項2に記載の画像処理装置。
  9. 前記撮像画像に新たな第2のマスクを描画する設定がなされたかどうかを判定する第3の判定手段を更に備え、
    前記第3の判定手段が、前記新たな第2のマスクを描画する設定がなされたと判定し、かつ、前記検出手段が前記新たな第2のマスクが含まれない背景画像と前記撮像画像との差分に基づき前記動体を検出した場合に、前記描画手段は、前記第1のマスクが描画された撮像画像に対し前記新たな第2のマスクを更に重畳して描画することを特徴とする請求項2に記載の画像処理装置。
  10. 前記背景画像を作成する作成手段を更に備え、
    前記作成手段は、前記第3の判定手段が前記新たな第2のマスクを描画する設定がなされたと判定した場合に、前記新たな第2のマスクを含む新たな背景画像を作成して、前記検出手段が前記動体を検出するために用いた背景画像を該新たな背景画像により更新することを特徴とする請求項9に記載の画像処理装置。
  11. 所定の空間を撮像して撮像画像を生成する撮像手段と、
    前記撮像画像を画像処理して出力する請求項1から10のいずれか1項に記載の画像処理装置と、を備えるシステム。
  12. 画像処理装置の制御方法であって、
    取得手段が、撮像画像を取得する取得工程と、
    検出手段が、前記撮像画像に含まれる動体を検出する検出工程と、
    描画手段が、検出された前記動体に基づき前記撮像画像に対し第1のマスクを描画する工程と、
    前記描画手段が、前記第1のマスクが描画された撮像画像に対し所定の位置に第2のマスクを重畳して描画する工程と、
    出力手段が、前記第1のマスクと前記第2のマスクとが描画された撮像画像を表示装置に出力する出力工程と
    を含み、
    前記出力工程において出力された前記撮像画像が前記表示装置に表示される場合、前記第2のマスクが描画された領域内では前記第1のマスクが前記表示装置に表示されないように前記出力工程において前記撮像画像を出力することを特徴とする画像処理装置の制御方法。
  13. コンピュータを請求項1から10のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2018145412A 2018-08-01 2018-08-01 画像処理装置、画像処理装置の制御方法、システム、及び、プログラム Active JP7129843B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2018145412A JP7129843B2 (ja) 2018-08-01 2018-08-01 画像処理装置、画像処理装置の制御方法、システム、及び、プログラム
EP19185195.5A EP3605468A1 (en) 2018-08-01 2019-07-09 Image processing apparatus, image processing apparatus control method, and non-transitory computer-readable storage medium
US16/507,517 US11165974B2 (en) 2018-08-01 2019-07-10 Image processing apparatus, image processing apparatus control method, and non-transitory computer-readable storage medium
CN201910639900.3A CN110798590B (zh) 2018-08-01 2019-07-16 图像处理设备及其控制方法和计算机可读存储介质
KR1020190089550A KR102495547B1 (ko) 2018-08-01 2019-07-24 화상 처리 장치, 화상 처리 장치의 제어 방법, 및 비일시적 컴퓨터 판독가능 저장 매체
US17/491,552 US11765312B2 (en) 2018-08-01 2021-10-01 Image processing apparatus, image processing apparatus control method, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018145412A JP7129843B2 (ja) 2018-08-01 2018-08-01 画像処理装置、画像処理装置の制御方法、システム、及び、プログラム

Publications (2)

Publication Number Publication Date
JP2020022097A true JP2020022097A (ja) 2020-02-06
JP7129843B2 JP7129843B2 (ja) 2022-09-02

Family

ID=67253676

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018145412A Active JP7129843B2 (ja) 2018-08-01 2018-08-01 画像処理装置、画像処理装置の制御方法、システム、及び、プログラム

Country Status (5)

Country Link
US (2) US11165974B2 (ja)
EP (1) EP3605468A1 (ja)
JP (1) JP7129843B2 (ja)
KR (1) KR102495547B1 (ja)
CN (1) CN110798590B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021186866A1 (ja) * 2020-03-19 2021-09-23

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11450009B2 (en) * 2018-02-26 2022-09-20 Intel Corporation Object detection with modified image background
JP7441016B2 (ja) 2019-09-20 2024-02-29 キヤノン株式会社 撮像装置、情報処理装置、制御方法及びプログラム
EP3817368A3 (en) 2019-10-30 2021-09-29 Canon Kabushiki Kaisha Image capturing apparatus, control method, and program
JP2021136664A (ja) 2020-02-28 2021-09-13 キヤノン株式会社 デバイス、制御方法、およびプログラム
JP2021136666A (ja) 2020-02-28 2021-09-13 キヤノン株式会社 撮像装置、デバイス、制御方法、およびプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009124618A (ja) * 2007-11-19 2009-06-04 Hitachi Ltd カメラ装置、画像処理装置
JP2010193227A (ja) * 2009-02-19 2010-09-02 Hitachi Kokusai Electric Inc 映像処理システム
JP2011234237A (ja) * 2010-04-28 2011-11-17 Canon Inc カメラ制御装置及びカメラシステム
US20130027549A1 (en) * 2011-07-29 2013-01-31 Technische Universitat Berlin Method and device for video surveillance
JP2018010621A (ja) * 2016-05-16 2018-01-18 アクシス アーベー 画像の背景差分に用いられる背景モデルを更新する方法及び装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8752197B2 (en) * 2002-06-18 2014-06-10 International Business Machines Corporation Application independent system, method, and architecture for privacy protection, enhancement, control, and accountability in imaging service systems
US9210312B2 (en) * 2004-06-02 2015-12-08 Bosch Security Systems, Inc. Virtual mask for use in autotracking video camera images
US20090028432A1 (en) * 2005-12-30 2009-01-29 Luca Rossato Segmentation of Video Sequences
JP2013186819A (ja) 2012-03-09 2013-09-19 Omron Corp 画像処理装置、画像処理方法、および画像処理プログラム
JP6229667B2 (ja) 2015-01-13 2017-11-15 株式会社デンソーウェーブ 情報コード読取システムおよび情報コード読取装置
JP6573148B2 (ja) * 2015-02-19 2019-09-11 パナソニック株式会社 物品配送システムおよび画像処理方法
JP5988225B2 (ja) 2015-02-25 2016-09-07 パナソニックIpマネジメント株式会社 モニタリング装置およびモニタリング方法
JP6525934B2 (ja) 2016-10-14 2019-06-05 キヤノン株式会社 画像処理装置および制御方法
JP6931290B2 (ja) * 2017-03-03 2021-09-01 キヤノン株式会社 画像生成装置およびその制御方法
EP3454254B1 (en) * 2017-09-07 2023-11-08 Canon Kabushiki Kaisha Image processing apparatus, image providing apparatus, control methods thereof, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009124618A (ja) * 2007-11-19 2009-06-04 Hitachi Ltd カメラ装置、画像処理装置
JP2010193227A (ja) * 2009-02-19 2010-09-02 Hitachi Kokusai Electric Inc 映像処理システム
JP2011234237A (ja) * 2010-04-28 2011-11-17 Canon Inc カメラ制御装置及びカメラシステム
US20130027549A1 (en) * 2011-07-29 2013-01-31 Technische Universitat Berlin Method and device for video surveillance
JP2018010621A (ja) * 2016-05-16 2018-01-18 アクシス アーベー 画像の背景差分に用いられる背景モデルを更新する方法及び装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021186866A1 (ja) * 2020-03-19 2021-09-23

Also Published As

Publication number Publication date
JP7129843B2 (ja) 2022-09-02
US11165974B2 (en) 2021-11-02
US11765312B2 (en) 2023-09-19
US20200045243A1 (en) 2020-02-06
CN110798590B (zh) 2022-05-31
KR20200014694A (ko) 2020-02-11
KR102495547B1 (ko) 2023-02-06
EP3605468A1 (en) 2020-02-05
CN110798590A (zh) 2020-02-14
US20220030180A1 (en) 2022-01-27

Similar Documents

Publication Publication Date Title
JP7129843B2 (ja) 画像処理装置、画像処理装置の制御方法、システム、及び、プログラム
JP6650677B2 (ja) 映像処理装置、映像処理方法、およびプログラム
US9767612B2 (en) Method, system and apparatus for removing a marker projected in a scene
JP2019028843A (ja) 人物の視線方向を推定するための情報処理装置及び推定方法、並びに学習装置及び学習方法
CN104811660A (zh) 控制装置及控制方法
JP2019114821A (ja) 監視システム、装置、方法およびプログラム
JP7071086B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
JP2017201745A (ja) 画像処理装置、画像処理方法およびプログラム
JP2018041293A (ja) 画像処理装置、画像処理方法およびプログラム
JP7187154B2 (ja) 画像処理装置、画像処理方法およびプログラム
US11037014B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US20140198177A1 (en) Realtime photo retouching of live video
JP6640294B1 (ja) 複合現実システム、プログラム、携帯端末装置、及び方法
JP6991045B2 (ja) 画像処理装置、画像処理装置の制御方法
JP2016144049A (ja) 画像処理装置、画像処理方法、およびプログラム
JP6558933B2 (ja) コミュニケーション支援システム、情報処理装置およびその制御方法
JP2018092507A (ja) 画像処理装置、画像処理方法及びプログラム
JP6350331B2 (ja) 追尾装置、追尾方法及び追尾プログラム
JP6885179B2 (ja) 撮影装置、撮影制御プログラム、及び撮影管理システム
JP2016042661A (ja) 情報処理装置、システム、情報処理方法及びプログラム
KR102497593B1 (ko) 정보 처리장치, 정보 처리방법 및 기억매체
JP2016115093A (ja) 画像処理システム及びそれに用いる画像処理方法
JP2024035625A (ja) 画像処理装置、画像処理方法
JP2019086969A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2015219547A (ja) 機器制御システム、機器制御プログラムおよび機器制御装置

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220719

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220823

R151 Written notification of patent or utility model registration

Ref document number: 7129843

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151