JP2019075660A - 画像処理装置、画像処理方法及びコンピュータプログラム - Google Patents

画像処理装置、画像処理方法及びコンピュータプログラム Download PDF

Info

Publication number
JP2019075660A
JP2019075660A JP2017199712A JP2017199712A JP2019075660A JP 2019075660 A JP2019075660 A JP 2019075660A JP 2017199712 A JP2017199712 A JP 2017199712A JP 2017199712 A JP2017199712 A JP 2017199712A JP 2019075660 A JP2019075660 A JP 2019075660A
Authority
JP
Japan
Prior art keywords
image
area
mask
mask image
drawn
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017199712A
Other languages
English (en)
Other versions
JP7071086B2 (ja
Inventor
岩本 和成
Kazunari Iwamoto
和成 岩本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017199712A priority Critical patent/JP7071086B2/ja
Priority to EP18195896.8A priority patent/EP3471398B1/en
Priority to US16/151,525 priority patent/US10713797B2/en
Priority to KR1020180120823A priority patent/KR102333532B1/ko
Priority to CN201811189170.3A priority patent/CN109671136B/zh
Publication of JP2019075660A publication Critical patent/JP2019075660A/ja
Application granted granted Critical
Publication of JP7071086B2 publication Critical patent/JP7071086B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/12Formatting, e.g. arrangement of data block or words on the record carriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19663Surveillance related processing done local to the camera
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19686Interfaces masking personal details for privacy, e.g. blurring faces, vehicle license plates
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 画像上の固定領域にマスク画像を描画しても、該固定領域内の動体を確認可能にするための技術を提供すること。【解決手段】 画像から検出した動体の領域が該画像中の固定領域と重なる場合に、該動体の領域に描画する第1のマスク画像を、該固定領域に描画する第2のマスク画像上に重ねて描画するか否かを、該動体の領域の画像特徴量に基づいて判断する。この判断結果に応じて第1のマスク画像の描画を制御する。【選択図】 図2

Description

本発明は、画像上にマスク画像を描画するための技術に関するものである。
従来より、セキュリティやプライバシーを考慮して、画像上の特定の領域にマスク画像を重畳する技術が知られている。以降では、前述の、画像上の特定の領域に重畳するマスク画像を固定マスクと記載する。
また、画像上に動体が存在する場合、該動体のプライバシーを考慮し、画像上の動体が存在する領域にマスク画像を重畳する技術が知られている。以降では、前述の、動体に重畳するマスク画像を動体マスクと記載する。
例えば、特許文献1には、作業現場の映像を配信する際、作業員のプライバシーを考慮する目的で、人が常に居続ける領域に固定マスクを重畳する処理を行い、人が移動する領域には動体に動体マスクを重畳する処理を行う方法が開示されている。
特開2010−186507号公報
しかしながら、上述の特許文献1に開示された従来技術では、固定マスクを重畳した領域において作業員の状態が確認できないという課題があった。従って、例えば固定マスクを重畳した領域で作業を行っている作業員が倒れていても、映像の監視者は気づくことができない。この場合、上記領域に固定マスクではなく、動体マスクを適用する事で、上記の問題を解決できる。しかしながら固定マスクは作業員のプライバシーを考慮するためだけではなく、セキュリティ及びプライバシーの観点から作業現場に存在する、動体でない物体を隠す役割も果たしているため、作業現場全てに動体マスクを適用することができない可能性がある。
本発明はこのような問題に鑑みてなされたものであり、画像上の固定領域にマスク画像を描画しても、該固定領域内の動体を確認可能にするための技術を提供する。
本発明の一様態は、画像から検出した動体の領域が該画像中の固定領域と重なる場合に、該動体の領域に描画する第1のマスク画像を、該固定領域に描画する第2のマスク画像上に重ねて描画するか否かを、該動体の領域の画像特徴量に基づいて判断する判断手段と、前記判断手段による判断結果に応じて前記第1のマスク画像の描画を制御する制御手段とを備えることを特徴とする。
本発明の構成により、画像上の固定領域にマスク画像を描画しても、該固定領域内の動体を確認可能にすることができる。
システムの構成例を示す図。 撮像装置110、クライアント装置120のハードウェア構成例を示すブロック図。 撮像装置110、クライアント装置120の機能構成例を示すブロック図。 クライアント装置120が行う処理のフローチャート。 撮像画像の一例を示す図。 撮像画像の一例を示す図。 クライアント装置120が行う処理のフローチャート。 撮像画像の一例を示す図。 撮像画像の一例を示す図。 撮像画像の一例を示す図。 撮像画像の一例を示す図。
以下、添付図面を参照し、本発明の実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。
[第1の実施形態]
本実施形態では、画像から検出した動体の領域が該画像中の固定領域と重なる場合に、該動体の領域に描画する第1のマスク画像を、該固定領域に描画する第2のマスク画像上に重ねて描画するか否かを、該動体の領域の画像特徴量に基づいて判断する。そして、この判断結果に応じて第1のマスク画像の描画を制御する。
先ず、本実施形態に係るシステムの構成例について、図1を用いて説明する。図1に示す如く、本実施形態に係るシステムは、撮像装置110、クライアント装置120,入力装置130,表示装置140を有する。
先ず、撮像装置110について説明する。撮像装置110はネットワークカメラなどの撮像装置であり、クライアント装置120において設定された姿勢や画角などの撮像パラメータに従って、実空間の動画像若しくは静止画像を撮像する。撮像装置110によって撮像された動画像若しくは静止画像は、ネットワーク150を介してクライアント装置120に対して送信される。
次に、ネットワーク150について説明する。ネットワーク150は、例えばEthernet(登録商標)等の通信規格を満足する複数のルータ、スイッチ、ケーブル等から構成される。本実施形態では、ネットワーク150は、撮像装置110とクライアント装置120との間の通信を行うことができるものであればよく、その通信規格、規模、構成を問わない。例えば、ネットワーク150は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless LAN)、WAN(Wide Area Network)等により構成されてもよい。
次に、クライアント装置120について説明する。クライアント装置120は、パーソナルコンピュータ、サーバ装置、タブレット装置等の画像処理装置として機能する装置である。クライアント装置120は、撮像装置110からネットワーク150を介して動画像若しくは静止画像を撮像画像として受信する。撮像装置110から動画像が送信された場合には、クライアント装置120は、該動画像を構成する各フレームの画像を撮像画像として受信する。一方、撮像装置110から静止画像が送信された場合には、クライアント装置120は、該静止画像を撮像画像として受信する。
そしてクライアント装置120は、受信した撮像画像から動体検出を行って、動体の領域(動体領域)の画像特徴量を抽出する。そしてクライアント装置120は、該動体領域が該撮像画像中の固定領域と重なる場合に、該動体領域に描画する第1のマスク画像を、該固定領域に描画する第2のマスク画像上に重ねて描画するか否かを、該画像特徴量に基づいて判断する。そしてクライアント装置120は、該撮像画像上の動体領域には第1のマスク画像、固定領域には第2のマスク画像を描画するのであるが、その描画処理を該判断の結果に応じて制御し、該制御後の撮像画像を表示装置140に表示する。
次に入力装置130について説明する。入力装置130は、キーボードやマウス、タッチパネルなどのユーザインターフェースにより構成されており、ユーザが操作することで各種の指示をクライアント装置120に対して入力することができる。
次に、表示装置140について説明する。表示装置140は、CRTや液晶画面などにより構成されており、クライアント装置120による処理結果を画像や文字などでもって表示することができる。なお、図1では、クライアント装置120、入力装置130、表示装置140はそれぞれ別個の装置としているが、このような構成に限らない。例えば、これらの装置を一体化させて1つの装置としても良いし、クライアント装置120と表示装置140とを一体化させても良いし、入力装置130と表示装置140とを一体化させても良い。また、クライアント装置120と撮像装置110とを一体化させても良い。
次に、撮像装置110のハードウェア構成例について、図2(a)のブロック図を用いて説明する。なお、図2(a)に示した構成は、撮像装置110に適用可能な構成の一例に過ぎず、適宜変形/変更が可能である。
CPU211は、主記憶装置212に格納されているコンピュータプログラムやデータを用いて処理を実行する。これによりCPU211は、撮像装置110全体の動作制御を行うと共に、撮像装置110が行うものとして後述する各処理を実行若しくは制御する。例えばCPU211は、主記憶装置212に格納されているコンピュータプログラムやデータを用いて処理を実行することで、図3(a)に示した撮像制御部311、信号処理部312、駆動制御部313、通信制御部314の各機能部の機能を実現する。これらの各機能部については後述する。
主記憶装置212は、Random Access Memory(RAM)等の記憶装置である。主記憶装置212は、補助記憶装置213からロードされたコンピュータプログラムやデータ、撮像部215による撮像画像、ネットワークI/F216を介してクライアント装置120から受信した各種のデータ、を格納するためのエリアを有する。さらに主記憶装置212は、CPU211が各種の処理を実行する際に用いるワークエリアを有する。このように主記憶装置212は、各種のエリアを適宜提供することができる。
補助記憶装置213は、ハードディスクドライブ(HDD)、Read Only Memory(ROM)、ソリッドステートドライブ(SSD)等の大容量情報記憶装置である。補助記憶装置213には、OS(オペレーティングシステム)や、撮像装置110が行うものとして後述する各処理をCPU211に実行若しくは制御させるためのコンピュータプログラムやデータが保存されている。また補助記憶装置213には、ネットワークI/F216を介してクライアント装置120から受信したデータ(例えば上記の撮像パラメータ)も保存される。補助記憶装置213に保存されているコンピュータプログラムやデータは、CPU211による制御に従って適宜主記憶装置212にロードされ、CPU211による処理対象となる。
駆動部214は、クライアント装置120から受信した撮像パラメータに基づいて撮像部215を駆動して、該撮像部215の姿勢(撮像方向)や画角等を制御する。駆動部214による制御対象は特定の対象に限らず、撮像部215の姿勢及び画角であっても良いし、何れか一方のみであっても良いし、その他の対象(例えば撮像部215の位置)であっても良い。また、撮像部215の位置や姿勢、画角などは固定しても良く、その場合は、駆動部214は設けなくても良い。
撮像部215は、撮像素子と光学系とを有し、光学系の光軸と撮像素子との交点を撮像中心として被写体の像を撮像素子上に結像する。撮像素子には、CMOS(ComplementaryMetal−Oxide Semiconductor)、CCD(Charged Coupled Device)等がある。ネットワークI/F216は、撮像装置110がネットワーク150を介してクライアント装置120との間のデータ通信を行うために利用するインターフェースである。
次に、クライアント装置120のハードウェア構成例について、図2(b)のブロック図を用いて説明する。なお、図2(b)に示した構成は、クライアント装置120に適用可能な構成の一例に過ぎず、適宜変形/変更が可能である。
CPU221は、主記憶装置222に格納されているコンピュータプログラムやデータを用いて処理を実行することで、クライアント装置120全体の動作制御を行うと共に、クライアント装置120が行うものとして後述する各処理を実行若しくは制御する。例えばCPU221は、主記憶装置222に格納されているコンピュータプログラムやデータを用いて処理を実行することで、図3(b)の各機能部の機能を実現する。図3(b)の各機能部については後述する。
主記憶装置222は、Random Access Memory(RAM)等の記憶装置である。主記憶装置222は、補助記憶装置223からロードされたコンピュータプログラムやデータ、ネットワークI/F226を介して撮像装置110から受信した各種のデータ(例えば、撮像画像)、を格納するためのエリアを有する。さらに主記憶装置222は、CPU221が各種の処理を実行する際に用いるワークエリアを有する。このように主記憶装置222は、各種のエリアを適宜提供することができる。
補助記憶装置223は、ハードディスクドライブ(HDD)、Read Only Memory(ROM)、ソリッドステートドライブ(SSD)等の大容量情報記憶装置である。補助記憶装置223には、OS(オペレーティングシステム)や、クライアント装置120が行うものとして後述する各処理をCPU221に実行若しくは制御させるためのコンピュータプログラムやデータが保存されている。また補助記憶装置223には、ネットワークI/F226を介して撮像装置110から受信した各種のデータ(例えば、撮像画像)も保存される。補助記憶装置223に保存されているコンピュータプログラムやデータは、CPU221による制御に従って適宜主記憶装置222にロードされ、CPU221による処理対象となる。
入力I/F224は、入力装置130をクライアント装置120に接続するためのインターフェースである。出力I/F225は、表示装置140をクライアント装置120に接続するためのインターフェースである。ネットワークI/F226は、クライアント装置120がネットワーク150を介して撮像装置110との間のデータ通信を行うために利用するインターフェースである。
次に、撮像装置110の機能構成例について図3(a)のブロック図を用いて説明する。図3(a)に示した各機能部はハードウェアとして実装しても良いし、ソフトウェア(コンピュータプログラム)として実装しても良い。後者の場合、このコンピュータプログラムは補助記憶装置213に保存される。CPU211はこのコンピュータプログラムを必要に応じて主記憶装置212にロードして実行することで、対応する機能部の機能を実現する。
撮像制御部311は、撮像部215の撮像動作を制御して、該撮像部215によって撮像された動画像若しくは静止画像を撮像画像として取得する。
信号処理部312は、撮像制御部311が取得した動画像若しくは静止画像に対して符号化処理を行う。撮像制御部311が静止画像を取得した場合には、信号処理部312は該静止画像に対して、例えば、JPEG(Joint Photographic Experts Group)等の符号化方式を用いて符号化を行う。一方、撮像制御部311が動画像を取得した場合には、信号処理部312は該動画像に対して、例えば、H.264/MPEG−4 AVC(以下では、H.264)、HEVC(High Efficiency Video Coding符号化方式)等の符号化方式を用いて符号化を行う。また信号処理部312は、予め設定された複数の符号化方式の中から、例えば撮像装置110の操作部(不図示)を介してユーザにより選択された符号化方式を用いて動画像や静止画像に対して符号化を行うようにしてもよい。
駆動制御部313は、クライアント装置120から受信した撮像パラメータに基づいて撮像部215を駆動して、該撮像部215の姿勢(撮像方向)や画角等を制御する。上記の通り、撮像部215の姿勢(撮像方向)や画角等は固定であっても良い。
通信制御部314は、信号処理部312により処理された動画像若しくは静止画像(符号化済み)を、ネットワークI/F216を介してクライアント装置120に対して送信する。また通信制御部314は、ネットワークI/F216を介して、クライアント装置120から送信された撮像装置110に対する制御命令(撮像パラメータを含む)等を受信する。
次に、クライアント装置120の機能構成例について図3(b)のブロック図を用いて説明する。図3(b)に示した各機能部はハードウェアとして実装しても良いし、ソフトウェア(コンピュータプログラム)として実装しても良い。後者の場合、このコンピュータプログラムは補助記憶装置223に保存される。CPU221はこのコンピュータプログラムを必要に応じて主記憶装置222にロードして実行することで、対応する機能部の機能を実現する。
取得部321は、ユーザが入力装置130を操作することで入力した各種の指示を取得する。通信制御部322は、撮像装置110から送信された動画像若しくは静止画像(符号化済み)をネットワークI/F226を介して取得する。また通信制御部322は、撮像装置110への制御命令を、ネットワークI/F226を介して撮像装置110に対して送信する。
画像取得部323は、通信制御部322が撮像装置110から受信した動画像若しくは静止画像を取得して復号する。なお、撮像装置110による動画像/静止画像に対する符号化は必須ではなく、符号化することなく動画像若しくは静止画像をクライアント装置120に対して送信しても良い。この場合、画像取得部323は通信制御部322が撮像装置110から受信した動画像若しくは静止画像を復号することなく取得する。
検出部324は、画像取得部323が取得した動画像若しくは静止画像から動体の検出を行う。評価部325は、撮像画像から検出した動体の領域が該撮像画像中の固定領域と重なる場合に、該動体の領域に描画する第1のマスク画像を、該固定領域に描画する第2のマスク画像上に重ねて描画するか否かを、該動体の領域の画像特徴量に基づいて判断する。
ここで、この固定領域については予め設定されているものとする。例えば、予めユーザが入力装置130を操作して撮像画像上における固定領域を規定する情報(固定領域情報)を入力して補助記憶装置223に保存しておいても良い。固定領域情報には様々な情報が考えられ、固定領域の左上隅の位置及び右下隅の位置を固定領域情報としても良いし、固定領域の左上隅の位置と固定領域の縦及び横のサイズとを固定領域情報としても良い。また、例えば、本システムを適用する現場において、撮像画像において隠したい物体があらかじめ決まっていたとする。このとき、システムを稼働させて撮像画像を取得し、該撮像画像に対して隠したい物体の検出処理を行い、該検出した物体が隠れるような領域を固定領域として求めても良い。このように、固定領域の設定方法は特定の設定方法に限らない。
描画部326は、撮像画像上の動体の領域には第1のマスク画像を描画し、該撮像画像上の固定領域には第2のマスク画像を描画するのであるが、その描画処理は、評価部325による判断結果に応じて制御する。表示制御部327は、描画部326による描画処理済みの撮像画像を表示装置140に表示させる。
次に、クライアント装置120が、撮像装置110による撮像画像上の固定領域及び動体領域にマスク画像を描画して表示装置140に表示させるために行う処理について、同処理のフローチャートを示す図4を用いて説明する。なお、図4のフローチャートに従った処理は、撮像装置110による1枚の撮像画像についての処理である。然るに、撮像装置110から動画像を構成する各フレームの画像(撮像画像)がクライアント装置120に対して送信される場合、クライアント装置120は、それぞれのフレームの画像(撮像画像)について図4のフローチャートに従った処理を行う。以下では説明を簡単にするために、撮像装置110からは動画像若しくは静止画像を符号化せずに送信したものとする。
ステップS400では、CPU221は、ネットワークI/F226を介して撮像装置110から受信した撮像画像(動画像を構成する各フレームの画像若しくは静止画像)を主記憶装置222に取得する。
ステップS401では、CPU221は、ステップS400で主記憶装置222に取得した撮像画像から動体を検出し、該検出した動体の領域を動体領域として抽出する。ステップS400で取得した撮像画像の一例を図5(a)、(b)に示す。図5(a)の撮像画像500は、動体である作業員501,502,503が含まれている撮像画像の一例である。図5(b)の撮像画像510は、動体を含まない撮像画像の一例である。ステップS400において図5(a)の撮像画像500を取得した場合、ステップS401ではCPU221は撮像画像500から作業員501,502,503を検出することになる。
本実施形態では撮像画像から動体を検出するために背景差分を用いる。つまり、あらかじめ取得しておいた背景画像と、ステップS400で主記憶装置222に取得した撮像画像と、で位置的に対応する画素同士で輝度値の差分を計算し、差分が閾値を超えた画素からなる領域を動体領域と判断する。しかし、画像から動体を検出するための方法は背景差分に限らず、他の周知の方法を使用しても良い。例えば、本実施形態では輝度値を用いたが、RGB値を三次元の座標として扱い、差分として背景画像のRGB値と撮像画像のRGB値の距離を測っても良い。また、背景差分に限らず、例えばオプティカルフローのように画像内の各座標の移動方向を計算して動体を検出してもよい。
ステップS402でCPU221は、動体領域が固定領域と重なる場合、該動体領域に描画する第1のマスク画像(動体マスク)を、該固定領域に描画する第2のマスク画像(固定マスク)上に重ねて描画するか否かを判断する判断処理を行う。本実施形態では、動体領域は必ず固定領域に重なっているものとするので、この場合、ステップS402では、第2のマスク画像上に重ねて第1のマスク画像を描画するか否かを判断することになる。
本実施形態では、この判断処理に動体領域の画像特徴量を用い、該画像特徴量が規定の条件を満たしている場合には、第2のマスク画像上に重ねて第1のマスク画像を描画する、と判断する。一方、動体領域の画像特徴量が規定の条件を満たしていない場合には、第2のマスク画像上に重ねて第1のマスク画像を描画しない、と判断する。なお、ステップS402における判断の基準として使用するものは動体領域の画像特徴量に限らない。
ここで、動体領域の画像特徴量には様々な特徴量を使用することができる。例えば、動体領域の画像特徴量として、該動体領域の面積(動体領域を構成する画素の数)、動体領域を包含する矩形領域の面積、該矩形領域の縦及び/又は横の長さなどを適用することができる。そして、動体領域/矩形領域のサイズが規定のサイズ以上(面積が規定面積以上、縦及び/又は横の長さが規定長以上等)であれば、画像特徴量は規定の条件を満たしているとし、第2のマスク画像上に重ねて第1のマスク画像を描画する、と判断する。一方、動体領域/矩形領域のサイズが規定のサイズ未満(面積が規定面積未満、縦及び/又は横の長さが規定長未満等)であれば、画像特徴量は規定の条件を満たしていないとし、第2のマスク画像上に重ねて第1のマスク画像を描画しない、と判断する。
このような判断処理によれば、例えば撮像画像にノイズなどの微小な動体のみが存在する際、該微少な物体を第1のマスク画像を描画すべき動体として検出することを抑制することが可能になる。しかしながらこの限りでは無い。例えば小さい動体のみを第1のマスク画像の描画対象とするようにしても良い。
ステップS402における判断の結果、動体領域の画像特徴量が規定の条件を満たしている場合には、第1のマスク画像を第2のマスク画像上に重ねて描画すると判断し、処理はステップS403に進む。一方、動体領域の画像特徴量が規定の条件を満たしていない場合には、第1のマスク画像を第2のマスク画像上に重ねて描画しないと判断し、処理はステップS405に進む。
ステップS403では、CPU221は、ステップS400で取得した撮像画像における固定領域に第2のマスク画像を描画する。そしてステップS404では、CPU221は、ステップS400で取得した撮像画像における動体領域に第1のマスク画像を描画する。
一方、ステップS405では、CPU221は、ステップS400で取得した撮像画像における動体領域に第1のマスク画像を描画する。そしてステップS406では、CPU221は、ステップS400で取得した撮像画像における固定領域に第2のマスク画像を描画する。
ステップS407ではCPU211は、ステップS403及びステップS404による描画処理、若しくはステップS405及びステップS406による描画処理、によって得られた撮像画像を、出力I/F225を介して表示装置140に対して出力する。なおステップS403及びステップS404による描画処理、若しくはステップS405及びステップS406による描画処理、によって得られた撮像画像の出力先は特定の出力先に限らず、例えばネットワークI/F226を介して外部の装置に送信しても良い。
なお、ステップS401における動体検出の結果、撮像画像から動体を検出できなかった場合には、動体領域は存在しないのであるから、撮像画像には第1のマスク画像は描画されず、第2のマスク画像が描画されることになる。
なお、上記の説明では第1のマスク画像、第2のマスク画像については言及しなかったが、第1のマスク画像は、動体領域の形状を有する画像であっても良いし、動体を包含する矩形領域の形状を有する画像であっても良い。第2のマスク画像は、固定領域を包含する形状を有する画像である。しかし、これらのマスク画像に適用可能な画像は特定の画像に限らない。例えば、一定のパターンで塗りつぶされた画像、例えば、ドット柄やボーダー、一色で塗りつぶされた画像を第1,2のマスク画像として使用しても良い。また、例えば、特定のタイミングで取得された撮像画像、あらかじめ補助記憶装置223に登録されている画像を第1,2のマスク画像として使用しても良い。また、撮像画像と第1,2のマスク画像とのアルファブレンドでもって、撮像画像に第1,2のマスク画像を描画するようにしても良い。また、第1のマスク画像と第2のマスク画像とは同じマスク画像でなくても良いし、描画方法も同じでなくても良い。
また、ステップS400で取得した撮像画像から複数の動体領域を抽出した場合には、CPU221は、それぞれの動体領域についてステップS402〜S406の処理を行うことになる。
ステップS400において取得した撮像画像が図5(a)の撮像画像500であった場合に、ステップS407において表示装置140に出力されて表示される撮像画像の一例を図6(a)に示す。作業員501,502,503の各々の画像特徴量は規定の条件を満たすので、先ず撮像画像500の固定領域に第2のマスク画像604が描画され、その後、作業員501,502,503のそれぞれの領域に第1のマスク画像601,602,603が描画される。このような処理によって得られる画像が撮像画像600である。
ステップS400において取得した撮像画像が図5(b)の撮像画像510であった場合に、ステップS407において表示装置140に出力されて表示される撮像画像の一例を図6(b)に示す。撮像画像510には動体が存在しないので、撮像画像500の固定領域に第2のマスク画像604が描画され、第1のマスク画像は描画されない。このような処理によって得られる画像が撮像画像610である。
[第2の実施形態]
本実施形態を含め、以下の各実施形態では、第1の実施形態との差分について説明し、以下で特に触れない限りは第1の実施形態と同様であるものとする。本実施形態では、先に固定領域に第2のマスク画像を描画し、その後、撮像画像に含まれているどの動体について第1のマスク画像を描画するのか、を決定し、描画すると決定した動体について第1のマスク画像を描画する。
クライアント装置120が、撮像装置110による撮像画像上の固定領域及び動体領域にマスク画像を描画して表示装置140に表示させるために行う処理について、同処理のフローチャートを示す図7を用いて説明する。なお、図7のフローチャートに従った処理は、撮像装置110による1枚の撮像画像についての処理である。然るに、撮像装置110から動画像を構成する各フレームの画像(撮像画像)がクライアント装置120に対して送信される場合、クライアント装置120は、それぞれのフレームの画像(撮像画像)について図7のフローチャートに従った処理を行う。
ステップS700では、CPU221は、ネットワークI/F226を介して撮像装置110から受信した撮像画像(動画像を構成する各フレームの画像若しくは静止画像)を主記憶装置222に取得する。ステップS700で取得した撮像画像の一例を図8に示す。図8の撮像画像800には、動体である作業員801,802,803,804と、動体である対象物805と、が含まれている。対象物805は、作業者の作業によって発生した動体であり、例えば、ホワイトボード上に描かれた図形や文字である。またステップS700ではCPU221は、以下で用いる変数iを1に初期化する。
図7に戻って、次にステップS701では、CPU221は、ステップS700で取得した撮像画像から、上記のステップS401と同様にして動体を検出し、該検出した動体の領域を動体領域として抽出する。なお、CPU221は、抽出したそれぞれの動体領域に対して固有の識別番号を付す。本実施形態では、撮像画像からN(Nは2以上の整数)個の動体領域を抽出したものとし、抽出したそれぞれの動体領域に固有のインデックス(1〜N)を付す。以下ではインデックス=j(1≦j≦N)の動体領域を動体領域jと称する場合がある。
ステップS702ではCPU221は、ステップS700で取得した撮像画像における固定領域に第2のマスク画像を描画する。そしてステップS703でCPU221は、インデックス=1〜Nのそれぞれに対応する動体領域について、該動体領域を規定する情報(例えば動体領域を構成する画素群の位置情報)、該動体領域の画像特徴量、を登録したリストを主記憶装置222に作成する。
ステップS704ではCPU221は、ステップS703において主記憶装置222に作成したリストにおいてインデックス=iに対応する動体領域を規定する情報を読み出す。
ステップS705においてCPU221は先ず、ステップS704で読み出した情報が規定する動体領域の一部若しくは全部が固定領域と重なっているか否かを判断する。この判断の結果、動体領域の一部若しくは全部が固定領域と重なっていなければ、処理はステップS707に進む。一方、動体領域の一部若しくは全部が固定領域と重なっている場合には、次にCPU221は、インデックス=iに対応する動体領域の画像特徴量が規定の条件を満たすか否かを判断する。「画像特徴量が規定の条件を満たす場合」、「画像特徴量が規定の条件を満たさない場合」のそれぞれについては第1の実施形態で説明したとおりである。
ステップS705における判断の結果、インデックス=iに対応する動体領域の画像特徴量が規定の条件を満たしている場合には、インデックス=iに対応する動体領域には第1のマスク画像を描画すると判断し、処理はステップS706に進む。一方、インデックス=iに対応する動体領域の画像特徴量が規定の条件を満たしていない場合には、インデックス=iに対応する動体領域には第1のマスク画像は描画しないと判断し、処理はステップS707に進む。ステップS706では、CPU221は、ステップS704で読み出した情報が規定する動体領域に第1のマスク画像を描画する。
ステップS707では、CPU221は、変数iの値=Nであるか否かを判断する。この判断の結果、変数iの値=Nであれば、リストに登録されている全ての動体領域についてステップS705及びステップS706の処理を行ったと判断して、処理はステップS709に進む。一方、変数iの値<Nであれば、リストに登録されている動体領域のうちステップS705及びステップS706の処理を行っていない動体領域が残っていると判断して、処理はステップS708に進む。
ステップS708では、CPU221は、変数iの値を1つインクリメントして、リストに登録されている次の動体領域についてステップS705以降の処理を行うようにする。そして処理はステップS705に戻る。ステップS709では、CPU221は、ステップS708までの処理によって得られた撮像画像を、出力I/F225を介して表示装置140に対して出力する。
ステップS700において取得した撮像画像が図8の撮像画像800であった場合に、ステップS709において表示装置140に出力されて表示される撮像画像の一例を図9に示す。先ず、撮像画像800の固定領域には第2のマスク画像905が描画される。そして、作業員801,802,803,804の各々の画像特徴量は規定の条件を満たすので、作業員801,802,803,804のそれぞれの領域に第1のマスク画像901,902,903,904が描画される。対象物805については、該対象物805の画像特徴量は規定の条件を満たさなかったので、該対象物805には第1のマスク画像が描画されていない。これは、対象物805はホワイトボード上の文字や図形であり、サイズが小さいため、その画像特徴量(ここではサイズ)は規定の条件を満たさなかったと判断されたからである。このような処理によって得られる画像が撮像画像900である。
[第3の実施形態]
本実施形態は図7のフローチャートにおいて、ステップS705で用いる動体領域の画像特徴量として動体領域に含まれる動体の各部位の太さを使用し、ステップS706では太い部位について第1のマスク画像を描画する点が第2の実施形態と異なる。以下では第2の実施形態と本実施形態との差異について重点的に説明する。
ステップS705においてCPU221は、動体領域の一部若しくは全部が固定領域と重なっている場合には、該動体領域に含まれる動体の各部位について、該部位の画像特徴量である該部位の太さが規定の太さ以上であるか否かを判断する。動体を構成する部位とは、例えば、動体が人である場合には、頭、胴体、腕、手、足に対応する。画像中の領域からそれぞれの部位を認識するための技術については、画像認識処理などの周知の技術がある。また、部位の太さを求めるための方法には様々な方法があり、特定の方法に限らない。例えば、部位の位置(部位の中心位置、部位を囲む矩形領域の四隅の何れかの位置等)を中心とした小領域を設定し、該小領域において該部位が占める割合を該部位の太さとして求める。そして動体領域に含まれる動体の各部位うち太さが規定の太さ以上である部位が1つ以上存在したという条件が満たされた場合は、処理はステップS706に進み、この条件が満たされなかった場合には、処理はステップS707に進む。
なお、ステップS705では、あらかじめ太いと判断する小領域画像を学習した検出器を作成しておき、この検出器を動体領域に適用することで検出された部位を「太い部位」と判断するようにしても良い。この場合、「太い部位」と判断された部位が1つ以上存在した場合には、処理はステップS706に進む。
また、動体領域に対してウェーブレット変換を行い、特定の周波数以下に反応する領域を太い部位の領域と判断するようにしても良い。この場合、「太い部位の領域」と判断された領域が1つ以上存在すると、処理はステップS706に進む。
また、動体領域に対してモルフォロジーを用いた細線の除去処理を行い、除去されなかった部位を「太い部位」と判断するようにしても良い。この場合、「太い部位」と判断された部位が1つ以上存在した場合には、処理はステップS706に進む。ステップS706では、CPU221は、太さが規定の太さ以上である部位(太い部位と判断された部位)に第1のマスク画像を描画する。
本実施形態においてステップS700で取得される撮像画像の一例を図10に示す。図10に示す如く、撮像画像1000には、動体である作業員1001と、作業者の作業によって発生した動体であってホワイトボード上に描かれた図形や文字である対象物1002(作業員1001の一部)と、が含まれている。
ステップS700において取得した撮像画像が図10の撮像画像1000であった場合に、ステップS709において表示装置140に出力されて表示される撮像画像の一例を図11に示す。先ず、撮像画像1000の固定領域には第2のマスク画像1102が描画される。図11では、セキュリティを鑑みて、撮像画像1000上のホワイトボードの領域を固定領域としている。そして、作業員1001の各部位のうち規定の太さ以上の部位(太い部位と判断された部位)に第1のマスク画像1101が描画される。
一方、対象物1002については太さが規定の太さ未満であるから、対象物1002の領域には第1のマスク画像は描画されない。このような処理によって得られる画像が撮像画像1100である。
上記の通り、動体領域の画像特徴量には様々な特徴量が考えられる。例えば、動体領域内の色を該動体領域の画像特徴量として用いても良い。例えば、動体領域を構成する画素のR,B,Gのそれぞれの平均値を求め、求めたR,G,Bのそれぞれの平均値が規定の値を超えていた場合には、該動体領域の画像特徴量は規定の条件を満たしていると判断しても良い。
また、動体が動いていた期間を画像特徴量として使用しても良い。また、撮像画像から検出した動体のうち「マスク画像を描画すべき動体として予め指定されていた指定動体」(例えば人体)のみをステップS402(S702)以降の対象とするようにしても良い。
また、撮像画像は撮像装置110から取得することに限らない。例えば、記録済みの動画像若しくは静止画像を記録したメモリ装置(補助記憶装置213や補助記憶装置223等)やサーバ装置から、該動画像の各フレームの画像若しくは該静止画像を撮像画像として取得するようにしても良い。
また、画像特徴量が規定の条件を満たした場合に行われる処理と、画像特徴量が規定の条件を満たさなかった場合に行われる処理と、を逆にしても良いし、このような条件分岐における条件は適宜変更しても良い。以上説明した各実施形態の一部若しくは全部を適宜組み合わせても構わない。また、以上説明した各実施形態の一部若しくは全部を選択的に使用しても構わない。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
221:CPU 222:主記憶装置 223:補助記憶装置 224:入力I/F 225:出力I/F 226:ネットワークI/F

Claims (11)

  1. 画像から検出した動体の領域が該画像中の固定領域と重なる場合に、該動体の領域に描画する第1のマスク画像を、該固定領域に描画する第2のマスク画像上に重ねて描画するか否かを、該動体の領域の画像特徴量に基づいて判断する判断手段と、
    前記判断手段による判断結果に応じて前記第1のマスク画像の描画を制御する制御手段と
    を備えることを特徴とする画像処理装置。
  2. 前記判断手段は、前記画像特徴量が規定の条件を満たしていれば、前記第1のマスク画像を前記第2のマスク画像上に重ねて描画すると判断し、前記画像特徴量が規定の条件を満たしていなければ、前記第1のマスク画像を前記第2のマスク画像上に重ねて描画しないと判断することを特徴とする請求項1に記載の画像処理装置。
  3. 前記判断手段は、前記動体の領域が前記固定領域と重なっていなければ、前記第1のマスク画像を前記第2のマスク画像上に重ねて描画しないと判断することを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記制御手段は、前記判断手段が前記第1のマスク画像を前記第2のマスク画像上に重ねて描画すると判断した場合には、前記第2のマスク画像を前記固定領域に描画してから前記第1のマスク画像を前記動体の領域に描画することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
  5. 前記制御手段は、前記判断手段が前記第1のマスク画像を前記第2のマスク画像上に重ねて描画しないと判断した場合には、前記第1のマスク画像を前記動体の領域に描画してから前記第2のマスク画像を前記固定領域に描画することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
  6. 前記制御手段は、前記画像における固定領域に前記第2のマスク画像を描画した後、前記画像から検出された動体の領域のうち前記判断手段が前記第1のマスク画像を前記第2のマスク画像上に重ねて描画すると判断した動体の領域に前記第1のマスク画像を描画することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
  7. 前記制御手段は、前記画像における固定領域に前記第2のマスク画像を描画した後、前記画像から検出された動体の領域のうち前記判断手段が前記第1のマスク画像を前記第2のマスク画像上に重ねて描画すると判断した動体の一部の領域に前記第1のマスク画像を描画することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
  8. 更に、撮像装置により撮像された撮像画像を前記画像として取得する手段を備えることを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。
  9. 前記固定領域は前記画像に対してユーザが指定した領域であることを特徴とする請求項1乃至8の何れか1項に記載の画像処理装置。
  10. 画像処理装置が行う画像処理方法であって、
    前記画像処理装置の判断手段が、画像から検出した動体の領域が該画像中の固定領域と重なる場合に、該動体の領域に描画する第1のマスク画像を、該固定領域に描画する第2のマスク画像上に重ねて描画するか否かを、該動体の領域の画像特徴量に基づいて判断する判断工程と、
    前記画像処理装置の制御手段が、前記判断工程による判断結果に応じて前記第1のマスク画像の描画を制御する制御工程と
    を備えることを特徴とする画像処理方法。
  11. コンピュータを、請求項1乃至9の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
JP2017199712A 2017-10-13 2017-10-13 画像処理装置、画像処理方法及びコンピュータプログラム Active JP7071086B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2017199712A JP7071086B2 (ja) 2017-10-13 2017-10-13 画像処理装置、画像処理方法及びコンピュータプログラム
EP18195896.8A EP3471398B1 (en) 2017-10-13 2018-09-21 Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US16/151,525 US10713797B2 (en) 2017-10-13 2018-10-04 Image processing including superimposed first and second mask images
KR1020180120823A KR102333532B1 (ko) 2017-10-13 2018-10-11 화상 처리장치, 화상 처리방법 및 비일시적인 컴퓨터 판독가능한 기억매체
CN201811189170.3A CN109671136B (zh) 2017-10-13 2018-10-12 图像处理设备及方法以及非暂时性计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017199712A JP7071086B2 (ja) 2017-10-13 2017-10-13 画像処理装置、画像処理方法及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2019075660A true JP2019075660A (ja) 2019-05-16
JP7071086B2 JP7071086B2 (ja) 2022-05-18

Family

ID=63787715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017199712A Active JP7071086B2 (ja) 2017-10-13 2017-10-13 画像処理装置、画像処理方法及びコンピュータプログラム

Country Status (5)

Country Link
US (1) US10713797B2 (ja)
EP (1) EP3471398B1 (ja)
JP (1) JP7071086B2 (ja)
KR (1) KR102333532B1 (ja)
CN (1) CN109671136B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3640903B1 (en) * 2018-10-18 2023-12-27 IDEMIA Identity & Security Germany AG Signal dependent video surveillance
KR102637119B1 (ko) * 2018-10-25 2024-02-15 삼성전자주식회사 냉장고 안의 객체에 관한 정보를 제공하는 방법 및 시스템
CN110300118B (zh) * 2019-07-09 2020-09-25 联想(北京)有限公司 流媒体处理方法、装置及存储介质
CN113448427B (zh) * 2020-03-24 2023-09-12 华为技术有限公司 设备控制方法、装置及系统
CN111654700B (zh) * 2020-06-19 2022-12-06 杭州海康威视数字技术股份有限公司 一种隐私遮蔽处理方法、装置、电子设备及监控系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011234237A (ja) * 2010-04-28 2011-11-17 Canon Inc カメラ制御装置及びカメラシステム
JP2012078900A (ja) * 2010-09-30 2012-04-19 Nec Corp 情報保護装置、情報保護方法およびプログラム
JP2012174186A (ja) * 2011-02-24 2012-09-10 Mitsubishi Electric Corp 監視用画像処理装置
JP2013157946A (ja) * 2012-01-31 2013-08-15 Jvc Kenwood Corp 画像処理装置、画像処理方法、画像処理プログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009124510A (ja) * 2007-11-15 2009-06-04 Canon Inc 表示制御装置及びその方法、プログラム、記録媒体
JP2009124618A (ja) * 2007-11-19 2009-06-04 Hitachi Ltd カメラ装置、画像処理装置
JP5070231B2 (ja) 2009-02-12 2012-11-07 株式会社日立製作所 記録媒体、アドレス生成及び検出方法、再生及び記録装置
KR20100121764A (ko) * 2009-05-11 2010-11-19 엘지전자 주식회사 감시용 카메라와 마스크 생성 제어방법
JP5304532B2 (ja) * 2009-08-20 2013-10-02 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
US9111346B2 (en) * 2011-09-13 2015-08-18 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and recording medium
JP5707562B1 (ja) * 2014-05-23 2015-04-30 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法
JP5938808B2 (ja) * 2014-07-28 2016-06-22 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法
JP5988225B2 (ja) * 2015-02-25 2016-09-07 パナソニックIpマネジメント株式会社 モニタリング装置およびモニタリング方法
JP6618766B2 (ja) * 2015-10-27 2019-12-11 株式会社デンソーテン 画像処理装置および画像処理方法
JP6504364B2 (ja) * 2015-11-27 2019-04-24 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法
EP3319041B1 (en) * 2016-11-02 2022-06-22 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
JP6931290B2 (ja) * 2017-03-03 2021-09-01 キヤノン株式会社 画像生成装置およびその制御方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011234237A (ja) * 2010-04-28 2011-11-17 Canon Inc カメラ制御装置及びカメラシステム
JP2012078900A (ja) * 2010-09-30 2012-04-19 Nec Corp 情報保護装置、情報保護方法およびプログラム
JP2012174186A (ja) * 2011-02-24 2012-09-10 Mitsubishi Electric Corp 監視用画像処理装置
JP2013157946A (ja) * 2012-01-31 2013-08-15 Jvc Kenwood Corp 画像処理装置、画像処理方法、画像処理プログラム

Also Published As

Publication number Publication date
KR102333532B1 (ko) 2021-12-01
US10713797B2 (en) 2020-07-14
US20190114783A1 (en) 2019-04-18
JP7071086B2 (ja) 2022-05-18
EP3471398A1 (en) 2019-04-17
CN109671136B (zh) 2023-10-03
EP3471398B1 (en) 2024-07-31
CN109671136A (zh) 2019-04-23
KR20190041929A (ko) 2019-04-23

Similar Documents

Publication Publication Date Title
JP7071086B2 (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
KR102049245B1 (ko) 화상처리 장치, 화상처리 방법, 화상처리 시스템 및 기억매체
CN104380338B (zh) 信息处理器以及信息处理方法
JP7129843B2 (ja) 画像処理装置、画像処理装置の制御方法、システム、及び、プログラム
JP2019114821A (ja) 監視システム、装置、方法およびプログラム
US20190246048A1 (en) Image processing apparatus, image processing method, and storage medium
US20120105444A1 (en) Display processing apparatus, display processing method, and display processing program
JP2006072669A (ja) 画像処理装置、ゲーム装置および画像処理方法
KR102497593B1 (ko) 정보 처리장치, 정보 처리방법 및 기억매체
JP2018137560A (ja) 画像処理装置、画像処理システムおよびプログラム
JP7327936B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2019125058A (ja) 画像処理装置、撮影装置、画像処理方法、およびプログラム
CN112511764B (zh) 移动图像整合方法及移动图像整合系统
JP2005309777A (ja) 画像処理方法
JP2024002327A (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201006

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220408

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220506

R151 Written notification of patent or utility model registration

Ref document number: 7071086

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151