JP7370769B2 - Image processing device, image processing method and program - Google Patents

Image processing device, image processing method and program Download PDF

Info

Publication number
JP7370769B2
JP7370769B2 JP2019158057A JP2019158057A JP7370769B2 JP 7370769 B2 JP7370769 B2 JP 7370769B2 JP 2019158057 A JP2019158057 A JP 2019158057A JP 2019158057 A JP2019158057 A JP 2019158057A JP 7370769 B2 JP7370769 B2 JP 7370769B2
Authority
JP
Japan
Prior art keywords
image
background image
captured
background
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019158057A
Other languages
Japanese (ja)
Other versions
JP2021036647A (en
Inventor
太一 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019158057A priority Critical patent/JP7370769B2/en
Publication of JP2021036647A publication Critical patent/JP2021036647A/en
Application granted granted Critical
Publication of JP7370769B2 publication Critical patent/JP7370769B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、画像処理技術に関する。 The present invention relates to image processing technology.

監視目的とした撮像装置の設置が広まる一方で、撮像装置により撮像された画像に映る人物のプライバシーを保護する重要性が高まっている。特許文献1では、入力画像と背景画像とを比較することで動体領域を抽出し、抽出した動体領域を所定のパターンに変換することで前景マスク画像を生成し、当該前景マスク画像を背景画像に重畳することで出力画像を生成する旨の技術が記載されている。 While the installation of imaging devices for surveillance purposes has become widespread, the importance of protecting the privacy of people appearing in images captured by the imaging devices is increasing. In Patent Document 1, a moving object region is extracted by comparing an input image and a background image, a foreground mask image is generated by converting the extracted moving object region into a predetermined pattern, and the foreground mask image is converted into a background image. A technique is described that generates an output image by superimposing images.

一般に、撮像画像に基づいて背景画像を生成する場合、椅子に座るなどして撮像画像上の人物が長時間静止すると、時間の経過と共に当該人物の画像が背景画像に含まれてしまうことがある。当該人物が含まれる背景画像と当該人物が含まれる撮像画像とを比較しても当該人物の領域が動体領域として抽出されず、当該人物の領域に対応する前景マスク画像が生成されなくなる。そして、当該人物が含まれる背景画像に重畳する前景マスク画像が生成されていないため、結果的に生成される出力画像において当該人物のプライバシーを保護できなくなってしまう。この課題を解決するために特許文献1では、次のような内容が開示されている。すなわち、最初に生成された背景画像である初期背景画像において人物が静止すると考えられる領域(抑制領域)を指定し、初期背景画像の抑制領域の画像を背景マスク画像とし、新たに生成された背景画像に当該背景マスク画像を重畳して出力画像を生成する。 Generally, when generating a background image based on a captured image, if the person in the captured image remains still for a long time, such as by sitting on a chair, the image of the person may be included in the background image over time. . Even if a background image including the person is compared with a captured image including the person, the area of the person is not extracted as a moving object area, and a foreground mask image corresponding to the area of the person is not generated. Since a foreground mask image to be superimposed on a background image that includes the person is not generated, the privacy of the person cannot be protected in the output image that is generated as a result. In order to solve this problem, Patent Document 1 discloses the following contents. In other words, in the initial background image that is the first generated background image, a region where the person is considered to be stationary (suppression region) is specified, and the image in the suppression region of the initial background image is used as a background mask image, and the newly generated background An output image is generated by superimposing the background mask image on the image.

特開2018-148368号公報Japanese Patent Application Publication No. 2018-148368

しかしながら特許文献1では、初期背景画像における抑制領域の画像に人物が含まれず、入力画像上の当該抑制領域に対応する領域の画像に人物が含まれる場合、初期背景画像上の人物が含まれない抑制領域の画像が重畳された出力画像が生成される。すなわち、特許文献1では、プライバシーの保護はできるものの、撮像画像における状況を反映した出力画像が生成されない。 However, in Patent Document 1, if a person is not included in the image of the suppression area in the initial background image and a person is included in the image of the area corresponding to the suppression area on the input image, the person in the initial background image is not included. An output image is generated in which the image of the suppression region is superimposed. That is, in Patent Document 1, although privacy can be protected, an output image that reflects the situation in the captured image is not generated.

そこで、本発明は、プライバシーの保護を行いつつ、撮像画像における状況を反映した出力画像を生成する技術の提供を目的としている。 Therefore, an object of the present invention is to provide a technique for generating an output image that reflects the situation in a captured image while protecting privacy.

上記課題を解決するために、本発明に係る画像処理装置は、例えば、以下の構成を備え
る。すなわち、撮像手段により撮像された撮像画像から前景物体の領域を抽出するための背景画像の少なくとも一部として用いられる候補背景画像であって、前記撮像画像の輝度値の平均値に最も近い輝度値の平均値を有する候補背景画像を取得する取得手段と、前記取得手段により取得された候補背景画像を用いて前記背景画像における部分領域の画像を生成し、当該背景画像における当該部分領域以外の領域の画像を前記撮像画像に基づき生成する第1生成処理を実行する生成手段と、前記第1生成処理により生成された背景画像と、前記撮像画像とから、前景物体の領域を抽出する抽出手段と、前記抽出手段により抽出された前景物体の領域を抽象化したマスク画像と、所定の画像とを合成した出力画像を生成する合成手段とを有し、前記生成手段は、前記撮像画像の輝度値の平均値と、前記背景画像の輝度値の平均値との差分値が第1の閾値以上である場合、前記第1生成処理を実行し、前記差分値が前記第1の閾値未満である場合、前記取得手段により取得された候補背景画像を用いず、前記撮像手段により撮像された撮像画像を用いて前記背景画像を生成する
In order to solve the above problems, an image processing device according to the present invention includes, for example, the following configuration. That is, a candidate background image used as at least a part of a background image for extracting a foreground object region from a captured image captured by an imaging means, the luminance value of which is closest to the average value of the luminance values of the captured image . an acquisition means for acquiring a candidate background image having an average value of , and generating an image of a partial region in the background image using the candidate background image acquired by the acquisition means, a generation means for executing a first generation process to generate an image based on the captured image; and an extraction means for extracting a region of the foreground object from the background image generated by the first generation process and the captured image. , a synthesis unit for generating an output image by synthesizing a mask image that abstracts the region of the foreground object extracted by the extraction unit and a predetermined image, and the generation unit is configured to generate a luminance value of the captured image If the difference value between the average value of the background image and the average value of the brightness values of the background image is greater than or equal to a first threshold value, the first generation process is executed, and if the difference value is less than the first threshold value. , the background image is generated using a captured image captured by the imaging unit without using the candidate background image acquired by the acquisition unit.

本発明によれば、プライバシーの保護を行いつつ、撮像画像における状況を反映した出力画像を生成することができる。 According to the present invention, it is possible to generate an output image that reflects the situation in a captured image while protecting privacy.

システム構成の一例を示す図である。FIG. 1 is a diagram showing an example of a system configuration. 出力画像を生成する画像処理の機能ブロックを示す図である。FIG. 3 is a diagram showing functional blocks of image processing that generates an output image. 背景画像を生成する画像処理を説明するための図である。FIG. 3 is a diagram for explaining image processing for generating a background image. 背景画像を生成する画像処理の流れを示すフローチャートである。7 is a flowchart showing the flow of image processing for generating a background image. 出力画像を生成する画像処理の流れを示すフローチャートである。3 is a flowchart showing the flow of image processing to generate an output image. 出力画像を生成する画像処理の機能ブロックを示す図である。FIG. 3 is a diagram showing functional blocks of image processing that generates an output image. 各装置のハードウェア構成を示す図である。FIG. 3 is a diagram showing the hardware configuration of each device.

以下、添付図面を参照しながら、本発明に係る実施形態について説明する。なお、以下の実施形態において示す構成は一例に過ぎず、図示された構成に限定されるものではない。 Embodiments of the present invention will be described below with reference to the accompanying drawings. Note that the configuration shown in the following embodiments is only an example, and the configuration is not limited to the illustrated configuration.

(実施形態1)
図1は、本実施形態におけるシステム構成を示す図である。本実施形態におけるシステムは、画像処理装置100、撮像装置110、記録装置120、およびディスプレイ130を有している。
(Embodiment 1)
FIG. 1 is a diagram showing the system configuration in this embodiment. The system in this embodiment includes an image processing device 100, an imaging device 110, a recording device 120, and a display 130.

画像処理装置100、撮像装置110、および記録装置120は、ネットワーク140を介して相互に接続されている。ネットワーク140は、例えばETHERNET(登録商標)等の通信規格に準拠する複数のルータ、スイッチ、ケーブル等から実現される。 The image processing device 100, the imaging device 110, and the recording device 120 are interconnected via a network 140. The network 140 is realized, for example, by a plurality of routers, switches, cables, etc. that comply with communication standards such as ETHERNET (registered trademark).

なお、ネットワーク140は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless Lan)、WAN(Wide Area Network)等により実現されてもよい。 Note that the network 140 may be realized by the Internet, a wired LAN (Local Area Network), a wireless LAN (Wireless LAN), a WAN (Wide Area Network), or the like.

画像処理装置100は、例えば、後述する画像処理の機能を実現するためのプログラムがインストールされたパーソナルコンピュータ等によって実現される。なお、本実施形態では、画像処理装置100と撮像装置110はネットワーク140を介して接続されるが、画像処理装置100および撮像装置110は単一の筐体に設けられていてもよい。 The image processing apparatus 100 is realized, for example, by a personal computer or the like installed with a program for realizing image processing functions described below. Note that in this embodiment, the image processing device 100 and the imaging device 110 are connected via the network 140, but the image processing device 100 and the imaging device 110 may be provided in a single housing.

撮像装置110は、画像を撮像する装置である。撮像装置110は、撮像した撮像画像の画像データと、撮像画像を撮像した撮像時刻の情報と、撮像装置110を識別する情報である識別情報とを関連付けて、ネットワーク140を介し、画像処理装置100や記録装置120等の外部装置へ送信する。なお、本実施形態に係るシステムにおいて、撮像装置110は1つとするが、複数であってもよい。 The imaging device 110 is a device that captures images. The imaging device 110 associates image data of the captured image, information on the imaging time at which the captured image was captured, and identification information that is information for identifying the imaging device 110, and transmits the data to the image processing device 100 via the network 140. or to an external device such as the recording device 120. Note that in the system according to this embodiment, there is one imaging device 110, but there may be a plurality of imaging devices 110.

記録装置120は、撮像装置110が撮像した撮像画像の画像データと、撮像画像を撮像した撮像時刻の情報と、撮像装置110を識別する識別情報とを関連付けて記録する。そして、画像処理装置100からの要求に従って、記録装置120は、記録したデータ(撮像画像、識別情報など)を画像処理装置100へ送信する。 The recording device 120 records image data of a captured image captured by the imaging device 110, information on the imaging time at which the captured image was captured, and identification information for identifying the imaging device 110 in association with each other. Then, in accordance with a request from the image processing apparatus 100, the recording apparatus 120 transmits the recorded data (captured image, identification information, etc.) to the image processing apparatus 100.

ディスプレイ130は、LCD(Liquid Crystal Display)等により構成されており、画像処理装置100の画像処理の結果や、撮像装置110が撮像した撮像画像などを表示する。ディスプレイ130は、HDMI(登録商標)(High Definition Multimedia Interface)等の通信規格に準拠したディスプレイケーブルを介して画像処理装置100と接続されている。 The display 130 is configured with an LCD (Liquid Crystal Display) or the like, and displays the results of image processing by the image processing device 100, images captured by the imaging device 110, and the like. The display 130 is connected to the image processing device 100 via a display cable compliant with communication standards such as HDMI (registered trademark) (High Definition Multimedia Interface).

また、ディスプレイ130は、表示手段として機能し、撮像装置110が撮像した撮像画像や、後述する画像処理による結果等を表示する。なお、ディスプレイ130、画像処理装置100、および記録装置120の少なくともいずれか2つ又は全ては、単一の筐体に設けられてもよい。 Further, the display 130 functions as a display means, and displays a captured image captured by the imaging device 110, a result of image processing to be described later, and the like. Note that at least any two or all of the display 130, the image processing device 100, and the recording device 120 may be provided in a single housing.

なお、画像処理装置100の画像処理の結果や、撮像装置110により撮像された撮像画像は、画像処理装置100にディスプレイケーブルを介して接続されたディスプレイ130に限らず、例えば、次のような外部装置が有するディスプレイに表示されてもよい。すなわち、ネットワーク140を介して接続されたスマートフォン、タブレット端末などのモバイルデバイスが有するディスプレイに表示されていてもよい。 Note that the results of image processing by the image processing device 100 and the captured images captured by the imaging device 110 are not limited to the display 130 connected to the image processing device 100 via a display cable, but can be displayed on external devices such as the following. It may be displayed on a display included in the device. That is, it may be displayed on a display of a mobile device such as a smartphone or a tablet terminal connected via the network 140.

次に、図2に示す本実施形態に係る画像処理装置100の機能ブロックを参照して、本実施形態に係る画像処理装置100の画像処理について説明する。なお、図2に示す各機能は、本実施形態の場合、図7を参照して後述するROM(Read Only Memory)720とCPU(Central Processing Unit)700とを用いて、次のようにして実現されるものとする。図2に示す各機能は、画像処理装置100のROM720に格納されたコンピュータプログラムを画像処理装置100のCPU700が実行することにより実現される。 Next, image processing of the image processing apparatus 100 according to the present embodiment will be described with reference to functional blocks of the image processing apparatus 100 according to the present embodiment shown in FIG. In this embodiment, each function shown in FIG. 2 is realized as follows using a ROM (Read Only Memory) 720 and a CPU (Central Processing Unit) 700, which will be described later with reference to FIG. shall be carried out. Each function shown in FIG. 2 is realized by the CPU 700 of the image processing apparatus 100 executing a computer program stored in the ROM 720 of the image processing apparatus 100.

通信部200は、図7を参照して後述するI/F(Interface)740によって実現でき、ネットワーク140を介して、撮像装置110や記録装置120と通信を行う。通信部200は、例えば、撮像装置110が撮像した撮像画像の画像データを受信したり、撮像装置110を制御するための制御コマンドを撮像装置110へ送信したりする。なお、制御コマンドは、例えば、撮像装置110に対して画像を撮像するよう指示を行うコマンド、または、撮像画像を送信するよう要求する送信要求であって送信対象となる撮像画像の撮像時刻の指定を含む送信要求のコマンドなどである。送信要求のコマンドを受け取った撮像装置110は、送信要求に含まれる撮像時刻に対応する撮像画像の画像データを画像処理装置100に送信する。 The communication unit 200 can be realized by an I/F (Interface) 740, which will be described later with reference to FIG. 7, and communicates with the imaging device 110 and the recording device 120 via the network 140. The communication unit 200 receives, for example, image data of a captured image captured by the imaging device 110, and transmits a control command for controlling the imaging device 110 to the imaging device 110. Note that the control command is, for example, a command that instructs the imaging device 110 to capture an image, or a transmission request that requests to transmit a captured image, and specifies the imaging time of the captured image to be transmitted. This includes commands for sending requests, including . Upon receiving the transmission request command, the imaging device 110 transmits image data of a captured image corresponding to the imaging time included in the transmission request to the image processing device 100.

記憶部201は、図7を参照して後述するRAM(Random Access Memory)710やHDD(Hard Disk Drive)730等によって実現でき、例えば、通信部200が取得した撮像画像を記憶(保持)する。 The storage unit 201 can be realized by a RAM (Random Access Memory) 710, an HDD (Hard Disk Drive) 730, etc., which will be described later with reference to FIG. 7, and stores (retains) captured images acquired by the communication unit 200, for example.

操作受付部202は、キーボードやマウス等の入力装置(不図示)を介して、ユーザが行った操作を受け付ける。例えば、操作受付部202は、背景画像上の部分領域であって撮像画像に基づく背景画像の生成(更新)が実行されない部分領域を指定する操作を受け付ける。 The operation reception unit 202 receives operations performed by a user via an input device (not shown) such as a keyboard or a mouse. For example, the operation accepting unit 202 accepts an operation that specifies a partial area on the background image in which the background image is not generated (updated) based on the captured image.

背景管理部203は、撮像画像から前景物体の領域を抽出するための背景画像の少なくとも一部として用いられる複数の候補背景画像を記憶(保持)する。また、操作受付部202が候補背景画像を指定するユーザ操作を受け付けた場合、背景管理部203は、当該候補背景画像の輝度を変換させることで当該候補背景画像から複数の候補背景画像を生成および保持するようにしてもよい。また、操作受付部202が複数の候補背景画像を指定するユーザ操作を受け付けた場合、背景管理部203は、当該複数の候補背景画像を保持するようにしてもよい。なお、候補背景画像は、隠蔽対象とする特定の物体(人物)が含まれない画像であるものとする。 The background management unit 203 stores (retains) a plurality of candidate background images that are used as at least part of a background image for extracting a foreground object region from a captured image. Further, when the operation reception unit 202 receives a user operation specifying a candidate background image, the background management unit 203 generates a plurality of candidate background images from the candidate background image by converting the brightness of the candidate background image. It may also be retained. Further, when the operation reception unit 202 receives a user operation specifying a plurality of candidate background images, the background management unit 203 may hold the plurality of candidate background images. Note that the candidate background image is an image that does not include a specific object (person) to be hidden.

設定部204は、撮像画像に基づく背景画像の生成(更新)が行われない部分領域を背景画像に対して設定する。本実施形態における設定部204は、操作受付部202が受け付けたユーザによる部分領域を指定する操作に基づき、部分領域を背景画像に対して設定する。 The setting unit 204 sets, for the background image, a partial area in which the background image is not generated (updated) based on the captured image. The setting unit 204 in this embodiment sets a partial area to the background image based on the user's operation for specifying a partial area received by the operation receiving unit 202.

選択部205は、現在処理対象とする撮像画像の輝度に基づき、背景管理部203が保持する複数の候補背景画像のうち背景画像の生成に用いる候補背景画像を選択(取得)する。本実施形態に係る選択部205は、例えば、次のような処理を実行することで候補背景画像を選択(取得)する。すなわち、選択部205は、候補背景画像の各画素の輝度値の平均値を算出する処理を複数の候補背景画像の各々について実行する。更に、選択部205は、現在処理対象とする撮像画像の各画素の輝度値の平均値を算出する。そして、選択部205は、処理対象の撮像画像の輝度値の平均値と、候補背景画像の輝度値の平均値の各々とを比較し、複数の候補背景画像から、当該撮像画像の輝度値の平均値に最も近い輝度値の平均値を有する候補背景画像を選択(取得)する。すなわち、選択部205は、複数の候補背景画像から現在処理対象とする撮像画像の状況に近しい候補背景画像を選択(取得)する。 The selection unit 205 selects (acquires) a candidate background image to be used for generating a background image from among the plurality of candidate background images held by the background management unit 203, based on the brightness of the captured image currently being processed. The selection unit 205 according to the present embodiment selects (obtains) candidate background images by, for example, performing the following process. That is, the selection unit 205 executes a process for calculating the average value of the brightness values of each pixel of the candidate background images for each of the plurality of candidate background images. Furthermore, the selection unit 205 calculates the average value of the brightness values of each pixel of the captured image currently being processed. Then, the selection unit 205 compares the average brightness value of the captured image to be processed with each of the average brightness values of the candidate background images, and selects the brightness value of the captured image from among the plurality of candidate background images. A candidate background image having an average value of brightness values closest to the average value is selected (obtained). That is, the selection unit 205 selects (obtains) a candidate background image that is close to the situation of the captured image currently being processed from a plurality of candidate background images.

背景生成部206は、選択部205により取得された候補背景画像を用いて背景画像における部分領域の画像を生成し、背景画像における当該部分領域以外の領域の画像を撮像画像に基づき生成する第1生成処理を実行する。また、背景生成部206は、選択部205により取得された候補背景画像を背景画像とする第2生成処理を実行する。すなわち、第2生成処理は、選択部205により取得された候補背景画像を最新の背景画像とする処理である。なお、背景生成部206の詳細な説明については後述する。 The background generation unit 206 generates an image of a partial area in the background image using the candidate background image acquired by the selection unit 205, and generates an image of an area other than the partial area in the background image based on the captured image. Execute generation processing. Furthermore, the background generation unit 206 executes a second generation process in which the candidate background image acquired by the selection unit 205 is used as a background image. That is, the second generation process is a process in which the candidate background image acquired by the selection unit 205 is set as the latest background image. Note that a detailed explanation of the background generation unit 206 will be given later.

抽出部207は、背景生成部206における第1生成処理または第2生成処理により生成された背景画像を用いて現在処理対象とする撮像画像から前景物体の領域を抽出する。具体的には、本実施形態に係る抽出部207は、処理対象とする撮像画像と、背景生成部206における第1生成処理または第2生成処理により生成された背景画像とを比較することで(背景差分法)、処理対象とする撮像画像から前景物体の領域を抽出する。 The extraction unit 207 uses the background image generated by the first generation process or the second generation process in the background generation unit 206 to extract the region of the foreground object from the captured image currently being processed. Specifically, the extraction unit 207 according to the present embodiment compares the captured image to be processed with the background image generated by the first generation process or the second generation process in the background generation unit 206. (background subtraction method), the area of the foreground object is extracted from the captured image to be processed.

なお、本実施形態に係る抽出部207による前景物体の領域を抽出する方法として、次のような処理が実行される。すなわち、抽出部207は、生成された背景画像に対する差分の領域を示す前景領域を「1」とし、その他の領域を「0」とする2値画像を生成する。このとき、抽出部207は、背景画像の各画素と処理対象とする撮像画像の各画素とで差分値を算出し、算出した差分値が閾値以上の画素については前景領域を表す「1」を設定し、閾値未満の場合は「0」を設定することで、2値画像を生成する。 Note that as a method for extracting a foreground object region by the extraction unit 207 according to this embodiment, the following process is executed. That is, the extraction unit 207 generates a binary image in which the foreground area indicating the area of difference with respect to the generated background image is set to "1" and the other areas are set to "0". At this time, the extraction unit 207 calculates the difference value between each pixel of the background image and each pixel of the captured image to be processed, and sets "1" representing the foreground region to the pixel for which the calculated difference value is equal to or greater than the threshold value. A binary image is generated by setting "0" when the value is less than the threshold value.

合成部208は、抽出部207により抽出された前景物体の領域を抽象化(Anonymization)したマスク画像を生成し、当該マスク画像と、所定の画像とを合成した出力画像を生成する。本実施形態に係る合成部208は、例えば、生成したマスク画像と、選択部205により取得された候補背景画像とを合成する。また、合成部208は、例えば、生成したマスク画像と、第1生成処理または第2生成処理により生成された背景画像とを合成するようにしてもよい。 The synthesis unit 208 generates a mask image by abstracting (anonymizing) the region of the foreground object extracted by the extraction unit 207, and generates an output image by synthesizing the mask image and a predetermined image. The combining unit 208 according to the present embodiment combines, for example, the generated mask image and the candidate background image acquired by the selecting unit 205. Further, the synthesizing unit 208 may, for example, synthesize the generated mask image and the background image generated by the first generation process or the second generation process.

なお、合成部208による前景物体の領域を抽象化(Anonymization)する処理として、合成部208は、例えば、次のような処理を実行する。すなわち、合成部208は、撮像画像から抽出した前景物体の領域を、任意の色(RGB値)で塗りつぶすことで抽象化(Anonymization)したマスク画像を生成する。なお、前景物体の領域を抽象化(Anonymization)したマスク画像としては、例えば、当該領域に対しモザイク処理を施したモザイク画像、当該領域にぼかし処理を施したぼかし画像などであってもよい。 Note that as the process of abstracting (anonymizing) the region of the foreground object by the combining unit 208, the combining unit 208 executes the following process, for example. That is, the synthesis unit 208 generates a mask image that is abstracted (anonymized) by filling the foreground object region extracted from the captured image with an arbitrary color (RGB values). Note that the mask image in which the region of the foreground object is abstracted (anonymized) may be, for example, a mosaic image in which the region is subjected to mosaic processing, a blurred image in which the region is subjected to blurring processing, or the like.

出力制御部209は、合成部208により生成された出力画像を外部装置(記録装置120、ディスプレイ130等)へ出力する。このとき、出力制御部209は、例えば、合成部208により生成された出力画像をディスプレイ130に表示させる。 The output control unit 209 outputs the output image generated by the composition unit 208 to an external device (recording device 120, display 130, etc.). At this time, the output control unit 209 causes the display 130 to display the output image generated by the composition unit 208, for example.

次に、図3および図4を参照して、本実施形態に係る画像処理装置100のプライバシー保護がなされた出力画像を生成する画像処理についてより詳細に説明する。 Next, image processing for generating an output image with privacy protection performed by the image processing apparatus 100 according to the present embodiment will be described in more detail with reference to FIGS. 3 and 4.

図3は本実施形態に係る画像処理を説明するための図である。まず、図3(a)~図3(c)を参照して、出力画像を生成する処理について説明する。図3(a)に示す撮像画像300aは、撮像装置110により撮像された撮像画像であり、人物301がベッドに横になっている。また、図3(b)に示す背景画像300bは、隠蔽対象とする人物が含まれていない背景画像を示す。本実施形態に係る抽出部207は、撮像画像300aと背景画像300bとを比較することで、撮像画像300aに含まれる人物301の領域を前景物体の領域として抽出する。そして、合成部208は、抽出した前景物体の領域を抽象化(Anonymization)したマスク画像302と背景画像300bと合成することで出力画像300cを生成する。 FIG. 3 is a diagram for explaining image processing according to this embodiment. First, the process of generating an output image will be described with reference to FIGS. 3(a) to 3(c). A captured image 300a shown in FIG. 3A is a captured image captured by the imaging device 110, in which a person 301 is lying on a bed. Furthermore, a background image 300b shown in FIG. 3(b) is a background image that does not include a person to be hidden. The extraction unit 207 according to the present embodiment extracts the region of the person 301 included in the captured image 300a as a foreground object region by comparing the captured image 300a and the background image 300b. Then, the synthesizing unit 208 generates an output image 300c by synthesizing the mask image 302 obtained by anonymizing the extracted foreground object region with the background image 300b.

従来技術として、取得される複数の撮像画像に基づき背景画像を生成する処理がある。例えば、直近のNフレーム(Nは整数)の撮像画像の各画素値の平均値を算出することで背景画像を生成する技術がある。また、撮像画像からフレーム間差分等により動体を検出し、当該撮像画像における当該動体以外の領域の画像を用いて背景画像を生成(更新)する技術がある。これらの技術では、例えば、撮像画像300aに映るベッドに横たわる人物のように一定時間にわたって静止し続ける人物がいる場合、当該人物の画像が背景化してしまい、背景画像300dのような背景画像が生成されることがある。このとき、撮像画像300aと背景画像300dとを比較した場合、人物301が前景領域として抽出されないため、人物301に対応するマスク画像が生成されなくなる。すなわち背景画像300dと合成されるマスク画像が生成されないため、結果的に生成される出力画像では人物301が表示されてしまいプライバシーの保護がなされなくなる。 As a conventional technique, there is a process of generating a background image based on a plurality of captured images. For example, there is a technique that generates a background image by calculating the average value of each pixel value of captured images of the most recent N frames (N is an integer). Furthermore, there is a technique in which a moving object is detected from a captured image using inter-frame differences, etc., and a background image is generated (updated) using an image of an area other than the moving object in the captured image. In these technologies, for example, when there is a person who remains stationary for a certain period of time, such as a person lying on a bed reflected in the captured image 300a, the image of the person becomes the background, and a background image such as the background image 300d is generated. may be done. At this time, when the captured image 300a and the background image 300d are compared, the person 301 is not extracted as a foreground region, so a mask image corresponding to the person 301 is not generated. That is, since a mask image to be combined with the background image 300d is not generated, the person 301 is displayed in the resulting output image, and privacy protection is no longer achieved.

そこで、本実施形態に係る画像処理において、上述した第1生成処理または第2生成処理により背景画像を生成する処理を実行する。ここではまず第1生成処理について説明する。 Therefore, in the image processing according to the present embodiment, a process of generating a background image by the above-described first generation process or second generation process is executed. First, the first generation process will be explained here.

本実施形態において、出力制御部209は、例えば、最初に生成された(設定された)背景画像をディスプレイ130に表示させる。そして、操作受付部202は、表示された背景画像において人物が一定時間にわたり静止すると考えられる領域を指定するユーザ操作を受け付け、設定部204は、操作受付部202が受け付けた当該ユーザ操作に基づき、背景画像に対し部分領域を設定する。図3(e)に示す背景画像300eには設定部204により設定された部分領域303が示されている。 In this embodiment, the output control unit 209 causes the display 130 to display, for example, the first generated (set) background image. Then, the operation reception unit 202 receives a user operation that specifies an area in which a person is expected to remain stationary for a certain period of time in the displayed background image, and the setting unit 204 receives a user operation based on the user operation received by the operation reception unit 202. Set a partial area for the background image. A partial area 303 set by the setting unit 204 is shown in the background image 300e shown in FIG. 3(e).

第1生成処理において、背景画像300eにおける部分領域303以外の領域の画像については随時入力される撮像画像に基づき生成(更新)される。例えば、背景画像300eにおける部分領域303以外の領域の画像は、直近Nフレームの撮像画像における当該領域に対応する画像の各画素の平均値を算出することで生成(更新)される。一方、第1生成処理において、背景画像300eにおける部分領域の画像については選択部205により現在処理対象の撮像画像の状況に近しいとして取得された候補背景画像を用いて生成(更新)される。例えば、背景画像300eにおける部分領域の画像は、選択部205により取得された候補背景画像における当該部分領域に対応する領域の画像で置き換えられる。 In the first generation process, images of areas other than the partial area 303 in the background image 300e are generated (updated) based on captured images input from time to time. For example, an image of a region other than the partial region 303 in the background image 300e is generated (updated) by calculating the average value of each pixel of the image corresponding to the region in the captured images of the most recent N frames. On the other hand, in the first generation process, an image of a partial area in the background image 300e is generated (updated) using a candidate background image acquired by the selection unit 205 as being close to the situation of the captured image currently being processed. For example, an image of a partial region in the background image 300e is replaced with an image of a region corresponding to the partial region in the candidate background image acquired by the selection unit 205.

ここで、第1生成処理により背景画像を生成する効果について説明する。まず、撮像画像300aが撮像されたのち、撮像対象の領域の照明がオンからオフに切り替わったことに伴い、図3(f)に示すような撮像対象の領域が暗くなった撮像画像300fが撮像された場合を想定する。このとき上述した第1生成処理ではなく、背景画像における部分領域303以外の領域の画像は撮像画像に基づき生成(更新)され、部分領域303の画像は生成(更新)しない処理を実行した場合、次のような課題が生じる。すなわち、撮像画像300fが撮像されて以降、照明がオフの状態が続いて撮像画像300fと同様の画像が撮像され続けると、部分領域303以外の領域の画像は撮像画像に基づき生成(更新)されるため図3(g)に示すような背景画像300gが生成される。このとき、部分領域303の画像は撮像画像に基づき生成(更新)されないため、背景画像300gに示す部分領域303内の画像は背景画像300eから変化していない。この場合、抽出部207は、背景画像300gと撮像画像300fとを比較し、撮像画像300fにおける部分領域303に対応する領域を前景物体の領域として抽出してしまう。その結果、合成部208は、図3(h)に示すような、出力画像300hが生成されることになり、人物が存在しているのか否か判別ができない出力画像が生成されてしまう。 Here, the effect of generating a background image by the first generation process will be explained. First, after the captured image 300a is captured, as the illumination of the area to be imaged is switched from on to off, a captured image 300f in which the area to be imaged becomes dark as shown in FIG. 3(f) is captured. Assume that At this time, instead of the first generation process described above, if a process is executed in which images of areas other than the partial area 303 in the background image are generated (updated) based on the captured image, but images of the partial area 303 are not generated (updated), The following issues arise. That is, after the captured image 300f is captured, if the illumination continues to be off and images similar to the captured image 300f continue to be captured, images of areas other than the partial area 303 are generated (updated) based on the captured image. Therefore, a background image 300g as shown in FIG. 3(g) is generated. At this time, since the image in the partial area 303 is not generated (updated) based on the captured image, the image in the partial area 303 shown in the background image 300g has not changed from the background image 300e. In this case, the extraction unit 207 compares the background image 300g and the captured image 300f, and extracts a region corresponding to the partial region 303 in the captured image 300f as a region of the foreground object. As a result, the synthesis unit 208 generates an output image 300h as shown in FIG. 3(h), and an output image in which it is impossible to determine whether a person is present or not is generated.

しかしながら、本実施形態に係る第1生成処理では、上述したように、背景画像300eにおける部分領域303の画像について選択部205により取得された候補背景画像を用いて生成(更新)される。具体的には、まず、予め保持した複数の候補背景画像のうち、撮像画像300fの輝度に近しい候補背景画像300kが取得される。そして、選択された候補背景画像300kにおける部分領域303に対応する領域の画像を用いて背景画像300e上の部分領域303の画像が更新(生成)されることで、図3(i)に示す背景画像300iが生成される。この場合、抽出部207は、撮像画像300fと背景画像300iとを比較することで、撮像画像300fにおける人物301を前景物体の領域として抽出することができる。そして、合成部308は、抽出部207により抽出された前景物体の領域を抽象化(Anonymization)したマスク画像305を生成する。さらに、合成部308は、生成したマスク画像305と背景画像300iとを合成することで図3(j)に示すような出力画像300jを生成することができる。出力画像300jでは、撮像画像に映っていた人物が誰であるかを特定できないようプライバシーを保護しつつ、人物が存在していることがわかる、すなわち撮像画像の状況が反映されている。 However, in the first generation process according to the present embodiment, as described above, the image of the partial area 303 in the background image 300e is generated (updated) using the candidate background image acquired by the selection unit 205. Specifically, first, a candidate background image 300k having a brightness close to that of the captured image 300f is acquired from among a plurality of candidate background images held in advance. Then, the image of the partial area 303 on the background image 300e is updated (generated) using the image of the area corresponding to the partial area 303 in the selected candidate background image 300k, so that the background shown in FIG. Image 300i is generated. In this case, the extraction unit 207 can extract the person 301 in the captured image 300f as a foreground object region by comparing the captured image 300f and the background image 300i. Then, the synthesis unit 308 generates a mask image 305 in which the region of the foreground object extracted by the extraction unit 207 is abstracted (anonymized). Further, the combining unit 308 can generate an output image 300j as shown in FIG. 3(j) by combining the generated mask image 305 and the background image 300i. In the output image 300j, the presence of a person can be seen while protecting privacy so that the identity of the person in the captured image cannot be identified, that is, the situation of the captured image is reflected.

以上説明したように、第1生成処理により生成された背景画像を用いて撮像画像から前景物体の領域を抽出することで、撮像画像に映っていた人物のプライバシーを保護しつつ、撮像画像の状況が反映された出力画像を生成することができる。 As explained above, by extracting the region of the foreground object from the captured image using the background image generated by the first generation process, the privacy of the person in the captured image is protected while the situation of the captured image is It is possible to generate an output image that reflects the

続いて、第2生成処理について説明する。第2生成処理は、部分領域を考慮せず、選択部205により取得された候補背景画像を最新の背景画像とする処理である。例えば、現在の背景画像が図3(b)に示す背景画像300bであり、現在処理対象とする撮像画像が撮像画像300aから撮像画像300fに移ったとする。このとき、選択部205により現在処理対象とする撮像画像の輝度に近い候補背景画像として複数の候補背景画像から候補背景画像300kが取得される。そして、第2生成処理では、選択部205により取得された候補背景画像300kを最新の背景画像とする。この場合、抽出部207は、撮像画像300fと現在の背景画像である候補背景画像300kとを比較することで、撮像画像300fにおける人物301を前景物体の領域として抽出することができる。そして、合成部308は、抽出部207により抽出された前景物体の領域を抽象化(Anonymization)したマスク画像305を生成する。さらに、合成部308は、生成したマスク画像305と候補背景画像300kとを合成することで図3(j)に示すような出力画像300jを生成することができる。 Next, the second generation process will be explained. The second generation process is a process in which the candidate background image acquired by the selection unit 205 is set as the latest background image without considering the partial area. For example, assume that the current background image is the background image 300b shown in FIG. 3(b), and that the captured image to be currently processed has shifted from the captured image 300a to the captured image 300f. At this time, the selection unit 205 acquires a candidate background image 300k from the plurality of candidate background images as a candidate background image that has a brightness close to the captured image currently being processed. In the second generation process, the candidate background image 300k acquired by the selection unit 205 is set as the latest background image. In this case, the extraction unit 207 can extract the person 301 in the captured image 300f as a foreground object region by comparing the captured image 300f with the candidate background image 300k, which is the current background image. Then, the synthesis unit 308 generates a mask image 305 in which the region of the foreground object extracted by the extraction unit 207 is abstracted (anonymized). Further, the combining unit 308 can generate an output image 300j as shown in FIG. 3(j) by combining the generated mask image 305 and the candidate background image 300k.

なお、本実施形態における背景生成部206は、現在の背景画像の輝度値の平均値と、現在の処理対象とする撮像画像の輝度値の平均値との差分に基づき、第1生成処理または第2生成処理を実行する。具体的には、背景生成部206は、現在の背景画像の各画像の輝度値の平均値と、現在処理対象とする撮像画像の各画素の輝度値の平均値との差分値を算出する。そして、背景生成部206は、例えば、当該差分値が第1閾値以上第2閾値未満である場合、第1生成処理を実行し、当該差分値が第2閾値以上である場合、第2生成処理を実行する。なお、第2閾値は第1閾値よりも大きい値である。第1生成処理では、背景画像における部分領域以外の領域の画像は随時入力される複数の撮像画像に基づき生成(更新)されるものとした。しかしながら、撮像対象の領域の明るさが大きく変化するなどして、現在処理対象とする撮像画像と、現在の背景画像とで輝度値が大きく異なる場合、現在の撮像画像における輝度が最新の背景画像に反映されるまで時間を要することがある。そこで、本実施形態における背景生成部206は、現在の背景画像の輝度値の平均値と、現在の処理対象の撮像画像の輝度値の平均値との差分が第1閾値より大きい第2閾値以上である場合、第2生成処理を実行するようにする。このようにすることで、現在の撮像画像の状況に近しい背景画像を短時間で生成することが可能となる。 Note that the background generation unit 206 in this embodiment performs the first generation process or the first generation process based on the difference between the average value of the brightness values of the current background image and the average value of the brightness values of the captured image currently being processed. 2 Execute generation processing. Specifically, the background generation unit 206 calculates the difference value between the average value of the brightness values of each image of the current background image and the average value of the brightness values of each pixel of the captured image currently being processed. Then, for example, the background generation unit 206 executes the first generation process when the difference value is greater than or equal to the first threshold and less than the second threshold, and when the difference value is greater than or equal to the second threshold, the background generation unit 206 executes the second generation process. Execute. Note that the second threshold is a larger value than the first threshold. In the first generation process, images of regions other than the partial regions in the background image are generated (updated) based on a plurality of captured images inputted from time to time. However, if the brightness of the area to be imaged changes significantly, and the brightness value differs greatly between the currently processed image and the current background image, the brightness of the current image will be the same as that of the latest background image. It may take some time for the changes to be reflected. Therefore, the background generation unit 206 in this embodiment sets the difference between the average luminance value of the current background image and the average luminance value of the current captured image to be processed to be equal to or larger than a second threshold value, which is larger than the first threshold value. If so, the second generation process is executed. By doing so, it becomes possible to generate a background image that is close to the current situation of the captured image in a short time.

次に、図4および図5に示すフローを参照して、本実施形態に係る画像処理装置100による画像処理について更に詳細に説明する。図4に示すフローの処理を実行することで、第1生成処理または第2生成処理を実行することができる。また、図5に示すフローの処理を実行することで、生成された背景画像を用いて出力画像を生成することができる。 Next, image processing by the image processing apparatus 100 according to the present embodiment will be described in more detail with reference to the flows shown in FIGS. 4 and 5. By executing the process of the flow shown in FIG. 4, the first generation process or the second generation process can be executed. Furthermore, by executing the process shown in the flow shown in FIG. 5, it is possible to generate an output image using the generated background image.

なお、図4および図5に示すフローの処理は、画像処理装置100のROM720に格納されたコンピュータプログラムを画像処理装置100のCPU700が実行して実現される図2に示す機能ブロックにより実行されるものとする。また、図4に示すフローの処理は、例えば、ユーザによる指示に従って、開始又は終了するものとする。 Note that the processing of the flows shown in FIGS. 4 and 5 is executed by the functional blocks shown in FIG. shall be taken as a thing. Further, it is assumed that the processing of the flow shown in FIG. 4 is started or ended, for example, in accordance with an instruction from a user.

まず、図4に示すフローの処理について説明する。S401にて、背景生成部206は、初期の背景画像である初期背景画像を取得する。初期背景画像としては、例えば、出力制御部207によりディスプレイ130に表示された複数の撮像画像のうち、ユーザにより選択された撮像画像を初期背景画像としてもよい。また、図4に示すフローの処理に先立って、背景生成部206は、隠蔽対象とする特定の物体(人物等)がいない状態で撮像された複数の撮像画像に基づき、初期背景画像を生成してもよい。このとき、背景生成部206は、例えば、複数の撮像画像の各画素値の平均を算出することで、初期背景画像を生成するようにしてもよい。 First, the processing of the flow shown in FIG. 4 will be explained. In S401, the background generation unit 206 acquires an initial background image that is an initial background image. As the initial background image, for example, a captured image selected by the user from among the plurality of captured images displayed on the display 130 by the output control unit 207 may be used as the initial background image. Furthermore, prior to the processing of the flow shown in FIG. 4, the background generation unit 206 generates an initial background image based on a plurality of captured images that are captured without a specific object (such as a person) to be hidden. It's okay. At this time, the background generation unit 206 may generate the initial background image by, for example, calculating the average of each pixel value of the plurality of captured images.

次に、S402にて、通信部200は、処理対象とする撮像画像を取得する。なお、本実施形態において、通信部200は、ネットワーク140を介して撮像装置110から処理対象とする撮像画像を取得するが、例えば、記録装置120から処理対象とする撮像画像を取得してもよい。 Next, in S402, the communication unit 200 acquires a captured image to be processed. Note that in this embodiment, the communication unit 200 acquires a captured image to be processed from the imaging device 110 via the network 140, but it may also acquire a captured image to be processed from the recording device 120, for example. .

次に、S403にて、選択部205は、撮像画像の輝度値の平均値を算出する。具体的には、選択部205は、例えば、現在処理対象とする撮像画像の各画素の輝度値の平均値を算出する。 Next, in S403, the selection unit 205 calculates the average value of the brightness values of the captured images. Specifically, the selection unit 205 calculates, for example, the average value of the brightness values of each pixel of the captured image currently being processed.

次に、S404にて、選択部205は、現在処理対象とする撮像画像の輝度に基づき、背景管理部202が保持する複数の候補背景画像のうち背景画像の生成に用いる候補背景画像を取得する。具体的には、選択部205は、候補背景画像の各画素の輝度値の平均値を算出する処理を複数の候補背景画像の各々について実行する。そして、選択部205は、処理対象の撮像画像の輝度値の平均値と、候補背景画像の輝度値の平均値の各々とを比較し、複数の候補背景画像から、当該撮像画像の輝度値の平均値に最も近い輝度値の平均値を有する候補背景画像を取得する。すなわち、選択部205は、複数の候補背景画像から現在処理対象とする撮像画像の状況に近しい候補背景画像を取得する。なお、予め候補背景画像の各々の輝度値の平均値を算出しておき、背景管理部203は、候補背景画像と、当該候補背景画像の輝度値の平均値とを関連付けて保持しておくようにしてもよい。そして、選択部205は、処理対象の撮像画像の平均値と、背景管理部203が保持する輝度値であって候補背景画像の輝度値の平均値の各々とを比較し、撮像画像の輝度値の平均値に最も近い候補背景画像を取得するようにしてもよい。 Next, in S404, the selection unit 205 acquires a candidate background image to be used for generating a background image from among the plurality of candidate background images held by the background management unit 202, based on the brightness of the captured image currently being processed. . Specifically, the selection unit 205 executes, for each of the plurality of candidate background images, a process of calculating the average value of the brightness values of each pixel of the candidate background images. Then, the selection unit 205 compares the average brightness value of the captured image to be processed with each of the average brightness values of the candidate background images, and selects the brightness value of the captured image from among the plurality of candidate background images. Obtain a candidate background image with an average value of brightness values closest to the average value. That is, the selection unit 205 acquires a candidate background image that is close to the situation of the captured image currently being processed from a plurality of candidate background images. Note that the average value of the brightness values of each of the candidate background images is calculated in advance, and the background management unit 203 stores the candidate background images in association with the average value of the brightness values of the candidate background images. You can also do this. Then, the selection unit 205 compares the average value of the captured image to be processed with each of the average values of the luminance values of the candidate background images, which are the luminance values held by the background management unit 203, and calculates the luminance value of the captured image. Alternatively, the candidate background image closest to the average value of .

次に、S405にて、背景生成部206は、現在の背景画像の輝度値の平均値と、現在の処理対象とする撮像画像の輝度値の平均値との差分値を算出する。具体的には、背景生成部206は、現在の背景画像の各画像の輝度値の平均値と、現在処理対象とする撮像画像の各画素の輝度値の平均値との差分値を算出する。図4に示すフローの処理が開始して初めてS405の処理が実行される場合、背景生成部206は、初期背景画像の輝度値の平均値と、処理対象の撮像画像の輝度値の平均値との差分値を算出する。 Next, in S405, the background generation unit 206 calculates a difference value between the average value of the brightness values of the current background image and the average value of the brightness values of the captured image currently being processed. Specifically, the background generation unit 206 calculates the difference value between the average value of the brightness values of each image of the current background image and the average value of the brightness values of each pixel of the captured image currently being processed. When the process of S405 is executed for the first time after the process of the flow shown in FIG. Calculate the difference value.

S406にて、背景生成部206は、S405にて算出された輝度値の差分値が第1閾値以上であるかを判定する。S405にて算出された輝度値の差分値が第1閾値以上である場合(S406にてYes)、S407に遷移し、S405にて算出された輝度値の差分値が第1閾値未満である場合(S406にてNo)、S410に遷移する。S407にて、背景生成部206は、S405にて算出された輝度値の差分値が第2閾値以上であるかを判定する。S405にて算出された輝度値の差分値が第2閾値以上である場合(S407にてYes)、S408に遷移し、S407にて算出された輝度値の差分値が第2閾値未満である場合(S407にてNo)、S409に遷移する。 In S406, the background generation unit 206 determines whether the difference value of the brightness values calculated in S405 is greater than or equal to the first threshold. If the difference value of the brightness values calculated in S405 is greater than or equal to the first threshold (Yes in S406), the process proceeds to S407, and if the difference value of the brightness values calculated in S405 is less than the first threshold value (No in S406), the process moves to S410. In S407, the background generation unit 206 determines whether the difference value between the brightness values calculated in S405 is equal to or greater than the second threshold. If the difference value of the brightness values calculated in S405 is greater than or equal to the second threshold (Yes in S407), the process moves to S408, and if the difference value of the brightness values calculated in S407 is less than the second threshold value. (No in S407), the process moves to S409.

S408にて、背景生成部206は、選択部205により取得された候補背景画像を背景画像とする第2生成処理を実行する。すなわち、第2生成処理は、選択部205により取得された候補背景画像を最新の背景画像とする処理である。背景管理部203は、第2生成処理により生成された背景画像を最新の背景画像として保持する。 In S408, the background generation unit 206 executes a second generation process in which the candidate background image acquired by the selection unit 205 is used as a background image. That is, the second generation process is a process in which the candidate background image acquired by the selection unit 205 is set as the latest background image. The background management unit 203 holds the background image generated by the second generation process as the latest background image.

S409にて、背景生成部206は、選択部205により取得された候補背景画像を用いて背景画像における部分領域の画像を生成し、背景画像における当該部分領域以外の領域の画像を撮像画像に基づき生成する第1生成処理を実行する。背景管理部203は、第1生成処理により生成された背景画像を最新の背景画像として保持する。 In S409, the background generation unit 206 generates an image of a partial area in the background image using the candidate background image acquired by the selection unit 205, and generates an image of an area other than the partial area in the background image based on the captured image. Execute first generation processing to generate. The background management unit 203 holds the background image generated by the first generation process as the latest background image.

S410にて、出力画像を生成する処理が実行される。ここで、図5に示すフローを参照して、出力画像を生成する処理について更に詳細に説明する。図5に示すS501にて、抽出部207は、現在の背景画像を用いて現在処理対象とする撮像画像から前景物体の領域を抽出する。次に、S502にて、合成部208は、抽出部207により抽出された前景物体の領域を抽象化(Anonymization)したマスク画像を生成する。なお、本実施形態に係る合成部208は、撮像画像から抽出した前景物体の領域を、任意の色(RGB値)で塗りつぶすことで抽象化(Anonymization)したマスク画像を生成する。なお、前景物体の領域を抽象化(Anonymization)したマスク画像としては、例えば、当該領域に対しモザイク処理を施したモザイク画像、当該領域にぼかし処理を施したぼかし画像などであってもよい。次に、S503にて、合成部208は、S502にて生成したマスク画像と、所定の画像とを合成した出力画像を生成する。なお、合成部208は、例えば、S502にて生成したマスク画像と、S404にて選択部205により取得された候補背景画像とを合成することで出力画像を生成する。なお、合成部208は、例えば、S502にて生成したマスク画像と、最新の背景画像(第1生成処理により生成された背景画像、第2生成処理により生成された背景画像、または初期背景画像)とを合成することで出力画像を生成してもよい。 In S410, processing to generate an output image is executed. Here, the process of generating an output image will be described in more detail with reference to the flow shown in FIG. In S501 shown in FIG. 5, the extraction unit 207 uses the current background image to extract a foreground object region from the captured image currently being processed. Next, in S502, the synthesis unit 208 generates a mask image in which the foreground object region extracted by the extraction unit 207 is abstracted (anonymized). Note that the synthesis unit 208 according to the present embodiment generates a mask image that is abstracted (anonymized) by filling the region of the foreground object extracted from the captured image with an arbitrary color (RGB values). Note that the mask image in which the region of the foreground object is abstracted (anonymized) may be, for example, a mosaic image in which the region is subjected to mosaic processing, a blurred image in which the region is subjected to blurring processing, or the like. Next, in S503, the combining unit 208 generates an output image by combining the mask image generated in S502 and a predetermined image. Note that the composition unit 208 generates an output image by, for example, composition of the mask image generated in S502 and the candidate background image acquired by the selection unit 205 in S404. Note that the combining unit 208 combines, for example, the mask image generated in S502 and the latest background image (the background image generated by the first generation process, the background image generated by the second generation process, or the initial background image). The output image may be generated by combining the two.

S503の処理の後、S411へ遷移し、S411にて、出力制御部209は、S410にて生成された出力画像を外部装置(ディスプレイ130、記録装置120等)へ出力する。なお、出力制御部209は、S410にて生成された出力画像をディスプレイ130に表示させてもよい。次に、S412にて、終了の指示がない場合(S412にてNo)、S402に遷移し、S402にて、通信部200は、次の処理対象とする撮像画像を取得する。一方、S412にて、終了の指示がある場合(S412にてYes)、図4に示す処理を終了する。 After the processing in S503, the process moves to S411, and in S411, the output control unit 209 outputs the output image generated in S410 to an external device (display 130, recording device 120, etc.). Note that the output control unit 209 may display the output image generated in S410 on the display 130. Next, in S412, if there is no instruction to end (No in S412), the process moves to S402, and in S402, the communication unit 200 acquires a captured image to be processed next. On the other hand, if there is an instruction to end at S412 (Yes at S412), the process shown in FIG. 4 ends.

なお、本実施形態において、S406にて、背景生成部206は、S405にて算出された輝度値の差分値が第1閾値以上であるかを判定し、第1閾値未満である場合、S410へ遷移するようにしたが、これに限らない。背景生成部206は、例えば、処理対象の撮像画像の輝度値の平均値と、現在の背景画像の輝度値の平均値との差分値が所定の閾値以上である場合、第1生成処理を実行し、当該差分値が所定の閾値未満である場合、次のような処理を実行してもよい。すなわち、背景生成部206は、算出した輝度値の平均値の差分値が所定の閾値未満である場合、取得した候補背景画像を用いず、撮像画像を用いて背景画像を生成するようにしてもよい。この場合、背景生成部206は、例えば、直近Nフレーム(Nは整数)の複数の撮像画像を用いて、当該複数の撮像画像各々の画素値の平均をとることで、背景画像を生成してもよい。なお、このとき、背景生成部206は、撮像された撮像画像を用いて背景画像を生成する処理であれば公知の技術を用いてもよい。 Note that in this embodiment, in S406, the background generation unit 206 determines whether the difference value of the brightness values calculated in S405 is equal to or greater than the first threshold, and if it is less than the first threshold, the process proceeds to S410. However, the present invention is not limited to this. For example, the background generation unit 206 executes the first generation process when the difference between the average luminance value of the captured image to be processed and the average luminance value of the current background image is equal to or greater than a predetermined threshold. However, if the difference value is less than a predetermined threshold, the following process may be performed. That is, if the difference value between the calculated average values of brightness values is less than a predetermined threshold, the background generation unit 206 may generate a background image using the captured image without using the acquired candidate background image. good. In this case, the background generation unit 206 generates the background image by, for example, using a plurality of captured images of the most recent N frames (N is an integer) and taking the average of the pixel values of each of the plurality of captured images. Good too. Note that at this time, the background generation unit 206 may use a known technique as long as it generates a background image using the captured image.

以上説明したように、本実施形態に係る画像処理装置は、第1生成処理として次のような処理を実行する。すなわち、画像処理装置は、第1生成処理において、背景画像における人物が長時間静止すると考えられる部分領域の画像は候補背景画像を用いて生成(更新)し、当該背景画像における部分領域以外の領域の画像は撮像画像を用いて生成(更新)する。また、本実施形態に係る画像処理装置は、第2生成処理において、選択部205により取得された候補背景画像を最新の背景画像とする。このようにすることで、人物が長時間静止してしまう場合であっても、当該人物に対応する前景領域を適切に抽出することができ、結果的に現在の撮像画像の状況を適切に反映しつつ当該人物のプライバシーを保護した出力画像を生成することができる。 As described above, the image processing apparatus according to the present embodiment executes the following process as the first generation process. That is, in the first generation process, the image processing device generates (updates) an image of a partial region in the background image in which a person is considered to remain stationary for a long time using the candidate background image, and The image is generated (updated) using the captured image. Furthermore, in the second generation process, the image processing apparatus according to the present embodiment sets the candidate background image acquired by the selection unit 205 as the latest background image. By doing this, even if a person remains still for a long time, the foreground area corresponding to the person can be appropriately extracted, and as a result, the current situation of the captured image is appropriately reflected. It is possible to generate an output image that protects the privacy of the person concerned.

(実施形態2)
実施形態1において、設定部204は、背景画像において人物が長時間静止すると考えられる領域としてユーザが指定した領域を部分領域として設定した。本実施形態に係る設定部204は、特定の物体を検出する検出結果に基づき、背景画像における部分領域を設定する。なお、実施形態1と異なる部分を主に説明し、実施形態1と同一または同等の構成要素、および処理には同一の符号を付すとともに、重複する説明は省略する。
(Embodiment 2)
In the first embodiment, the setting unit 204 sets an area specified by the user as an area where a person is expected to remain stationary for a long time in the background image as a partial area. The setting unit 204 according to the present embodiment sets a partial region in the background image based on the detection result of detecting a specific object. Note that parts that are different from Embodiment 1 will be mainly described, and the same or equivalent components and processes as in Embodiment 1 will be given the same reference numerals, and redundant explanation will be omitted.

以下、図6を参照して、本実施形態に係る画像処理装置100の画像処理について説明する。なお、図6に示す各機能は、本実施形態の場合、図7を参照して後述するROM720とCPU700とを用いて、次のようにして実現されるものとする。図6に示す各機能は、画像処理装置100のROM720に格納されたコンピュータプログラムを画像処理装置100のCPU700が実行することにより実現される。 Image processing by the image processing apparatus 100 according to this embodiment will be described below with reference to FIG. In this embodiment, each function shown in FIG. 6 is realized as follows using a ROM 720 and a CPU 700, which will be described later with reference to FIG. Each function shown in FIG. 6 is realized by the CPU 700 of the image processing apparatus 100 executing a computer program stored in the ROM 720 of the image processing apparatus 100.

図6に示すように、本実施形態に係る画像処理装置100は、図2に示す機能に加えて、更に検出部600を有する。本実施形態に係る検出部600は、背景画像または撮像画像から特定物体を検出する。特定の物体としては、例えば、椅子やベッドなど人物が長時間静止する(位置する)と考えられる物体である。本実施形態に係る検出部600は、照合パターン(辞書)を使用して、パターンマッチング等の処理を行うことで、背景画像または撮像画像に含まれる特定の物体の検出を行う。なお、パターンマッチングに限らず特定の物体を検出する方法として他の公知技術を用いてもよい。検出部600は、例えば、撮像画像から特定物体としてベッドを検出し、当該ベッドの位置およびサイズの情報を取得する。具体的には、検出部600は、特定物体としてベッドを検出した場合に、当該ベッドを囲う外接矩形を設定し、当該外接矩形の左上の頂点の座標と、当該外接矩形の横のサイズおよび縦のサイズを取得する。なお、撮像画像および背景画像の画像サイズは同じものであるとし、撮像画像上および背景画像上の位置を示す座標は、撮像画像および背景画像それぞれの左上の端点を原点としてXY座標であるものとする。 As shown in FIG. 6, the image processing apparatus 100 according to this embodiment further includes a detection unit 600 in addition to the functions shown in FIG. The detection unit 600 according to this embodiment detects a specific object from a background image or a captured image. The specific object is, for example, an object such as a chair or a bed on which a person is expected to remain stationary (position) for a long period of time. The detection unit 600 according to the present embodiment detects a specific object included in a background image or a captured image by performing processing such as pattern matching using a matching pattern (dictionary). Note that other known techniques may be used as a method for detecting a specific object, not just pattern matching. For example, the detection unit 600 detects a bed as a specific object from the captured image, and acquires information on the position and size of the bed. Specifically, when detecting a bed as a specific object, the detection unit 600 sets a circumscribed rectangle surrounding the bed, and calculates the coordinates of the upper left vertex of the circumscribed rectangle, the horizontal size and the vertical size of the circumscribed rectangle. Get the size of. It is assumed that the image size of the captured image and the background image are the same, and the coordinates indicating the positions on the captured image and the background image are XY coordinates with the upper left end point of each of the captured image and background image as the origin. do.

そして、本実施形態に係る設定部204は、検出部600により検出された特定物体の位置およびサイズに基づき、背景画像に対し部分領域を設定する。設定部204は、例えば、検出部600により特定物体としてベッドが検出された場合、当該ベッドの外接矩形を部分領域として設定する。なお、設定部204は、検出部600により検出された特定物体の外接矩形を所定の倍率だけ拡張した領域を部分領域として設定してもよい。 Then, the setting unit 204 according to the present embodiment sets a partial area for the background image based on the position and size of the specific object detected by the detection unit 600. For example, when the detection unit 600 detects a bed as a specific object, the setting unit 204 sets a circumscribed rectangle of the bed as a partial area. Note that the setting unit 204 may set an area obtained by expanding the circumscribed rectangle of the specific object detected by the detection unit 600 by a predetermined magnification as the partial area.

以上説明したように、本実施形態に係る画像処理装置100では、検出部600により検出された特定物体の位置に基づき、背景画像に対し部分領域の設定を行うため、部分領域の設定を行うユーザの負荷を低減することができる。 As described above, in the image processing apparatus 100 according to the present embodiment, a partial area is set for the background image based on the position of the specific object detected by the detection unit 600, so that the user who sets the partial area load can be reduced.

(その他の実施形態)
次に図7を参照して、各実施形態の各機能を実現するための画像処理装置100のハードウェア構成を説明する。なお、以降の説明において画像処理装置100のハードウェア構成について説明するが、記録装置120および撮像装置110も同様のハードウェア構成によって実現されるものとする。
(Other embodiments)
Next, with reference to FIG. 7, the hardware configuration of the image processing apparatus 100 for realizing each function of each embodiment will be described. Note that although the hardware configuration of the image processing device 100 will be described in the following description, it is assumed that the recording device 120 and the imaging device 110 are also realized by a similar hardware configuration.

本実施形態における画像処理装置100は、CPU700と、RAM710と、ROM720、HDD730と、I/F740と、を有している。 The image processing device 100 in this embodiment includes a CPU 700, a RAM 710, a ROM 720, an HDD 730, and an I/F 740.

CPU700は画像処理装置100を統括制御する中央処理装置である。RAM710は、CPU700が実行するコンピュータプログラムを一時的に記憶する。また、RAM710は、CPU700が処理を実行する際に用いるワークエリアを提供する。また、RAM710は、例えば、フレームメモリとして機能したり、バッファメモリとして機能したりする。 The CPU 700 is a central processing unit that centrally controls the image processing apparatus 100. RAM 710 temporarily stores computer programs executed by CPU 700. Further, the RAM 710 provides a work area used by the CPU 700 when executing processing. Further, the RAM 710 functions, for example, as a frame memory or as a buffer memory.

ROM720は、CPU700が画像処理装置100を制御するためのプログラムなどを記憶する。HDD730は、画像データ等を記録する記憶装置である。 The ROM 720 stores programs for the CPU 700 to control the image processing apparatus 100 and the like. The HDD 730 is a storage device that records image data and the like.

I/F740は、ネットワーク140を介して、TCP/IPやHTTPなどに従って、外部装置との通信を行う。 The I/F 740 communicates with external devices via the network 140 according to TCP/IP, HTTP, or the like.

なお、上述した各実施形態の説明では、CPU700が処理を実行する例について説明するが、CPU700の処理のうち少なくとも一部を専用のハードウェアによって行うようにしてもよい。例えば、ディスプレイ130にGUI(GRAPHICAL USER INTERFACE)や画像データを表示する処理は、GPU(GRAPHICS PROCESSING UNIT)で実行してもよい。また、ROM720からプログラムコードを読み出してRAM710に展開する処理は、転送装置として機能するDMA(DIRECT MEMORY ACCESS)によって実行してもよい。 In addition, in the description of each embodiment mentioned above, an example will be described in which the CPU 700 executes the processing, but at least a part of the processing of the CPU 700 may be performed by dedicated hardware. For example, the process of displaying a GUI (GRAPHICAL USER INTERFACE) or image data on the display 130 may be executed by a GPU (GRAPHICS PROCESSING UNIT). Further, the process of reading the program code from the ROM 720 and expanding it to the RAM 710 may be executed by a DMA (DIRECT MEMORY ACCESS) functioning as a transfer device.

なお、本発明は、上述の実施形態の1以上の機能を実現するプログラムを1つ以上のプロセッサが読出して実行する処理でも実現可能である。プログラムは、ネットワーク又は記憶媒体を介して、プロセッサを有するシステム又は装置に供給するようにしてもよい。また、本発明は、上述の実施形態の1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。また、画像処理装置100の各部は、図7に示すハードウェアにより実現してもよいし、ソフトウェアにより実現することもできる。 Note that the present invention can also be implemented by a process in which one or more processors read and execute a program that implements one or more of the functions of the embodiments described above. The program may be supplied to a system or device having a processor via a network or a storage medium. The present invention can also be implemented by a circuit (eg, an ASIC) that implements one or more of the functions of the embodiments described above. Further, each part of the image processing apparatus 100 may be realized by the hardware shown in FIG. 7, or may be realized by software.

なお、上述した各実施形態に係る画像処理装置100の1以上の機能を他の装置が有していてもよい。例えば、各実施形態に係る画像処理装置100の1以上の機能を撮像装置110が有していてもよい。なお、上述した各実施形態を組み合わせて、例えば、上述した実施形態を任意に組み合わせて実施してもよい。 Note that another device may have one or more functions of the image processing device 100 according to each embodiment described above. For example, the imaging device 110 may have one or more functions of the image processing device 100 according to each embodiment. Note that the above-described embodiments may be combined, for example, any combination of the above-described embodiments may be implemented.

以上、本発明を実施形態と共に説明したが、上記実施形態は本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲は限定的に解釈されるものではない。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱しない範囲において、様々な形で実施することができる。例えば、各実施形態を組み合わせたものも本明細書の開示内容に含まれる。 Although the present invention has been described above along with the embodiments, the above embodiments are merely examples of implementation of the present invention, and the technical scope of the present invention is interpreted to be limited by these embodiments. It's not a thing. That is, the present invention can be implemented in various forms without departing from its technical idea or main features. For example, a combination of each embodiment is also included in the disclosure content of this specification.

100 画像処理装置
110 撮像装置
200 通信部
201 記憶部
202 操作受付部
203 背景管理部
204 設定部
205 選択部
206 背景生成部
207 抽出部
208 合成部
209 出力制御部
600 検出部
100 Image processing device 110 Imaging device 200 Communication unit 201 Storage unit 202 Operation reception unit 203 Background management unit 204 Setting unit 205 Selection unit 206 Background generation unit 207 Extraction unit 208 Combination unit 209 Output control unit 600 Detection unit

Claims (12)

撮像手段により撮像された撮像画像から前景物体の領域を抽出するための背景画像の少なくとも一部として用いられる候補背景画像であって、前記撮像画像の輝度値の平均値に最も近い輝度値の平均値を有する候補背景画像を取得する取得手段と、
前記取得手段により取得された候補背景画像を用いて前記背景画像における部分領域の画像を生成し、当該背景画像における当該部分領域以外の領域の画像を前記撮像画像に基づき生成する第1生成処理を実行する生成手段と、
前記第1生成処理により生成された背景画像と、前記撮像画像とから、前景物体の領域を抽出する抽出手段と、
前記抽出手段により抽出された前景物体の領域を抽象化したマスク画像と、所定の画像とを合成した出力画像を生成する合成手段とを有し、
前記生成手段は、前記撮像画像の輝度値の平均値と、前記背景画像の輝度値の平均値との差分値が第1の閾値以上である場合、前記第1生成処理を実行し、前記差分値が前記第1の閾値未満である場合、前記取得手段により取得された候補背景画像を用いず、前記撮像手段により撮像された撮像画像を用いて前記背景画像を生成することを特徴とする画像処理装置。
A candidate background image used as at least a part of a background image for extracting a foreground object region from a captured image captured by an imaging means, the average of luminance values closest to the average of the luminance values of the captured image . an acquisition means for acquiring a candidate background image having a value ;
A first generation process of generating an image of a partial area in the background image using the candidate background image acquired by the acquisition means, and generating an image of an area other than the partial area in the background image based on the captured image. a generating means to execute;
Extracting means for extracting a region of a foreground object from the background image generated by the first generation process and the captured image;
composing means for generating an output image by composing a mask image that abstracts the region of the foreground object extracted by the extraction means and a predetermined image ;
The generation means executes the first generation process when the difference between the average brightness value of the captured image and the average brightness value of the background image is greater than or equal to a first threshold, and If the value is less than the first threshold, the background image is generated using a captured image captured by the imaging device without using the candidate background image obtained by the obtaining device. Processing equipment.
前記背景画像の少なくとも一部として用いられる複数の候補背景画像を保持する保持手段を更に有し、
前記取得手段は、前記撮像手段により撮像された撮像画像の輝度値に基づき、前記保持手段が保持する複数の候補背景画像から前記背景画像の生成に用いる候補背景画像を取得することを特徴とする請求項1に記載の画像処理装置。
Further comprising a holding means for holding a plurality of candidate background images used as at least a part of the background image,
The acquisition means is characterized in that the acquisition means acquires a candidate background image to be used for generating the background image from a plurality of candidate background images held by the holding means, based on the brightness value of the captured image taken by the imaging means. The image processing device according to claim 1.
前記取得手段は、前記撮像画像の輝度値と、前記複数の候補背景画像の各々の輝度値とに基づき、前記背景画像の生成に用いる候補背景画像を取得することを特徴とする請求項2に記載の画像処理装置。 3. The acquisition means acquires a candidate background image to be used for generating the background image based on the brightness value of the captured image and the brightness value of each of the plurality of candidate background images. The image processing device described. 前記生成手段は、前記撮像画像の輝度値の平均値と、前記背景画像の輝度値の平均値との差分値に基づき、当該差分値が前記第1閾値以上第2閾値未満である場合、前記第1生成処理を実行し、または当該差分値が前記第2閾値以上である場合、前記部分領域および前記部分領域以外の領域において、前記取得手段により取得された候補背景画像を前記背景画像とする第2生成処理を実行することを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。 The generating means is configured to generate the above-mentioned image based on the difference value between the average brightness value of the captured image and the average brightness value of the background image, and when the difference value is equal to or more than the first threshold value and less than the second threshold value, When the first generation process is executed or the difference value is equal to or greater than the second threshold, the candidate background image acquired by the acquisition means is set as the background image in the partial area and areas other than the partial area. The image processing apparatus according to any one of claims 1 to 3 , wherein the image processing apparatus executes the second generation process. 前記背景画像に対し前記部分領域を設定する設定手段を更に有することを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 4, further comprising a setting means for setting the partial area for the background image. 前記設定手段は、ユーザにより領域を指定する操作に基づき、前記背景画像に対し前記部分領域を設定することを特徴とする請求項に記載の画像処理装置。 6. The image processing apparatus according to claim 5 , wherein the setting unit sets the partial area for the background image based on a user's operation of specifying an area. 前記撮像画像から特定の物体を検出する検出手段を更に有し、
前記設定手段は、前記検出手段により検出された特定の物体の位置に基づき、前記背景画像に対し前記部分領域を設定することを特徴とする請求項に記載の画像処理装置。
further comprising detection means for detecting a specific object from the captured image,
6. The image processing apparatus according to claim 5 , wherein the setting means sets the partial area for the background image based on the position of a specific object detected by the detection means.
前記合成手段は、前記マスク画像と、前記取得手段により取得された候補背景画像とを合成した出力画像を生成することを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。 The image processing device according to any one of claims 1 to 7 , wherein the combining unit generates an output image by combining the mask image and the candidate background image acquired by the acquiring unit. . 前記合成手段は、前記マスク画像と、前記生成手段により生成された背景画像とを合成した出力画像を生成することを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 7, wherein the combining unit generates an output image by combining the mask image and the background image generated by the generating unit. 前記合成手段により生成された出力画像を表示手段に表示させる出力制御手段を更に有することを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。 10. The image processing apparatus according to claim 1, further comprising output control means for displaying the output image generated by the combining means on a display means. 撮像手段により撮像された撮像画像から前景物体の領域を抽出するための背景画像の少なくとも一部として用いられる候補背景画像であって、前記撮像画像の輝度値の平均値に最も近い輝度値の平均値を有する候補背景画像を取得する取得する取得工程と、
前記取得工程において取得された候補背景画像を用いて前記背景画像における部分領域の画像を生成し、前記背景画像における当該部分領域以外の領域の画像を前記撮像画像に基づき生成する第1生成処理を実行する生成工程と、
前記第1生成処理により生成された背景画像と、前記撮像画像とから、前景物体の領域を抽出する抽出工程と、
前記抽出工程において抽出された前景物体の領域を抽象化したマスク画像と、所定の画像とを合成した出力画像を生成する合成工程とを有し、
前記生成工程は、前記撮像画像の輝度値の平均値と、前記背景画像の輝度値の平均値との差分値が第1の閾値以上である場合、前記第1生成処理を実行し、前記差分値が前記第1の閾値未満である場合、前記取得工程により取得された候補背景画像を用いず、前記撮像手段により撮像された撮像画像を用いて前記背景画像を生成することを特徴とする画像処理方法。
A candidate background image used as at least a part of a background image for extracting a foreground object region from a captured image captured by an imaging means, the average of luminance values closest to the average luminance value of the captured image . an obtaining step of obtaining a candidate background image having a value ;
A first generation process of generating an image of a partial area in the background image using the candidate background image acquired in the acquisition step, and generating an image of an area other than the partial area in the background image based on the captured image. A generation process to be performed;
an extraction step of extracting a foreground object region from the background image generated by the first generation process and the captured image;
a synthesis step of generating an output image by synthesizing a mask image that abstracts the region of the foreground object extracted in the extraction step and a predetermined image;
In the generation step, if the difference between the average brightness value of the captured image and the average brightness value of the background image is equal to or greater than a first threshold, the first generation process is executed, and the difference If the value is less than the first threshold, the background image is generated using the captured image captured by the imaging means without using the candidate background image obtained in the obtaining step. Processing method.
コンピュータを、請求項1乃至10のいずれか1項に記載された画像処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the image processing apparatus according to claim 1 .
JP2019158057A 2019-08-30 2019-08-30 Image processing device, image processing method and program Active JP7370769B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019158057A JP7370769B2 (en) 2019-08-30 2019-08-30 Image processing device, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019158057A JP7370769B2 (en) 2019-08-30 2019-08-30 Image processing device, image processing method and program

Publications (2)

Publication Number Publication Date
JP2021036647A JP2021036647A (en) 2021-03-04
JP7370769B2 true JP7370769B2 (en) 2023-10-30

Family

ID=74716734

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019158057A Active JP7370769B2 (en) 2019-08-30 2019-08-30 Image processing device, image processing method and program

Country Status (1)

Country Link
JP (1) JP7370769B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000285244A (en) 1999-03-31 2000-10-13 Nri & Ncc Co Ltd Picture processor
JP2001333417A (en) 2000-05-19 2001-11-30 Fujitsu General Ltd Camera supervisory system
JP2008191884A (en) 2007-02-05 2008-08-21 Nippon Telegr & Teleph Corp <Ntt> Image processing method, image processor, image processing program and computer-readable recording medium with the program recorded thereon
JP2016194778A (en) 2015-03-31 2016-11-17 セコム株式会社 Object detection device
JP2018078540A (en) 2016-11-02 2018-05-17 キヤノン株式会社 Image processing apparatus, image processing method and program
JP2018148368A (en) 2017-03-03 2018-09-20 キヤノン株式会社 Image generating apparatus and control method of the same
JP2019016033A (en) 2017-07-04 2019-01-31 キヤノン株式会社 Image processing device, image processing method, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000285244A (en) 1999-03-31 2000-10-13 Nri & Ncc Co Ltd Picture processor
JP2001333417A (en) 2000-05-19 2001-11-30 Fujitsu General Ltd Camera supervisory system
JP2008191884A (en) 2007-02-05 2008-08-21 Nippon Telegr & Teleph Corp <Ntt> Image processing method, image processor, image processing program and computer-readable recording medium with the program recorded thereon
JP2016194778A (en) 2015-03-31 2016-11-17 セコム株式会社 Object detection device
JP2018078540A (en) 2016-11-02 2018-05-17 キヤノン株式会社 Image processing apparatus, image processing method and program
JP2018148368A (en) 2017-03-03 2018-09-20 キヤノン株式会社 Image generating apparatus and control method of the same
JP2019016033A (en) 2017-07-04 2019-01-31 キヤノン株式会社 Image processing device, image processing method, and program

Also Published As

Publication number Publication date
JP2021036647A (en) 2021-03-04

Similar Documents

Publication Publication Date Title
US9247132B2 (en) Moving picture capturing device, information processing system, information processing device, and image data processing method
CN108024027B (en) Image processing apparatus, image processing method, and storage medium
KR101623826B1 (en) Surveillance camera with heat map
JP2008511258A (en) Real-time image stabilization
JP2012216006A (en) Information processing system, information processing device, imaging device, and information processing method
JP7249766B2 (en) Information processing device, system, control method for information processing device, and program
JP7187154B2 (en) Image processing device, image processing method and program
JP2018148368A (en) Image generating apparatus and control method of the same
US11170511B2 (en) Image processing device, imaging device, and image processing method for replacing selected image area based on distance
KR20150145725A (en) Method and apparatus for dynamic range expansion of ldr video sequence
JP2016019248A (en) Motion picture display control device, motion picture display control method and program
JP7218786B2 (en) Image processing device, image processing method and program
JP7370769B2 (en) Image processing device, image processing method and program
JP2008306330A (en) Information processor, motion vector generating program, and interpolated image generating program
JP2016144049A (en) Image processing apparatus, image processing method, and program
US20220036093A1 (en) Information processing apparatus, information processing method, and storage medium
JP2010193154A (en) Image processor and method
JP7455545B2 (en) Information processing device, information processing method, and program
JP6008711B2 (en) Image processing apparatus, image processing method, and program
JP2021149747A (en) Information processing unit, information processing method and program
JP2021056899A (en) Image processor, image processing method, and program
JP2021005798A (en) Imaging apparatus, control method of imaging apparatus, and program
JP2016129281A (en) Image processor
JP2009273072A (en) High-definition image processing device, high-definition image processing method, and program
JP2016042661A (en) Information processing unit, system, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231018

R151 Written notification of patent or utility model registration

Ref document number: 7370769

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151