JP7370769B2 - Image processing device, image processing method and program - Google Patents
Image processing device, image processing method and program Download PDFInfo
- Publication number
- JP7370769B2 JP7370769B2 JP2019158057A JP2019158057A JP7370769B2 JP 7370769 B2 JP7370769 B2 JP 7370769B2 JP 2019158057 A JP2019158057 A JP 2019158057A JP 2019158057 A JP2019158057 A JP 2019158057A JP 7370769 B2 JP7370769 B2 JP 7370769B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- background image
- captured
- background
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 87
- 238000003672 processing method Methods 0.000 title claims 2
- 238000000034 method Methods 0.000 claims description 90
- 238000003384 imaging method Methods 0.000 claims description 38
- 238000000605 extraction Methods 0.000 claims description 20
- 238000001514 detection method Methods 0.000 claims description 13
- 230000015572 biosynthetic process Effects 0.000 claims description 9
- 238000003786 synthesis reaction Methods 0.000 claims description 9
- 230000002194 synthesizing effect Effects 0.000 claims description 6
- 230000006870 function Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 230000001629 suppression Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000011410 subtraction method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Description
本発明は、画像処理技術に関する。 The present invention relates to image processing technology.
監視目的とした撮像装置の設置が広まる一方で、撮像装置により撮像された画像に映る人物のプライバシーを保護する重要性が高まっている。特許文献1では、入力画像と背景画像とを比較することで動体領域を抽出し、抽出した動体領域を所定のパターンに変換することで前景マスク画像を生成し、当該前景マスク画像を背景画像に重畳することで出力画像を生成する旨の技術が記載されている。
While the installation of imaging devices for surveillance purposes has become widespread, the importance of protecting the privacy of people appearing in images captured by the imaging devices is increasing. In
一般に、撮像画像に基づいて背景画像を生成する場合、椅子に座るなどして撮像画像上の人物が長時間静止すると、時間の経過と共に当該人物の画像が背景画像に含まれてしまうことがある。当該人物が含まれる背景画像と当該人物が含まれる撮像画像とを比較しても当該人物の領域が動体領域として抽出されず、当該人物の領域に対応する前景マスク画像が生成されなくなる。そして、当該人物が含まれる背景画像に重畳する前景マスク画像が生成されていないため、結果的に生成される出力画像において当該人物のプライバシーを保護できなくなってしまう。この課題を解決するために特許文献1では、次のような内容が開示されている。すなわち、最初に生成された背景画像である初期背景画像において人物が静止すると考えられる領域(抑制領域)を指定し、初期背景画像の抑制領域の画像を背景マスク画像とし、新たに生成された背景画像に当該背景マスク画像を重畳して出力画像を生成する。
Generally, when generating a background image based on a captured image, if the person in the captured image remains still for a long time, such as by sitting on a chair, the image of the person may be included in the background image over time. . Even if a background image including the person is compared with a captured image including the person, the area of the person is not extracted as a moving object area, and a foreground mask image corresponding to the area of the person is not generated. Since a foreground mask image to be superimposed on a background image that includes the person is not generated, the privacy of the person cannot be protected in the output image that is generated as a result. In order to solve this problem,
しかしながら特許文献1では、初期背景画像における抑制領域の画像に人物が含まれず、入力画像上の当該抑制領域に対応する領域の画像に人物が含まれる場合、初期背景画像上の人物が含まれない抑制領域の画像が重畳された出力画像が生成される。すなわち、特許文献1では、プライバシーの保護はできるものの、撮像画像における状況を反映した出力画像が生成されない。
However, in
そこで、本発明は、プライバシーの保護を行いつつ、撮像画像における状況を反映した出力画像を生成する技術の提供を目的としている。 Therefore, an object of the present invention is to provide a technique for generating an output image that reflects the situation in a captured image while protecting privacy.
上記課題を解決するために、本発明に係る画像処理装置は、例えば、以下の構成を備え
る。すなわち、撮像手段により撮像された撮像画像から前景物体の領域を抽出するための背景画像の少なくとも一部として用いられる候補背景画像であって、前記撮像画像の輝度値の平均値に最も近い輝度値の平均値を有する候補背景画像を取得する取得手段と、前記取得手段により取得された候補背景画像を用いて前記背景画像における部分領域の画像を生成し、当該背景画像における当該部分領域以外の領域の画像を前記撮像画像に基づき生成する第1生成処理を実行する生成手段と、前記第1生成処理により生成された背景画像と、前記撮像画像とから、前景物体の領域を抽出する抽出手段と、前記抽出手段により抽出された前景物体の領域を抽象化したマスク画像と、所定の画像とを合成した出力画像を生成する合成手段とを有し、前記生成手段は、前記撮像画像の輝度値の平均値と、前記背景画像の輝度値の平均値との差分値が第1の閾値以上である場合、前記第1生成処理を実行し、前記差分値が前記第1の閾値未満である場合、前記取得手段により取得された候補背景画像を用いず、前記撮像手段により撮像された撮像画像を用いて前記背景画像を生成する。
In order to solve the above problems, an image processing device according to the present invention includes, for example, the following configuration. That is, a candidate background image used as at least a part of a background image for extracting a foreground object region from a captured image captured by an imaging means, the luminance value of which is closest to the average value of the luminance values of the captured image . an acquisition means for acquiring a candidate background image having an average value of , and generating an image of a partial region in the background image using the candidate background image acquired by the acquisition means, a generation means for executing a first generation process to generate an image based on the captured image; and an extraction means for extracting a region of the foreground object from the background image generated by the first generation process and the captured image. , a synthesis unit for generating an output image by synthesizing a mask image that abstracts the region of the foreground object extracted by the extraction unit and a predetermined image, and the generation unit is configured to generate a luminance value of the captured image If the difference value between the average value of the background image and the average value of the brightness values of the background image is greater than or equal to a first threshold value, the first generation process is executed, and if the difference value is less than the first threshold value. , the background image is generated using a captured image captured by the imaging unit without using the candidate background image acquired by the acquisition unit.
本発明によれば、プライバシーの保護を行いつつ、撮像画像における状況を反映した出力画像を生成することができる。 According to the present invention, it is possible to generate an output image that reflects the situation in a captured image while protecting privacy.
以下、添付図面を参照しながら、本発明に係る実施形態について説明する。なお、以下の実施形態において示す構成は一例に過ぎず、図示された構成に限定されるものではない。 Embodiments of the present invention will be described below with reference to the accompanying drawings. Note that the configuration shown in the following embodiments is only an example, and the configuration is not limited to the illustrated configuration.
(実施形態1)
図1は、本実施形態におけるシステム構成を示す図である。本実施形態におけるシステムは、画像処理装置100、撮像装置110、記録装置120、およびディスプレイ130を有している。
(Embodiment 1)
FIG. 1 is a diagram showing the system configuration in this embodiment. The system in this embodiment includes an
画像処理装置100、撮像装置110、および記録装置120は、ネットワーク140を介して相互に接続されている。ネットワーク140は、例えばETHERNET(登録商標)等の通信規格に準拠する複数のルータ、スイッチ、ケーブル等から実現される。
The
なお、ネットワーク140は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless Lan)、WAN(Wide Area Network)等により実現されてもよい。
Note that the
画像処理装置100は、例えば、後述する画像処理の機能を実現するためのプログラムがインストールされたパーソナルコンピュータ等によって実現される。なお、本実施形態では、画像処理装置100と撮像装置110はネットワーク140を介して接続されるが、画像処理装置100および撮像装置110は単一の筐体に設けられていてもよい。
The
撮像装置110は、画像を撮像する装置である。撮像装置110は、撮像した撮像画像の画像データと、撮像画像を撮像した撮像時刻の情報と、撮像装置110を識別する情報である識別情報とを関連付けて、ネットワーク140を介し、画像処理装置100や記録装置120等の外部装置へ送信する。なお、本実施形態に係るシステムにおいて、撮像装置110は1つとするが、複数であってもよい。
The
記録装置120は、撮像装置110が撮像した撮像画像の画像データと、撮像画像を撮像した撮像時刻の情報と、撮像装置110を識別する識別情報とを関連付けて記録する。そして、画像処理装置100からの要求に従って、記録装置120は、記録したデータ(撮像画像、識別情報など)を画像処理装置100へ送信する。
The
ディスプレイ130は、LCD(Liquid Crystal Display)等により構成されており、画像処理装置100の画像処理の結果や、撮像装置110が撮像した撮像画像などを表示する。ディスプレイ130は、HDMI(登録商標)(High Definition Multimedia Interface)等の通信規格に準拠したディスプレイケーブルを介して画像処理装置100と接続されている。
The
また、ディスプレイ130は、表示手段として機能し、撮像装置110が撮像した撮像画像や、後述する画像処理による結果等を表示する。なお、ディスプレイ130、画像処理装置100、および記録装置120の少なくともいずれか2つ又は全ては、単一の筐体に設けられてもよい。
Further, the
なお、画像処理装置100の画像処理の結果や、撮像装置110により撮像された撮像画像は、画像処理装置100にディスプレイケーブルを介して接続されたディスプレイ130に限らず、例えば、次のような外部装置が有するディスプレイに表示されてもよい。すなわち、ネットワーク140を介して接続されたスマートフォン、タブレット端末などのモバイルデバイスが有するディスプレイに表示されていてもよい。
Note that the results of image processing by the
次に、図2に示す本実施形態に係る画像処理装置100の機能ブロックを参照して、本実施形態に係る画像処理装置100の画像処理について説明する。なお、図2に示す各機能は、本実施形態の場合、図7を参照して後述するROM(Read Only Memory)720とCPU(Central Processing Unit)700とを用いて、次のようにして実現されるものとする。図2に示す各機能は、画像処理装置100のROM720に格納されたコンピュータプログラムを画像処理装置100のCPU700が実行することにより実現される。
Next, image processing of the
通信部200は、図7を参照して後述するI/F(Interface)740によって実現でき、ネットワーク140を介して、撮像装置110や記録装置120と通信を行う。通信部200は、例えば、撮像装置110が撮像した撮像画像の画像データを受信したり、撮像装置110を制御するための制御コマンドを撮像装置110へ送信したりする。なお、制御コマンドは、例えば、撮像装置110に対して画像を撮像するよう指示を行うコマンド、または、撮像画像を送信するよう要求する送信要求であって送信対象となる撮像画像の撮像時刻の指定を含む送信要求のコマンドなどである。送信要求のコマンドを受け取った撮像装置110は、送信要求に含まれる撮像時刻に対応する撮像画像の画像データを画像処理装置100に送信する。
The
記憶部201は、図7を参照して後述するRAM(Random Access Memory)710やHDD(Hard Disk Drive)730等によって実現でき、例えば、通信部200が取得した撮像画像を記憶(保持)する。
The
操作受付部202は、キーボードやマウス等の入力装置(不図示)を介して、ユーザが行った操作を受け付ける。例えば、操作受付部202は、背景画像上の部分領域であって撮像画像に基づく背景画像の生成(更新)が実行されない部分領域を指定する操作を受け付ける。
The
背景管理部203は、撮像画像から前景物体の領域を抽出するための背景画像の少なくとも一部として用いられる複数の候補背景画像を記憶(保持)する。また、操作受付部202が候補背景画像を指定するユーザ操作を受け付けた場合、背景管理部203は、当該候補背景画像の輝度を変換させることで当該候補背景画像から複数の候補背景画像を生成および保持するようにしてもよい。また、操作受付部202が複数の候補背景画像を指定するユーザ操作を受け付けた場合、背景管理部203は、当該複数の候補背景画像を保持するようにしてもよい。なお、候補背景画像は、隠蔽対象とする特定の物体(人物)が含まれない画像であるものとする。
The
設定部204は、撮像画像に基づく背景画像の生成(更新)が行われない部分領域を背景画像に対して設定する。本実施形態における設定部204は、操作受付部202が受け付けたユーザによる部分領域を指定する操作に基づき、部分領域を背景画像に対して設定する。
The
選択部205は、現在処理対象とする撮像画像の輝度に基づき、背景管理部203が保持する複数の候補背景画像のうち背景画像の生成に用いる候補背景画像を選択(取得)する。本実施形態に係る選択部205は、例えば、次のような処理を実行することで候補背景画像を選択(取得)する。すなわち、選択部205は、候補背景画像の各画素の輝度値の平均値を算出する処理を複数の候補背景画像の各々について実行する。更に、選択部205は、現在処理対象とする撮像画像の各画素の輝度値の平均値を算出する。そして、選択部205は、処理対象の撮像画像の輝度値の平均値と、候補背景画像の輝度値の平均値の各々とを比較し、複数の候補背景画像から、当該撮像画像の輝度値の平均値に最も近い輝度値の平均値を有する候補背景画像を選択(取得)する。すなわち、選択部205は、複数の候補背景画像から現在処理対象とする撮像画像の状況に近しい候補背景画像を選択(取得)する。
The
背景生成部206は、選択部205により取得された候補背景画像を用いて背景画像における部分領域の画像を生成し、背景画像における当該部分領域以外の領域の画像を撮像画像に基づき生成する第1生成処理を実行する。また、背景生成部206は、選択部205により取得された候補背景画像を背景画像とする第2生成処理を実行する。すなわち、第2生成処理は、選択部205により取得された候補背景画像を最新の背景画像とする処理である。なお、背景生成部206の詳細な説明については後述する。
The
抽出部207は、背景生成部206における第1生成処理または第2生成処理により生成された背景画像を用いて現在処理対象とする撮像画像から前景物体の領域を抽出する。具体的には、本実施形態に係る抽出部207は、処理対象とする撮像画像と、背景生成部206における第1生成処理または第2生成処理により生成された背景画像とを比較することで(背景差分法)、処理対象とする撮像画像から前景物体の領域を抽出する。
The
なお、本実施形態に係る抽出部207による前景物体の領域を抽出する方法として、次のような処理が実行される。すなわち、抽出部207は、生成された背景画像に対する差分の領域を示す前景領域を「1」とし、その他の領域を「0」とする2値画像を生成する。このとき、抽出部207は、背景画像の各画素と処理対象とする撮像画像の各画素とで差分値を算出し、算出した差分値が閾値以上の画素については前景領域を表す「1」を設定し、閾値未満の場合は「0」を設定することで、2値画像を生成する。
Note that as a method for extracting a foreground object region by the
合成部208は、抽出部207により抽出された前景物体の領域を抽象化(Anonymization)したマスク画像を生成し、当該マスク画像と、所定の画像とを合成した出力画像を生成する。本実施形態に係る合成部208は、例えば、生成したマスク画像と、選択部205により取得された候補背景画像とを合成する。また、合成部208は、例えば、生成したマスク画像と、第1生成処理または第2生成処理により生成された背景画像とを合成するようにしてもよい。
The
なお、合成部208による前景物体の領域を抽象化(Anonymization)する処理として、合成部208は、例えば、次のような処理を実行する。すなわち、合成部208は、撮像画像から抽出した前景物体の領域を、任意の色(RGB値)で塗りつぶすことで抽象化(Anonymization)したマスク画像を生成する。なお、前景物体の領域を抽象化(Anonymization)したマスク画像としては、例えば、当該領域に対しモザイク処理を施したモザイク画像、当該領域にぼかし処理を施したぼかし画像などであってもよい。
Note that as the process of abstracting (anonymizing) the region of the foreground object by the combining
出力制御部209は、合成部208により生成された出力画像を外部装置(記録装置120、ディスプレイ130等)へ出力する。このとき、出力制御部209は、例えば、合成部208により生成された出力画像をディスプレイ130に表示させる。
The
次に、図3および図4を参照して、本実施形態に係る画像処理装置100のプライバシー保護がなされた出力画像を生成する画像処理についてより詳細に説明する。
Next, image processing for generating an output image with privacy protection performed by the
図3は本実施形態に係る画像処理を説明するための図である。まず、図3(a)~図3(c)を参照して、出力画像を生成する処理について説明する。図3(a)に示す撮像画像300aは、撮像装置110により撮像された撮像画像であり、人物301がベッドに横になっている。また、図3(b)に示す背景画像300bは、隠蔽対象とする人物が含まれていない背景画像を示す。本実施形態に係る抽出部207は、撮像画像300aと背景画像300bとを比較することで、撮像画像300aに含まれる人物301の領域を前景物体の領域として抽出する。そして、合成部208は、抽出した前景物体の領域を抽象化(Anonymization)したマスク画像302と背景画像300bと合成することで出力画像300cを生成する。
FIG. 3 is a diagram for explaining image processing according to this embodiment. First, the process of generating an output image will be described with reference to FIGS. 3(a) to 3(c). A captured
従来技術として、取得される複数の撮像画像に基づき背景画像を生成する処理がある。例えば、直近のNフレーム(Nは整数)の撮像画像の各画素値の平均値を算出することで背景画像を生成する技術がある。また、撮像画像からフレーム間差分等により動体を検出し、当該撮像画像における当該動体以外の領域の画像を用いて背景画像を生成(更新)する技術がある。これらの技術では、例えば、撮像画像300aに映るベッドに横たわる人物のように一定時間にわたって静止し続ける人物がいる場合、当該人物の画像が背景化してしまい、背景画像300dのような背景画像が生成されることがある。このとき、撮像画像300aと背景画像300dとを比較した場合、人物301が前景領域として抽出されないため、人物301に対応するマスク画像が生成されなくなる。すなわち背景画像300dと合成されるマスク画像が生成されないため、結果的に生成される出力画像では人物301が表示されてしまいプライバシーの保護がなされなくなる。
As a conventional technique, there is a process of generating a background image based on a plurality of captured images. For example, there is a technique that generates a background image by calculating the average value of each pixel value of captured images of the most recent N frames (N is an integer). Furthermore, there is a technique in which a moving object is detected from a captured image using inter-frame differences, etc., and a background image is generated (updated) using an image of an area other than the moving object in the captured image. In these technologies, for example, when there is a person who remains stationary for a certain period of time, such as a person lying on a bed reflected in the captured
そこで、本実施形態に係る画像処理において、上述した第1生成処理または第2生成処理により背景画像を生成する処理を実行する。ここではまず第1生成処理について説明する。 Therefore, in the image processing according to the present embodiment, a process of generating a background image by the above-described first generation process or second generation process is executed. First, the first generation process will be explained here.
本実施形態において、出力制御部209は、例えば、最初に生成された(設定された)背景画像をディスプレイ130に表示させる。そして、操作受付部202は、表示された背景画像において人物が一定時間にわたり静止すると考えられる領域を指定するユーザ操作を受け付け、設定部204は、操作受付部202が受け付けた当該ユーザ操作に基づき、背景画像に対し部分領域を設定する。図3(e)に示す背景画像300eには設定部204により設定された部分領域303が示されている。
In this embodiment, the
第1生成処理において、背景画像300eにおける部分領域303以外の領域の画像については随時入力される撮像画像に基づき生成(更新)される。例えば、背景画像300eにおける部分領域303以外の領域の画像は、直近Nフレームの撮像画像における当該領域に対応する画像の各画素の平均値を算出することで生成(更新)される。一方、第1生成処理において、背景画像300eにおける部分領域の画像については選択部205により現在処理対象の撮像画像の状況に近しいとして取得された候補背景画像を用いて生成(更新)される。例えば、背景画像300eにおける部分領域の画像は、選択部205により取得された候補背景画像における当該部分領域に対応する領域の画像で置き換えられる。
In the first generation process, images of areas other than the
ここで、第1生成処理により背景画像を生成する効果について説明する。まず、撮像画像300aが撮像されたのち、撮像対象の領域の照明がオンからオフに切り替わったことに伴い、図3(f)に示すような撮像対象の領域が暗くなった撮像画像300fが撮像された場合を想定する。このとき上述した第1生成処理ではなく、背景画像における部分領域303以外の領域の画像は撮像画像に基づき生成(更新)され、部分領域303の画像は生成(更新)しない処理を実行した場合、次のような課題が生じる。すなわち、撮像画像300fが撮像されて以降、照明がオフの状態が続いて撮像画像300fと同様の画像が撮像され続けると、部分領域303以外の領域の画像は撮像画像に基づき生成(更新)されるため図3(g)に示すような背景画像300gが生成される。このとき、部分領域303の画像は撮像画像に基づき生成(更新)されないため、背景画像300gに示す部分領域303内の画像は背景画像300eから変化していない。この場合、抽出部207は、背景画像300gと撮像画像300fとを比較し、撮像画像300fにおける部分領域303に対応する領域を前景物体の領域として抽出してしまう。その結果、合成部208は、図3(h)に示すような、出力画像300hが生成されることになり、人物が存在しているのか否か判別ができない出力画像が生成されてしまう。
Here, the effect of generating a background image by the first generation process will be explained. First, after the captured
しかしながら、本実施形態に係る第1生成処理では、上述したように、背景画像300eにおける部分領域303の画像について選択部205により取得された候補背景画像を用いて生成(更新)される。具体的には、まず、予め保持した複数の候補背景画像のうち、撮像画像300fの輝度に近しい候補背景画像300kが取得される。そして、選択された候補背景画像300kにおける部分領域303に対応する領域の画像を用いて背景画像300e上の部分領域303の画像が更新(生成)されることで、図3(i)に示す背景画像300iが生成される。この場合、抽出部207は、撮像画像300fと背景画像300iとを比較することで、撮像画像300fにおける人物301を前景物体の領域として抽出することができる。そして、合成部308は、抽出部207により抽出された前景物体の領域を抽象化(Anonymization)したマスク画像305を生成する。さらに、合成部308は、生成したマスク画像305と背景画像300iとを合成することで図3(j)に示すような出力画像300jを生成することができる。出力画像300jでは、撮像画像に映っていた人物が誰であるかを特定できないようプライバシーを保護しつつ、人物が存在していることがわかる、すなわち撮像画像の状況が反映されている。
However, in the first generation process according to the present embodiment, as described above, the image of the
以上説明したように、第1生成処理により生成された背景画像を用いて撮像画像から前景物体の領域を抽出することで、撮像画像に映っていた人物のプライバシーを保護しつつ、撮像画像の状況が反映された出力画像を生成することができる。 As explained above, by extracting the region of the foreground object from the captured image using the background image generated by the first generation process, the privacy of the person in the captured image is protected while the situation of the captured image is It is possible to generate an output image that reflects the
続いて、第2生成処理について説明する。第2生成処理は、部分領域を考慮せず、選択部205により取得された候補背景画像を最新の背景画像とする処理である。例えば、現在の背景画像が図3(b)に示す背景画像300bであり、現在処理対象とする撮像画像が撮像画像300aから撮像画像300fに移ったとする。このとき、選択部205により現在処理対象とする撮像画像の輝度に近い候補背景画像として複数の候補背景画像から候補背景画像300kが取得される。そして、第2生成処理では、選択部205により取得された候補背景画像300kを最新の背景画像とする。この場合、抽出部207は、撮像画像300fと現在の背景画像である候補背景画像300kとを比較することで、撮像画像300fにおける人物301を前景物体の領域として抽出することができる。そして、合成部308は、抽出部207により抽出された前景物体の領域を抽象化(Anonymization)したマスク画像305を生成する。さらに、合成部308は、生成したマスク画像305と候補背景画像300kとを合成することで図3(j)に示すような出力画像300jを生成することができる。
Next, the second generation process will be explained. The second generation process is a process in which the candidate background image acquired by the
なお、本実施形態における背景生成部206は、現在の背景画像の輝度値の平均値と、現在の処理対象とする撮像画像の輝度値の平均値との差分に基づき、第1生成処理または第2生成処理を実行する。具体的には、背景生成部206は、現在の背景画像の各画像の輝度値の平均値と、現在処理対象とする撮像画像の各画素の輝度値の平均値との差分値を算出する。そして、背景生成部206は、例えば、当該差分値が第1閾値以上第2閾値未満である場合、第1生成処理を実行し、当該差分値が第2閾値以上である場合、第2生成処理を実行する。なお、第2閾値は第1閾値よりも大きい値である。第1生成処理では、背景画像における部分領域以外の領域の画像は随時入力される複数の撮像画像に基づき生成(更新)されるものとした。しかしながら、撮像対象の領域の明るさが大きく変化するなどして、現在処理対象とする撮像画像と、現在の背景画像とで輝度値が大きく異なる場合、現在の撮像画像における輝度が最新の背景画像に反映されるまで時間を要することがある。そこで、本実施形態における背景生成部206は、現在の背景画像の輝度値の平均値と、現在の処理対象の撮像画像の輝度値の平均値との差分が第1閾値より大きい第2閾値以上である場合、第2生成処理を実行するようにする。このようにすることで、現在の撮像画像の状況に近しい背景画像を短時間で生成することが可能となる。
Note that the
次に、図4および図5に示すフローを参照して、本実施形態に係る画像処理装置100による画像処理について更に詳細に説明する。図4に示すフローの処理を実行することで、第1生成処理または第2生成処理を実行することができる。また、図5に示すフローの処理を実行することで、生成された背景画像を用いて出力画像を生成することができる。
Next, image processing by the
なお、図4および図5に示すフローの処理は、画像処理装置100のROM720に格納されたコンピュータプログラムを画像処理装置100のCPU700が実行して実現される図2に示す機能ブロックにより実行されるものとする。また、図4に示すフローの処理は、例えば、ユーザによる指示に従って、開始又は終了するものとする。 Note that the processing of the flows shown in FIGS. 4 and 5 is executed by the functional blocks shown in FIG. shall be taken as a thing. Further, it is assumed that the processing of the flow shown in FIG. 4 is started or ended, for example, in accordance with an instruction from a user.
まず、図4に示すフローの処理について説明する。S401にて、背景生成部206は、初期の背景画像である初期背景画像を取得する。初期背景画像としては、例えば、出力制御部207によりディスプレイ130に表示された複数の撮像画像のうち、ユーザにより選択された撮像画像を初期背景画像としてもよい。また、図4に示すフローの処理に先立って、背景生成部206は、隠蔽対象とする特定の物体(人物等)がいない状態で撮像された複数の撮像画像に基づき、初期背景画像を生成してもよい。このとき、背景生成部206は、例えば、複数の撮像画像の各画素値の平均を算出することで、初期背景画像を生成するようにしてもよい。
First, the processing of the flow shown in FIG. 4 will be explained. In S401, the
次に、S402にて、通信部200は、処理対象とする撮像画像を取得する。なお、本実施形態において、通信部200は、ネットワーク140を介して撮像装置110から処理対象とする撮像画像を取得するが、例えば、記録装置120から処理対象とする撮像画像を取得してもよい。
Next, in S402, the
次に、S403にて、選択部205は、撮像画像の輝度値の平均値を算出する。具体的には、選択部205は、例えば、現在処理対象とする撮像画像の各画素の輝度値の平均値を算出する。
Next, in S403, the
次に、S404にて、選択部205は、現在処理対象とする撮像画像の輝度に基づき、背景管理部202が保持する複数の候補背景画像のうち背景画像の生成に用いる候補背景画像を取得する。具体的には、選択部205は、候補背景画像の各画素の輝度値の平均値を算出する処理を複数の候補背景画像の各々について実行する。そして、選択部205は、処理対象の撮像画像の輝度値の平均値と、候補背景画像の輝度値の平均値の各々とを比較し、複数の候補背景画像から、当該撮像画像の輝度値の平均値に最も近い輝度値の平均値を有する候補背景画像を取得する。すなわち、選択部205は、複数の候補背景画像から現在処理対象とする撮像画像の状況に近しい候補背景画像を取得する。なお、予め候補背景画像の各々の輝度値の平均値を算出しておき、背景管理部203は、候補背景画像と、当該候補背景画像の輝度値の平均値とを関連付けて保持しておくようにしてもよい。そして、選択部205は、処理対象の撮像画像の平均値と、背景管理部203が保持する輝度値であって候補背景画像の輝度値の平均値の各々とを比較し、撮像画像の輝度値の平均値に最も近い候補背景画像を取得するようにしてもよい。
Next, in S404, the
次に、S405にて、背景生成部206は、現在の背景画像の輝度値の平均値と、現在の処理対象とする撮像画像の輝度値の平均値との差分値を算出する。具体的には、背景生成部206は、現在の背景画像の各画像の輝度値の平均値と、現在処理対象とする撮像画像の各画素の輝度値の平均値との差分値を算出する。図4に示すフローの処理が開始して初めてS405の処理が実行される場合、背景生成部206は、初期背景画像の輝度値の平均値と、処理対象の撮像画像の輝度値の平均値との差分値を算出する。
Next, in S405, the
S406にて、背景生成部206は、S405にて算出された輝度値の差分値が第1閾値以上であるかを判定する。S405にて算出された輝度値の差分値が第1閾値以上である場合(S406にてYes)、S407に遷移し、S405にて算出された輝度値の差分値が第1閾値未満である場合(S406にてNo)、S410に遷移する。S407にて、背景生成部206は、S405にて算出された輝度値の差分値が第2閾値以上であるかを判定する。S405にて算出された輝度値の差分値が第2閾値以上である場合(S407にてYes)、S408に遷移し、S407にて算出された輝度値の差分値が第2閾値未満である場合(S407にてNo)、S409に遷移する。
In S406, the
S408にて、背景生成部206は、選択部205により取得された候補背景画像を背景画像とする第2生成処理を実行する。すなわち、第2生成処理は、選択部205により取得された候補背景画像を最新の背景画像とする処理である。背景管理部203は、第2生成処理により生成された背景画像を最新の背景画像として保持する。
In S408, the
S409にて、背景生成部206は、選択部205により取得された候補背景画像を用いて背景画像における部分領域の画像を生成し、背景画像における当該部分領域以外の領域の画像を撮像画像に基づき生成する第1生成処理を実行する。背景管理部203は、第1生成処理により生成された背景画像を最新の背景画像として保持する。
In S409, the
S410にて、出力画像を生成する処理が実行される。ここで、図5に示すフローを参照して、出力画像を生成する処理について更に詳細に説明する。図5に示すS501にて、抽出部207は、現在の背景画像を用いて現在処理対象とする撮像画像から前景物体の領域を抽出する。次に、S502にて、合成部208は、抽出部207により抽出された前景物体の領域を抽象化(Anonymization)したマスク画像を生成する。なお、本実施形態に係る合成部208は、撮像画像から抽出した前景物体の領域を、任意の色(RGB値)で塗りつぶすことで抽象化(Anonymization)したマスク画像を生成する。なお、前景物体の領域を抽象化(Anonymization)したマスク画像としては、例えば、当該領域に対しモザイク処理を施したモザイク画像、当該領域にぼかし処理を施したぼかし画像などであってもよい。次に、S503にて、合成部208は、S502にて生成したマスク画像と、所定の画像とを合成した出力画像を生成する。なお、合成部208は、例えば、S502にて生成したマスク画像と、S404にて選択部205により取得された候補背景画像とを合成することで出力画像を生成する。なお、合成部208は、例えば、S502にて生成したマスク画像と、最新の背景画像(第1生成処理により生成された背景画像、第2生成処理により生成された背景画像、または初期背景画像)とを合成することで出力画像を生成してもよい。
In S410, processing to generate an output image is executed. Here, the process of generating an output image will be described in more detail with reference to the flow shown in FIG. In S501 shown in FIG. 5, the
S503の処理の後、S411へ遷移し、S411にて、出力制御部209は、S410にて生成された出力画像を外部装置(ディスプレイ130、記録装置120等)へ出力する。なお、出力制御部209は、S410にて生成された出力画像をディスプレイ130に表示させてもよい。次に、S412にて、終了の指示がない場合(S412にてNo)、S402に遷移し、S402にて、通信部200は、次の処理対象とする撮像画像を取得する。一方、S412にて、終了の指示がある場合(S412にてYes)、図4に示す処理を終了する。
After the processing in S503, the process moves to S411, and in S411, the
なお、本実施形態において、S406にて、背景生成部206は、S405にて算出された輝度値の差分値が第1閾値以上であるかを判定し、第1閾値未満である場合、S410へ遷移するようにしたが、これに限らない。背景生成部206は、例えば、処理対象の撮像画像の輝度値の平均値と、現在の背景画像の輝度値の平均値との差分値が所定の閾値以上である場合、第1生成処理を実行し、当該差分値が所定の閾値未満である場合、次のような処理を実行してもよい。すなわち、背景生成部206は、算出した輝度値の平均値の差分値が所定の閾値未満である場合、取得した候補背景画像を用いず、撮像画像を用いて背景画像を生成するようにしてもよい。この場合、背景生成部206は、例えば、直近Nフレーム(Nは整数)の複数の撮像画像を用いて、当該複数の撮像画像各々の画素値の平均をとることで、背景画像を生成してもよい。なお、このとき、背景生成部206は、撮像された撮像画像を用いて背景画像を生成する処理であれば公知の技術を用いてもよい。
Note that in this embodiment, in S406, the
以上説明したように、本実施形態に係る画像処理装置は、第1生成処理として次のような処理を実行する。すなわち、画像処理装置は、第1生成処理において、背景画像における人物が長時間静止すると考えられる部分領域の画像は候補背景画像を用いて生成(更新)し、当該背景画像における部分領域以外の領域の画像は撮像画像を用いて生成(更新)する。また、本実施形態に係る画像処理装置は、第2生成処理において、選択部205により取得された候補背景画像を最新の背景画像とする。このようにすることで、人物が長時間静止してしまう場合であっても、当該人物に対応する前景領域を適切に抽出することができ、結果的に現在の撮像画像の状況を適切に反映しつつ当該人物のプライバシーを保護した出力画像を生成することができる。
As described above, the image processing apparatus according to the present embodiment executes the following process as the first generation process. That is, in the first generation process, the image processing device generates (updates) an image of a partial region in the background image in which a person is considered to remain stationary for a long time using the candidate background image, and The image is generated (updated) using the captured image. Furthermore, in the second generation process, the image processing apparatus according to the present embodiment sets the candidate background image acquired by the
(実施形態2)
実施形態1において、設定部204は、背景画像において人物が長時間静止すると考えられる領域としてユーザが指定した領域を部分領域として設定した。本実施形態に係る設定部204は、特定の物体を検出する検出結果に基づき、背景画像における部分領域を設定する。なお、実施形態1と異なる部分を主に説明し、実施形態1と同一または同等の構成要素、および処理には同一の符号を付すとともに、重複する説明は省略する。
(Embodiment 2)
In the first embodiment, the
以下、図6を参照して、本実施形態に係る画像処理装置100の画像処理について説明する。なお、図6に示す各機能は、本実施形態の場合、図7を参照して後述するROM720とCPU700とを用いて、次のようにして実現されるものとする。図6に示す各機能は、画像処理装置100のROM720に格納されたコンピュータプログラムを画像処理装置100のCPU700が実行することにより実現される。
Image processing by the
図6に示すように、本実施形態に係る画像処理装置100は、図2に示す機能に加えて、更に検出部600を有する。本実施形態に係る検出部600は、背景画像または撮像画像から特定物体を検出する。特定の物体としては、例えば、椅子やベッドなど人物が長時間静止する(位置する)と考えられる物体である。本実施形態に係る検出部600は、照合パターン(辞書)を使用して、パターンマッチング等の処理を行うことで、背景画像または撮像画像に含まれる特定の物体の検出を行う。なお、パターンマッチングに限らず特定の物体を検出する方法として他の公知技術を用いてもよい。検出部600は、例えば、撮像画像から特定物体としてベッドを検出し、当該ベッドの位置およびサイズの情報を取得する。具体的には、検出部600は、特定物体としてベッドを検出した場合に、当該ベッドを囲う外接矩形を設定し、当該外接矩形の左上の頂点の座標と、当該外接矩形の横のサイズおよび縦のサイズを取得する。なお、撮像画像および背景画像の画像サイズは同じものであるとし、撮像画像上および背景画像上の位置を示す座標は、撮像画像および背景画像それぞれの左上の端点を原点としてXY座標であるものとする。
As shown in FIG. 6, the
そして、本実施形態に係る設定部204は、検出部600により検出された特定物体の位置およびサイズに基づき、背景画像に対し部分領域を設定する。設定部204は、例えば、検出部600により特定物体としてベッドが検出された場合、当該ベッドの外接矩形を部分領域として設定する。なお、設定部204は、検出部600により検出された特定物体の外接矩形を所定の倍率だけ拡張した領域を部分領域として設定してもよい。
Then, the
以上説明したように、本実施形態に係る画像処理装置100では、検出部600により検出された特定物体の位置に基づき、背景画像に対し部分領域の設定を行うため、部分領域の設定を行うユーザの負荷を低減することができる。
As described above, in the
(その他の実施形態)
次に図7を参照して、各実施形態の各機能を実現するための画像処理装置100のハードウェア構成を説明する。なお、以降の説明において画像処理装置100のハードウェア構成について説明するが、記録装置120および撮像装置110も同様のハードウェア構成によって実現されるものとする。
(Other embodiments)
Next, with reference to FIG. 7, the hardware configuration of the
本実施形態における画像処理装置100は、CPU700と、RAM710と、ROM720、HDD730と、I/F740と、を有している。
The
CPU700は画像処理装置100を統括制御する中央処理装置である。RAM710は、CPU700が実行するコンピュータプログラムを一時的に記憶する。また、RAM710は、CPU700が処理を実行する際に用いるワークエリアを提供する。また、RAM710は、例えば、フレームメモリとして機能したり、バッファメモリとして機能したりする。
The
ROM720は、CPU700が画像処理装置100を制御するためのプログラムなどを記憶する。HDD730は、画像データ等を記録する記憶装置である。
The
I/F740は、ネットワーク140を介して、TCP/IPやHTTPなどに従って、外部装置との通信を行う。
The I/
なお、上述した各実施形態の説明では、CPU700が処理を実行する例について説明するが、CPU700の処理のうち少なくとも一部を専用のハードウェアによって行うようにしてもよい。例えば、ディスプレイ130にGUI(GRAPHICAL USER INTERFACE)や画像データを表示する処理は、GPU(GRAPHICS PROCESSING UNIT)で実行してもよい。また、ROM720からプログラムコードを読み出してRAM710に展開する処理は、転送装置として機能するDMA(DIRECT MEMORY ACCESS)によって実行してもよい。
In addition, in the description of each embodiment mentioned above, an example will be described in which the
なお、本発明は、上述の実施形態の1以上の機能を実現するプログラムを1つ以上のプロセッサが読出して実行する処理でも実現可能である。プログラムは、ネットワーク又は記憶媒体を介して、プロセッサを有するシステム又は装置に供給するようにしてもよい。また、本発明は、上述の実施形態の1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。また、画像処理装置100の各部は、図7に示すハードウェアにより実現してもよいし、ソフトウェアにより実現することもできる。
Note that the present invention can also be implemented by a process in which one or more processors read and execute a program that implements one or more of the functions of the embodiments described above. The program may be supplied to a system or device having a processor via a network or a storage medium. The present invention can also be implemented by a circuit (eg, an ASIC) that implements one or more of the functions of the embodiments described above. Further, each part of the
なお、上述した各実施形態に係る画像処理装置100の1以上の機能を他の装置が有していてもよい。例えば、各実施形態に係る画像処理装置100の1以上の機能を撮像装置110が有していてもよい。なお、上述した各実施形態を組み合わせて、例えば、上述した実施形態を任意に組み合わせて実施してもよい。
Note that another device may have one or more functions of the
以上、本発明を実施形態と共に説明したが、上記実施形態は本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲は限定的に解釈されるものではない。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱しない範囲において、様々な形で実施することができる。例えば、各実施形態を組み合わせたものも本明細書の開示内容に含まれる。 Although the present invention has been described above along with the embodiments, the above embodiments are merely examples of implementation of the present invention, and the technical scope of the present invention is interpreted to be limited by these embodiments. It's not a thing. That is, the present invention can be implemented in various forms without departing from its technical idea or main features. For example, a combination of each embodiment is also included in the disclosure content of this specification.
100 画像処理装置
110 撮像装置
200 通信部
201 記憶部
202 操作受付部
203 背景管理部
204 設定部
205 選択部
206 背景生成部
207 抽出部
208 合成部
209 出力制御部
600 検出部
100
Claims (12)
前記取得手段により取得された候補背景画像を用いて前記背景画像における部分領域の画像を生成し、当該背景画像における当該部分領域以外の領域の画像を前記撮像画像に基づき生成する第1生成処理を実行する生成手段と、
前記第1生成処理により生成された背景画像と、前記撮像画像とから、前景物体の領域を抽出する抽出手段と、
前記抽出手段により抽出された前景物体の領域を抽象化したマスク画像と、所定の画像とを合成した出力画像を生成する合成手段とを有し、
前記生成手段は、前記撮像画像の輝度値の平均値と、前記背景画像の輝度値の平均値との差分値が第1の閾値以上である場合、前記第1生成処理を実行し、前記差分値が前記第1の閾値未満である場合、前記取得手段により取得された候補背景画像を用いず、前記撮像手段により撮像された撮像画像を用いて前記背景画像を生成することを特徴とする画像処理装置。 A candidate background image used as at least a part of a background image for extracting a foreground object region from a captured image captured by an imaging means, the average of luminance values closest to the average of the luminance values of the captured image . an acquisition means for acquiring a candidate background image having a value ;
A first generation process of generating an image of a partial area in the background image using the candidate background image acquired by the acquisition means, and generating an image of an area other than the partial area in the background image based on the captured image. a generating means to execute;
Extracting means for extracting a region of a foreground object from the background image generated by the first generation process and the captured image;
composing means for generating an output image by composing a mask image that abstracts the region of the foreground object extracted by the extraction means and a predetermined image ;
The generation means executes the first generation process when the difference between the average brightness value of the captured image and the average brightness value of the background image is greater than or equal to a first threshold, and If the value is less than the first threshold, the background image is generated using a captured image captured by the imaging device without using the candidate background image obtained by the obtaining device. Processing equipment.
前記取得手段は、前記撮像手段により撮像された撮像画像の輝度値に基づき、前記保持手段が保持する複数の候補背景画像から前記背景画像の生成に用いる候補背景画像を取得することを特徴とする請求項1に記載の画像処理装置。 Further comprising a holding means for holding a plurality of candidate background images used as at least a part of the background image,
The acquisition means is characterized in that the acquisition means acquires a candidate background image to be used for generating the background image from a plurality of candidate background images held by the holding means, based on the brightness value of the captured image taken by the imaging means. The image processing device according to claim 1.
前記設定手段は、前記検出手段により検出された特定の物体の位置に基づき、前記背景画像に対し前記部分領域を設定することを特徴とする請求項5に記載の画像処理装置。 further comprising detection means for detecting a specific object from the captured image,
6. The image processing apparatus according to claim 5 , wherein the setting means sets the partial area for the background image based on the position of a specific object detected by the detection means.
前記取得工程において取得された候補背景画像を用いて前記背景画像における部分領域の画像を生成し、前記背景画像における当該部分領域以外の領域の画像を前記撮像画像に基づき生成する第1生成処理を実行する生成工程と、
前記第1生成処理により生成された背景画像と、前記撮像画像とから、前景物体の領域を抽出する抽出工程と、
前記抽出工程において抽出された前景物体の領域を抽象化したマスク画像と、所定の画像とを合成した出力画像を生成する合成工程とを有し、
前記生成工程は、前記撮像画像の輝度値の平均値と、前記背景画像の輝度値の平均値との差分値が第1の閾値以上である場合、前記第1生成処理を実行し、前記差分値が前記第1の閾値未満である場合、前記取得工程により取得された候補背景画像を用いず、前記撮像手段により撮像された撮像画像を用いて前記背景画像を生成することを特徴とする画像処理方法。 A candidate background image used as at least a part of a background image for extracting a foreground object region from a captured image captured by an imaging means, the average of luminance values closest to the average luminance value of the captured image . an obtaining step of obtaining a candidate background image having a value ;
A first generation process of generating an image of a partial area in the background image using the candidate background image acquired in the acquisition step, and generating an image of an area other than the partial area in the background image based on the captured image. A generation process to be performed;
an extraction step of extracting a foreground object region from the background image generated by the first generation process and the captured image;
a synthesis step of generating an output image by synthesizing a mask image that abstracts the region of the foreground object extracted in the extraction step and a predetermined image;
In the generation step, if the difference between the average brightness value of the captured image and the average brightness value of the background image is equal to or greater than a first threshold, the first generation process is executed, and the difference If the value is less than the first threshold, the background image is generated using the captured image captured by the imaging means without using the candidate background image obtained in the obtaining step. Processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019158057A JP7370769B2 (en) | 2019-08-30 | 2019-08-30 | Image processing device, image processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019158057A JP7370769B2 (en) | 2019-08-30 | 2019-08-30 | Image processing device, image processing method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021036647A JP2021036647A (en) | 2021-03-04 |
JP7370769B2 true JP7370769B2 (en) | 2023-10-30 |
Family
ID=74716734
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019158057A Active JP7370769B2 (en) | 2019-08-30 | 2019-08-30 | Image processing device, image processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7370769B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000285244A (en) | 1999-03-31 | 2000-10-13 | Nri & Ncc Co Ltd | Picture processor |
JP2001333417A (en) | 2000-05-19 | 2001-11-30 | Fujitsu General Ltd | Camera supervisory system |
JP2008191884A (en) | 2007-02-05 | 2008-08-21 | Nippon Telegr & Teleph Corp <Ntt> | Image processing method, image processor, image processing program and computer-readable recording medium with the program recorded thereon |
JP2016194778A (en) | 2015-03-31 | 2016-11-17 | セコム株式会社 | Object detection device |
JP2018078540A (en) | 2016-11-02 | 2018-05-17 | キヤノン株式会社 | Image processing apparatus, image processing method and program |
JP2018148368A (en) | 2017-03-03 | 2018-09-20 | キヤノン株式会社 | Image generating apparatus and control method of the same |
JP2019016033A (en) | 2017-07-04 | 2019-01-31 | キヤノン株式会社 | Image processing device, image processing method, and program |
-
2019
- 2019-08-30 JP JP2019158057A patent/JP7370769B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000285244A (en) | 1999-03-31 | 2000-10-13 | Nri & Ncc Co Ltd | Picture processor |
JP2001333417A (en) | 2000-05-19 | 2001-11-30 | Fujitsu General Ltd | Camera supervisory system |
JP2008191884A (en) | 2007-02-05 | 2008-08-21 | Nippon Telegr & Teleph Corp <Ntt> | Image processing method, image processor, image processing program and computer-readable recording medium with the program recorded thereon |
JP2016194778A (en) | 2015-03-31 | 2016-11-17 | セコム株式会社 | Object detection device |
JP2018078540A (en) | 2016-11-02 | 2018-05-17 | キヤノン株式会社 | Image processing apparatus, image processing method and program |
JP2018148368A (en) | 2017-03-03 | 2018-09-20 | キヤノン株式会社 | Image generating apparatus and control method of the same |
JP2019016033A (en) | 2017-07-04 | 2019-01-31 | キヤノン株式会社 | Image processing device, image processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2021036647A (en) | 2021-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9247132B2 (en) | Moving picture capturing device, information processing system, information processing device, and image data processing method | |
CN108024027B (en) | Image processing apparatus, image processing method, and storage medium | |
KR101623826B1 (en) | Surveillance camera with heat map | |
JP2008511258A (en) | Real-time image stabilization | |
JP2012216006A (en) | Information processing system, information processing device, imaging device, and information processing method | |
JP7249766B2 (en) | Information processing device, system, control method for information processing device, and program | |
JP7187154B2 (en) | Image processing device, image processing method and program | |
JP2018148368A (en) | Image generating apparatus and control method of the same | |
US11170511B2 (en) | Image processing device, imaging device, and image processing method for replacing selected image area based on distance | |
KR20150145725A (en) | Method and apparatus for dynamic range expansion of ldr video sequence | |
JP2016019248A (en) | Motion picture display control device, motion picture display control method and program | |
JP7218786B2 (en) | Image processing device, image processing method and program | |
JP7370769B2 (en) | Image processing device, image processing method and program | |
JP2008306330A (en) | Information processor, motion vector generating program, and interpolated image generating program | |
JP2016144049A (en) | Image processing apparatus, image processing method, and program | |
US20220036093A1 (en) | Information processing apparatus, information processing method, and storage medium | |
JP2010193154A (en) | Image processor and method | |
JP7455545B2 (en) | Information processing device, information processing method, and program | |
JP6008711B2 (en) | Image processing apparatus, image processing method, and program | |
JP2021149747A (en) | Information processing unit, information processing method and program | |
JP2021056899A (en) | Image processor, image processing method, and program | |
JP2021005798A (en) | Imaging apparatus, control method of imaging apparatus, and program | |
JP2016129281A (en) | Image processor | |
JP2009273072A (en) | High-definition image processing device, high-definition image processing method, and program | |
JP2016042661A (en) | Information processing unit, system, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220804 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230410 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230425 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230621 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230919 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231018 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7370769 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |