JP2020061081A - 画像処理装置および画像処理方法 - Google Patents
画像処理装置および画像処理方法 Download PDFInfo
- Publication number
- JP2020061081A JP2020061081A JP2018193516A JP2018193516A JP2020061081A JP 2020061081 A JP2020061081 A JP 2020061081A JP 2018193516 A JP2018193516 A JP 2018193516A JP 2018193516 A JP2018193516 A JP 2018193516A JP 2020061081 A JP2020061081 A JP 2020061081A
- Authority
- JP
- Japan
- Prior art keywords
- image
- correction
- mask
- image processing
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims description 73
- 238000000034 method Methods 0.000 title description 43
- 238000001514 detection method Methods 0.000 claims abstract description 111
- 238000012937 correction Methods 0.000 claims description 149
- 230000002194 synthesizing effect Effects 0.000 claims description 2
- 238000003672 processing method Methods 0.000 claims 2
- 239000002131 composite material Substances 0.000 claims 1
- 238000000605 extraction Methods 0.000 claims 1
- 230000015572 biosynthetic process Effects 0.000 abstract 2
- 238000003786 synthesis reaction Methods 0.000 abstract 2
- 230000006870 function Effects 0.000 description 37
- 230000008569 process Effects 0.000 description 26
- 238000004364 calculation method Methods 0.000 description 14
- 230000004048 modification Effects 0.000 description 14
- 238000012986 modification Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 10
- 238000004590 computer program Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 241000282326 Felis catus Species 0.000 description 3
- 241000282412 Homo Species 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 230000009545 invasion Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
【課題】画像におけるプライバシー保護を実現する。【解決手段】画像処理装置は、画像に含まれる物体を検出する物体検出手段と、物体検出手段による物体の検出を妨害するために画像に重畳されることになるマスク画像を生成する生成手段と、画像に対してマスク画像を重畳した合成画像を生成する合成手段と、を有する。生成手段は、画像において物体が存在する第1の領域におけるマスク強度が画像において物体が存在しない第2の領域のマスク強度よりも高くなるようにマスク画像を生成する。【選択図】図2
Description
本発明は、画像処理技術に関するものである。
近年、プログラムによる自動的な画像理解が発展している。例えば、非特許文献1には、画像中から物体を検出しかかる物体の名称と画像中の領域を示す技術が、非特許文献2には、画像からその画像に相応しいキャプションを生成する技術が、開示されている。このような画像理解技術の発展に伴い、アップロードした画像から画像のもつ情報が自動抽出され、第三者に意図せぬ形で利用される懸念がある。プライバシー保護技術として、特許文献1には、画像中の特定領域を人間にとって認識困難な状態にする技術が開示されている。しかしながら、SNSにおける画像など、閲覧されることが望まれている画像に対してこのような技術を適用するのは適切ではない。
ところで、非特許文献1,2は、ともにディープニューラルネットワーク(DNN)を利用した画像理解の技術である。そこで、近年、画像理解において誤った判定を起こさせるよう意図的に入力画像を修正する技術が発表されており、敵対的機械学習(adversarial machine learning)という分野をなしている。非特許文献3には、画像検出ニューラルネットにより検出された物体の識別ラベルを異なるラベルとなるよう、画像に僅かな修正パターンを加える技術が開示されている。当該技術により画像に加えられる修正パターンは人間が気づかないレベルの僅かなものであるため、人間による閲覧に対しては影響が少ない。
Shaoqing Ren, Kaiming He, Ross B. Girshick, Jian Sun, "Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks", NIPS 2015: 91-99
Vinyals, Oriol, Toshev, Alexander, Bengio, Samy and Erhan, Dumitru, "Show and Tell: A Neural Image Caption Generator", arxiv:1411.4555, 2014
Xie, C., et.al., "Adversarial examples for semantic segmentation and object detection", IEEE International Conference on Computer Vision, ICCV 2017. pp. 1378-1387, 2017
しかしながら、非特許文献3に記載の技術は検出された物体のラベルを異なるラベルに変換するのみであり、物体検出(物体が存在することの検出)を防ぐことはできない。つまり、プログラムによる物体検出について防ぐことはできないという課題がある。
本発明は、このような問題に鑑みてなされたものであり、画像におけるプライバシー保護を好適に実現可能とする技術を提供することを目的としている。
上述の問題点を解決するため、本発明に係る画像処理装置は以下の構成を備える。すなわち、画像処理装置は、
画像に含まれる物体を検出する物体検出手段と、
前記物体検出手段による物体の検出を妨害するために前記画像に重畳されることになるマスク画像を生成する生成手段と、
前記画像に対して前記マスク画像を重畳した合成画像を生成する合成手段と、
を有し、
前記生成手段は、前記画像において物体が存在する第1の領域におけるマスク強度が該画像において物体が存在しない第2の領域のマスク強度よりも高くなるように前記マスク画像を生成する。
画像に含まれる物体を検出する物体検出手段と、
前記物体検出手段による物体の検出を妨害するために前記画像に重畳されることになるマスク画像を生成する生成手段と、
前記画像に対して前記マスク画像を重畳した合成画像を生成する合成手段と、
を有し、
前記生成手段は、前記画像において物体が存在する第1の領域におけるマスク強度が該画像において物体が存在しない第2の領域のマスク強度よりも高くなるように前記マスク画像を生成する。
本発明によれば、画像におけるプライバシー保護を好適に実現可能とする技術を提供することができる。
以下に、図面を参照して、この発明の実施の形態の一例を詳しく説明する。なお、以下の実施の形態はあくまで例示であり、本発明の範囲を限定する趣旨のものではない。
(第1実施形態)
本発明に係る画像処理装置の第1実施形態として、画像に対して、物体検出を妨害するためのマスク画像である修正パターンを重畳する画像処理装置を例に挙げて以下に説明する。
本発明に係る画像処理装置の第1実施形態として、画像に対して、物体検出を妨害するためのマスク画像である修正パターンを重畳する画像処理装置を例に挙げて以下に説明する。
<装置構成>
図1は、第1実施形態に係る画像処理装置のハードウェア構成を示す図である。なお、図1に示す構成は、画像処理装置100に適用可能なコンピュータ装置の構成の一例に過ぎない。
図1は、第1実施形態に係る画像処理装置のハードウェア構成を示す図である。なお、図1に示す構成は、画像処理装置100に適用可能なコンピュータ装置の構成の一例に過ぎない。
CPU101は、RAM102やHDD103に格納されているコンピュータプログラムやデータを用いて各種の処理を実行する。これによりCPU101は、コンピュータ装置全体の動作制御を行うと共に、画像処理装置100が行うものとして上述した各処理を実行若しくは制御する。また、CPU101は、その処理の一部をバス104に接続された不図示のGPU(Graphics Processing Unit)に担わせてもよい。RAM102は、HDD103からロードされたコンピュータプログラムやデータを格納するためのエリアとして利用される。更にRAM102は、CPU101が各種の処理を実行する際に用いるワークエリアとして利用される。このようにRAM102は、各種のエリアを適宜提供することができる。
HDD103は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。HDD103には、OS(オペレーティングシステム)、コンピュータプログラム、データが保存されている。コンピュータプログラムには、後述する各処理を実現するため各種制御プログラムが含まれる。また、データには、処理対象となる画像や動画像のデータが含まれる。HDD103に保存されているコンピュータプログラムやデータは、CPU101による制御に従って適宜RAM102にロードされ、CPU101による実行対象や処理対象となる。なお、HDD103として、SSD,フラッシュメモリ、USBメモリなどのメモリ装置を利用してもよい。さらには、入出力インターフェース105を介して接続されたネットワーク108上に存在する不図示の外部記憶装置を仮想的にHDD103としてもよい。
CPU101、RAM102、HDD103、インターフェース105、は何れもバス104に接続されている。インターフェース105には入力装置106、出力装置107、ネットワーク108、及びバス104が接続されている。
入力装置106は、画像処理装置100に対し、設定の変更や処理の開始をユーザから各種の様式で受け付けるための装置である。例えば、キーボード、マウス、タッチパネル、マイク、カメラ、ジャイロセンサーなどにより構成される。出力装置107は、画像処理装置100による処理結果を画像や文字などでもって表示、投影、印刷するための装置である。例えば、ディスプレイ、プロジェクタなどの表示部、及びその表示制御装置、或いはプリンタおよびその印刷制御装置などにより構成される。なお入力装置106及び出力装置107は、タブレット端末やスマートフォンのように、タッチパネルディスプレイ等を用いることにより一体化したものであってもよい。ネットワーク108は、外部装置と通信により接続するためのものである。例えば、CPU101の命令に応じて、外部装置はネットワーク108を介して画像処理装置100に情報記憶機能、演算機能、入出力機能などSaaS(Software as a Service)等の形態により提供することが出来る。
図2は、第1実施形態に係る画像処理装置の機能構成を示す図である。画像処理装置100は、画像取得部201、修正設定取得部202、初期化部203、物体検出部204、検出修正処理部205を含む。
画像取得部201は、修正パターンを重畳する対象となる対象画像を入力する機能部である。修正設定取得部202は、修正パターンを導出するにあたっての条件である修正設定データを入力する機能部である。初期化部203は、初期状態の修正パターンを生成する機能部である。物体検出部204は、画像又は修正パターンが重畳された画像に対して物体検出処理を行う機能部である。検出修正処理部205は、修正パターンを更新するための機能部である。これらの各機能部の詳細については、図3を参照して後述する。
なお、上述の各機能部は、CPU101がHDD103内に格納された制御プログラムを読み込み実行することで実現され得る。ただし、1以上の機能部を、ASICなどのハードウェアにより実現するよう構成してもよい。
<装置の動作>
図3は、第1実施形態に係る画像処理装置における処理を説明するフローチャートである。
図3は、第1実施形態に係る画像処理装置における処理を説明するフローチャートである。
ステップS301では、画像取得部201は、HDD103、RAM102、入力装置106、或いはネットワーク108から画像データを取得する。この画像データを以降、画像Iと表記する。
ステップS302では、修正設定取得部202は、HDD103、RAM102、入力装置106、或いはネットワーク108から修正設定データを取得する。修正設定データは、修正パターンを導出するにあたっての条件である複数のデータを含む。そして、修正設定取得部202は、取得した修正設定データを、物体検出部204、検出修正処理部205へ供給する。
図5は、修正設定データの構成を示す図である。修正設定データは、大まかに、物体検出部204における物体検出器を規定するデータである物体検出器データと、検出修正の様式を定める修正パラメータとを含む。
物体検出器データは、画像I及び物体検出器のパラメータWを引数とする式(1)の関数fと、関数fの画像Iに関する微分∂f/∂Iを定義可能なデータである。関数fで表される物体検出器は、パラメータWに基づいて、画像Iから物体の存在する領域と、その物体が複数定義されたクラス(物体の種別)の各々である信頼度と、を算出する。
例えば、物体の存在する領域を矩形で定義し、矩形の左上の座標値(X0,Y0)及び右下の座標値(X1,Y1)で定義する。信頼度は、物体がクラス1〜Cまでの各々である確からしさをP1〜PCとして定義する。なお物体検出器は、C種類のクラスを検出できるとする。P1〜PCの総和を「1」となるよう正規化しておけば、クラス1が「人」である場合には、P1=0.8は、検出された物体が人である信頼度が確率で言えば80%程度であるというように解釈できる。
物体検出器は複数の物体を検出するため、上述したX0やP1に添え字をつける。例えばP32は2番目に検出された物体がクラス3である信頼度を表し、X01は1番目に検出された物体の領域を示す矩形の左上のX座標を表す。以上の表記を用いると、物体検出器の関数fは式(1)のように表すことが出来る。
物体検出器は、画像Iに対して物体検出を行った結果を、式(1)の右辺のような、領域およびクラス信頼度の形式で出力する。式(1)のような関数f及びその微分∂f/∂Iに相当する関数を定義可能なデータとして、ニューラルネットのモデルデータが好適である。そのようなモデルデータとしてFasterR−CNN,SSD(Single Shot MultiBox Detector)などが挙げられる。
修正パラメータとは、図5に示すように、検出閾値、修正対象クラス、許容修正強度、演算上限などを含むパラメータ群である。検出閾値は、検出器が式(1)の信頼度Pがその値以上となった場合に物体が検出されたとする閾値である。修正対象クラスは、検出を防ぎたい物体のクラスIDであり、複数であっても良い。許容修正強度及び演算上限は、修正パターンの目標レベル(マスク強度)を規定するデータであり、詳細については後述する。
ステップS303では、初期化部203は、各画素の画素値を「0」で初期化した修正パターンδを生成する。修正パターンδは画像Iと同じサイズ、同じチャネル数の画像データである。なお、修正パターンδの画素値は、後述のS307における調整によりマイナス値を取り得る。初期化部203は、画像取得部201から画像Iを取得し、修正パターンδと画像Iとを物体検出部204に出力する。
ステップS304では、物体検出部204は、物体検出を行う。まず、修正設定取得部202から修正設定データを取得する。そして初期化部203から取得した画像Iに修正パターンδを加算(重畳)した合成画像である画像I’について物体検出を行う。画像中の位置をx,y、チャネルをcと表記すると画像I’は式(2)のように表すことが出来る。
物体検出部204は、式(1)に従いf(I’;W)の右辺を算出する。そして修正対象クラスkについて、検出閾値以上である信頼度Pkを有する式(1)の列の数をカウントし、検出された物体の数を得る。
ステップS305では、物体検出部204は、所定の終了条件を満たすか否かを判定し、処理を終了させるか否かを判断する。所定の終了条件は、例えば、特性値が閾値を超過する(上回る/下回る)であることである。ここで、特性値とは、「検出器により検出された物体の検出個数」や「演算上限」である。演算上限とは、「修正処理の計算に要した時間」や、「S304〜S307の処理の繰り返し回数」であり得る。例えば、最終的に検出される物体の所定個数を「0」にしたいのであれば検出数を特性値として閾値を「1」に設定する。なお、終了する条件は、複数の特性値の組み合わせにより規定しても良い。
S305で終了すると判定がなされた場合は、式(2)のI’(すなわち修正パターンが加算された画像データ)を出力する。出力先はインターフェース105を介してネットワーク108上の不図示の記憶装置でも良いし、HDD103でも良い。S305で終了すると判定がなされなかった場合は、S306へ処理を移行する。
修正パターンδの初期値は「0」であるから、S304の最初の実行(1回目のループ)ではI’=Iである。すなわち、画像取得部201で取得した画像Iに対して検出処理が行われることになる。検出処理で検出される物体が画像I中に存在する場合、必然的にステップS306へ移行することになる。
ステップS306では、検出修正処理部205は、修正パターンを更新する。まず、修正設定取得部202から修正設定データを取得する。そして物体検出部204から画像Iと修正パターンδを取得し、修正パターンδを更新する。具体的には、物体検出器の物体検出能力を式(3)により定義して、これを低下させるように修正パターンを更新する。
式(3)は修正処理がなされた画像I+δについて物体検出した場合の、すべての検出修正対象クラス、全ての検出箇所に関する信頼度の総和を示している。そのため、式(3)の数値が低いほど、物体が検出される可能性が低くなる。そこで、式(3)のロス関数を低下させるために、式(3)をδで微分して、その微分と逆方向にδを更新する。具体的には式(4)で表すようにδを更新する。
なおSign()は符号関数であり,引数が正の場合は「+1」,負の場合は「−1」を戻り値として返す関数である。符号関数を導入する理由は、デジタル画像の画素値は多くの場合、8ビット整数値(0〜255)をとるため、その修正量δも整数である必要があるためである。なお、画像が浮動小数で定義されている場合などは、符号関数は不要である。なお式(4)の微分は、関数fと、関数fの画像Iに関する微分∂f/∂Iを用いて、バックプロパゲーションによりを計算することが好適である。
ステップS307では、検出修正処理部205は、修正パターンの強度を調整する。このステップでは、修正パターンが人間の閲覧に影響が出ない程度に、修正パターンの画素値を所定の範囲に抑える処理を施す。具体的には式(4)で更新したδを式(5)の如く修正する。
式(5)のV(x,y)は修正パターンの許容範囲を示し、画像中の位置x,yに依存して値を変えるように設定する。すなわち、位置に依存して修正パターンにおける修正強度を抑制する。具体的には、S304の画像検出処理で物体が検出されなかった画像領域では修正パターンを更新する必要がないため、V(x,y)を小さく設定する。一方、物体が検出された領域ではV(x,y)を、修正設定取得部202で得た許容修正強度まで大きく設定する。
修正パターンの許容範囲V(x,y)は、許容修正強度をVmaxと表記すると式(6)で算出できる。式(6)の関数M(x,y)は物体検出された領域では「1」,非検出の領域では「0」となるよう設定するマスク関数である。
なお、許容範囲V(x,y)の算出方法は式(6)に限定されるものではない。人間の閲覧に影響が出にくくするため、次の手法で算出してもよい。
図4は、マスク画像の算出処理を説明する図である。図4(a)に示すように領域401、402で物体が検出されたとする。このとき、更新後の修正パターンを図4(b)のようすると、これらのパターン間の境界が画像I’において目立つ可能性がある。そのため、境界が目立たないようなマスク画像を算出することが画像I’における画質劣化を抑えるうえでより望ましい。
図4(c)は図4(a)中の軸603に沿ってマスク関数の値をプロットしたグラフである。図4(c)では、境界において「0」から「1」に急激に値が変化しているため、境界が目立つことになる。一方、図4(d)のように値が緩やかに変化するようにマスク関数を設定すれば境界が目立たないようにできる。そのため、図4(d)のようにマスク関数を設定した後、式(6)により許容範囲V(x,y)を求めても良い。なお、なお、境界領域における修正パターンの強度(マスク強度)の変化は図4(d)に示すものに限定されず、不連続性が低減されるような任意のものが利用可能である。
S307が終了すると、S304に処理が移行し、更新された修正パターンδを加算した画像Iに対して、物体検出部204により再び物体検出処理がなされる。再び物体が検出された場合は検出された物体の領域に基づいて修正パターンが更新される。S304〜S307の繰り返しにより、最終的に検出された物体の数が「0」になるか、S305で述べた所定の終了条件を満たせば、画像I’を出力し、処理を終了する。上述したように、画像I’は、画像Iに対して、1回以上の更新により最終的に導出された修正パターンδを重畳した画像である。
以上説明したとおり第1実施形態によれば、画像Iに対して修正パターンδを重畳した画像I’を生成する。特に、画像I内の物体が検出された領域に対してより強い修正を行うようような修正パターンδを導出する。これにより、第三者(botなど)による画像解析によるプライバシー侵害を好適に低減可能な画像I’を生成することが可能となる。また、物体が存在する画像領域は一般的に画像周波数が高いため、当該画像領域に対してはより強い修正が行われた場合であっても人間による閲覧においては影響が少ないという利点がある。
(第2実施形態)
第2実施形態では、第1実施形態で説明した画像処理装置におけるユーザビリティを向上させるためのユーザーインターフェース(UI)について説明する。特に、表示制御によりインタラクティブな操作を可能とするグラフィカルユーザインタフェース(GUI)について説明する。
第2実施形態では、第1実施形態で説明した画像処理装置におけるユーザビリティを向上させるためのユーザーインターフェース(UI)について説明する。特に、表示制御によりインタラクティブな操作を可能とするグラフィカルユーザインタフェース(GUI)について説明する。
装置構成(図1、図2)や動作(図3)は第1実施形態と同様である。ただし、修正設定取得部202は、出力装置107であるディスプレイ、タッチパネルなどの表示部における表示の制御を行い、物体検出器データ及び修正パラメータを設定・取得するよう構成されている。
図6は、表示部に表示されるGUIの例を示す図である。図6では、画像データの表示に対して修正設定ウィンドウ600が重畳して表示している状態を示している。なお、このとき修正設定ウィンドウ600を透過表示としてもよい。図6に示すように、検出修正処理を施す対象である画像と、修正設定ウィンドウと、を同時に表示することが好適である。以下に述べるように、同時表示により、修正設定を更新した際の影響を各種の方法で画像に反映し、視覚的に確認することができる。なお、ここでは重畳表示としているが、並列表示としてもよい。また、修正設定ウィンドウ700の設定を音声コントロールにより確認・更新できるようにして、画像を見ながら音声入力により設定を変更しても良い。
図7は、修正設定データを表示・設定するUIの例を示す図である。修正設定ウィンドウ700は、図6では矩形として略記している修正設定ウィンドウ600に対応している。以下では、修正設定取得部202が図7に示す修正設定ウィンドウを表示制御して、物体検出器データ及び修正パラメータを設定・取得する方法について述べる。
修正設定取得部202は、予め設定されたデータをHDD103やネットワーク108上の不図示の記憶装置から読み出しても良い。また、図7に示す修正設定ウィンドウのUIを用いて設定・取得しても良い。或いは、一部は予め設定されたデータを読み出し、その他のデータはユーザーインターフェースを用いて設定・取得しても良い。その際は、すでに取得されたデータはユーザーインターフェースの対応する設定領域でデフォルト値として表示することが好適である。
修正設定取得部202は、図5に示される各々のデータを、図7のユーザーインターフェースを用いて設定・取得する。具体的には、物体検出データは設定入力領域701、検出閾値は設定入力領域707、修正対象クラスは設定入力領域705、許容修正強度は設定入力領域708、演算上限は設定入力領域709で設定を受け付け取得する。以下では、図7の各要素について更に詳細に説明する。
設定入力領域701には、複数の物体検出器(物体検出アルゴリズム)の識別名がラジオボタンと共に表示されている。ユーザーはラジオボタンを指定することにより対応する物体検出器を選択可能である。物体検出器が選択されると、選択された物体検出器を具体的或いは象徴的に表した画像が表示領域704に表示される。これにより、選択した検出器の特徴を視覚的に理解することができる。例えば、物体検出器がニューラルネットワークである場合は計算グラフを図示するなどネットワークアーキテクチャを具体的に提示しても良い。なお物体検出器の数が多くて一度にすべてを表示できない場合はドロップダウンリストで表示しても良い。
また、物体検出器が選択された場合、当該物体検出器により画像に対して物体検出を実行し、検出結果に基づいて図6の画像を修正表示することが好適である。例えば図6に示されるように、検出された各物体を囲う破線の枠を表示し、枠の付近に信頼度と物体クラスIDを表示することが好適である。また、物体検出器の選択に同期して、設定入力領域705に表示する当該物体検出器で検出可能な修正対象クラスを更新してもよい。
なお、最新の物体検出器データを保存・提供するサーバーをネットワーク108上に設け、修正設定取得部202は当該サーバーから修正設定データを取得するよう構成してもよい。すなわち、設定入力領域701を表示する際、ネットワーク108を介してサーバーにアクセスし、設定入力領域701に表示されるべき物体検出器の更新の有無を確認する。そして、新しく利用可能な物体検出器があれば通知702を表示する。新しい物体検出器が利用可能であれば、ボタン703を押下可能にし、押下されると設定入力領域701に新しい物体検出器の識別名を追加表示する。さらに当該新しい物体検出器に対応する物体検出器データをサーバーからHDD103にダウンロードする。また、ディスク容量の都合等で、利用可能な全ての物体検出器データをHDD103に保存することが出来ない場合は、必要な物体検出器データのみを選択的に取得するよう構成してもよい。
図10は、利用可能な検出器を表示・選択するUIの例を示す図である。ユーザーがウィンドウ1000の入力エリア1001に物体の識別名(物体の種別)を入力すると、画像処理装置100はサーバーと通信を行う。そして、当該物体を検出可能な物体検出器のリストが表示選択エリア1002に選択可能な形式で表示される。ユーザーが更新ボタン1003を押下することにより、選択された物体検出器データがサーバーからダウンロードされる。かかる動作により、画像処理装置100は、必要な物体検出器を見分け、そのデータを取得することができる。なお、不要なダウンロードを低減するため、すでにHDD103に保存されている物体検出器については選択不可能な形式で表示するよう構成してもよい。
設定入力領域705では、検出修正の対象となるクラスの選択を受け付ける種別受付をする。図7では、ユーザは、チェックボックスによるクラスIDの指定によりクラスを選択する。クラスが選択された場合、現在検出修正の対象となっている物体が視覚的に分かるように図6の画像を修正表示することが好適である。例えば、検出修正の対象であるクラスの物体を囲う枠を実線で表示する。
設定入力領域707では、物体検出器が物体検出したとみなす信頼度の検出閾値をスライダーバーを動かすことにより設定する。この信頼度はS305における検出閾値そのものである。検出閾値が更新された場合、現在の画像において検出閾値以上の信頼度を有する物体が存在することを視覚的に分かるように図6の画像を修正表示することが好適である。例えば、検出閾値以上の信頼度を有する物体の物体クラスID及び信頼度を赤文字や太字で強調表示するとよい。図6では、検出閾値として80%が設定され、左下側の3つの物体(3人の人間)が検出閾値以上であることがわかるよう強調表示されている。もちろん、物体を囲う枠を点滅させたり、その他の方法で強調を表現したりしても良い。
設定入力領域708では、許容修正強度をスライダーバーを動かすことにより設定する。許容修正強度とは、検出修正処理を施す画像の最大画素値に対する修正パターンの画素値の許容割合である。図7のようにパーセントで指定しても良いし、修正パターンの画素値の取り得る範囲を直接指定する方法でも良い。
設定入力領域709では、図3に示したS304〜S307の修正処理のループにかかる処理の演算上限時間を設定する。なお、最大ループ回数を設定するよう構成してもよい。或いは演算に要するコストを金額に換算して表示しても良い。その際は、時間当たりのコストを別途設定しておくとよい。
修正設定ウィンドウ700を介して図5の修正設定データが設定された後、図6に示す検出修正処理スタートのボタン601の押下により図3に示す処理が開始されることになる。特にS302の修正設定データの取得では、修正設定ウィンドウ700を介して設定された値が読み出される。修正検出処理が終了すると、修正パターンが加えられた検出修正処理済の画像に更新される。さらに、更新された画像に対する検出枠や信頼度などの物体検出結果も併せて表示する事が好適である。更に、計算能力に余裕がある場合などは、設定値の変更をリアルタイムに検出修正処理に反映させ、画像を更新してもよい。
以上説明したとおり第2実施形態によれば、インタラクティブな操作を可能とするUIを設けることにより、画像修正のユーザビリティを向上させることができる。
(第3実施形態)
第3実施形態では、第2実施形態の図6及び図7で示したUIをスマートフォン等のモバイルデバイス向けに修正したUIについて説明する。
第3実施形態では、第2実施形態の図6及び図7で示したUIをスマートフォン等のモバイルデバイス向けに修正したUIについて説明する。
図9は、検出修正処理の対象領域を設定するUIの例を示す図である。表示領域902には、検出修正処理の対象となる画像が表示される。表示領域900には、検出修正のための設定ボタンが配置される。それぞれの設定ボタンには所定の処理がプリセットされており、ユーザーは、1回タップするだけでユーザーは検出修正設定を済ませることができる。表示領域900に表示するボタン(アイコン)には、それぞれのボタンを押下した際の結果の画像を象徴的或いは具体的に表示することが好適である。例えば、図9の表示領域900には、修正パターンの強度を4段階(open,light,mid,high)の中から指定する4つのアイコンを例示的に示している。また、検出されている物体を含む領域で検出修正処理を行った画像をプレビュー画像としてボタンに表示するよう構成してもよい。
更に、現在選択されているプリセット設定でどの程度検出を防ぐことができるかを表示領域901で通知することが好適である。表示される数値としては、「検出修正処理あり」での検出数を「検出修正処理無し」での検出数で割った割合を表示することが好適である。もちろん、現在選択されているプリセット設定で検出される物体を枠で囲う表示などを併せて行ってもよい。
以上説明したとおり第3実施形態によれば、特にスマートフォン等のモバイルデバイスで画像修正を行う際のユーザビリティを向上させることが可能となる。
(第4実施形態)
上述の実施形態では修正設定取得部202で取得した検出修正対象クラスの全てを対象として物体検出修正処理を施す形態について説明した。例えば、第2実施形態では修正対象クラスの設定入力領域705において「人間」と指定すると画像中の「人間」の領域の全てを対象として修正処理を行った。第4実施形態では、画像中の選択された領域に対してのみ修正処理を行う形態について説明する。
上述の実施形態では修正設定取得部202で取得した検出修正対象クラスの全てを対象として物体検出修正処理を施す形態について説明した。例えば、第2実施形態では修正対象クラスの設定入力領域705において「人間」と指定すると画像中の「人間」の領域の全てを対象として修正処理を行った。第4実施形態では、画像中の選択された領域に対してのみ修正処理を行う形態について説明する。
第4実施形態における画像処理装置は、修正設定取得部202の挙動と図3(S302,S304,S306)における処理が第1実施形態と異なる。特別な記述がない場合、他の処理は第1実施形態と同じである。
ステップS302では、修正設定取得部202は、修正設定データに加えて、修正対象領域データを取得する。修正対象領域データは、修正パターンを加算する対象となる画像中の部分領域を示すデータである。例えば、修正設定取得部202は、図7に示す修正設定ウィンドウ700におけるボタン706の押下に伴い、図6のGUIを表示する。このとき、UI部品(修正設定ウィンドウ600,ボタン601など)を非表示にして、画像の全面が表示されるようにするとよい。そして、検出枠を選択可能な様態で表示し、ユーザー操作(マウスクリックやタップ)により修正対象となる1以上の物体の検出枠の選択を受け付ける。
図8は、選択領域を示すターゲットマスクの例を示す図である。例えば図6において中央下側の2つの検出枠(2人の人間の領域)が選択された場合の検出対象領域データは、図8(a)のようになる。図8(a)において、白色で示す領域は選択された検出枠の内部領域に相当し、検出修正処理の対象となる領域である。修正対象領域データは、画像中の位置x,yに関するターゲットマスク関数T(x,y)としてRAM102に保持すれば良い。T(x,y)の値は、修正対象の領域で「1」,それ以外の領域で「0」となるように設定される。
もちろん、表示されている画像に対する領域描画操作により検出修正処理の対象となる領域の指定を受け付けてもよい。例えば、マウスやタップにより所望の領域(例えば2人の人間を含む領域)を囲む操作を受け付ける。図8(b)は、囲む方法により領域指定された検出対象領域データの例を示す図である。図8(b)も、中央の2人の人間を含む領域が修正対象領域として指定されている。
ステップS304では、物体検出部204は、画像Iに修正パターンδを加えて画像I’を算出する。そして、画像I’に対してターゲットマスク関数を乗算して得られる画像I”に対して検出器により物体検出を行う。画像中の位置をx,y、チャネルをcと表記すると、検出器が処理する画像I”は式(7)のように表すことが出来る。式(7)では検出対象領域ではない領域は画素値が「0」となる。画像I”に対する検出処理自体は第1実施形態と同様である。
ステップS306では、検出修正処理部205は、検出修正の対象となる領域で、修正パターンを更新する。修正パターン最適化のために使用するロス関数は、第1実施形態の式(3)で定義されるロス関数を、修正対象領域に限定した式(8)で定義される。
さらに修正パターンの更新にかかる第1実施形態の式(4)は式(9)によって代替する。
式(9)により修正パターンの更新は修正対象領域でのみでなされることになる。
S307の処理が終了するとS304に処理が移行し、入力画像Iと更新された修正パターンδを加算した画像にターゲットマスク関数Tを乗算した画像に対して、再び物体検出処理がなされる。なおも物体が検出された場合は、検出された物体の領域に基づいて修正パターンが更新される。最終的に、検出された物体の数が「0」になるか、第1実施形態のS305で述べた所定の終了条件を満たすことになった場合、処理が完了し画像が出力される。
なお、上述の説明ではターゲットマスクT(x,y)を「0」か「1」のどちらかをとる関数として扱ったが、「0」〜「1」の小数としてファジーな修正対象領域を設定してもよい。なお、修正パターンは整数値であるため式(9)を以下の式(10)によって代替する。
以上説明したとおり第4実施形態によれば、検出を防ぐ物体/領域を個別に設定して画像を修正することができる。
(第5実施形態)
第5実施形態では、2つ以上の物体検出器に対する物体検出修正処理を行う形態について説明する。第5実施形態における画像処理装置は、修正設定取得部202の挙動と図3(S302,S304,S306)における処理が第1実施形態と異なる。特別な記述がない場合、他の処理は第1実施形態と同じである。
第5実施形態では、2つ以上の物体検出器に対する物体検出修正処理を行う形態について説明する。第5実施形態における画像処理装置は、修正設定取得部202の挙動と図3(S302,S304,S306)における処理が第1実施形態と異なる。特別な記述がない場合、他の処理は第1実施形態と同じである。
ステップS302では、修正設定取得部202は、修正設定ウィンドウ700を介して修正設定データを取得する。このとき、第2実施形態では設定入力領域701においてラジオボタンにより1つの物体検出器の選択を受け付けたが、第5実施形態では複数の物体検出器を選択できるようにチェックボックスによる選択を受け付けるよう構成するとよい。また、表示領域704には、選択された複数の検出器を象徴的に表したピクチャを表示する。設定入力領域705には、各々の検出器が対象とするクラスIDをすべて表示する。なお、どのクラスIDがどの検出器により検出対象となされているか分かりやすいように表示するとよい。例えば、設定入力領域701に表示される物体検出器の識別名と、設定入力領域705のクラスIDの文字色を同一とするとよい。
ステップS304では、物体検出部204は、選択された複数の物体検出器により物体検出を行う。以降、一例として2つの物体検出器(以下では検出器A,Bとする)に対する処理を述べるが、3つ以上の物体検出器に対して同様に適用可能である。
物体検出器A,Bはそれぞれ式(11)のfA,fBで定義する。式(11)の意味は式(1)と同様である。
ここで検出器AとBで検出対象が異なると、式(11)のPAがPBと異なる物体に対する検出信頼度を表す場合がある。例えば、検出器Aが{人間、犬}を検出対象とし、検出器Bが{人間、猫}を対象とする場合、PA2は犬の検出信頼度を表すのに対してPB2は猫の検出信頼度を表すことになる。そこで、仮想的に検出器A,Bともに{1:人間、2:犬、3:猫}が検出できるものとして、クラスラベルを統一する。そして、検出器Aに関してはPA3は常に「0」,検出器Bに関してはPB2は常に「0」としておく。このようにすることでロス関数のクラスラベルの混同、ひいては、別種の物体を混同して検出修正処理を施してしまう過誤を防ぐことができる。
ステップS306では、検出修正処理部205は、修正パターンを更新する。修正パターン最適化のために定義するロス関数は第1実施形態の式(2)で定義されるロス関数を、複数の検出器に拡張した式(12)で定義する。
ここでdは検出器の番号であり、Pdkはd番目の検出器のクラスkに関する検出信頼度である。上述のようにクラスラベルを統一してあるため、クラスを混同することなくロス関数を定義することができる。なお、式(13)のようにロス関数に重み関数W(n,d)を導入することで、特定の検出器、特定のクラスについて修正の強さを調整できるようにしても良い。その際は、対応する設定項目を修正設定ウィンドウ700に表示して重み関数を設定・取得する事が好適である。
以上説明したとおり第5実施形態によれば、複数の物体検出器による物体検出を防止可能とするよう画像を修正することができる。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
201 画像取得部; 202 修正設定取得部; 203 初期化部; 204 物体検出部; 205 検出修正処理部
Claims (10)
- 画像に含まれる物体を検出する物体検出手段と、
前記物体検出手段による物体の検出を妨害するために前記画像に重畳されることになるマスク画像を生成する生成手段と、
前記画像に対して前記マスク画像を重畳した合成画像を生成する合成手段と、
を有し、
前記生成手段は、前記画像において物体が存在する第1の領域におけるマスク強度が該画像において物体が存在しない第2の領域のマスク強度よりも高くなるように前記マスク画像を生成する
ことを特徴とする画像処理装置。 - 前記物体検出手段による前記画像に対する物体の検出結果に基づいて前記第1の領域を指定する領域指定手段を更に有する
ことを特徴とする請求項1に記載の画像処理装置。 - 前記第1の領域の指定をユーザから受け付ける領域指定手段を更に有する
ことを特徴とする請求項1に記載の画像処理装置。 - 前記生成手段は、所定の条件を満たすまで前記第1の領域におけるマスク強度の修正を繰り返し実行する
ことを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。 - 前記所定の条件は、
前記物体検出手段による前記合成画像に対する物体の検出個数が所定個数を下回ることと、
前記マスク強度の修正の繰り返し回数が所定の回数を上回ることと、
前記マスク強度の修正の時間が所定の上限時間を上回ることと、
の少なくとも1つである
ことを特徴とする請求項4に記載の画像処理装置。 - 前記生成手段は、更に、前記第1の領域と前記第2の領域との境界領域におけるマスク強度の不連続性を低減するように該境界領域におけるマスク強度を修正する
ことを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。 - 前記物体検出手段における1以上の物体検出アルゴリズムを選択する選択手段を更に有する
ことを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。 - 検出の対象となる物体の種別を受け付ける種別受付手段と、
複数の物体検出アルゴリズムの中から前記種別受付手段で受け付けた種別の物体を検出可能な1以上の物体検出アルゴリズムを抽出する抽出手段と、
を更に有する
ことを特徴とする請求項7に記載の画像処理装置。 - 物体検出部による物体の検出個数が低減された画像を生成する画像処理方法であって、
対象画像に重畳されることになるマスク画像を生成する生成工程と、
前記対象画像に対して前記マスク画像を重畳した合成画像を生成する合成工程と、
を含み、
前記生成工程では、前記対象画像において物体が存在する第1の領域におけるマスク強度が該対象画像において物体が存在しない第2の領域のマスク強度よりも高くなるように前記マスク画像を生成する
ことを特徴とする画像処理方法。 - コンピュータを、請求項1乃至8の何れか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018193516A JP2020061081A (ja) | 2018-10-12 | 2018-10-12 | 画像処理装置および画像処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018193516A JP2020061081A (ja) | 2018-10-12 | 2018-10-12 | 画像処理装置および画像処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020061081A true JP2020061081A (ja) | 2020-04-16 |
Family
ID=70220815
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018193516A Pending JP2020061081A (ja) | 2018-10-12 | 2018-10-12 | 画像処理装置および画像処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020061081A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024005160A1 (ja) * | 2022-06-30 | 2024-01-04 | 本田技研工業株式会社 | 画像処理装置、画像処理方法、画像処理システム、およびプログラム |
JP7422621B2 (ja) | 2020-07-03 | 2024-01-26 | 株式会社日立製作所 | 認識管理装置、認識管理システム及び認識管理方法 |
-
2018
- 2018-10-12 JP JP2018193516A patent/JP2020061081A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7422621B2 (ja) | 2020-07-03 | 2024-01-26 | 株式会社日立製作所 | 認識管理装置、認識管理システム及び認識管理方法 |
WO2024005160A1 (ja) * | 2022-06-30 | 2024-01-04 | 本田技研工業株式会社 | 画像処理装置、画像処理方法、画像処理システム、およびプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102410328B1 (ko) | 얼굴 융합 모델 트레이닝 방법, 장치 및 전자 기기 | |
JP6374556B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
US10296803B2 (en) | Image display apparatus, image display method, and computer program product | |
US9858698B2 (en) | Text resizing within an embedded image | |
CN114981836A (zh) | 电子设备和电子设备的控制方法 | |
JP2020061081A (ja) | 画像処理装置および画像処理方法 | |
US10635920B2 (en) | Information processing apparatus, information processing method and storage medium | |
KR102636558B1 (ko) | 전자 장치, 행동 인스턴스 생성 방법 및 기록 매체 | |
US10057315B2 (en) | Communication support system, information processing apparatus, control method, and storage medium that display an output image obtained by superposing a reference image over a captured image | |
US10497103B2 (en) | Information processing apparatus, information processing system, information processing method, and recording medium | |
KR101922978B1 (ko) | 입력 영상과 출력 영상의 교차 열람을 지원하는 방법 및 이를 이용한 장치 | |
CN113380385A (zh) | 一种图像显示方法、装置、设备及存储介质 | |
CN108702441A (zh) | 图像处理设备、图像处理系统及程序 | |
KR20220116928A (ko) | 라벨링 방법 및 이를 위한 컴퓨팅 장치 | |
US10554907B2 (en) | Improving static image quality when overlaying a dynamic image and static image | |
CN116543075B (zh) | 图像生成方法、装置、电子设备及存储介质 | |
KR102422202B1 (ko) | 이미지에 왜곡 효과를 적용하기 위한 전자 장치 및 그의 동작 방법 | |
WO2021149169A1 (ja) | 施術支援装置、施術支援方法、及びコンピュータ読み取り可能な記録媒体 | |
CN113703622B (zh) | 显示界面处理方法、装置、电子设备和存储介质 | |
US20230336864A1 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP2023026293A (ja) | 情報処理装置、情報処理システム、情報処理方法、及びプログラム | |
JP2017156982A (ja) | 画像変換プログラム及び画像変換装置並びに画像変換方法 | |
WO2021042600A1 (zh) | 一种图像处理方法、装置、终端设备及介质 | |
CN114546576A (zh) | 显示方法、显示装置、电子设备和可读存储介质 | |
JP2021056545A (ja) | 情報処理装置およびその制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |