JPWO2019150649A1 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JPWO2019150649A1
JPWO2019150649A1 JP2019568575A JP2019568575A JPWO2019150649A1 JP WO2019150649 A1 JPWO2019150649 A1 JP WO2019150649A1 JP 2019568575 A JP2019568575 A JP 2019568575A JP 2019568575 A JP2019568575 A JP 2019568575A JP WO2019150649 A1 JPWO2019150649 A1 JP WO2019150649A1
Authority
JP
Japan
Prior art keywords
image
pixel value
foreground
convolution
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019568575A
Other languages
English (en)
Other versions
JP6963038B2 (ja
Inventor
海斗 笹尾
海斗 笹尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Publication of JPWO2019150649A1 publication Critical patent/JPWO2019150649A1/ja
Application granted granted Critical
Publication of JP6963038B2 publication Critical patent/JP6963038B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

特定オブジェクトを高速に検出・識別することが可能な技術を提供する。前景抽出部201が、入力画像の背景領域に対応する位置の画素値として0(背景領域を示す値)を設定し、入力画像の前景領域に対応する位置の画素値として入力画像上の画素値を設定した前景抽出画像を生成し、ディープラーニング部202が、前景抽出部201により生成された前景抽出画像に対して畳み込みニューラルネットワーク処理を行って、特定オブジェクトを検出又は識別する。

Description

本発明は、入力画像に含まれる特定オブジェクトを検出又は識別する画像処理装置および画像処理方法に関する。
近年、ディープラーニングを用いた処理が盛んに行われている。例えば、入力画像に含まれる特定オブジェクト(例えば、人や動物などの生物、ビルや電柱などの構造物、乗り物全般、商品、癌などの病気)の検出・識別が実現されており、監視カメラや車載カメラなどへの適用が期待されている。このような機能は人件費の削減や利益向上に役立ち、また製品に組み込むことで高機能化を図ることができ、製品販売の促進にも繋がるため、多くの企業が高い関心を抱いている。
国際公開第2017/047494号
ディープラーニングを用いた処理は、高精度な結果が期待される半面で、大量の計算コストが発生する課題がある。また、画像・映像に対する処理では、ディープラーニングを用いない場合でも、大量の乗算・加算が発生する(例えば、特許文献1参照)。近年では、局所領域の関連性に着目して、計算コストを抑えつつ、効率的に特徴量を抽出するCNN(Convolutional Neural Network;畳み込みニューラルネットワーク)を用いた手法がよく用いられるが、依然として計算量が多いという課題が残る。
本発明は、上記のような従来の事情に鑑みて為されたものであり、特定オブジェクトを高速に検出・識別することが可能な技術を提供することを目的とする。
上記の目的を達成するために、本発明では、画像処理装置を以下のように構成した。
すなわち、入力画像に含まれる特定オブジェクトを検出又は識別する画像処理装置において、前景抽出手段が、前記入力画像の背景領域に対応する位置の画素値として背景領域を示す値を設定し、前記入力画像の前景領域に対応する位置の画素値として前記入力画像上の画素値を設定した前景抽出画像を生成し、オブジェクト認識手段が、前景抽出手段により生成された前記前景抽出画像に対して畳み込みニューラルネットワーク処理を行って特定オブジェクトを検出又は識別することを特徴とする。
このように、入力画像から背景領域を除去(例えば黒塗り)した前景抽出画像に対して畳み込みニューラルネットワーク処理を行うことで、畳み込みニューラルネットワーク処理において背景領域に対する計算を省略することができ、特定オブジェクトを検出・識別する処理の高速化を実現できる。しかも、背景領域の影響を抑えることができるので、特定オブジェクトの検出・識別をより高精度に行うことが可能となる。
ここで、一構成例として、前記オブジェクト認識手段は、複数であるN層の畳み込み層を持つ畳み込みニューラルネットワーク処理部を有し、各畳み込み層で、入力された画像に基づいてマスク画像を生成する処理と、前記マスク画像に対して畳み込み演算を行う処理と、前記畳み込み演算の結果にバイアスを加算する処理とを行い、第1の畳み込み層には、前記前景抽出画像が入力され、第n(ただし、1<n≦N)の畳み込み層には、第(n−1)の畳み込み層による処理結果の画像が入力され、第Nの畳み込み層による処理結果の画像に基づいて、特定オブジェクトの検出又は識別を行う構成としてもよい。
この場合、前記マスク画像を生成する処理は、入力された画像における着目画素の周囲に、背景領域を示す値を持つ画素である背景画素が所定数を超えて存在する場合に、前記マスク画像における前記着目画素に対応する位置の画素値として背景領域を示す値を設定し、前記背景画素が前記所定数を超えて存在しない場合に、前記マスク画像における前記着目画素に対応する位置の画素値として前景領域を示す値を設定することで、前記マスク画像を生成し、前記畳み込み演算を行う処理は、前記マスク画像に対してフィルタを用いて所定のスキャン順に畳み込み演算を行い、前記マスク画像における前記フィルタの中心位置の画素値が背景領域を示す値であれば、その位置での畳み込み演算を行わず、その位置の畳み込み演算の結果の画素値として背景領域を示す値を設定することが好ましい。また更に、前記バイアスを加算する処理は、前記畳み込み演算を行う処理の結果のうちの背景領域を示す値を持つ画素に対しては、バイアスを加算しないことが好ましい。
本発明によれば、特定オブジェクトの検出・識別において不要となる背景領域についての計算量を削減することができるので、特定オブジェクトを高速に検出・識別することが可能となる。
本発明に係る画像処理装置を備えた映像監視システムの構成例を示す図である。 図1の映像監視システムにおける画像処理部の構成例を示す図である。 図2の画像処理部における前景抽出部の処理内容を説明する図である。 図2の画像処理部におけるディープラーニング部の処理内容を説明する図である。 図4のCNN部における畳み込み層の計算方法を説明する図である。
本発明の一実施形態について、図面を参照して説明する。
図1には、本発明に係る画像処理装置を備えた映像監視システムの構成例を示してある。映像監視システムは、ハードウェア資源としてCPU(Central Processing Unit)などのプロセッサやメモリを備えた電子計算機システムにより構成され、それぞれの機能が実行されるようになっている。なお、プロセッサとして、DSP(Digital Signal Proce
ssor)、FPGA(Field Programmable Gate Array)、GPU(Graphics Processing U
nit)などを用いてもよい。
本例の映像監視システムは、撮像装置101と、画像処理装置110と、記録装置109と、発報装置107と、表示出力装置108とを備える。また、画像処理装置110は、映像取得部102と、画像処理部103と、データ通信部104と、記録制御部105と、表示制御部106とを備える。
撮像装置101は、1台以上のTVカメラなどで構成され、監視対象となるエリアを撮像する。
映像取得部102は、撮像装置101または記録装置109から得られる信号を映像(画像データ)として取得する。
画像処理部103は、映像取得部102で取得した映像を入力として、画像処理により特定オブジェクトを検出・識別する。
記録制御部105は、画像処理部103で検出・識別した結果に基づいて、映像の記録制御や、記録映像の圧縮率や記録間隔の制御などを行う。
記録装置109は、記録制御部105による制御に従って、映像取得部102により取得された映像を記録・保持する。
データ通信部104は、画像処理部103で検出・識別した結果を発報装置107に送信する。また、ネットワーク上の他の装置(例えば、監視センタ)との通信も行える。
発報装置107は、画像処理部103で検出・識別した結果を音声や光などでユーザに知らせる。
表示制御部106は、映像取得部102で取得した映像、画像処理部103で検出・識別した結果、または記録装置109に保存された情報の表示を制御する。
表示出力装置108は、表示制御部106による制御に従って、映像取得部102で取得した映像、画像処理部103で検出・識別した結果、または記録装置109に保存された情報を表示する。
映像取得部102においては、撮像装置101からのリアルタイムの映像信号や、画像データが記録されている記録装置109からの映像信号に基づいて、1次元、2次元または3次元配列の画像データを入力画像として取得する。この入力画像において、ノイズやフリッカなどの影響を低減するために、前処理として、平滑化フィルタや輪郭強調フィルタ、濃度変換などの処理を施してもよい。また、用途に応じて、RGBカラーやYUV、モノクロなどのデータ形式を用いてもよい。さらには、計算コストの低減のために、所定の大きさで画像データに縮小処理を施してもよい。
図2には、画像処理部103の構成例を示してある。画像処理部103は、映像取得部102で取得された入力画像から前景を抽出した前景抽出画像を生成する前景抽出部201と、前景抽出部201で生成された前景抽出画像に対してディープラーニングを用いた処理を行うディープラーニング部202とを備える。
前景抽出部201は、入力画像の背景領域に対応する位置の画素値として背景領域を示す値を設定し、入力画像の前景領域に対応する位置の画素値として入力画像上の画素値を設定した前景抽出画像を生成する。
ディープラーニング部202は、前景抽出画像に対してディープラーニングを用いた処理(具体的には、畳み込みニューラルネットワーク処理)を行って、特定オブジェクトの検出又は識別を行う。
以下、前景抽出部201およびディープラーニング部202の処理内容について、特定オブジェクトとして人を検出する場合を例にして説明する。なお、以下の例では、背景領域を示す値を0とし、前景領域を示す値を1として説明する。
図3を用いて、前景抽出部201の処理内容について説明する。
まず、入力画像である着目画像301と、着目画像301のt1フレーム前の画像302とを用いて、これら画像の差分を計算し、差分が閾値T1以上となる位置の画素値を着目画像301と同じ位置の画素値とし、閾値T1未満となる位置の画素値を0として、第1の差分画像304を生成する。
同様に、着目画像301と、着目画像301のt2フレーム後の画像303とを用いて、これら画像の差分を計算し、差分が閾値T2以上となる位置の画素値を着目画像301と同じ位置の画素値とし、閾値T2未満となる位置の画素値を0として、第2の差分画像305を生成する。
その後、第1の差分画像304と第2の差分画像305とを用いて、これらの画像の論理積を計算し、その結果を前景抽出画像306として生成する。
ここで、t1とt2は同じ数値でもよく、異なる数値でもよい。また、T1とT2は同じ数値でもよく、異なる数値でもよい。
なお、これらの処理の代わりに、あらかじめ基準画像を用意しておき、基準画像と着目画像301を用いて差分を計算し、差分が閾値以上となる位置の画素値を着目画像301と同じ位置の画素値とし、閾値未満となる位置の画素値を0として、前景抽出画像306を生成してもよい。また、前景抽出画像306を生成する処理は、これらの処理に限定されず、他の処理により前景抽出画像306を生成してもよい。
次に、図4を用いて、ディープラーニング部202の処理内容について説明する。
ここでは、前景抽出部201で生成した前景抽出画像306を、ディープラーニング部202が有するCNN部401に入力し、CNN部401により畳み込みニューラルネットワーク処理を行って、入力画像の前景領域が人(特定オブジェクト)であるか否かを示す処理結果402を取得する。なお、前景抽出画像306から動領域のみを切り出してCNN部401に入力してもよい。CNN部401のネットワーク構造は任意であり、複数であるN層の畳み込み層が含まれた構造であればよい。
CNN部401が有するN層の畳み込み層では、それぞれ、入力された画像に基づいてマスク画像を生成する処理と、マスク画像に対して畳み込み演算を行う処理と、畳み込み演算の結果にバイアスを加算する処理とが行われる。また、最初に処理を行う第1の畳み込み層には、前景抽出画像306が入力され、その後に処理を行う第n(ただし、1<n≦N)の畳み込み層には、第(n−1)の畳み込み層による処理結果の画像が入力される。そして、第Nの畳み込み層による処理結果の画像に基づいて、特定オブジェクトの検出又は識別が行われる。
図5を用いて、CNN部401における畳み込み層の計算方法について説明する。
畳み込み層の入力を前景抽出画像306としたとき、はじめにマスク画像501を生成する。具体的には、前景抽出画像306の着目画素の周囲kに画素値=0となる画素数が閾値T3を超えて存在する場合には、対応するマスク画像501上の値を0とする。反対に、前景抽出画像306の着目画素の周囲kに画素値=0となる画素数が閾値T3以下の場合には、対応するマスク画像501上の値を1とする。ここで、kは、対象畳み込み層のフィルタサイズとする。また、マスク画像501は、入力チャネル数毎に生成される。
次に、生成したマスク画像501を参照して、フィルタ502を用いて畳み込みの計算を行う。このとき、フィルタ502の中心位置を決定し、ラスタスキャン順に畳み込みを計算するが、この中心位置がマスク画像501上で0であれば、その位置での畳み込み計算を行わず、0を畳み込みの結果として出力する。したがって、畳み込み処理の計算量が減少し、処理の高速化を実現できる。また、通常は最後にバイアスを加算し、次の畳み込み層への入力とするが、上記の位置でのバイアスを0とする(つまり、バイアスを加算しない)ことで、同様な計算量の削減が複数の層で可能となる。
この計算量の削減の効果をシミュレーションにより確認する。入力をRGBカラーの100×100の画像とし、3チャネルの入力を受け付ける3×3のフィルタを持つ10個の特徴マップを出力する畳み込み層を有するCNN部を備え、入力画像1チャンネルからマスク画像を生成した場合に、マスク画像の全体の20%が0になったと仮定する。このとき、従来であれば約270万回の乗算と約240万回の加算が必要となるが、図5のような計算を行うことで、約216万回の乗算と約192万回の加算で済む。このように、畳み込み処理の計算量を大幅に削減することができる。また、前景のみに着目することで、特定オブジェクトの検出・識別の精度の向上にも繋がる。
なお、図3〜図5では、人の検出を例にしたが、画像処理部103はCNNを用いた構造であれば他の事例にも適用することができる。このため、人や動物などの生物、ビルや電柱などの構造物、乗り物全般、商品、癌などの病気といった種々の特定オブジェクトを高速かつ高精度に検出・識別することが可能となる。
以上のように、本例の画像処理装置では、前景抽出部201が、入力画像の背景領域に対応する位置の画素値として0(背景領域を示す値)を設定し、入力画像の前景領域に対応する位置の画素値として入力画像上の画素値を設定した前景抽出画像を生成し、ディープラーニング部202が、前景抽出部201により生成された前景抽出画像に対して畳み込みニューラルネットワーク処理を行って、特定オブジェクトを検出又は識別する構成となっている。
このように、入力画像から背景領域を除去(例えば黒塗り)した前景抽出画像に対して畳み込みニューラルネットワーク処理を行うことで、畳み込みニューラルネットワーク処理において背景領域に対する計算を省略することができ、特定オブジェクトを検出・識別する処理の高速化を実現できる。しかも、背景領域の影響を抑えることができるので、特定オブジェクトの検出・識別をより高精度に行うことが可能となる。
ここで、ディープラーニング部202は、複数であるN層の畳み込み層を持つCNN部401を有し、各畳み込み層で、入力された画像に基づいてマスク画像を生成する処理と、マスク画像に対して畳み込み演算を行う処理と、畳み込み演算の結果にバイアスを加算する処理とを行う。第1の畳み込み層には、前景抽出画像が入力され、第n(ただし、1
<n≦N)の畳み込み層には、第(n−1)の畳み込み層による処理結果の画像が入力され、第Nの畳み込み層による処理結果の画像に基づいて、特定オブジェクトの検出又は識別を行うよう構成されている。
そして、マスク画像を生成する処理では、入力された画像における着目画素の周囲に、背景画素(画素値=0の画素)が所定数を超えて存在する場合に、マスク画像における着目画素に対応する位置の画素値として0(背景領域を示す値)を設定し、背景画素が所定数を超えて存在しない場合に、マスク画像における着目画素に対応する位置の画素値として1(前景領域を示す値)を設定することで、マスク画像を生成する。
また、畳み込み演算を行う処理では、マスク画像に対してフィルタを用いてラスタスキャン順に畳み込み演算を行う。このとき、マスク画像におけるフィルタの中心位置の画素値が背景領域を示す値であれば、その位置での畳み込み演算を行わず、その位置の畳み込み演算の結果の画素値として0(背景領域を示す値)を設定する。
また、バイアスを加算する処理では、畳み込み演算を行う処理の結果のうちの背景画素に対しては、バイアスを加算しない。
このような構成により、畳み込み処理の計算量を大幅に削減できるだけでなく、背景領域の除去による計算量の削減効果が複数の畳み込み層のそれぞれで得られる。
なお、上記の例では、背景領域を示す値を0とし、前景領域を示す値を1としたが、これらの値は任意であり、他の値を背景領域を示す値や前景領域を示す値として用いても構わない。
また、上記の例では、マスク画像に対してフィルタを用いてラスタスキャン順に畳み込み演算を行っているが、スキャン順は任意であり、他のスキャン順で畳み込み演算を行っても構わない。
ここで、本発明に係るシステムや装置などの構成としては、必ずしも以上に示したものに限られず、種々な構成が用いられてもよい。
また、本発明は、例えば、本発明に係る処理を実行する方法や方式、そのような方法や方式をプロセッサやメモリ等のハードウェア資源を有するコンピュータにより実現するためのプログラム、そのプログラムを記憶する記憶媒体などとして提供することも可能である。
本発明は、入力画像に含まれる特定オブジェクトを検出又は識別する画像処理装置に利用することができる。
101:撮像装置、 102:映像取得部、 103:画像処理部、 104:データ通信部、 105:記録制御部、 106:表示制御部、 107:発報装置、 108:表示出力装置、 109:記録装置、 110:画像処理装置、 201:前景抽出部、 202:ディープラーニング部、 301:着目画像、 302:着目画像のt1フレーム前の画像、 303:着目画像のt2フレーム後の画像、 304:第1の差分画像、 305:第2の差分画像、 306:前景抽出画像、 401:CNN部、 402:処理結果、 501:マスク画像、 502:フィルタ

Claims (5)

  1. 入力画像に含まれる特定オブジェクトを検出又は識別する画像処理装置において、
    前記入力画像の背景領域に対応する位置の画素値として背景領域を示す値を設定し、前記入力画像の前景領域に対応する位置の画素値として前記入力画像上の画素値を設定した前景抽出画像を生成する前景抽出手段と、
    前景抽出手段により生成された前記前景抽出画像に対して畳み込みニューラルネットワーク処理を行って特定オブジェクトを検出又は識別するオブジェクト認識手段とを備えたことを特徴とする画像処理装置。
  2. 請求項1に記載の画像処理装置において、
    前記オブジェクト認識手段は、
    複数であるN層の畳み込み層を持つ畳み込みニューラルネットワーク処理部を有し、
    各畳み込み層で、入力された画像に基づいてマスク画像を生成する処理と、前記マスク画像に対して畳み込み演算を行う処理と、前記畳み込み演算の結果にバイアスを加算する処理とを行い、
    第1の畳み込み層には、前記前景抽出画像が入力され、
    第n(ただし、1<n≦N)の畳み込み層には、第(n−1)の畳み込み層による処理結果の画像が入力され、
    第Nの畳み込み層による処理結果の画像に基づいて、特定オブジェクトの検出又は識別を行うことを特徴とする画像処理装置。
  3. 請求項2に記載の画像処理装置において、
    前記マスク画像を生成する処理は、入力された画像における着目画素の周囲に、背景領域を示す値を持つ画素である背景画素が所定数を超えて存在する場合に、前記マスク画像における前記着目画素に対応する位置の画素値として背景領域を示す値を設定し、前記背景画素が前記所定数を超えて存在しない場合に、前記マスク画像における前記着目画素に対応する位置の画素値として前景領域を示す値を設定することで、前記マスク画像を生成し、
    前記畳み込み演算を行う処理は、前記マスク画像に対してフィルタを用いて所定のスキャン順に畳み込み演算を行い、前記マスク画像における前記フィルタの中心位置の画素値が背景領域を示す値であれば、その位置での畳み込み演算を行わず、その位置の畳み込み演算の結果の画素値として背景領域を示す値を設定することを特徴とする画像処理装置。
  4. 請求項3に記載の画像処理装置において、
    前記バイアスを加算する処理は、前記畳み込み演算を行う処理の結果のうちの背景領域を示す値を持つ画素に対しては、バイアスを加算しないことを特徴とする画像処理装置。
  5. 入力画像に含まれる特定オブジェクトを検出又は識別する画像処理方法において、
    前記入力画像の背景領域に対応する位置の画素値として背景領域を示す値を設定し、前記入力画像の前景領域に対応する位置の画素値として前記入力画像上の画素値を設定した前景抽出画像を生成するステップと、
    前記前景抽出画像に対して畳み込みニューラルネットワーク処理を行って特定オブジェクトを検出又は識別するステップとを有することを特徴とする画像処理方法。
JP2019568575A 2018-01-30 2018-09-28 画像処理装置および画像処理方法 Active JP6963038B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018013169 2018-01-30
JP2018013169 2018-01-30
PCT/JP2018/036366 WO2019150649A1 (ja) 2018-01-30 2018-09-28 画像処理装置および画像処理方法

Publications (2)

Publication Number Publication Date
JPWO2019150649A1 true JPWO2019150649A1 (ja) 2020-12-17
JP6963038B2 JP6963038B2 (ja) 2021-11-05

Family

ID=67479025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019568575A Active JP6963038B2 (ja) 2018-01-30 2018-09-28 画像処理装置および画像処理方法

Country Status (2)

Country Link
JP (1) JP6963038B2 (ja)
WO (1) WO2019150649A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7446756B2 (ja) 2019-10-02 2024-03-11 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2024013068A (ja) * 2022-07-19 2024-01-31 オムロン株式会社 被写体検出装置、被写体検出方法及び被写体検出プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016095701A (ja) * 2014-11-14 2016-05-26 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
JP2016191979A (ja) * 2015-03-30 2016-11-10 エヌ・ティ・ティ・コムウェア株式会社 感性評価装置、感性評価方法、およびプログラム
JP2017191501A (ja) * 2016-04-14 2017-10-19 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016095701A (ja) * 2014-11-14 2016-05-26 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
JP2016191979A (ja) * 2015-03-30 2016-11-10 エヌ・ティ・ティ・コムウェア株式会社 感性評価装置、感性評価方法、およびプログラム
JP2017191501A (ja) * 2016-04-14 2017-10-19 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JP6963038B2 (ja) 2021-11-05
WO2019150649A1 (ja) 2019-08-08

Similar Documents

Publication Publication Date Title
US10943145B2 (en) Image processing methods and apparatus, and electronic devices
WO2020192483A1 (zh) 图像显示方法和设备
KR20230013243A (ko) 프레임에서 타겟 오브젝트를 위한 고정된 크기 유지
US10872262B2 (en) Information processing apparatus and information processing method for detecting position of object
US10979622B2 (en) Method and system for performing object detection using a convolutional neural network
EP4109392A1 (en) Image processing method and image processing device
EP3709266A1 (en) Human-tracking methods, apparatuses, systems, and storage media
JP6240199B2 (ja) 画像における対象物の識別方法及び装置
US20210166400A1 (en) Method and system for generating a tri-map for image matting
CN110176024B (zh) 在视频中对目标进行检测的方法、装置、设备和存储介质
Sadgrove et al. Real-time object detection in agricultural/remote environments using the multiple-expert colour feature extreme learning machine (MEC-ELM)
JP2018170003A (ja) ビデオ中のイベントの検出装置、方法及び画像処理装置
JP7419080B2 (ja) コンピュータシステムおよびプログラム
WO2020000382A1 (en) Motion-based object detection method, object detection apparatus and electronic device
CN109447022B (zh) 一种镜头类型识别方法及装置
Wang et al. Skip-connection convolutional neural network for still image crowd counting
JP6963038B2 (ja) 画像処理装置および画像処理方法
CN107578053B (zh) 轮廓提取方法及装置、计算机装置及可读存储介质
KR20160037480A (ko) 지능형 영상 분석을 위한 관심 영역 설정 방법 및 이에 따른 영상 분석 장치
CN108960130B (zh) 视频文件智能处理方法和装置
KR101592087B1 (ko) 배경 영상의 위치를 이용한 관심맵 생성 방법 및 이를 기록한 기록 매체
EP4332910A1 (en) Behavior detection method, electronic device, and computer readable storage medium
CN110019951B (zh) 一种生成视频缩略图的方法及设备
US9798932B2 (en) Video extraction method and device
KR20230162010A (ko) 이미지들 및 비디오로부터 반사 특징들을 제거하기 위한 실시간 기계 학습-기반 프라이버시 필터

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211012

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211014

R150 Certificate of patent or registration of utility model

Ref document number: 6963038

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150