JP7272625B2 - 動画像処理方法及び動画像処理装置 - Google Patents
動画像処理方法及び動画像処理装置 Download PDFInfo
- Publication number
- JP7272625B2 JP7272625B2 JP2019001491A JP2019001491A JP7272625B2 JP 7272625 B2 JP7272625 B2 JP 7272625B2 JP 2019001491 A JP2019001491 A JP 2019001491A JP 2019001491 A JP2019001491 A JP 2019001491A JP 7272625 B2 JP7272625 B2 JP 7272625B2
- Authority
- JP
- Japan
- Prior art keywords
- moving image
- machine learning
- exposure
- pattern
- compressed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Transforming Light Signals Into Electric Signals (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
高空間解像度で高フレームレートな動画像は、実際に何が起きているのかを分析するために有用である。通常、このような動画像は、ハイスピードカメラで撮像される。ハイスピードカメラは、センサからの読み出しを高速に行うため、画素毎にバッファを設ける他、アナログデジタル(AD)変換の時間を短縮するために並列のAD変換器を搭載している。このような特殊なセンサは非常に高価であり、回路が複雑になることからフォトトランジスタの面積が減少するため感度が悪くなる問題もある。そこで、高空間解像度で高フレームレートな動画像を取得する手段の一つとして圧縮センシングを用いた手法が提案されてきた(非特許文献1~4)。
まず、本実施の形態における動画像処理システムについて図10を参照しながら説明する。図10は、実施の形態における動画像処理システム300の機能構成の一例を示すブロック図である。
(1)センシング層から再構成層に向かう処理を行うForward時には、センシング層では2値化された重みである2値化露光パターンを用い、再構成層では連続値重みを用いる。
(2)誤差逆伝播により勾配を求める。
(3)求めた勾配を用いてネットワーク全体の連続値重みを更新する。
(4)更新された連続値重みを、ハードウェアへの実装上の制約を考慮しながら2値化する。これにより、センシング層で使用する2値化重みを更新する。
[実験例1]DNNの機械学習
以下の手順により、DNNの機械学習を行った。ネットワーク(DNN)のサイズは、再構成を行うパッチのサイズを基に決定された。本実験例では、非特許文献1に記載の露光を制御できるプロトタイプのセンサを用いた。そのため、パッチのサイズをWp=Hp=8、T=16(図13のWp×Hp×T)とした。また、再構成層の隠れ層は、4層とした。訓練データ(訓練動画像)は、以下の実験例における全ての手法で同様のものを用いた(非特許文献7)。この訓練データは、映像要約のベンチマーク用のデータセットで、この中の20本の動画像から16フレームをランダムに4シーンずつ取り出し、それぞれに回転(90°、180°、270°)と反転を行ったものを用いた。このようにして用意した829,440パッチを用いて、上記の露光パターンと再構成のためのデコーダとを同時に最適化するネットワーク(DNN)の機械学習をend-to-endで行った。当該機械学習は、ミニパッチサイズ200で250epoch行った。
SBEセンサとRCEセンサとを実装対象と仮定して、動画像の圧縮及び再構成のシミュレーション実験を行った。実験に供した動画像は、空間解像度256×256の16フレームから構成される動画像14本であった。再構成した動画像の再構成品質は、ピーク信号対雑音比(PSNR)により評価した。図16は、実験例2の結果を示す図である。
続いて、本実施の形態で開示したDNNを実機に適用して、動画像の圧縮及び再構成を行った。使用したセンサは、実際に画素毎に露光を制御できるセンサ(特許文献2:特開2015-216594号公報)である。動画像の撮影は、15フレーム毎秒(fps:Frames per second)で行い、16サブフレームを再構成するため、再構成動画像は240fps相当である。圧縮センシング層において最適化した露光パターンを用いて動画像を撮影し、再構成アルゴリズムを最適化した再構成層を用いて圧縮動画像から動画像を再構成した。当該センサは、ローリングシャッタ方式であるため、センサ上のピクセルの位置により(ここでは、行毎に)露光パターンを適用する順番が異なる。当該センサのセンササイズは、672×512画素である。当該センサで撮影された動画像を、16サブフレームに分割するため、512÷16=32行毎に各フレームに適用する露光パターンの順番が異なる。そのため、行毎にそれぞれ別のデコーダを用いる必要がある。図17は、実験例3の結果を示す図である。図17の左端の画像は、実際に撮影した動画像であり、左から2番目の画像は、圧縮動画像であり、右側の2つの画像は、再構成した動画像を構成する16つのサブフレームのうちの3つのサブフレームの画像である。当該センサを搭載したカメラで、メトロノームの重りが左右に揺れている様子を撮影した。図17に示すように、再構成動画像を構成する16サブフレームのうち3つのサブフレームの画像から、メトロノームの重りが左右に揺れている様子が確認できた。
本実施の形態では、圧縮ビデオセンシングにおける露光パターンのハードウェアへの実装上の制約を考慮し、人工知能の一例としてDNNを用いて動画像を構成する各フレームに適した露光パターンの選出と、圧縮動画像から動画像を再構成するためのデコーダの再構成アルゴリズムとを同時に最適化する動画像処理方法を開示した。上記の実験例では、SBEセンサ及びRCEセンサの2つセンサへの実装上の制約について本開示の動画像処理方法を用いて動画像の圧縮及び再構成を行った。上記の実験例の結果から、本開示の動画像処理方法を用いると、実装されるハードウェアの制約に関わらず、撮影される動画像の各フレームに最適な露光パターンを選出することができ、さらに、圧縮動画像から再構成された未知の動画像の品質もより向上されることが確認できた。
実施の形態では、モノクロの動画像を圧縮及び再構成する手法について説明したが、変形例1に係る動画像処理方法は、カラーの動画像に対して適用可能である。以下、実施の形態と異なる点を中心に説明する。
本実験例では、RCEセンサを実装対象と仮定して、カラー動画像の圧縮及び再構成のシミュレーション実験を行った。実験に供した動画像は、空間解像度256×256の16フレームから構成される動画像25本であった。再構成した動画像の再構成品質は、ピーク信号対雑音比(PSNR)により評価した。図21は、実験例4の結果の一例を示す図である。図21の左端の図(Original Video)は、実験に供したカラー動画像の一例である。ここでは、図21の左端に示すOriginal Videoをシミュレーション実験に供した結果を例に挙げて、シミュレーション実験の内容及び結果について説明する。
実施の形態及び変形例1では、動画像の圧縮及び再構成の手法について説明したが、変形例2では、圧縮動画像から被写体の動きを検出するための手法について説明する。以下、実施の形態及び変形例1と異なる点を中心に説明する。図22は、変形例2に係る動画像処理方法の一例を示すフローチャートである。図23は、変形例2における機械学習ステップの構成の一例を示す図である。
符号化露光画像から直接行動を認識するシミュレーション実験を行った。
シミュレーション実験には、KTH Actionデータセット(非特許文献23)を用いた。図24は、KTH Actionデータセットにおける各行動クラスの1シーンを示す図である。図24に示すように、当該データセットは、 「walking」、「jogging」、「running」、「boxing」、「hand waving」、「hand clapping」の6種類の行動クラスに分類されている。各行動クラスは、撮影に使用するカメラの位置を固定し、25人の被験者が6種類の行動を4つのシナリオで実行している様子を撮影したものである。各行動クラスの動画像は、平均4秒であり、画像解像度が600dpiのグレースケールのビデオ(以下、動画像)である。これらの動画像は、25fpsで撮像され、160×120の空間解像度にダウンサンプリングされている。非特許文献23の分割手法に従い、被験者25人を、ニューラルネットワークの訓練で8人、検証で8人、実験で9人に分割した。
上記のデータセットの各動画像は、学習時に、前後のフレーム同士で重複するデータが存在しないように選択した16フレームのビデオクリップに分割し、112×112の空間解像度にランダムに切り抜きを行った。下記の(d)に示す手法は、このビデオクリップを入力として機械学習を行ったニューラルネットワーク(NN)を使用して上記の行動クラスの識別を行った手法である。下記の(a)~(c)に示す手法は、このビデオクリップに対してそれぞれ異なる圧縮処理を施して得られた圧縮動画像を入力として学習を行ったニューラルネットワークを使用して上記の行動クラスの識別を行った手法である。下記(a)~(d)において、ビデオクリップの圧縮処理は、それぞれ、ビデオクリップの情報量の1/16倍に圧縮されるように実施した。
本開示で開示する圧縮方法でビデオクリップを圧縮した。より具体的には、ビデオクリップを構成する各フレームに最適な符号化露光パターンを適用し、符号化露光画像を生成した。この符号化露光画像をCNNの入力とした。符号化露光パターンは、サイズが8×8であり、各ビデオクリップのピクセルを1/16で露光するランダムなパターンを使用した。動画像に対して16分の1のフレームレートで、各ピクセルの露光時間は符号化露光パターンによって変化する。例えば、図26の(a)に示すように、符号化露光画像では、単一のフレームの画像であり、当該単一のフレームのあるピクセルにおける露光は、例えば1フレーム中に数回行われている。この実験で用いた符号化露光パターンでは、露光時間は動画像の1フレームを撮影する露光時間と等しい。
時間情報を1枚の画像に圧縮する単純な手法として、ビデオクリップを時間方向に平均化した平均化画像を用いた。この平均化画像をCNNの入力とした。図26の(b)に示すように、平均化画像のあるピクセルは、1フレームの間、露光されている。そのため、平均化画像は、16分の1のフレームレートで露光時間が16倍の動画像の1フレームと等しくなる。
時間情報を持たない画像と比較するため、1フレームの画像と比較した。ビデオクリップを構成する16フレームのうち1フレームを選択し、これをCNNの入力とした。図26の(c)に示すように、1フレーム画像は、16分の1のフレームレートで露光時間が等しい動画像の1フレームと等しい。
従来手法の3次元畳み込みネットワーク(C3D:Convolution 3D)に相当する手法として、ビデオクリップを入力とし、C3D(非特許文献19)で学習した。C3Dは、本来RGBの3チャネルであるが、グレースケールの1チャネルに変更し、事前学習なしで学習した。ビデオクリップは全てのフレームにおいて全ピクセルは露光されている。そのため、図26の(d)に示すように、全てのフレームにおいてあるピクセルは各フレームの間露光されている。
上記の(a)~(d)の比較手法を用いてデータセットの全行動クラスを識別したシミュレーション実験の結果を表2に示す。表2の識別精度は、データセットの各行動クラスの識別精度の平均を示している。
実験例5では、16フレームのビデオクリップを識別対象画像として用いたが、実験例6では、ビデオクリップの長さL(以下、フレーム数)を変化させ、動画像を構成するフレーム数が増えた場合に、行動クラスの認識精度がどのように変化するかを確認するシミュレーション実験を行った。図28は、実験例6の結果を示す図である。
変形例2では、ビデオ監視システムにおける行動認識のトレードオフな問題に対し圧縮センシングを適用し、符号化露光カメラにより撮影される単一の画像(いわゆる、圧縮動画像)から2次元のCNNを用いて、圧縮動画像から再構成動画像を生成することなく、直接、人物の行動認識を行う動画像処理方法の一例を説明した。変形例2に係る動画像処理方法の有効性を評価するため、実験例5にてKTH Actionデータセットを用いたシミュレーション実験を行った。実験例5の結果から、変形例2に係る動画像処理方法は、ニューラルネットワークへの入力のデータ量を1/16倍に圧縮しているにもかかわらず、動画像を入力とした3次元のCNN(例えば、C3D)を用いて人物の行動識別を行った場合の識別精度に迫る高い識別精度を達成した。
以上、本開示の1つ又は複数の態様に係る動画像処理方法及び動画像処理装置について、実施の形態に基づいて説明したが、本開示は、この実施の形態に限定されるものではない。本開示の主旨を逸脱しない限り、当業者が思いつく各種変形を実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構成される形態も、本開示の1つ又は複数の態様の範囲内に含まれてもよい。
20 制御部
30 機械学習部
40 再構成部
50 動き情報生成部
60 表示部
70 入力部
80 圧縮動画像生成部
90 露光パターン保持部
100 動画像処理装置
200 カメラ
300 動画像処理システム
Claims (12)
- 2次元状にピクセルが配置されたイメージセンサを用いて時間的及び空間的に間引いた繰り返し露光による撮影を行うことで、撮影された動画像を構成する複数フレームのそれぞれに最適な露光パターンを用いて圧縮された単一の画像である圧縮動画像を生成する圧縮ステップと、
前記圧縮ステップに先立ち、前記イメージセンサを構成するピクセル毎に前記露光の態様を特定する露光パターンを、前記イメージセンサの種類に応じて機械学習によって最適化しておく第1機械学習ステップと、
前記第1機械学習ステップと同時に行われ、前記圧縮動画像から前記動画像を再構成するためのデコーダの再構成アルゴリズムを機械学習によって最適化しておく第2機械学習ステップと、
を含み、
前記圧縮ステップでは、前記第1機械学習ステップによる最適化によって得られた、前記動画像の前記複数フレームのそれぞれに最適な前記露光パターンを用いて前記圧縮動画像を生成する、
動画像処理方法。 - 前記露光パターンは、前記圧縮動画像を構成するフレーム毎に前記イメージセンサを構成するピクセルのうち露光に用いるピクセルを指定した情報である、
請求項1に記載の動画像処理方法。 - さらに、前記圧縮ステップで生成された前記圧縮動画像に対して、前記イメージセンサを構成する全てのピクセルを全てのフレームにおいて露光させた場合に得られる未知動画像を目標として再構成することで、出力動画像を生成する再構成ステップを含む、
請求項1又は2に記載の動画像処理方法。 - 前記第2機械学習ステップでは、前記圧縮動画像を入力とし、前記出力動画像を出力するための人工知能を機械学習し、
前記再構成ステップでは、前記第2機械学習ステップで機械学習された前記人工知能を用いて前記出力動画像を生成する、
請求項3に記載の動画像処理方法。 - 前記人工知能は、ニューラルネットワークであり、前記未知動画像から前記露光パターンに対応する重み係数を用いた演算により前記圧縮動画像を生成するセンシング層と、前記センシング層が生成した前記圧縮動画像を再構成することによって前記出力動画像を生成する再構成層と、を含み、
前記第1機械学習ステップと前記第2機械学習ステップとは、前記センシング層と前記再構成層とを含む前記人工知能に対する教師あり学習によって行われる、
請求項4に記載の動画像処理方法。 - さらに、前記圧縮ステップで生成された前記圧縮動画像が有する時間的及び空間的情報から前記動画像を再構成することなく、前記圧縮動画像から、直接、前記イメージセンサを構成する全てのピクセルを全てのフレームにおいて露光させた場合に得られる未知動画像が示す動きの種類を特定し、特定した前記動きの種類を示す動き情報を生成する動き検出ステップを含み、
前記未知動画像が示す前記動きの種類は、前記未知動画像の行動クラスの種類、又は、前記未知動画像における被写体の動きの種類である、
請求項1又は2に記載の動画像処理方法。 - さらに、前記動き検出ステップに先立ち、前記圧縮動画像を入力とし、前記動き情報を出力するための人工知能を機械学習しておく第3機械学習ステップを含み、
前記動き検出ステップでは、前記第3機械学習ステップで機械学習された前記人工知能を用いて前記動き情報を生成する、
請求項6に記載の動画像処理方法。 - 前記人工知能は、ニューラルネットワークであり、前記未知動画像から前記露光パターンに対応する重み係数を用いた演算により前記圧縮動画像を生成するセンシング層と、前記センシング層が生成した前記圧縮動画像から前記動き情報を生成する動き検出層とを含み、
前記第1機械学習ステップと前記第3機械学習ステップとは、前記センシング層と前記動き検出層とを含む前記人工知能に対する教師あり学習によって行われる、
請求項7に記載の動画像処理方法。 - 前記イメージセンサは、前記ピクセルのそれぞれに対応させて特定の色の光を選択的に通過させるカラーフィルタを含み、
前記圧縮ステップでは、前記カラーフィルタのパターンを時間的及び空間的に変化させた露光による撮影を行うことで、前記圧縮動画像を生成し、
前記第1機械学習ステップでは、さらに、前記圧縮ステップに先立ち、前記カラーフィルタのパターンの時間的及び空間的な変化の態様を特定するカラーフィルタパターンを機械学習によって最適化しておき、
前記圧縮ステップでは、前記第1機械学習ステップによる最適化によって得られたカラーフィルタパターンを用いて前記圧縮動画像を生成する、
請求項1~8のいずれか一項に記載の動画像処理方法。 - 2次元状にピクセルが配置されたイメージセンサを用いて時間的及び空間的に間引いた繰り返し露光による撮影を行うことで、撮影された動画像を構成する複数フレームのそれぞれに最適な露光パターンを用いて圧縮された単一の画像である圧縮動画像を生成するカメラに用いられる動画像処理装置であって、
前記イメージセンサを構成するピクセル毎に前記露光の態様を特定する露光パターンを、前記イメージセンサの種類に応じて機械学習によって最適化しておく第1機械学習部と、
前記第1機械学習部と同時に、前記圧縮動画像から前記動画像を再構成するためのデコーダの再構成アルゴリズムを機械学習によって最適化しておく第2機械学習部と、
前記第1機械学習部による最適化によって得られた、前記動画像の前記複数フレームのそれぞれに最適な露光パターンを前記カメラへ出力する出力部と、
を備える、
動画像処理装置。 - 2次元状にピクセルが配置されたイメージセンサを用いて時間的及び空間的に間引いた繰り返し露光による撮影を行うことで、圧縮動画像を生成する圧縮ステップと、
前記圧縮ステップに先立ち、前記露光の態様を特定する露光パターンを機械学習によって最適化しておく第1機械学習ステップと、
を含み、
前記圧縮ステップでは、前記第1機械学習ステップによる最適化によって得られた露光パターンを用いて前記圧縮動画像を生成し、
前記イメージセンサは、前記ピクセルのそれぞれに対応させて特定の色の光を選択的に通過させるカラーフィルタを含み、
前記圧縮ステップでは、前記カラーフィルタのパターンを時間的及び空間的に変化させた露光による撮影を行うことで、前記圧縮動画像を生成し、
前記第1機械学習ステップでは、さらに、前記圧縮ステップに先立ち、前記カラーフィルタのパターンの時間的及び空間的な変化の態様を特定するカラーフィルタパターンを機械学習によって最適化しておき、
前記圧縮ステップでは、前記第1機械学習ステップによる最適化によって得られたカラーフィルタパターンを用いて前記圧縮動画像を生成する、
動画像処理方法。 - 2次元状にピクセルが配置されたイメージセンサを用いて時間的及び空間的に間引いた繰り返し露光による撮影を行うことで、圧縮動画像を生成するカメラに用いられる動画像処理装置であって、
前記露光の態様を特定する露光パターンを機械学習によって最適化しておく第1機械学習部と、
前記第1機械学習部による最適化によって得られた露光パターンを前記カメラへ出力する出力部と、
を備え、
前記イメージセンサは、前記ピクセルのそれぞれに対応させて特定の色の光を選択的に通過させるカラーフィルタを含み、
前記カメラは、前記カラーフィルタのパターンを時間的及び空間的に変化させた露光による撮影を行うことで、前記圧縮動画像を生成し、
前記第1機械学習部は、さらに、前記圧縮動画像の生成に先立ち、前記カラーフィルタのパターンの時間的及び空間的な変化の態様を特定するカラーフィルタパターンを機械学習によって最適化しておき、
前記出力部は、さらに、前記第1機械学習部による最適化によって得られたカラーフィルタパターンを前記カメラへ出力する、
動画像処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019001491A JP7272625B2 (ja) | 2019-01-08 | 2019-01-08 | 動画像処理方法及び動画像処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019001491A JP7272625B2 (ja) | 2019-01-08 | 2019-01-08 | 動画像処理方法及び動画像処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020113829A JP2020113829A (ja) | 2020-07-27 |
JP7272625B2 true JP7272625B2 (ja) | 2023-05-12 |
Family
ID=71667767
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019001491A Active JP7272625B2 (ja) | 2019-01-08 | 2019-01-08 | 動画像処理方法及び動画像処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7272625B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022145295A1 (ja) * | 2020-12-28 | 2022-07-07 | 富士フイルム株式会社 | 撮像支援装置、撮像装置、撮像支援方法、及びプログラム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140029824A1 (en) | 2012-07-26 | 2014-01-30 | William Marsh Rice University | Methods and systems for video compressive sensing for dynamic imaging |
US20170188039A1 (en) | 2015-12-23 | 2017-06-29 | Sony Corporation | Video encoding and decoding apparatus, system and method |
WO2017173213A1 (en) | 2016-03-31 | 2017-10-05 | Zoll Medical Corporation | Systems and methods of tracking patient movement |
WO2017183448A1 (ja) | 2016-04-19 | 2017-10-26 | ソニー株式会社 | データ処理装置、データ処理方法、プログラム |
JP2018098787A (ja) | 2016-12-08 | 2018-06-21 | 株式会社半導体エネルギー研究所 | 電子機器、及び該電子機器を有するシステム |
JP2022020871A (ja) | 2018-12-06 | 2022-02-02 | パナソニックIpマネジメント株式会社 | 物体認識装置、物体認識方法、およびプログラム |
-
2019
- 2019-01-08 JP JP2019001491A patent/JP7272625B2/ja active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140029824A1 (en) | 2012-07-26 | 2014-01-30 | William Marsh Rice University | Methods and systems for video compressive sensing for dynamic imaging |
US20170188039A1 (en) | 2015-12-23 | 2017-06-29 | Sony Corporation | Video encoding and decoding apparatus, system and method |
WO2017173213A1 (en) | 2016-03-31 | 2017-10-05 | Zoll Medical Corporation | Systems and methods of tracking patient movement |
WO2017183448A1 (ja) | 2016-04-19 | 2017-10-26 | ソニー株式会社 | データ処理装置、データ処理方法、プログラム |
US20190132586A1 (en) | 2016-04-19 | 2019-05-02 | Sony Corporation | Data processing apparatus, data processing method, and program |
JP2018098787A (ja) | 2016-12-08 | 2018-06-21 | 株式会社半導体エネルギー研究所 | 電子機器、及び該電子機器を有するシステム |
JP2022020871A (ja) | 2018-12-06 | 2022-02-02 | パナソニックIpマネジメント株式会社 | 物体認識装置、物体認識方法、およびプログラム |
Non-Patent Citations (1)
Title |
---|
吉田 道隆 MICHITAKA YOSHIDA,Deep Learningによる圧縮ビデオセンシングの再構成 Reconstruction of compressed video sensing by Deep Learning,電子情報通信学会技術研究報告 Vol.117 No.211 IEICE Technical Report,日本,一般社団法人電子情報通信学会 The Institute of Electronics,Information and Communication Engineers,2017年09月08日,第117巻,121-128 |
Also Published As
Publication number | Publication date |
---|---|
JP2020113829A (ja) | 2020-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Iliadis et al. | Deep fully-connected networks for video compressive sensing | |
Singh et al. | Sniper: Efficient multi-scale training | |
Linardos et al. | Simple vs complex temporal recurrences for video saliency prediction | |
Li et al. | No-reference image quality assessment with deep convolutional neural networks | |
Villegas et al. | Learning to generate long-term future via hierarchical prediction | |
US10388009B2 (en) | Machine-learning measurements of quantitative feature attributes | |
Lau et al. | Atfacegan: Single face image restoration and recognition from atmospheric turbulence | |
Xu et al. | Compressed domain image classification using a dynamic-rate neural network | |
Ramirez et al. | LADMM-Net: An unrolled deep network for spectral image fusion from compressive data | |
Tsagkatakis et al. | Goal!! event detection in sports video | |
Okawara et al. | Action recognition from a single coded image | |
Lohit et al. | Rate-adaptive neural networks for spatial multiplexers | |
Krishnan et al. | SwiftSRGAN-Rethinking super-resolution for efficient and real-time inference | |
Karim et al. | Spi-gan: Towards single-pixel imaging through generative adversarial network | |
Szankin et al. | Influence of thermal imagery resolution on accuracy of deep learning based face recognition | |
JP7272625B2 (ja) | 動画像処理方法及び動画像処理装置 | |
Da Costa et al. | Unsupervised domain adaptation for video transformers in action recognition | |
Chandrapala et al. | Invariant feature extraction from event based stimuli | |
Kumawat et al. | Action recognition from a single coded image | |
Hu et al. | Cnn-based deghosting in high dynamic range imaging | |
Wang et al. | Using deep learning to extract scenery information in real time spatiotemporal compressed sensing | |
CN114119428B (zh) | 一种图像去模糊方法和装置 | |
Juefei-Xu et al. | DeepGender2: A generative approach toward occlusion and low-resolution robust facial gender classification via progressively trained attention shift convolutional neural networks (PTAS-CNN) and deep convolutional generative adversarial networks (DCGAN) | |
Khan et al. | Crowd density estimation using imperfect labels | |
Bhattacharya | HybridFaceMaskNet: A novel face-mask detection framework using hybrid approach |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20190204 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211014 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220920 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221018 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230404 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230420 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7272625 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |