JPWO2019135270A1 - 動画像解析装置、動画像解析システム、動画像解析方法、及びプログラム - Google Patents

動画像解析装置、動画像解析システム、動画像解析方法、及びプログラム Download PDF

Info

Publication number
JPWO2019135270A1
JPWO2019135270A1 JP2019563721A JP2019563721A JPWO2019135270A1 JP WO2019135270 A1 JPWO2019135270 A1 JP WO2019135270A1 JP 2019563721 A JP2019563721 A JP 2019563721A JP 2019563721 A JP2019563721 A JP 2019563721A JP WO2019135270 A1 JPWO2019135270 A1 JP WO2019135270A1
Authority
JP
Japan
Prior art keywords
moving image
data
frame
feature data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019563721A
Other languages
English (en)
Other versions
JP7211373B2 (ja
Inventor
泰夫 西口
泰夫 西口
康裕 脇本
康裕 脇本
祐也 田上
祐也 田上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Socionext Inc
Original Assignee
Socionext Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Socionext Inc filed Critical Socionext Inc
Publication of JPWO2019135270A1 publication Critical patent/JPWO2019135270A1/ja
Application granted granted Critical
Publication of JP7211373B2 publication Critical patent/JP7211373B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/168Segmentation; Edge detection involving transform domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
    • H04N19/25Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding with scene description coding, e.g. binary format for scenes [BIFS] compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

動画像解析装置は、動画像を符号化する符号化部と、前記動画像に含まれる第1フレーム、及び第2フレームに対し、前記符号化部による前記動画像が圧縮されて符号化される処理に用いられる第1データ、及び第2データをそれぞれ取得する取得部と、前記第1フレームと前記第1データとに基づいて、前記動画像の特徴を示す第1特徴データを検出し、前記第2フレームと前記第2データとに基づいて、前記動画像の特徴を示す第2特徴データを検出する第1検出部と、前記第1特徴データと、前記第2特徴データとに基づき、前記第1フレームに含まれるオブジェクトを検出する第2検出部と、を有する。

Description

本発明は、動画像解析装置、動画像解析システム、動画像解析方法、及びプログラムに関する。
従来、監視カメラ、テレビ放送用のカメラ、スマートフォン等のカメラ等で撮影した動画像(映像)から、配信に不適切等のオブジェクトを検出する技術が知られている(例えば、特許文献1、2を参照)。
特開2009−049949号公報 国際公開第2016/088583号
しかしながら、従来技術では、オブジェクトを動画像から検出する処理を行う場合、処理に比較的時間がかかるという問題がある。
そこで、一側面では、オブジェクトを動画像から検出する処理を、比較的高速に行うことができる技術を提供することを目的とする。
一つの案では、動画像を符号化する符号化部と、前記動画像に含まれる第1フレーム、及び第2フレームに対し、前記符号化部による前記動画像が圧縮されて符号化される処理に用いられる第1データ、及び第2データをそれぞれ取得する取得部と、前記第1フレームと前記第1データとに基づいて、前記動画像の特徴を示す第1特徴データを検出し、前記第2フレームと前記第2データとに基づいて、前記動画像の特徴を示す第2特徴データを検出する第1検出部と、前記第1特徴データと、前記第2特徴データとに基づき、前記第1フレームに含まれるオブジェクトを検出する第2検出部と、を有する動画像解析装置が提供される。
一側面によれば、オブジェクトを動画像から検出する処理を、比較的高速に行うことができる。
実施形態に係る通信システムの構成例を示す図である。 実施形態に係る動画像解析装置のハードウェア構成例を示す図である。 実施形態に係る撮像端末、動画像配信装置、及び表示端末のハードウェア構成例を示す図である。 実施形態に係る動画像解析装置の構成ブロック図の一例を示す図である。 実施形態に係る動画像配信装置の機能ブロック図の一例を示す図である。 動画像解析装置のオブジェクトを検出する処理の一例を示すフローチャートである。 CTUの一例について説明する図である。 HEVCにおける動きベクトルについて説明する図である。 HEVCにおける動きベクトルについて説明する図である。 シーンデータの一例について説明する図である。 オブジェクトデータの一例について説明する図である。
以下、図面に基づいて本発明の実施形態を説明する。
<システム構成>
図1は、実施形態に係る通信システム1(「動画像処理システム」)の構成例を示す図である。図1において、通信システム1は、撮像端末10−1、10−2、・・・(以下で、それぞれを区別する必要がない場合は、単に「撮像端末10」と称する。)、動画像解析装置20、動画像配信装置30、及び表示端末40−1、40−2、・・・(以下で、それぞれを区別する必要がない場合は、単に「表示端末40」と称する。)を有する。
撮像端末10と動画像解析装置20、動画像解析装置20と動画像配信装置30、及び動画像配信装置30と表示端末40は、それぞれ、例えば、インターネット、携帯電話網、無線LAN(Local Area Network)、またはLAN等のネットワーク50、ネットワーク60、及びネットワーク70により、通信可能な状態で接続されている。
撮像端末10は、例えば、監視カメラ、ビデオカメラ、スマートフォン、または動画像(映像)ファイルサーバ等の情報処理装置(コンピュータ)である。撮像端末10は、カメラにより撮像された動画像と、マイクにより集音された音声とを、所定の方式(「第1の方式」)で符号化する。そして、撮像端末10は、符号化した動画像及び音声を、ストリーミング配信等によりリアルタイムで動画像解析装置20に配信する。または、撮像端末10は、符号化した動画像及び音声をファイルとして蓄積し、所定のタイミングで当該ファイルを動画像解析装置20にアップロードする。
動画像解析装置20は、動画像処理装置21、及び解析装置22を有する。
動画像処理装置21は、例えば、撮像端末10により撮像されて符号化された動画像を、復号し、所定の方式(「第2の方式」)により符号化するトランスコーダである。動画像処理装置21は、撮像端末10から受信した動画像及び音声を復号、及び符号化し、符号化した動画像及び音声を、ストリーミング配信等によりリアルタイムで動画像配信装置30に出力する。または、動画像処理装置21は、符号化した動画像及び音声をファイルとして蓄積し、所定のタイミングで当該ファイルを動画像配信装置30にアップロードする。これにより、撮像端末10から受信した、各種の符号化方式により符号化された動画像を、所定の符号化方式に変換して動画像配信装置30に出力することができる。
また、動画像処理装置21は、動画像を符号化する際に、動画像の特徴を示す特徴データを検出する。なお、特徴データには、物体の位置、物体の移動方向、移動速度など画像処理や推論処理によって得られるデータ、輝度、色、音の変化、音量等が含まれてもよい。
そして、動画像処理装置21は、当該特徴データに基づき、解析装置22にオブジェクトを検出させ、検出させたオブジェクトのデータと、特徴データとを動画像に付加して動画像配信装置30に出力する。
動画像配信装置30は、例えば、動画像処理装置21から受信した動画像及びオブジェクトのデータを用いたAI(Artificial Intelligence)等により、動画像配信、不審者の監視、来客の管理、店舗等のマーケティング、動画像分析等のサービスを提供する。動画像配信装置30は、動画像処理装置21から受信した動画像及び音声を、リアルタイムで表示端末40に配信してもよい。また、動画像配信装置30は、解析装置22により所定のオブジェクトが検出された場合に、当該配信を停止してもよい。
表示端末40は、例えば、スマートフォン、タブレット端末、またはパーソナルコンピュータ等の情報処理装置(コンピュータ)である。表示端末40は、動画像配信装置30から配信された動画像を画面に表示させる。
<ハードウェア構成>
≪動画像解析装置20≫
図2は、実施形態に係る動画像解析装置20のハードウェア構成例を示す図である。図2の動画像解析装置20は、動画像処理装置21、及び解析装置22を有する。
≪動画像処理装置21≫
動画像処理装置21は、それぞれバスBで相互に接続されているドライブ装置200、補助記憶装置202、メモリ装置203、CPU(Central Processing Unit)204、インタフェース装置205、復号回路206、符号化回路207、及びメモリ208等を有する。
動画像処理装置21での処理を実現する動画像処理プログラムは、記録媒体201によって提供される。動画像処理プログラムを記録した記録媒体201がドライブ装置200にセットされると、動画像処理プログラムが記録媒体201からドライブ装置200を介して補助記憶装置202にインストールされる。但し、動画像処理プログラムのインストールは必ずしも記録媒体201より行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置202は、インストールされた動画像処理プログラムを格納すると共に、必要なファイルやデータ等を格納する。
メモリ装置203は、プログラムの起動指示があった場合に、補助記憶装置202からプログラムを読み出して格納する。CPU204は、メモリ装置203に格納されたプログラムに従って動画像処理装置21に係る機能を実現する。インタフェース装置205は、ネットワーク、及び解析装置22に接続するためのインタフェースとして用いられる。
復号回路206、及び符号化回路207は、それぞれ、例えば、LSI(Large Scale Integration)等による回路であり、動画像の復号、及び符号化を行う専用の回路である。符号化回路207は、動画像を符号化する際、符号化のために使用する所定のデータの作成が完了すると、DMA(Direct Memory Access)等の方式により、符号化回路207の内部メモリからメモリ208に当該データを転送して記憶させる。CPU204は、メモリ208に記憶されている当該データを用いて、後述する特徴データを生成する。
なお、記録媒体201の一例としては、CD−ROM、DVDディスク、又はUSBメモリ等の可搬型の記録媒体が挙げられる。また、補助記憶装置202の一例としては、HDD(Hard Disk Drive)又はフラッシュメモリ等が挙げられる。記録媒体201及び補助記憶装置202のいずれについても、コンピュータ読み取り可能な記録媒体に相当する。メモリ208は、メモリ装置203の一部を用いてもよい。
≪解析装置22≫
解析装置22は、例えば、アクセラレータ用のボード(カード)であり、CPU2201、メモリ装置2202、補助記憶装置2203及びインタフェース装置2204等を有する。解析装置22は、PCI Express等のインタフェース規格により、インタフェース装置205を介して動画像処理装置21に接続される。解析装置22を動画像処理装置21に後付け可能な構成とすることにより、例えば、動画像処理装置21による1次解析処理の結果を改善する2次解析処理機能を、後から追加、変更することができる。
≪撮像端末10、動画像配信装置30≫
図3は、実施形態に係る撮像端末10、動画像配信装置30、及び表示端末40のハードウェア構成例を示す図である。以下では、動画像配信装置30を例に説明する。図3の動画像配信装置30は、それぞれバスBで相互に接続されているドライブ装置100、補助記憶装置102、メモリ装置103、CPU104、インタフェース装置105等を有する。
動画像配信装置30での処理を実現する動画像処理プログラムは、記録媒体101によって提供される。動画像処理プログラムを記録した記録媒体101がドライブ装置100にセットされると、動画像処理プログラムが記録媒体101からドライブ装置100を介して補助記憶装置102にインストールされる。但し、動画像処理プログラムのインストールは必ずしも記録媒体101より行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置102は、インストールされた動画像処理プログラムを格納すると共に、必要なファイルやデータ等を格納する。
メモリ装置103は、プログラムの起動指示があった場合に、補助記憶装置102からプログラムを読み出して格納する。CPU104は、メモリ装置103に格納されたプログラムに従って動画像配信装置30に係る機能を実現する。インタフェース装置105は、ネットワークに接続するためのインタフェースとして用いられる。
なお、記録媒体101の一例としては、CD−ROM、DVDディスク、又はUSBメモリ等の可搬型の記録媒体が挙げられる。また、補助記憶装置102の一例としては、HDD(Hard Disk Drive)又はフラッシュメモリ等が挙げられる。記録媒体101及び補助記憶装置102のいずれについても、コンピュータ読み取り可能な記録媒体に相当する。
撮像端末10及び表示端末40のハードウェア構成は、動画像配信装置30と同様でもよい。なお、撮像端末10は、図3に示すハードウェア構成に加えて、動画像を撮影するカメラ(撮像装置)を有する。
<構成>
≪動画像解析装置≫
次に、図4を参照し、動画像解析装置20の構成について説明する。図4は、実施形態に係る動画像解析装置20の構成の一例を示す図である。動画像解析装置20は、復号部211、符号化部212、取得部213、検出部214、出力部215、及び制御部216を有する。また、解析装置22は、解析部221を有する。
復号部211は、図2に示す復号回路206、または動画像処理装置21にインストールされた1以上のプログラムが、動画像処理装置21のCPU204に実行させる処理により実現される。なお、復号部211をCPU204により実現する場合は、図2に示す復号回路206を備えない構成としてもよい。この場合、CPU204をマルチコアのプロセッサとし、復号部211による復号処理と、検出部214による特徴データ(メタデータ)を検出する処理とを異なるコアを用いて並列に処理するようにしてもよい。
また、動画像解析装置20が、ビデオケーブル等を介して、符号化されていないRAWデータの動画像を撮像端末10から受信する場合は、復号部211を有しないようにしてもよい。
符号化部212は、図2に示す符号化回路207を用いて実現される。取得部213は、図2に示すメモリ208を用いて実現される。
検出部214、出力部215、及び制御部216は、動画像処理装置21にインストールされた1以上のプログラムが、動画像処理装置21のCPU204に実行させる処理により実現される。また、解析部221は、解析装置22にインストールされた1以上のプログラムが、解析装置22のCPU2201に実行させる処理により実現される。
なお、動画像解析装置20は、検出部214、出力部215、制御部216、または解析部221を実現する回路を備えてもよい。
復号部211は、撮像端末10から受信した動画像を復号する。
符号化部212は、HEVC(High Efficiency Video Coding)/H.265(以下で「HEVC」と称する。)、またはAVC(Advanced Video Coding)/H.264等の動画像の圧縮規格を用いて、復号部211により復号された動画像の各フレームを圧縮して符号化する。
取得部213は、符号化部212により動画像の各フレームが圧縮されて符号化される処理に用いられているデータをそれぞれ取得する。
検出部214は、動画像の各フレームと、取得部213により取得されたデータに基づいて、撮像端末10から受信した動画像の各フレームの特徴を示す特徴データをそれぞれ検出する。特徴データには、静止物、移動物、人、顔、または車両等の処理対象フレームに含まれる各オブジェクトの種別を示すラベル情報、当該各オブジェクトの領域(輪郭)を示す情報、当該各オブジェクトの動きを示す情報、及び認識された背景の情報等が含まれてもよい。
解析部221は、検出部214により複数のフレームの各々に対して検出された各特徴データと、当該複数のフレームに含まれる第2フレーム(代表フレーム)とに基づいて、第1フレームに含まれるオブジェクトを検出し、検出されたオブジェクトのデータと検出に用いた特徴データとを出力する。
出力部215は、符号化部212により動画像が符号化されたデータと、解析部221により検出されたオブジェクトのデータと、特徴データとを動画像配信装置30に出力する。出力部215から動画像配信装置30への動画像が符号化されたデータとオブジェクトのデータと特徴データの出力は、動画像のフレーム毎に出力してもよいし、複数フレーム分を纏めて出力してもよい。
制御部216は、動画像解析装置20の全体の制御を行う。
≪動画像配信装置≫
次に、図5を参照し、動画像配信装置30の機能構成について説明する。図5は、実施形態に係る動画像配信装置30の機能ブロック図の一例を示す図である。動画像配信装置30は、復号部31、データ処理部32、及び配信制御部33を有する。
復号部31、データ処理部32、及び配信制御部33は、動画像配信装置30にインストールされた1以上のプログラムが、動画像配信装置30のCPU104に実行させる処理により実現される。
復号部31は、必要に応じて動画像処理装置21から受信した動画像、及び音声を復号する。
データ処理部32は、動画像処理装置21から受信したオブジェクトのデータと特徴データ、及び復号部31により復号された動画像を用いて、所定のデータ処理を行う。データ処理部32は、所定のデータ処理として、例えば、より高負荷の画像処理、音声処理、及び推論処理等を行って動画像中のシーンを抽出し、抽出されたシーンや受信したオブジェクトに基づき動画像の配信可否を判断し、判断結果を配信制御部33へ出力する。配信可否の判断においては、オブジェクトの確からしさのスコアが閾値以上の場合に、動画像の配信を停止してもよいし、抽出されたシーンや受信したオブジェクトがあらかじめ設定された配信停止対象に該当する場合に、動画像の配信を停止してもよい。
配信制御部33は、表示端末40に動画像を配信し、表示端末40の画面における動画像の表示を制御する。
なお、データ処理部32による配信可否の判断結果に基づき一部のシーンやオブジェクトにぼかし処理やマスク処理を行い、その後CPU104に符号化処理を実行させた後で配信制御部へ出力することもできる。
<処理>
(オブジェクトを検出する処理)
次に、図6を参照し、動画像解析装置20におけるオブジェクトを検出する処理について説明する。図6は、動画像解析装置20のオブジェクトを検出する処理の一例を示すフローチャートである。なお、以下の処理は、動画像中の各フレームに対して行われる。以下では、動画像中の任意の一フレームを、処理対象フレームと称する。
まず、ステップS1において、動画像処理装置21の符号化部212は、処理対象フレームを圧縮して符号化する処理を行う。
続いて、動画像処理装置21の符号化部212は、当該符号化の処理に用いられるデータを、メモリ208に出力する(ステップS2)。ここで、図2に示す符号化回路207から、メモリ208に、符号化処理に用いられるデータが記憶される。これにより、CPU204が、メモリ208に記憶された符号化処理に用いられるデータを参照することができる。符号化処理に用いられるデータには、例えば、符号化処理が行われる単位である各ブロック(CTU(Coding Tree Unit))のデータ、フレームの縮小画像、動画像において連続する複数のフレーム間の変化を示すデータ(当該各ブロックの動きを示すデータ)、同色の領域を示すデータ、及び当該各ブロックの輪郭のデータ等が含まれてもよい。
なお、符号化部212によるステップS1の符号化処理と、検出部214による検出処理は、並列に実行される。符号化回路207による符号化処理は、専用のハードウェアによる処理のため、例えば、撮像端末10からリアルタイムの動画像をストリーミングで受信した場合に、リアルタイム受信にかかる時間の1/10程度の時間で処理対象フレームに対する処理を完了できる。
続いて、動画像解析装置20の検出部214は、メモリ208に記憶されたデータを用いて、処理対象フレームに対する、動画像の特徴を示す特徴データを検出する(ステップS3)。検出部214は、例えば、ディープラーニング等の機械学習を用いたAIにより、特徴データを検出してもよい。このように、符号化処理に用いられるデータを利用することで、処理対象フレーム毎の特徴データを検出する処理の負荷を大きく削減することができる。
また、ステップS2の処理は符号化処理の途中で行われる。検出部214による検出処理を、動画像のリアルタイム受信にかかる時間内で完了できる程度の処理負荷にすれば、符号化回路207の処理性能が損なわれることなく、特徴データをリアルタイムで検出することができる。
続いて、解析装置22の解析部221は、動画像処理装置21の検出部214により検出された、処理対象フレーム以前の複数のフレームの各々に対する各特徴データに基づいて、オブジェクトを検出する(ステップS4)。なお、解析装置22の解析部221は、当該各特徴データと、当該複数のフレームに含まれる一のフレームとに基づいて、オブジェクトを検出してもよい。この場合、当該一のフレームは、検出部214のAIにより、オブジェクトの種別に関する認識結果のスコアが比較的高く算出されたフレームでもよい。
解析装置22の解析部221は、例えば、ディープラーニング等の機械学習を用いたAIにより、オブジェクトを検出してもよい。または、解析装置22の解析部221は、例えば、複数のフレームの各々に対する各特徴データから、2以上の人物が対面し、一方の人物が他方の人物に対して手を所定の閾値以上の速さで繰り出しており、かつ周囲に観客がいない等の条件を満たす場合に、少なくとも当該一方の人物を、所定のオブジェクト(暴力を振るっている人物)と認識してもよい。解析装置22の解析部221は、所定のオブジェクトらしさの度合いを示すスコアを算出し、算出したスコアを、当該所定のオブジェクトのデータとして出力部215から出力させてもよい。
特徴データに基づいた解析を行うことにより、動画像中の複数のフレームに基づいてオブジェクトを検出する場合と比較して、より高速にオブジェクトを検出できる。
なお、解析装置22の解析部221は、特徴データに加えて、動画像に含まれる各フレームの一部または全部にも基づいて、オブジェクトを検出してもよい。これにより、動画像に含まれる各フレームのみに基づいてオブジェクトを検出する場合と比較して、検出の精度を向上させることができる。
続いて、解析装置22の解析部221は、オブジェクトの領域を示す情報を、動画像処理装置21の符号化部212に出力する(ステップS5)。符号化部212は、以降のフレームの符号化を行う際、当該オブジェクトの領域を、あらかじめ設定した処理あるいは解析部221の指示する処理、例えば、当該フレームの背景等の画像に置換して符号化を行うようにしてもよい。または、当該オブジェクトの領域にぼかし(モザイク)処理を施して符号化を行うようにしてもよい。これにより、当該オブジェクトが写るフレームを出力しないようにすることができる。
続いて、動画像解析装置20の出力部215は、符号化部212により動画像が符号化されたデータと、動画像解析装置20の検出部214により検出された特徴データと、解析部221により検出されたオブジェクトのデータとを動画像配信装置30に出力する(ステップS6)。
なお、ステップS4の処理において、オブジェクトが検出されなかった場合は、出力部215により動画像が符号化されたデータが出力され、処理対象フレームに対する処理が終了する。
<複数のカメラで撮影された動画像を用いる場合の変形例1>
解析装置22の解析部221は、複数の撮像端末10から受信した各動画像の特徴を示す各特徴データ等に基づいて、オブジェクトを検出してもよい。例えば、あらかじめ複数の撮像端末10の各々の位置や取り付け角度が分かっており、撮像端末10−1で撮影された動画像のフレームと特徴データとに基づいてオブジェクトを検出した場合、同時刻に撮像端末10−2で撮影されたフレームにおいても当該オブジェクトを検出したと判定してもよい。
例えば、解析装置22の解析部221が、オブジェクトに比較的近い位置に設置された第1カメラからの特徴データ等に基づいて、当該オブジェクトを検出した場合であるとする。この場合、解析装置22の解析部221は、当該オブジェクトに比較的遠い位置に設置された第2カメラから検出した特徴データ等からは、当該オブジェクトである可能性を示すスコアが比較的低い値が算出されたとしても、当該オブジェクトであると判定する。
<複数のカメラで撮影された動画像を用いる場合の変形例2>
解析装置22の解析部221は、撮像端末10−1で撮影された動画像のフレームと特徴データとに基づいてオブジェクトを検出した場合、以降は、撮像端末10−2で撮影されたフレームを符号化部212でぼかし等の加工した後に符号化させるようにしてもよい。
<特徴データの検出処理の例>
以下で、特徴データを検出する処理の例について説明する。なお、以下の各例は、適宜組み合わせて実施することができる。
≪特徴データの検出処理の例1≫
特徴データの検出処理の例1として、HEVC等の符号化処理中に得られるCTU(Coding Tree Unit)(「符号化される処理に用いられるデータ」、及び「ブロック」の一例。)を用いて、背景以外の構造物、または背景に関する特徴データを比較的高速に検出する例について説明する。
符号化部212は、HEVC等を用いて、動画像中の各フレーム(ピクチャ)の符号化処理を、CTUと称される正方画素ブロックの単位で行う。HEVC等において、フレーム中の各ブロックの大きさは、フレーム画像中の輪郭の存在、及び輪郭の複雑さに応じて決定される。
図7は、CTUの一例について説明する図である。図7に示すように、平坦な背景部分は、比較的大きいブロック(CB:Coding Block)501により分割される。また、物体の輪郭は、比較的小さいブロック502により分割される。
符号化部212は、CTUを決定するブロック分割処理が完了すると、CTUのデータを、メモリ208に格納する。メモリ208に格納されたCTUのデータには、構成する各色成分信号のブロックである各CTB(Coding Tree Block)の階層構造とCBサイズ、及び隣接するCTB等のデータが含まれる。
検出部214は、メモリ208に格納されたCTUのデータを、特徴データとしてもよい。これにより、例えば、CTUのデータである特徴データを用いて、空や壁等の背景と、人や建物等の構造を有する物体とを区別したり、蓄積されているデータから、構図が類似しているデータを抽出したりすることができる。
また、検出部214は、当該CTUのデータを用いて、例えば、画像中の各オブジェクトの領域等を検出し、検出した領域のデータを特徴データとしてもよい。この場合、検出部214は、例えば、人物等を検出対象とする場合、CBのサイズが所定値以下の領域を優先的に検索し、顔を検出する処理を実行してもよい。これにより、例えば、リアルタイムで動画像を解析する場合に、人物等の物体を検出する処理の精度をより向上させるとともに、当該処理をより高速化できる。この場合、人物等を検出するアルゴリズムとしては、公知のアルゴリズムを用いてもよい。また、CTUのデータを用いてCBのサイズが所定値(例えば、16×16)以下の領域のみを検索範囲としてもよい。これにより、従来の画像全体を探索範囲する方法と比較して、より高速に検出できる。
また、検出部214は、例えば、空や道路等の背景を検出対象とする場合、CBのサイズが所定値(例えば、32×32)以上の領域を探索範囲として、背景を検出する処理を実行してもよい。
≪特徴データの検出処理の例2≫
特徴データの検出処理の例2として、符号化処理中に得られる縮小画像(「符号化される処理に用いられるデータ」の一例。)を用いて、物体の動きに関する特徴データを比較的高速に検出する例について説明する。
HEVCやAVC等において、動き補償のために、各フレームの縮小画像(予測画像)が生成される。符号化部212は、動き補償のための縮小画像を生成すると、生成した縮小画像のデータを、メモリ208に格納する。
検出部214は、メモリ208に格納された縮小画像のデータを、特徴データとしてもよい。これにより、動画像配信装置30にて、当該特徴データを、例えば、動き探索等に利用できる。
また、検出部214は、当該縮小画像のデータを用いて、例えば、画像中の各オブジェクトの動き等を検出し、検出した動きのデータを特徴データとしてもよい。この場合、検出部214は、例えば、複数の探索起点領域の候補を求め、複数の候補のなかから類似度の高い探索起点領域を選出し、選出した起点領域を特徴データとする。動画像配信装置30において、特徴データに含まれる探索起点及びその周囲を、等倍画像を用いて細かく探索することができる。
≪特徴データの検出処理の例3≫
特徴データの検出処理の例3として、符号化処理中に得られる、連続する複数のフレーム間の変化を示すデータ(ブロックの動きを示すデータ。「符号化される処理に用いられるデータ」の一例。)を用いて、物体の動きに関する特徴データを比較的高速に検出する例について説明する。
HEVCやAVC等において、動き補償等のために、連続する複数のフレーム間の変化を示すデータが生成される。各フレーム間の変化を示すデータには、例えば、差分、及び動きベクトル等が含まれる。
差分は、今回のフレームに含まれる所定の範囲の各画素の輝度と色差の値と、前回のフレームに含まれる当該所定の範囲の各画素の輝度と色差の値との差分絶対値和(SAD:Sum of Absolute Difference)、差分二乗和(SSD:Sum of Squared Difference)、絶対値変換差分和(SATD:Sum of Absolute Transformed Difference)等である。動きベクトルは、連続する各フレーム間において予測された符号化対象ブロックの移動方向を示すデータである。
また、HEVCやAVC等では、予測ブロック(PU: Prediction Unit)ごとに動き補償予測が行われる。
図8A、及び図8Bは、HEVCにおける動き情報について説明する図である。隣接し合う各予測ブロックは、似たような動きを有すると考えられるため、HEVCでは、予測ブロック毎に別々の動きベクトルを符号化するのではなく、隣接し合う各予測ブロックの動きベクトルを統合して符号化する。図8Aの例では、予測ブロック毎の動きベクトルが矢印801等により示されている。図8Bの例では、隣接し合う各予測ブロックにて統合された動きベクトルが矢印802等により示されている。
符号化部212は、動き補償のための当該各データを生成すると、生成した各データを、メモリ208に格納する。
検出部214は、メモリ208に格納された各データを、特徴データとしてもよい。これにより、動画像配信装置30にて、当該特徴データを、例えば、動き探索等に利用できる。
また、検出部214は、当該各データを用いて、例えば、画像中の各オブジェクトの動き等を検出し、検出した動きのデータを特徴データとしてもよい。この場合、検出部214は、所定数以上の予測ブロックの集合であって、各予測ブロックのサイズが所定値以下である予測ブロックの集合の動きが符号化部212により統合されている場合に、当該集合に含まれる各予測ブロックの領域を優先的に検索するようにしてもよい。これにより、例えば、リアルタイムで動画像を解析する場合に、動いている物体を検出する処理の精度をより向上させるとともに、当該処理をより高速化できる。
≪特徴データの検出処理の例4≫
特徴データの検出処理の例4として、符号化処理中に得られる、フレームの複雑度を示すデータ(「符号化される処理に用いられるデータ」の一例。)を用いて、複雑度に関する特徴データを比較的高速に検出する例について説明する。
HEVCやAVC等のイントラ予測において、1つのフレーム内の輝度、色差のSAD(差分絶対値和)、及びSATD(絶対値変換差分和)等の各データが算出される。
符号化部212は、イントラ予測における当該各データを生成すると、生成した各データを、メモリ208に格納する。検出部214は、メモリ208に格納された各データを、特徴データとしてもよい。
上述した特徴データの検出処理によれば、例えば、監視カメラからの動画像及び音声を監視する監視カメラシステムにおいて、画像中の顔の位置及びサイズ、撮影された人物の認識、人物の年齢や性別の推定情報、人物の服の色やメガネ、帽子、鞄といった所有物等に関する特徴データを検出できる。
また、カメラの設置位置や向き、レンズの画角、歪、特性等が既知である場合や、所定のマーカ等で事前にカメラのキャリブレーションが行われている場合は、撮影された人物の大きさや、カメラからの距離に関する特徴データを検出できる。
また、認識した人や物の動きを追跡し、どのような動きを行ったかという行動または動作に関する特徴データを検出できる。この場合、特徴データには、例えば、顔や体、足の向き、手や足の動き、各関節の位置、(顔の表情)等の情報と、これらを含めて推定した行動や動作などの情報が含まれてもよい。なお、当該情報は、数フレームや数秒毎に検出されるようにしてもよい。
また、複数のカメラによりそれぞれ撮影された動画像により、比較的広範囲における行動を検出し、検出した行動の範囲を特徴データとしてもよい。これにより、人物や物が移動した軌跡をユーザの端末に表示させることができる。
<変形例1>
符号化部212は、図2に示す符号化回路207を用いて実現される代わりに、動画像処理装置21にインストールされた1以上のプログラムが、動画像処理装置21のCPU204に実行させる処理により実現されるようにしてもよい。
<変形例2>
上述した例では、ステップS5の処理において、動画像解析装置20が、ぼかし等の処理を行って符号化する例について説明した。これに代えて、表示端末40が、動画像を復号した後、ぼかし等の処理を行ってから画面に表示させるようにしてもよい。この場合、例えば、動画像配信装置30が、動画像解析装置20から受信した、動画像が符号化されたデータと、オブジェクトのデータとを表示端末40に配信し、表示端末40が、当該オブジェクトの領域をぼかす等の画像処理を行うようにしてもよい。
<変形例3>
動画像処理装置21の検出部214、及び解析装置22の解析部221は、例えば、表示端末40のユーザによる判断結果に基づいて、機械学習を行うようにしてもよい。この場合、検出部214、及び解析部221は、例えば、動画像配信装置30から、表示端末40のユーザによる判断結果を教師有り学習の学習データとして取得し、ディープラーニング等の機械学習を行う。
<変形例4>
動画像配信装置30は、動画像の各フレームに対応付けて、解析装置22の解析部221により検出されたオブジェクト等の情報を記憶してもよい。
図9Aは、シーンデータ901の一例について説明する図である。図9Bは、オブジェクトデータ902の一例について説明する図である。動画像配信装置30で記憶されるシーンデータ901、及びオブジェクトデータ902には、解析装置22の解析部221により検出された、動画像の各フレームに対応付けられたオブジェクト等のデータが記憶される。
図9Aの例では、シーンデータ901には、フレームの区間に対応付けて、オブジェクト等のデータとして、シーン、オブジェクトID、場所、行動、感情等が記憶されている。シーンは、動画像の内容を示す単位であり、当該区間内のオブジェクトの行動、及び各フレーム内の環境の変化に応じて、各シーンに分けられている。オブジェクトIDは、当該区間内のオブジェクトの識別情報である。場所は、当該区間内で撮影されている場所を示す情報である。行動は、当該区間内のオブジェクトの行動を示す情報である。感情は、当該区間内のオブジェクトの感情を示す情報である。
図9Bの例では、オブジェクトデータ902には、オブジェクトIDに対応付けて、名前、年齢、性別等のデータが記憶される。名前は、オブジェクトの名前である。年齢は、オブジェクトの年齢である。性別は、オブジェクトの性別である。なお、オブジェクトには人物だけでは無く、物体も含まれる。解析装置22の解析部221により検出されたオブジェクト等の情報を記憶しておくことにより、例えば、投稿された動画像の分類、及び検索等が容易となる。
<その他>
従来、リアルタイムでユーザから配信される動画に、著作権を侵害するオブジェクト、公序良俗に反するオブジェクト、または暴力を振るっている人物等の不適切なオブジェクトが写っている場合、監視者が目視で確認し、動画の配信を停止していた。
上述した実施形態によれば、動画像が圧縮されて符号化される処理に用いられるデータを用いて、オブジェクトを検出する。これにより、オブジェクトを動画像から検出する処理を、比較的高速に行うことができる。このため、例えば、動画をリアルタイムで配信する場合に、配信に不適切なオブジェクトが写っていることをより高速ないし高精度で検出できる。
上述した実施形態は、画像から人を認識する監視カメラシステム、店舗において顧客が商品を手に取ったか、当該商品を購入したか等を分析するデジタルマーケティングシステム、IP配信システム、被写体の情報を動画像に重畳して表示するAR/VRシステム等にも適用できる。
以上、本発明の実施例について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
動画像解析装置20の各機能部は、例えば1以上のコンピュータにより構成されるクラウドコンピューティングにより実現されていてもよい。また、動画像解析装置20、及び動画像配信装置30を一体の装置として構成してもよい。動画像解析装置20、及び撮像端末10を一体の装置として構成してもよい。この場合、動画像処理装置21は、動画像の復号処理をしなくともよい。撮像端末10または動画像配信装置30の各機能部のうち少なくとも一部を、動画像解析装置20が有するようにしてもよい。
例えば、解析装置22は、動画像処理装置21と同一の筐体に含まれる構成に代えて、独立した装置としてもよいし、動画像配信装置30と同一の筐体に含まれる構成としてもよい。
なお、動画像配信装置30は、「情報処理装置」の一例である。検出部214は、「第1検出部」の一例である。解析部221は、「第2検出部」の一例である。
1 通信システム
10 撮像端末
20 動画像解析装置
21 動画像処理装置
207 符号化回路
208 メモリ
211 復号部
212 符号化部
213 取得部
214 検出部
215 出力部
216 制御部
22 解析装置
221 解析部
30 動画像配信装置
31 復号部
32 データ処理部
33 配信制御部
40 表示端末

Claims (8)

  1. 動画像を符号化する符号化部と、
    前記動画像に含まれる第1フレーム、及び第2フレームに対し、前記符号化部による前記動画像が圧縮されて符号化される処理に用いられる第1データ、及び第2データをそれぞれ取得する取得部と、
    前記第1フレームと前記第1データとに基づいて、前記動画像の特徴を示す第1特徴データを検出し、前記第2フレームと前記第2データとに基づいて、前記動画像の特徴を示す第2特徴データを検出する第1検出部と、
    前記第1特徴データと、前記第2特徴データとに基づき、前記第1フレームに含まれるオブジェクトを検出する第2検出部と、
    を有する動画像解析装置。
  2. 前記第2検出部は、機械学習を用いて、前記オブジェクトを検出する、
    請求項1に記載の動画像解析装置。
  3. 前記符号化部は、前記動画像に含まれる第3フレームにおいて、前記オブジェクトの領域の少なくとも一部を、他の画像に置換して符号化する、またはぼかして符号化する、
    請求項1または2に記載の動画像解析装置。
  4. 前記第1データ、及び前記第2データは、前記符号化部により符号化処理が行われる単位であるブロックのデータ、前記動画像に含まれるフレームの縮小画像、及び前記動画像において連続する複数のフレーム間の変化を示すデータの少なくとも一つを含む、
    請求項1乃至3のいずれか一項に記載の動画像解析装置。
  5. 前記第1特徴データ及び前記第2特徴データは、前記オブジェクトの領域、前記オブジェクトの動き、及び前記オブジェクトの種別を示すデータの少なくとも一つを含む、
    請求項1乃至4のいずれか一項に記載の動画像解析装置。
  6. 動画像処理装置、及び解析装置を有する動画像解析システムであって、
    前記動画像処理装置は、
    動画像を符号化する符号化部と、
    前記動画像に含まれる第1フレーム、及び第2フレームに対し、前記符号化部による前記動画像が圧縮されて符号化される処理に用いられる第1データ、及び第2データをそれぞれ取得する取得部と、
    前記第1フレームと前記第1データとに基づいて、前記動画像の特徴を示す第1特徴データを検出し、前記第2フレームと前記第2データとに基づいて、前記動画像の特徴を示す第2特徴データを検出する第1検出部と、を有し、
    前記解析装置は、
    前記第1特徴データと、前記第2特徴データとに基づき、前記第1フレームに含まれるオブジェクトを検出する第2検出部を有する、
    動画像解析システム。
  7. 動画像解析装置が、
    動画像を符号化する処理と、
    前記動画像に含まれる第1フレーム、及び第2フレームに対し、前記符号化する処理による前記動画像が圧縮されて符号化される処理に用いられる第1データ、及び第2データをそれぞれ取得する処理と、
    前記第1フレームと前記第1データとに基づいて、前記動画像の特徴を示す第1特徴データを検出し、前記第2フレームと前記第2データとに基づいて、前記動画像の特徴を示す第2特徴データを検出する処理と、
    前記第1特徴データと、前記第2特徴データとに基づき、前記第1フレームに含まれるオブジェクトを検出する処理と、
    を実行する、動画像解析方法。
  8. 動画像解析装置に、
    動画像を符号化する処理と、
    前記動画像に含まれる第1フレーム、及び第2フレームに対し、前記符号化する処理による前記動画像が圧縮されて符号化される処理に用いられる第1データ、及び第2データをそれぞれ取得する処理と、
    前記第1フレームと前記第1データとに基づいて、前記動画像の特徴を示す第1特徴データを検出し、前記第2フレームと前記第2データとに基づいて、前記動画像の特徴を示す第2特徴データを検出する処理と、
    前記第1特徴データと、前記第2特徴データとに基づき、前記第1フレームに含まれるオブジェクトを検出する処理と、
    を実行させる、プログラム。
JP2019563721A 2018-01-04 2018-01-04 動画像解析装置、動画像解析システム、動画像解析方法、及びプログラム Active JP7211373B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/000029 WO2019135270A1 (ja) 2018-01-04 2018-01-04 動画像解析装置、動画像解析システム、動画像解析方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2019135270A1 true JPWO2019135270A1 (ja) 2021-01-07
JP7211373B2 JP7211373B2 (ja) 2023-01-24

Family

ID=67144464

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019563721A Active JP7211373B2 (ja) 2018-01-04 2018-01-04 動画像解析装置、動画像解析システム、動画像解析方法、及びプログラム

Country Status (4)

Country Link
US (1) US11495023B2 (ja)
JP (1) JP7211373B2 (ja)
CN (1) CN111542858B (ja)
WO (1) WO2019135270A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021200329A1 (ja) * 2020-03-30 2021-10-07 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム
EP4131156A4 (en) * 2020-03-31 2023-06-28 Sony Group Corporation Information processing device, information processing method, and information processing program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11113002A (ja) * 1997-10-07 1999-04-23 Toyo Commun Equip Co Ltd マクロブロック別移動物体検出方法及び装置
JP2011182356A (ja) * 2010-03-04 2011-09-15 Fujitsu Ltd 動きベクトル検出装置
JP2012099940A (ja) * 2010-10-29 2012-05-24 Canon Inc 撮影妨害検知方法、妨害検知装置及び監視カメラシステム
WO2013011608A1 (ja) * 2011-07-19 2013-01-24 パナソニック株式会社 画像符号化装置とその集積回路、および画像符号化方法
JP2014158164A (ja) * 2013-02-15 2014-08-28 Mitsubishi Electric Corp 画像符号化装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003299103A (ja) * 2002-03-29 2003-10-17 Toshiba Corp 動画像符号化方法と装置及び動画像復号化方法と装置
JP5064140B2 (ja) 2007-08-23 2012-10-31 ヤフー株式会社 ストリーミング情報の再生制御方法
CN102187678A (zh) * 2008-10-29 2011-09-14 松下电器产业株式会社 动态图像压缩编码中的编码处理方法和编码处理装置
JP5272886B2 (ja) * 2009-05-14 2013-08-28 ソニー株式会社 動体検出装置と動体検出方法およびコンピュータ・プログラム
JPWO2011068184A1 (ja) * 2009-12-03 2013-04-18 独立行政法人産業技術総合研究所 移動体の測位装置
IL204089A (en) * 2010-02-21 2014-06-30 Elbit Systems Ltd A method and system for detection and tracking based on frequency multiplicity and multiplicity
ES2698559T3 (es) * 2011-11-02 2019-02-05 Tagivan Ii Llc Códec de vídeo
JP5942818B2 (ja) * 2012-11-28 2016-06-29 株式会社Jvcケンウッド 動画像符号化装置、動画像符号化方法、及び動画像符号化プログラム
CN106717007B (zh) * 2014-07-30 2020-04-03 Sk 普兰尼特有限公司 云端流媒体服务器
JP6394876B2 (ja) * 2014-09-17 2018-09-26 株式会社ソシオネクスト 符号化回路、符号化方法
WO2016088583A1 (ja) 2014-12-04 2016-06-09 ソニー株式会社 情報処理装置および情報処理方法、並びにプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11113002A (ja) * 1997-10-07 1999-04-23 Toyo Commun Equip Co Ltd マクロブロック別移動物体検出方法及び装置
JP2011182356A (ja) * 2010-03-04 2011-09-15 Fujitsu Ltd 動きベクトル検出装置
JP2012099940A (ja) * 2010-10-29 2012-05-24 Canon Inc 撮影妨害検知方法、妨害検知装置及び監視カメラシステム
WO2013011608A1 (ja) * 2011-07-19 2013-01-24 パナソニック株式会社 画像符号化装置とその集積回路、および画像符号化方法
JP2014158164A (ja) * 2013-02-15 2014-08-28 Mitsubishi Electric Corp 画像符号化装置

Also Published As

Publication number Publication date
CN111542858B (zh) 2023-09-08
US20200327332A1 (en) 2020-10-15
US11495023B2 (en) 2022-11-08
WO2019135270A1 (ja) 2019-07-11
JP7211373B2 (ja) 2023-01-24
CN111542858A (zh) 2020-08-14

Similar Documents

Publication Publication Date Title
Sitara et al. Digital video tampering detection: An overview of passive techniques
US8675065B2 (en) Video monitoring system
US9681125B2 (en) Method and system for video coding with noise filtering
EP3732655A1 (en) Video compression through motion warping using learning-based motion segmentation
US20120275524A1 (en) Systems and methods for processing shadows in compressed video images
KR20130129471A (ko) 관심 객체 기반 이미지 처리
JP2008505562A (ja) Mpegビデオストリーム内の動きを検出する方法及び装置
US11869241B2 (en) Person-of-interest centric timelapse video with AI input on home security camera to protect privacy
TWI521473B (zh) 影像分析裝置、方法及電腦可讀取媒體
US11495023B2 (en) Moving image analysis apparatus, system, and method
JP2018535572A (ja) カメラプレビュー
WO2019037471A1 (zh) 视频处理方法、视频处理装置以及终端
EP4136574A1 (en) Video conferencing based on adaptive face re-enactment and face restoration
JP2009212605A (ja) 情報処理方法、情報処理装置及びプログラム
CN114157870A (zh) 编码方法、介质及电子设备
KR20180021942A (ko) 보안 카메라용 영상 코덱에서 블록 분할 정보 전송 방법 및 장치
US11095901B2 (en) Object manipulation video conference compression
US20230188679A1 (en) Apparatus and method for transmitting images and apparatus and method for receiving images
US20130223525A1 (en) Pixel patch collection for prediction in video coding system
Wang et al. Content-based image retrieval using H. 264 intra coding features
US20200252637A1 (en) Moving image processor, moving image processing system, and moving image processing method
JP7143263B2 (ja) 符号化パラメータを用いて対象識別位置を決定する対象識別方法、装置及びプログラム
JP2016021716A (ja) 追尾装置及びその制御方法
JP6720743B2 (ja) メディア品質判定装置、メディア品質判定方法及びメディア品質判定用コンピュータプログラム
CN116052047B (zh) 运动物体检测方法及其相关设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220414

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221026

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221026

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221109

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20221115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221226

R150 Certificate of patent or registration of utility model

Ref document number: 7211373

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150