JP2023507898A - ビデオ検出方法、装置、機器及びコンピュータ可読記憶媒体 - Google Patents
ビデオ検出方法、装置、機器及びコンピュータ可読記憶媒体 Download PDFInfo
- Publication number
- JP2023507898A JP2023507898A JP2022531515A JP2022531515A JP2023507898A JP 2023507898 A JP2023507898 A JP 2023507898A JP 2022531515 A JP2022531515 A JP 2022531515A JP 2022531515 A JP2022531515 A JP 2022531515A JP 2023507898 A JP2023507898 A JP 2023507898A
- Authority
- JP
- Japan
- Prior art keywords
- video
- detection
- frame
- result
- detection result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 456
- 238000000034 method Methods 0.000 claims abstract description 31
- 230000000875 corresponding effect Effects 0.000 claims description 88
- 230000006870 function Effects 0.000 claims description 43
- 238000013507 mapping Methods 0.000 claims description 37
- 230000004044 response Effects 0.000 claims description 23
- 230000015654 memory Effects 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 12
- 238000012935 Averaging Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 6
- 230000002596 correlated effect Effects 0.000 claims description 4
- 238000012545 processing Methods 0.000 description 16
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000001627 detrimental effect Effects 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000003245 working effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/95—Pattern authentication; Markers therefor; Forgery detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
<関連出願の相互引用>
本願は、2020年11月27日に提出された、出願番号が202011365074.7であって発明名称が「ビデオ検出方法、装置、機器及びコンピュータ可読記憶媒体」である中国特許出願の優先権を要求し、当該中国特許出願の全ての内容が引用によって本願に組み込まれる。
Claims (17)
- 処理すべきビデオ中の複数の第1ビデオフレーム、及び前記処理すべきビデオに対応する第1ビデオストリームを取得するステップと、
各前記第1ビデオフレームに対して真偽検出を行った単一フレーム検出結果を取得するステップと、
前記第1ビデオストリームに対して真偽検出を行ったビデオストリーム検出結果を取得するステップと、
前記複数の第1ビデオフレーム各自の単一フレーム検出結果と前記第1ビデオストリームのビデオストリーム検出結果とに基づいて、前記処理すべきビデオの真偽判別結果を特定するステップと、を含むことを特徴とするビデオ検出方法。 - 前記処理すべきビデオ中の複数の第1ビデオフレームを取得することは、
所定フレーム数スパンで前記処理すべきビデオに対してフレーム抽出処理を行い、前記複数の第1ビデオフレームを取得することを含み、
前記所定フレーム数スパンは、前記処理すべきビデオに含まれるビデオフレームの総フレーム数に対して正の相関を有することを特徴とする請求項1に記載のビデオ検出方法。 - 各前記第1ビデオフレームに対して真偽検出を行った単一フレーム検出結果を取得するステップは、
第1真偽分類ネットワークを介して前記第1ビデオフレームに対して真偽検出を行い、前記第1ビデオフレームの単一フレーム検出結果を取得することを含み、
前記単一フレーム検出結果は、前記第1ビデオフレームが偽造されたものである信頼度を表すために用いられることを特徴とする請求項1又は2に記載のビデオ検出方法。 - 前記第1ビデオストリームに対して真偽検出を行ったビデオストリーム検出結果を取得するステップは、
第2真偽分類ネットワークを介して、前記第1ビデオストリームに含まれるビデオフレーム及びフレーム間関係に基づいて、前記第1ビデオストリームに対して真偽検出を行い、前記第1ビデオストリームのビデオストリーム検出結果を取得することを含み、
前記ビデオストリーム検出結果は、前記第1ビデオストリームが偽造されたものである信頼度を表すために用いられることを特徴とする請求項1から3の何れか一項に記載のビデオ検出方法。 - 前記複数の第1ビデオフレーム各自の単一フレーム検出結果と前記第1ビデオストリームのビデオストリーム検出結果とに基づいて、前記処理すべきビデオの真偽判別結果を特定するステップは、
前記複数の第1ビデオフレーム各自の単一フレーム検出結果をマージし、マージ結果を取得することと、
前記マージ結果及び前記ビデオストリーム検出結果に基づいて、前記処理すべきビデオの真偽判別結果を特定することと、を含むことを特徴とする請求項1から4の何れか一項に記載のビデオ検出方法。 - 前記複数の第1ビデオフレーム各自の単一フレーム検出結果をマージし、マージ結果を取得することは、
前記複数の第1ビデオフレーム各自の単一フレーム検出結果をグルーピングし、1つ又は複数の単一フレーム検出結果をそれぞれ含む複数の結果グループを取得することと、
各前記結果グループの平均検出結果を取得することと、
非線形マッピング関数である第1所定関数によって各前記結果グループの平均検出結果を第1確率としてマッピングし、複数の前記第1確率を取得することと、
各前記結果グループの平均検出結果と前記複数の第1確率とに基づいて、マージ結果を取得することと、を含むことを特徴とする請求項5に記載のビデオ検出方法。 - 各前記結果グループの平均検出結果と前記複数の第1確率とに基づいて、マージ結果を取得することは、
前記複数の第1確率のうち、第1所定閾値よりも大きい第1上側確率の割合が第1所定割合よりも大きいことに応答し、各前記第1上側確率に対応する前記結果グループの平均検出結果に基づいてマージ結果を取得することと、
前記複数の第1確率のうち、第2所定閾値よりも小さい第1下側確率の割合が第2所定割合よりも大きいことに応答し、各前記第1下側確率に対応する前記結果グループの平均検出結果に基づいてマージ結果を取得することと、のうちの少なくとも1つを含み、
前記第1所定閾値は、前記第2所定閾値よりも大きいことを特徴とする請求項6に記載のビデオ検出方法。 - 前記マージ結果及び前記ビデオストリーム検出結果に基づいて、前記処理すべきビデオの真偽判別結果を特定することは、
前記マージ結果と前記ビデオストリーム検出結果とを加重平均し、加重平均結果を取得することと、
取得された前記加重平均結果に基づいて前記処理すべきビデオの真偽判別結果を特定することと、を含むことを特徴とする請求項5から7の何れか一項に記載のビデオ検出方法。 - 前記第1ビデオフレームは、複数の顔を含み、
各前記第1ビデオフレームに対して真偽検出を行った単一フレーム検出結果を取得するステップは、
前記第1ビデオフレーム中の複数の顔に対応する顔検出枠を取得することと、
各前記顔検出枠に対応する画像領域に基づいて、対応する顔の個人別検出結果を特定することと、
非線形マッピング関数である第2所定関数によって各前記顔の個人別検出結果を第2確率としてマッピングし、複数の前記第2確率を取得することと、
各前記顔の個人別検出結果と前記複数の第2確率とに基づいて、前記第1ビデオフレームの単一フレーム検出結果を取得することと、を含むことを特徴とする請求項1から8の何れか一項に記載のビデオ検出方法。 - 各前記顔の個人別検出結果と前記複数の第2確率とに基づいて、前記第1ビデオフレームの単一フレーム検出結果を取得することは、
前記複数の第2確率のうち、第3所定閾値よりも大きい第2確率が存在することに応答し、前記第1ビデオフレーム中の最大の個人別検出結果を前記第1ビデオフレームの単一フレーム検出結果として取得することと、
前記複数の第2確率が何れも第4所定閾値よりも大きいことに応答し、前記第1ビデオフレーム中の最大の個人別検出結果を前記第1ビデオフレームの単一フレーム検出結果として取得することと、
前記複数の第2確率が何れも第5所定閾値よりも小さいことに応答し、前記第1ビデオフレーム中の最小の個人別検出結果を前記第1ビデオフレームの単一フレーム検出結果として取得することと、のうちの少なくとも1つを含み、
前記第3所定閾値は、前記第4所定閾値よりも大きく、前記第4所定閾値は、前記第5所定閾値よりも大きいことを特徴とする請求項9に記載のビデオ検出方法。 - 前記第1真偽分類ネットワークは、複数種の構造の真偽分類ネットワークを含み、
前記第1真偽分類ネットワークを介して前記第1ビデオフレームに対して真偽検出を行い、前記第1ビデオフレームの単一フレーム検出結果を取得することは、
前記複数種の構造の真偽分類ネットワークを介して前記第1ビデオフレームに対して真偽検出を行い、複数のサブ単一フレーム検出結果を取得することと、
非線形マッピング関数である第3所定関数によって前記複数のサブ単一フレーム検出結果をそれぞれ第3確率としてマッピングし、複数の第3確率を取得することと、を含み、
前記第1ビデオフレームの単一フレーム検出結果は、
前記複数の第3確率のうち、第6所定閾値よりも大きい第3上側確率の割合が第3所定割合よりも大きいことに応答し、各前記第3上側確率に対応するサブ単一フレーム検出結果に基づいて前記第1ビデオフレームの単一フレーム検出結果を取得することと、
前記複数の第3確率のうち、第7所定閾値よりも小さい第3下側確率の割合が第4所定割合よりも大きいことに応答し、各前記第3下側確率に対応するサブ単一フレーム検出結果に基づいて前記第1ビデオフレームの単一フレーム検出結果を取得することと、のうちの少なくとも1つによって特定され、
前記第6所定閾値は、前記第7所定閾値よりも大きいことを特徴とする請求項3に記載のビデオ検出方法。 - 前記第2真偽分類ネットワークは、複数種の構造の真偽分類ネットワークを含み、
前記第2真偽分類ネットワークを介して、前記第1ビデオストリームに含まれるビデオフレーム及びフレーム間関係に基づいて、前記第1ビデオストリームに対して真偽検出を行い、前記第1ビデオストリームのビデオストリーム検出結果を取得することは、
前記複数種の構造の真偽分類ネットワークを介して、前記第1ビデオストリームに含まれるビデオフレーム及びフレーム間関係に基づいて、前記第1ビデオストリームに対して真偽検出を行い、複数のサブビデオストリーム検出結果を取得することと、
非線形マッピング関数である第4所定関数によって前記複数のサブビデオストリーム検出結果を第4確率としてそれぞれマッピングし、複数の前記第4確率を取得することと、を含み、
前記第1ビデオストリームのビデオストリーム検出結果は、
前記複数の第4確率のうち、第8所定閾値よりも大きい第4上側確率の割合が第5所定割合よりも大きいことに応答し、各前記第4上側確率に対応するサブビデオストリーム検出結果に基づいて前記第1ビデオストリームのビデオストリーム検出結果を取得することと、
前記複数の第4確率のうち、第9所定閾値よりも小さい第4下側確率の割合が第6所定割合よりも大きいことに応答し、各前記第4下側確率に対応するサブビデオストリーム検出結果に基づいて前記第1ビデオストリームのビデオストリーム検出結果を取得することと、のうちの少なくとも1つによって特定され、
前記第8所定閾値は、前記第9所定閾値よりも大きいことを特徴とする請求項4に記載のビデオ検出方法。 - 前記第1ビデオフレームの単一フレーム検出結果は、前記第1ビデオフレーム中のフェース画像が顔交換画像であるか否かを示し、前記第1ビデオストリームのビデオストリーム検出結果は、前記第1ビデオストリーム中のフェース画像が顔交換画像であるか否かを示し、前記処理すべきビデオの真偽判別結果は、前記処理すべきビデオが顔交換ビデオであるか否かを示すことを特徴とする請求項1から12の何れか一項に記載のビデオ検出方法。
- 処理すべきビデオ中の複数の第1ビデオフレーム、及び前記処理すべきビデオに対応する第1ビデオストリームを取得するための第1取得手段と、
各前記第1ビデオフレームに対して真偽検出を行った単一フレーム検出結果を取得するための第2取得手段と、
前記第1ビデオストリームに対して真偽検出を行ったビデオストリーム検出結果を取得するための第3取得手段と、
前記複数の第1ビデオフレーム各自の単一フレーム検出結果と前記第1ビデオストリームのビデオストリーム検出結果とに基づいて、前記処理すべきビデオの真偽判別結果を特定するための特定手段と、を備えることを特徴とするビデオ検出装置。 - 電子機器であって、
メモリと、プロセッサとを備え、
前記メモリは、プロセッサで運転され得るコンピュータ指令を記憶し、前記プロセッサは、前記コンピュータ指令を実行したときに請求項1から13の何れか一項に記載のビデオ検出方法を実施することを特徴とする電子機器。 - コンピュータプログラムが記憶されるコンピュータ可読記憶媒体であって、
前記プログラムがプロセッサによって実行されたときに、請求項1から13の何れか一項に記載のビデオ検出方法は、実施されることを特徴とするコンピュータ可読記憶媒体。 - コンピュータ可読コードを含むコンピュータプログラムであって、
前記コンピュータ可読コードが電子機器で運転されたときに、前記電子機器におけるプロセッサは、請求項1から13の何れか一項に記載のビデオ検出方法を実施することを特徴とするコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011365074.7 | 2020-11-27 | ||
CN202011365074.7A CN112329730B (zh) | 2020-11-27 | 2020-11-27 | 视频检测方法、装置、设备及计算机可读存储介质 |
PCT/CN2021/103766 WO2022110806A1 (zh) | 2020-11-27 | 2021-06-30 | 视频检测方法、装置、设备及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023507898A true JP2023507898A (ja) | 2023-02-28 |
Family
ID=74309312
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022531515A Pending JP2023507898A (ja) | 2020-11-27 | 2021-06-30 | ビデオ検出方法、装置、機器及びコンピュータ可読記憶媒体 |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP2023507898A (ja) |
KR (1) | KR20220093157A (ja) |
CN (1) | CN112329730B (ja) |
WO (1) | WO2022110806A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112329730B (zh) * | 2020-11-27 | 2024-06-11 | 上海商汤智能科技有限公司 | 视频检测方法、装置、设备及计算机可读存储介质 |
CN113792701A (zh) * | 2021-09-24 | 2021-12-14 | 北京市商汤科技开发有限公司 | 一种活体检测方法、装置、计算机设备和存储介质 |
CN115412726B (zh) * | 2022-09-02 | 2024-03-01 | 北京瑞莱智慧科技有限公司 | 视频真伪检测方法、装置及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111444873A (zh) * | 2020-04-02 | 2020-07-24 | 北京迈格威科技有限公司 | 视频中人物真伪的检测方法、装置、电子设备及存储介质 |
WO2020195732A1 (ja) * | 2019-03-22 | 2020-10-01 | 日本電気株式会社 | 画像処理装置、画像処理方法、およびプログラムが格納された記録媒体 |
US10810725B1 (en) * | 2018-12-07 | 2020-10-20 | Facebook, Inc. | Automated detection of tampered images |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103826082B (zh) * | 2014-01-21 | 2017-07-14 | 华为技术有限公司 | 一种视频处理方法及装置 |
CN109299650B (zh) * | 2018-07-27 | 2021-09-07 | 东南大学 | 基于视频的非线性在线表情预检测方法及装置 |
CN110059542A (zh) * | 2019-03-04 | 2019-07-26 | 平安科技(深圳)有限公司 | 基于改进的Resnet的人脸活体检测的方法及相关设备 |
CN111444881B (zh) * | 2020-04-13 | 2020-12-25 | 中国人民解放军国防科技大学 | 伪造人脸视频检测方法和装置 |
CN111783632B (zh) * | 2020-06-29 | 2022-06-10 | 北京字节跳动网络技术有限公司 | 针对视频流的人脸检测方法、装置、电子设备及存储介质 |
CN111967427A (zh) * | 2020-08-28 | 2020-11-20 | 广东工业大学 | 一种伪造人脸视频鉴别方法、系统和可读存储介质 |
CN112329730B (zh) * | 2020-11-27 | 2024-06-11 | 上海商汤智能科技有限公司 | 视频检测方法、装置、设备及计算机可读存储介质 |
-
2020
- 2020-11-27 CN CN202011365074.7A patent/CN112329730B/zh active Active
-
2021
- 2021-06-30 KR KR1020227018065A patent/KR20220093157A/ko active Search and Examination
- 2021-06-30 JP JP2022531515A patent/JP2023507898A/ja active Pending
- 2021-06-30 WO PCT/CN2021/103766 patent/WO2022110806A1/zh unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10810725B1 (en) * | 2018-12-07 | 2020-10-20 | Facebook, Inc. | Automated detection of tampered images |
WO2020195732A1 (ja) * | 2019-03-22 | 2020-10-01 | 日本電気株式会社 | 画像処理装置、画像処理方法、およびプログラムが格納された記録媒体 |
CN111444873A (zh) * | 2020-04-02 | 2020-07-24 | 北京迈格威科技有限公司 | 视频中人物真伪的检测方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2022110806A1 (zh) | 2022-06-02 |
CN112329730B (zh) | 2024-06-11 |
CN112329730A (zh) | 2021-02-05 |
KR20220093157A (ko) | 2022-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2023507898A (ja) | ビデオ検出方法、装置、機器及びコンピュータ可読記憶媒体 | |
Zhang et al. | RGB-T salient object detection via fusing multi-level CNN features | |
Huo et al. | Efficient context-guided stacked refinement network for RGB-T salient object detection | |
US11676408B2 (en) | Identification of neural-network-generated fake images | |
WO2021026805A1 (zh) | 对抗样本检测方法、装置、计算设备及计算机存储介质 | |
Tang et al. | DeFusionNET: Defocus blur detection via recurrently fusing and refining discriminative multi-scale deep features | |
US20230041233A1 (en) | Image recognition method and apparatus, computing device, and computer-readable storage medium | |
CN106415594B (zh) | 用于面部验证的方法和系统 | |
US8605957B2 (en) | Face clustering device, face clustering method, and program | |
CN110853033B (zh) | 基于帧间相似度的视频检测方法和装置 | |
Yu et al. | Predicting human activities using spatio-temporal structure of interest points | |
CN111160555B (zh) | 基于神经网络的处理方法、装置及电子设备 | |
TWI667621B (zh) | 人臉辨識方法 | |
CN112800944B (zh) | 人群行为检测方法及装置、电子设备和存储介质 | |
Wang et al. | Adversarial point cloud perturbations against 3D object detection in autonomous driving systems | |
Zhou et al. | TMFNet: Three-input multilevel fusion network for detecting salient objects in RGB-D images | |
CN103955713B (zh) | 一种图标识别方法和装置 | |
Zaheer et al. | Clustering aided weakly supervised training to detect anomalous events in surveillance videos | |
CN113301017B (zh) | 基于联邦学习的攻击检测与防御方法、装置及存储介质 | |
CN113689527B (zh) | 一种人脸转换模型的训练方法、人脸图像转换方法 | |
CN110709841B (zh) | 用于检测和转换旋转的视频内容项的方法、系统和介质 | |
CN109933679A (zh) | 图像中的对象类型识别方法、装置和设备 | |
Li et al. | Disguise of steganography behaviour: Steganography using image processing with generative adversarial network | |
CN113095257A (zh) | 异常行为检测方法、装置、设备及存储介质 | |
Yang et al. | Crowd Density Estimation Based on ELM learning algorithm. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220527 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220527 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230705 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230721 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240228 |