JP2021073545A - 車両監視のためのシステムおよび方法 - Google Patents
車両監視のためのシステムおよび方法 Download PDFInfo
- Publication number
- JP2021073545A JP2021073545A JP2020208938A JP2020208938A JP2021073545A JP 2021073545 A JP2021073545 A JP 2021073545A JP 2020208938 A JP2020208938 A JP 2020208938A JP 2020208938 A JP2020208938 A JP 2020208938A JP 2021073545 A JP2021073545 A JP 2021073545A
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- target
- neural network
- source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000012544 monitoring process Methods 0.000 title claims abstract description 11
- 230000006978 adaptation Effects 0.000 claims abstract description 64
- 238000013527 convolutional neural network Methods 0.000 claims description 35
- 238000013528 artificial neural network Methods 0.000 claims description 18
- 238000005286 illumination Methods 0.000 claims description 15
- 238000012549 training Methods 0.000 description 83
- 230000006870 function Effects 0.000 description 18
- 238000011960 computer-aided design Methods 0.000 description 14
- 230000015572 biosynthetic process Effects 0.000 description 9
- 238000000605 extraction Methods 0.000 description 9
- 239000000284 extract Substances 0.000 description 8
- 238000003786 synthesis reaction Methods 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 238000000844 transformation Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000002441 reversible effect Effects 0.000 description 4
- 206010020400 Hostility Diseases 0.000 description 3
- 239000002131 composite material Substances 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 208000009119 Giant Axonal Neuropathy Diseases 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 201000003382 giant axonal neuropathy 1 Diseases 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000005375 photometry Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000032258 transport Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/017—Detecting movement of traffic to be counted or controlled identifying vehicles
- G08G1/0175—Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/046—Forward inferencing; Production systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0108—Measuring and analyzing of parameters relative to traffic conditions based on the source of data
- G08G1/0116—Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0125—Traffic data processing
- G08G1/0129—Traffic data processing for creating historical data or processing based on historical data
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/048—Detecting movement of traffic to be counted or controlled with provision for compensation of environmental or other condition, e.g. snow, vehicle stopped at detector
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Biophysics (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Medical Informatics (AREA)
- Probability & Statistics with Applications (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Databases & Information Systems (AREA)
- Biodiversity & Conservation Biology (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Processing (AREA)
Abstract
Description
本出願は、2018年8月1日に出願された米国非仮特許出願第16/051924号および2018年8月1日に出願された米国非仮特許出願第16/051980号の優先権を主張し、これらの各々は、2017年8月31日に出願された米国仮特許出願第62/553090号および2017年11月14日に出願された米国仮特許出願第62/585758号の優先権を主張し、これらの全ては、参照によりその全体が本明細書に組み込まれる。
Claims (20)
- 車両監視のためのシステムであって、
車両のターゲット画像を取得するカメラ(600)と、
前記カメラと通信する物体認識システム(500)であって、ソース画像に描かれた車両の複数の視点を生成するための合成器モジュール(510)と、前記ターゲット画像に表された視点にかかわらず、前記ターゲット画像の車両を分類するために、前記車両の視点と前記ターゲット画像との間の領域適応を実行するための領域適応モジュール(520)とを実行するためのプロセッサを含み、
前記ターゲット画像の各々を前記ターゲット画像の車両に対応するラベルと共に表示するための、物体認識システムと通信するディスプレイ(620)とを含む、システム。 - 前記ラベルは、前記車両の各々の種類およびモデルを含む、請求項1に記載のシステム。
- 前記ソース画像を収集するためのネットワークをさらに含む、請求項1に記載のシステム。
- 前記ネットワークは、インターネットである、請求項3に記載のシステム。
- 前記合成器モジュールは、
それぞれが異なる視点を有する複数の拡張ソース画像を生成するための視点合成器と、
対応する複数の照明条件を反映するために、前記拡張ソース画像のそれぞれのための複数の照明および視野拡張ソース画像を生成するための測光調整器とをさらに含む、請求項1に記載のシステム。 - 前記異なる視点は、前記車両の視野の仰角を含む、請求項5に記載のシステム。
- 前記照明条件は、昼光および夜間照明からなる群から選択される、請求項5に記載のシステム。
- 前記領域適応モジュールが領域敵対ニューラルネットワークを含む、請求項1に記載のシステム。
- 前記領域敵対ニューラルネットワークは、
ソース特徴を抽出するための前記照明および視野拡張ソース画像に対応する第1の畳込みニューラルネットワークと、
ターゲット特徴を抽出するためのターゲット画像に対応する第2の畳み込みニューラルネットワークと、
前記抽出されたソース特徴を分類し、ソース領域識別を分類するための前記第1の畳み込みニューラルネットワークに対応する第1の分類器と、
ターゲット領域識別を分類するための前記抽出されたターゲット特徴を分類するための前記第2の畳み込みニューラルネットワークに対応する第2の分類器とを含む、請求項8に記載のシステム。 - 前記第1の畳み込みニューラルネットワークおよび前記第2の畳み込みニューラルネットワークは特徴パラメータを共有し、
前記第1の分類器および前記第2の分類器は分類パラメータを共有する、請求項9に記載のシステム。 - 車両監視のための方法であって、
カメラで車両のターゲット画像(10a)を取得し、
前記カメラと通信する物体認識システムを用いて、前記ターゲット画像内の車両(500)を決定し、決定は、
合成器モジュールを用いて、ソース画像に描かれた車両の複数の視点(510)を生成することと、
前記ターゲット画像に表された視点にかかわらず、前記ターゲット画像の車両を分類するために、領域適応モジュールを用いて、前記車両の視点と前記ターゲット画像との間の領域適応(520)を実行することとを含み、
前記ターゲット画像の車両に対応するラベルを有するターゲット画像の各々を、物体認識システムと通信するディスプレイ上に表示する(620)、方法。 - 前記ラベルは、前記車両の各々の種類およびモデルを含む、請求項11に記載の方法。
- 前記ソース画像を収集するためのネットワークをさらに含む、請求項11に記載の方法。
- 前記ネットワークは、インターネットである、請求項13に記載の方法。
- 前記合成器モジュールは、
それぞれが異なる視点を有する複数の拡張ソース画像を生成するための視点合成器と、
対応する複数の照明条件を反映するために、前記拡張ソース画像のそれぞれのための複数の照明および視野拡張ソース画像を生成するための測光調整器とをさらに含む、請求項11に記載の方法。 - 前記異なる視点は、前記車両の視野の仰角を含む、請求項15に記載の方法。
- 前記照明条件は、昼光および夜間照明からなる群から選択される、請求項15に記載の方法。
- 前記領域適応モジュールが領域敵対ニューラルネットワークを含む、請求項11に記載の方法。
- 前記領域敵対ニューラルネットワークは、
ソース特徴を抽出するための前記照明および視野拡張ソース画像に対応する第1の畳込みニューラルネットワークと、
ターゲット特徴を抽出するための前記ターゲット画像に対応する第2の畳み込みニューラルネットワークと、
前記抽出されたソース特徴を分類し、ソース領域識別を分類するための前記第1の畳み込みニューラルネットワークに対応する第1の分類器と、
ターゲット領域識別を分類するための前記抽出されたターゲット特徴を分類するための前記第2の畳み込みニューラルネットワークに対応する第2の分類器とを含む、請求項18に記載の方法。 - 前記第1の畳み込みニューラルネットワークおよび前記第2の畳み込みニューラルネットワークは特徴パラメータを共有し、
前記第1の分類器および前記第2の分類器は分類パラメータを共有する、請求項19に記載の方法。
Applications Claiming Priority (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762553090P | 2017-08-31 | 2017-08-31 | |
US62/553,090 | 2017-08-31 | ||
US201762585758P | 2017-11-14 | 2017-11-14 | |
US62/585,758 | 2017-11-14 | ||
US16/051,924 | 2018-08-01 | ||
US16/051,980 US10497257B2 (en) | 2017-08-31 | 2018-08-01 | Parking lot surveillance with viewpoint invariant object recognition by synthesization and domain adaptation |
US16/051,980 | 2018-08-01 | ||
US16/051,924 US11055989B2 (en) | 2017-08-31 | 2018-08-01 | Viewpoint invariant object recognition by synthesization and domain adaptation |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019571453A Division JP6847277B2 (ja) | 2017-08-31 | 2018-08-09 | 合成および領域適応による視点不変物体認識 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021073545A true JP2021073545A (ja) | 2021-05-13 |
JP7241059B2 JP7241059B2 (ja) | 2023-03-16 |
Family
ID=65435366
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019571453A Active JP6847277B2 (ja) | 2017-08-31 | 2018-08-09 | 合成および領域適応による視点不変物体認識 |
JP2020208938A Active JP7241059B2 (ja) | 2017-08-31 | 2020-12-17 | 車両監視のためのシステムおよび方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019571453A Active JP6847277B2 (ja) | 2017-08-31 | 2018-08-09 | 合成および領域適応による視点不変物体認識 |
Country Status (4)
Country | Link |
---|---|
US (2) | US11055989B2 (ja) |
JP (2) | JP6847277B2 (ja) |
DE (1) | DE112018004797T5 (ja) |
WO (1) | WO2019045982A1 (ja) |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10706324B2 (en) * | 2017-01-19 | 2020-07-07 | Hrl Laboratories, Llc | Multi-view embedding with soft-max based compatibility function for zero-shot learning |
US11201798B2 (en) * | 2018-05-07 | 2021-12-14 | At&T Intellectual Property I, L.P. | Automated virtual network function modification |
US10915792B2 (en) * | 2018-09-06 | 2021-02-09 | Nec Corporation | Domain adaptation for instance detection and segmentation |
DE102018215538A1 (de) * | 2018-09-12 | 2020-03-12 | Trumpf Werkzeugmaschinen Gmbh + Co. Kg | Verfahren und Vorrichtung zur Identifkation eines Gegenstands |
US10943352B2 (en) * | 2018-12-17 | 2021-03-09 | Palo Alto Research Center Incorporated | Object shape regression using wasserstein distance |
JP7003953B2 (ja) * | 2019-03-14 | 2022-01-21 | オムロン株式会社 | 学習装置、推定装置、データ生成装置、学習方法、及び学習プログラム |
CN109977847B (zh) * | 2019-03-22 | 2021-07-16 | 北京市商汤科技开发有限公司 | 图像生成方法及装置、电子设备和存储介质 |
CN109827547B (zh) * | 2019-03-27 | 2021-05-04 | 中国人民解放军战略支援部队航天工程大学 | 一种分布式多传感器空间目标同步关联方法 |
US11398026B2 (en) * | 2019-03-28 | 2022-07-26 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and methods for synthetic medical image generation |
EP3736740A1 (en) | 2019-05-06 | 2020-11-11 | Dassault Systèmes | Experience learning in virtual world |
EP3736741A1 (en) | 2019-05-06 | 2020-11-11 | Dassault Systèmes | Experience learning in virtual world |
US11176699B2 (en) * | 2019-05-24 | 2021-11-16 | Tencent America LLC | Augmenting reliable training data with CycleGAN for hand pose estimation |
CN110197229B (zh) * | 2019-05-31 | 2022-06-07 | 腾讯医疗健康(深圳)有限公司 | 图像处理模型的训练方法、装置及存储介质 |
US11048917B2 (en) * | 2019-07-31 | 2021-06-29 | Baidu Usa Llc | Method, electronic device, and computer readable medium for image identification |
CN110390950B (zh) * | 2019-08-17 | 2021-04-09 | 浙江树人学院(浙江树人大学) | 一种基于生成对抗网络的端到端语音增强方法 |
KR102095684B1 (ko) * | 2019-10-15 | 2020-03-31 | 주식회사 루닛 | 적대적 학습에 기반한 도메인 어댑테이션 방법 및 그 장치 |
KR20210050684A (ko) * | 2019-10-29 | 2021-05-10 | 에스케이하이닉스 주식회사 | 이미지 처리 시스템 |
KR20210074748A (ko) | 2019-12-12 | 2021-06-22 | 삼성전자주식회사 | 도메인 적응에 기반한 네트워크의 트레이닝 방법, 동작 방법 및 동작 장치 |
CN111144330B (zh) * | 2019-12-29 | 2022-07-08 | 浪潮(北京)电子信息产业有限公司 | 一种基于深度学习的车道线检测方法、装置以及设备 |
CN111314934B (zh) * | 2020-02-14 | 2021-08-10 | 西北工业大学 | 一种统一最优判决的网络协同探测方法 |
US11501115B2 (en) * | 2020-02-14 | 2022-11-15 | International Business Machines Corporation | Explaining cross domain model predictions |
CN111339942B (zh) * | 2020-02-26 | 2022-07-12 | 山东大学 | 基于视点调整的图卷积循环网络骨骼动作识别方法及系统 |
CN111415333B (zh) * | 2020-03-05 | 2023-12-01 | 北京深睿博联科技有限责任公司 | 乳腺x射线影像反对称生成分析模型训练方法和装置 |
US11704804B2 (en) * | 2020-04-02 | 2023-07-18 | GE Precision Healthcare LLC | Domain adaptation using post-processing model correction |
CN111680640B (zh) * | 2020-06-11 | 2022-04-15 | 合肥工业大学 | 一种基于领域迁移的车型识别方法及系统 |
CN111767949B (zh) * | 2020-06-28 | 2024-06-18 | 华南师范大学 | 一种基于特征和样本对抗共生的多任务学习方法及其系统 |
CN111982137B (zh) * | 2020-06-30 | 2022-08-12 | 阿波罗智能技术(北京)有限公司 | 生成路线规划模型的方法、装置、设备和存储介质 |
CN111914712B (zh) * | 2020-07-24 | 2024-02-13 | 合肥工业大学 | 一种铁路地面轨道场景目标检测方法及系统 |
US11272097B2 (en) * | 2020-07-30 | 2022-03-08 | Steven Brian Demers | Aesthetic learning methods and apparatus for automating image capture device controls |
CN114141022B (zh) * | 2020-09-03 | 2023-05-23 | 丰图科技(深圳)有限公司 | 应急车道占用行为检测方法、装置、电子设备及存储介质 |
US11243834B1 (en) | 2020-11-16 | 2022-02-08 | International Business Machines Corporation | Log parsing template generation |
CN112330730B (zh) * | 2020-11-27 | 2024-02-20 | 北京百度网讯科技有限公司 | 图像处理方法、装置、设备及存储介质 |
JP7485226B2 (ja) * | 2021-01-12 | 2024-05-16 | 日本電気株式会社 | 訓練装置、分類装置、訓練方法、分類方法、及びプログラム |
CN113299073B (zh) * | 2021-04-28 | 2023-05-23 | 北京百度网讯科技有限公司 | 识别车辆违章停车的方法、装置、设备和存储介质 |
JP2022180887A (ja) * | 2021-05-25 | 2022-12-07 | 株式会社日立製作所 | 物体認識システム及び物体認識方法 |
US20230057547A1 (en) * | 2021-08-19 | 2023-02-23 | International Business Machines Corporation | Anonymizing personally identifiable information in stored data |
US20230098319A1 (en) * | 2021-09-28 | 2023-03-30 | Darvis Inc. | Method and system for tracking objects in area |
CN114092742B (zh) * | 2021-11-19 | 2024-02-06 | 西安交通大学 | 一种基于多角度的小样本图像分类装置和方法 |
WO2023095945A1 (ko) * | 2021-11-25 | 2023-06-01 | 주식회사 테스트웍스 | 모델 학습을 위한 합성 데이터 생성 장치 및 방법 |
WO2023100215A1 (en) * | 2021-11-30 | 2023-06-08 | Nec Corporation | Training apparatus, classification apparatus, training method, and classification method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012242906A (ja) * | 2011-05-16 | 2012-12-10 | Toshiba Corp | 画像処理システム、装置及び方法 |
JP2016058079A (ja) * | 2014-09-04 | 2016-04-21 | ゼロックス コーポレイションXerox Corporation | クラス事前確率を用いる画像分類のドメイン適応化 |
JP2016184926A (ja) * | 2009-05-29 | 2016-10-20 | 富士通テン株式会社 | 画像処理装置 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7706603B2 (en) * | 2005-04-19 | 2010-04-27 | Siemens Corporation | Fast object detection for augmented reality systems |
JP4969269B2 (ja) * | 2007-02-21 | 2012-07-04 | アルパイン株式会社 | 画像処理装置 |
US8498448B2 (en) * | 2011-07-15 | 2013-07-30 | International Business Machines Corporation | Multi-view object detection using appearance model transfer from similar scenes |
JP6040042B2 (ja) * | 2013-02-12 | 2016-12-07 | アイキューブド研究所株式会社 | 画像処理装置、画像処理方法、およびプログラム |
US20160140438A1 (en) * | 2014-11-13 | 2016-05-19 | Nec Laboratories America, Inc. | Hyper-class Augmented and Regularized Deep Learning for Fine-grained Image Classification |
US9607245B2 (en) * | 2014-12-02 | 2017-03-28 | Xerox Corporation | Adapted vocabularies for matching image signatures with fisher vectors |
CN107438866B (zh) * | 2015-05-13 | 2020-12-01 | 谷歌公司 | 深度立体:学习从现实世界形象预测新视图 |
CN105069472B (zh) * | 2015-08-03 | 2018-07-27 | 电子科技大学 | 一种基于卷积神经网络自适应的车辆检测方法 |
US10262236B2 (en) * | 2017-05-02 | 2019-04-16 | General Electric Company | Neural network training image generation system |
-
2018
- 2018-08-01 US US16/051,924 patent/US11055989B2/en active Active
- 2018-08-01 US US16/051,980 patent/US10497257B2/en active Active
- 2018-08-09 WO PCT/US2018/045911 patent/WO2019045982A1/en active Application Filing
- 2018-08-09 DE DE112018004797.0T patent/DE112018004797T5/de active Pending
- 2018-08-09 JP JP2019571453A patent/JP6847277B2/ja active Active
-
2020
- 2020-12-17 JP JP2020208938A patent/JP7241059B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016184926A (ja) * | 2009-05-29 | 2016-10-20 | 富士通テン株式会社 | 画像処理装置 |
JP2012242906A (ja) * | 2011-05-16 | 2012-12-10 | Toshiba Corp | 画像処理システム、装置及び方法 |
JP2016058079A (ja) * | 2014-09-04 | 2016-04-21 | ゼロックス コーポレイションXerox Corporation | クラス事前確率を用いる画像分類のドメイン適応化 |
Non-Patent Citations (1)
Title |
---|
ERIC TZENG ET AL.: "Adversarial Discriminative Domain Adaptation", ARXIV [ONLINE], JPN6019013137, 17 February 2017 (2017-02-17), ISSN: 0004877064 * |
Also Published As
Publication number | Publication date |
---|---|
DE112018004797T5 (de) | 2020-06-18 |
JP2020525920A (ja) | 2020-08-27 |
US20190065853A1 (en) | 2019-02-28 |
US20190066493A1 (en) | 2019-02-28 |
US11055989B2 (en) | 2021-07-06 |
JP7241059B2 (ja) | 2023-03-16 |
WO2019045982A1 (en) | 2019-03-07 |
JP6847277B2 (ja) | 2021-03-24 |
US10497257B2 (en) | 2019-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6847277B2 (ja) | 合成および領域適応による視点不変物体認識 | |
CN110651310B (zh) | 估计对象密度和/或流量的深度学习方法及相关方法和软件 | |
US11775818B2 (en) | Training system for training a generator neural network | |
Kondapally et al. | Towards a Transitional Weather Scene Recognition Approach for Autonomous Vehicles | |
JP7281015B2 (ja) | 複雑な道路シーンのパラメトリックな上面図表現 | |
US11810311B2 (en) | Two-stage depth estimation machine learning algorithm and spherical warping layer for equi-rectangular projection stereo matching | |
CN113128271A (zh) | 脸部图像的伪造检测 | |
US20240119697A1 (en) | Neural Semantic Fields for Generalizable Semantic Segmentation of 3D Scenes | |
EP3663965A1 (en) | Method for predicting multiple futures | |
Zhang et al. | Exploring event-driven dynamic context for accident scene segmentation | |
Tabata et al. | Analyzing CARLA’s performance for 2D object detection and monocular depth estimation based on deep learning approaches | |
Ghahremani et al. | Maritime vessel re-identification: novel VR-VCA dataset and a multi-branch architecture MVR-net | |
US20220138978A1 (en) | Two-stage depth estimation machine learning algorithm and spherical warping layer for equi-rectangular projection stereo matching | |
CN115019218B (zh) | 图像处理方法和处理器 | |
Bhuvana et al. | Cosmetic suggestion system using convolution neural network | |
Neelima et al. | A computer vision model for vehicle detection in traffic surveillance | |
Bossu et al. | Validation and benchmarking for pedestrian video detection based on a sensors simulation platform | |
Paik et al. | More than just an auxiliary loss: Anti-spoofing Backbone Training via Adversarial Pseudo-depth Generation | |
Seemanthini et al. | Small human group detection and validation using pyramidal histogram of oriented gradients and gray level run length method | |
Sorkhei | Conditional Generative Flow for Street Scene Generation | |
Nair | AUTOMATIC TRAFFIC SIGN DETECTION and NUMBER PLATE RECOGNIZATIONUSING CNN | |
Dinakaran | Robust object detection in the wild via cascaded DCGAN | |
Xue | Generating Automated Vehicle Testing Scenarios Using Generative Adversarial Network | |
Björklund | License Plate Recognition using Convolutional Neural Networks Trained on Synthetic Images. | |
Ciamarra et al. | Leveraging deep scene features for vision tasks: from classification to forecasting |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220513 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220920 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221031 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230306 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7241059 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |