JP7407738B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP7407738B2 JP7407738B2 JP2020563864A JP2020563864A JP7407738B2 JP 7407738 B2 JP7407738 B2 JP 7407738B2 JP 2020563864 A JP2020563864 A JP 2020563864A JP 2020563864 A JP2020563864 A JP 2020563864A JP 7407738 B2 JP7407738 B2 JP 7407738B2
- Authority
- JP
- Japan
- Prior art keywords
- target
- detector
- detection
- image
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 106
- 238000003672 processing method Methods 0.000 title claims description 13
- 238000001514 detection method Methods 0.000 claims description 423
- 238000012545 processing Methods 0.000 claims description 72
- 238000012937 correction Methods 0.000 claims description 55
- 238000000034 method Methods 0.000 claims description 52
- 238000004364 calculation method Methods 0.000 description 40
- 238000012986 modification Methods 0.000 description 18
- 230000004048 modification Effects 0.000 description 18
- 238000010801 machine learning Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 13
- 230000015654 memory Effects 0.000 description 11
- 230000036544 posture Effects 0.000 description 8
- 230000010354 integration Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000035945 sensitivity Effects 0.000 description 4
- 238000007476 Maximum Likelihood Methods 0.000 description 3
- 239000000470 constituent Substances 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000001747 exhibiting effect Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/285—Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/768—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using context analysis, e.g. recognition aided by known co-occurring patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/87—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using selection of the recognition techniques, e.g. of a classifier in a multiple classifier system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/96—Management of image or video recognition tasks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Image Analysis (AREA)
Description
また、本開示の一態様に係る情報処理装置は、プロセッサを備える情報処理装置であって、前記プロセッサは、第1センシングデータにおける第1ターゲットを検出するための第1検出器の検出結果を取得し、前記第1検出器の検出結果に基づいて、前記第1センシングデータの次に順序付けられた第2センシングデータにおける前記第1ターゲットとは異なる第2ターゲットを検出するための第2検出器の処理の設定を決定する。
また、本開示の一態様に係る情報処理方法は、コンピュータに実行させるための方法であって、第1センシングデータにおける第1ターゲットを検出するための第1検出器の検出結果を取得し、前記第1検出器の検出結果に基づいて、前記第1センシングデータの次に順序付けられた第2センシングデータにおける前記第1ターゲットとは異なる第2ターゲットを検出するための第2検出器の処理の設定を決定する。
従来、画像中の物体を検出する技術において、検出対象の物体に関する多数の正事例及び負事例のサンプル画像から物体の局所的な形状特徴を検出するように機械学習モデルを訓練することにより、任意のシーンにおいて、比較的良好に物体を検出することができる。しかしながら、例えば、防犯カメラ又は車載カメラなどの屋外環境で使用されるカメラから得られる画像のように、天候又は照明の変動などによる影響を受けやすい状況では、検出器の検出感度が低下することが多い。例えば、雨天状況では、路面の水たまりで照明の光が反射して、物体の候補枠の縦幅が路面方向に延びることにより、又は、ホワイトアウトにより、物体を検出することができない場合がある。
以下、実施の形態1に係る情報処理装置について説明する。
図1は、実施の形態1に係る情報処理装置100の構成の一例を示すブロック図である。図1に示されるように、情報処理装置100は、入力部10と、第1検出器20と、第2検出器30と、検出結果記憶部40と、算出部50と、補正部60と、出力部70とを含んで構成される。
続いて、実施の形態1に係る情報処理装置100の動作の一例について図2~図4を参照しながら説明する。図2は、実施の形態1に係る情報処理装置100の動作の一例を示すフローチャートである。図3は、図2のステップS2006の処理の詳細なフローチャートである。図4は、実施の形態1に係る情報処理装置100の動作の一例を模式的に説明するための図である。
実施の形態1の変形例1に係る情報処理装置について説明する。図5は、実施の形態1の変形例1に係る情報処理装置の動作の一例を模式的に説明するための図である。変形例1では、実施の形態1と異なる点を中心に説明する。なお、実施の形態1と重複する内容については、説明を簡素化又は省略する。また、変形例1に係る情報処理装置の構成については、実施の形態1と同様であるため、図1を参照しながら説明する。
続いて、実施の形態1の変形例2に係る情報処理装置について説明する。図6は、実施の形態1の変形例2に係る情報処理装置の動作の一例を模式的に説明するための図である。変形例2においても、変形例1と同様に、実施の形態1と異なる点を中心に説明する。なお、実施の形態1と重複する内容については、説明を簡素化又は省略する。また、変形例2に係る情報処理装置の構成については、実施の形態1及び変形例1と同様であるため、図1を参照しながら説明する。
続いて、実施の形態2に係る情報処理装置について説明する。実施の形態1及びその変形例では、第1検出器の検出結果に基づいて、第2検出器の処理の設定を決定したが、実施の形態2では、第1検出器が不安定な場合に、第2検出器の検出結果を用いて、第1ターゲットを検出する点で異なる。以下、実施の形態1及びその変形例と異なる点を中心に説明する。なお、以下では、センシングデータは、実施の形態1と同様に、画像であるとして説明する。
図7は、実施の形態2に係る情報処理装置110の構成の一例を示すブロック図である。図7に示されるように、情報処理装置110は、入力部11と、第1検出器21と、第2検出器31と、検出結果記憶部41と、算出部51と、補正部61と、出力部71とを含んで構成される。
以下、実施の形態2に係る情報処理装置110の動作の一例について説明する。ここでは、実施の形態1と異なる点について説明する。
以上、1つ又は複数の態様に係る情報処理装置、情報処理方法及びプログラムについて、実施の形態に基づいて説明したが、本開示は、これらの実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したもの、及び、異なる実施の形態における構成要素を組み合わせて構築される形態も、本開示の範囲に含まれる。
20、21 第1検出器
30、31 第2検出器
40、41 検出結果記憶部
50、51 算出部
60、61 補正部
70、71 出力部
100、110 情報処理装置
Claims (8)
- プロセッサを備える情報処理装置であって、
前記プロセッサは、
第1画像の中から第1ターゲットに対応する第1物体を検出するための検出処理を実行する第1検出器から前記第1画像に対する第1検出結果を取得し、前記第1検出結果は、前記第1画像における前記第1ターゲットの領域を示す情報を含み、
前記第1画像の次に順序付けられた第2画像の中から前記第1ターゲットに対応する前記第1物体と種類が同じで姿勢が異なる第2物体に対応する第2ターゲットの候補となる領域を検出し、検出した前記第2ターゲットの候補となる領域が前記第2ターゲットであるのかどうかを判定するための検出処理を実行する第2検出器から前記第2ターゲットの候補となる領域を第2検出結果の候補として取得し、
検出された前記第2ターゲットの候補となる領域が、前記第2ターゲットではないと判定された場合、前記第1検出器の検出結果に含まれる前記情報が示す前記第1ターゲットの領域と前記第2ターゲットの候補となる領域との関係に基づいて、前記第2検出器の検出処理の設定を変更する、
情報処理装置。 - 前記関係は、(i)前記第1ターゲットの領域と、前記第2ターゲットの候補となる領域との距離、又は、前記第1ターゲットの領域と前記第2ターゲットの候補となる領域との重なり率である、
請求項1に記載の情報処理装置。 - 前記プロセッサは、さらに、前記第2画像の中から前記第1ターゲットを検出するための検出処理を実行した結果である第3検出結果を前記第1検出器から取得し、取得した前記第3検出結果が前記第1ターゲットの検出がされなかったことを示す場合に、前記第2検出器の前記検出処理の設定を変更する、
請求項1に記載の情報処理装置。 - 前記設定は、前記第2検出器の前記検出処理に用いられるパラメータである、
請求項1~3のいずれか1項に記載の情報処理装置。 - 前記第2検出器の前記検出処理に用いられるパラメータは、前記第2ターゲットに対する尤度閾値、尤度の補正度、又は、検出判定のためのデータ数であるトラッキング閾値である、
請求項4に記載の情報処理装置。 - 前記情報処理装置は、さらに、前記第2検出器を備え、
変更した前記設定を用いて、前記第2検出器は、前記検出処理を再度実行する、
請求項1~5のいずれか1項に記載の情報処理装置。 - コンピュータに実行させるための方法であって、
第1画像の中から第1ターゲットに対応する第1物体を検出するための検出処理を実行する第1検出器から前記第1画像に対する第1検出結果を取得し、前記第1検出結果は、前記第1画像における前記第1ターゲットの領域を示す情報を含み、
前記第1画像の次に順序付けられた第2画像の中から前記第1ターゲットに対応する前記第1物体と種類が同じで姿勢が異なる第2物体に対応する第2ターゲットの候補となる領域を検出し、検出した前記第2ターゲットの候補となる領域が前記第2ターゲットであるのかどうかを判定するための検出処理を実行する第2検出器から前記第2ターゲットの候補となる領域を第2検出結果の候補として取得し、
検出された前記第2ターゲットの候補となる領域が、前記第2ターゲットではないと判定された場合、前記第1検出器の検出結果に含まれる前記情報が示す前記第1ターゲットの領域と前記第2ターゲットの候補となる領域との関係に基づいて、前記第2検出器の検出処理の設定を変更する、
情報処理方法。 - 第1画像の中から第1ターゲットに対応する第1物体を検出するための検出処理を実行する第1検出器から前記第1画像に対する第1検出結果を取得し、前記第1検出結果は、前記第1画像における前記第1ターゲットの領域を示す情報を含み、
前記第1画像の次に順序付けられた第2画像の中から前記第1ターゲットに対応する前記第1物体と種類が同じで姿勢が異なる第2物体に対応する第2ターゲットの候補となる領域を検出し、検出した前記第2ターゲットの候補となる領域が前記第2ターゲットであるのかどうかを判定するための検出処理を実行する第2検出器から前記第2ターゲットの候補となる領域を第2検出結果の候補として取得し、
検出された前記第2ターゲットの候補となる領域が、前記第2ターゲットではないと判定された場合、前記第1検出器の検出結果に含まれる前記情報が示す前記第1ターゲットの領域と前記第2ターゲットの候補となる領域との関係に基づいて、前記第2検出器の検出処理の設定を変更する、
情報処理方法をコンピュータに実行させるためのプログラム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962787581P | 2019-01-02 | 2019-01-02 | |
US62/787,581 | 2019-01-02 | ||
JP2019107892 | 2019-06-10 | ||
JP2019107892 | 2019-06-10 | ||
PCT/JP2019/048322 WO2020141588A1 (ja) | 2019-01-02 | 2019-12-10 | 情報処理装置、情報処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020141588A1 JPWO2020141588A1 (ja) | 2021-11-11 |
JP7407738B2 true JP7407738B2 (ja) | 2024-01-04 |
Family
ID=71406898
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020563864A Active JP7407738B2 (ja) | 2019-01-02 | 2019-12-10 | 情報処理装置、情報処理方法及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11481990B2 (ja) |
EP (1) | EP3907721A4 (ja) |
JP (1) | JP7407738B2 (ja) |
CN (1) | CN112424849B (ja) |
WO (1) | WO2020141588A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7159503B1 (ja) * | 2022-08-24 | 2022-10-24 | セーフィー株式会社 | 情報処理システム、情報処理方法、及び情報処理プログラム |
EP4372584A1 (en) * | 2022-11-17 | 2024-05-22 | Zenseact AB | A method for performing a perception task of an electronic device or a vehicle using a plurality of neural networks |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011055262A (ja) | 2009-09-02 | 2011-03-17 | Mitsubishi Electric Corp | 画像検出装置 |
JP2013134703A (ja) | 2011-12-27 | 2013-07-08 | Seiko Epson Corp | 検出装置及び検出方法 |
JP2016001463A (ja) | 2014-05-19 | 2016-01-07 | 株式会社リコー | 処理装置、処理システム、処理プログラム及び処理方法 |
JP2016143157A (ja) | 2015-01-30 | 2016-08-08 | キヤノン株式会社 | 画像処理装置、画像処理方法、及び画像処理システム |
WO2018012084A1 (ja) | 2016-07-15 | 2018-01-18 | パナソニックIpマネジメント株式会社 | 画像認識システム |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8948522B2 (en) | 2011-08-04 | 2015-02-03 | Seiko Epson Corporation | Adaptive threshold for object detection |
US9171380B2 (en) * | 2011-12-06 | 2015-10-27 | Microsoft Technology Licensing, Llc | Controlling power consumption in object tracking pipeline |
CN104517275A (zh) * | 2013-09-27 | 2015-04-15 | 株式会社理光 | 对象检测方法和系统 |
US9525892B2 (en) * | 2014-05-27 | 2016-12-20 | Nextdrive Inc. | Video image distribution method |
US9383261B2 (en) * | 2014-06-13 | 2016-07-05 | Ge Aviation Systems Llc | Method of eliminating spurious signals and a relative navigation system |
WO2017057041A1 (ja) * | 2015-09-30 | 2017-04-06 | ソニー株式会社 | 信号処理装置、信号処理方法、およびプログラム |
JP2017107503A (ja) * | 2015-12-11 | 2017-06-15 | 株式会社リコー | 情報処理装置、情報処理方法、プログラムおよびシステム |
JP6514089B2 (ja) * | 2015-11-02 | 2019-05-15 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理システム、および情報処理方法 |
JP2017146990A (ja) * | 2017-04-26 | 2017-08-24 | 株式会社東芝 | 物体検出装置及びその検出方法 |
US11080875B2 (en) * | 2018-03-22 | 2021-08-03 | Jvckenwood Corporation | Shape measuring apparatus, shape measuring method, non-transitory computer readable medium storing program |
WO2019206239A1 (en) * | 2018-04-27 | 2019-10-31 | Shanghai Truthvision Information Technology Co., Ltd. | Systems and methods for detecting a posture of a human object |
US10699154B2 (en) * | 2018-08-08 | 2020-06-30 | At&T Intellectual Property I, L.P. | Optimizing 360-degree video streaming with video content analysis |
US11200424B2 (en) * | 2018-10-12 | 2021-12-14 | Adobe Inc. | Space-time memory network for locating target object in video content |
-
2019
- 2019-12-10 WO PCT/JP2019/048322 patent/WO2020141588A1/ja unknown
- 2019-12-10 JP JP2020563864A patent/JP7407738B2/ja active Active
- 2019-12-10 EP EP19907542.5A patent/EP3907721A4/en active Pending
- 2019-12-10 CN CN201980045420.2A patent/CN112424849B/zh active Active
-
2021
- 2021-01-14 US US17/149,269 patent/US11481990B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011055262A (ja) | 2009-09-02 | 2011-03-17 | Mitsubishi Electric Corp | 画像検出装置 |
JP2013134703A (ja) | 2011-12-27 | 2013-07-08 | Seiko Epson Corp | 検出装置及び検出方法 |
JP2016001463A (ja) | 2014-05-19 | 2016-01-07 | 株式会社リコー | 処理装置、処理システム、処理プログラム及び処理方法 |
JP2016143157A (ja) | 2015-01-30 | 2016-08-08 | キヤノン株式会社 | 画像処理装置、画像処理方法、及び画像処理システム |
WO2018012084A1 (ja) | 2016-07-15 | 2018-01-18 | パナソニックIpマネジメント株式会社 | 画像認識システム |
Also Published As
Publication number | Publication date |
---|---|
WO2020141588A1 (ja) | 2020-07-09 |
JPWO2020141588A1 (ja) | 2021-11-11 |
CN112424849A (zh) | 2021-02-26 |
CN112424849B (zh) | 2023-08-04 |
EP3907721A4 (en) | 2022-03-09 |
EP3907721A1 (en) | 2021-11-10 |
US20210142087A1 (en) | 2021-05-13 |
US11481990B2 (en) | 2022-10-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10198823B1 (en) | Segmentation of object image data from background image data | |
US10769480B2 (en) | Object detection method and system | |
JP6088792B2 (ja) | 画像検出装置及び制御プログラム並びに画像検出方法 | |
US7969470B2 (en) | Moving object detection apparatus, method and program | |
JP2022036143A (ja) | 物体追跡システム、物体追跡装置、および物体追跡方法 | |
US9363499B2 (en) | Method, electronic device and medium for adjusting depth values | |
JP7407738B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
WO2019013246A1 (ja) | 物体検出装置、物体検出方法、およびプログラム | |
WO2019080743A1 (zh) | 一种目标检测方法、装置及计算机设备 | |
CN109478329A (zh) | 图像处理方法和装置 | |
US8503723B2 (en) | Histogram-based object tracking apparatus and method | |
KR20190080388A (ko) | Cnn을 이용한 영상 수평 보정 방법 및 레지듀얼 네트워크 구조 | |
JP2014071832A (ja) | 物体検出装置及びその検出方法 | |
CN110458861A (zh) | 对象检测与跟踪方法和设备 | |
JP2020109644A (ja) | 転倒検出方法、転倒検出装置及び電子機器 | |
JP2021007055A (ja) | 識別器学習装置、識別器学習方法およびコンピュータプログラム | |
JP4550768B2 (ja) | 画像検出方法および画像検出装置 | |
CN108256444B (zh) | 一种用于车载视觉系统的目标检测方法 | |
JP5241687B2 (ja) | 物体検出装置及び物体検出プログラム | |
TWI716049B (zh) | 前景及背景影像判斷方法 | |
JP2014203133A (ja) | 画像処理装置、画像処理方法 | |
JP2021012631A (ja) | 映像処理システム、情報処理装置、情報処理方法及びプログラム | |
JP2020021243A (ja) | 画像処理装置、画像処理方法、および、画像処理プログラム | |
Zhongsheng et al. | Improved algorithm of the video moving object detection based on ViBE | |
JP2017146990A (ja) | 物体検出装置及びその検出方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A527 Effective date: 20201023 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220926 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230829 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231219 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7407738 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |