JP7251692B2 - オブジェクト検出方法、オブジェクト検出装置及びプログラム - Google Patents
オブジェクト検出方法、オブジェクト検出装置及びプログラム Download PDFInfo
- Publication number
- JP7251692B2 JP7251692B2 JP2022528753A JP2022528753A JP7251692B2 JP 7251692 B2 JP7251692 B2 JP 7251692B2 JP 2022528753 A JP2022528753 A JP 2022528753A JP 2022528753 A JP2022528753 A JP 2022528753A JP 7251692 B2 JP7251692 B2 JP 7251692B2
- Authority
- JP
- Japan
- Prior art keywords
- point
- image
- model
- learning
- object detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 72
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 238000013527 convolutional neural network Methods 0.000 claims description 25
- 238000000034 method Methods 0.000 claims description 14
- 230000008569 process Effects 0.000 claims description 12
- 238000010801 machine learning Methods 0.000 claims description 4
- 210000004027 cell Anatomy 0.000 description 40
- 210000002569 neuron Anatomy 0.000 description 32
- 238000013528 artificial neural network Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 17
- 238000000605 extraction Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000005669 field effect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 238000002945 steepest descent method Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/469—Contour-based spatial representations, e.g. vector-coding
- G06V10/476—Contour-based spatial representations, e.g. vector-coding using statistical shape modelling, e.g. point distribution models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Geometry (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Image Analysis (AREA)
Description
以下、実施の形態1に係るオブジェクト検出装置1について説明する。
図1は、オブジェクト検出装置100の構成を示すブロック図である。図に示すように、オブジェクト検出装置100は、カメラ200と、制御部110と、不揮発性の記憶部120と、CNN130と、オブジェクト検出部140と、AI学習部150とを備える。
整形後のオブジェクトBBの位置及びサイズと当該オブジェクトBBのクラス確率に基づくクラス判定値を検出結果として記憶する。
畳み込みニューラルネットワークの一例として、図14に示すニューラルネットワーク300について、説明する。
ニューラルネットワーク300は、この図に示すように、入力層300a、特徴抽出層300b及び出力層300cを有する階層型のニューラルネットワークである。
ここで、
X=Σ(SUwi×xi)
である。なお、活性化関数としては、例えば、ReLUやシグモイド関数を用いることができる。
ニューラルネットワーク300における学習工程について説明する。
学習結果は、学習済みパラメータ122として記憶部120に記憶される。学習済みパラメータ122は、図15(b)に示すように、複数のニューロン情報122-1から構成されている。各ニューロン情報122-1は、特徴抽出層300b及び出力層300cの各ニューロンUに対応する。
ニューラルネットワーク300における推定工程について説明する。
実施の形態に係るCNN130は、ニューラルネットワーク300と同様の構成をしており、ニューラルネットワーク300と同様に学習及び推定を行う。
上述したようにPBは、キーポイントが含まれると推定されるBBのことである。ここでは、CNN130が出力するオブジェクト推定データに含まれるPB(第1PB-第2NPB)に含まれるキーポイントについて説明する。
上記で定義されるキーポイントを推定するための学習用データについて説明する。
上記で定義されるキーポイントを推定するための誤差関数について説明する。学習時には、まず、学習用画像800に対して、推定時と同様にオブジェクト推定データを出力する。そして、出力されたオブジェクト推定データと、教師データとを比較し、誤差関数に基づいて誤差を算出する。
オブジェクト検出部140の実行する処理について説明する。
図2は、オブジェクト検出装置1の動作を示すフローチャートである。
以上、本発明を実施の形態に基づいて説明してきたが本発明は上述の実施の形態に限定されないのは勿論であり、以下の変形例が本発明の技術範囲に含まれることは勿論である。
120 記憶部
130 CNN
140 オブジェクト検出部
150 AI学習部
200 カメラ
Claims (8)
- 所定カテゴリの一以上のオブジェクトが含まれる画像から各オブジェクトを検出するオブジェクト検出方法であって、
前記画像内の各オブジェクトのキーポイントの候補である点候補を推定するキーポイント推定ステップと、
推定された点候補に基づいて各オブジェクトのキーポイントを検出する検出ステップと、を有し、
前記キーポイントは、オブジェクトの形状をモデル化したオブジェクトモデルを考えたとき、前記オブジェクトモデルの境界を示す点集合を所定の座標軸に射影した点集合の中で、所定の条件を満たす点であり、
前記所定の座標軸は、前記オブジェクトモデルの中心を原点とし、前記オブジェクトモデルに対して設定される極座標系において所定の偏角方向をなし、
前記所定の条件は、前記射影した点集合の中で、前記座標軸上で極大値となる点及び極小値となる点のうち、正の範囲で最大値又は最小値となることである
オブジェクト検出方法。 - 前記画像における各オブジェクトの中心位置の候補である中心候補とその尤もらしさ示す信頼度を推定する中心位置推定ステップを更に有し、
前記検出ステップは、前記信頼度を用いて前記中心候補から各オブジェクトの中心位置を検出し、決定した各中心位置を用いて前記点候補から各オブジェクトのキーポイントを検出する
請求項1に記載のオブジェクト検出方法。 - 前記キーポイント推定ステップは、各オブジェクトの大きさに応じたサイズの小領域として前記点候補を推定する
請求項1または2のいずれかに記載のオブジェクト検出方法。 - 前記キーポイント推定ステップが、前記オブジェクトを検出するための機械学習を行った学習モデルにより実行される
請求項1乃至3のいずれかに記載のオブジェクト検出方法。 - 前記キーポイント推定ステップと前記中心位置推定ステップとが、前記オブジェクトを検出するための機械学習を行った学習モデルにより実行される
請求項2に記載のオブジェクト検出方法。 - 前記学習モデルは、畳み込みニューラルネットワークであり、
前記畳み込みニューラルネットワークのパラメータは、検出対象のオブジェクトを含む学習用画像と、前記学習用画像における検出対象のオブジェクトの中心位置の真値と、前記学習用画像における検出対象のオブジェクトのキーポイントの真値と、に基づく機械学習により、定められる
請求項4または5に記載のオブジェクト検出方法。 - 所定カテゴリの一以上のオブジェクトが含まれる画像から各オブジェクトを検出するオブジェクト検出装置であって、
前記画像内の各オブジェクトのキーポイントの候補である点候補を推定するキーポイント推定処理を実行する、前記オブジェクトを検出するための機械学習を行った学習モデルと、
推定された点候補に基づいて各オブジェクトのキーポイントを検出する検出部と、を備え、
前記キーポイントは、オブジェクトの形状をモデル化したオブジェクトモデルを考えたとき、前記オブジェクトモデルの境界を示す点集合を所定の座標軸に射影した点集合の中で、所定の条件を満たす点であり、
前記所定の座標軸は、前記オブジェクトモデルの中心を原点とし、前記オブジェクトモデルに対して設定される極座標系において所定の偏角方向をなし、
前記所定の条件は、前記射影した点集合の中で、前記座標軸上で極大値となる点及び極小値となる点のうち、正の範囲で最大値又は最小値となることである
オブジェクト検出装置。 - 請求項1乃至6のいずれかに記載のオブジェクト検出方法をコンピューターに実行させるプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020098325 | 2020-06-05 | ||
JP2020098325 | 2020-06-05 | ||
PCT/JP2021/019555 WO2021246217A1 (ja) | 2020-06-05 | 2021-05-24 | オブジェクト検出方法、オブジェクト検出装置及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021246217A1 JPWO2021246217A1 (ja) | 2021-12-09 |
JPWO2021246217A5 JPWO2021246217A5 (ja) | 2022-12-02 |
JP7251692B2 true JP7251692B2 (ja) | 2023-04-04 |
Family
ID=78831050
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022528753A Active JP7251692B2 (ja) | 2020-06-05 | 2021-05-24 | オブジェクト検出方法、オブジェクト検出装置及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20240029394A1 (ja) |
JP (1) | JP7251692B2 (ja) |
WO (1) | WO2021246217A1 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006202135A (ja) | 2005-01-21 | 2006-08-03 | Univ Of Tokushima | パターン検出装置、パターン検出方法、パターン検出プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 |
JP2014109555A (ja) | 2012-12-04 | 2014-06-12 | Nippon Telegr & Teleph Corp <Ntt> | 点群解析処理装置、点群解析処理方法及びプログラム |
-
2021
- 2021-05-24 US US18/000,338 patent/US20240029394A1/en active Pending
- 2021-05-24 WO PCT/JP2021/019555 patent/WO2021246217A1/ja active Application Filing
- 2021-05-24 JP JP2022528753A patent/JP7251692B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006202135A (ja) | 2005-01-21 | 2006-08-03 | Univ Of Tokushima | パターン検出装置、パターン検出方法、パターン検出プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 |
JP2014109555A (ja) | 2012-12-04 | 2014-06-12 | Nippon Telegr & Teleph Corp <Ntt> | 点群解析処理装置、点群解析処理方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JPWO2021246217A1 (ja) | 2021-12-09 |
US20240029394A1 (en) | 2024-01-25 |
WO2021246217A1 (ja) | 2021-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4709723B2 (ja) | 姿勢推定装置及びその方法 | |
US7912253B2 (en) | Object recognition method and apparatus therefor | |
US9811718B2 (en) | Method and a system for face verification | |
JP6032921B2 (ja) | 物体検出装置及びその方法、プログラム | |
US8811744B2 (en) | Method for determining frontal face pose | |
JP5629803B2 (ja) | 画像処理装置、撮像装置、画像処理方法 | |
JP7386545B2 (ja) | 画像中の物体を識別するための方法、及び当該方法を実施するためのモバイル装置 | |
JP4743823B2 (ja) | 画像処理装置、撮像装置、画像処理方法 | |
CN105740780B (zh) | 人脸活体检测的方法和装置 | |
CN112418074A (zh) | 一种基于自注意力的耦合姿态人脸识别方法 | |
KR20160096460A (ko) | 복수의 분류기를 포함하는 딥 러닝 기반 인식 시스템 및 그 제어 방법 | |
JP2019125057A (ja) | 画像処理装置及びその方法、プログラム | |
JP2008059197A (ja) | 画像照合装置、画像照合方法、コンピュータプログラム及び記憶媒体 | |
JP5906071B2 (ja) | 情報処理方法、情報処理装置、および記憶媒体 | |
CN107784284B (zh) | 人脸识别方法及系统 | |
Juang et al. | Stereo-camera-based object detection using fuzzy color histograms and a fuzzy classifier with depth and shape estimations | |
JP2011248525A (ja) | 物体の検出装置及びその検出方法 | |
Tobeta et al. | E2pose: Fully convolutional networks for end-to-end multi-person pose estimation | |
JP7251692B2 (ja) | オブジェクト検出方法、オブジェクト検出装置及びプログラム | |
US20230005162A1 (en) | Image processing system, image processing method, and storage medium | |
WO2021117363A1 (ja) | オブジェクト検出方法及びオブジェクト検出装置 | |
WO2022107548A1 (ja) | 3次元骨格検出方法及び3次元骨格検出装置 | |
Fomin et al. | Study of using deep learning nets for mark detection in space docking control images | |
CN115346270A (zh) | 交警手势识别方法、装置、电子设备及存储介质 | |
CN117037204A (zh) | 摔倒检测方法、装置、电子设备及计算机程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221027 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221027 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20221027 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230306 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7251692 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |