JP2021511556A - 高速物体認識用のシルエットの使用 - Google Patents
高速物体認識用のシルエットの使用 Download PDFInfo
- Publication number
- JP2021511556A JP2021511556A JP2020528326A JP2020528326A JP2021511556A JP 2021511556 A JP2021511556 A JP 2021511556A JP 2020528326 A JP2020528326 A JP 2020528326A JP 2020528326 A JP2020528326 A JP 2020528326A JP 2021511556 A JP2021511556 A JP 2021511556A
- Authority
- JP
- Japan
- Prior art keywords
- image
- pixel
- silhouette
- separated
- object recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 27
- 238000013528 artificial neural network Methods 0.000 claims abstract description 16
- 238000001514 detection method Methods 0.000 claims description 14
- 230000011218 segmentation Effects 0.000 claims description 8
- 230000001131 transforming effect Effects 0.000 abstract 1
- 238000000605 extraction Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000003709 image segmentation Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000414 obstructive effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2323—Non-hierarchical techniques based on graph theory, e.g. minimum spanning trees [MST] or graph cuts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
Description
− 画像センサから画像を取得し、深度センサから3Dポイントクラウドを取得するステップと、
− 画像及び3Dポイントクラウドを同期させるステップと、
− 3Dポイントクラウドから物体を分離するために3Dポイントをクラスタリングするステップと、
− 〇 3Dポイントクラスタリングを用いた画像のセグメント化、及び
〇 セグメント化された画像における分離された物体の輪郭検出、
によってシルエットを抽出するステップと、
− 〇 各検出された輪郭をシルエット記述子に変形すること、及び
〇 物体認識用に訓練されたニューラルネットワークを用いて、これらのシルエット記述子を認識された物体に分類すること、
によってシルエットを認識するステップと、
を含む物体認識方法に関する。
(人間、ポール、木、動物、走行車等)に適用され得るので、包括的である。計算上のコストは低く、計算は速い。実際に、画素分布解析は、多くの処理を必要とするが、シルエット認識は、はるかに少ない処理しか必要としない。シルエット処理は、シーンの完全な記述は提供しないが、それでもやはり、それは、シーン内の潜在的な危険を検出するための優れた性能を備えた高速検出用の基本的手がかり及びコア技術を提供する。
− 〇 検討中の分離された物体に対応する3Dポイントクラスタリングステップからの全ての3Dポイントを画像上に投影することと、
〇 検討中の分離された物体に又は背景に属するものとして、投影された3Dポイントを評価することと、
〇 2つの隣接画素間の色差及び/又は距離に基づいた画素重みを用いて、検討中の分離された物体、背景、又は未知の状態、のいずれかに属するものとして画像の各画素を評価することと、
〇 分離された物体に属する画素への各画素の距離、及び背景に属する画素への各画素の距離に基づいて、未知の状態に属する各画素用に画素重みを調整することと、
によって3Dポイントクラスタリングステップによって分離された各物体からグラフカットするサブステップと、
− 1つ又は幾つかのブロブ(blob)の形で、背景及び検討中の分離された物体を表す画素の白黒マスクを各分離された物体用に出力するサブステップと、
を含む。
− 対応する分離された物体の3Dポイントクラスタリングに基づいた距離を各ブロブ用に評価するサブステップと、
− 全てのブロブを最も遠くのものから最も近いものの順で描画することによって、全てのブロブを単一画像に組み合わせ、且つ更なる識別のために全てのブロブに相異なるラベルを割り当て、その結果として、重ねられたブロブ画像をもたらすサブステップと、
− 分離された物体に対応する重ねられたブロブ画像から輪郭を抽出するサブステップと、
− より近いブロブに属する距離で評価された輪郭の各画素用に偽の輪郭部分を決定するサブステップと、
を含む。
− 画像を捕捉するように構成された画像センサユニットと、
− 3Dポイントクラウドを取得するように構成された深度センサと、
− 画像及び3Dポイントクラウドを(時間的且つ/又は空間的に)同期させる同期ユニットと、
− 請求項1〜6のいずれかに記載の物体認識方法に従って、画像内の物体を認識するように構成された処理ユニットと、
− 認識された物体に基づいて、走行車を制御するように構成された制御ユニットと、を含む支援型又は自律走行車に関する。
覚、即ち遮蔽輪郭を認識し分類する能力は、危険をできるだけ速く回避する能力を与える人間の視覚の主要な構成要素である。それは、危険の分離及び認識を通して行われる。我々の目標は、この主要な構成要素を模倣すること、及び可能であるが多くの(時間及び電力)処理を要求する画素分布解析(古典的アプローチ)の代わりに、多くの用途(一般にドライバの支援、自動運転、及びロボット)のためのコンピュータビジョンにこの能力を提供することである。更に、シルエット技術はまた、行動認識への入力として人の姿勢を理解することが、はるかに簡単なので、他の機能(行動予測など)の出発点になり得る。
S1:画像センサから画像を取得し、深度センサから3Dポイントクラウド(三次元点群)を取得するステップと、
S2:画像及び3Dポイントクラウドを同期させるステップと、
S3:3Dポイントクラウドから物体を分離するために3Dポイントをクラスタリングするステップと、
S4:3Dポイントクラスタリングを用いた画像のセグメント化(S41)、及びセグメント化画像における分離された物体の輪郭検出(S42)によってシルエットを抽出するステップと、
S5:各検出された輪郭をシルエット記述子に変換すること(S51)、及び物体認識用に訓練されたニューラルネットワークを用いて、これらのシルエット記述子を認識された物体に分類すること(S52)によってシルエットを認識するステップと、
を含む。
− 2D/3D画像及びポイントクラウド処理用の独立型の大規模なオープンプロジェクトであるポイントクラウドライブラリ(www.pointclouds.org)と、
− 3Dクラスタリング方法を用いるセグメント化アルゴリズムをパートIIIで提示する、Douillard et al.による「On the Segmentation of 3D LIDAR Point Clouds」と、
− 都市環境の3Dポイントクラウドにおける物体を認識するためのシステムを提示する、Golovinskiy et al.による「Shape-based recognition of 3D point clouds in urban environments」と、
がある。
決法の中には、
− 特徴抽出用にフィッシャーベクトルの使用を提示する、Adrian et al.による「Shape feature encoding via Fisher Vector for efficient fall detection in depth-videos」がある。
S411:
S4111:検討中の分離された物体に対応する3Dポイントクラスタリングステップからの全ての3Dポイントを画像上に投影することと、
S4112:検討中の分離された物体又は背景のいずれかに属するものとして、投影された3Dポイントを評価することと、
S4113:2つの隣接画素間の色差及び/又は距離に基づいた画素重みを用いて、検討中の分離された物体、背景、又は未知の状態のいずれかに属するものとして画像の各画素を評価することと、
S4114:分離された物体に属する画素への各画素の距離、及び背景に属する画素への各画素の距離に基づいて、未知の状態に属する各画素用の画素重みを調整することと、
によって、3Dポイントクラスタリングステップによって分離された各物体をからグラフカットするサブステップと、
S412:1つ又は幾つかのブロブの形で、背景及び検討中の分離された物体を表す画素の白黒マスクを各分離された物体用に出力するサブステップと、
を含む。
間を補間し、我々は、物体の上端及び底部において外挿する。全体として、我々は、これらの2D画素(3つのカテゴリ)を事前選択画素と呼ぶ。同期化問題に対処するために、赤色及び緑色セットは、わずかに小さくされる。
S421:対応する分離された物体の3Dポイントクラスタリングに基づいた距離を各ブロブ用に評価するサブステップと、
S422:全てのブロブを最も遠くのものから最も近いものの順で描画ことによって、全てのブロブを単一画像に組み合わせ、且つ更なる識別のために全てのブロブに相異なるラベルを割り当て、結果として重ねられたブロブ画像をもたらすサブステップと、
S423:分離された物体に対応する重ねられたブロブ画像から輪郭を抽出するサブステップと、
S424:より近いブロブに属する距離で評価された輪郭の各画素用に偽の輪郭部分を決定するサブステップと、
を含む。
Claims (8)
- − 画像センサから画像を取得し、深度センサから3Dポイントクラウドを取得するステップ(S1)と、
− 前記画像及び前記3Dポイントクラウドを同期させるステップ(S2)と、
− 前記3Dポイントクラウドから物体を分離するために3Dポイントをクラスタリングするステップ(S3)と、
− 〇 前記3Dポイントクラスタリングを用いた前記画像のセグメント化(S41)、及び
〇 前記セグメント化された画像における前記分離された物体の輪郭検出(S42)、
によってシルエットを抽出するステップ(S4)と、
− 〇 各検出された輪郭をシルエット記述子に変形すること(S51)、及び
〇 物体認識用に訓練されたニューラルネットワークを用いて、これらのシルエット記述子を認識された物体に分類すること(S52)、
によってシルエットを認識するステップ(S5)と、
を含む物体認識方法。 - 前記画像が、複数の画素から作られ、
前記画像の前記セグメント化が、
− 〇 検討中の前記分離された物体に対応する前記3Dポイントクラスタリングステップからの全ての3Dポイントを前記画像上に投影すること(S4111)と、
〇 検討中の前記分離された物体に又は背景のいずれかに属するものとして、前記投影された3Dポイントを評価すること(S4112)と、
〇 2つの隣接画素間の色差及び/又は距離に基づいた画素重みを用いて、検討中の前記分離された物体、背景、又は未知の状態、のいずれかに属するものとして前記画像の各画素を評価すること(S4113)と、
〇 前記分離された物体に属する前記画素への各画素の距離、及び前記背景に属する前記画素への前記各画素の距離に基づいて、前記未知の状態に属する前記各画素用の前記画素重みを調整すること(S4114)と、
によって、前記3Dポイントクラスタリングステップによって分離された各物体をグラフカットするサブステップ(S411)と、
− 1つ又は幾つかのブロブ形で、前記背景及び検討中の前記分離された物体を表す画素の白黒マスクを各分離された物体用に出力するサブステップと、
を含む、請求項1に記載の物体認識方法。 - 前記輪郭検出が、
− 前記対応する分離された物体の前記3Dポイントクラスタリングに基づいた距離を各ブロブ用に評価するサブステップ(S421)と、
− 全ての前記ブロブを最も遠くのものから最も近いものの順で描画することによって、全ての前記ブロブを単一画像に組み合わせ、且つ更なる識別のために全ての前記ブロブに相異なるラベルを割り当て、その結果として、重ねられたブロブ画像をもたらすサブステップ(S422)と、
− 分離された物体に対応する前記重ねられたブロブ画像から前記輪郭を抽出するサブステップ(S423)と、
− より近いブロブに属する距離で評価された前記輪郭の各画素用に偽の輪郭部分を決定するサブステップ(S424)と、
を含む、請求項2に記載の物体認識方法。 - 前記シルエット記述子が、一定の記述長を用いる1D記述子である、請求項1〜3のい
ずれか一項に記載の物体認識方法。 - 前記シルエット記述子が、低減された長さを有する、請求項4に記載の物体認識方法。
- − 前記物体認識ニューラルネットワークを前記画像内の物体予測用の少なくとも1つの別の訓練されたニューラルネットワークと組み合わせて、物体認識及び予測用の末端間ニューラルネットワークを形成するステップ、
を更に含む、請求項1〜5のいずれか一項に記載の物体認識方法。 - − 画像を捕捉するように構成された画像センサユニット(200)と、
− 3Dポイントクラウドを取得するように構成された深度センサ(210)と、
− 〇 前記画像及び前記3Dポイントクラウドを同期するように、かつ、
〇 請求項1〜6のいずれか一項に記載の前記物体認識方法に従って、前記画像内の物体を認識するように、
構成された処理ユニット(300)と、
− 認識された物体に基づいて、走行車(100)を制御するように構成された制御ユニットと、
を含む支援型又は自律走行車(100)。 - − 前記認識された物体に関係する情報を表示するように構成された表示ユニット及び/又は
− 認識された物体に依存して、安全な経路を計画するように構成された支援型若しくは自律駆動ユニット(400、410)、
を更に含み、
前記制御ユニットが、前記表示ユニット及び前記支援型又は自律駆動ユニットの少なくとも1つを作動するように構成される、請求項7に記載の支援型又は自律走行車(100)。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1761804 | 2017-12-07 | ||
FR1761804A FR3074941B1 (fr) | 2017-12-07 | 2017-12-07 | Utilisation de silhouettes pour une reconnaissance rapide d'objets |
PCT/EP2018/084035 WO2019110824A1 (en) | 2017-12-07 | 2018-12-07 | Using silhouette for fast object recognition |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021511556A true JP2021511556A (ja) | 2021-05-06 |
JP7317009B2 JP7317009B2 (ja) | 2023-07-28 |
Family
ID=61655891
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020528326A Active JP7317009B2 (ja) | 2017-12-07 | 2018-12-07 | 高速物体認識用のシルエットの使用 |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7317009B2 (ja) |
FR (1) | FR3074941B1 (ja) |
WO (1) | WO2019110824A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112445215B (zh) * | 2019-08-29 | 2024-07-12 | 阿里巴巴集团控股有限公司 | 自动导引车行驶控制方法、装置及计算机系统 |
CN110570442A (zh) * | 2019-09-19 | 2019-12-13 | 厦门市美亚柏科信息股份有限公司 | 一种复杂背景下轮廓检测方法、终端设备及存储介质 |
CN112561836B (zh) * | 2019-09-25 | 2024-04-16 | 北京地平线机器人技术研发有限公司 | 一种获取目标物的点云集合的方法及装置 |
CN111008560A (zh) * | 2019-10-31 | 2020-04-14 | 重庆小雨点小额贷款有限公司 | 一种牲畜的重量确定方法、装置、终端及计算机存储介质 |
CN111198563B (zh) * | 2019-12-30 | 2022-07-29 | 广东省智能制造研究所 | 一种用于足式机器人动态运动的地形识别方法及系统 |
CN112975957A (zh) * | 2021-02-07 | 2021-06-18 | 深圳市广宁股份有限公司 | 目标提取方法、系统、机器人及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120106782A1 (en) * | 2007-01-29 | 2012-05-03 | Intellivision Technologies Corporation | Detector for chemical, biological and/or radiological attacks |
JP2017129543A (ja) * | 2016-01-22 | 2017-07-27 | 京セラ株式会社 | ステレオカメラ装置及び車両 |
-
2017
- 2017-12-07 FR FR1761804A patent/FR3074941B1/fr active Active
-
2018
- 2018-12-07 JP JP2020528326A patent/JP7317009B2/ja active Active
- 2018-12-07 WO PCT/EP2018/084035 patent/WO2019110824A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120106782A1 (en) * | 2007-01-29 | 2012-05-03 | Intellivision Technologies Corporation | Detector for chemical, biological and/or radiological attacks |
JP2017129543A (ja) * | 2016-01-22 | 2017-07-27 | 京セラ株式会社 | ステレオカメラ装置及び車両 |
Non-Patent Citations (2)
Title |
---|
M. HOSSEIN DARAEI ET AL.: "Region Segmentation Using LiDAR and Camera", 2017 IEEE 20TH INTERNATIONAL CONFERENCE ON INTELLIGENT TRANSPORTATION SYSTEMS(ITSC), JPN6022037828, 19 October 2017 (2017-10-19), pages 1 - 6, XP033330515, ISSN: 0005016845, DOI: 10.1109/ITSC.2017.8317861 * |
TOMISLAV KESER ET AL.: "Traffic Signs Shape Recognition Based on Contour Descriptor Analysis", 2016 INTERNATIONAL CONFERENCE ON SMART SYSTEMS AND TECHNOLOGIES(SST), JPN6022037829, 14 October 2016 (2016-10-14), pages 199 - 204, XP033016417, ISSN: 0005016846, DOI: 10.1109/SST.2016.7765659 * |
Also Published As
Publication number | Publication date |
---|---|
FR3074941A1 (fr) | 2019-06-14 |
JP7317009B2 (ja) | 2023-07-28 |
WO2019110824A1 (en) | 2019-06-13 |
FR3074941B1 (fr) | 2021-01-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7317009B2 (ja) | 高速物体認識用のシルエットの使用 | |
Vertens et al. | Smsnet: Semantic motion segmentation using deep convolutional neural networks | |
US10268900B2 (en) | Real-time detection, tracking and occlusion reasoning | |
Yahiaoui et al. | Fisheyemodnet: Moving object detection on surround-view cameras for autonomous driving | |
Wang et al. | Appearance-based brake-lights recognition using deep learning and vehicle detection | |
Zhao et al. | Stereo-and neural network-based pedestrian detection | |
Yoneyama et al. | Robust vehicle and traffic information extraction for highway surveillance | |
Hoang et al. | Enhanced detection and recognition of road markings based on adaptive region of interest and deep learning | |
US10679369B2 (en) | System and method for object recognition using depth mapping | |
Premachandra et al. | Detection and tracking of moving objects at road intersections using a 360-degree camera for driver assistance and automated driving | |
US11024042B2 (en) | Moving object detection apparatus and moving object detection method | |
Hua et al. | Small obstacle avoidance based on RGB-D semantic segmentation | |
Raza et al. | Framework for estimating distance and dimension attributes of pedestrians in real-time environments using monocular camera | |
Wang et al. | Multi-sensor fusion technology for 3D object detection in autonomous driving: A review | |
Ohn-Bar et al. | Partially occluded vehicle recognition and tracking in 3D | |
Stec et al. | Using time-of-flight sensors for people counting applications | |
Poostchi et al. | Spatial pyramid context-aware moving vehicle detection and tracking in urban aerial imagery | |
Kazerouni et al. | An intelligent modular real-time vision-based system for environment perception | |
Omar et al. | Detection and localization of traffic lights using YOLOv3 and Stereo Vision | |
Ellenfeld et al. | Deep fusion of appearance and frame differencing for motion segmentation | |
Kao et al. | Moving object segmentation using depth and optical flow in car driving sequences | |
Zhang et al. | Night time vehicle detection and tracking by fusing sensor cues from autonomous vehicles | |
Erçelik et al. | Temp-frustum net: 3d object detection with temporal fusion | |
Han et al. | A real-time lidar and vision based pedestrian detection system for unmanned ground vehicles | |
Kira et al. | Long-range pedestrian detection using stereo and a cascade of convolutional network classifiers |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20201027 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20201102 |
|
RD13 | Notification of appointment of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7433 Effective date: 20210422 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210810 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211025 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220913 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20221209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230322 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230622 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230711 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230718 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7317009 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |