JP6272217B2 - 移動する物体の近傍の自由空間を推定する方法および装置 - Google Patents
移動する物体の近傍の自由空間を推定する方法および装置 Download PDFInfo
- Publication number
- JP6272217B2 JP6272217B2 JP2014261809A JP2014261809A JP6272217B2 JP 6272217 B2 JP6272217 B2 JP 6272217B2 JP 2014261809 A JP2014261809 A JP 2014261809A JP 2014261809 A JP2014261809 A JP 2014261809A JP 6272217 B2 JP6272217 B2 JP 6272217B2
- Authority
- JP
- Japan
- Prior art keywords
- free space
- image
- curve
- moving object
- vicinity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/29—Graphical models, e.g. Bayesian networks
- G06F18/295—Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
- G06T11/206—Drawing of charts or graphs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/84—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using probabilistic graphical models from image or video features, e.g. Markov models or Bayesian networks
- G06V10/85—Markov-related models; Markov random fields
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/586—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Description
具体的には、図1に示すように、本発明者らは、船舶ナビゲーション及び都市ナビゲーションの双方の状況において単眼イメージが与えられた場合の自由空間の推定に関心がある。この目標を達成するために、ピクセルの各画像列yiについて障害物の垂直座標を推定する問題が、マルコフ確率場(MRF)における推論の問題として表現される。図3に示すように、MRFは、1Dグラフ301として表され、その解は、画像における1D曲線310を提供する。
ビデオ内の時刻tにおける画像をItで示すことにする。画像の寸法はw×hである。ここで、w及びhは、それぞれ幅及び高さである。上記問題は、w個の離散変数yi,i∈{1,…,w}があり、各変数がh個の離散ラベルyi∈{1,…,h}からの値を取ることができるようにモデル化される。
それぞれが5つの成分を有する2つのガウス混合モデル(GMM)を用いて、道路又は水面、及び背景の外観モデルがモデル化される。ここで、道路及び水面という用語は、区別なく用いることができる。GMMは、各ピクセルが道路若しくは水面、又は背景である確率を求めるのに用いられる。対象シーンに固有のGMMは、期待値最大化(EM)法を用いて、間違いのないデータを有するトレーニング画像250から求めることができる。GMMは、間違いのないデータを有する道路/水及び背景を含む画像を用いることによって、より一般的なシーンについても求めることができる。
グラウンドトゥルース曲線は、地表平面と障害物との間の境界にある。この曲線が輪郭と一致している方がよいことを符号化したものであるエッジポテンシャルが導出される。画像には多くの輪郭が存在する場合があるが、この曲線は、画像の最下部の近傍に位置するエッジであることが好ましい。これらのエッジは、シーンの3D空間において最も近いエッジに対応する。これを考慮に入れるために、以下のようにエッジエビデンス(edge evidence)を累算する以下のポテンシャルが定義される。
単一の画像が与えられると、この画像内のピクセルを地表、建物(水平に向いている)、及び空に分類することが可能である。G(i,j)が、この分類に基づいて、ピクセルが地表であるか否かに対応するブールラベルを指すものとする。本発明者らは、最も大きな自由空間を囲む曲線を得ることに関心があるので、以下のポテンシャルを用いる。
画像シーケンスにわたって平滑である自由空間を取得することが重要である。1つの可能性は、或る画像内のノードと直前の画像内のノードとの間のペアになった接続を考慮することによって、2つの連続した画像内の曲線を併せて推定することである。この結果、画像It内のピクセルp(i,j)のラベル付けは、画像It−1内のp(i’,j’)の近接ピクセルを用いて制約され、これによって、1Dチェーンでもなく木構造グラフでもない2Dグラフが得られる。その結果、推論はNP困難となる。
トランケートされた2次ペナルティを用いて、曲線の平滑化が促進される。この曲線は、障害物が存在するときにしか非平滑でなく、これは数個の列でしか起こらないことに留意されたい。したがって、以下のようになる。
MAP推定値、又は最大エネルギー構成は、以下の式を解くことによって求めることができる。
トレーニング画像を用いて重みパラメーターを学習するのに、以下の式の構造化SVMが用いられる。
Claims (21)
- 移動する物体の近傍の自由空間を推定する方法であって、
移動する前記物体上に配置された単眼カメラシステムによってシーンの画像のシーケンスを取得するステップと、
前記画像のシーケンスにおける各画像に対して、
1次元グラフとしてマルコフ確率場を作成するステップであって、前記1次元グラフ内の各ノードは前記画像内のピクセルの列のための離散変数に対応するものと、
前記画像内の特徴を求めるステップと、
求められた前記特徴に基づいて前記一次元グラフ上にエネルギー関数を作成するステップと、および
動的計画法を用いるステップであって、前記エネルギー関数を最大にして曲線を取得するステップであって、前記曲線の下方のエリアが前記物体の近傍の前記自由空間を規定し、前記自由空間は、或るロケーションから別のロケーションに移動する前記物体の自律ナビゲーションに用いられるものと、
を含み、
前記各ステップは、前記単眼カメラシステムに接続されたプロセッサにおいて実行され、
前記エネルギー関数は1変数および2変数のポテンシャル関数の和を有し、各ポテンシャル関数は、求められた特徴の中の対応する特徴とトレーニング画像のシーケンスから学習した対応する重みパラメーターを用いて求められる、移動する物体の近傍の自由空間を推定する方法。 - 前記移動する物体は車両であり、前記シーンは道路を含む、請求項1に記載の方法。
- 前記移動する物体はボートであり、前記シーンは水面を含む、請求項1に記載の方法。
- 前記画像内のピクセルの前記各列について、障害物の垂直座標を推定するステップ、
を更に含む、請求項1に記載の方法。 - 前記自由空間は、前記移動する物体の前方又は後方にある、請求項1に記載の方法。
- 水平線の推定値を用いるステップであって、前記障害物の前記垂直座標を制限するもの、
を更に含む、請求項4に記載の方法。 - 前記水平線の前記推定値は、前記単眼カメラシステムの構成に基づいて求められる、請求項6に記載の方法。
- 前記水平線の前記推定値は、トレーニング画像のセットを用いて求められる、請求項6に記載の方法。
- 前記重みパラメーターは手動で設定される、請求項1に記載の方法。
- 前記重みパラメーターは、構造化サポートベクターマシンを用いてトレーニング画像のセットから自動的に求められる、請求項1に記載の方法。
- 前記特徴は、エッジ、外観、ホモグラフィー、幾何学的状況、平滑性、オプティカルフロー、奥行きマップ、及びそれらの組み合わせからなる群から選択される、請求項1に記載の方法。
- 前記外観は、ガウス混合モデルによってモデル化される、請求項11に記載の方法。
- 前記画像内の前記各ピクセルのロケーション事前確率を求めるステップであって、前記曲線を平滑化するもの、
を更に含む、請求項1に記載の方法。 - 前記ホモグラフィーは、前記画像にわたり平滑性を課し、前記ホモグラフィーは、前記画像内の地表平面に基づいている、請求項11に記載の方法。
- トランケートされた2次ペナルティが、前記曲線を平滑化するのに用いられる、請求項1に記載の方法。
- 移動する前記物体が車両であり、前記自由空間は、或るロケーションから別のロケーションに移動する前記車両の自律ナビゲーションに用いられる、請求項1に記載の方法。
- 移動する前記物体がボートであり、前記自由空間は、前記ボートを停泊又は係留中に操縦するのに用いられる、請求項1に記載の方法。
- 移動する前記物体が車両であり、前記自由空間は、前記車両の駐車支援に用いられる、請求項1に記載の方法。
- 移動する前記物体が屋内移動ロボットであり、前記自由空間は、前記屋内移動ロボットによって建物内の移動に用いられる、請求項1に記載の方法。
- 移動する前記物体が真空掃除ロボットであり、前記自由空間は、前記真空掃除ロボットによって用いられる、請求項1に記載の方法。
- 移動する物体の近傍の自由空間を推定する装置であって、
シーンの画像のシーケンスを取得するために移動する前記物体上に配置された単眼カメラシステムと、
前記単眼カメラシステムに接続されたプロセッサであって、
1次元グラフとしてマルコフ確率場を作成し、前記グラフ内の各ノードは前記画像内のピクセルの列のための離散変数に対応し、
前記画像内の特徴を求め、
求められた前記特徴に基づいて前記一次元グラフ上にエネルギー関数を作成し、および
動的計画法を用いて、前記エネルギー関数を最大にして曲線を取得し、前記曲線の下方のエリアが前記物体の近傍の前記自由空間を規定し、前記自由空間は、或るロケーションから別のロケーションに移動する前記物体の自律ナビゲーションに用いられる、
ことができるものと、
を備え、
前記エネルギー関数は1変数および2変数のポテンシャル関数の和を有し、各ポテンシャル関数は、求められた特徴の中の対応する特徴とトレーニング画像のシーケンスから学習した対応する重みパラメーターを用いて求められる、
移動する物体の近傍の自由空間を推定する装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/162,370 US9305219B2 (en) | 2014-01-23 | 2014-01-23 | Method for estimating free space using a camera system |
US14/162,370 | 2014-01-23 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015138550A JP2015138550A (ja) | 2015-07-30 |
JP2015138550A5 JP2015138550A5 (ja) | 2017-10-05 |
JP6272217B2 true JP6272217B2 (ja) | 2018-01-31 |
Family
ID=53545066
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014261809A Active JP6272217B2 (ja) | 2014-01-23 | 2014-12-25 | 移動する物体の近傍の自由空間を推定する方法および装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US9305219B2 (ja) |
JP (1) | JP6272217B2 (ja) |
Families Citing this family (63)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104487864B (zh) | 2012-08-27 | 2017-06-23 | 伊莱克斯公司 | 机器人定位系统 |
CN105101855A (zh) | 2013-04-15 | 2015-11-25 | 伊莱克斯公司 | 具有伸出的侧刷的机器人真空吸尘器 |
WO2014169943A1 (en) | 2013-04-15 | 2014-10-23 | Aktiebolaget Electrolux | Robotic vacuum cleaner |
CN105744872B (zh) | 2013-12-19 | 2020-01-14 | 伊莱克斯公司 | 旋转侧刷的自适应速度控制 |
EP3082544B1 (en) | 2013-12-19 | 2020-10-07 | Aktiebolaget Electrolux | Robotic vacuum cleaner with side brush moving in spiral pattern |
WO2015090397A1 (en) | 2013-12-19 | 2015-06-25 | Aktiebolaget Electrolux | Robotic cleaning device |
US9811089B2 (en) | 2013-12-19 | 2017-11-07 | Aktiebolaget Electrolux | Robotic cleaning device with perimeter recording function |
EP3082542B1 (en) | 2013-12-19 | 2018-11-28 | Aktiebolaget Electrolux | Sensing climb of obstacle of a robotic cleaning device |
EP3084539B1 (en) * | 2013-12-19 | 2019-02-20 | Aktiebolaget Electrolux | Prioritizing cleaning areas |
US10617271B2 (en) | 2013-12-19 | 2020-04-14 | Aktiebolaget Electrolux | Robotic cleaning device and method for landmark recognition |
US10231591B2 (en) | 2013-12-20 | 2019-03-19 | Aktiebolaget Electrolux | Dust container |
CN106415423B (zh) | 2014-07-10 | 2021-01-01 | 伊莱克斯公司 | 用于检测机器人清洁装置的测量误差的方法 |
KR20230042386A (ko) | 2014-08-15 | 2023-03-28 | 에이아이, 아이엔씨. | 레이더 전송을 위한 방법 및 시스템 |
US10729297B2 (en) | 2014-09-08 | 2020-08-04 | Aktiebolaget Electrolux | Robotic vacuum cleaner |
WO2016037635A1 (en) | 2014-09-08 | 2016-03-17 | Aktiebolaget Electrolux | Robotic vacuum cleaner |
WO2016091291A1 (en) | 2014-12-10 | 2016-06-16 | Aktiebolaget Electrolux | Using laser sensor for floor type detection |
CN114668335A (zh) | 2014-12-12 | 2022-06-28 | 伊莱克斯公司 | 侧刷和机器人吸尘器 |
CN107003669B (zh) | 2014-12-16 | 2023-01-31 | 伊莱克斯公司 | 用于机器人清洁设备的基于经验的路标 |
EP3234713B1 (en) | 2014-12-16 | 2022-06-15 | Aktiebolaget Electrolux | Cleaning method for a robotic cleaning device |
US9928430B2 (en) * | 2015-04-10 | 2018-03-27 | GM Global Technology Operations LLC | Dynamic stixel estimation using a single moving camera |
US11099554B2 (en) | 2015-04-17 | 2021-08-24 | Aktiebolaget Electrolux | Robotic cleaning device and a method of controlling the robotic cleaning device |
WO2017033422A1 (ja) * | 2015-08-21 | 2017-03-02 | パナソニックIpマネジメント株式会社 | 画像処理装置および画像処理方法 |
JP6736831B2 (ja) | 2015-09-03 | 2020-08-05 | アクチエボラゲット エレクトロルックス | ロボット清掃デバイスのシステム、清掃デバイスを制御する方法、コンピュータプログラム及びコンピュータプログラム製品 |
US10042159B2 (en) | 2016-02-18 | 2018-08-07 | Aeye, Inc. | Ladar transmitter with optical field splitter/inverter |
US10754015B2 (en) | 2016-02-18 | 2020-08-25 | Aeye, Inc. | Adaptive ladar receiver |
US10908262B2 (en) | 2016-02-18 | 2021-02-02 | Aeye, Inc. | Ladar transmitter with optical field splitter/inverter for improved gaze on scan area portions |
US9933513B2 (en) | 2016-02-18 | 2018-04-03 | Aeye, Inc. | Method and apparatus for an adaptive ladar receiver |
KR102588486B1 (ko) | 2016-03-15 | 2023-10-11 | 에이비 엘렉트로룩스 | 로봇 청소 장치 및 로봇 청소 장치에서의 절벽 검출 실시 방법 |
WO2017173115A1 (en) * | 2016-03-31 | 2017-10-05 | Faraday&Future Inc. | Camera based auto drive for auto charge |
WO2017194102A1 (en) | 2016-05-11 | 2017-11-16 | Aktiebolaget Electrolux | Robotic cleaning device |
JP6660595B2 (ja) * | 2016-06-07 | 2020-03-11 | パナソニックIpマネジメント株式会社 | 駐車空間探索装置、プログラムおよび記録媒体 |
EP3264763A1 (en) * | 2016-06-29 | 2018-01-03 | Thomson Licensing | Method and apparatus for improved significance flag coding using simple local predictor |
EP3293668B1 (en) * | 2016-09-13 | 2023-08-30 | Arriver Software AB | A vision system and method for a motor vehicle |
DE112017006840B4 (de) * | 2017-01-16 | 2023-11-02 | Fujitsu Limited | Informationsverarbeitungsprogramm, Informationsverarbeitungsverfahren und Informationsverarbeitungsvorrichtung |
US10185028B2 (en) | 2017-02-17 | 2019-01-22 | Aeye, Inc. | Method and system for ladar pulse deconfliction using delay code selection |
US20180239969A1 (en) * | 2017-02-23 | 2018-08-23 | Ford Global Technologies, Llc | Free Space Detection Using Monocular Camera and Deep Learning |
US10726614B2 (en) * | 2017-05-30 | 2020-07-28 | Edx Technologies, Inc. | Methods and systems for changing virtual models with elevation information from real world image processing |
US11474533B2 (en) | 2017-06-02 | 2022-10-18 | Aktiebolaget Electrolux | Method of detecting a difference in level of a surface in front of a robotic cleaning device |
US10474908B2 (en) * | 2017-07-06 | 2019-11-12 | GM Global Technology Operations LLC | Unified deep convolutional neural net for free-space estimation, object detection and object pose estimation |
US10620638B2 (en) | 2017-08-18 | 2020-04-14 | Wipro Limited | Method, system, and device for guiding autonomous vehicles based on dynamic extraction of road region |
EP3682308B1 (en) | 2017-09-15 | 2024-04-10 | Aeye, Inc. | Intelligent ladar system with low latency motion planning updates |
EP3687357A1 (en) | 2017-09-26 | 2020-08-05 | Aktiebolaget Electrolux | Controlling movement of a robotic cleaning device |
DE102017123582A1 (de) * | 2017-10-11 | 2019-04-11 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum Bestimmen einer Region von Interesse in einem von einer Kamera eines Kraftfahrzeugs aufgenommenen Bild, Steuereinrichtung, Kamerasystem sowie Kraftfahrzeug |
DE102017223206A1 (de) | 2017-12-19 | 2019-06-19 | Robert Bosch Gmbh | Niederdimensionale Ermittlung von abgegrenzten Bereichen und Bewegungspfaden |
DE102018202244A1 (de) * | 2018-02-14 | 2019-08-14 | Robert Bosch Gmbh | Verfahren zur Abbildung der Umgebung eines Fahrzeugs |
KR102054926B1 (ko) * | 2018-02-27 | 2019-12-12 | 주식회사 만도 | Free Space 신호 기반 근거리 컷인 차량 검출 시스템 및 방법 |
RU2698402C1 (ru) * | 2018-08-30 | 2019-08-26 | Самсунг Электроникс Ко., Лтд. | Способ обучения сверточной нейронной сети для восстановления изображения и система для формирования карты глубины изображения (варианты) |
US11733387B2 (en) | 2018-10-25 | 2023-08-22 | Aeye, Inc. | Adaptive ladar receiver control using spatial index of prior ladar return data |
US10311324B1 (en) * | 2018-10-26 | 2019-06-04 | StradVision, Inc. | Learning method, learning device for detecting objectness by detecting bottom lines and top lines of nearest obstacles and testing method, testing device using the same |
JP7103202B2 (ja) * | 2018-12-20 | 2022-07-20 | 株式会社デンソー | 画像認識装置 |
US10656272B1 (en) | 2019-04-24 | 2020-05-19 | Aeye, Inc. | Ladar system and method with polarized receivers |
FI20195678A1 (fi) * | 2019-08-14 | 2021-02-15 | Ponsse Oyj | Menetelmä ja järjestelmä metsäkoneessa |
US11586861B2 (en) | 2019-09-13 | 2023-02-21 | Toyota Research Institute, Inc. | Embeddings + SVM for teaching traversability |
US11378967B2 (en) * | 2019-09-25 | 2022-07-05 | Baidu Usa Llc | Enumeration based failure prevention QP smoother for autonomous vehicles |
KR102177614B1 (ko) * | 2020-01-09 | 2020-11-12 | 렉스젠(주) | 교통 정보 수집을 위한 차로 생성 시스템 및 그 방법 |
US11604264B2 (en) | 2021-03-26 | 2023-03-14 | Aeye, Inc. | Switchable multi-lens Lidar receiver |
US20220317249A1 (en) | 2021-03-26 | 2022-10-06 | Aeye, Inc. | Hyper Temporal Lidar with Switching Between a Baseline Scan Mode and a Pulse Burst Mode |
US11635495B1 (en) | 2021-03-26 | 2023-04-25 | Aeye, Inc. | Hyper temporal lidar with controllable tilt amplitude for a variable amplitude scan mirror |
US20220308187A1 (en) | 2021-03-26 | 2022-09-29 | Aeye, Inc. | Hyper Temporal Lidar Using Multiple Matched Filters to Determine Target Retro-Reflectivity |
US11686845B2 (en) | 2021-03-26 | 2023-06-27 | Aeye, Inc. | Hyper temporal lidar with controllable detection intervals based on regions of interest |
US11630188B1 (en) | 2021-03-26 | 2023-04-18 | Aeye, Inc. | Hyper temporal lidar with dynamic laser control using safety models |
US11460553B1 (en) | 2021-03-26 | 2022-10-04 | Aeye, Inc. | Hyper temporal lidar with dynamic laser control using different mirror motion models for shot scheduling and shot firing |
DE102021117223A1 (de) | 2021-07-05 | 2023-01-05 | Connaught Electronics Ltd. | Bestimmen eines Freiraums auf einer Straße in einem Umfeld eines Fahrzeugs |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05288543A (ja) * | 1992-04-07 | 1993-11-02 | Fujitsu Ltd | 視覚情報と触覚情報とを統合した認識装置 |
US6356664B1 (en) * | 1999-02-24 | 2002-03-12 | International Business Machines Corporation | Selective reduction of video data using variable sampling rates based on importance within the image |
JP2001103470A (ja) * | 1999-09-29 | 2001-04-13 | Canon Inc | 領域分割装置及び方法並びに記憶媒体 |
KR100391442B1 (ko) * | 2000-12-27 | 2003-07-12 | 현대자동차주식회사 | 차선 이탈 방지용 영상 처리방법 |
US7412107B2 (en) * | 2004-12-17 | 2008-08-12 | The Regents Of The University Of California, Santa Cruz | System and method for robust multi-frame demosaicing and color super-resolution |
US7539557B2 (en) | 2005-12-30 | 2009-05-26 | Irobot Corporation | Autonomous mobile robot |
US9275465B2 (en) * | 2006-04-18 | 2016-03-01 | Ge Healthcare Bio-Sciences Corp. | System for preparing an image for segmentation |
EP2153419A4 (en) | 2007-05-15 | 2011-12-07 | Lg N Sys Inc | DEVICE FOR MEDIA RECOGNITION AND METHOD FOR MEDIA DISTINCTION THEREWITH |
US8332134B2 (en) * | 2008-04-24 | 2012-12-11 | GM Global Technology Operations LLC | Three-dimensional LIDAR-based clear path detection |
US9098926B2 (en) * | 2009-02-06 | 2015-08-04 | The Hong Kong University Of Science And Technology | Generating three-dimensional façade models from images |
US8487993B2 (en) * | 2009-07-29 | 2013-07-16 | Ut-Battelle, Llc | Estimating vehicle height using homographic projections |
JPWO2011155123A1 (ja) * | 2010-06-07 | 2013-08-01 | 株式会社日立ハイテクノロジーズ | 観察画像の分類基準の最適化方法、および画像分類装置 |
US8432434B2 (en) * | 2011-07-08 | 2013-04-30 | Mitsubishi Electric Research Laboratories, Inc. | Camera and method for focus based depth reconstruction of dynamic scenes |
US8195394B1 (en) | 2011-07-13 | 2012-06-05 | Google Inc. | Object detection and classification for autonomous vehicles |
US9275472B2 (en) * | 2011-11-18 | 2016-03-01 | Disney Enterprises, Inc. | Real-time player detection from a single calibrated camera |
US10008002B2 (en) * | 2012-02-28 | 2018-06-26 | NXP Canada, Inc. | Single-camera distance estimation |
US20140071240A1 (en) * | 2012-09-11 | 2014-03-13 | Automotive Research & Testing Center | Free space detection system and method for a vehicle using stereo vision |
-
2014
- 2014-01-23 US US14/162,370 patent/US9305219B2/en active Active
- 2014-12-25 JP JP2014261809A patent/JP6272217B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015138550A (ja) | 2015-07-30 |
US20150206015A1 (en) | 2015-07-23 |
US9305219B2 (en) | 2016-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6272217B2 (ja) | 移動する物体の近傍の自由空間を推定する方法および装置 | |
KR102566724B1 (ko) | 항만 모니터링 장치 및 항만 모니터링 방법 | |
US10366538B2 (en) | Method and device for illustrating a virtual object in a real environment | |
CN108985171B (zh) | 运动状态估计方法和运动状态估计装置 | |
Muhovič et al. | Obstacle tracking for unmanned surface vessels using 3-D point cloud | |
EP2757524B1 (en) | Depth sensing method and system for autonomous vehicles | |
Yao et al. | Estimating drivable collision-free space from monocular video | |
US9390560B2 (en) | Method and device for illustrating a virtual object in a real environment | |
CN112184589B (zh) | 一种基于语义分割的点云强度补全方法及系统 | |
Siegemund et al. | A temporal filter approach for detection and reconstruction of curbs and road surfaces based on conditional random fields | |
EP3686775B1 (en) | Method for detecting pseudo-3d bounding box based on cnn capable of converting modes according to poses of objects using instance segmentation | |
WO2014114923A1 (en) | A method of detecting structural parts of a scene | |
JP2010282615A (ja) | 3dワーピング手法と固有対象物運動(pom)の検出の組み合わせに基づく対象物の動き検出システム | |
CN111091038A (zh) | 训练方法、计算机可读介质和检测消失点的方法及装置 | |
Rangesh et al. | Ground plane polling for 6dof pose estimation of objects on the road | |
Guo et al. | Robust road boundary estimation for intelligent vehicles in challenging scenarios based on a semantic graph | |
Surgailis et al. | Avoiding forward car collision using stereo vision system | |
Catalin et al. | Object tracking from stereo sequences using particle filter | |
Bullinger et al. | 3D object trajectory reconstruction using stereo matching and instance flow based multiple object tracking | |
Guo et al. | Semantic-based road environment recognition in mixed traffic for intelligent vehicles and advanced driver assistance systems | |
Martinez et al. | Map-based lane identification and prediction for autonomous vehicles | |
Qin | Autonomous environment and target perception of underwater offshore vehicles | |
Barrozo et al. | Simulation of an Autonomous Vehicle Control System Based on Image Processing | |
Bigorgne et al. | Backward segmentation and region fitting for geometrical visibility range estimation | |
Kim et al. | Depth estimation with manhattan world cues on a monocular image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170823 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170823 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20170823 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171120 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20171128 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171228 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6272217 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |