JP6938846B2 - 物体認識装置 - Google Patents
物体認識装置 Download PDFInfo
- Publication number
- JP6938846B2 JP6938846B2 JP2016049615A JP2016049615A JP6938846B2 JP 6938846 B2 JP6938846 B2 JP 6938846B2 JP 2016049615 A JP2016049615 A JP 2016049615A JP 2016049615 A JP2016049615 A JP 2016049615A JP 6938846 B2 JP6938846 B2 JP 6938846B2
- Authority
- JP
- Japan
- Prior art keywords
- cluster
- point cloud
- integrated
- object recognition
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Description
[1.第1実施形態]
[1−1.構成]
図1は本実施形態の運転支援システム1の概略構成を示す説明図、図2はレーザ光を照射する領域を示す模式図である。運転支援システム1は、例えば乗用車等の車両(以下「自車両」ともいう。)に搭載されており、図1に示すように、レーダ装置10と、車両制御部30と、通信部35と、外部装置40と、を備えている。
レーダ制御部11は、CPU18と、RAM、ROM、フラッシュメモリ等の半導体メモリ(以下、メモリ19)と、を有する周知のマイクロコンピュータを中心に構成される。レーダ制御部11の各種機能は、CPU18が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ19が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムの実行により、プログラムに対応する方法が実行される。なお、レーダ制御部11を構成するマイクロコンピュータの数は1つでも複数でもよい。
このように構成された運転支援システム1において、レーダ制御部11は、図3に示す物体認識処理を実施する。物体認識処理は、例えば測距点群が得られる毎に実施される処理である。
例えば、固定配置されたセンサが静止物について検知した場合、センサおよび静止物の位置が変動しないため、この検知結果を真値とすることができる。このような検知結果が存在する場合、この検知結果を真値として取得する。なお、真値として利用可能な測距点群には、精度情報において特定の値が付されていてもよい。
クラスタ同定処理では、図5に示すように、まず、クラスタ位置の補正を行う(S310)。クラスタ位置の補正では、例えば図6に示すように、自車両にて検知されたクラスタをpi ownとし、他車両にて検知されたクラスタをpj otherとする。
続いて、統合処理を実施する(S50)。統合処理は、自車両および他車両において得られたクラスタ点群を、位置を補正して統合する処理である。
識別処理では、図9に示すように、まず属性ラベルを0で初期化する(S408)。次に統合クラスタ点群を得る際における複数の測距点群の統合回数Cを算出する(S410)。そして、この統合回数Cと予め設定された回数閾値THcとを比較する(S420)。
続いて、選定した測距点を用いて、各クラスタの特徴量を抽出する(S440)。例えば、選定した測距点から得られる、クラスタの幅、高さ、アスペクト比、相対速度、等の各種特徴量を抽出する。
レーダ制御部11は、物体認識処理と並行して、図10に示すデータ送信処理も実施する。データ送信処理は、例えば、測距点群が取得される度に実施される処理である。
[1−3.効果]
以上詳述した第1実施形態によれば、以下の効果が得られる。
このような運転支援システム1によれば、自車両において検知された自車両に影響を与えうる物体について解像度を向上させることができる。さらに、同じ物体に対して複数の方向から得られた測距点群を取得するので、自車両に搭載したセンサ正面以外の、取得が困難な点群も取得できる。
このような運転支援システム1によれば、クラスタリング後の測距点群を取得するので、データ通信量を削減できる。さらに、取得した測距点群にノイズ等の不要な測距点が含まれにくくすることができる。よって、物体の認識精度を向上させることができる。
(1f)上記の運転支援システム1においてレーダ制御部11は、各測距点群を検知した精度情報を示す精度情報を測距点群とともに取得し、精度情報に基づいて測距点群に対して重み付けを行い、重み付けを行った測距点群を用いて物体の認識を行う。
[2.第2実施形態]
[2−1.第1実施形態との相違点]
第2実施形態は、基本的な構成は第1実施形態と同様であるため、共通する構成については説明を省略し、相違点を中心に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
[2−2.処理]
次に、第2実施形態の識別処理について、図11のフローチャートを用いて説明する。
続いて、時間平均スコアSAを求める(S615)。時間平均スコアSAは、過去において算出された識別スコアSを予め設定された回数分だけ平均化した値である。続いて、前述のS620〜S640の処理を実施する。ただし、S620では、時間平均スコアSAと予め設定された識別閾値THsとを比較する。
[2−3.効果]
以上詳述した第2実施形態によれば、前述した第1実施形態の効果(1a)に加え、以下の効果が得られる。
[3.第3実施形態]
[3−1.構成および処理]
第3実施形態の運転支援システムでは、図3に示す統合処理に代えて、図12に示す統合処理を実施する。すなわち、第3実施形態の統合処理では、図12に示すように、まず各クラスタ点群をxy平面へ射影する(S660)。
続いて、回転変換を行う(S680)。この処理では、図13の上段および中段に示すように、第1主成分である長軸がx軸と平行になるように回転する座標変換を行う。このように、点群情報を補正した補正クラスタ点群を得る。
このようにすると、図13に示すように、あるレーダであるセンサAにて得られたクラスタ点群および他のレーダであるセンサBにて得られたクラスタ点群がそれぞれ異なる方向を向いているとしても、これらのクラスタ点群の向きを、x軸の方向に揃えてから統合できることになる。このような処理が終了すると、第3実施形態の統合処理を終了する。
(3a)すなわち、上記の第3実施形態の運転支援システムにおいてレーダ制御部11は、クラスタ点群の方向を推定し、クラスタ点群の方向を予め設定された方向に回転させる。
[4−1.構成および処理]
次に、第4実施形態の運転支援システムについて説明する。第4実施形態の運転支援システムでは、クラスタ点群を複数のパーツに分割してさらに各パーツの方向を推定し、各パーツのそれぞれについてパーツの方向を予め設定された方向に回転させる。なお、以下の説明においては、分割されたそれぞれの点群をパーツ点群と呼ぶ。
「Pedestrian Detection Combining RGB and Dense LIDAR Data, C. Premebida, J. Carreira, J. Batista, U. Nunes; IROS2014」
続いて、抽出したパーツ点群の補正を行う。すなわち、歩行者が直立状態のときを標準姿勢と定義し、各パーツの位置と向きが重なるように座標変換する。具体的には、第3実施形態と同様の考え方で、まず各パーツ点群に対して主成分分析を行う(S730)。
これらの処理によって、図16に示すように、センサによって手足の位置がまちまちであった歩行者であっても(図16上段参照)、手足の位置が統一された状態で(図16中段参照)、統合することができる。
[4−2.効果]
(4a)すなわち、各取得時間で各パーツの向きが異なる場合であっても、各パーツの位置が統一された状態で(図16中段参照)、補正クラスタ点群が統合されることになる(図16下段参照)。このような処理が終了すると第4実施形態の統合処理を終了する。
[5−1.構成および処理]
次に、第5実施形態の運転支援システムについて説明する。第5実施形態の運転支援システムにおいては、レーダ制御部11は距離に応じて反射強度を補正する。そして、反射強度も用いて統合クラスタ点群を識別する。
そして、反射強度の正規化を行う(S770)。すなわち、図18に示すように、原理上において反射強度Iが距離rの2乗に反比例する特性(反射強度の距離二乗則)を利用して、測距点群が同距離(r=1)に存在すると仮定した反射強度となるよう反射強度を補正する。
このようにする場合、予め補正後の反射強度を用いて識別モデルを学習しておき、識別処理では、補正後の反射強度も用いて統合点群クラスタの種別を識別する。
(5a)このような第5実施形態の運転支援システムによれば、距離に応じて反射強度を補正するので、距離に依存しない識別モデルを構築でき、高精度な識別を行うことができる。
[6−1.構成および処理]
次に、第6実施形態の運転支援システムについて説明する。第6実施形態の運転支援システムにおいては、自車両の姿勢(傾き)を取得し、自車両の姿勢に応じて測距点群を補正する。
このような処理を実施すると、例えば、図20に示すように、車両のピッチングによって各時刻に異なる位置のクラスタ点群が得られる。例えば、センサAにてピッチングが発生していない場合のクラスタ点群が得られ、センサBにて自車両が上向きにピッチングした場合における比較的高い位置のクラスタ点群が得られ、センサCにて自車両が下向きにピッチングしている場合における比較的低い位置のクラスタ点群が得られたとする。
(6a)このような第6実施形態の運転支援システムによれば、自車両の姿勢(傾き)に応じて測距点群を補正することで、より高解像度な、または鉛直方向により広い範囲の統合クラスタ点群が得られるので、高精度な識別を行うことができる。
[7−1.構成および処理]
次に、第7実施形態の運転支援システムについて説明する。第7実施形態の運転支援システムにおいては、複数の装置による識別結果を取得し、種別に基づいて物体の形状に合致するように補正クラスタ点群を生成する。
[7−2.効果]
(7a)このような第7実施形態の運転支援システムによれば、物体の種別が識別できている場合には、その形状に合わせて位置を補正するので、補正精度が向上し高精度な識別を行うことができる。
[8−1.構成および処理]
次に、第8実施形態の運転支援システムについて説明する。第8実施形態の運転支援システムにおいては、レーダ制御部11は、測距点群取得時の測距点の距離に応じた重み付けを行った上で統合クラスタ点群を用い、識別処理を行う。
なお、点群補正処理については、例えば重心座標変換を用いて説明する。
[8−2.効果]
(8a)このような第8実施形態の運転支援システムによれば、各測距点の距離に応じて重み付けを行った上で物体の識別を行うため、信頼度の高い情報のみを用いて高精度な識別を行うことができる。
[9−1.構成および処理]
次に、第9実施形態の運転支援システムについて説明する。第9実施形態の運転支援システムにおいては、レーダ制御部11は、測距点の距離から得られるレーザ光の照射領域(以下、測距点領域と呼ぶ。)とその面積(以下、測距点面積と呼ぶ。)に基づいてクラスタ点群のレーザ光の照射領域(以下、クラスタ点群領域と呼ぶ。)の面積(以下、クラスタ点群面積と呼ぶ。)を演算し、クラスタ点群面積を利用して統合クラスタ点群を識別する。また、第9実施形態の運転支援システムにおいてレーダ制御部11は、今回得られたクラスタ点群領域と、過去におけるクラスタ点群領域との和集合(以下、統合クラスタ点群領域と呼ぶ。)の面積(以下、統合クラスタ点群面積と呼ぶ。)を用いて統合クラスタ点群を識別する。
なお、点群補正処理については、例えばここでは第8実施形態の重心座標変換を用いて説明する。
なお、測距点領域は、距離が大きくなるに従って領域が大きくなるよう設定される。次に、重心座標を用いた座標変換にて補正クラスタ点群を得る。続いて、測距点領域を含む補正クラスタ点群を用いて統合する。
(9a)このような第9実施形態の運転支援システムによれば、統合クラスタ点群面積を用いて物体を識別するので、物体の面積を高精度に表現でき、高精度な識別を行うことができる。
[10−1.構成および処理]
次に、第10実施形態の運転支援システムについて説明する。第10実施形態の運転支援システムにおいては、レーダ制御部11は追跡処理(S130)を用いて各クラスタの速度を取得し、予め速度別に学習したモデルから各クラスタの速度に応じて1つのモデルを選択し、選択したモデルを用いて識別を行う。
[10−2.効果]
(10a)このような第10実施形態の運転支援システムによれば、速度に応じて姿勢が変化する場合であっても、姿勢変化に対して頑強な識別を行うことができる。
以上、本発明を実施するための形態について説明したが、本発明は上述の実施形態に限定されることなく、種々変形して実施することができる。
(11b)レーダ制御部11は、少なくとも1つの自車両外の装置を含む複数の装置において検知された自車両の周囲に位置する物体に関する情報であり、少なくとも該物体の位置と大きさとを含むクラスタ情報を取得し(S110,S120)、複数のクラスタ情報を統合してもよい(S50)。この場合、統合後の複数のクラスタ情報を用いて物体の認識を行ってもよい(S180:S408〜S640)。
(11c)上記実施形態における1つの構成要素が有する機能を複数の構成要素として分散させたり、複数の構成要素が有する機能を1つの構成要素に統合させたりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加または置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。
上記実施形態においてレーダ制御部11は本発明でいう物体認識装置に相当し、レーダ制御部11が実行する処理のうちのS50の処理は本発明でいう統合部に相当する。また、上記実施形態においてS110,S120の処理は本発明でいう点群取得部およびクラスタ取得部に相当し、上記実施形態においてS150の処理は本発明でいう一致判定部に相当する。
Claims (5)
- 自車両に搭載された物体認識装置(11)であって、
少なくとも1つの自車両外の装置において検知された自車両の周囲に位置する物体に関する第1の測距点群の代表位置及びサイズを取得し、且つ、自車両の装置において検知された自車両の周囲に位置する物体に関する第2の測距点群を取得する点群取得部(S110,S120)と、
少なくとも1つの前記第1の測距点群の代表位置及びサイズに応じた第1のクラスタ領域と、前記第2の測距点群の代表位置及びサイズに応じた第2のクラスタ領域とを重ね合せて、統合領域を生成する統合部(S50)と、
前記統合部により前記第2のクラスタ領域に重ね合せた前記第1のクラスタ領域の個数である統合数をカウントする統合カウント部(S410)と、
前記統合数に基づいて、前記統合領域が物体を示すかノイズを示すかの確からしさを認識する認識部(S180)と、
を備えた
物体認識装置。 - 請求項1に記載の物体認識装置であって、
前記総合領域が物体を示す確からしさを示す値である信頼度を、前記統合数に応じて算出する信頼度算出部を更に備える、物体認識装置。 - 請求項1又は請求項2に記載の物体認識装置であって、
前記点群取得部は、クラスタリング前の第2の測距点群を取得する
物体認識装置。 - 請求項1又は請求項2に記載の物体認識装置であって、
前記点群取得部は、クラスタリング後の第2の測距点群を取得する
物体認識装置。 - 請求項1〜請求項4のいずれか1項に記載の物体認識装置であって、
少なくとも1つの前記第1の測距点群の前記代表位置に基づいて、前記第1のクラスタ領域と前記第2のクラスタ領域とが同一の物体を示すか否かを判定する一致判定部(S150)、
をさらに備え、
前記統合部は、前記一致判定部により同一の物体を示すと判定した前記第1のクラスタ領域と前記第2のクラスタ領域のみを重ね合せる、
物体認識装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016049615A JP6938846B2 (ja) | 2016-03-14 | 2016-03-14 | 物体認識装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016049615A JP6938846B2 (ja) | 2016-03-14 | 2016-03-14 | 物体認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017166846A JP2017166846A (ja) | 2017-09-21 |
JP6938846B2 true JP6938846B2 (ja) | 2021-09-22 |
Family
ID=59908893
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016049615A Active JP6938846B2 (ja) | 2016-03-14 | 2016-03-14 | 物体認識装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6938846B2 (ja) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020535862A (ja) * | 2017-10-06 | 2020-12-10 | テルース ユー ケア インコーポレーションTellus You Care, Inc. | 高齢者介護のための非接触活動検出ネットワーク |
JP7333445B2 (ja) * | 2017-12-26 | 2023-08-24 | パイオニア株式会社 | 画像生成装置 |
JP6598885B2 (ja) * | 2018-01-05 | 2019-10-30 | 三菱電機株式会社 | 物体認識装置および物体認識方法 |
JP7184318B2 (ja) * | 2018-03-05 | 2022-12-06 | 学校法人 芝浦工業大学 | 物体認識装置および物体認識方法 |
CA3093503A1 (en) | 2018-03-19 | 2019-09-26 | Outsight | Methods and systems for identifying material composition of moving objects |
US11538260B2 (en) | 2018-03-30 | 2022-12-27 | Nec Solution Innovators, Ltd. | Object identification apparatus, object identification method, and nontransitory computer readable medium storing control program |
KR102099851B1 (ko) * | 2018-05-11 | 2020-04-10 | 서울대학교산학협력단 | 자동차 레이더 시스템에서 탐지된 타겟들의 클러스터링 방법 및 이를 위한 장치 |
WO2020022185A1 (ja) * | 2018-07-25 | 2020-01-30 | 株式会社小糸製作所 | センサシステム |
CN109188457B (zh) * | 2018-09-07 | 2021-06-11 | 百度在线网络技术(北京)有限公司 | 物体检测框的生成方法、装置、设备、存储介质及车辆 |
CN109212540A (zh) | 2018-09-12 | 2019-01-15 | 百度在线网络技术(北京)有限公司 | 基于激光雷达系统的测距方法、装置及可读存储介质 |
CN112912927A (zh) | 2018-10-18 | 2021-06-04 | 富士通株式会社 | 计算方法、计算程序及信息处理装置 |
US11592524B2 (en) * | 2018-11-02 | 2023-02-28 | Waymo Llc | Computation of the angle of incidence of laser beam and its application on reflectivity estimation |
JP7205181B2 (ja) * | 2018-11-19 | 2023-01-17 | 株式会社Ihi | 監視システム及び処理装置 |
JP7205180B2 (ja) * | 2018-11-19 | 2023-01-17 | 株式会社Ihi | 監視システム及び処理装置 |
JP7205179B2 (ja) * | 2018-11-19 | 2023-01-17 | 株式会社Ihi | 監視システム |
WO2020170700A1 (ja) * | 2019-02-20 | 2020-08-27 | 株式会社デンソー | 車両周辺監視システム |
JP2020134516A (ja) * | 2019-02-20 | 2020-08-31 | 株式会社デンソー | 車両周辺監視システム |
JP7192595B2 (ja) * | 2019-03-18 | 2022-12-20 | 日本電信電話株式会社 | 構造物検出装置、構造物検出方法および構造物検出処理プログラム |
WO2021033591A1 (ja) * | 2019-08-22 | 2021-02-25 | ソニー株式会社 | 情報処理装置、および情報処理方法、並びにプログラム |
JP2021043838A (ja) * | 2019-09-13 | 2021-03-18 | パイオニア株式会社 | 情報処理装置、制御方法、プログラム及び記憶媒体 |
JP7259674B2 (ja) * | 2019-09-20 | 2023-04-18 | 沖電気工業株式会社 | 物体検出装置、物体検出方法およびプログラム |
JP7306192B2 (ja) | 2019-09-27 | 2023-07-11 | 沖電気工業株式会社 | 合成処理装置、合成処理システム及び合成処理方法 |
JP6999625B2 (ja) * | 2019-11-06 | 2022-02-04 | 財団法人車輌研究測試中心 | 環境情報を提供可能なダイナミックマップ情報を生成するための方法およびシステム |
US20230221410A1 (en) * | 2020-04-03 | 2023-07-13 | Hitachi Astemo, Ltd. | Object sensing device and object sensing method |
DE102020208099A1 (de) | 2020-06-30 | 2021-12-30 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zum Ermitteln einer eine Umgebung eines LiDAR-Sensors repräsentierenden Punktwolke |
CN113866779A (zh) * | 2020-06-30 | 2021-12-31 | 上海商汤智能科技有限公司 | 点云数据的融合方法、装置、电子设备及存储介质 |
WO2022172888A1 (ja) * | 2021-02-12 | 2022-08-18 | パイオニア株式会社 | 情報処理装置、制御方法、プログラム及び記憶媒体 |
KR102343042B1 (ko) * | 2021-05-14 | 2021-12-24 | 주식회사 인피닉 | 연속된 3d 데이터에서 객체 품질 향상 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 |
KR102313922B1 (ko) * | 2021-07-08 | 2021-10-18 | 주식회사 인피닉 | 연속되는 3d 점군 데이터의 품질 향상 방법 |
JP7392221B2 (ja) * | 2022-03-29 | 2023-12-06 | 防衛装備庁長官 | 物体認識システム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3333143B2 (ja) * | 1998-11-13 | 2002-10-07 | 三菱電機株式会社 | 追尾装置及びその追尾処理方法 |
JP4172368B2 (ja) * | 2003-10-07 | 2008-10-29 | 株式会社デンソー | 車両検知装置 |
JP4702010B2 (ja) * | 2005-11-24 | 2011-06-15 | 三菱電機株式会社 | 追尾処理システム |
JP2008051599A (ja) * | 2006-08-23 | 2008-03-06 | Mitsubishi Electric Corp | 通信制御方法及びこれを用いたレーダシステム |
JP4989331B2 (ja) * | 2007-06-21 | 2012-08-01 | 三菱電機株式会社 | 航跡統合装置及びプログラム及び航跡統合方法 |
JP5822255B2 (ja) * | 2011-04-14 | 2015-11-24 | 株式会社豊田中央研究所 | 対象物識別装置及びプログラム |
JP2013124912A (ja) * | 2011-12-14 | 2013-06-24 | Toshiba Corp | レーダ情報処理装置及びレーダ情報処理プログラム |
JP6139178B2 (ja) * | 2013-03-01 | 2017-05-31 | 株式会社日立製作所 | センサ統合装置及びセンサ統合方法 |
TWI571399B (zh) * | 2014-08-20 | 2017-02-21 | 啟碁科技股份有限公司 | 預警方法及車用雷達系統 |
-
2016
- 2016-03-14 JP JP2016049615A patent/JP6938846B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017166846A (ja) | 2017-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6938846B2 (ja) | 物体認識装置 | |
EP3283843B1 (en) | Generating 3-dimensional maps of a scene using passive and active measurements | |
JP7082545B2 (ja) | 情報処理方法、情報処理装置およびプログラム | |
JP6696697B2 (ja) | 情報処理装置、車両、情報処理方法およびプログラム | |
RU2668459C1 (ru) | Устройство оценки положения и способ оценки положения | |
KR102159376B1 (ko) | 레이저 스캔 시스템, 레이저 스캔 방법, 이동 레이저 스캔 시스템 및 프로그램 | |
KR100901311B1 (ko) | 자율이동 플랫폼 | |
JP5105596B2 (ja) | 自律走行移動体の走行経路決定用地図作成装置及び走行経路決定用地図作成方法 | |
JPWO2017057041A1 (ja) | 信号処理装置、信号処理方法、およびプログラム | |
JP6777403B2 (ja) | 物体認識装置及びプログラム | |
KR102012179B1 (ko) | 3차원 평면 검출 기반의 라이다-카메라 캘리브레이션 장치 및 방법 | |
CN110389359A (zh) | 用于地平面探测的系统和方法 | |
JP2017016359A (ja) | 自律移動ロボット | |
CN108780149B (zh) | 通过传感器的间接测量来改进对机动车辆周围的至少一个物体的检测的方法,控制器,驾驶员辅助系统和机动车辆 | |
JP7424390B2 (ja) | 画像処理装置、画像処理方法、および画像処理プログラム | |
US20210245777A1 (en) | Map generation device, map generation system, map generation method, and storage medium | |
CN112068152A (zh) | 使用3d扫描仪同时进行2d定位和2d地图创建的方法和系统 | |
US20220100201A1 (en) | Information processing device and mobile robot | |
US20230094836A1 (en) | Method for Detecting Moving Objects in the Surroundings of a Vehicle, and Motor Vehicle | |
JP7081098B2 (ja) | 走行環境認識装置、走行環境認識方法、プログラム | |
TW202019742A (zh) | 近距離障礙物之光達偵測裝置及其方法 | |
JP2009198382A (ja) | 環境地図取得装置 | |
JP2019045199A (ja) | 物体検出システム及び物体検出プログラム | |
JP2021047744A (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
TWI687706B (zh) | 移動裝置之定位系統 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180615 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190411 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190702 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190830 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200204 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200406 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200929 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210511 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210712 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210803 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210816 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6938846 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |