JP2020201745A - Object identification device, method, and system - Google Patents
Object identification device, method, and system Download PDFInfo
- Publication number
- JP2020201745A JP2020201745A JP2019108587A JP2019108587A JP2020201745A JP 2020201745 A JP2020201745 A JP 2020201745A JP 2019108587 A JP2019108587 A JP 2019108587A JP 2019108587 A JP2019108587 A JP 2019108587A JP 2020201745 A JP2020201745 A JP 2020201745A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- identification
- surrounding environment
- object identification
- identifying
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 19
- 230000007613 environmental effect Effects 0.000 claims description 12
- 230000006870 function Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 241001465754 Metazoa Species 0.000 description 2
- 238000001514 detection method Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、物体識別装置、方法およびシステムに係り、特に、コネクテッドカーの自動運転に好適な物体識別装置、方法およびシステムに関する。 The present invention relates to object identification devices, methods and systems, and more particularly to object identification devices, methods and systems suitable for automated driving of connected cars.
近年、車両の走行方向に存在する物体を各種のセンサで識別し、物体識別の結果が障害物であれば、これを回避するようにハンドルを自動的に操舵し、あるいは運転者や遠隔地のオペレータに識別結果を通知する技術が提案されている。一方、IoT (Internet of Things)の典型として、インターネットへの常時接続機能を具備したコネクテッドカーが注目されている。 In recent years, various sensors identify objects existing in the traveling direction of the vehicle, and if the result of object identification is an obstacle, the steering wheel is automatically steered to avoid this, or the driver or a remote location A technique for notifying the operator of the identification result has been proposed. On the other hand, as a typical example of the IoT (Internet of Things), a connected car equipped with a function of always connecting to the Internet is drawing attention.
特許文献1には、自車両のヘッドライトの配光状態に基づき、物体識別に用いる認識辞書の認識条件を変更し、変更した認識辞書に基づき、自車両の前方を撮影した映像から物体認識を行う技術が開示されている。 In Patent Document 1, the recognition conditions of the recognition dictionary used for object identification are changed based on the light distribution state of the headlight of the own vehicle, and the object recognition is performed from the image taken in front of the own vehicle based on the changed recognition dictionary. The technology to be performed is disclosed.
特許文献2には、走行環境が急激に変化した場合、カメラでは認識困難な対象物を他の検出手段で検出する技術が開示されている。具体的には、前のフレームで検出していた対象物の消失を検出し、その対象物の方向にレーザーを照射して対象物の距離情報を出力する。
特許文献3には、画像内での物体認識範囲を、採用する画像処理装置に応じて変更することで、物体認識に係る処理量を削減する技術が開示されている。
車両走行の障害物となる可能性のある物体は多種多様であり、物体を識別する学習モデル(識別モデル)はあらゆる物体を識別できるように学習させる必要がある。しかしながら、このような万能型の識別モデルは、容量が同等であれば、識別対象を限定した専用の識別モデルに比べて識別率が低下する。 There are a wide variety of objects that can be obstacles to vehicle travel, and a learning model for identifying objects (discriminative model) needs to be trained so that any object can be identified. However, in such a universal type identification model, if the capacities are the same, the identification rate is lower than that of the dedicated identification model in which the identification target is limited.
一方、障害物となる可能性のある物体ごとに専用の識別モデルを用意すると、識別モデルの保持に多くの記憶容量が消費され、かつ全ての識別モデルを同時に稼働させるとコンピュータリソースが不足する。 On the other hand, if a dedicated identification model is prepared for each object that may become an obstacle, a large amount of storage capacity is consumed to hold the identification model, and if all the identification models are operated at the same time, computer resources are insufficient.
特許文献1では、ヘッドライトの配光状態から認識するパラメータを変更することで認識精度を向上できる一方、同じ光源の状態下において、商店街、一般高速道、郊外の一般道などの環境の変化に応じて、識別対象を変更することができない。 In Patent Document 1, while the recognition accuracy can be improved by changing the recognition parameter from the light distribution state of the headlight, changes in the environment such as a shopping street, a general highway, and a general road in the suburbs under the same light source state. The identification target cannot be changed according to the above.
特許文献2では、環境変化時の認識精度の向上が可能である一方、認識する対象物が同じであるため、サーバの処理負荷やデータ蓄積量の削減は困難である。
In
特許文献3では、周辺環境に応じた識別方法を切り替えることが困難である。
In
本発明の目的は、上記の技術課題を解決し、走行障害物となる可能性のある物体ごとに、その識別用に最適化された複数種の専用モデルを予め用意し、各車両の周囲環境に応じた一部の専用モデルのみを選択的に各車両にダウンロードして物体識別に利用することで、限られたメモリ容量を有効利用し、より正確かつ高速な物体識別を可能にする物体識別装置、方法およびシステムを提供することにある。 An object of the present invention is to solve the above technical problems, prepare a plurality of types of dedicated models optimized for identifying each object that may become a traveling obstacle in advance, and prepare the surrounding environment of each vehicle in advance. Object identification that enables more accurate and high-speed object identification by effectively utilizing the limited memory capacity by selectively downloading only some dedicated models according to the above to each vehicle and using them for object identification. To provide equipment, methods and systems.
上記の目的を達成するために、本発明は、車載カメラの映像を識別モデルに適用して物体識別を行う物体識別装置において、以下の構成を具備した点に特徴がある。 In order to achieve the above object, the present invention is characterized in that it has the following configurations in an object identification device that identifies an object by applying an image of an in-vehicle camera to an identification model.
(1) 複数種の識別モデルを記憶する手段と、車載カメラの映像に基づいて周囲環境の特徴を識別する手段と、周囲環境の特徴に基づいて走行環境を推定する手段と、走行環境の推定結果に基づいて一部の識別モデルを選択する手段と、車載カメラの映像を前記選択した識別モデルに適用して物体識別を行う手段とを具備した。 (1) Means for storing multiple types of identification models, means for identifying the characteristics of the surrounding environment based on the image of the in-vehicle camera, means for estimating the driving environment based on the characteristics of the surrounding environment, and estimation of the driving environment. A means for selecting a part of the identification model based on the result and a means for applying the image of the in-vehicle camera to the selected identification model to perform object identification are provided.
(2) 車両の周囲環境に固有のセンサ出力を取得する手段を更に具備し、前記周囲環境の特徴を識別する手段は、車載カメラの映像およびセンサ出力に基づいて周囲環境の特徴を識別するようにした。 (2) The means for acquiring the sensor output peculiar to the surrounding environment of the vehicle is further provided, and the means for identifying the characteristics of the surrounding environment is to identify the characteristics of the surrounding environment based on the image of the in-vehicle camera and the sensor output. I made it.
(3) 周囲環境の特徴を識別する手段は、移動体の識別に好適な第1環境辞書、不動産の識別に好適な第2環境辞書および交通/道路標識の識別に好適な第3環境辞書を併用して移動体および不動産を識別するようにした。 (3) As means for identifying the characteristics of the surrounding environment, a first environmental dictionary suitable for identifying moving objects, a second environmental dictionary suitable for identifying real estate, and a third environmental dictionary suitable for identifying traffic / road signs are used. Used together to identify moving objects and real estate.
本発明によれば、以下のような効果が達成される。 According to the present invention, the following effects are achieved.
(1) 走行障害物となる可能性のある物体ごとに、その識別用に最適化された複数種の専用の識別モデルを予め用意し、各車両の周囲環境に応じた一部の専用識別モデルのみが選択的に各車両にダウンロードされて物体識別に利用される。したがって、各車両は全ての専用モデルを常に実装しておく必要がなくなるので、限られたメモリ容量の有効利用が可能となる。加えて、識別対象が限定されない万能型の識別モデルを実装する場合に比べて、モデルサイズが同等であれば、同一のコンピュータリソースを用いながら、より正確かつ高速な物体識別が可能となる。 (1) For each object that may become a driving obstacle, prepare multiple types of dedicated identification models optimized for identification in advance, and some dedicated identification models according to the surrounding environment of each vehicle. Only are selectively downloaded to each vehicle and used for object identification. Therefore, it is not necessary to always implement all the dedicated models in each vehicle, so that the limited memory capacity can be effectively used. In addition, as compared with the case of implementing a universal identification model in which the identification target is not limited, if the model sizes are the same, more accurate and high-speed object identification can be performed while using the same computer resources.
(2) 車両の周囲環境を、画像ベースおよびセンサベースで推定するので、画像ベースでの推定に不向きな夜間、降雨、濃霧時等、あるいはセンサベースでの推定に不向きな形状識別、サイズ識別などで識別精度を相互に補完することができる。したがって、天候、状況、物体の形状等に関わらず、常に高い識別精度が得られるようになる。 (2) Since the surrounding environment of the vehicle is estimated based on images and sensors, shape identification and size identification that are unsuitable for image-based estimation at night, rainfall, heavy fog, etc., or sensor-based estimation, etc. The identification accuracy can be complemented with each other. Therefore, high identification accuracy can always be obtained regardless of the weather, the situation, the shape of the object, and the like.
(3) 車両の周囲環境を推定するにあたり、その推定パラメータとして、人や動物などの移動体、ビルや住宅などの不動産および交通標識や信号機などに注目し、移動体識別に好適な第1環境辞書、不動産識別に好適な第2環境辞書および交通/道路標識の識別に好適な第3環境辞書を併用して移動体および不動産を優先的に識別するので、周囲環境を正確に推定できるようになる。 (3) When estimating the surrounding environment of a vehicle, pay attention to moving objects such as people and animals, real estate such as buildings and houses, traffic signs and traffic lights as the estimation parameters, and the first environment suitable for identifying moving objects. A dictionary, a second environmental dictionary suitable for identifying real estate, and a third environmental dictionary suitable for identifying traffic / road signs are used in combination to preferentially identify moving objects and real estate, so that the surrounding environment can be estimated accurately. Become.
以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明の一実施形態に係る物体識別装置1の機能ブロック図であり、コネクテッドカー等の車両に搭載したカメラ(以下、車載カメラで総称する)が撮影した映像に基づいて、車両走行の障害となる人物、動物その他の物体(以下、「物体」で代表する)を識別する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a functional block diagram of an object identification device 1 according to an embodiment of the present invention, based on an image taken by a camera mounted on a vehicle such as a connected car (hereinafter, collectively referred to as an in-vehicle camera). Identify people, animals, and other objects that hinder driving (hereinafter referred to as "objects").
カメラ映像取得部102は、車載カメラ101からカメラ映像を取得して出力する。環境センサ103は、各物体までの距離、騒音、温度、湿度、明るさなどの周囲環境に固有のパラメータを計測する。各センサ出力は、センサインタフェース(I/F)104から出力される。
The camera
周囲環境識別部105は、特に車両数や人物数などの移動体の識別用に構築された第1環境辞書105a、特に建物の数や高さなどの不動産の識別用に構築された第2環境辞書105b、特に案内標識、交通標識、信号機および横断歩道等の交通/道路標識の識別用に構築された第3環境辞書105cを含む複数の辞書を備え、カメラ映像およびセンサ出力を少なくとも一つの識別辞書に適用することで、自車両周辺の車両数、人物数、建物の数およびその高さ、ならびに道路標識などの周囲環境の特徴を識別する。
The surrounding
走行環境推定部106は環境識別モデル106aを含み、前記周囲環境識別部105が出力する識別結果に基づいて車両の走行環境を推定する。本実施形態では、走行環境が「商店街」またはこれに類する環境、「郊外」またはこれに類する環境、「高速道路」またはこれに類する環境を含む多数の走行環境候補のいずれであるかが推定される。例えば、多数の人物が識別されていると「商店街」またはこれに類する環境と推定される可能性が高い。また、横断歩道や信号機が識別されずに高速道路に固有の案内標識や速度制限標識が識別されていると「高速道路」またはこれに類する環境と推定される可能性が高い。
The traveling
識別モデルデータベース(DB)107には、一時置物の識別用にチューニングされた一時置物識別モデル107a,標識の識別用にチューニングされた標識識別モデル107bおよび歩行者数の識別用にチューニングされた歩行者数識別モデル107cを含む多数の専用識別モデルが蓄積されている。
The discrimination model database (DB) 107 includes a temporary
識別モデル選択部108は、前記走行環境推定部106による走行環境の推定結果に基づいて、前記識別モデルDB107から1ないし複数の識別モデルを選択する。本実施形態では、図7に示したように、走行環境が「商店街」と推定されると、一時置物識別モデル107aおよび歩行者数識別モデル107cが優先的に選択される。走行環境が「郊外」と推定されると、一時置物識別モデル107aおよび標識識別モデル107bが優先的に選択される。走行環境が「高速道路」と推定されると、一時置物識別モデル107aが優先的に選択される。
The discriminative
物体識別部109は、車載カメラ101が撮影した映像に前記選択された識別モデル(109a,109b)を適用して物体識別を実行する。物体識別の結果は、自動運転におけるハンドル操作、アクセル操作あるいは制動操作に反映され、あるいは当該車両を直接または遠隔操作するドライバ(オペレータ)に提供するメッセージに反映される。
The
このような物体識別装置1は、汎用のコンピュータやサーバに、後述する各機能を実現するアプリケーション(プログラム)を実装することで構成できる。あるいは、アプリケーションの一部がハードウェア化またはROM化された専用機や単能機として構成することもできる。 Such an object identification device 1 can be configured by mounting an application (program) that realizes each function described later on a general-purpose computer or server. Alternatively, a part of the application can be configured as a dedicated machine or a single-purpose machine that is made into hardware or ROM.
図2は、前記物体識別装置1が適用されるネットワークの構成を示した図であり、物体識別装置1の主要な機能が実装されるサーバ3、および当該サーバ3とネットワークNWおよび無線基地局BSを中継して無線接続される多数のコネクテッドカー2から構成され、各コネクテッドカー2に前記車載カメラ101および環境センサ103が搭載されている。
FIG. 2 is a diagram showing a network configuration to which the object identification device 1 is applied, and is a
図3は、物体識別装置1の各機能をコネクテッドカー2およびサーバ3に分散実装する第1の例を示した機能ブロック図であり、ここでは、車載カメラ101、カメラ映像取得部102、環境センサ103、センサI/F104および物体識別部109がコネクテッドカー2に実装され、その他の機能がサーバ3に実装されている。
FIG. 3 is a functional block diagram showing a first example in which each function of the object identification device 1 is distributedly mounted on the
図4は、第1の実装例における物体識別のシーケンスフローであり、コネクテッドカー2では、時刻t1において車載カメラ101による撮影が開始される。時刻t2では、周囲環境センサ103により周囲環境が計測される。時刻t3では、車載カメラ映像および各センサ出力がネットワーク経由でサーバ3へアップロードされる。
FIG. 4 shows a sequence flow of object identification in the first implementation example, and in the
サーバ3では、時刻t4において周囲環境識別部105が前記車載カメラの映像およびセンサ出力を複数の環境辞書105a,105bに適用することで、自車両の周囲環境の特徴として、車両数、人物数、建物の数およびその高さなどを識別する。
In the
時刻t5では、前記識別結果が走行環境推定部106の環境推定モデル106aに適用されて、コネクテッドカー2の走行環境が「商店街」、「郊外」、「高速道路」あるいは「その他」のいずれであるかが推定される。時刻t6では、前記走行環境の推定結果に基づいて、識別モデル選択部108が識別モデルDB107から最適な識別モデルを選択する。時刻t7では、前記選択された識別モデルがコネクテッドカー2へ配信される。
At time t5, the identification result is applied to the
コネクテッドカー2は、前記識別モデルが配信されると、時刻t8では、物体識別部109が現在の識別モデルに代えて今回の識別モデルをインストールする。時刻t9では、前記識別モデルにカメラ映像を適用することで物体識別が実行される。時刻t10では、前記物体識別の結果が自車両の自動運転制御や運転者等へ通知されるメッセージに反映される。
When the identification model is delivered to the
図5は、物体識別装置1の各機能をコネクテッドカー2およびサーバ3に分散実装する第2の例を示した図であり、ここでは、車載カメラ101、カメラ映像取得部102、環境センサ103、センサI/F104および物体識別部109に加えて、周囲環境識別部105がコネクテッドカー2に実装され、その他の機能がサーバ3に実装されている。
FIG. 5 is a diagram showing a second example in which each function of the object identification device 1 is distributedly mounted on the
図6は、第2の実装例における物体識別のシーケンスフローであり、コネクテッドカー2では、時刻t1において車載カメラ101による撮影が開始される。時刻t2では、周囲環境センサ103により周囲環境が計測される。時刻t3では、周囲環境識別部105が前記車載カメラ映像およびセンサ出力を複数の環境辞書105a,105bに適用することで、自車両周辺の車両数、人物数、建物の数およびその高さなどを識別する。時刻t4では、周囲環境の識別結果がサーバ3へアップロードされる。
FIG. 6 is a sequence flow of object identification in the second implementation example, and in the
時刻t5では、アップロードされた識別結果が走行環境推定部106の環境推定モデル106aに適用されて、コネクテッドカー2の走行環境が「郊外」、「都内」、「商店街」あるいは「その他」のいずれであるかが推定される。時刻t6では、前記走行環境の推定結果に基づいて、識別モデル選択部108が識別モデルDB107から最適な識別モデルを選択する。時刻t7では、前記選択された識別モデルがコネクテッドカー2へ配信される。
At time t5, the uploaded identification result is applied to the
コネクテッドカー2は、前記識別モデルが配信されると、時刻t8では、物体識別部109が現在の識別モデルに代えて今回の識別モデルをインストールする。時刻t9では、前記識別モデルにカメラ映像を適用することで物体識別が実行される。時刻t10では、前記物体識別の結果が自車両の自動運転制御や運転者等へ通知されるメッセージに反映される。
When the identification model is delivered to the
1...物体識別装置,2...コネクテッドカー,3...サーバ,101...車載カメラ,102...カメラ映像取得部,103...環境センサ,104...センサインタフェース(I/F),105...周囲環境識別部,105a...第1環境辞書,105b...第2環境辞書,105c...第3環境辞書,106...走行環境推定部,106a...環境識別モデル,107...識別モデルDB,107a...一時置物識別モデル,107b...標識識別モデル,107c...歩行者数識別モデル,108...識別モデル選択部,109...物体識別部 1 ... object identification device, 2 ... connected car, 3 ... server, 101 ... in-vehicle camera, 102 ... camera image acquisition unit, 103 ... environment sensor, 104 ... sensor interface (I / F), 105 ... Surrounding environment identification unit, 105a ... First environment dictionary, 105b ... Second environment dictionary, 105c ... Third environment dictionary, 106 ... Driving environment estimation unit , 106a ... environment identification model, 107 ... identification model DB, 107a ... temporary figurine identification model, 107b ... marker identification model, 107c ... pedestrian number identification model, 108 ... identification model Selection unit, 109 ... Object identification unit
Claims (14)
複数種の識別モデルを記憶する手段と、
車載カメラの映像に基づいて周囲環境の特徴を識別する手段と、
周囲環境の特徴に基づいて走行環境を推定する手段と、
走行環境の推定結果に基づいて一部の識別モデルを選択する手段と、
車載カメラの映像を前記選択した識別モデルに適用して物体識別を行う手段とを具備したことを特徴とする物体識別装置。 In an object identification device that identifies an object by applying the image of an in-vehicle camera to an identification model
A means of storing multiple discriminative models and
A means of identifying the characteristics of the surrounding environment based on the image of the in-vehicle camera,
A means of estimating the driving environment based on the characteristics of the surrounding environment,
A means of selecting some discriminative models based on the estimation results of the driving environment,
An object identification device including means for performing object identification by applying an image of an in-vehicle camera to the selected identification model.
前記周囲環境の特徴を識別する手段は、車載カメラの映像およびセンサ出力に基づいて周囲環境の特徴を識別することを特徴とする請求項1に記載の物体識別装置。 Further equipped with a means for acquiring the sensor output peculiar to the surrounding environment of the vehicle,
The object identification device according to claim 1, wherein the means for identifying the characteristics of the surrounding environment is to identify the characteristics of the surrounding environment based on the image of the vehicle-mounted camera and the sensor output.
車載カメラの映像に基づいて周囲環境の特徴を識別する手順と、
周囲環境の特徴に基づいて走行環境を推定する手順と、
走行環境の推定結果に基づいて、複数種の識別モデルの一部を選択する手順と、
車載カメラの映像を前記選択した識別モデルに適用して物体識別を行う手順とを含むことを特徴とする物体識別方法。 In an object identification method in which a computer applies an image from an in-vehicle camera to an identification model to identify an object.
The procedure for identifying the characteristics of the surrounding environment based on the image of the in-vehicle camera,
Procedures for estimating the driving environment based on the characteristics of the surrounding environment,
The procedure for selecting a part of multiple discriminative models based on the estimation result of the driving environment,
An object identification method comprising a procedure of applying an image of an in-vehicle camera to the selected identification model to perform object identification.
前記周囲環境の特徴を識別する手順では、車載カメラの映像およびセンサ出力に基づいて周囲環境の特徴を識別することを特徴とする請求項8に記載の物体識別方法。 Including the procedure to acquire the sensor output specific to the surrounding environment of the vehicle,
The object identification method according to claim 8, wherein the procedure for identifying the characteristics of the surrounding environment is characterized by identifying the characteristics of the surrounding environment based on the image of the vehicle-mounted camera and the sensor output.
車両が、
車載カメラの映像をサーバへアップロードする手段を具備し、
前記サーバが、
複数種の識別モデルを記憶する手段と、
アップロードされた車載カメラの映像に基づいて周囲環境の特徴を識別する手段と、
周囲環境の特徴に基づいて走行環境を推定する手段と、
走行環境の推定結果に基づいて一部の識別モデルを選択する手段と、
車載カメラの映像を前記選択した識別モデルに適用して物体識別を行う手段とを具備したことを特徴とする物体識別システム。 In an object identification system in which a server applies an image from an in-vehicle camera of a vehicle to an identification model to identify an object.
The vehicle
Equipped with a means to upload the image of the in-vehicle camera to the server,
The server
A means of storing multiple discriminative models and
A means of identifying the characteristics of the surrounding environment based on the uploaded in-vehicle camera image,
A means of estimating the driving environment based on the characteristics of the surrounding environment,
A means of selecting some discriminative models based on the estimation results of the driving environment,
An object identification system including means for performing object identification by applying an image of an in-vehicle camera to the selected identification model.
車両の周囲環境に固有のセンサ出力を取得する手段を更に具備し、
前記アップロードする手段は、車載カメラの映像およびセンサ出力をアップロードし、
前記サーバにおいて、周囲環境の特徴を識別する手段は、アップロードされた車載カメラの映像およびセンサ出力に基づいて周囲環境の特徴を識別することを特徴とする請求項11に記載の物体識別システム。 The vehicle
Further equipped with a means for acquiring the sensor output peculiar to the surrounding environment of the vehicle,
The uploading means uploads the video and sensor output of the in-vehicle camera.
The object identification system according to claim 11, wherein in the server, the means for identifying the characteristics of the surrounding environment is to identify the characteristics of the surrounding environment based on the uploaded image of the vehicle-mounted camera and the sensor output.
車両が、
車載カメラの映像に基づいて周囲環境の特徴を識別する手段と、
車載カメラの映像および周囲環境の特徴をサーバへアップロードする手段とを具備し、
前記サーバが、
複数種の識別モデルと、
アップロードされた周囲環境の特徴に基づいて走行環境を推定する手段と、
走行環境の推定結果に基づいて一部の識別モデルを選択する手段と、
アップロードされた車載カメラの映像を前記選択した識別モデルに適用して物体識別を行う手段とを具備したことを特徴とする物体識別システム。 In an object identification system in which a server applies an image from an in-vehicle camera of a vehicle to an identification model to identify an object.
The vehicle
A means of identifying the characteristics of the surrounding environment based on the image of the in-vehicle camera,
It has a means to upload the image of the in-vehicle camera and the characteristics of the surrounding environment to the server.
The server
Multiple discriminative models and
A means of estimating the driving environment based on the characteristics of the uploaded surrounding environment,
A means of selecting some discriminative models based on the estimation results of the driving environment,
An object identification system including means for performing object identification by applying an uploaded image of an in-vehicle camera to the selected identification model.
前記周囲環境の特徴を識別する手段は、車載カメラの映像およびセンサ出力に基づいて周囲環境の特徴を識別することを特徴とする請求項13に記載の物体識別システム。 The vehicle further comprises means for acquiring sensor outputs specific to the vehicle's surrounding environment.
The object identification system according to claim 13, wherein the means for identifying the characteristics of the surrounding environment is to identify the characteristics of the surrounding environment based on the image of the vehicle-mounted camera and the sensor output.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019108587A JP7025372B2 (en) | 2019-06-11 | 2019-06-11 | Object identification device, method and system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019108587A JP7025372B2 (en) | 2019-06-11 | 2019-06-11 | Object identification device, method and system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020201745A true JP2020201745A (en) | 2020-12-17 |
JP7025372B2 JP7025372B2 (en) | 2022-02-24 |
Family
ID=73743388
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019108587A Active JP7025372B2 (en) | 2019-06-11 | 2019-06-11 | Object identification device, method and system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7025372B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023054779A1 (en) * | 2021-09-30 | 2023-04-06 | 한국전자기술연구원 | Method for recognizing 3d object on basis of point cloud context and lightweight deep learning |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003099890A (en) * | 2001-09-19 | 2003-04-04 | Clarion Co Ltd | Particular road determination device, method, and program |
JP2008037361A (en) * | 2006-08-09 | 2008-02-21 | Toyota Motor Corp | Obstacle recognition device |
JP2013008315A (en) * | 2011-06-27 | 2013-01-10 | Toyota Motor Corp | Pedestrian recognition device |
JP2017194948A (en) * | 2016-04-15 | 2017-10-26 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Information presentation control device, automatic operation vehicle, and automatic operation vehicle supporting system |
JP2018081404A (en) * | 2016-11-15 | 2018-05-24 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Discrimination method, discrimination device, discriminator generation method and discriminator generation device |
JP2018097738A (en) * | 2016-12-15 | 2018-06-21 | 株式会社日立製作所 | Image processing device, image processing system, and image processing method |
WO2020090251A1 (en) * | 2018-10-30 | 2020-05-07 | 日本電気株式会社 | Object recognition device, object recognition method, and object recognition program |
-
2019
- 2019-06-11 JP JP2019108587A patent/JP7025372B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003099890A (en) * | 2001-09-19 | 2003-04-04 | Clarion Co Ltd | Particular road determination device, method, and program |
JP2008037361A (en) * | 2006-08-09 | 2008-02-21 | Toyota Motor Corp | Obstacle recognition device |
JP2013008315A (en) * | 2011-06-27 | 2013-01-10 | Toyota Motor Corp | Pedestrian recognition device |
JP2017194948A (en) * | 2016-04-15 | 2017-10-26 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Information presentation control device, automatic operation vehicle, and automatic operation vehicle supporting system |
JP2018081404A (en) * | 2016-11-15 | 2018-05-24 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Discrimination method, discrimination device, discriminator generation method and discriminator generation device |
JP2018097738A (en) * | 2016-12-15 | 2018-06-21 | 株式会社日立製作所 | Image processing device, image processing system, and image processing method |
WO2020090251A1 (en) * | 2018-10-30 | 2020-05-07 | 日本電気株式会社 | Object recognition device, object recognition method, and object recognition program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023054779A1 (en) * | 2021-09-30 | 2023-04-06 | 한국전자기술연구원 | Method for recognizing 3d object on basis of point cloud context and lightweight deep learning |
Also Published As
Publication number | Publication date |
---|---|
JP7025372B2 (en) | 2022-02-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111695546B (en) | Traffic signal lamp identification method and device for unmanned vehicle | |
CN110431037B (en) | Autonomous vehicle operation management including application of partially observable Markov decision process model examples | |
CN110603497B (en) | Autonomous vehicle and method of autonomous vehicle operation management control | |
CN113376657B (en) | Automatic tagging system for autonomous vehicle LIDAR data | |
WO2020042348A1 (en) | Method for generating autonomous driving navigation map, system, vehicle-mounted terminal, and server | |
CN105807762A (en) | Autonomous driving refined in virtual environments | |
US10754344B2 (en) | Method and apparatus for road hazard detection | |
CN105809103A (en) | Virtual autonomous response testbed | |
CN110210280A (en) | A kind of over the horizon cognitive method, system, terminal and storage medium | |
CN110435667A (en) | System and method for controlling autonomous vehicle | |
WO2019082670A1 (en) | Information processing device, information processing method, program, and moving body | |
US11699235B2 (en) | Way to generate tight 2D bounding boxes for autonomous driving labeling | |
US11250695B2 (en) | Method and device for providing a position of at least one object | |
CN114530058A (en) | Collision early warning method, device and system | |
JP2023171455A (en) | Route prediction device, in-vehicle device therewith, route prediction system, route prediction method, and computer program | |
JP7025372B2 (en) | Object identification device, method and system | |
CN113642372B (en) | Method and system for recognizing object based on gray image in operation of autonomous driving vehicle | |
CN114763159A (en) | Automatic audio data tagging with autonomous driving vehicles | |
CN110648547A (en) | Transport infrastructure communication and control | |
US11338810B2 (en) | Vehicle yield decision | |
US20210150892A1 (en) | Vehicle operating parameters | |
US11217090B2 (en) | Learned intersection map from long term sensor data | |
JP2019095875A (en) | Vehicle control device, vehicle control method, and program | |
CN110920612B (en) | System and method for autonomous control of a vehicle | |
CN113936058A (en) | Vehicle-based data acquisition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210226 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210825 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220209 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220210 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7025372 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |