JP2020201745A - Object identification device, method, and system - Google Patents

Object identification device, method, and system Download PDF

Info

Publication number
JP2020201745A
JP2020201745A JP2019108587A JP2019108587A JP2020201745A JP 2020201745 A JP2020201745 A JP 2020201745A JP 2019108587 A JP2019108587 A JP 2019108587A JP 2019108587 A JP2019108587 A JP 2019108587A JP 2020201745 A JP2020201745 A JP 2020201745A
Authority
JP
Japan
Prior art keywords
vehicle
identification
surrounding environment
object identification
identifying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019108587A
Other languages
Japanese (ja)
Other versions
JP7025372B2 (en
Inventor
和之 田坂
Kazuyuki Tasaka
和之 田坂
柳原 広昌
Hiromasa Yanagihara
広昌 柳原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2019108587A priority Critical patent/JP7025372B2/en
Publication of JP2020201745A publication Critical patent/JP2020201745A/en
Application granted granted Critical
Publication of JP7025372B2 publication Critical patent/JP7025372B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

To allow for an effective use of limited memory capacity and more accurate and faster object identification by preparing multiple types of dedicated identification models optimized for identification in advance for each object that may become an obstacle for driving and selectively downloading to each vehicle only some dedicated identification models according to the surrounding environment of each vehicle for object identification.SOLUTION: An object identification device includes: a plurality of identification models 107a, 107b, 107c; acquisition units 101, 102, 103, and 104 that acquire camera images and sensor outputs specific to the driving environment of a connected car; an ambient environment identification unit 105 that identifies features of the ambient environment based on the camera images and sensor outputs; a driving environment estimation unit 106 that estimates the driving environment based on the features of the ambient environment; an identification model selection unit 106 that selects a part of the identification models based on the estimation result of the driving environment; and an object identification unit 109 that identifies an object by applying the images of an in-vehicle camera to the selected identification model.SELECTED DRAWING: Figure 1

Description

本発明は、物体識別装置、方法およびシステムに係り、特に、コネクテッドカーの自動運転に好適な物体識別装置、方法およびシステムに関する。 The present invention relates to object identification devices, methods and systems, and more particularly to object identification devices, methods and systems suitable for automated driving of connected cars.

近年、車両の走行方向に存在する物体を各種のセンサで識別し、物体識別の結果が障害物であれば、これを回避するようにハンドルを自動的に操舵し、あるいは運転者や遠隔地のオペレータに識別結果を通知する技術が提案されている。一方、IoT (Internet of Things)の典型として、インターネットへの常時接続機能を具備したコネクテッドカーが注目されている。 In recent years, various sensors identify objects existing in the traveling direction of the vehicle, and if the result of object identification is an obstacle, the steering wheel is automatically steered to avoid this, or the driver or a remote location A technique for notifying the operator of the identification result has been proposed. On the other hand, as a typical example of the IoT (Internet of Things), a connected car equipped with a function of always connecting to the Internet is drawing attention.

特許文献1には、自車両のヘッドライトの配光状態に基づき、物体識別に用いる認識辞書の認識条件を変更し、変更した認識辞書に基づき、自車両の前方を撮影した映像から物体認識を行う技術が開示されている。 In Patent Document 1, the recognition conditions of the recognition dictionary used for object identification are changed based on the light distribution state of the headlight of the own vehicle, and the object recognition is performed from the image taken in front of the own vehicle based on the changed recognition dictionary. The technology to be performed is disclosed.

特許文献2には、走行環境が急激に変化した場合、カメラでは認識困難な対象物を他の検出手段で検出する技術が開示されている。具体的には、前のフレームで検出していた対象物の消失を検出し、その対象物の方向にレーザーを照射して対象物の距離情報を出力する。 Patent Document 2 discloses a technique for detecting an object that is difficult to recognize with a camera by another detection means when the traveling environment suddenly changes. Specifically, the disappearance of the object detected in the previous frame is detected, the laser is irradiated in the direction of the object, and the distance information of the object is output.

特許文献3には、画像内での物体認識範囲を、採用する画像処理装置に応じて変更することで、物体認識に係る処理量を削減する技術が開示されている。 Patent Document 3 discloses a technique for reducing the amount of processing related to object recognition by changing the object recognition range in an image according to the image processing apparatus to be adopted.

特開2017-165345号公報JP-A-2017-165345 特許第6471528号公報Japanese Patent No. 6471528 特許第5777389号公報Japanese Patent No. 5777389

車両走行の障害物となる可能性のある物体は多種多様であり、物体を識別する学習モデル(識別モデル)はあらゆる物体を識別できるように学習させる必要がある。しかしながら、このような万能型の識別モデルは、容量が同等であれば、識別対象を限定した専用の識別モデルに比べて識別率が低下する。 There are a wide variety of objects that can be obstacles to vehicle travel, and a learning model for identifying objects (discriminative model) needs to be trained so that any object can be identified. However, in such a universal type identification model, if the capacities are the same, the identification rate is lower than that of the dedicated identification model in which the identification target is limited.

一方、障害物となる可能性のある物体ごとに専用の識別モデルを用意すると、識別モデルの保持に多くの記憶容量が消費され、かつ全ての識別モデルを同時に稼働させるとコンピュータリソースが不足する。 On the other hand, if a dedicated identification model is prepared for each object that may become an obstacle, a large amount of storage capacity is consumed to hold the identification model, and if all the identification models are operated at the same time, computer resources are insufficient.

特許文献1では、ヘッドライトの配光状態から認識するパラメータを変更することで認識精度を向上できる一方、同じ光源の状態下において、商店街、一般高速道、郊外の一般道などの環境の変化に応じて、識別対象を変更することができない。 In Patent Document 1, while the recognition accuracy can be improved by changing the recognition parameter from the light distribution state of the headlight, changes in the environment such as a shopping street, a general highway, and a general road in the suburbs under the same light source state. The identification target cannot be changed according to the above.

特許文献2では、環境変化時の認識精度の向上が可能である一方、認識する対象物が同じであるため、サーバの処理負荷やデータ蓄積量の削減は困難である。 In Patent Document 2, while it is possible to improve the recognition accuracy when the environment changes, it is difficult to reduce the processing load of the server and the amount of data stored because the objects to be recognized are the same.

特許文献3では、周辺環境に応じた識別方法を切り替えることが困難である。 In Patent Document 3, it is difficult to switch the identification method according to the surrounding environment.

本発明の目的は、上記の技術課題を解決し、走行障害物となる可能性のある物体ごとに、その識別用に最適化された複数種の専用モデルを予め用意し、各車両の周囲環境に応じた一部の専用モデルのみを選択的に各車両にダウンロードして物体識別に利用することで、限られたメモリ容量を有効利用し、より正確かつ高速な物体識別を可能にする物体識別装置、方法およびシステムを提供することにある。 An object of the present invention is to solve the above technical problems, prepare a plurality of types of dedicated models optimized for identifying each object that may become a traveling obstacle in advance, and prepare the surrounding environment of each vehicle in advance. Object identification that enables more accurate and high-speed object identification by effectively utilizing the limited memory capacity by selectively downloading only some dedicated models according to the above to each vehicle and using them for object identification. To provide equipment, methods and systems.

上記の目的を達成するために、本発明は、車載カメラの映像を識別モデルに適用して物体識別を行う物体識別装置において、以下の構成を具備した点に特徴がある。 In order to achieve the above object, the present invention is characterized in that it has the following configurations in an object identification device that identifies an object by applying an image of an in-vehicle camera to an identification model.

(1) 複数種の識別モデルを記憶する手段と、車載カメラの映像に基づいて周囲環境の特徴を識別する手段と、周囲環境の特徴に基づいて走行環境を推定する手段と、走行環境の推定結果に基づいて一部の識別モデルを選択する手段と、車載カメラの映像を前記選択した識別モデルに適用して物体識別を行う手段とを具備した。 (1) Means for storing multiple types of identification models, means for identifying the characteristics of the surrounding environment based on the image of the in-vehicle camera, means for estimating the driving environment based on the characteristics of the surrounding environment, and estimation of the driving environment. A means for selecting a part of the identification model based on the result and a means for applying the image of the in-vehicle camera to the selected identification model to perform object identification are provided.

(2) 車両の周囲環境に固有のセンサ出力を取得する手段を更に具備し、前記周囲環境の特徴を識別する手段は、車載カメラの映像およびセンサ出力に基づいて周囲環境の特徴を識別するようにした。 (2) The means for acquiring the sensor output peculiar to the surrounding environment of the vehicle is further provided, and the means for identifying the characteristics of the surrounding environment is to identify the characteristics of the surrounding environment based on the image of the in-vehicle camera and the sensor output. I made it.

(3) 周囲環境の特徴を識別する手段は、移動体の識別に好適な第1環境辞書、不動産の識別に好適な第2環境辞書および交通/道路標識の識別に好適な第3環境辞書を併用して移動体および不動産を識別するようにした。 (3) As means for identifying the characteristics of the surrounding environment, a first environmental dictionary suitable for identifying moving objects, a second environmental dictionary suitable for identifying real estate, and a third environmental dictionary suitable for identifying traffic / road signs are used. Used together to identify moving objects and real estate.

本発明によれば、以下のような効果が達成される。 According to the present invention, the following effects are achieved.

(1) 走行障害物となる可能性のある物体ごとに、その識別用に最適化された複数種の専用の識別モデルを予め用意し、各車両の周囲環境に応じた一部の専用識別モデルのみが選択的に各車両にダウンロードされて物体識別に利用される。したがって、各車両は全ての専用モデルを常に実装しておく必要がなくなるので、限られたメモリ容量の有効利用が可能となる。加えて、識別対象が限定されない万能型の識別モデルを実装する場合に比べて、モデルサイズが同等であれば、同一のコンピュータリソースを用いながら、より正確かつ高速な物体識別が可能となる。 (1) For each object that may become a driving obstacle, prepare multiple types of dedicated identification models optimized for identification in advance, and some dedicated identification models according to the surrounding environment of each vehicle. Only are selectively downloaded to each vehicle and used for object identification. Therefore, it is not necessary to always implement all the dedicated models in each vehicle, so that the limited memory capacity can be effectively used. In addition, as compared with the case of implementing a universal identification model in which the identification target is not limited, if the model sizes are the same, more accurate and high-speed object identification can be performed while using the same computer resources.

(2) 車両の周囲環境を、画像ベースおよびセンサベースで推定するので、画像ベースでの推定に不向きな夜間、降雨、濃霧時等、あるいはセンサベースでの推定に不向きな形状識別、サイズ識別などで識別精度を相互に補完することができる。したがって、天候、状況、物体の形状等に関わらず、常に高い識別精度が得られるようになる。 (2) Since the surrounding environment of the vehicle is estimated based on images and sensors, shape identification and size identification that are unsuitable for image-based estimation at night, rainfall, heavy fog, etc., or sensor-based estimation, etc. The identification accuracy can be complemented with each other. Therefore, high identification accuracy can always be obtained regardless of the weather, the situation, the shape of the object, and the like.

(3) 車両の周囲環境を推定するにあたり、その推定パラメータとして、人や動物などの移動体、ビルや住宅などの不動産および交通標識や信号機などに注目し、移動体識別に好適な第1環境辞書、不動産識別に好適な第2環境辞書および交通/道路標識の識別に好適な第3環境辞書を併用して移動体および不動産を優先的に識別するので、周囲環境を正確に推定できるようになる。 (3) When estimating the surrounding environment of a vehicle, pay attention to moving objects such as people and animals, real estate such as buildings and houses, traffic signs and traffic lights as the estimation parameters, and the first environment suitable for identifying moving objects. A dictionary, a second environmental dictionary suitable for identifying real estate, and a third environmental dictionary suitable for identifying traffic / road signs are used in combination to preferentially identify moving objects and real estate, so that the surrounding environment can be estimated accurately. Become.

本発明の一実施形態に係る物体識別装置の機能ブロック図である。It is a functional block diagram of the object identification apparatus which concerns on one Embodiment of this invention. 本発明の物体識別装置を適用したネットワークの構成を示した図である。It is a figure which showed the structure of the network which applied the object identification apparatus of this invention. 物体識別装置の各機能をコネクテッドカーおよびサーバに分散実装する第1の例を示した機能ブロック図である。It is a functional block diagram which showed the 1st example which distributed implementation of each function of an object identification apparatus to a connected car and a server. 第1の実装例における物体識別のシーケンスフローである。It is a sequence flow of object identification in the 1st implementation example. 物体識別装置の各機能をコネクテッドカーおよびサーバに分散実装する第2の例を示した機能ブロック図である。It is a functional block diagram which showed the 2nd example which distributed implementation of each function of the object identification apparatus in a connected car and a server. 第2の実装例における物体識別のシーケンスフローである。It is a sequence flow of object identification in the second implementation example. 走行環境と識別モデルとの関係を示した図である。It is a figure which showed the relationship between a driving environment and an identification model.

以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明の一実施形態に係る物体識別装置1の機能ブロック図であり、コネクテッドカー等の車両に搭載したカメラ(以下、車載カメラで総称する)が撮影した映像に基づいて、車両走行の障害となる人物、動物その他の物体(以下、「物体」で代表する)を識別する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a functional block diagram of an object identification device 1 according to an embodiment of the present invention, based on an image taken by a camera mounted on a vehicle such as a connected car (hereinafter, collectively referred to as an in-vehicle camera). Identify people, animals, and other objects that hinder driving (hereinafter referred to as "objects").

カメラ映像取得部102は、車載カメラ101からカメラ映像を取得して出力する。環境センサ103は、各物体までの距離、騒音、温度、湿度、明るさなどの周囲環境に固有のパラメータを計測する。各センサ出力は、センサインタフェース(I/F)104から出力される。 The camera image acquisition unit 102 acquires and outputs a camera image from the vehicle-mounted camera 101. The environment sensor 103 measures parameters specific to the surrounding environment such as distance to each object, noise, temperature, humidity, and brightness. Each sensor output is output from the sensor interface (I / F) 104.

周囲環境識別部105は、特に車両数や人物数などの移動体の識別用に構築された第1環境辞書105a、特に建物の数や高さなどの不動産の識別用に構築された第2環境辞書105b、特に案内標識、交通標識、信号機および横断歩道等の交通/道路標識の識別用に構築された第3環境辞書105cを含む複数の辞書を備え、カメラ映像およびセンサ出力を少なくとも一つの識別辞書に適用することで、自車両周辺の車両数、人物数、建物の数およびその高さ、ならびに道路標識などの周囲環境の特徴を識別する。 The surrounding environment identification unit 105 is a first environment dictionary 105a constructed especially for identifying moving objects such as the number of vehicles and people, and a second environment particularly constructed for identifying real estate such as the number and height of buildings. It comprises a plurality of dictionaries including a third environmental dictionary 105b constructed for identifying traffic / road signs such as dictionaries 105b, in particular guidance signs, traffic signs, traffic lights and pedestrian crossings, and identifies at least one camera image and sensor output. By applying it to the dictionary, it identifies the number of vehicles, the number of people, the number of buildings and their height, and the characteristics of the surrounding environment such as road signs.

走行環境推定部106は環境識別モデル106aを含み、前記周囲環境識別部105が出力する識別結果に基づいて車両の走行環境を推定する。本実施形態では、走行環境が「商店街」またはこれに類する環境、「郊外」またはこれに類する環境、「高速道路」またはこれに類する環境を含む多数の走行環境候補のいずれであるかが推定される。例えば、多数の人物が識別されていると「商店街」またはこれに類する環境と推定される可能性が高い。また、横断歩道や信号機が識別されずに高速道路に固有の案内標識や速度制限標識が識別されていると「高速道路」またはこれに類する環境と推定される可能性が高い。 The traveling environment estimation unit 106 includes the environment identification model 106a, and estimates the traveling environment of the vehicle based on the identification result output by the surrounding environment identification unit 105. In the present embodiment, it is estimated whether the driving environment is one of a large number of driving environment candidates including a "shopping street" or a similar environment, a "suburb" or a similar environment, a "highway" or a similar environment. Will be done. For example, if a large number of people are identified, it is likely to be presumed to be a "shopping street" or similar environment. In addition, if a guide sign or a speed limit sign peculiar to an expressway is identified without identifying a pedestrian crossing or a traffic light, it is highly likely that the environment is presumed to be an "expressway" or a similar environment.

識別モデルデータベース(DB)107には、一時置物の識別用にチューニングされた一時置物識別モデル107a,標識の識別用にチューニングされた標識識別モデル107bおよび歩行者数の識別用にチューニングされた歩行者数識別モデル107cを含む多数の専用識別モデルが蓄積されている。 The discrimination model database (DB) 107 includes a temporary figurine identification model 107a tuned for identifying temporary figurines, a sign identification model 107b tuned for tag identification, and pedestrians tuned for pedestrian number identification. A large number of dedicated discriminative models including the number discriminative model 107c are accumulated.

識別モデル選択部108は、前記走行環境推定部106による走行環境の推定結果に基づいて、前記識別モデルDB107から1ないし複数の識別モデルを選択する。本実施形態では、図7に示したように、走行環境が「商店街」と推定されると、一時置物識別モデル107aおよび歩行者数識別モデル107cが優先的に選択される。走行環境が「郊外」と推定されると、一時置物識別モデル107aおよび標識識別モデル107bが優先的に選択される。走行環境が「高速道路」と推定されると、一時置物識別モデル107aが優先的に選択される。 The discriminative model selection unit 108 selects one or a plurality of discriminative models from the discriminative model DB 107 based on the estimation result of the running environment by the running environment estimation unit 106. In the present embodiment, as shown in FIG. 7, when the traveling environment is estimated to be a “shopping street”, the temporary figurine identification model 107a and the pedestrian number identification model 107c are preferentially selected. When the driving environment is estimated to be "suburbs", the temporary figurine identification model 107a and the sign identification model 107b are preferentially selected. When the driving environment is presumed to be a "highway", the temporary figurine identification model 107a is preferentially selected.

物体識別部109は、車載カメラ101が撮影した映像に前記選択された識別モデル(109a,109b)を適用して物体識別を実行する。物体識別の結果は、自動運転におけるハンドル操作、アクセル操作あるいは制動操作に反映され、あるいは当該車両を直接または遠隔操作するドライバ(オペレータ)に提供するメッセージに反映される。 The object identification unit 109 applies the selected identification model (109a, 109b) to the image captured by the vehicle-mounted camera 101 to execute object identification. The result of the object identification is reflected in the steering wheel operation, the accelerator operation or the braking operation in the automatic driving, or is reflected in the message provided to the driver (operator) who directly or remotely controls the vehicle.

このような物体識別装置1は、汎用のコンピュータやサーバに、後述する各機能を実現するアプリケーション(プログラム)を実装することで構成できる。あるいは、アプリケーションの一部がハードウェア化またはROM化された専用機や単能機として構成することもできる。 Such an object identification device 1 can be configured by mounting an application (program) that realizes each function described later on a general-purpose computer or server. Alternatively, a part of the application can be configured as a dedicated machine or a single-purpose machine that is made into hardware or ROM.

図2は、前記物体識別装置1が適用されるネットワークの構成を示した図であり、物体識別装置1の主要な機能が実装されるサーバ3、および当該サーバ3とネットワークNWおよび無線基地局BSを中継して無線接続される多数のコネクテッドカー2から構成され、各コネクテッドカー2に前記車載カメラ101および環境センサ103が搭載されている。 FIG. 2 is a diagram showing a network configuration to which the object identification device 1 is applied, and is a server 3 on which the main functions of the object identification device 1 are implemented, and the server 3 and the network NW and the radio base station BS. It is composed of a large number of connected cars 2 that are wirelessly connected by relaying the above, and the in-vehicle camera 101 and the environment sensor 103 are mounted on each connected car 2.

図3は、物体識別装置1の各機能をコネクテッドカー2およびサーバ3に分散実装する第1の例を示した機能ブロック図であり、ここでは、車載カメラ101、カメラ映像取得部102、環境センサ103、センサI/F104および物体識別部109がコネクテッドカー2に実装され、その他の機能がサーバ3に実装されている。 FIG. 3 is a functional block diagram showing a first example in which each function of the object identification device 1 is distributedly mounted on the connected car 2 and the server 3. Here, the in-vehicle camera 101, the camera image acquisition unit 102, and the environment sensor are shown. The 103, the sensor I / F 104, and the object identification unit 109 are mounted on the connected car 2, and other functions are mounted on the server 3.

図4は、第1の実装例における物体識別のシーケンスフローであり、コネクテッドカー2では、時刻t1において車載カメラ101による撮影が開始される。時刻t2では、周囲環境センサ103により周囲環境が計測される。時刻t3では、車載カメラ映像および各センサ出力がネットワーク経由でサーバ3へアップロードされる。 FIG. 4 shows a sequence flow of object identification in the first implementation example, and in the connected car 2, shooting by the in-vehicle camera 101 is started at time t1. At time t2, the ambient environment is measured by the ambient environment sensor 103. At time t3, the in-vehicle camera image and the output of each sensor are uploaded to the server 3 via the network.

サーバ3では、時刻t4において周囲環境識別部105が前記車載カメラの映像およびセンサ出力を複数の環境辞書105a,105bに適用することで、自車両の周囲環境の特徴として、車両数、人物数、建物の数およびその高さなどを識別する。 In the server 3, at time t4, the surrounding environment identification unit 105 applies the video and sensor output of the in-vehicle camera to the plurality of environment dictionaries 105a and 105b, so that the number of vehicles, the number of people, and the number of people are the characteristics of the surrounding environment of the own vehicle. Identify the number of buildings and their height.

時刻t5では、前記識別結果が走行環境推定部106の環境推定モデル106aに適用されて、コネクテッドカー2の走行環境が「商店街」、「郊外」、「高速道路」あるいは「その他」のいずれであるかが推定される。時刻t6では、前記走行環境の推定結果に基づいて、識別モデル選択部108が識別モデルDB107から最適な識別モデルを選択する。時刻t7では、前記選択された識別モデルがコネクテッドカー2へ配信される。 At time t5, the identification result is applied to the environment estimation model 106a of the driving environment estimation unit 106, and the driving environment of the connected car 2 is any of "shopping street", "suburbs", "expressway" or "other". It is estimated that there is. At time t6, the discriminative model selection unit 108 selects the optimum discriminative model from the discriminative model DB 107 based on the estimation result of the traveling environment. At time t7, the selected discriminative model is delivered to the connected car 2.

コネクテッドカー2は、前記識別モデルが配信されると、時刻t8では、物体識別部109が現在の識別モデルに代えて今回の識別モデルをインストールする。時刻t9では、前記識別モデルにカメラ映像を適用することで物体識別が実行される。時刻t10では、前記物体識別の結果が自車両の自動運転制御や運転者等へ通知されるメッセージに反映される。 When the identification model is delivered to the connected car 2, the object identification unit 109 installs the current identification model in place of the current identification model at time t8. At time t9, object identification is executed by applying the camera image to the identification model. At time t10, the result of the object identification is reflected in the automatic driving control of the own vehicle and the message notified to the driver and the like.

図5は、物体識別装置1の各機能をコネクテッドカー2およびサーバ3に分散実装する第2の例を示した図であり、ここでは、車載カメラ101、カメラ映像取得部102、環境センサ103、センサI/F104および物体識別部109に加えて、周囲環境識別部105がコネクテッドカー2に実装され、その他の機能がサーバ3に実装されている。 FIG. 5 is a diagram showing a second example in which each function of the object identification device 1 is distributedly mounted on the connected car 2 and the server 3, and here, the in-vehicle camera 101, the camera image acquisition unit 102, the environment sensor 103, In addition to the sensor I / F 104 and the object identification unit 109, the ambient environment identification unit 105 is mounted on the connected car 2, and other functions are mounted on the server 3.

図6は、第2の実装例における物体識別のシーケンスフローであり、コネクテッドカー2では、時刻t1において車載カメラ101による撮影が開始される。時刻t2では、周囲環境センサ103により周囲環境が計測される。時刻t3では、周囲環境識別部105が前記車載カメラ映像およびセンサ出力を複数の環境辞書105a,105bに適用することで、自車両周辺の車両数、人物数、建物の数およびその高さなどを識別する。時刻t4では、周囲環境の識別結果がサーバ3へアップロードされる。 FIG. 6 is a sequence flow of object identification in the second implementation example, and in the connected car 2, shooting by the in-vehicle camera 101 is started at time t1. At time t2, the ambient environment is measured by the ambient environment sensor 103. At time t3, the surrounding environment identification unit 105 applies the in-vehicle camera image and sensor output to the plurality of environment dictionaries 105a and 105b to obtain the number of vehicles, the number of people, the number of buildings and their heights around the own vehicle. Identify. At time t4, the identification result of the surrounding environment is uploaded to the server 3.

時刻t5では、アップロードされた識別結果が走行環境推定部106の環境推定モデル106aに適用されて、コネクテッドカー2の走行環境が「郊外」、「都内」、「商店街」あるいは「その他」のいずれであるかが推定される。時刻t6では、前記走行環境の推定結果に基づいて、識別モデル選択部108が識別モデルDB107から最適な識別モデルを選択する。時刻t7では、前記選択された識別モデルがコネクテッドカー2へ配信される。 At time t5, the uploaded identification result is applied to the environment estimation model 106a of the driving environment estimation unit 106, and the driving environment of the connected car 2 is either "suburbs", "in Tokyo", "shopping street" or "others". Is presumed to be. At time t6, the discriminative model selection unit 108 selects the optimum discriminative model from the discriminative model DB 107 based on the estimation result of the traveling environment. At time t7, the selected discriminative model is delivered to the connected car 2.

コネクテッドカー2は、前記識別モデルが配信されると、時刻t8では、物体識別部109が現在の識別モデルに代えて今回の識別モデルをインストールする。時刻t9では、前記識別モデルにカメラ映像を適用することで物体識別が実行される。時刻t10では、前記物体識別の結果が自車両の自動運転制御や運転者等へ通知されるメッセージに反映される。 When the identification model is delivered to the connected car 2, the object identification unit 109 installs the current identification model in place of the current identification model at time t8. At time t9, object identification is executed by applying the camera image to the identification model. At time t10, the result of the object identification is reflected in the automatic driving control of the own vehicle and the message notified to the driver and the like.

1...物体識別装置,2...コネクテッドカー,3...サーバ,101...車載カメラ,102...カメラ映像取得部,103...環境センサ,104...センサインタフェース(I/F),105...周囲環境識別部,105a...第1環境辞書,105b...第2環境辞書,105c...第3環境辞書,106...走行環境推定部,106a...環境識別モデル,107...識別モデルDB,107a...一時置物識別モデル,107b...標識識別モデル,107c...歩行者数識別モデル,108...識別モデル選択部,109...物体識別部 1 ... object identification device, 2 ... connected car, 3 ... server, 101 ... in-vehicle camera, 102 ... camera image acquisition unit, 103 ... environment sensor, 104 ... sensor interface (I / F), 105 ... Surrounding environment identification unit, 105a ... First environment dictionary, 105b ... Second environment dictionary, 105c ... Third environment dictionary, 106 ... Driving environment estimation unit , 106a ... environment identification model, 107 ... identification model DB, 107a ... temporary figurine identification model, 107b ... marker identification model, 107c ... pedestrian number identification model, 108 ... identification model Selection unit, 109 ... Object identification unit

Claims (14)

車載カメラの映像を識別モデルに適用して物体識別を行う物体識別装置において、
複数種の識別モデルを記憶する手段と、
車載カメラの映像に基づいて周囲環境の特徴を識別する手段と、
周囲環境の特徴に基づいて走行環境を推定する手段と、
走行環境の推定結果に基づいて一部の識別モデルを選択する手段と、
車載カメラの映像を前記選択した識別モデルに適用して物体識別を行う手段とを具備したことを特徴とする物体識別装置。
In an object identification device that identifies an object by applying the image of an in-vehicle camera to an identification model
A means of storing multiple discriminative models and
A means of identifying the characteristics of the surrounding environment based on the image of the in-vehicle camera,
A means of estimating the driving environment based on the characteristics of the surrounding environment,
A means of selecting some discriminative models based on the estimation results of the driving environment,
An object identification device including means for performing object identification by applying an image of an in-vehicle camera to the selected identification model.
車両の周囲環境に固有のセンサ出力を取得する手段を更に具備し、
前記周囲環境の特徴を識別する手段は、車載カメラの映像およびセンサ出力に基づいて周囲環境の特徴を識別することを特徴とする請求項1に記載の物体識別装置。
Further equipped with a means for acquiring the sensor output peculiar to the surrounding environment of the vehicle,
The object identification device according to claim 1, wherein the means for identifying the characteristics of the surrounding environment is to identify the characteristics of the surrounding environment based on the image of the vehicle-mounted camera and the sensor output.
前記周囲環境の特徴を識別する手段は、移動体の識別に好適な第1環境辞書、不動産の識別に好適な第2環境辞書および交通/道路標識の識別に好適な第3環境辞書の少なくとも一つを用いて移動体および不動産を識別することを特徴とする請求項1または2に記載の物体識別装置。 The means for identifying the characteristics of the surrounding environment is at least one of a first environmental dictionary suitable for identifying moving objects, a second environmental dictionary suitable for identifying real estate, and a third environmental dictionary suitable for identifying traffic / road signs. The object identification device according to claim 1 or 2, wherein the moving object and the real estate are identified by using one. 前記走行環境を推定する手段は、走行環境が、商店街またはこれに類する環境、郊外またはこれに類する環境、高速道路またはこれに類する環境、を含む複数の走行環境候補のいずれであるかを推定することを特徴とする請求項1ないし3のいずれかに記載の物体識別装置。 The means for estimating the driving environment estimates whether the driving environment is a plurality of driving environment candidates including a shopping district or a similar environment, a suburb or a similar environment, a highway or a similar environment. The object identification device according to any one of claims 1 to 3, wherein the object identification device is characterized. 前記識別モデルの一つが歩行者数識別用であることを特徴とする請求項1ないし4のいずれかに記載の物体識別装置。 The object identification device according to any one of claims 1 to 4, wherein one of the identification models is for identifying the number of pedestrians. 前記識別モデルの一つが標識識別用であることを特徴とする請求項1ないし5のいずれかに記載の物体識別装置。 The object identification device according to any one of claims 1 to 5, wherein one of the identification models is for tag identification. 前記識別モデルの一つが一時置物識別用であることを特徴とする請求項1ないし6のいずれかに記載の物体識別装置。 The object identification device according to any one of claims 1 to 6, wherein one of the identification models is for identifying a temporary figurine. コンピュータが、車載カメラの映像を識別モデルに適用して物体識別を行う物体識別方法において、
車載カメラの映像に基づいて周囲環境の特徴を識別する手順と、
周囲環境の特徴に基づいて走行環境を推定する手順と、
走行環境の推定結果に基づいて、複数種の識別モデルの一部を選択する手順と、
車載カメラの映像を前記選択した識別モデルに適用して物体識別を行う手順とを含むことを特徴とする物体識別方法。
In an object identification method in which a computer applies an image from an in-vehicle camera to an identification model to identify an object.
The procedure for identifying the characteristics of the surrounding environment based on the image of the in-vehicle camera,
Procedures for estimating the driving environment based on the characteristics of the surrounding environment,
The procedure for selecting a part of multiple discriminative models based on the estimation result of the driving environment,
An object identification method comprising a procedure of applying an image of an in-vehicle camera to the selected identification model to perform object identification.
車両の周囲環境に固有のセンサ出力を取得する手順を更に含み、
前記周囲環境の特徴を識別する手順では、車載カメラの映像およびセンサ出力に基づいて周囲環境の特徴を識別することを特徴とする請求項8に記載の物体識別方法。
Including the procedure to acquire the sensor output specific to the surrounding environment of the vehicle,
The object identification method according to claim 8, wherein the procedure for identifying the characteristics of the surrounding environment is characterized by identifying the characteristics of the surrounding environment based on the image of the vehicle-mounted camera and the sensor output.
前記周囲環境の特徴を識別する手順では、移動体の識別に好適な第1環境辞書、不動産の識別に好適な第2環境辞書および交通/道路標識の識別に好適な第3環境辞書の少なくとも一つを用いて移動体および不動産を識別することを特徴とする請求項8または9に記載の物体識別方法。 In the procedure for identifying the characteristics of the surrounding environment, at least one of a first environmental dictionary suitable for identifying moving objects, a second environmental dictionary suitable for identifying real estate, and a third environmental dictionary suitable for identifying traffic / road signs. The object identification method according to claim 8 or 9, wherein the moving object and the real estate are identified by using one. 車両の車載カメラの映像をサーバが識別モデルに適用して物体識別を行う物体識別システムにおいて、
車両が、
車載カメラの映像をサーバへアップロードする手段を具備し、
前記サーバが、
複数種の識別モデルを記憶する手段と、
アップロードされた車載カメラの映像に基づいて周囲環境の特徴を識別する手段と、
周囲環境の特徴に基づいて走行環境を推定する手段と、
走行環境の推定結果に基づいて一部の識別モデルを選択する手段と、
車載カメラの映像を前記選択した識別モデルに適用して物体識別を行う手段とを具備したことを特徴とする物体識別システム。
In an object identification system in which a server applies an image from an in-vehicle camera of a vehicle to an identification model to identify an object.
The vehicle
Equipped with a means to upload the image of the in-vehicle camera to the server,
The server
A means of storing multiple discriminative models and
A means of identifying the characteristics of the surrounding environment based on the uploaded in-vehicle camera image,
A means of estimating the driving environment based on the characteristics of the surrounding environment,
A means of selecting some discriminative models based on the estimation results of the driving environment,
An object identification system including means for performing object identification by applying an image of an in-vehicle camera to the selected identification model.
前記車両が、
車両の周囲環境に固有のセンサ出力を取得する手段を更に具備し、
前記アップロードする手段は、車載カメラの映像およびセンサ出力をアップロードし、
前記サーバにおいて、周囲環境の特徴を識別する手段は、アップロードされた車載カメラの映像およびセンサ出力に基づいて周囲環境の特徴を識別することを特徴とする請求項11に記載の物体識別システム。
The vehicle
Further equipped with a means for acquiring the sensor output peculiar to the surrounding environment of the vehicle,
The uploading means uploads the video and sensor output of the in-vehicle camera.
The object identification system according to claim 11, wherein in the server, the means for identifying the characteristics of the surrounding environment is to identify the characteristics of the surrounding environment based on the uploaded image of the vehicle-mounted camera and the sensor output.
車両の車載カメラの映像をサーバが識別モデルに適用して物体識別を行う物体識別システムにおいて、
車両が、
車載カメラの映像に基づいて周囲環境の特徴を識別する手段と、
車載カメラの映像および周囲環境の特徴をサーバへアップロードする手段とを具備し、
前記サーバが、
複数種の識別モデルと、
アップロードされた周囲環境の特徴に基づいて走行環境を推定する手段と、
走行環境の推定結果に基づいて一部の識別モデルを選択する手段と、
アップロードされた車載カメラの映像を前記選択した識別モデルに適用して物体識別を行う手段とを具備したことを特徴とする物体識別システム。
In an object identification system in which a server applies an image from an in-vehicle camera of a vehicle to an identification model to identify an object.
The vehicle
A means of identifying the characteristics of the surrounding environment based on the image of the in-vehicle camera,
It has a means to upload the image of the in-vehicle camera and the characteristics of the surrounding environment to the server.
The server
Multiple discriminative models and
A means of estimating the driving environment based on the characteristics of the uploaded surrounding environment,
A means of selecting some discriminative models based on the estimation results of the driving environment,
An object identification system including means for performing object identification by applying an uploaded image of an in-vehicle camera to the selected identification model.
前記車両が、車両の周囲環境に固有のセンサ出力を取得する手段を更に具備し、
前記周囲環境の特徴を識別する手段は、車載カメラの映像およびセンサ出力に基づいて周囲環境の特徴を識別することを特徴とする請求項13に記載の物体識別システム。
The vehicle further comprises means for acquiring sensor outputs specific to the vehicle's surrounding environment.
The object identification system according to claim 13, wherein the means for identifying the characteristics of the surrounding environment is to identify the characteristics of the surrounding environment based on the image of the vehicle-mounted camera and the sensor output.
JP2019108587A 2019-06-11 2019-06-11 Object identification device, method and system Active JP7025372B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019108587A JP7025372B2 (en) 2019-06-11 2019-06-11 Object identification device, method and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019108587A JP7025372B2 (en) 2019-06-11 2019-06-11 Object identification device, method and system

Publications (2)

Publication Number Publication Date
JP2020201745A true JP2020201745A (en) 2020-12-17
JP7025372B2 JP7025372B2 (en) 2022-02-24

Family

ID=73743388

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019108587A Active JP7025372B2 (en) 2019-06-11 2019-06-11 Object identification device, method and system

Country Status (1)

Country Link
JP (1) JP7025372B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023054779A1 (en) * 2021-09-30 2023-04-06 한국전자기술연구원 Method for recognizing 3d object on basis of point cloud context and lightweight deep learning

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099890A (en) * 2001-09-19 2003-04-04 Clarion Co Ltd Particular road determination device, method, and program
JP2008037361A (en) * 2006-08-09 2008-02-21 Toyota Motor Corp Obstacle recognition device
JP2013008315A (en) * 2011-06-27 2013-01-10 Toyota Motor Corp Pedestrian recognition device
JP2017194948A (en) * 2016-04-15 2017-10-26 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information presentation control device, automatic operation vehicle, and automatic operation vehicle supporting system
JP2018081404A (en) * 2016-11-15 2018-05-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Discrimination method, discrimination device, discriminator generation method and discriminator generation device
JP2018097738A (en) * 2016-12-15 2018-06-21 株式会社日立製作所 Image processing device, image processing system, and image processing method
WO2020090251A1 (en) * 2018-10-30 2020-05-07 日本電気株式会社 Object recognition device, object recognition method, and object recognition program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099890A (en) * 2001-09-19 2003-04-04 Clarion Co Ltd Particular road determination device, method, and program
JP2008037361A (en) * 2006-08-09 2008-02-21 Toyota Motor Corp Obstacle recognition device
JP2013008315A (en) * 2011-06-27 2013-01-10 Toyota Motor Corp Pedestrian recognition device
JP2017194948A (en) * 2016-04-15 2017-10-26 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information presentation control device, automatic operation vehicle, and automatic operation vehicle supporting system
JP2018081404A (en) * 2016-11-15 2018-05-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Discrimination method, discrimination device, discriminator generation method and discriminator generation device
JP2018097738A (en) * 2016-12-15 2018-06-21 株式会社日立製作所 Image processing device, image processing system, and image processing method
WO2020090251A1 (en) * 2018-10-30 2020-05-07 日本電気株式会社 Object recognition device, object recognition method, and object recognition program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023054779A1 (en) * 2021-09-30 2023-04-06 한국전자기술연구원 Method for recognizing 3d object on basis of point cloud context and lightweight deep learning

Also Published As

Publication number Publication date
JP7025372B2 (en) 2022-02-24

Similar Documents

Publication Publication Date Title
CN111695546B (en) Traffic signal lamp identification method and device for unmanned vehicle
CN110431037B (en) Autonomous vehicle operation management including application of partially observable Markov decision process model examples
CN110603497B (en) Autonomous vehicle and method of autonomous vehicle operation management control
CN113376657B (en) Automatic tagging system for autonomous vehicle LIDAR data
WO2020042348A1 (en) Method for generating autonomous driving navigation map, system, vehicle-mounted terminal, and server
CN105807762A (en) Autonomous driving refined in virtual environments
US10754344B2 (en) Method and apparatus for road hazard detection
CN105809103A (en) Virtual autonomous response testbed
CN110210280A (en) A kind of over the horizon cognitive method, system, terminal and storage medium
CN110435667A (en) System and method for controlling autonomous vehicle
WO2019082670A1 (en) Information processing device, information processing method, program, and moving body
US11699235B2 (en) Way to generate tight 2D bounding boxes for autonomous driving labeling
US11250695B2 (en) Method and device for providing a position of at least one object
CN114530058A (en) Collision early warning method, device and system
JP2023171455A (en) Route prediction device, in-vehicle device therewith, route prediction system, route prediction method, and computer program
JP7025372B2 (en) Object identification device, method and system
CN113642372B (en) Method and system for recognizing object based on gray image in operation of autonomous driving vehicle
CN114763159A (en) Automatic audio data tagging with autonomous driving vehicles
CN110648547A (en) Transport infrastructure communication and control
US11338810B2 (en) Vehicle yield decision
US20210150892A1 (en) Vehicle operating parameters
US11217090B2 (en) Learned intersection map from long term sensor data
JP2019095875A (en) Vehicle control device, vehicle control method, and program
CN110920612B (en) System and method for autonomous control of a vehicle
CN113936058A (en) Vehicle-based data acquisition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210226

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220210

R150 Certificate of patent or registration of utility model

Ref document number: 7025372

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150