JP7151676B2 - 物体認識装置及び物体認識プログラム - Google Patents

物体認識装置及び物体認識プログラム Download PDF

Info

Publication number
JP7151676B2
JP7151676B2 JP2019172398A JP2019172398A JP7151676B2 JP 7151676 B2 JP7151676 B2 JP 7151676B2 JP 2019172398 A JP2019172398 A JP 2019172398A JP 2019172398 A JP2019172398 A JP 2019172398A JP 7151676 B2 JP7151676 B2 JP 7151676B2
Authority
JP
Japan
Prior art keywords
image
camera
light
plant
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019172398A
Other languages
English (en)
Other versions
JP2021050945A (ja
Inventor
明宏 塚田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2019172398A priority Critical patent/JP7151676B2/ja
Priority to CN202080066071.5A priority patent/CN114514565A/zh
Priority to PCT/JP2020/033958 priority patent/WO2021059967A1/ja
Publication of JP2021050945A publication Critical patent/JP2021050945A/ja
Priority to US17/655,424 priority patent/US20220207884A1/en
Application granted granted Critical
Publication of JP7151676B2 publication Critical patent/JP7151676B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Description

この明細書による開示は、物体認識装置及び物体認識プログラムに関する。
特許文献1は、道路シーンの画像に映り込む物体を認識する装置、すなわち車両の部周辺の物体を認識する物体認識装置を開示している。
特開2017-162456号公報
さて、道路脇の草木等の植物が生い茂り、道路上に侵入しているシーンは、車両の走行時等においてしばしば遭遇し得る。物体認識において、道路に侵入している物体が、単なる植物か、他の衝突回避すべき障害物かによって、車両の走行への影響(例えば車両の自動運転において選択される行動)が異なってくる場合がある。
特許文献1において、実際の走行時に物体認識に用いられる画像は、外界からの可視光をカメラ素子が感知することによるカメラ画像であると考えられる。こうしたカメラ画像が示す可視光の強度では、植物と、他の回避すべき障害物との識別が高精度に実施できないことが懸念されている。
この明細書の開示による目的のひとつは、植物を高精度に識別可能な物体認識装置及び物体認識プログラムを提供することにある。
ここに開示された態様のひとつは、車両(1)に搭載された外界カメラ(20)の画像情報であって、外界からの可視光をカメラ素子(22a)が感知することによるカメラ画像を含む画像情報を用いることに加えて、車両に搭載された測距センサ(10)の画像情報であって、光照射に応じた近赤外の反射光を受光素子(12a)が感知することによる反射光画像と、反射光に対する近赤外の背景光を受光素子が感知することによる背景光画像と、を含むセンサ画像の画像情報を用いて、車両の周辺の物体を認識する物体認識装置であって、
測距センサの画像情報及び外界カメラの画像情報を取得する画像情報取得部(41)と、
カメラ画像の強度とセンサ画像の強度との相違を考慮して、車両の周辺の植物を識別する識別部(43,243)と、を備え
識別部は、
カメラ画像及びセンサ画像に基づき、相違が反映された植物判別用画像を取得し、
カメラ画像と植物判別用画像とに基づき、カメラ画像に映り込む物体を、複数のクラスに分類し、複数のクラスへの分類においては、植物が単独のクラスに分類されるようになっており、
植物判別用画像は、2次元座標データの各座標に、植物を判別するための判別値の情報を付加した画像である。
また、開示された態様の他のひとつは、車両(1)に搭載された外界カメラ(20)の画像情報であって、外界からの可視光をカメラ素子(22a)が感知することによるカメラ画像を含む画像情報を用いることに加えて、車両に搭載された測距センサ(10)の画像情報であって、光照射に応じた近赤外の反射光を受光素子(12a)が感知することによる反射光画像と、反射光に対する近赤外の背景光を受光素子が感知することによる背景光画像と、を含むセンサ画像の画像情報を用いて、車両の周辺の物体を認識する物体認識装置であって、
測距センサの画像情報及び外界カメラの画像情報を取得する画像情報取得部(41)と、
カメラ画像の強度とセンサ画像の強度との相違を考慮して、車両の周辺の植物を識別する識別部(43,243)と、を備え、
識別部は、相違が反映された物理量としての判別値であって、カメラ画像とセンサ画像との強度比率に準じた植物判別式(46)により算出された判別値に基づき、植物を識別し、
画像情報取得部は、カメラ素子の感度の波長特性情報を含むカメラ画像の画像情報を取得し、
識別部は、波長特性情報に応じて、植物判別式を変更する。
また、開示された態様の他のひとつは、車両(1)に搭載された外界カメラ(20)の画像情報であって、外界からの可視光をカメラ素子(22a)が感知することによるカメラ画像を含む画像情報を用いることに加えて、車両に搭載された測距センサ(10)の画像情報であって、光照射に応じた近赤外の反射光を受光素子(12a)が感知することによる反射光画像と、反射光に対する近赤外の背景光を受光素子が感知することによる背景光画像と、を含むセンサ画像の画像情報を用いて、車両の周辺の物体を認識する物体認識プログラムであって、
少なくとも1つの処理部(31)に、
測距センサの画像情報及び外界カメラの画像情報を取得する処理と、
カメラ画像の強度とセンサ画像の強度との相違を考慮して、車両の周辺の植物を識別する処理と、を実行させ
識別する処理は、
カメラ画像及びセンサ画像に基づき、相違が反映された植物判別用画像を取得することと、
カメラ画像と植物判別用画像とに基づき、カメラ画像に映り込む物体を、複数のクラスに分類することと、を含み、
複数のクラスへの分類においては、植物が単独のクラスに分類されるようになっており、
植物判別用画像は、2次元座標データの各座標に、植物を判別するための判別値の情報を付加した画像である。
また、開示された態様の他のひとつは、車両(1)に搭載された外界カメラ(20)の画像情報であって、外界からの可視光をカメラ素子(22a)が感知することによるカメラ画像を含む画像情報を用いることに加えて、車両に搭載された測距センサ(10)の画像情報であって、光照射に応じた近赤外の反射光を受光素子(12a)が感知することによる反射光画像と、反射光に対する近赤外の背景光を受光素子が感知することによる背景光画像と、を含むセンサ画像の画像情報を用いて、車両の周辺の物体を認識する物体認識プログラムであって、
少なくとも1つの処理部(31)に、
測距センサの画像情報及び外界カメラの画像情報を取得する処理と、
カメラ画像の強度とセンサ画像の強度との相違を考慮して、車両の周辺の植物を識別する処理と、を実行させ、
識別する処理は、相違が反映された物理量としての判別値であって、カメラ画像とセンサ画像との強度比率に準じた植物判別式(46)により算出された判別値に基づき、植物を識別することを含み、
画像情報を取得する処理は、カメラ素子の感度の波長特性情報を含むカメラ画像の画像情報を取得することを含み、
識別する処理は、波長特性情報に応じて、植物判別式を変更することを含む。
これら態様によると、植物が映り込む植物領域の識別においては、カメラ画像の強度とセンサ画像の強度の相違が考慮される。すなわちカメラ画像における可視光を感知した情報と、測距センサの画像における近赤外光を感知した情報との違いが参照される。このことによって、可視域と近赤外域とで大きく傾向が異なる分光特性を有する植物と、可視域と近赤外域との間で植物程の傾向の違いがない他の回避すべき物体とを、容易に判別することができる。故に、植物を高精度に識別可能な物体認識を実現することができる。
なお、括弧内の符号は、後述する実施形態の部分との対応関係を例示的に示すものであって、技術的範囲を限定することを意図するものではない。
第1実施形態の物体認識システム及び運転支援ECUの全体像を示す図である。 第1実施形態の測距センサ及び外界カメラの車両への搭載状態を示す図である。 第1実施形態の物体認識ECUの構成を示す構成図である。 第1実施形態の物体認識途中画像及び当該画像での物体の分類状況の一例を説明するための図である。 第1実施形態の物体認識済画像及び当該画像での物体の分類状況の一例であって、図4に対応する例を説明するための図である。 第1実施形態の外界カメラに用いられ得るカラーフィルタの透過率の波長特性の一例を模式的に示す図である。 第1実施形態の外界カメラに用いられ得るカラーフィルタの透過率の波長特性の別の一例を模式的に示す図である。 4種類の植物の反射率の波長特性を模式的に示す図である。 第1実施形態の物体認識ECUの処理を説明するためのフローチャートである。 第2実施形態の物体認識ECUの構成を示す構成図である。 第2実施形態の物体認識ECUの処理を説明するためのフローチャートである。
以下、複数の実施形態を図面に基づいて説明する。なお、各実施形態において対応する構成要素には同一の符号を付すことにより、重複する説明を省略する場合がある。各実施形態において構成の一部分のみを説明している場合、当該構成の他の部分については、先行して説明した他の実施形態の構成を適用することができる。また、各実施形態の説明において明示している構成の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても複数の実施形態の構成同士を部分的に組み合せることができる。
(第1実施形態)
図1に示すように、本開示の第1実施形態による物体認識装置は、車両1の周辺の物体認識に用いられ、車両1に搭載されるように構成された物体認識ECU(Electronic Control Unit)30となっている。物体認識ECU30は、物体認識システム100を、測距センサ10及び外界カメラ20と共に構成している。本実施形態の物体認識システム100は、測距センサ10の画像情報及び外界カメラ20の画像情報に基づき、物体を認識し、当該物体の認識結果を、運転支援ECU50等に提供することが可能である。
物体認識ECU30は、車両1に搭載された車載ネットワークの通信バスに通信可能に接続されている。物体認識ECU30は、車載ネットワークに設けられたノードのうちの1つである。車載ネットワークには、測距センサ10、外界カメラ20の他、運転支援ECU50等がそれぞれノードとして接続されている。
運転支援ECU50は、プロセッサ、RAM(Random Access Memory)、記憶部、入出力インターフェース、及びこれらを接続するバス等を備えたコンピュータを主体として含む構成である。運転支援ECU50は、車両1においてドライバの運転操作を支援する運転支援機能、及びドライバの運転操作を代行可能な運転代行機能の少なくとも一方を有している。運転支援ECU50は、記憶部に記憶されたプログラムをプロセッサによって実行する。これにより、運転支援ECU50は、物体認識システム100により提供される車両1の周辺の物体認識結果に応じた車両1の自動運転又は高度運転支援を実現する。物体認識結果に応じた車両1の自動運転又は高度運転支援としては、例えば植物として認識された物体よりも、歩行者又は他車両として認識された物体に対して最優先に衝突回避すること等が挙げられる。
次に、物体認識システム100に含まれる測距センサ10、外界カメラ20及び物体認識ECU30の各詳細を、順に説明する。
測距センサ10は、例えば車両1の前方、又は車両1のルーフに配置された、SPADRiDAR(Single Photon Avalanche Diode Light Detection And Ranging)となっている。測距センサ10は、車両1の周辺のうち少なくとも前方の測定範囲MA1を測定可能となっている。
測距センサ10は、発光部11、受光部12、制御ユニット13等を含む構成である。発光部11は、光源から発光された光ビームを、可動光学部材(例えばポリゴンミラー)を用いて走査することにより、図2に示す測定範囲MA1へ向けて照射する。光源は、例えば半導体レーザ(Laser diode)であり、制御ユニット13からの電気信号に応じて、乗員(ドライバ等)及び外界の人間から視認不能な近赤外域の光ビームを発光する。
受光部12は、照射された光ビームが測定範囲MA1内の物体から反射される反射光又は反射光に対する背景光を例えば集光レンズにより集光して、受光素子12aへ入射させる。
受光素子12aは、光電変換により光を電気信号に変換する素子であり、検出電圧を増幅することにより、高感度を実現したSPAD受光素子である。受光素子12aには、例えば近赤外域の反射光を検出するために、可視域に対して近赤外域の感度が高く設定されたCMOSセンサが採用されている。この感度は、受光部12に光学フィルタを設けることによっても調整できる。受光素子12aは、複数の受光画素を1次元方向又は2次元方向に並ぶようにアレイ状に有する。
制御ユニット13は、発光部11及び受光部12を制御するユニットである。制御ユニット13は、例えば受光素子12aと共通の基板上に配置され、例えばマイコンないしFPGA(Field-Programmable Gate Array)等の広義のプロセッサを主体として構成されている。制御ユニット13は、走査制御機能、反射光測定機能、及び背景光測定機能を実現している。
走査制御機能は、光ビーム走査を制御する機能である。制御ユニット13は、測距センサ10に設けられたクロック発振器の動作クロックに基づいたタイミングにて、光源から光ビームをパルス状に複数回発振させると共に、可動光学部材を動作させる。
反射光測定機能は、光ビーム走査のタイミングに合わせて、例えばローリングシャッタ方式を用いて各受光画素が受光した反射光に基づく電圧値を読み出し、反射光の強度を測定する機能である。反射光の測定においては、光ビームの発光タイミングと反射光の受光タイミングとの時間差を検出することにより、測距センサ10から反射光を反射した物体までの距離を測定することができる。反射光の測定により、制御ユニット13は、測定範囲MA1に対応した2次元座標に反射光の強度及び反射光を反射した物体の距離情報が関連付けられた画像状のデータである反射光画像を、生成することができる。
背景光測定機能は、反射光を測定する直前のタイミングにて、各受光画素が受光した背景光に基づく電圧値を読み出し、背景光の強度を測定する機能である。ここで背景光とは、反射光を実質的に含まない、外界のうち測定範囲MA1から受光素子12aへ入射する入射光を意味する。入射光には、自然光、外界の表示等から発光される表示光が含まれる。背景光の測定により、制御ユニット13は、測定範囲MA1に対応した2次元座標に背景光の強度が関連付けられた画像状のデータである背景光画像を、生成することができる。
反射光画像及び背景光画像は、共通の受光素子12aにより感知され、当該受光素子12aを含む共通の光学系から取得される。したがって、反射光画像及び背景光画像は、共通の波長域である近赤外域の測定結果を主体とした画像である。そして、反射光画像の座標系と背景光画像の座標系とは、互いに一致する座標系とみなすことができる。さらには、反射光画像と背景光画像との間にて、測定タイミングのずれも殆どない(例えば1ns未満)といえる。したがって、反射光画像と背景光画像とは、同期もとれているとみなすことができる。
例えば本実施形態では、各画素に対応して、反射光の強度、物体の距離、及び背景光の強度の3チャンネルのデータが格納された画像データが、センサ画像として、物体認識ECU30へと逐次出力される。
外界カメラ20は、例えば車両1のフロントウインドシールドの車室内側に配置されているカメラである。外界カメラ20は、車両1の外界のうち少なくとも前方の測定範囲MA2、より詳細には測距センサ10の測定範囲MA1と少なくとも一部を重複させた測定範囲MA2を、測定可能となっている。
外界カメラ20は、受光部22及び制御ユニット23を含む構成である。受光部22は、カメラ外部の測定範囲MA2から入射する入射光(背景光)を例えば受光レンズにより集光して、カメラ素子22aへ入射させる。
カメラ素子22aは、光電変換により光を電気信号に変換する素子であり、例えばCCDセンサ又はCMOSセンサを採用することが可能である。カメラ素子22aでは、可視域の自然光を効率的に受光するために、近赤外域に対して可視域の感度が高く設定されている。カメラ素子22aは、複数の受光画素(いわゆるサブ画素に相当する)を2次元方向に並ぶようにアレイ状に有する。互いに隣接する受光画素には、例えば赤色、緑色、青色の互いに異なる色のカラーフィルタが配置されている。このカラーフィルタによって、カメラ素子22a全体及びカメラ素子22aの各受光画素の感度の波長特性が調整される。各受光画素は、配置されたカラーフィルタに対応した色の可視光を受光する。赤色光の強度、緑色光の強度、青色光の強度がそれぞれ個別に測定されることによって、外界カメラ20が撮影するカメラ画像は、反射光画像及び背景光画像よりも高解像の画像であって、可視域のカラー画像となり得る。
制御ユニット23は、受光部22を制御するユニットである。制御ユニット23は、例えばカメラ素子22aと共通の基板上に配置され、マイコンないしFPGA等の広義のプロセッサを主体として構成されている。制御ユニット23は、撮影機能を実現している。
撮影機能は、上述のカラー画像を撮影する機能である。制御ユニット23は、外界カメラ20に設けられたクロック発振器の動作クロックに基づいたタイミングにて、例えばグローバルシャッタ方式を用いて各受光画素が受光した入射光に基づく電圧値を読み出し、入射光の強度を感知して測定する。制御ユニット23は、測定範囲MA2に対応した2次元座標に入射光の強度が関連付けられた画像状のデータであるカメラ画像を、生成することができる。こうしたカメラ画像が、物体認識ECU30へ逐次出力される。
物体認識ECU30は、測距センサ10の画像情報及び外界カメラ20の画像情報を用いて、車両1の周辺の物体を認識する電子制御装置である。物体認識ECU30は、図1に示すように、処理部31、RAM32、記憶部33、入出力インターフェース34、及びこれらを接続するバス等を備えたコンピュータを主体として含む構成である。処理部31は、RAM32と結合された演算処理のためのハードウェアである。処理部31は、CPU(Central Processing Unit)、GPU(Graphical Processing Unit)、RISC(Reduced Instruction Set Computer)等の演算コアを少なくとも1つ含む構成である。処理部31は、FPGA及び他の専用機能を備えたIPコア等をさらに含む構成であってもよい。処理部31は、RAM32へのアクセスにより、後述する各機能部の機能を実現するための種々の処理を実行する。記憶部33は、不揮発性の記憶媒体を含む構成である。記憶部33には、処理部31によって実行される種々のプログラム(イメージレジストレーションプログラム、物体認識プログラム等)が格納されている。
物体認識ECU30は、記憶部33に記憶されたプログラムを処理部31によって実行することで、複数の機能部を有する。具体的に図3に示すように、画像情報取得部41、イメージレジストレーション部42、領域識別部43等の機能部が構築される。
画像情報取得部41は、測距センサ10から反射光画像及び背景光画像を含む画像情報を取得すると共に、外界カメラ20からカメラ画像を含む画像情報を逐次取得する。画像情報取得部41は、画像情報として、さらに、カメラ素子22aの感度の波長特性に関する情報(以下、波長特性情報)を取得する。波長特性情報は、カメラ画像から都度取得される必要はなく、例えば外界カメラ20から初期設定時等にて取得された際に記憶部33に記憶され、以後、記憶部33へのアクセスにより取得されてよい。画像情報取得部41は、最新の反射光画像、背景光画像及びカメラ画像の組を、イメージレジストレーション部42に提供する。
イメージレジストレーション部42は、反射光画像、背景光画像の座標系とカメラ画像の座標系との対応関係の特定、すなわちイメージレジストレーション(Image Registration)を実施する。そして、イメージレジストレーション部42は、イメージレジストレーション済みの反射光画像、背景光画像及びカメラ画像を、領域識別部43に提供する。
領域識別部43は、車両1の周辺の物体を含む空間領域を識別する。領域識別部43は、特に、カメラ画像の強度と背景光画像の強度との相違を考慮して、カメラ画像に映り込む植物を識別することが可能である。領域識別部43は、可視物体識別機能、周辺空間地図生成機能、及び植物判別機能を実現する。
可視物体識別機能は、可視光の強度分布情報を有するカメラ画像に対し、セマンティックセグメンテーション(Semantic Segmentation)によって、画素単位での物体の識別を実施する機能である。記憶部33には、物体認識プログラムの一構成要素としてニューラルネットワークを主体とした物体識別モデル44が構築されている。物体識別モデル44は、学習済みのAI(人工知能)モデルであり、カメラ画像が入力されると、物体識別途中画像を出力する。
詳細に、ニューラルネットワークには、全層畳み込みニューラルネットワーク(FCN)、エンコーダとデコーダとを結合したエンコーダ・デコーダネットワーク(例えばSegNet、U-Net、PSPNet)等を採用することができる。
一例として、エンコーダ・デコーダネットワークが採用された場合を説明する。エンコーダは、入力されるカメラ画像に対して畳み込み演算及びプーリング演算を実行する。エンコーダは、カメラ画像をダウンサンプリングすると共に、当該カメラ画像の特徴を抽出する。エンコーダは、例えば特徴マップないし物体を分類したクラスの確率をデコーダに出力する。
デコーダは、エンコーダからの入力データを用いて、逆プーリング演算及び逆畳み込み演算を実行する。デコーダは、エンコーダにてダウンサンプリングされたカメラ画像を再びアップサンプリングすることで、カメラ画像の部分的な領域であって、映り込む物体に応じて区分された領域毎又は画素単位にて、クラスの分類情報が付加された物体識別途中画像(図4参照)を出力することができる。なお、図4では、植物分類の説明に関連する一部のクラスの分類状況のみが示されている。
第1実施形態においてクラスには、例えば歩行者、他車両、道路等の車両1の走行において分類必要性が極めて高いクラスが設定されているが、草木等の植物に相当するクラスは設定されていない。セマンティックセグメンテーションにおいて、植物は、他の特定困難な物体及び分類必要性の低い物体と共に、例えば「静止物」「障害物」等の上位概念化されたクラスに分類される。
そもそも、可視光のカラー画像であるカメラ画像を用いたセマンティックセグメンテーションにおいて、植物を精度良く区別することは困難である。例えば、緑色の植物は、実質的に、カラー画像における緑色光の強度の情報を主体として、区別され得る。このため、緑色の植物と、ペンキ等の塗料で緑色に着色された物体又は青信号等とが、誤認され易い。物体識別モデル44による出力結果の精度を担保する、すなわち誤分類の発生を抑制するため、緑色の植物、ペンキ等の塗料で緑色に着色された物体、青信号等が共通のクラスに分類されるようになっている。
第1実施形態の物体識別モデル44の学習方法としては、例えば教師あり学習を採用することが可能である。この機械学習における教師データは、入力データであるカメラ画像と、出力データ(正解データ)である物体識別済画像とのデータセットである。
周辺空間地図生成機能は、OGM生成器45に反射光画像及び背景光画像を入力して、車両1の周辺空間に、物体の占有状態情報を付加した地図を生成する機能である。領域識別部43は、例えばOGM(Occupancy Grid Map)の生成方法によって、周辺空間の地図(以下、OGMという)を生成する。このOGMは、好ましくは、車両1を上空から俯瞰した座標系で表される。
具体的に、OGMにおいて、測距センサ10の位置から距離情報により特定された反射光画像に映り込む物体の位置の直前までの領域は、物体に占有されていない非占有領域に設定される。反射光画像に映り込む物体の位置は、物体に占有された占有領域に設定される。反射光画像に映り込む物体の位置よりも奥側は、占有状態が判別不能な判別不能領域に設定される。
植物判別機能は、上述の共通のクラスの情報が付加された物体識別途中画像の各判別対象領域を、図5に示すように、植物が映り込む植物領域と、非植物が映り込む非植物領域とに分類する機能である。領域識別部43は、カメラ画像の強度と反射光画像の強度との差異及びカメラ画像の強度と背景光画像の強度との差異のうち少なくとも一方を考慮して、植物領域を識別する。特に本実施形態では、カメラ画像の強度と背景光画像の強度との差異を考慮して、植物領域が識別される。
領域識別部43は、植物判別式46を用いて、各判別対象領域について、イメージレジストレーションによって同じ位置を表す座標として対応付けられたカメラ画像の対応画素の強度と、背景光画像の対応画素の強度とから、下記植物判別式46に基づく判別値を算出する。領域識別部43は、画像情報取得部41が取得したカメラ素子22aの感度の波長特性に応じて、植物判別式46の形態を変更する。
植物判別式46のうち1つの形態は、図6に示すような、カメラ素子22aの受光画素における赤色のカラーフィルタが近赤外光を略遮断する場合に選択される。この式は、Q=Ib/(1-Ic)で表される。ここで、Qは判別値、Ibは背景光画像の対応画素の強度、Icは、カメラ画像の対応画素の強度であって、赤色光の強度、緑色光の強度及び青色光の強度の合計である。
植物判別式46のうち他の1つの形態は、図7に示すような、カメラ素子22aの受光画素における赤色のカラーフィルタが近赤外光を一部透過させる、すなわち十分に遮断しない場合に選択される。この式は、Q=Ib/(1-Igb)で表される。ここで、Igbは、カメラ画像の対応画素の強度であって、緑色光の強度及び青色光の強度の合計である。なお、セマンティックセグメンテーションの対象となるカメラ画像が、R画像(赤色の強度に基づく画像)とGB画像(緑色及び青色の強度に基づく画像)の2チャンネルにて構成される場合には、Igbは、カメラ画像の対応画素の強度であって、GB画像の強度であってもよい。
なお、Ic,Igbは、0以上1以下の範囲をとる値となるように規格化された強度である。規格化された強度における0は、強度が最小である(カメラ素子22aが入射光を感知しなかった)ことを意味し、1は、強度が最大である(カメラ素子22aが入射光を最大量感知した)ことを意味する。また、Ibも、Ic,Igbと同様に、0以上1以下の範囲をとる値となるように規格化されてもよい。
判別値Qは、カメラ画像の強度と背景光画像の強度との相違が反映された物理量としての判別値であって、カメラ画像と背景光画像との強度比率に準じた植物判別式46により算出されていることとなる。
植物を判別する1つの例を説明する。算出された判別値Qの1つの判別対象領域における平均値が、植物が映り込んでいる可能性が所定確率(例えば50%)以上となる基準値以上である場合、領域識別部43は、判別対象領域を、植物領域に設定する。平均値が基準値未満である場合、領域識別部43は、判別対象領域を、非植物領域に設定する。
すなわち、図8に示すように植物の分光特性においては、可視域の反射率に対して近赤外域の反射率が顕著に大きくなる傾向がある。一方、ペンキ等の塗料で緑色に着色された物体又は青信号の分光特性においては、可視域の反射率と近赤外域の反射率とがそれほど変わらない傾向がある。この傾向の違いを利用して、植物領域と非植物領域との分類は可能である。具体的に、可視域の反射率に対して近赤外域の反射率が顕著に大きくなる植物では、可視光を感知したカメラ画像の強度に対し、赤外光を感知した背景光画像の強度が顕著に大きくなり得る。したがって、カメラ画像に映り込む物体が植物である場合、判別値Qは、可視域の反射率と近赤外域の反射率との比率に応じて、蓋然的に高い値となるのである。
こうして領域識別部43は、物体識別途中画像に植物領域の判別情報が付加された物体識別済画像を、出力する。さらに領域識別部43は、植物領域を判別した結果を、OGMに反映させてもよい。例えば、領域識別部43は、カメラ画像上の植物領域に対応するOGM上の占有領域を、車両1の侵入可能な侵入可能領域に設定し、カメラ画像上の非植物領域に対応するOGM上の占有領域を、車両1の侵入不可能な侵入不可領域に設定してもよい。
以上により、領域識別部43は、可視物体識別機能により、カメラ画像に基づき、カメラ画像に映り込む物体を、複数のクラスに分類する。複数のクラスへの分類においては、植物は、他の物体と共に、植物よりも上位概念化された共通のクラスに含まれるように分類される。その後、領域識別部43は、植物判別機能により、この共通のクラスに含まれた物体を、カメラ画像の強度と背景光画像の強度との相違を考慮して、植物か否か判別する。このように得られた物体識別済画像とOGMとを含む物体認識情報は、運転支援ECU50に提供されることとなる。
次に、第1実施形態の物体認識プログラムに基づき、車両1の周辺の物体を認識する物体認識方法を、図9のフローチャートを用いて説明する。各ステップで構成されるこのフローチャートによる処理は、例えば所定時間毎に繰返し実施される。
まず、S11では、画像情報取得部41は、測距センサ10から反射光画像及び背景光画像を含む画像情報を取得し、外界カメラ20からカメラ画像を含む画像情報を取得する。S11の処理後、S12へ移る。
S12では、イメージレジストレーション部42は、反射光画像及び背景光画像とカメラ画像との間にて、イメージレジストレーションを実施する。S12の処理後、S13へ移る。
S13では、領域識別部43は、カメラ画像に対してセマンティックセグメンテーションを実施する。緑色の植物、ペンキ等の塗料で緑色に着色された物体、青信号等が共通のクラスに分類される。これと同時又はこれに前後して、領域識別部43は、反射光画像及び背景光画像からOGMを生成する。S13の処理後、S14へ移る。
S14では、領域識別部43は、カメラ画像から、共通のクラスの情報が付加された判別対象領域を特定する。この判別対象領域は、0つでもよく、1つでもよく、複数でもよい。S14の処理後、S15へ移る。
S15では、領域識別部43は、判別対象領域毎に、植物判別式46を用いて、当該判別対象領域が植物領域であるか非植物領域であるかを判別する。S15を以って一連の処理を終了する。
なお第1実施形態では、領域識別部43が、車両1の周辺の植物を識別する「識別部」に相当する。
(作用効果)
以上説明した第1実施形態の作用効果を以下に改めて説明する。
第1実施形態によると、植物が映り込む植物領域の識別においては、カメラ画像の強度とセンサ画像の強度の相違が考慮される。すなわち外界カメラ20のカメラ画像における可視光を感知した情報と、測距センサ10の画像における近赤外光を感知した情報との違いが参照される。このことによって、可視域と近赤外域とで大きく傾向が異なる分光特性を有する植物と、可視域と近赤外域との間で植物程の傾向の違いがない他の回避すべき物体とを、容易に判別することができる。故に、植物を高精度に識別可能な物体認識装置としての物体認識ECU30を提供することができる。
また、第1実施形態によると、カメラ画像に映り込む物体は、当該カメラ画像に基づき、複数のクラスに分類される。可視光をカメラ素子22aが感知することによるカメラ画像に基づくこの分類では、植物が他の物体と共に、植物よりも上位概念化された共通のクラスに含まれるように分類されるので、誤分類の発生は抑制される。その後、共通のクラスに含まれた物体は、カメラ画像の強度とセンサ画像の強度の相違を考慮して、植物か否か判別される。すなわち、誤分類の発生を抑制しつつ、分類できる物体を分類し、その後、共通のクラスに含まれた物体から植物を高精度に判別する。故に、すべての物体に対して測距センサ10の近赤外光を感知した情報を適用することが抑制されるため、物体認識のための処理量ないし処理速度への負担を軽減しつつ、植物を高精度に認識することができる。
特に車両1の走行時等、リアルタイムに物体認識が求められる場面においては、処理量ないし処理速度への負担軽減と、植物の高精度認識とを両立した物体認識は、極めて有用である。
また、第1実施形態によると、複数のクラスへの分類は、ニューラルネットワークを有する物体識別モデル44でのセマンティックセグメンテーションにより実施される。セマンティックセグメンテーションにより、カメラ画像の画素毎に、映り込む物体を分類できるので、物体が位置する空間領域を、高精度に認識することができる。
また、第1実施形態によると、カメラ画像とセンサ画像との強度比率に準じた植物判別式46により算出された判別値に基づき、植物が識別される。こうした植物判別式46では、植物の分光特性傾向が顕著に表され、植物の存在が浮き彫りになるので、植物の識別精度を飛躍的に向上させることができる。
また、第1実施形態によると、カメラ素子22aの感度の波長特性情報に応じて、植物判別式46が変更される。故に、カメラ素子22aの感度の波長特性情報、例えば近赤外域の感度に合わせて、植物判別式46により算出される判別値を、植物の分光特性傾向がより顕著に表すものに変更することができる。
(第2実施形態)
図10,11に示すように、第2実施形態は第1実施形態の変形例である。第2実施形態について、第1実施形態とは異なる点を中心に説明する。
図10に示す第2実施形態の領域識別部243は、植物判別用画像取得機能及び物体識別機能を有する。
植物判別用画像取得機能は、植物判別用画像を取得する機能である。領域識別部243は、第1実施形態と同様の植物判別式46を用いて、植物判別用画像を生成することにより取得する。領域識別部243は、例えばカメラ画像と同座標系の2次元座標データを用意する。領域識別部243は、2次元座標データの各座標に対して、イメージレジストレーションによって同じ位置を表す座標として対応付けられたカメラ画像の対応画素の強度と、背景光画像の対応画素の強度とから、植物判別式46に基づく判別値Qを算出する。
この結果、2次元座標データの各座標に、判別値Qの情報を付加した植物判別用画像が生成される。植物判別用画像は、カメラ画像と同座標系の画像データであって、判別値Qの分布が画像化されたものである。植物判別用画像においては、第1実施形態中に説明した植物の分光特性により、植物が映り込む部分の判別値Qが高い傾向にはあるものの、植物に似た分光特性をもつ植物以外の物体が映り込む部分の判別値Qも、高くなり得る。したがって、植物判別精度は、植物判別用画像だけで判別した場合よりも、後述する物体識別モデル244をさらに用いた方が飛躍的に高まることとなる。
物体識別機能は、可視光の強度分布情報を有するカメラ画像に対し、可視光及び赤外光に基づく判別値分布情報を有する植物判別用画像をも用いつつ、セマンティックセグメンテーション(Semantic Segmentation)によって、画素単位での物体の識別を実施する機能である。記憶部33には、物体認識プログラムの一構成要素としてニューラルネットワークを主体とした物体識別モデル244が構築されている。第2実施形態の物体識別モデル244は、学習済みのAIモデルであり、カメラ画像及び植物判別用画像が入力されると、クラスの分類情報が付加された物体識別済画像を出力する。
ニューラルネットワークには、基本的には、第1実施形態と同様の構造を有するネットワークを採用することができる。但し、植物判別用画像という入力パラメータの増加に対応して、例えばエンコーダにおいて畳み込み層のチャンネル数を増加させる等の変更が必要である。
第2実施形態においてクラスには、例えば歩行者、他車両、道路等の他、草木等の植物に相当するクラスが設定されている。セマンティックセグメンテーションにおいて、植物は、他の特定困難な物体及び分類必要性の低い物体とは別の「植物」というクラスに分類される。したがって、物体識別モデル244から出力された物体認識済画像は、既に植物が高精度に識別された状態となっている。
第2実施形態の物体識別モデル244の学習方法としては、例えば教師あり学習を採用することが可能である。この機械学習における教師データは、入力データであるカメラ画像及び植物判別用画像と、出力データ(正解データ)である物体識別済画像とのデータセットである。
以上のように、領域識別部243は、植物判別用画像生成機能により、カメラ画像の強度と背景光画像の強度との相違が反映された植物判別用画像を生成する。その後、領域識別部243は、物体認識機能により、カメラ画像と植物判別用画像とに基づき、カメラ画像に映り込む物体を、複数のクラスに分類する。複数のクラスへの分類においては、植物は、単独のクラスに分類されるようになっている。
次に、第2実施形態の物体認識プログラムに基づき、車両1の周辺の物体を認識する物体認識方法を、図11のフローチャートを用いて説明する。このフローチャートによる処理は、例えば所定時間毎に繰返し実施される。
まず、S21~S22は、第1実施形態のS11~S12と同様である。S12の処理後、S23へ移る。
S23では、領域識別部243は、カメラ画像及び背景光画像から、植物判別式46を用いて、植物判別用画像を生成する。S23の処理後、S24へ移る。
S24では、領域識別部243は、カメラ画像と植物判別用画像とを物体識別モデル244に入力し、セマンティックセグメンテーションを実施する。緑色の植物と、ペンキ等の塗料で緑色に着色された物体、青信号等とが別々のクラスに分類される。S24を以って一連の処理を終了する。
以上説明した第2実施形態によると、カメラ画像及びセンサ画像に基づき、カメラ画像の強度とセンサ画像の強度の相違が反映された植物判別用画像が得られる。そして、カメラ画像と植物判別用画像とに基づき、カメラ画像に映り込む物体は、複数のクラスに分類される。複数のクラスへの分類においては、植物が単独のクラスに分類されるようになっている。こうした処理では、カメラ画像及び植物判別用画像の両方を用いた総合的な判断により、植物を識別することができるので、植物の認識精度を高めることができる。
なお第2実施形態では、領域識別部243が、車両1の周辺の植物を識別する「識別部」に相当する。
(他の実施形態)
以上、複数の実施形態について説明したが、本開示は、それらの実施形態に限定して解釈されるものではなく、本開示の要旨を逸脱しない範囲内において種々の実施形態及び組み合わせに適用することができる。
具体的に変形例1としては、領域識別部43,243は、カメラ画像の強度と反射光画像の強度との相違を考慮して、植物を識別してもよい。すなわち、植物判別式46におけるIbは、反射光画像の強度であってもよい。さらに領域識別部43は、反射光画像の強度と背景光画像の強度を両方加味した複合画像を生成し、カメラ画像の強度と当該復号画像の強度との相違を考慮して、植物を識別してもよい。
変形例2としては、領域識別部43,243は、カメラ画像の強度とセンサ画像の強度との相違が反映された物理量として、植物判別式46により算出された判別値Qを用いなくてもよい。例えば、カメラ画像の強度とセンサ画像の強度との相違が反映された物理量は、カメラ画像の強度とセンサ画像の強度との差分であってもよい。この場合に、第2実施形態にて用いた植物判別用画像は、カメラ画像の強度とセンサ画像の強度との差分により得られた差分画像であってもよい。
第2実施形態に関する変形例3としては、植物判別用画像は、領域識別部243が生成しなくてもよい。例えば、イメージレジストレーション部42がイメージレジストレーションを実施する際に、植物判別用画像を生成しても良い。領域識別部243は、イメージレジストレーション部42から植物判別用画像を提供されることにより取得しても良い。
第2実施形態に関する変形例4としては、物体識別モデル244に入力されるデータは、カメラ画像とは別に設けられた植物判別用画像でなくてもよい。例えば、カメラ画像にRGBとは別の追加のチャンネルが用意され、当該チャンネルに算出した判別値Qが格納されてもよい。そして、物体識別モデル244に入力されるデータは、判別値Qの情報が付加されたカメラ画像であってもよい。
変形例5としては、領域識別部43,243は、カメラ画像の強度とセンサ画像の強度との相違を考慮して、植物を識別するものであれば、セマンティックセグメンテーションを用いる代わりに、例えばバウンディングボックス(Bounding Box)による物体認識を用いてもよい。
変形例6としては、識別部は、カメラ画像の強度とセンサ画像の強度との相違を考慮して、植物を識別するものであれば、車両1の周辺の物体を含む空間領域を識別する領域識別部43,243でなくてもよい。例えば識別部は、植物を空間領域に厳密に関連付けて識別せずに、カメラ画像の測定範囲MA2に植物が写り込んでいるか否かを判別するものであってもよい。
変形例7としては、カメラ画像は、カラー画像でなく、グレースケール画像であってもよい。
変形例8としては、物体認識ECU30及び運転支援ECU50のうち少なくとも1つは、車両1に搭載されずに、車両1外の路上等に固定設置されていてもよく、他車両に搭載されていてもよい。この場合には、インターネット、路車間通信、車車間通信等の通信によって、物体認識処理、運転操作等が遠隔操作されてもよい。
変形例9としては、物体認識ECU30と、運転支援ECU50とが、1つに統合され、例えば1つの複合的な機能を実現する電子制御装置を構成していてもよい。また、測距センサ10と外界カメラ20とが一体型のセンサユニットを構成していてもよい。さらに、第1実施形態の物体認識ECU30のような物体認識装置が、このセンサユニットの構成要素として含まれていてもよい。
変形例10としては、物体認識ECU30は、イメージレジストレーション部42を備えていなくてもよい。物体認識ECU30は、イメージレジストレーション済みの反射光画像、背景光画像及びカメラ画像を含む画像情報を取得してもよい。
変形例11としては、物体認識ECU30によって提供されていた各機能は、ソフトウェア及びそれを実行するハードウェア、ソフトウェアのみ、ハードウェアのみ、あるいはそれらの複合的な組み合わせによっても提供可能である。さらに、こうした機能がハードウェアとしての電子回路によって提供される場合、各機能は、多数の論理回路を含むデジタル回路、又はアナログ回路によっても提供可能である。
変形例12としては、上記の物体認識方法を実現可能な物体認識プログラム等を記憶する記憶媒体の形態も、適宜変更されてもよい。例えば記憶媒体は、回路基板上に設けられた構成に限定されず、メモリカード等の形態で提供され、スロット部に挿入されて、物体認識ECU30の制御回路に電気的に接続される構成であってもよい。さらに、記憶媒体は、物体認識ECU30のプログラムのコピー基となる光学ディスク及びハードディスクであってもよい。
本開示に記載の制御部及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサを構成する専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の装置及びその手法は、専用ハードウエア論理回路により、実現されてもよい。もしくは、本開示に記載の装置及びその手法は、コンピュータプログラムを実行するプロセッサと一つ以上のハードウエア論理回路との組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。
1:車両、10:測距センサ、12a:受光素子、20:外界カメラ、22a:カメラ素子、30:物体認識ECU(物体認識装置)、31:処理部、41:画像情報取得部、43,243:識別部(領域識別部)

Claims (6)

  1. 車両(1)に搭載された外界カメラ(20)の画像情報であって、外界からの可視光をカメラ素子(22a)が感知することによるカメラ画像を含む画像情報を用いることに加えて、前記車両に搭載された測距センサ(10)の画像情報であって、光照射に応じた近赤外の反射光を受光素子(12a)が感知することによる反射光画像と、前記反射光に対する近赤外の背景光を前記受光素子が感知することによる背景光画像と、を含むセンサ画像の画像情報を用いて、前記車両の周辺の物体を認識する物体認識装置であって、
    前記測距センサの画像情報及び前記外界カメラの画像情報を取得する画像情報取得部(41)と、
    前記カメラ画像の強度と前記センサ画像の強度との相違を考慮して、前記車両の周辺の植物を識別する識別部(43,243)と、を備え
    前記識別部は、
    前記カメラ画像及び前記センサ画像に基づき、前記相違が反映された植物判別用画像を取得し、
    前記カメラ画像と前記植物判別用画像とに基づき、前記カメラ画像に映り込む物体を、複数のクラスに分類し、前記複数のクラスへの分類においては、植物が単独のクラスに分類されるようになっており、
    前記植物判別用画像は、2次元座標データの各座標に、植物を判別するための判別値の情報を付加した画像である物体認識装置。
  2. 車両(1)に搭載された外界カメラ(20)の画像情報であって、外界からの可視光をカメラ素子(22a)が感知することによるカメラ画像を含む画像情報を用いることに加えて、前記車両に搭載された測距センサ(10)の画像情報であって、光照射に応じた近赤外の反射光を受光素子(12a)が感知することによる反射光画像と、前記反射光に対する近赤外の背景光を前記受光素子が感知することによる背景光画像と、を含むセンサ画像の画像情報を用いて、前記車両の周辺の物体を認識する物体認識装置であって、
    前記測距センサの画像情報及び前記外界カメラの画像情報を取得する画像情報取得部(41)と、
    前記カメラ画像の強度と前記センサ画像の強度との相違を考慮して、前記車両の周辺の植物を識別する識別部(43,243)と、を備え
    前記識別部は、前記相違が反映された物理量としての判別値であって、前記カメラ画像と前記センサ画像との強度比率に準じた植物判別式(46)により算出された判別値に基づき、植物を識別し、
    前記画像情報取得部は、前記カメラ素子の感度の波長特性情報を含む前記カメラ画像の画像情報を取得し、
    前記識別部は、前記波長特性情報に応じて、前記植物判別式を変更する物体認識装置。
  3. 前記識別部は、
    前記カメラ画像に基づき、前記カメラ画像に映り込む物体を、複数のクラスに分類し、前記複数のクラスへの分類においては、植物が他の物体と共に、植物よりも上位概念化された共通のクラスに含まれるように分類し、
    その後、前記共通のクラスに含まれた物体を、前記相違を考慮して、植物か否か判別する請求項に記載の物体認識装置。
  4. 前記複数のクラスへの分類は、ニューラルネットワークを有する物体識別モデル(44,244)でのセマンティックセグメンテーションにより実施される請求項1又は3に記載の物体認識装置。
  5. 車両(1)に搭載された外界カメラ(20)の画像情報であって、外界からの可視光をカメラ素子(22a)が感知することによるカメラ画像を含む画像情報を用いることに加えて、前記車両に搭載された測距センサ(10)の画像情報であって、光照射に応じた近赤外の反射光を受光素子(12a)が感知することによる反射光画像と、前記反射光に対する近赤外の背景光を前記受光素子が感知することによる背景光画像と、を含むセンサ画像の画像情報を用いて、前記車両の周辺の物体を認識する物体認識プログラムであって、
    少なくとも1つの処理部(31)に、
    前記測距センサの画像情報及び前記外界カメラの画像情報を取得する処理と、
    前記カメラ画像の強度と前記センサ画像の強度との相違を考慮して、前記車両の周辺の植物を識別する処理と、を実行させ
    前記識別する処理は、
    前記カメラ画像及び前記センサ画像に基づき、前記相違が反映された植物判別用画像を取得することと、
    前記カメラ画像と前記植物判別用画像とに基づき、前記カメラ画像に映り込む物体を、複数のクラスに分類することと、を含み、
    前記複数のクラスへの分類においては、植物が単独のクラスに分類されるようになっており、
    前記植物判別用画像は、2次元座標データの各座標に、植物を判別するための判別値の情報を付加した画像である物体認識プログラム。
  6. 車両(1)に搭載された外界カメラ(20)の画像情報であって、外界からの可視光をカメラ素子(22a)が感知することによるカメラ画像を含む画像情報を用いることに加えて、前記車両に搭載された測距センサ(10)の画像情報であって、光照射に応じた近赤外の反射光を受光素子(12a)が感知することによる反射光画像と、前記反射光に対する近赤外の背景光を前記受光素子が感知することによる背景光画像と、を含むセンサ画像の画像情報を用いて、前記車両の周辺の物体を認識する物体認識プログラムであって、
    少なくとも1つの処理部(31)に、
    前記測距センサの画像情報及び前記外界カメラの画像情報を取得する処理と、
    前記カメラ画像の強度と前記センサ画像の強度との相違を考慮して、前記車両の周辺の植物を識別する処理と、を実行させ
    前記識別する処理は、前記相違が反映された物理量としての判別値であって、前記カメラ画像と前記センサ画像との強度比率に準じた植物判別式(46)により算出された判別値に基づき、植物を識別することを含み、
    前記画像情報を取得する処理は、前記カメラ素子の感度の波長特性情報を含む前記カメラ画像の画像情報を取得することを含み、
    前記識別する処理は、前記波長特性情報に応じて、前記植物判別式を変更することを含む物体認識プログラム。
JP2019172398A 2019-09-23 2019-09-23 物体認識装置及び物体認識プログラム Active JP7151676B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019172398A JP7151676B2 (ja) 2019-09-23 2019-09-23 物体認識装置及び物体認識プログラム
CN202080066071.5A CN114514565A (zh) 2019-09-23 2020-09-08 物体识别装置和物体识别程序
PCT/JP2020/033958 WO2021059967A1 (ja) 2019-09-23 2020-09-08 物体認識装置及び物体認識プログラム
US17/655,424 US20220207884A1 (en) 2019-09-23 2022-03-18 Object recognition apparatus and object recognition program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019172398A JP7151676B2 (ja) 2019-09-23 2019-09-23 物体認識装置及び物体認識プログラム

Publications (2)

Publication Number Publication Date
JP2021050945A JP2021050945A (ja) 2021-04-01
JP7151676B2 true JP7151676B2 (ja) 2022-10-12

Family

ID=75157615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019172398A Active JP7151676B2 (ja) 2019-09-23 2019-09-23 物体認識装置及び物体認識プログラム

Country Status (4)

Country Link
US (1) US20220207884A1 (ja)
JP (1) JP7151676B2 (ja)
CN (1) CN114514565A (ja)
WO (1) WO2021059967A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230073748A1 (en) * 2020-02-14 2023-03-09 Sony Group Corporation Imaging device and vehicle control system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008070374A (ja) 2007-09-25 2008-03-27 Fujifilm Corp 画像撮像装置及び距離測定方法
CN101839979A (zh) 2010-04-22 2010-09-22 中国农业大学 作物冠层植被指数测量方法及装置
JP2012189535A (ja) 2011-03-14 2012-10-04 Ihi Corp 植生検出装置及び植生検出方法
DE102016220560A1 (de) 2016-10-20 2018-04-26 Robert Bosch Gmbh Verfahren zum Erkennen einer Pflanze mittels eines Bildsensors und Verfahren zum Ansteuern eines Assistenzsystems eines Fahrzeugs
JP2018194538A (ja) 2017-05-18 2018-12-06 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理装置およびプログラム
JP2019028861A (ja) 2017-08-02 2019-02-21 ソニー株式会社 信号処理装置、および信号処理方法、プログラム、並びに移動体
JP2019074458A (ja) 2017-10-18 2019-05-16 株式会社東芝 情報処理装置、学習済モデル、情報処理方法、およびプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008070374A (ja) 2007-09-25 2008-03-27 Fujifilm Corp 画像撮像装置及び距離測定方法
CN101839979A (zh) 2010-04-22 2010-09-22 中国农业大学 作物冠层植被指数测量方法及装置
JP2012189535A (ja) 2011-03-14 2012-10-04 Ihi Corp 植生検出装置及び植生検出方法
DE102016220560A1 (de) 2016-10-20 2018-04-26 Robert Bosch Gmbh Verfahren zum Erkennen einer Pflanze mittels eines Bildsensors und Verfahren zum Ansteuern eines Assistenzsystems eines Fahrzeugs
JP2018194538A (ja) 2017-05-18 2018-12-06 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理装置およびプログラム
JP2019028861A (ja) 2017-08-02 2019-02-21 ソニー株式会社 信号処理装置、および信号処理方法、プログラム、並びに移動体
JP2019074458A (ja) 2017-10-18 2019-05-16 株式会社東芝 情報処理装置、学習済モデル、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
WO2021059967A1 (ja) 2021-04-01
CN114514565A (zh) 2022-05-17
JP2021050945A (ja) 2021-04-01
US20220207884A1 (en) 2022-06-30

Similar Documents

Publication Publication Date Title
US20210295065A1 (en) Object identification system
CN108780154B (zh) 3d点云的处理方法
CN114616489A (zh) Lidar图像处理
US20130258108A1 (en) Road Surface Shape Recognition System and Autonomous Mobile Apparatus Using Same
CN106934347B (zh) 障碍物识别方法及装置、计算机设备及可读介质
CN112236776A (zh) 使用深度和多光谱相机的对象识别
US20210025980A1 (en) Distance measuring device
CN112444822A (zh) 合成激光雷达信号的产生
US20230196596A1 (en) Traffic signal recognition method and apparatus
US20230222640A1 (en) Method for Recognizing Image Artifacts, Control Device for Carrying Out a Method of this Kind, Recognition Device Having a Control Device of this Kind and Motor Vehicle Having a Recognition Device of this Kind
WO2020080045A1 (ja) 物体認識方法、車両制御方法、情報表示方法、および物体認識装置
CN109703555A (zh) 用于探测道路交通中被遮蔽的对象的方法和设备
US11303817B2 (en) Active sensor, object identification system, vehicle and vehicle lamp
JP7151676B2 (ja) 物体認識装置及び物体認識プログラム
EP3553556A1 (en) Light modulating lidar apparatus
EP3845926B1 (en) Multi-spectral lidar object tracking method and system
CN116529633A (zh) 用于借助照明装置和光学传感器探测物体的方法、用于执行这种方法的控制装置、具有这种控制装置的探测装置和具有这种探测装置的机动车
JP7114207B2 (ja) 距離測定データの取得
KR20200128865A (ko) Cnn 기반의 객체 검출 장치 및 그 방법
JP7259660B2 (ja) イメージレジストレーション装置、画像生成システム及びイメージレジストレーションプログラム
CN114073070A (zh) 系统、信息处理设备、信息处理方法和程序
JP7103324B2 (ja) 物体認識用異常検出装置及び物体認識用異常検出プログラム
WO2023224078A1 (ja) 車載センシングシステムおよび縁石の検出方法
KR102461439B1 (ko) 자동차의 주변 환경에 있는 물체의 감지
EP4213112A1 (en) Method and device for detecting a color of a traffic light in an environment of a vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220912

R151 Written notification of patent or utility model registration

Ref document number: 7151676

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151