JP2019199229A - センサシステムおよび検査方法 - Google Patents

センサシステムおよび検査方法 Download PDF

Info

Publication number
JP2019199229A
JP2019199229A JP2018096092A JP2018096092A JP2019199229A JP 2019199229 A JP2019199229 A JP 2019199229A JP 2018096092 A JP2018096092 A JP 2018096092A JP 2018096092 A JP2018096092 A JP 2018096092A JP 2019199229 A JP2019199229 A JP 2019199229A
Authority
JP
Japan
Prior art keywords
sensor unit
vehicle
target
sensor
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018096092A
Other languages
English (en)
Other versions
JP7189682B2 (ja
Inventor
重之 渡邉
Shigeyuki Watanabe
重之 渡邉
裕一 綿野
Yuichi Watano
裕一 綿野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koito Manufacturing Co Ltd
Original Assignee
Koito Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koito Manufacturing Co Ltd filed Critical Koito Manufacturing Co Ltd
Priority to JP2018096092A priority Critical patent/JP7189682B2/ja
Priority to US16/408,589 priority patent/US20190351913A1/en
Priority to DE102019206760.3A priority patent/DE102019206760A1/de
Priority to FR1905142A priority patent/FR3081135B1/fr
Priority to CN201910413670.9A priority patent/CN110497861B/zh
Publication of JP2019199229A publication Critical patent/JP2019199229A/ja
Application granted granted Critical
Publication of JP7189682B2 publication Critical patent/JP7189682B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/021Means for detecting failure or malfunction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)

Abstract

【課題】車両に搭載される複数のセンサの姿勢や位置を調節する作業の負担を軽減する。【解決手段】LiDARセンサユニット24は、車両の外部における検出領域A1の情報を検出する。前カメラユニット25は、車両の外部においてその一部が検出領域A1と重なる検出領域A2の情報を検出する。メモリ32は、重複検出領域A12において検出された情報に基づいてLiDARセンサユニット24と前カメラユニット25の位置関係を記憶している。プロセッサ31は、LiDARセンサユニット24と前カメラユニット25の少なくとも一方により検出された情報と前記位置関係に基づいて、車両に対するセンサシステム1の位置ずれ情報を生成する。【選択図】図1

Description

本発明は、車両に搭載されるセンサシステム、および当該センサシステムの検査方法に関連する。
車両の自動運転技術を実現するためには、当該車両の外部の情報を取得するためのセンサを車体に搭載する必要がある。外部の情報をより正確に取得するために種別の異なるセンサが使用される場合がある。そのようなセンサの例としては、カメラやLiDAR(Light Detection and Ranging)センサが挙げられる(例えば、特許文献1を参照)。
特開2010−185769号公報
上記のようなセンサが車体に搭載されるとき、当該車体に対する当該センサの姿勢や位置を調節する必要がある。センサの数が増えると、調節を要する対象が増加するため、調節作業の負担が増す。
本発明は、車両に搭載される複数のセンサの姿勢や位置を調節する作業の負担を軽減することを目的とする。
上記の目的を達成するための一態様は、車両に搭載されるセンサシステムであって、
前記車両の外部における第一領域の情報を検出する第一センサユニットと、
前記車両の外部においてその一部が前記第一領域と重なる第二領域の情報を検出する第二センサユニットと、
前記第一領域と前記第二領域が重なる領域において検出された情報に基づいて前記第一センサユニットと前記第二センサユニットの位置関係を記憶しているメモリと、
前記第一センサユニットと前記第二センサユニットの少なくとも一方により検出された情報と前記位置関係に基づいて、前記車両に対する前記センサシステムの位置ずれ情報を生成するプロセッサと、
を備えている。
上記の目的を達成するための一態様は、車両に搭載されるセンサシステムの検査方法であって、
第一センサユニットが情報を検出可能な第一領域と第二センサユニットが情報を検出可能な第二領域が重なる領域に第一目標物を配置し、
前記第一センサユニットによる前記第一目標物の検出結果に基づいて前記第一センサユニットの基準位置を決定し、
前記第二センサユニットによる前記第一目標物の検出結果と前記基準位置に基づいて前記第一センサユニットと前記第二センサユニットの位置関係を決定し、
前記車両に前記センサシステムが搭載された状態で、前記第一センサユニットと前記第二センサユニットの少なくとも一方により第二目標物を検出し、
前記第二目標物の検出結果と前記位置関係に基づいて、前記車両に対する前記センサシステムの位置ずれを検出する。
上記のように構成されたセンサシステムと検査方法によれば、第一領域と第二領域の少なくとも一方に第二目標物が配置されていれば、第一センサユニットと第二ユニットのいずれか一方の基準位置からのずれ量の検出を通じて、車両に対するセンサシステム全体のずれ量を特定できる。すなわち、第二目標物の配置自由度が高まるだけでなく、第二目標物の検出を通じた調節をセンサユニットごとに行なう必要がない。したがって、車両に搭載される複数のセンサユニットの姿勢や位置を調節する作業の負担を軽減できる。
上記のセンサシステムは、以下のように構成されうる。
前記車両の外部においてその一部が前記第一領域と重なる第三領域の情報を検出する第三センサユニットを備えており、
前記メモリは、前記第一領域と前記第三領域が重なる領域において検出された情報に基づいて前記第一センサユニットと前記第三センサユニットの位置関係を記憶しており、
前記プロセッサは、前記第一センサユニット、前記第二センサユニット、および前記第三センサユニットの少なくとも一つにより検出された情報と前記位置関係に基づいて、前記車両に対する前記センサシステムの位置ずれ情報を生成する。
この場合、第一領域、第二領域、および第三領域の少なくとも一つに第二目標物が配置されていれば、第一センサユニット、第二センサユニット、および第三センサユニットのいずれかの基準位置からのずれ量の検出を通じて、車両に対するセンサシステム全体のずれ量を特定できる。すなわち、第二目標物の配置自由度が高まるだけでなく、第二目標物の検出を通じた調節をセンサユニットごとに行なう必要がない。したがって、車両に搭載される複数のセンサユニットの姿勢や位置を調節する作業の負担を軽減できる。
本明細書において、「センサユニット」とは、所望の情報検出機能を備えつつ、それ自身が単体で流通可能な部品の構成単位を意味する。
本明細書において、「運転支援」とは、運転操作(ハンドル操作、加速、減速)、走行環境の監視、および運転操作のバックアップの少なくとも一つを少なくとも部分的に行なう制御処理を意味する。すなわち、衝突被害軽減ブレーキ機能やレーンキープアシスト機能のような部分的な運転支援から完全自動運転動作までを含む意味である。
一実施形態に係るセンサシステムの構成を示す図である。 図1のセンサシステムの車両における位置を示す図である。 図1のセンサシステムの検査方法を示すフローチャートである。
添付の図面を参照しつつ、本発明に係る実施形態の例について以下詳細に説明する。以下の説明に用いる各図面では、各部材を認識可能な大きさとするために縮尺を適宜変更している。
添付の図面において、矢印Fは、図示された構造の前方向を示している。矢印Bは、図示された構造の後方向を示している。矢印Lは、図示された構造の左方向を示している。矢印Rは、図示された構造の右方向を示している。以降の説明に用いる「左」および「右」は、運転席から見た左右の方向を示している。
図1に示されるように、一実施形態に係るセンサシステム1は、センサモジュール2を備えている。センサモジュール2は、例えば図2に示される車両100の左前隅部LFに搭載される。
センサモジュール2は、ハウジング21と透光カバー22を備えている。ハウジング21は、透光カバー22とともに収容室23を区画している。
センサモジュール2は、LiDARセンサユニット24と前カメラユニット25を備えている。LiDARセンサユニット24と前カメラユニット25は、収容室23内に配置されている。
LiDARセンサユニット24は、車両100の外部における検出領域A1に向けて非可視光を出射する構成、および当該非可視光が検出領域A1内に存在する物体に反射した結果の戻り光を検出する構成を備えている。LiDARセンサユニット24は、必要に応じて出射方向(すなわち検出方向)を変更して当該非可視光を掃引する走査機構を備えうる。例えば、非可視光として波長905nmの赤外光が使用されうる。
LiDARセンサユニット24は、例えば、ある方向へ非可視光を出射したタイミングから戻り光を検出するまでの時間に基づいて、当該戻り光に関連付けられた物体までの距離を取得できる。また、そのような距離データを検出位置と関連付けて集積することにより、戻り光に関連付けられた物体の形状に係る情報を取得できる。これに加えてあるいは代えて、出射光と戻り光の波長の相違に基づいて、戻り光に関連付けられた物体の材質などの属性に係る情報を取得できる。
すなわち、LiDARセンサユニット24は、車両100の外部における検出領域A1の情報を検出する装置である。LiDARセンサユニット24は、検出した情報に対応する検出信号S1を出力する。LiDARセンサユニット24は、第一センサユニットの一例である。検出領域A1は、第一領域の一例である。
前カメラユニット25は、車両100の外部における検出領域A2の画像を取得する装置である。画像は、静止画像と動画像の少なくとも一方を含みうる。前カメラユニット25は、可視光に感度を有するカメラを備えていてもよいし、赤外光に感度を有するカメラを備えていてもよい。
すなわち、前カメラユニット25は、車両100の外部における検出領域A2の情報を検出する装置である。前カメラユニット25は、取得した画像に対応する検出信号S2を出力する。前カメラユニット25は、第二センサユニットの一例である。検出領域A2は、第二領域の一例である。
LiDARセンサユニット24の検出領域A1の一部と前カメラユニット25の検出領域A2の一部は、重複検出領域A12として重なっている。
センサシステム1は、制御装置3を備えている。車両100における適宜の位置に搭載される。LiDARセンサユニット24から出力された検出信号S1と前カメラユニット25から出力された検出信号S2は、不図示の入力インターフェースを介して制御装置3に入力される。
制御装置3は、プロセッサ31とメモリ32を備えている。プロセッサ31とメモリ32の間では信号やデータの通信が可能とされている。
このように構成されたセンサシステム1が車両100に搭載されるとき、車体部品の公差や車体に対するセンサモジュール2の位置ずれに起因して各センサユニットの位置が所望の基準位置からずれる場合がある。図1と図3を参照しつつ、このような位置ずれを検出するためのセンサシステム1の検査方法について説明する。
センサシステム1が車両100に搭載される前の一時点において、LiDARセンサユニット24による第一目標物T1の検出が行なわれる(図3のSTEP1)。図1に示されるように、第一目標物T1は、LiDARセンサユニット24の検出領域A1と前カメラユニット25の検出領域A2が重なる重複検出領域A12内に配置される。
続いて、LiDARセンサユニット24による第一目標物T1の検出結果に基づいて、LiDARセンサユニット24の基準位置が決定される(図3のSTEP2)。具体的には、図1に示されるLiDARセンサユニット24の検出基準方向D1が第一目標物T1に対して所定の位置関係を形成するように、不図示のエイミング機構を用いてLiDARセンサユニット24の位置と姿勢の少なくとも一方が調節される。
制御装置3のプロセッサ31は、検出信号S1を取得することにより、調節完了時の検出領域A1における第一目標物T1の位置を認識する。なお、本明細書において「検出信号S1を取得する」という表現は、LiDARセンサユニット24から入力インターフェースに入力された検出信号S1を、適宜の回路構成を介して後述する処理が可能な状態にすることを意味する。
続いて、前カメラユニット25による第一目標物T1の検出が行なわれる(図3のSTEP3)。さらに、前カメラユニット25による第一目標物T1の検出結果に基づいて、前カメラユニット25の基準位置が決定される。具体的には、図1に示される前カメラユニット25の検出基準方向D2が第一目標物T1に対して所定の位置関係を形成するように、不図示のエイミング機構を用いて前カメラユニット25の位置と姿勢の少なくとも一方が調節される。
制御装置3のプロセッサ31は、検出信号S2を取得することにより、調節完了時の検出領域A2における第一目標物T1の位置を認識する。なお、本明細書において「検出信号S2を取得する」という表現は、前カメラユニット25から入力インターフェースに入力された検出信号S2を、適宜の回路構成を介して後述する処理が可能な状態にすることを意味する。
重複検出領域A12における第一目標物T1の位置を介して定められたLiDARセンサユニット24の基準位置と前カメラユニット25の基準位置から、両者の位置関係が定まる(図3のSTEP4)。位置関係は、LiDARセンサユニット24と前カメラユニット25の相対位置によって定められてもよいし、センサモジュール2におけるLiDARセンサユニット24と前カメラユニット25の各絶対位置座標により定められてもよい。プロセッサ31は、このようにして定められた位置関係を、メモリ32に格納する。
その後、センサシステム1は、車両100に搭載される(図3のSTEP5)。このとき、制御装置3のメモリ32には、重複検出領域A12において検出された第一目標物T1の情報に基づくLiDARセンサユニット24と前カメラユニット25の位置関係が記憶されている。また、LiDARセンサユニット24と前カメラユニット25の位置関係は固定される。
一般に、センサシステム1の車両100への搭載は、上記した各センサユニットの基準位置が決定された場所とは異なる場所において行なわれる。よって、センサシステム1が車両100に搭載された後、図1に示される第二目標物T2の検出が行なわれる(図3のSTEP6)。本例においては、第二目標物T2は、LiDARセンサユニット24の検出領域A1内に配置される。例えば、図1に破線で示されるように、センサシステム1が位置ずれなく車両100に搭載された場合にLiDARセンサユニット24の検出基準方向D1に位置するように、第二目標物T2の位置が定められている。
本例の場合、第二目標物T2の検出は、LiDARセンサユニット24により行なわれる。その結果として図1に実線で示される位置に第二目標物T2が検出された場合について説明する。検出された第二目標物T2は、本来位置すべき検出基準方向D1にない。よって、車両100に対するセンサシステム1の位置ずれが生じていることが判る。
制御装置3のプロセッサ31は、検出された第二目標物T2の検出領域A1内における位置に基づいて、LiDARセンサユニット24の基準位置からのずれ量を特定する。換言すると、LiDARセンサユニット24が本来配置されるべき位置が特定される。
続いて、プロセッサ31は、メモリ32に格納されたLiDARセンサユニット24と前カメラユニット25の位置関係に基づいて、前カメラユニット25の現在位置を特定する。換言すると、前カメラユニット25が本来配置されるべき位置が特定される。
プロセッサ31は、車両100に対するセンサシステム1の位置ずれ情報を生成する(図3のSTEP7)。具体的には、上記のようにして特定されたLiDARセンサユニット24が本来配置されるべき位置からのずれ量と、前カメラユニット25が本来配置されるべき位置からのずれ量が、車両100に対するセンサシステム1の位置ずれ情報を構成する。
制御装置3は、この位置ずれ情報を出力しうる。この場合、センサモジュール2の位置と姿勢の少なくとも一方が、位置ずれ情報により示される各センサユニットの位置ずれを解消するように、作業者によって機械的に調節されうる。あるいは、制御装置3は、この位置ずれ情報に基づいて、LiDARセンサユニット24から入力される検出信号S1と前カメラユニット25から入力される検出信号S2に対して、位置ずれ情報により示される位置ずれを相殺するような信号補正処理が行なわれうる。
あるいは、第二目標物T2は、前カメラユニット25の検出領域A2内に配置されてもよい。例えば、センサシステム1が位置ずれなく車両100に搭載された場合に前カメラユニット25の検出基準方向D2に位置するように、第二目標物T2の位置が定められうる。
その場合、第二目標物T2の検出は、前カメラユニット25により行なわれる。検出された第二目標物T2が本来位置すべき検出基準方向D2になければ、車両100に対するセンサシステム1の位置ずれが生じていることが判る。
制御装置3のプロセッサ31は、検出された第二目標物T2の検出領域A2内における位置に基づいて、前カメラユニット25の基準位置からのずれ量を特定する。換言すると、前カメラユニット25が本来配置されるべき位置が特定される。
続いて、プロセッサ31は、メモリ32に格納されたLiDARセンサユニット24と前カメラユニット25の位置関係に基づいて、LiDARセンサユニット24の現在位置を特定する。換言すると、LiDARセンサユニット24が本来配置されるべき位置が特定される。その結果、プロセッサ31は、上記と同様にして車両100に対するセンサシステム1の位置ずれ情報を生成する。
上記のように構成されたセンサシステム1と検査方法によれば、検出領域A1と検出領域A2の少なくとも一方に第二目標物T2が配置されていれば、LiDARセンサユニット24と前カメラユニット25のいずれか一方の基準位置からのずれ量の検出を通じて、車両100に対するセンサシステム1全体のずれ量を特定できる。すなわち、第二目標物T2の配置自由度が高まるだけでなく、第二目標物T2の検出を通じた調節をセンサユニットごとに行なう必要がない。したがって、車両100に搭載される複数のセンサユニットの姿勢や位置を調節する作業の負担を軽減できる。
図1に破線で示されるように、センサモジュール2は、左カメラユニット26を備えうる。左カメラユニット26は、収容室23内に配置される。
左カメラユニット26は、車両100の外部における検出領域A3の画像を取得する装置である。画像は、静止画像と動画像の少なくとも一方を含みうる。左カメラユニット26は、可視光に感度を有するカメラを備えていてもよいし、赤外光に感度を有するカメラを備えていてもよい。
すなわち、左カメラユニット26は、車両100の外部における検出領域A3の情報を検出する装置である。左カメラユニット26は、取得した画像に対応する検出信号S3を出力する。左カメラユニット26は、第三センサユニットの一例である。検出領域A3は、第三領域の一例である。
LiDARセンサユニット24の検出領域A1の一部と左カメラユニット26の検出領域A3の一部は、重複検出領域A13として重なっている。
この場合、センサシステム1が車両100に搭載される前の一時点において、左カメラユニット26による第一目標物T1の検出が行なわれる(図3のSTEP8)。図1に示されるように、第一目標物T1は、LiDARセンサユニット24の検出領域A1と左カメラユニット26の検出領域A3が重なる重複検出領域A13内に配置される。
続いて、左カメラユニット26による第一目標物T1の検出結果に基づいて、左カメラユニット26の基準位置が決定される。具体的には、図1に示される左カメラユニット26の検出基準方向D3が第一目標物T1に対して所定の位置関係を形成するように、不図示のエイミング機構を用いて左カメラユニット26の位置と姿勢の少なくとも一方が調節される。
制御装置3のプロセッサ31は、検出信号S3を取得することにより、調節完了時の検出領域A3における第一目標物T1の位置を認識する。なお、本明細書において「検出信号S3を取得する」という表現は、左カメラユニット26から入力インターフェースに入力された検出信号S3を、適宜の回路構成を介して後述する処理が可能な状態にすることを意味する。
他方、プロセッサ31は、検出信号S1を取得することにより、既に基準位置の調節が完了しているLiDARセンサユニット24の検出領域A1における第一目標物T1の位置を認識する。
重複検出領域A13における第一目標物T1の位置を介して定められた左カメラユニット26の基準位置と、決定済みのLiDARセンサユニット24の基準位置とから、両者の位置関係が定まる(図3のSTEP9)。位置関係は、LiDARセンサユニット24と左カメラユニット26の相対位置によって定められてもよいし、センサモジュール2におけるLiDARセンサユニット24と左カメラユニット26の各絶対位置座標により定められてもよい。プロセッサ31は、このようにして定められた位置関係を、メモリ32に格納する。
その後、センサシステム1は、車両100に搭載される(図3のSTEP5)。このとき、制御装置3のメモリ32には、重複検出領域A13において検出された第一目標物T1の情報に基づくLiDARセンサユニット24と左カメラユニット26の位置関係が記憶されている。また、LiDARセンサユニット24と左カメラユニット26の位置関係は固定される。
センサシステム1が車両100に搭載された後、図1に示される第二目標物T2の検出が行なわれる(図3のSTEP6)。本例においては、第二目標物T2は、LiDARセンサユニット24の検出領域A1内に配置される。前述のように、制御装置3のプロセッサ31は、検出された第二目標物T2の検出領域A1内における位置に基づいて、LiDARセンサユニット24の基準位置からのずれ量を特定する。換言すると、LiDARセンサユニット24が本来配置されるべき位置が特定される。
このとき、プロセッサ31は、前カメラユニット25の現在位置の特定に加えて、メモリ32に格納されたLiDARセンサユニット24と左カメラユニット26の位置関係に基づいて、左カメラユニット26の現在位置を特定する。換言すると、左カメラユニット26が本来配置されるべき位置が特定される。
プロセッサ31は、左カメラユニット26が本来配置されるべき位置からのずれ量も含むように、車両100に対するセンサシステム1の位置ずれ情報を生成する(図3のSTEP7)。
制御装置3は、この位置ずれ情報を出力しうる。この場合、センサモジュール2の位置と姿勢の少なくとも一方が、位置ずれ情報により示される各センサユニットの位置ずれを解消するように、作業者によって機械的に調節されうる。あるいは、制御装置3は、この位置ずれ情報に基づいて、LiDARセンサユニット24から入力される検出信号S1、前カメラユニット25から入力される検出信号S2、および左カメラユニット26から入力される検出信号S3に対して、位置ずれ情報により示される位置ずれを相殺するような信号補正処理を行ないうる。
あるいは、第二目標物T2は、左カメラユニット26の検出領域A3内に配置されてもよい。例えば、センサシステム1が位置ずれなく車両100に搭載された場合に左カメラユニット26の検出基準方向D3に位置するように、第二目標物T2の位置が定められうる。
その場合、第二目標物T2の検出は、左カメラユニット26により行なわれる。検出された第二目標物T2が本来位置すべき検出基準方向D3になければ、車両100に対するセンサシステム1の位置ずれが生じていることが判る。
制御装置3のプロセッサ31は、検出された第二目標物T2の検出領域A3内における位置に基づいて、左カメラユニット26の基準位置からのずれ量を特定する。換言すると、左カメラユニット26が本来配置されるべき位置が特定される。
続いて、プロセッサ31は、メモリ32に格納されたLiDARセンサユニット24と左カメラユニット26の位置関係に基づいて、LiDARセンサユニット24の現在位置を特定する。換言すると、LiDARセンサユニット24が本来配置されるべき位置が特定される。さらに、プロセッサ31は、メモリ32に格納されたLiDARセンサユニット24と前カメラユニット25の位置関係に基づいて、前カメラユニット25の現在位置も特定する。換言すると、前カメラユニット25が本来配置されるべき位置も特定される。その結果、プロセッサ31は、上記と同様にして車両100に対するセンサシステム1の位置ずれ情報を生成する。
上記のように構成されたセンサシステム1と検査方法によれば、検出領域A1、検出領域A2、および検出領域A3の少なくとも一つに第二目標物T2が配置されていれば、LiDARセンサユニット24、前カメラユニット25、および左カメラユニット26のいずれかの基準位置からのずれ量の検出を通じて、車両100に対するセンサシステム1全体のずれ量を特定できる。すなわち、第二目標物T2の配置自由度が高まるだけでなく、第二目標物T2の検出を通じた調節をセンサユニットごとに行なう必要がない。したがって、車両100に搭載される複数のセンサユニットの姿勢や位置を調節する作業の負担を軽減できる。
制御装置3におけるプロセッサ31の機能は、メモリと協働して動作する汎用マイクロプロセッサにより実現されうる。汎用マイクロプロセッサとしては、CPU、MPU、GPUが例示されうる。汎用マイクロプロセッサは、複数のプロセッサコアを含みうる。メモリの例としては、ROMやRAMが挙げられる。ROMには、後述する処理を実行するプログラムが記憶されうる。当該プログラムは、人工知能プログラムを含みうる。人工知能プログラムの例としては、ディープラーニングによる学習済みニューラルネットワークが挙げられる。汎用マイクロプロセッサは、ROMに記憶されたプログラムの少なくとも一部を指定してRAM上に展開し、RAMと協働して上記の処理を実行しうる。あるいは、前述したプロセッサ31の機能は、マイクロコントローラ、FPGA、ASICなどの専用集積回路によって実現されてもよい。
制御装置3におけるメモリ32の機能は、半導体メモリやハードディスクドライブなどのストレージによって実現されうる。メモリ32は、プロセッサ31と協働して動作するメモリの一部として実現されてもよい。
制御装置3は、車両における中央制御処理を担うメインECUなどによって実現されてもよいし、メインECUと各センサユニットの間に介在するサブECUによって実現されてもよい。
上記の実施形態は、本発明の理解を容易にするための例示にすぎない。上記の実施形態に係る構成は、本発明の趣旨を逸脱しなければ、適宜に変更・改良されうる。
上記の実施形態においては、センサモジュール2が、LiDARセンサユニットとカメラユニットを備えている例を示した。しかしながら、センサモジュール2が備える複数のセンサユニットは、LiDARセンサユニット、カメラユニット、ミリ波センサユニット、および超音波センサユニットの少なくとも一種を含むように選択されうる。
ミリ波センサユニットは、ミリ波を発信する構成、および当該ミリ波が車両100の外部に存在する物体に反射した結果の反射波を受信する構成を備えている。ミリ波の周波数の例としては、24GHz、26GHz、76GHz、79GHzなどが挙げられる。ミリ波センサユニットは、例えば、ある方向へミリ波を発信したタイミングから反射波を受信するまでの時間に基づいて、当該反射波に関連付けられた物体までの距離を取得できる。また、そのような距離データを検出位置と関連付けて集積することにより、反射波に関連付けられた物体の動きに係る情報を取得できる。
超音波センサユニットは、超音波(数十kHz〜数GHz)を発信する構成、および当該超音波が車両100の外部に存在する物体に反射した結果の反射波を受信する構成を備えている。超音波センサユニットは、必要に応じて発信方向(すなわち検出方向)を変更して超音波を掃引する走査機構を備えうる。
超音波センサユニットは、例えば、ある方向へ超音波を発信したタイミングから反射波を受信するまでの時間に基づいて、当該反射波に関連付けられた物体までの距離を取得できる。また、そのような距離データを検出位置と関連付けて集積することにより、反射波に関連付けられた物体の動きに係る情報を取得できる。
図2に示される車両100の右前隅部RFには、図1に示されるセンサモジュール2と左右対称の構成を有するセンサモジュールが搭載されうる。
図1に示されるセンサモジュール2は、図2に示される車両100の左後隅部LBにも搭載されうる。左後隅部LBに搭載されるセンサモジュールの基本的な構成は、図1に示されるセンサモジュール2と前後対称でありうる。
図1に示されるセンサモジュール2は、図2に示される車両100の右後隅部RBにも搭載されうる。右後隅部RBに搭載されるセンサモジュールの基本的な構成は、上述した左後隅部LBに搭載されるセンサモジュールと左右対称である。
収容室23には、ランプユニットが収容されうる。「ランプユニット」とは、所望の照明機能を備えつつ、それ自身が単体で流通可能な部品の構成単位を意味する。
1:センサシステム、24:LiDARセンサユニット、25:前カメラユニット、26:左カメラユニット、31:プロセッサ、32:メモリ、A1:検出領域、A2:検出領域、A3:検出領域、A12:重複検出領域、A13:重複検出領域、T1:第一目標物、T2:第二目標物

Claims (3)

  1. 車両に搭載されるセンサシステムであって、
    前記車両の外部における第一領域の情報を検出する第一センサユニットと、
    前記車両の外部においてその一部が前記第一領域と重なる第二領域の情報を検出する第二センサユニットと、
    前記第一領域と前記第二領域が重なる領域において検出された情報に基づいて前記第一センサユニットと前記第二センサユニットの位置関係を記憶しているメモリと、
    前記第一センサユニットと前記第二センサユニットの少なくとも一方により検出された情報と前記位置関係に基づいて、前記車両に対する前記センサシステムの位置ずれ情報を生成するプロセッサと、
    を備えている、
    センサシステム。
  2. 前記車両の外部においてその一部が前記第一領域と重なる第三領域の情報を検出する第三センサユニットを備えており、
    前記メモリは、前記第一領域と前記第三領域が重なる領域において検出された情報に基づいて前記第一センサユニットと前記第三センサユニットの位置関係を記憶しており、
    前記プロセッサは、前記第一センサユニット、前記第二センサユニット、および前記第三センサユニットの少なくとも一つにより検出された情報と前記位置関係に基づいて、前記車両に対する前記センサシステムの位置ずれ情報を生成する、
    請求項1に記載のセンサシステム。
  3. 車両に搭載されるセンサシステムの検査方法であって、
    第一センサユニットが情報を検出可能な第一領域と第二センサユニットが情報を検出可能な第二領域が重なる領域に第一目標物を配置し、
    前記第一センサユニットによる前記第一目標物の検出結果に基づいて前記第一センサユニットの基準位置を決定し、
    前記第二センサユニットによる前記第一目標物の検出結果と前記基準位置に基づいて前記第一センサユニットと前記第二センサユニットの位置関係を決定し、
    前記車両に前記センサシステムが搭載された状態で、前記第一センサユニットと前記第二センサユニットの少なくとも一方により第二目標物を検出し、
    前記第二目標物の検出結果と前記位置関係に基づいて、前記車両に対する前記センサシステムの位置ずれを検出する、
    検査方法。
JP2018096092A 2018-05-18 2018-05-18 センサシステムおよび検査方法 Active JP7189682B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018096092A JP7189682B2 (ja) 2018-05-18 2018-05-18 センサシステムおよび検査方法
US16/408,589 US20190351913A1 (en) 2018-05-18 2019-05-10 Sensor system and method for inspecting the same
DE102019206760.3A DE102019206760A1 (de) 2018-05-18 2019-05-10 Sensorsystem und verfahren zum prüfen von diesem
FR1905142A FR3081135B1 (fr) 2018-05-18 2019-05-16 Système de capteur et procédé d’inspection de celui–ci
CN201910413670.9A CN110497861B (zh) 2018-05-18 2019-05-17 传感器系统及检查方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018096092A JP7189682B2 (ja) 2018-05-18 2018-05-18 センサシステムおよび検査方法

Publications (2)

Publication Number Publication Date
JP2019199229A true JP2019199229A (ja) 2019-11-21
JP7189682B2 JP7189682B2 (ja) 2022-12-14

Family

ID=68419873

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018096092A Active JP7189682B2 (ja) 2018-05-18 2018-05-18 センサシステムおよび検査方法

Country Status (5)

Country Link
US (1) US20190351913A1 (ja)
JP (1) JP7189682B2 (ja)
CN (1) CN110497861B (ja)
DE (1) DE102019206760A1 (ja)
FR (1) FR3081135B1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11851088B2 (en) * 2020-03-11 2023-12-26 Baidu Usa Llc Method for determining capability boundary and associated risk of a safety redundancy autonomous system in real-time
US11995920B2 (en) * 2020-10-23 2024-05-28 Argo AI, LLC Enhanced sensor health and regression testing for vehicles

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009281862A (ja) * 2008-05-22 2009-12-03 Toyota Motor Corp レーダー装置の軸調整方法および軸調整装置
JP2014074632A (ja) * 2012-10-03 2014-04-24 Isuzu Motors Ltd 車載ステレオカメラの校正装置及び校正方法
JP2016223963A (ja) * 2015-06-02 2016-12-28 日立建機株式会社 鉱山用作業機械
JP2018017617A (ja) * 2016-07-28 2018-02-01 株式会社神戸製鋼所 建設機械
WO2018051906A1 (ja) * 2016-09-15 2018-03-22 株式会社小糸製作所 センサシステム、センサモジュール、およびランプ装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014101198A1 (de) * 2014-01-31 2015-08-06 Huf Hülsbeck & Fürst Gmbh & Co. Kg Emblem für ein Kraftfahrzeug mit einem optischen Sensorsystem sowie Verfahren hierzu

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009281862A (ja) * 2008-05-22 2009-12-03 Toyota Motor Corp レーダー装置の軸調整方法および軸調整装置
JP2014074632A (ja) * 2012-10-03 2014-04-24 Isuzu Motors Ltd 車載ステレオカメラの校正装置及び校正方法
JP2016223963A (ja) * 2015-06-02 2016-12-28 日立建機株式会社 鉱山用作業機械
JP2018017617A (ja) * 2016-07-28 2018-02-01 株式会社神戸製鋼所 建設機械
WO2018051906A1 (ja) * 2016-09-15 2018-03-22 株式会社小糸製作所 センサシステム、センサモジュール、およびランプ装置

Also Published As

Publication number Publication date
DE102019206760A1 (de) 2019-11-21
CN110497861A (zh) 2019-11-26
US20190351913A1 (en) 2019-11-21
FR3081135A1 (fr) 2019-11-22
FR3081135B1 (fr) 2022-02-04
CN110497861B (zh) 2022-11-01
JP7189682B2 (ja) 2022-12-14

Similar Documents

Publication Publication Date Title
US11623558B2 (en) Sensor system
EP3605136A1 (en) Sensor module, sensor system, and method for installing sensor system in vehicle
US9020750B2 (en) Drive assist device, and vehicle using drive assist device
EP3514444A1 (en) Sensor system
US20180162271A1 (en) Pedestrian warning device of vehicle
JP2012048643A (ja) 物体検出装置
KR102428660B1 (ko) 차량 및 차량의 제어방법
CN111332295A (zh) 车辆及其控制方法
JP7288895B2 (ja) センサシステム、および画像データ生成装置
JP7189682B2 (ja) センサシステムおよび検査方法
US20190347829A1 (en) In-vehicle camera
KR102158025B1 (ko) 카메라 보정모듈, 카메라 시스템 및 카메라 시스템의 제어 방법
KR102121287B1 (ko) 카메라 시스템 및 카메라 시스템의 제어 방법
JP7316277B2 (ja) センサシステム
JP2020137053A (ja) 制御装置及び撮影システム
JP7347398B2 (ja) 物体検出装置
US10955553B2 (en) Sensor system for compensating information processing rate
US20210165103A1 (en) Sensor system
KR20220097656A (ko) 운전자 보조 장치, 차량 및 그 제어 방법
CN110505577B (zh) 传感器数据生成装置
US20220026533A1 (en) Sensor system
JPWO2020145095A1 (ja) LiDARセンサユニットおよび車両用防犯システム
WO2022145261A1 (ja) ゲーティングカメラ、車両用センシングシステム、車両用灯具
US20230306639A1 (en) Vehicle and control method thereof
JP7334572B2 (ja) 物体検知装置および物体検知プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210413

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220506

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221202

R150 Certificate of patent or registration of utility model

Ref document number: 7189682

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150