JP7533271B2 - 車載センサシステム、及び車載センサシステムのデータ生成方法 - Google Patents

車載センサシステム、及び車載センサシステムのデータ生成方法 Download PDF

Info

Publication number
JP7533271B2
JP7533271B2 JP2021023921A JP2021023921A JP7533271B2 JP 7533271 B2 JP7533271 B2 JP 7533271B2 JP 2021023921 A JP2021023921 A JP 2021023921A JP 2021023921 A JP2021023921 A JP 2021023921A JP 7533271 B2 JP7533271 B2 JP 7533271B2
Authority
JP
Japan
Prior art keywords
data
housing
detection unit
vehicle
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021023921A
Other languages
English (en)
Other versions
JP2022126066A (ja
Inventor
猛之進 高橋
友康 玉置
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2021023921A priority Critical patent/JP7533271B2/ja
Priority to US17/565,520 priority patent/US12094217B2/en
Priority to EP22154646.8A priority patent/EP4047919B1/en
Priority to CN202210141514.3A priority patent/CN114979424B/zh
Publication of JP2022126066A publication Critical patent/JP2022126066A/ja
Application granted granted Critical
Publication of JP7533271B2 publication Critical patent/JP7533271B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/10Interpretation of driver requests or demands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R2011/0001Arrangements for holding or mounting articles, not otherwise provided for characterised by position
    • B60R2011/0003Arrangements for holding or mounting articles, not otherwise provided for characterised by position inside the vehicle
    • B60R2011/0026Windows, e.g. windscreen
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2422/00Indexing codes relating to the special location or mounting of sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/40Bus networks
    • H04L2012/40208Bus networks characterized by the use of a particular bus standard
    • H04L2012/40215Controller Area Network CAN

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

本発明は、車両の周辺の物標、白線などの車両の周辺の検知範囲内の状況を表す検知データを出力する車載センサシステム、及び、車載センサシステムに適用されるデータ生成方法に関する。
従来、自車両の周辺の物標を検知して、当該検知結果を表すデータを出力する車載センサシステム(以下、「従来装置」と称呼する。)が知られている(下記特許文献1を参照。)。車載センサシステムから出力されたデータは、車両の運転支援装置に供給される。運転支援装置は、車載センサシステムから供給されたデータに基づいて、車両の周囲の状況(例えば、車両と物標との位置関係)を認識し、その認識結果に応じて運転支援を実行する。
従来装置は、周辺センサ(例えば、カメラセンサ)を含む。周辺センサは、車体の予め決められた部位に固定される。周辺センサは、検知部(例えば、レンズ、イメージセンサなどからなる撮像部)及び制御部(例えば、画像処理部)を含む。検知部は、当該周辺センサの所定の点(例えば、レンズの中央部)から所定方向へ延びる軸を基準として決まる検知範囲内の物標を検知し、当該検知結果を表す検知データ(以下、「原データ」と称呼する。)を出力する。
一般に、運転支援装置(運転支援装置の制御プログラム)は、車体に組み付けられた周辺センサの検知部の位置及び姿勢が、正規の位置及び姿勢に一致している状態で取得されたデータが供給されることを前提として設計される。したがって、周辺センサの検知部の位置及び姿勢のいずれか一方又は両方が、正規の位置及び姿勢とは異なる場合に、検知部の検知データをそのまま用いると、運転支援装置は、車両の周囲の状況を正確に認識できない。そこで、従来装置は、以下に述べるように構成されている。
まず、車両の生産工場において周辺センサが車両に固定された状態で、その周辺センサの現在の位置及姿勢と、正規の位置及び姿勢とのずれ量が、所定の治具(ターゲットボード)を用いて測定される。そして、当該測定結果に対応する調整値が、周辺センサとは別体として設けられた記憶装置に記憶される。以下、この作業を「センサキャリブレーション」と称呼する。センサキャリブレーションの終了後、制御部は、原データを、前記記憶装置に記憶されている調整値に基づいて補正して、周辺センサの位置及び姿勢が正規の位置及び姿勢に一致している場合に得られると予想されるデータを生成して、運転支援装置に供給する。
ところで、周辺センサは、車体の予め決められた部位に固定されたブラケットに組み付けられる。車体へのブラケットの組み付け作業において、ブラケットの位置及び姿勢に誤差が生じる。即ち、車体におけるブラケットの位置及び姿勢は、車両ごとに異なる。よって、ブラケットに組み付けられた周辺センサの位置及び姿勢も、車両ごとに異なる。そのため、車両の生産時に、周辺センサをブラケットに組み付けた際には、必ず、センサキャリブレーションが必要である。
車両が生産工場から出荷された後に周辺センサが故障して交換された場合には、当該交換後の周辺センサの制御部は、車両の生産時に測定されて記憶装置に記憶された調整値を読み出す。そして、制御部は、原データを、前記読み出した調整値に基づいて補正する。このように、従来装置によれば、周辺センサが交換された際、センサキャリブレーションを実施する必要がない。
特開2020-131818号公報
従来装置の周辺センサは、検知部を支持(収容)する筐体を備えている。この筐体がブラケットに組み付けられる。従来装置において、ブラケットへの筐体の組み付け誤差が「0」であることを前提としている。つまり、従来装置において、ブラケット(車体)に対する、交換前の筐体の位置及び姿勢と、交換後の筐体の位置及び姿勢とは略同一であるとみなしている。加えて、従来装置において、筐体への検知部の組み付け誤差が「0」であることを前提としている。つまり、「交換前の周辺センサの筐体に対する検知部の位置及び姿勢」と、「交換後の周辺センサの筐体に対する検知部の位置及び姿勢」とが同一であるとみなしている。上記の条件を満たしている場合には、交換後の周辺センサの制御部が、記憶装置から読み出した調整値に基づいて原データを補正すれば、適正な(有用な)データが得られる。
しかし、一般に、周辺センサの生産工程において、筐体への検知部の組み付け誤差が生じる。即ち、「交換前の周辺センサの筐体に対する検知部の位置及び姿勢」と、「交換後の周辺センサの筐体に対する検知部の位置及び姿勢」とが異なる場合がある。この場合、交換後の周辺センサの制御部が、記憶装置から読み出した調整値に基づいて原データを補正したとしても、適正なデータが得られない。即ち、原データを補正して得られたデータは、「交換前の周辺センサの筐体に対する検知部の位置及び姿勢」と、「交換後の周辺センサの筐体に対する検知部の位置及び姿勢」とのずれに相当する誤差を含んでいる。よって、周辺センサが交換された際、その車載センサシステムから運転支援装置に供給されるデータ(補正済検知データ)の精度(正確度)が、交換前の周辺センサから運転支援装置に供給されるデータ(補正済検知データ)の精度(正確度)に比べて低くなってしまう虞がある。
本発明の目的の一つは、周辺センサの交換前後において、出力されるデータの精度(正確度)を同等に保つことができる車載センサシステムを提供することにある。
上記の課題を解決するために、本発明の車載センサシステム(1)は、
車両の車体(B)に固定されたブラケット(BC)に着脱可能な筐体(11)、
前記筐体に支持された検知部(12)であって当該検知部の所定の点から延びる軸を基準として決まる検知範囲内の状況を表す検知データを出力する検知部、及び、
前記筐体に対する前記検知部の予め定められた設計上の正規の位置及び姿勢からの、前記筐体に対する前記検知部の実際の位置及び姿勢の偏差量に応じた第1データ(E1)を記憶した第1記憶部(14)、
を有する周辺センサ(10)と、
前記周辺センサとは別体であり且つ前記車体に固定された第2記憶部(21)であって、前記車体に対する前記筐体の予め定められた設計上の正規の位置及び姿勢からの、前記車体に対する前記筐体の実際の位置及び姿勢の偏差量に応じた第2データ(「E2」,「E1及びE3」)を記憶可能に構成された第2記憶部と、
前記筐体の内部又は前記筐体の外部に設けられた補正部(13)であって、前記第2記憶部に前記第2データが記憶されている場合に、前記第1記憶部及び前記第2記憶部から前記第1データ及び第2データをそれぞれ読み出し、前記検知部から出力された検知データを、前記読み出した第1データ及び前記読み出した第2データに基づいて補正することにより、前記検知部が前記車体に対する予め定められた設計上の正規の位置に正規の姿勢にて固定されていると仮定した場合に当該検知部が出力すると予想されるデータを生成して出力する補正部と、
を含む。
上記のように構成された車載センサシステムにおいて、車両の生産工場又は整備工場にて、第2データが決定されて、第2記憶部に記憶される。その後、当該車両の周辺センサが故障して、周辺センサの交換が必要となる場合がある。この場合、作業者は、故障した周辺センサをブラケットから取り外し、新しい周辺センサをブラケットに組み付ける。つまり、この場合、ブラケットは、交換されず、車体に固定されたままである。第2記憶部も交換されない。このように、周辺センサが故障した場合、既存の(共通の)ブラケットに新しい周辺センサが組み付けられるので、車体に対する筐体の位置及び姿勢(すなわち、第2データ)は、周辺センサの交換前後において変化しない。よって、補正部は、周辺センサが交換された際、第2データを第2記憶部から読み出して、当該第2データを、検知データの補正に用いても差し支えない。
周辺センサが交換される前には、補正部は、当該交換前の周辺センサに固有の第1データ、及び周辺センサの個体に依存しない(すなわち、交換前後の周辺センサに共通の)第2データに基づいて検知データを補正する。周辺センサが交換された後には、補正部は、当該交換後の周辺センサに固有の第1データ、及び周辺センサの個体に依存しない第2データに基づいて検知データを補正する。つまり、常に、現在の周辺センサに固有の第1データが検知データの補正結果に反映される。よって、本発明によれば、周辺センサを交換した際に、交換後の周辺センサの検知部の位置及び姿勢を測定することなく、且つ交換前の周辺センサから出力されるデータの精度(正確度)と交換後の周辺センサから出力されるデータの精度(正確度)とを同等に保つことができる。
本発明の一態様に係る車載センサシステムにおいて、
前記第2記憶部は、
前記車体に対する前記筐体の予め定められた設計上の正規の位置及び姿勢からの、前記車体に対する前記筐体の実際の位置及び姿勢の偏差量そのものを表すデータを前記第2データとして記憶するように構成される。
これによれば、周辺センサの交換後に、補正部において、前記筐体の偏差量を求めるための計算が不要である。つまり、補正部は、第1データと第2データをそのまま用いて、検知データを補正することができる。
本発明の他の態様に係る車載センサシステムにおいて、
前記第2記憶部は、
前記車体に対する前記検知部の予め定められた設計上の正規の位置及び姿勢からの、前記車体に対する前記検知部の実際の位置及び姿勢の偏差量そのものを表す第3データと、
前記第3データが得られた場合の、前記筐体に対する前記検知部の予め定められた設計上の正規の位置及び姿勢からの、前記筐体に対する前記検知部の実際の位置及び姿勢の偏差量そのものを表す第1データと、
の組み合わせのデータを前記第2データとして記憶するように構成される。
これによれば、第1データ及び第2データに基づいて、前記車体に対する前記筐体の予め定められた設計上の正規の位置及び姿勢からの、前記車体に対する前記筐体の実際の位置及び姿勢の偏差量を計算し、その結果を第2データとして第2記憶部に記憶させる場合に比べて、第2記憶部への第2データの記憶作業が簡便である。
本発明の他の態様に係る車載センサシステムにおいて、
前記第2記憶部は、前記周辺センサとは別体である車載部品が備える記憶装置の記憶領域のうちの一部の領域である。
これによれば、第2記憶部を専用部品として設ける場合に比べて、車両全体としての部品点数を削減できる。
なお、本発明は、車載センサシステムに適用される、検知データの生成方法にも及ぶ。
上記説明においては、本発明の理解を助けるために、後述する実施形態に対応する発明の構成に対し、その実施形態で用いた符号を括弧書きで添えている。しかしながら、本発明の各構成要素は、前記符号によって規定される実施形態に限定されるものではない。本発明の他の目的、他の特徴及び付随する利点は、以下の図面を参照しつつ記述される本発明の実施形態についての説明から容易に理解されるであろう。
図1は、本発明の一実施形態に係る車載カメラシステムのブロック図である。 図2Aは、ブラケット及び撮像装置を斜め前方から見た分解斜視図である。 図2Bは、ブラケット及び撮像装置を斜め後方から見た分解斜視図である。 図3は、第1誤差を示す斜視図である。 図4は、車体にブラケットが組み付けられた状態を示す斜視図である。 図5Aは、第1誤差を示す側面図である。 図5Bは、第2誤差を示す側面図である。 図5Cは、第3誤差を示す側面図である。 図6は、車体に取り付けられた検知部の位置及び姿勢を示す斜視図である。 図7は、画像処理プログラムのフローチャートである。 本発明の変形例に係る車載カメラシステムのブロック図である。 本発明の他の変形例に係る撮像装置とブラケットを示す斜視図である。
(概略)
本発明の一実施形態に係る車載カメラシステム(車載センサシステム)1は、図1に示したように、撮像装置10及び外部装置20を備える。車載カメラシステム1は、ネットワークCANを介して、運転支援装置DAに接続されている。車載カメラシステム1は、車両の前景を撮影して得られた画像を表す画像データを後述するように補正し、補正した画像データをネットワークCANを介して運転支援装置DAに供給する。運転支援装置DAは、車載カメラシステム1から供給された画像データに基づいて、各種運転支援を実行する。
(構成)
撮像装置(カメラユニット)10は、筐体(ケース本体)11、検知部(撮像ユニット)12、画像処理部(データ処理装置)13及び第1記憶部(メモリ)14を備えている。
筐体11は、図2A及び図2Bに示したように、略直方体形状を呈する箱状部材である。筐体11に、検知部12、画像処理部13及び第1記憶部14が保持(収容、固定)されている。なお、後述するように、筐体11は図9に示したような形状を有していてもよい。
検知部12は単眼カメラである。図3に示したように、検知部12は、レンズ12a及びイメージセンサ12bを含んでいる。検知部12は、レンズ12aの光軸(中心軸)C1を中心軸として有する所定の範囲内の物標及び背景からの光をレンズ12aを通してイメージセンサ12bに導き、イメージセンサ12bにてその光を画像データに変換する。即ち、検知部12は、所定の範囲内の物標及び風景を撮影し、その撮影した画像を表す画像データを画像処理部13に供給する。この画像データは、後述する補正(位置姿勢補正)がなされていないので、便宜上、「原画像データ」と称呼される場合がある。
再び図1を参照すると、画像処理部13は、CPU、ROM、RAM、通信インターフェースなどを含むマイクロコンピュータを備える。画像処理部13のCPUは、検知部12から供給された原画像データを、後述する「第1誤差E1及び第2誤差E2」に基づいて補正(位置姿勢補正)処理を施すことにより、補正後画像データを生成する。CPUは、その補正後画像データを、ネットワークCANを介して運転支援装置DAに送信(供給)する。なお、第1誤差E1、第2誤差E2及び第3誤差E3は、第1データ、第2データ及び第3データとそれぞれ称呼される場合がある。
第1記憶部14は、後述する第1誤差E1を記憶するデバイスであり、書き換え可能な不揮発性メモリ(例えば、EEPROM又は1度だけ書き込み可能なROM)を含んでいる。第1記憶部14は、バスBSを介して、画像処理部13のCPUに接続されている。
外部装置20は、電子制御ユニット(ECU)であり、第2記憶部21を含む。第2記憶部21は、後述する第2誤差E2を記憶するためのメモリを含んでいる。このメモリは、書き換え可能な不揮発性メモリ(例えば、EEPROM)である。外部装置20(従って、第2記憶部21)は、ネットワークCANを介して、画像処理部13のCPU及び運転支援装置DAの図示しないマイクロコンピュータに接続されている。
撮像装置10は、図4に示したように、車両の車体BのフロントウインドシールドガラスGの上部に固定される。具体的には、図2A及び図2Bに示したブラケットBCが、フロントウインドシールドガラスGの上部であって車室内側の予め定められた位置(車幅方向の中央位置)に接着固定される(図4を参照。)。なお、後述するように、ブラケットBCは図9に示したような形状を有していてもよい。このブラケットBCに、撮像装置10の筐体11が嵌合される。したがって、ブラケットBCに対する筐体11の組付け誤差は事実上生じない。筐体11がブラケットBCに嵌合されると、車体Bに対する撮像装置10(従って、検知部12)の「位置及び姿勢」が決まる。車体Bに対する検知部12の位置は、検知部12の車幅方向における位置、検知部12の高さ方向の位置、検知部12の車体Bの前後方向の位置、を含む。車体Bに対する検知部12の姿勢は、車体Bに対する検知部12の「パン角、チルト角、ロール角」を含む。
外部装置20(従って、第2記憶部21)は、車体BのダッシュボードDB内において車体Bに対して固定されている(図4を参照。)。外部装置20は、図示しない通信ケーブルによって撮像装置10及び運転支援装置DAに接続されている。
ところで、検知部12は、筐体11とは別に製造される。撮像装置10の生産工場(組立て工場)において、検知部12が筐体11に組み付けられる(固定される。)。その際、筐体11への検知部12の組み付け誤差が生じる。つまり、図3及び図5Aに示したように、筐体11に対する検知部12の実際の「位置及び姿勢(図3及び図5Aの実線を参照。)」が、筐体11に対する検知部12の正規の(設計上の)「位置及び姿勢(図3及び図5Aの二点鎖線を参照。)」と異なる場合がある。
そこで、撮像装置10の生産工場において、周知の測定方法を用いて、筐体11への検知部12の組み付け誤差が測定される。この組付け誤差は、筐体11に対する検知部12の正規の「位置及び姿勢」からの、筐体11に対する検知部12の実際の「位置及び姿勢」の偏差量であり、以下、「第1誤差E1」と称呼する。なお、図3を含む検知部12の位置及び姿勢を描写した図面においては、第1誤差E1を含む誤差が比較的大きく描かれている(誇張されている)が、実際には誤差は微小である。
第1誤差E1は、以下に列挙するように、筐体11に対する検知部12の位置についての誤差と、筐体11に対する検知部12の姿勢についての誤差と、を含む。
<筐体11に対する検知部12の位置についての誤差>
筐体11が車体Bに対して正規の位置に正規の姿勢にて取り付けられたと仮定した場合における、筐体11に対する検知部12の正規の位置からの、
・筐体11に対する検知部12の車幅方向における実際の位置の偏差量(E1dw)
・筐体11に対する検知部12の車高方向における実際の位置の偏差量(E1dh)
・筐体11に対する検知部12の車両前後方向における実際の位置の偏差量(E1df)
<筐体11に対する検知部12の姿勢についての誤差>
筐体11が車体Bに対して正規の位置に正規の姿勢にて取り付けられたと仮定した場合における、筐体11に対する検知部12の正規の姿勢からの、
・筐体11に対する検知部12のパン角の偏差量(E1θp)
・筐体11に対する検知部12のチルト角の偏差量(E1θt)
・筐体11に対する検知部12のロール角の偏差量(E1θr)
つまり、第1誤差E1は、E1dw、E1dh、E1df、E1θp、E1θt、E1θrを要素として有するベクトルであるということができる。
以下、説明を簡単にするため、図5Aに示したように、第1誤差E1の要素のうち「筐体11(筐体前後基準線K1)に対する検知部12の姿勢についての誤差の一つであるチルト角の偏差量(E1θt)」のみが「0」以外の値であったと仮定する。つまり、E1θt以外の「第1誤差E1の他の要素」は「0」であると仮定する。生産工場において、第1誤差E1(この例では、E1θt)が第1記憶部14に書き込まれる。この第1誤差E1の測定及び第1記憶部14への第1誤差E1の書き込み作業は、作業者が治具(ターゲットボード、コンピュータ装置など)を操作することにより実施される。なお、画像処理部13が、当該作業の一部を自動的に実行する機能を備えていてもよい。
加えて、ブラケットBCが車体B(実際には、フロントウインドシールドガラスG)に組み付けられる際、車体BへのブラケットBCの取り付け誤差が生じる。よって、図5B及び図6の実線により示したように、筐体11がブラケットBCに固定されると、上述した第1誤差E1がない場合でも、車体Bに対する検知部12の実際の「位置及び姿勢」が車体Bに対する検知部12の正規の「位置及び姿勢」から乖離する場合が生じる。なお、図5B及び図6において、正規の「位置及び姿勢」にて車体Bに固定された筐体11は二点鎖線により示されている。
第1誤差E1を有していない撮像装置10がブラケットBCによって車体Bに固定された場合における車体Bに対する検知部12の正規の「位置及び姿勢」からの、車体Bに対する検知部12の実際の「位置及び姿勢」の偏差量は「第2誤差E2」と称呼される。第2誤差E2は、車体B(フロントウインドシールドガラスG)へのブラケットBCの組み付け誤差を示す量であり、車体Bに対する筐体11の組付け誤差を表す量であるということもできる。第2誤差E2は、以下に列挙するように、車体Bに対する筐体11の位置についての誤差と、車体Bに対する筐体11の姿勢についての誤差と、を含む。
<車体Bに対する筐体11の位置についての誤差>
車体Bに対する筐体11の正規の位置からの、
・筐体11の車幅方向における実際の位置の偏差量(E2dw)
・筐体11の車高方向における実際の位置の偏差量(E2dh)
・筐体11の車両前後方向における実際の位置の偏差量(E2df)
<車体Bに対する筐体11の姿勢についての誤差>
車体Bに対する筐体11の正規の姿勢からの、
・筐体11の実際のパン角の偏差量(E2θp)
・筐体11の実際のチルト角の偏差量(E2θt)
・筐体11の実際のロール角の偏差量(E2θr)
つまり、第2誤差E2は、E2dw、E2dh、E2df、E2θp、E2θt、E2θrを要素として有するベクトルであるということができる。
以下、説明を簡単にするため、図5Bに示したように、第2誤差E2の要素のうち「車体B(車体前後基準線K2)に対する筐体11の姿勢についての誤差の一つであるチルト角の偏差量(E2θt)」のみが「0」以外の値であったと仮定する。つまり、E2θt以外の「第2誤差E2の他の要素」は「0」であると仮定する。
ところで、実際には、図5Aに示した第1誤差E1(E1θt)を有する撮像装置10(即ち、筐体11)がブラケットBCに固定される。その結果、図5Cに示したように、車体Bに対する検知部12の正規の「位置及び姿勢」からの、車体Bに対する検知部12の実際の「位置及び姿勢」の偏差量は、第1誤差E1と第2誤差E2とを含む量(以下、便宜上、「第3誤差E3」と称呼される。)になる。即ち、例えば、第3誤差E3のチルト角の偏差量(E3θt)は、第1誤差E1のチルト角の偏差量(E1θt)と第2誤差E2のチルト角の偏差量(E2θt)との和として求められる。換言すると、第3誤差E3が測定されれば、第1誤差E1は既に第1記憶部14に書き込まれているので、第3誤差E3及び第1誤差E1から第2誤差E2(即ち、車体BへのブラケットBCの組み付け誤差を示す量)を求めることができる。
第3誤差E3は、以下に列挙するように、車体Bに対する検知部12の位置についての誤差と、車体Bに対する検知部12の姿勢についての誤差と、を含む。
<車体Bに対する検知部12の位置についての誤差>
車体Bに対する検知部12の正規の位置からの、
・検知部12の車幅方向における実際の位置の偏差量(E3dw)
・検知部12の車高方向における実際の位置の偏差量(E3dh)
・検知部12の車両前後方向における実際の位置の偏差量(E3df)
<車体Bに対する検知部12の姿勢についての誤差>
車体Bに対する検知部12の正規の姿勢からの、
・検知部12の実際のパン角の偏差量(E3θp)
・検知部12の実際のチルト角の偏差量(E3θt)
・検知部12の実際のロール角の偏差量(E3θr)
つまり、第3誤差E3は、E3dw、E3dh、E3df、E3θp、E3θt、E3θrを要素として有するベクトルであるということができる。
第3誤差E3(図5CにおいてはE3θt)は、車体Bに固定されたブラケットBCへの筐体11の取り付け工程を含む車両の生産工場において周知の手法により測定される。例えば、ターゲットボードを車両の前方の予め定められた特定位置に精度良く設置し、このターゲットボードを「車両に固定された撮像装置10」により撮影し、原画像データを取得する。次に、この原画像データと、標準画像データとを比較することにより、第3誤差E3が演算される。標準画像データは、車体Bに対する「位置及び姿勢」が正規である状態の撮像装置10が上記特定位置に設置されたターゲットボードを撮影した場合に得られる画像データであり、予め準備されている。これらの処理は、車両に固定された撮像装置10に接続される専用の測定装置(コンピュータ)を用いて実施される。
次に、その測定装置は、車両に固定された撮像装置10の第1記憶部14から第1誤差E1を読み取り、この第1誤差E1及び測定及び演算により得られた第3誤差E3に基いて第2誤差E2を演算により求める。例えば、E2θtは、E3θtからE1θtを減算することにより求められることからも類推できるように、基本的には、ベクトルである第3誤差E3からベクトルである第2誤差E1を引くことにより、ベクトルである第2誤差E2が求められる。そして、測定装置は、求められた第2誤差E2を、外部装置20の第2記憶部21に書き込む。
車両の出荷後において、画像処理部13のCPUは、第1記憶部14及び第2記憶部21から第1誤差E1及び第2誤差E2をそれぞれ読み出す。そして、CPUは、第1誤差E1及び第2誤差E2に基づいて第3誤差E3を求め、第3誤差E3に基いて原画像データを補正することにより補正後画像データ(正規画像データ)を生成する。即ち、補正後画像データは、第3誤差E3が「0」である状態(即ち、車体における検知部12の位置及び姿勢が、正規の位置及び姿勢に一致している状態)において検知部12から出力されると予想される画像データである。画像処理部13のCPUは、その補正後画像データを運転支援装置DAの図示しないマイクロコンピュータに送信し、運転支援装置DAのマイクロコンピュータは補正後画像データを用いて各出力の運転支援制御を実行する。
(動作)
つぎに、図7を参照して、画像処理部13のCPUの動作を具体的に説明する。
車載カメラシステム1が車両に搭載された状態において、図示しないイグニッション・キー・スイッチがオフ位置からオン位置へと変更されると、車載カメラシステム1が起動され、CPUは図7のステップ700から画像処理プログラムの実行を開始する。
つぎに、CPUは、ステップ701にて、第2記憶部21に第2誤差E2が記憶されているか否かを判定する。即ち、CPUは車両の生産工場において撮像装置10がブラケットBCに固定され且つ必要な電気的接続がなされた直後ではない、か否かを判定する。
第2記憶部21に第2誤差E2が記憶されていれば(ステップ701:Yes)、CPUは、ステップ702に進み、第1記憶部14及び第2記憶部21から第1誤差E1及び第2誤差E2をそれぞれ読み出す。
つぎに、CPUは、ステップ703にて、第1誤差E1及び第2誤差E2に基づいて第3誤差E3を求め、その第3誤差E3に基いて原画像データを補正後画像データへと変換(補正)するための画像変換パラメータ(画像変換行列の成分)を決定する。
つぎに、CPUは、ステップ704にて、検知部12から原画像データを取得する。
つぎに、CPUは、ステップ705にて、前記取得した原画像データを、前記画像変換パラメータを用いて補正して補正後画像データ(正規画像データ)を生成し、当該補正後画像データを運転支援ECUに供給する。
そして、CPUは、ステップ704及びステップ705の処理を繰り返し行う。従って、CPUは、検知部12から原画像データを取得する毎に補正後画像データを生成し、当該補正後画像データを運転支援ECUに供給する。
一方、現時点が、車両の生産工場において撮像装置10がブラケットBCに固定され且つ必要な電気的接続がなされた直後である場合、第2記憶部21に第2誤差E2が記憶されていない。この場合、CPUはステップ701において「No」と判定し、以下に述べるステップ706乃至ステップ714の処理を順に行い、その後、ステップ702に進む。
ステップ706:CPUは、所定の車両に搭載された表示装置に、第3誤差を求める(最終的には、後述するステップ714にて第2誤差E2を計算により求める)ための準備を作業者に要求する画像を表示させる。
この車両に搭載された表示装置は、例えば、車両のナビゲーションシステムの液晶ディスプレイ装置である。
作業者は、前記画像が表示されていることを確認すると、ターゲットボードを車両の前方の予め定められた特定位置に設置する。車両とターゲットボードとの位置関係は、第3誤差E3の測定結果(最終的には、第2誤差E2の値)に大きな影響を及ぼす。よって、ターゲットボードの配置作業は、正確に実施される必要がある。
つぎに、作業者は、特定コンピュータ装置(治具)をネットワークCANに接続し、当該特定コンピュータ装置から第3誤差E3の測定を開始させることを表す測定開始コマンドを画像処理部13のCPUに送信する。
ステップ707:CPUは、測定開始コマンドを受信したか否か監視する。CPUは測定開始コマンドを受信するまで待機し、測定開始コマンドを受信するとステップ708に進む。
ステップ708:CPUは、第3誤差E3を求めるための処理を開始し、表示装置に、測定中であることを表す画像を表示させる。
ステップ709:CPUは、検知部12によってターゲットボードを表す現画像データを撮影し、その撮影により得られた原画像データを取得する。
ステップ710:CPUは、ステップ709にて取得した原画像データが表すターゲットボードの画像を標準画像データと比較しながら解析する。即ち、CPUは、原画像データにおける「ターゲットボードに描画されたマーク」の「位置、姿勢、歪み(湾曲度)」などに基づいて、第3誤差E3を計算により求める。
ステップ711:CPUは、第1記憶部14から第1誤差E1を読み出す。
ステップ712:CPUは、ステップ710にて求めた第3誤差E3と、ステップ711にて読み出した第1誤差E1と、に基いて第2誤差E2を計算により求める。例えば、CPUは、ベクトルである第3誤差E3からベクトルである第1誤差E1を引くことにより第2誤差E2(=E3-E1)を求める。
ステップ713:CPUは、求めた第2誤差E2を、ネットワークCANを介して外部装置20に送信し、第2記憶部21に第2誤差E2を記憶させる。
ステップ714:CPUは、表示装置に第2誤差E2の取得及び第2記憶部21への格納が終了したことを表す画像を表示させる。この時点で、作業者は、特定コンピュータ装置をネットワークCANから取り外す。そして、CPUは、ステップ702に進む。
なお、ステップ710乃至ステップ713の処理は、特定コンピュータ装置が画像処理部13とデータ交換を行いながら実施してもよい。
以上、説明したように、車両の生産工程において車載カメラシステム1が車体に組み付けられた直後の時点では、第2記憶部21に第2誤差E2が未だ記憶されていない。そのため、CPUは、ステップ701からステップ706に進み、ステップ706乃至ステップ714からなる一連の処理を実行して、第2誤差E2を第2記憶部21に記憶させる。
生産工場から車両が出荷された後、撮像装置10が正常である場合、CPUはステップ701乃至ステップ703の処理を起動時に実施し、その後、ステップ704及びステップ705の処理を繰り返す。
一方、生産工場から車両が出荷された後、撮像装置10が故障して、撮像装置10が交換される場合がある。この場合、作業者は、故障した撮像装置10をブラケットBCから取り外し、新しい撮像装置10をブラケットBCに嵌合させ、車両に固定する。つまり、この場合、ブラケットBCは交換されず、フロントウインドシールドガラスGに固定されたままである。外部装置20も交換されず、ダッシュボードDB内に固定されたままである。このように、撮像装置10が故障した場合、生産工場においてフロントウインドシールドガラスGに固定されたブラケットBCに新しい撮像装置10が組み付けられる。よって、車体Bに対する筐体11の「位置及び姿勢(即ち、第2誤差E2)」は、撮像装置10の交換前後において変化しない。この第2誤差E2は、車両の生産時に測定されて外部装置20の第2記憶部21に記憶されている。よって、撮像装置10が交換された際、第2誤差E2を求め直す必要はない。すなわち、撮像装置10が交換された後に車載カメラシステム1が起動されると、CPUは、ステップ701から、ステップ706乃至ステップ715を経由してステップ702に進むのではなく、ステップ701から、ステップ702に直接進む。
CPUは、ステップ702にて、ブラケットBCに組み付けられている現在の撮像装置10に固有の第1誤差E1を第1記憶部14から読み出すとともに、撮像装置10の個体に依存しない第2誤差E2を第2記憶部21から読み出す。そして、CPUは、ステップ703にて、第1誤差E1及び第2誤差E2(即ち、第3誤差E3)に基づいて画像変換パラメータを決定し、ステップ705にて、当該画像変換パラメータを用いて、原画像データを補正する。
以上から理解されるように、現時点にて車体Bに取り付けられている撮像装置10に固有の第1誤差E1が画像変換パラメータに反映される。よって、本実施形態によれば、撮像装置10を交換した際、交換後の撮像装置10の検知部12の位置及び姿勢を測定する煩雑な作業を行うことなく、撮像装置10の前後において同程度の精度を有する補正後画像データを撮像装置10から運転支援装置DAに送信することができる。
以上、本実施形態に係る車載カメラシステム1について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の目的を逸脱しない限りにおいて種々の変更が可能である。
(変形例1)
上記実施形態では、第1誤差E1及び第3誤差E3に基づいて第2誤差E2が求められ、その第2誤差E2が第2記憶部21に記憶される。これに代えて、第1誤差E1及び第3誤差E3が第2記憶部21に記憶されてもよい。この場合、撮像装置10が交換された際、交換後の撮像装置10は、第2記憶部21から「交換前の撮像装置10の第1誤差E1及び第3誤差E3」を読み出し、当該「第3誤差E3及び第1誤差E1」から第2誤差E2を求める。そして、その求めた第2誤差E2と、交換後の撮像装置10の第1記憶部14に記憶されている第1誤差E1とから画像変換パラメータを求め、その画像変換パラメータによって交換後の撮像装置10の原画像データを補正して補正後画像データを求めればよい。
(変形例2)
上記実施形態では、第1誤差E1が第1記憶部14に記憶されているが、これに代えて、第1誤差E1に対応する値であって、筐体11への検知部12の組み付け誤差を補正するための第1調整値が第1記憶部14に記憶されていてもよい。例えば、撮像装置10の生産時に第1誤差E1を測定するための治具(測定装置)、画像処理部13などにより、第1調整値が決定されるとよい。この場合、第2誤差E2に代えて、第2誤差E2に対応する値であって、車体へのブラケットBCの組み付け誤差を補正するための第2調整値が第2記憶部21に記憶されるとよい。例えば、車両の生産時に第2誤差E2を測定するための治具(測定装置)、画像処理部13などにより、第2調整値が決定されるとよい。この場合、画像処理部13のCPUは、第1調整値及び第2調整値に基づいて、原画像データを補正すればよい。
(変形例3)
上記実施形態では、画像処理部13が、筐体11の内部に設けられているが、これに代えて、図8に示したように、画像処理部13が、筐体11の外部に設けられていてもよい。即ち、この例において、画像処理部13は、ネットワークCANを介して、検知部12及び第1記憶部14並びに第2記憶部21に接続されている。画像処理部13は、検知部12、第1記憶部14及び第2記憶部21から、原画像データ、第1誤差E1及び第2誤差E2をそれぞれ取得する。そして、画像処理部13は、第1誤差E1及び第2誤差E2に基づいて原画像データを補正して、運転支援装置DAに供給する。この場合、画像処理部13は、例えば、外部装置20、運転支援装置DAなどの他の装置に内蔵されていてもよい。
(変形例4)
上記実施形態では、第2誤差E2を、外部装置20に記憶させているが、第2誤差E2を、外部装置20としての「運転支援装置DA、エンジン制御装置、ブレーキ制御装置」の記憶装置に記憶させてもよい。すなわち、他の車載部品の記憶装置の一部の記憶領域を外部装置20として利用してもよい。この場合、当該他の車載部品は、交換される可能性が低い部品であることが好ましい。
(変形例5)
本発明は、車載カメラシステム1以外の他の周辺監視センサシステムにも適用することができる。例えば、本発明はレーダーセンサシステムにも適用することができる。レーダーセンサシステムは、レーダー装置と、外部装置と、を含む。レーダー装置は、検知部、制御部及び第1記憶部、並びに筐体を備える。検知部は、レーダー波を送信する送信部、及び、反射波を受信する受信部を含む。筐体に対する検知部の実際の「位置及び姿勢」と、筐体に対する検知部の正規の「位置及び姿勢」と、の偏差量(第1誤差E1)がレーダー装置内の第1記憶部に記憶される。筐体は車体に対して固定されたブラケットに固定される。車両の生産工場において、筐体がブラケットを介して車体に固定されたとき、車体に対するレーダー装置の検知部の正規の「位置及び姿勢」と、車体に対するレーダー装置の検知部の実際の「位置及び姿勢」と、の偏差量(第3誤差E3)が測定される。更に、当該第3誤差E3とレーダー装置内の第1記憶部に記憶されている第1誤差E1とから、車体に対する筐体の正規の「位置及び姿勢」と、車体に対する筐体の実際の「位置及び姿勢」と、の偏差量(第2誤差E2)が求められ、外部装置の第2記憶部に記憶される。制御部は、第1記憶部及び第2記憶部から第1誤差E1及び第2誤差E2をそれぞれ読み出し、当該第1誤差E1及び第2誤差E2に基づいて、検知部から出力されたデータ(車両周辺の物標の「車両との距離、方位」)を補正し、その補正したデータを運転支援装置に送信する。
(変形例6)
撮像装置10の筐体11及びブラケットBCは図9に示したような形状を有していてもよい。この場合、ブラケットBCは上部の複数個所に接着部Adを有する。この接着部AdがフロントウインドシールドガラスGに接着剤により接着され、それにより、ブラケットBCがフロントウインドシールドガラスGに固定される。更に、そのブラケットBCの下方から筐体11が組み込まれ、図示しない固定部によってブラケットBCに固定される。
第1誤差E1は、筐体11が車体Bに対して正規の位置に正規の姿勢にて取り付けられたと仮定した場合における「筐体11に対する検知部12の位置についての誤差と、筐体11に対する検知部12の姿勢についての誤差」とを含んでいた。しかしながら、第1誤差E1は、単に、筐体11が車体Bに対して正規の位置に正規の姿勢にて取り付けられたと仮定した場合に得られる値である必要はない。この場合、CPUがステップ712において、第1誤差E1を「筐体11が車体Bに対して正規の位置に正規の姿勢にて取り付けられたと仮定した場合の誤差」へと変換してから、第2誤差E2を求めればよい。
10…撮像装置(カメラユニット)、11…筐体(ケース本体)、12…検知部(撮像ユニット)、12a…レンズ、12b…イメージセンサ、13…画像処理部(データ処理装置)、14…第1記憶部、20…外部装置、21…第2記憶部、B…車体、BC…ブラケット、G…フロントウインドシールドガラス、DA…運転支援装置

Claims (6)

  1. 車両の車体に固定されたブラケットに着脱可能な筐体、
    前記筐体に支持された検知部であって当該検知部の所定の点から延びる軸を基準として決まる検知範囲内の状況を表す検知データを出力する検知部、及び、
    前記筐体に対する前記検知部の予め定められた設計上の正規の位置及び姿勢からの、前記筐体に対する前記検知部の実際の位置及び姿勢の偏差量に応じた第1データを記憶した第1記憶部、
    を有する周辺センサと、
    前記周辺センサとは別体であり且つ前記車体に固定された第2記憶部であって、前記車体に対する前記筐体の予め定められた設計上の正規の位置及び姿勢からの、前記車体に対する前記筐体の実際の位置及び姿勢の偏差量に応じた第2データを記憶可能に構成された第2記憶部と、
    前記筐体の内部又は前記筐体の外部に設けられた補正部であって、前記第2記憶部に前記第2データが記憶されている場合に、前記第1記憶部及び前記第2記憶部から前記第1データ及び第2データをそれぞれ読み出し、前記検知部から出力された検知データを、前記読み出した第1データ及び前記読み出した第2データに基づいて補正することにより、前記検知部が前記車体に対する予め定められた設計上の正規の位置に正規の姿勢にて固定されていると仮定した場合に当該検知部が出力すると予想されるデータを生成して出力する補正部と、
    を含む、車載センサシステム。
  2. 請求項1に記載の車載センサシステムにおいて、
    前記第2記憶部は、
    前記車体に対する前記筐体の予め定められた設計上の正規の位置及び姿勢からの、前記車体に対する前記筐体の実際の位置及び姿勢の偏差量そのものを表すデータを前記第2データとして記憶するように構成された、
    車載センサシステム。
  3. 請求項1に記載の車載センサシステムにおいて、
    前記第2記憶部は、
    前記車体に対する前記検知部の予め定められた設計上の正規の位置及び姿勢からの、前記車体に対する前記検知部の実際の位置及び姿勢の偏差量そのものを表す第3データと、
    前記第3データが得られた場合の、前記筐体に対する前記検知部の予め定められた設計上の正規の位置及び姿勢からの、前記筐体に対する前記検知部の実際の位置及び姿勢の偏差量そのものを表す第1データと、
    の組み合わせのデータを前記第2データとして記憶するように構成された、
    車載センサシステム。
  4. 請求項1乃至請求項3の何れか一項に記載の車載センサシステムにおいて、
    前記第2記憶部は、前記周辺センサとは別体である車載部品が備える記憶装置の記憶領域のうちの一部の領域である、
    車載センサシステム。
  5. 車両の車体に固定されたブラケットに着脱可能な筐体、
    前記筐体に支持された検知部であって当該検知部の所定の点から延びる軸を基準として決まる検知範囲内の状況を表す検知データを出力する検知部、及び、
    前記筐体に対する前記検知部の予め定められた設計上の正規の位置及び姿勢からの、前記筐体に対する前記検知部の実際の位置及び姿勢の偏差量に応じた第1データを記憶した第1記憶部、
    を有する周辺センサと、
    前記周辺センサとは別体であり且つ前記車体に固定された第2記憶部であって、前記車体に対する前記筐体の予め定められた設計上の正規の位置及び姿勢からの、前記車体に対する前記筐体の実際の位置及び姿勢の偏差量に応じた第2データを記憶可能に構成された第2記憶部と、
    を備えた車載センサシステムに適用されるデータ生成方法であって、
    前記筐体の内部又は前記筐体の外部に設けられた補正部であって、前記第2記憶部に前記第2データが記憶されている場合に、前記第1記憶部及び前記第2記憶部から前記第1データ及び第2データをそれぞれ読み出し、前記検知部から出力された検知データを、前記読み出した第1データ及び前記読み出した第2データに基づいて補正することにより、前記検知部が前記車体に対する予め定められた設計上の正規の位置に正規の姿勢にて固定されていると仮定した場合に当該検知部が出力すると予想されるデータを生成して出力するデータ補正ステップ、
    を含む、車載センサシステムのデータ生成方法。
  6. 請求項5に記載の車載センサシステムのデータ生成方法であって、
    前記検知部が前記筐体に固定された段階であって当該筐体が前記ブラケットに固定される前の段階において、前記第1データを測定により取得して前記第1記憶部に記憶させる第1データ格納ステップと、
    前記筐体が前記ブラケットに固定された段階において前記車両が当該車両の生産工場から出荷される前の段階において、前記車両に対して所定の位置に設置されたターゲットを表す検知データを前記検知部から取得し、当該取得した検知データと前記第1データとに基いて前記第2データを取得し、当該取得した第2データを前記第2記憶部に記憶させる第2データ格納ステップと、
    を含む、車載センサシステムのデータ生成方法。
JP2021023921A 2021-02-18 2021-02-18 車載センサシステム、及び車載センサシステムのデータ生成方法 Active JP7533271B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021023921A JP7533271B2 (ja) 2021-02-18 2021-02-18 車載センサシステム、及び車載センサシステムのデータ生成方法
US17/565,520 US12094217B2 (en) 2021-02-18 2021-12-30 In-vehicle sensor system, and data generation method for in-vehicle sensor system
EP22154646.8A EP4047919B1 (en) 2021-02-18 2022-02-01 In-vehicle sensor system, and data generation method for in-vehicle sensor system
CN202210141514.3A CN114979424B (zh) 2021-02-18 2022-02-16 车载传感器系统以及车载传感器系统的数据生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021023921A JP7533271B2 (ja) 2021-02-18 2021-02-18 車載センサシステム、及び車載センサシステムのデータ生成方法

Publications (2)

Publication Number Publication Date
JP2022126066A JP2022126066A (ja) 2022-08-30
JP7533271B2 true JP7533271B2 (ja) 2024-08-14

Family

ID=80225798

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021023921A Active JP7533271B2 (ja) 2021-02-18 2021-02-18 車載センサシステム、及び車載センサシステムのデータ生成方法

Country Status (4)

Country Link
US (1) US12094217B2 (ja)
EP (1) EP4047919B1 (ja)
JP (1) JP7533271B2 (ja)
CN (1) CN114979424B (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020131818A (ja) 2019-02-15 2020-08-31 トヨタ自動車株式会社 運転支援装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070057946A1 (en) * 2003-07-24 2007-03-15 Dan Albeck Method and system for the three-dimensional surface reconstruction of an object
JP2005114683A (ja) * 2003-10-10 2005-04-28 Nippon Soken Inc レンズ位置ずれ検出方法及びレンズ位置ずれ検出装置
JP2006074329A (ja) 2004-09-01 2006-03-16 Nissan Motor Co Ltd 車載カメラの光軸調整装置
JP4780534B2 (ja) * 2009-01-23 2011-09-28 トヨタ自動車株式会社 道路区画線検出装置
DE102011078631A1 (de) * 2011-07-05 2013-01-10 Robert Bosch Gmbh Anordnung und Verfahren zum Bestimmen einer Abbildungsabweichung einer Kamera
JP6012982B2 (ja) 2012-02-24 2016-10-25 京セラ株式会社 較正処理装置、カメラ較正装置、カメラシステム、およびカメラ較正方法
EP2645701A1 (en) * 2012-03-29 2013-10-02 Axis AB Method for calibrating a camera
JP6439287B2 (ja) * 2014-06-18 2018-12-19 株式会社デンソー 運転支援装置、運転支援方法、画像補正装置、画像補正方法
CN105376564B (zh) * 2015-11-24 2018-01-02 深圳创维-Rgb电子有限公司 摄像头校准设备及其控制方法与装置
WO2017122552A1 (ja) * 2016-01-15 2017-07-20 ソニー株式会社 画像処理装置および方法、プログラム、並びに画像処理システム
CN210062890U (zh) * 2018-04-20 2020-02-14 株式会社小糸制作所 传感器模块
JP2020008389A (ja) * 2018-07-06 2020-01-16 豊田合成株式会社 車両用センサユニット
US11454525B2 (en) * 2018-10-19 2022-09-27 Robert Bosch Gmbh Vehicle sensor field calibration utilizing other vehicles
TWI689432B (zh) * 2018-12-26 2020-04-01 財團法人工業技術研究院 車用感測器自動調整方法及其系統
JP7128449B2 (ja) * 2019-04-18 2022-08-31 トヨタ自動車株式会社 運転支援装置及びその運転支援装置の調整方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020131818A (ja) 2019-02-15 2020-08-31 トヨタ自動車株式会社 運転支援装置

Also Published As

Publication number Publication date
CN114979424A (zh) 2022-08-30
EP4047919A1 (en) 2022-08-24
CN114979424B (zh) 2024-01-23
US20220262125A1 (en) 2022-08-18
JP2022126066A (ja) 2022-08-30
EP4047919B1 (en) 2024-07-10
US12094217B2 (en) 2024-09-17

Similar Documents

Publication Publication Date Title
JP6458439B2 (ja) 車載カメラ較正装置、画像生成装置、車載カメラ較正方法、画像生成方法
JP4690476B2 (ja) 車載カメラの校正装置
JP4751939B2 (ja) 車載カメラの校正装置
US10775621B2 (en) Method, device and computer-readable storage medium with instructions for setting a head-up display in a transportation vehicle
US10358086B2 (en) Vehicle periphery image display device and camera adjustment method
JP5081313B2 (ja) 車載カメラの校正装置
WO2020012879A1 (ja) ヘッドアップディスプレイ
JP2015202835A (ja) 車載カメラの取り付け誤差表示制御装置及び取り付け誤差検出装置
US11097670B2 (en) Method for calibrating image data of an imaging system for a vehicle combination
JP2017188738A (ja) 車載カメラの取付角度検出装置、取付角度較正装置、取付角度検出方法、取付角度較正方法、およびコンピュータープログラム
JP6463319B2 (ja) ステレオ測距装置、ステレオ測距方法及びステレオ測距プログラム
CN111572471B (zh) 车辆驾驶辅助装置
KR102227850B1 (ko) 차량용 후방 카메라의 영상 보정 방법
JP2019132855A (ja) ステレオカメラ校正方法、視差算出装置及びステレオカメラ
JP7533271B2 (ja) 車載センサシステム、及び車載センサシステムのデータ生成方法
JP2013107439A (ja) 車載カメラのキャリブレーション装置
EP4291940A1 (en) Method and a processing unit for determining calibration parameters for a calibration function of a head-mounted device (hmd) for use in a vehicle and hmd comprising such a calibration function
JP7201568B2 (ja) 車両用制御装置
WO2015170439A1 (ja) 車載キャリブレーション装置
WO2022004248A1 (ja) 情報処理装置、情報処理方法及びプログラム
KR20150009763A (ko) 카메라 시스템 및 카메라 시스템의 제어 방법
JP2021069070A (ja) 車両用制御装置
WO2012053102A1 (ja) 端末装置、端末装置によって実行される画像処理方法及び画像処理プログラム
WO2019016942A1 (ja) 運転支援装置、サーバ、および運転支援方法
US12469172B2 (en) Method for calibrating a sensor for a driver assistance system and control unit

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240715

R150 Certificate of patent or registration of utility model

Ref document number: 7533271

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150