JP7108856B2 - 運転制御システムおよび運転制御方法 - Google Patents

運転制御システムおよび運転制御方法 Download PDF

Info

Publication number
JP7108856B2
JP7108856B2 JP2018564468A JP2018564468A JP7108856B2 JP 7108856 B2 JP7108856 B2 JP 7108856B2 JP 2018564468 A JP2018564468 A JP 2018564468A JP 2018564468 A JP2018564468 A JP 2018564468A JP 7108856 B2 JP7108856 B2 JP 7108856B2
Authority
JP
Japan
Prior art keywords
imaging data
vehicle
imaging
exposure
control system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018564468A
Other languages
English (en)
Other versions
JPWO2018139212A1 (ja
Inventor
佳壽子 西村
康夫 三宅
嘉晃 佐藤
修 柴田
浩 岩井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2018139212A1 publication Critical patent/JPWO2018139212A1/ja
Application granted granted Critical
Publication of JP7108856B2 publication Critical patent/JP7108856B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P3/00Measuring linear or angular speed; Measuring differences of linear or angular speeds
    • G01P3/36Devices characterised by the use of optical means, e.g. using infrared, visible, or ultraviolet light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/587Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields
    • H04N25/589Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields with different integration times, e.g. short and long exposures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10144Varying exposure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Power Engineering (AREA)
  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本開示は、車両または飛行体などの移動体の運転を支援する、運転制御システムおよび運転制御方法に関する。
近年、車両走行制御を支援する様々な走行支援システムが提案されている。走行支援システムは、加速、制動および操舵を制御するために、例えば車両速度および障害物までの距離など情報を必要とする。車両速度は、一般に、車輪の回転数(rpm)に基づいて測定され得る。
特許文献1は、ステレオ撮像によって障害物までの距離を測定することが可能な撮像システムを開示する。その撮像システムは、被写体照度に応じて異なる光電変換特性を有する撮像素子を含む複数の撮像装置を備える。複数の撮像装置の間で撮像タイミングなどを合わせ込むことにより、高速かつ正確にステレオ画像を処理することが可能になる。
特開2007-81806号公報
近年、走行支援システムは飛躍的に進化している。そのシステムは、人による自動車の運転操作を補助するシステムから、自動車自らが情報を取得して判断し、運転操作を行う、自動車主体のシステムに変貌しつつある。そのようなシステムへの期待は大きく、さらなるシステムの改善を求める要望が多く寄せられている。
従来の技術において、車両走行制御に必要な情報が高い精度で取得されていたとは必ずしも言えなかった。そのため、より正確にその情報を取得することが求められていた。
本開示は、移動体の運動状態、例えば速度または進行方向を検出することが可能な移動体制御システムを提供することを目的とし、主として、車両の運動状態、例えば速度または進行方向を検出することが可能な車両走行制御システムを提供することを目的とする。
本開示の一態様による運転制御システムは、移動体に設置され、第1のフレーム期間に対象物を複数回撮像して、第1の撮像データおよび第2の撮像データを含む多重露光撮像データを生成する撮像装置と、前記多重露光撮像データに含まれる前記第1の撮像データおよび前記第2の撮像データに基づいて、前記対象物を基準とした前記移動体の相対的な運動状態を検出する検出装置と、を備え、前記撮像装置は、前記第1のフレーム期間内の第1露光期間に第1の感度で前記対象物を撮像して前記第1の撮像データを生成し、前記第1期間とは異なる前記第1のフレーム期間内の第2露光期間に、前記第1の感度とは異なる第2の感度で前記対象物を撮像して前記第2の撮像データを生成する。
本開示の例示的な実施形態は、移動体の運動状態、例えば速度または進行方向を検出することが可能な移動体制御システム、当該移動体の制御方法、車両の運動状態、例えば速度または進行方向を検出することが可能な車両走行制御システムおよび当該車両走行の制御方法を提供する。
図1は、検出装置1を備える車両走行制御システム1000のブロック構成例を示すブロック図である。 図2は、検出装置1の他のブロック構成例を示すブロック図である。 図3は、撮像装置100の構成例を示す模式図である。 図4Aは、単位画素101の構成例を示す回路図である。 図4Bは、単位画素101の他の構成例を示す回路図である。 図5は、単位画素101の、半導体基板109Dの法線方向に沿った断面図である。 図6Aは、単位フレーム期間における多重露光の典型的な動作タイミングを示すタイミング図である。 図6Bは、多重露光撮像データの一例を示す模式図である。 図7Aは、単位フレーム期間における多重露光の応用的な動作タイミングの例を示すタイミング図である。 図7Bは、応用例による多重露光撮像データの一例を示す模式図である。 図7Cは、単位フレーム期間における多重露光の応用的な動作タイミングの他の例を示すタイミング図である。 図7Dは、応用例による多重露光撮像データの他の一例を示す模式図である。 図8Aは、単位フレーム期間における多重露光の応用的な動作タイミングの例を示すタイミング図である。 図8Bは、応用例による多重露光撮像データの一例を示す模式図である。 図8Cは、単位フレーム期間における多重露光の応用的な動作タイミングの他の例を示すタイミング図である。 図8Dは、応用例による多重露光撮像データの他の一例を示す模式図である。 図9Aは、撮像シーケンスの典型例を示すシーケンス図である。 図9Bは、撮像シーケンスの典型例を示すシーケンス図である。 図9Cは、撮像シーケンスの典型例を示すシーケンス図である。 図9Dは、撮像シーケンスの典型例を示すシーケンス図である。 図10は、進行方向を検出するための処理フローの一例を示すフローチャートである。 図11Aは、検出装置1を搭載した自車両Vが、前方の車両Wに追従して走行している様子を示す模式図である。 図11Bは、取得される多重露光撮像データの測定イメージを示す模式図である。 図11Cは、取得される多重露光撮像データの測定イメージを示す模式図である。 図12Aは、検出装置1を搭載した自車両Vが、前方の車両Wに追従して走行している様子を示す模式図である。 図12Bは、取得される多重露光撮像データの測定イメージを示す模式図である。 図12Cは、取得される多重露光撮像データの測定イメージを示す模式図である。 図13Aは、検出装置1を搭載した自車両が、道路標識Sを撮像しながら走行している様子を示す模式図である。 図13Bは、取得される多重露光撮像データの測定イメージを示す模式図である。 図13Cは、取得される多重露光撮像データの測定イメージを示す模式図である。 図14は、車両の進行方向および相対速度を検出し、その検出結果に基づいて車両の制動および加速を制御する処理フローの一例を示すフローチャートである。 図15は、車両の進行方向、相対速度および加速度を検出し、その検出結果に基づいて車両の制動および加速を制御する処理フローの一例を示すフローチャートである。 図16Aは、参考例のコントローラの機能ブロックを示す機能ブロック図である。 図16Bは、フレームt-1の画像を示す模式図である。 図16Cは、フレームtの画像を示す模式図である。 図16Dは、特定対象物の移動方向を模式的に示す図である。 図16Eは、速度を検出するための参考例のアルゴリズムの処理フローを例示するフローチャートである。 図17は、多重露光撮像データを用いて速度および加速度を検出するコントローラ500の機能ブロックを示す機能ブロック図である。 図18は、速度および加速度を検出するための、コントローラ500に実装されるアルゴリズムの処理フローを示すフローチャートである。 図19Aは、多重露光撮像データが示す画像の一例を示す模式図である。 図19Bは、一連の車両の像を含む多重露光画像の一例を示す模式図である。 図19Cは、車両のある点におけるベクトルv(i,j)の総和を表す移動量ベクトルv(i,j)を示す模式図である。 図20は、多重露光撮像データを用いて速度および加速度を検出するコントローラ500の機能ブロックのバリエーションを示す機能ブロック図である。 図21Aは、検出装置1を搭載したドローンDが飛行している様子を示す模式図である。 図21Bは、取得される多重露光撮像データが示す画像の一例を示す模式図である。 図21Cは、取得される多重露光撮像データが示す画像の一例を示す模式図である。 図22Aは、検出装置2を搭載した自車両が、道路標識Sを撮像しながら走行している様子を示す模式図である。 図22Bは、取得される多重露光撮像データが示す画像の一例を示す模式図である。 図22Cは、取得される多重露光撮像データが示す画像の一例を示す模式図である。 図22Dは、取得される多重露光撮像データが示す画像の一例を示す模式図である。 図23Aは、検出装置2を搭載した自車両が、道路の白線を撮像しながら走行している様子を示す模式図である。 図23Bは、取得される多重露光撮像データが示す画像の一例を示す模式図である。 図24Aは、検出装置2を搭載した自車両が、電柱に貼り付けられた測定用専用マーカを撮像しながら走行している様子を示す模式図である。 図24Bは、取得される多重露光撮像データが示す画像の一例を示す模式図である。 図25は、多重露光撮像データに基づいて絶対速度を検出し、絶対速度に基づいて車両の制動および加速を制御する処理フローの一例を示すフローチャートである。 図26Aは、図24Aにおいて道路標識Sにより近い側を走行する車両によって取得される多重露光撮像データが示す画像の一例を示す模式図である。 図26Bは、図24Aにおいて道路標識Sからより遠い側を走行する車両によって取得される多重露光撮像データが示す画像の一例を示す模式図である。 図27は、多重露光撮像データに基づいて絶対速度および加速度を検出し、絶対速度および加速度に基づいて車両の制動および加速を制御する処理フローの一例を示すフローチャートである。 図28は、ECU800によって測定された車両速度をさらに用いて、車両の制動および加速を制御する処理フローの一例を示すフローチャートである。 図29は、多重露光撮像データに基づいて速度を検出し、さらに進行方向を検出して制動および加速の制御を行う処理フローの一例を示すフローチャートである。 図30Aは、通常の多重露光により取得される多重露光撮像データが示す画像の一例を示す模式図である。 図30Bは、通常の多重露光により取得される多重露光撮像データが示す画像の一例を示す模式図である。 図30Cは、前方を走行する車両と自車両の距離が小さい場合の、通常の多重露光により取得される多重露光撮像データが示す画像の一例を示す模式図である。 図30Dは、前方を走行する車両と自車両の距離が大きい場合の、通常の多重露光により取得される多重露光撮像データが示す画像の一例を示す模式図である。 図31は、多重露光撮像データに基づいて相対速度および加速度を検出し、さらに進行方向を検出して制動・加速の制御を行う処理フローの一例を示すフローチャートである。 図32は、ECU800によって測定される車両速度を用いて、制動・加速の制御を行う処理フローの一例を示すフローチャートである。 図33Aは、車両がカーブ路に進入したときの様子を示す模式図である。 図33Bは、車両がカーブ路に進入したときにカーブ路の外側を撮像して取得される多重露光撮像データが示す画像の一例を示す模式図である。 図33Cは、カーブ路の内側を撮像して取得される多重露光撮像データが示す画像の一例を示す模式図である。
まず、本願発明者が考察した従来技術の問題点を説明する。
従来、車両の速度は、一般に車輪の回転数に比例したパルス信号に基づいて測定される。しかし、車輪のタイヤの摩耗や測定環境により、その測定誤差または不確かさは一定ではなかった。例えば、凍結路を右折または左折するときにタイヤがスリップしたり、ブレーキ制動時に車輪がロックしたりする可能性がある。そのような状態において、パルス信号に基づいて車両速度を正確に測定することは困難である。今後、より一層の進展が望まれる先進運転支援システム(ADAS)および自動運転車などにおいては、走行制御に必要な情報を正しく取得してその制御を瞬時に行うことが要求される。
このような課題に鑑み、本願発明者は、新規な検出装置に想到した。本開示の一態様の概要は以下の項目に記載のとおりである。
〔項目1〕
移動体に設置され、第1のフレーム期間に対象物を複数回撮像して、第1の撮像データおよび第2の撮像データを含む多重露光撮像データを生成する撮像装置と、
前記多重露光撮像データに含まれる前記第1の撮像データおよび前記第2の撮像データに基づいて、前記対象物を基準とした前記移動体の相対的な運動状態を検出する検出装置と、
を備え、
前記撮像装置は、前記第1のフレーム期間内の第1露光期間に第1の感度で前記対象物を撮像して前記第1の撮像データを生成し、前記第1期間とは異なる前記第1のフレーム期間内の第2露光期間に、前記第1の感度とは異なる第2の感度で前記対象物を撮像して前記第2の撮像データを生成する、
運転制御システム。
〔項目2〕
第1の制御装置を備え、
前記第1の制御装置は、検出した前記移動体の相対的な運動状態に基づいて、前記移動体の運動状態を変化させるための信号を生成する、項目1に記載の運転制御システム。
〔項目3〕
第2の制御装置を備え、
前記第2の制御装置は、前記信号に基づいて前記移動体の運動状態を変化させる、項目2に記載の運転制御システム。
〔項目4〕
第1の制御装置を備え、
前記対象物は、他の移動体に固定されており、
前記第1の制御装置は、検出した前記移動体の相対的な運動状態に基づいて、前記他の移動体の運動状態を変化させるための信号を生成する、項目1に記載の運転制御システム。
〔項目5〕
第2の制御装置を備え、
前記第2の制御装置は、前記信号に基づいて前記他の移動体の運動状態を変化させる、項目4に記載の運転制御システム。
〔項目6〕
前記移動体は車両である、項目1から5のいずれか1項に記載の運転制御システム。
〔項目7〕
前記対象物は地面に対して静止しており、
前記検出装置は、前記移動体の絶対速度を検出する、項目1から6のいずれか1項に記載の運転制御システム。
〔項目8〕
前記対象物は地面に対して静止しており、
前記検出装置は、前記第1の撮像データに基づいて前記移動体と前記対象物との距離を検出し、前記対象物の位置情報と検出された前記距離とに基づいて、前記移動体の位置情報を生成する、項目1に記載の運転制御システム。
〔項目9〕
前記第1の撮像データは、前記第1のフレーム期間内の最初の撮像により生成され、
前記第2の撮像データは、前記第1のフレーム期間内の最後の撮像により生成される、項目1から8のいずれか1項に記載の運転制御システム。
〔項目10〕
前記多重露光撮像データに含まれる複数の撮像データのうち、少なくとも前記第2の撮像データを除く他の撮像データは、前記第1の感度で前記対象物を撮像することにより生成される、項目1から9のいずれか1項に記載の運転制御システム。
〔項目11〕
前記多重露光撮像データに含まれる複数の撮像データのうち、少なくとも前記第1の撮像データを除く他の撮像データは、前記第2の感度で前記対象物を撮像することにより生成される、項目1から9のいずれか1項に記載の運転制御システム。
〔項目12〕
前記検出装置は、前記第1の撮像データおよび前記第2の撮像データに基づいて、前記対象物を基準とした前記移動体の進行方向を検出する、項目1から11のいずれか1項に記載の運転制御システム。
〔項目13〕
前記検出装置は、前記第1の撮像データおよび前記第2の撮像データに基づいて、前記対象物を基準とした前記移動体の相対速度を検出する、項目1から12のいずれか1項に記載の運転制御システム。
〔項目14〕
前記検出装置は、前記第1の撮像データおよび前記第2の撮像データに基づいて、前記対象物を基準とした前記移動体の加速度を検出する、項目1から13のいずれか1項に記載の運転制御システム。
〔項目15〕
前記検出装置は、前記第1の撮像データおよび前記第2の撮像データに基づいて、前記対象物を基準とした前記移動体の進行方向を検出する第1モードと、前記対象物を基準とした前記移動体の相対速度を検出する第1モードとを、所定の期間毎に切り替える、項目1から14のいずれか1項に記載の運転制御システム。
〔項目16〕
制御装置を備え、
前記対象物は他の移動体に固定されており、
前記検出装置は、前記第1の撮像データおよび前記第2の撮像データに基づいて、前記移動体と前記対象物との距離の変化を検出し、
前記制御装置は、前記距離が所定の値よりも小さくなっていることが検出された場合、
前記距離が大きくなるように前記移動体または前記他の移動体の運動状態を変化させるための信号を生成する、項目1に記載の運転制御システム。
〔項目17〕
制御装置を備え、
前記対象物は他の移動体に固定されており、
前記検出装置は、前記第1の撮像データおよび前記第2の撮像データに基づいて、前記移動体と前記対象物との距離の変化を検出し、
前記距離が所定の値よりも大きくなっていることが検出された場合、前記距離が小さくなるように前記移動体または前記他の移動体の運動状態を変化させるための信号を生成する、項目1に記載の運転制御システム。
〔項目18〕
前記検出装置は、前記第1の撮像データおよび前記第2の撮像データが示す前記対象物の各像の特徴点に基づいて、前記対象物を基準とした前記移動体の相対的な運動状態を検出する、項目1から17のいずれか1項に記載の運転制御システム。
〔項目19〕
前記第1の制御装置と前記第2の制御装置とは、共通の制御装置である、項目3または項目5に記載の運転制御システム。
〔項目20〕
移動体に設置された撮像装置を用いて、第1のフレーム期間内の第1露光期間に第1の感度で対象物を撮像して第1の撮像データを生成し、前記第1期間とは異なる前記第1のフレーム期間内の第2露光期間に、前記第1の感度とは異なる第2の感度で前記対象物を撮像して第2の撮像データを生成することにより、前記第1の撮像データと前記第2の撮像データとを含む多重露光撮像データを生成し、
前記多重露光撮像データに含まれる前記第1の撮像データおよび前記第2の撮像データに基づいて、前記対象物を基準とした前記移動体の相対的な運動状態を検出し、
検出した前記移動体の相対的な運動状態に基づいて、移動体または前記対象物の運動状態を変化させるための信号を生成し、
生成した前記信号に基づいて前記移動体の運動状態を変化させる、
運転制御方法。
〔項目21〕
移動体に設置された撮像装置を用いて、第1のフレーム期間内の第1露光期間に第1の感度で他の移動体に固定された対象物を撮像して第1の撮像データを生成し、前記第1期間とは異なる前記第1のフレーム期間内の第2露光期間に、前記第1の感度とは異なる第2の感度で前記対象物を撮像して第2の撮像データを生成することにより、前記第1の撮像データと前記第2の撮像データとを含む多重露光撮像データを生成し、
前記多重露光撮像データに含まれる前記第1の撮像データおよび前記第2の撮像データに基づいて、前記対象物を基準とした前記移動体の相対的な運動状態を検出し、
検出した前記移動体の相対的な運動状態に基づいて、移動体または前記対象物の運動状態を変化させるための信号を生成し、
生成した前記信号に基づいて前記他の移動体の運動状態を変化させる、
運転制御方法。
本開示の一態様によれば、移動体、例えば車両または飛行体の運動状態または周辺状態を把握するために、1つのフレーム期間に複数回撮像して得られる多重露光撮像データを用いる。そのため、フレーム期間毎に1つの撮像データを取得し、得られた複数の撮像データを用いて運動状態を検出する場合に比べて、例えば車両の速度および進行方向を決定するために行う演算量を大幅に削減することができる。
複数の撮像データを用いて対象物の運動状態を検出する場合、検出間隔はイメージセンサの読み出し速度に律速される。これに対し多重露光撮像データは、複数の撮像データを重畳して含む。そのため、本開示では、対象物の検出間隔は、多重露光の露光間隔によって規定される。よって、本開示によれば、測定速度を大幅に向上でき、かつ、測定精度を改善することができる。また、本開示によれば、検出間隔が小さいためその間の対象物の移動量も小さく、対象物の運動状態をより細かく検出することができる。よって、対象物の運動状態を検出結果から予測する場合、予測確率の向上が期待できる、さらに、1つの多重露光撮像データを用いて運動状態を検出するため、画像上において検出に必要な演算領域を絞り込むことができ、演算量を削減できる。
以下、図面を参照しながら、本開示の実施形態を詳細に説明する。なお、以下で説明する実施形態は、いずれも包括的または具体的な例を示す。以下の実施形態で示される数値、形状、材料、構成要素、構成要素の配置および接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。本明細書において説明される種々の態様は、矛盾が生じない限り互いに組み合わせることが可能である。また、以下の実施形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。以下の説明において、実質的に同じ機能を有する構成要素は共通の参照符号で示し、説明を省略することがある。
本開示は、移動体の相対的な進行方向、移動体の速度または加速度を主として検出する技術に関する。移動体の相対的な進行方向とは、例えば、他の移動体を基準とした移動体の相対的な進行方向または静止体を基準とした移動体の進行方向を意味する。また、移動体の相対的な速度および加速度は、他の移動体を基準とした移動体の相対的な速度および加速度を意味する。
本開示は、さらに、移動体の絶対的な進行方向、移動体の速度および加速度を主として検出する技術に関する。移動体の絶対的な進行方向とは、例えば、移動体自身の絶対的な進行方向を意味する。また、移動体の絶対的な速度および加速度は、移動体自身の絶対的な速度および加速度を意味する。
本明細書では、上記した進行方向、速度、および加速度を含む移動体の運動の状態を総称して、移動体の運動状態と呼ぶことがある。
本明細書において、移動体は、移動するあらゆる物体を指す。例えば、移動体は、人、車両、産業制御機器、自立ロボットおよび飛行体を含む。車両は、例えば自動車、自動二輪車、および電車である。飛行体は、例えば飛行船およびマルチコプターである。マルチコプターは、例えばドローンであり、有人であるか無人であるかを問わない。
(第1の実施形態)
<1.1.車両走行制御システム1000および検出装置1の構成>
図1は、検出装置1を備える車両走行制御システム1000のブロック構成例を示す。
本実施形態による検出装置1は、車両に搭載される装置であり、車両の相対的な進行方向を主に検出する。車両は、例えば自動車である。検出装置1は、例えば車両の前方および後方の少なくとも一方に配置され得る。これにより、車両の前方および後方の少なくとも一方の広範囲にわたって対象物を撮像することが可能になる。
検出装置1は、バスを介して、例えば距離測定部600、進行方向測定部700および電子制御ユニット800と通信可能に接続され得る。以下、電子制御ユニットを「ECU」と表記する。構成要素間の通信は、有線または無線で行われる。例えば、車載ネットワークであるCAN(Controller Area Network)を用いた通信が可能である。これにより、ECU800を核とした車両走行制御システム1000が構築される。車両走行制御システム1000は、例えば自動車に好適に搭載される。さらに、車両走行制御システム1000は、自車両およびその周辺を走行する周辺車両を含む複数の車両によって構築され得る。なお、車両走行制御システム1000において、後述するように、距離測定部600および進行方向測定部700は必須ではない。
検出装置1は、撮像装置100、光学系200、イメージシグナルプロセッサ300、画像送信インタフェース400、および、制御装置500を備える。以下、制御装置をコントローラと表記し、イメージシグナルプロセッサを「ISP」と表記する。
撮像装置100は、例えばCMOS(ComplementaryMetalOxideSemiconductor)型イメージセンサである。撮像装置100は被写体の多重露光撮像データを取得することができる。撮像装置100の詳細は後述する。撮像装置100は、典型的には自車両に搭載される。
光学系200は、フォーカスレンズおよびズームレンズなどから構成される周知のレンズ群を有する。レンズ群において、例えばフォーカスレンズは光軸方向に移動する。これにより、撮像装置100における被写体像の合焦位置を調整することが可能となる。
ISP300は、撮像装置100から出力される撮像データを画像処理するためのプロセッサである。ISP300は、まず、撮像装置100からの出力データを受け取る。撮像装置100からの出力データは、例えば未圧縮・未加工のRAWデータである。ISP300は、撮像装置100からの出力データに対して、例えばガンマ補正、色補間処理、空間補間処理、およびオートホワイトバランスの処理を行うことができる。
画像送信インタフェース400は、多重露光撮像データ等を外部に出力するためのインタフェース(IF)である。画像送信インタフェース400の外部とは、例えばECU800である。例えば、画像送信インタフェース400は、CANを介してECU800と通信することができる。なお、多重露光撮像データ等は、RAWデータのまま出力されてもよいし、画像圧縮または所定の画像処理を行った上で規定のフォーマットに従い出力されてもよい。
コントローラ500は、検出装置1全体を制御する制御回路であり、かつ、演算処理装置として機能する。コントローラ500は、ISP300からの多重露光撮像データを処理することができる。コントローラ500は、例えば、多重露光撮像データに基づいて車両の相対的な進行方向および相対速度を検出することができる。コントローラ500は、自車両またはその周辺を走行する周辺車両に搭載され得る。
コントローラ500は例えば、電圧制御回路511を有する出力インタフェース510、入力インタフェース520、プログラムメモリ530、ワーキングメモリ540およびマイクロコントローラ550を備える。
入力インタフェース520は、ISP300から出力される多重露光撮像データを受け取るインタフェースである。
マイクロコントローラ550は、プログラムメモリに予め格納されたプログラムを一旦ワーキングメモリに展開し、その命令群に従って各種の動作を行う。プログラムメモリは、例えばROMであり、ワーキングメモリは、例えばRAMである。プログラムメモリに格納されたプログラムは、例えば撮像装置100を制御するための命令群を有する。
出力インタフェース510は、撮像装置100に制御信号を出力するためのインタフェースである。出力インタフェース510は電圧制御回路511を含む。例えば、電圧制御回路511は、撮像装置100の画素内の光電変換層に印加する所望の電圧を生成する。電圧制御回路511は、後に図5を用いて説明する透明電極109Aに、その電圧を供給する。電圧制御回路511は、例えば、撮像装置100のグローバルシャッタを制御することが可能である。なお、本開示は、電圧制御回路511以外に、撮像装置100のグローバルシャッタを実現し得る他のあらゆる構成を採用し得る。
なお、コントローラ500の構成等は、本開示の本質的部分ではないので、その詳細な説明は省略することとする。
図2は、検出装置1の他のブロック構成例を示す。
図1の構成例では、ISP300は撮像装置100とは別チップであり、撮像装置100に外付けされる。一方、図2の構成例では、撮像装置100およびISP300は同一のチップ内に実装される。本構成例によれば、撮像データをより高速に処理することができ、かつ、ハードウェアのコストを下げることができる。
図3は、撮像装置100の構成例を示す。
撮像装置100は、2次元に配列された複数の単位画素101から構成される画素アレイを備える。なお、実際には、数百万個の単位画素101が2次元に配列され得るが、図3は、そのうちの2×2の行列状に配置された単位画素101に着目してその様子を示す。
撮像装置100は、複数の単位画素101と、行走査回路102と、列走査回路103と、列毎に設けられた電流源104と、AD(アナログデジタル)変換回路105と、を含む。水平信号線107が行毎に設けられ、垂直信号線108が列毎に設けられている。各単位画素101は、水平信号線107を介して行走査回路102に電気的に接続され、垂直信号線108を介して列走査回路103に電気的に接続される。
全ての単位画素101には、例えば共通の電源線106が接続される。共通の電源線106を介して全ての単位画素101に共通の電圧が供給される。単位画素101において光電変換された光信号に基づく画素信号はアナログ信号であり、AD変換回路105によってデジタル信号に変換される。デジタル信号に変換された信号は、列走査回路103から出力信号として出力される。この構成において、複数の単位画素101の間で露光の開始および終了のタイミングが共通する場合には、グローバルシャッタ機能が実現される。ただし、本開示において、複数の単位画素101のうちの少なくとも2つの単位画素101における露光の開始および終了のタイミングが共通していればよい。AD変換回路105は列毎に設ける必要はなく、画素信号をアナログ信号のまま出力しても構わない。複数の単位画素101からの画素信号は、加算または減算されて、演算後の値が列走査回路103から出力され得る。または、複数の単位画素101からの画素信号はそのまま、列走査回路103から出力され得る。
図4Aは、単位画素101の構成例を示す。図5は、半導体基板109Dの法線方向に沿った、単位画素101の断面を模式的に示す。
図4Aに示される単位画素101は、光電変換部109と、フローティングディフュージョンと、増幅トランジスタM1と、選択トランジスタM2と、リセットトランジスタM3と、を備える。以下、フローティングディフュージョンを「FD」と表記する。光電変換部109は、入射光を光電変換する。FDは、電荷を蓄積する。増幅トランジスタM1は、FDに蓄積された電荷を増幅する。選択トランジスタM2は、増幅した信号を垂直信号線108に出力するかどうかを選択する。リセットトランジスタM3は、FDを所望のリセット電位Vrstにリセットする。本明細書において、増幅トランジスタM1、選択トランジスタM2およびリセットトランジスタM3などで構成される回路を「信号処理回路」と呼ぶ。信号処理回路は、光電変換部109に電気的に接続され、電気信号を検出する。
単位画素101の光電変換部109は、透明電極109Aと、画素電極109Bと、透明電極109Aと画素電極109Bとの間に配置される光電変換膜109Cと、を有する。画素電極109Bは、信号処理回路に電気的に接続される。FDは半導体基板109D中に設けられており、コンタクトプラグ109Eを介して画素電極109Bに電気的に接続される。光電変換膜109Cの透明電極109A側から光が光電変換膜109Cに入射する。透明電極109Aと画素電極109Bとの間にバイアス電圧が印加されると、電界が生じる。光電変換によって生じる正および負の電荷のうちの一方が画素電極109Bによって収集されてFDに蓄積される。
透明電極109Aと画素電極109Bとの間の電位差は、上述の電源線106を介して制御される。例えば、透明電極109Aと画素電極109Bとの電位差が大きい状態から小さい状態に変化させることで、光電変換膜109Cで光電変換される電荷の量を減少させることができる。あるいは電位差を調整することにより、光電変換膜109Cで光電変換される電荷の量をゼロにすることもできる。
本構成の場合、光電変換膜109Cに印加するバイアス電圧の大きさを制御するだけで、単位画素101における電荷の発生および蓄積を制御することができる。すなわち、従来のように各単位画素に、電荷転送トランジスタおよび転送された電荷を蓄積するための容量などの素子を追加しなくてもよい。バイアス電圧の制御は、例えばコントローラ500の電圧制御回路511によってなされる。複数の単位画素101のうち、2つ以上において、バイアス電圧の制御を同時に行うことにより、それら2つ以上の単位画素の間においてシャッタを同時に切ることが可能である。つまり、それらの単位画素の間でグローバルシャッタが実現される。全ての単位画素101の間でグローバルシャッタを実現してもよい。あるいは、特定の撮像領域にある単位画素101の間でまたは特定の単位画素101の間でグローバルシャッタを実現してもよい。さらに、何段階かに分けてシャッタを切っても構わない。
FDに既に信号電荷が蓄積された状態で、透明電極109Aおよび画素電極109B間の電圧を小さくすると、FDへの電荷の蓄積が停止する。その後、透明電極109Aおよび画素電極109B間の電圧を大きくすると、FDに信号電荷をさらに蓄積することが可能になる。これにより、1フレーム期間内において異なる複数のタイミングでバイアス電圧を制御することによって、1フレーム期間において複数の撮像データを取得することができる。すなわち、複数の撮像データが多重化された多重露光撮像データを、1つのフレーム期間で取得することが可能である。
従来の撮像素子であれば、複数の撮像データは、異なるフレーム期間毎に取得される複数のデータ群として取り扱う必要があった。本開示によれば、多重露光撮像データを1つのデータとして取り扱うことができる。そのため、本開示は、データ量を削減することができる点、および、後段回路におけるデータ処理の負荷を低減させることができる点で優位性を持つ。
さらに、撮像装置100が多重露光撮像データを生成するとき、1つのフレーム期間内の複数のタイミングのそれぞれにおいて、互いに異なるバイアス電圧を電極間に印加してもよい。これにより、互いに感度の異なる複数の撮像データを含む多重露光撮像データを取得することができる。本明細書において、このような多重露光を「感度変調による多重露光」と呼ぶことがある。
従来の撮像素子では、単位画素に印加する電圧を制御して感度を変調させることは不可能であった。本開示は、バイアス電圧の大きさを制御することにより感度を変調させることができる点で優位性を持つ。なお、上述した、感度変調による多重露光の詳細な説明は、本出願人による例えば特開2007-104113号公報に記載されているので、本明細書では省略することとする。これらの開示内容の全てを参考のために本明細書に援用する。
図4Bは、単位画素101の他の構成例を示す。
図4Bの単位画素101は、光電変換部としてフォトダイオード(以下、PDと呼ぶ)を備える。本構成例の単位画素101は、典型的には、PDで発生した電荷をFDに転送するための電荷転送トランジスタM4をさらに備える。このように、PDを有する単位画素から構成されたイメージセンサを撮像装置100として利用してもよい。図4Bでは電荷転送トランジスタM4を設ける構成を示したが、電荷転送トランジスタM4を設けない構成としてもよい。
再度、図1および2を参照する。
ISP300または撮像装置100’で処理されたデータは、多重露光撮像データとして読み出され、画像送信インタフェース400およびコントローラ500に出力される。なお、撮像装置100は、多重露光撮像データに加え、当然ながら、単一露光による撮像データを生成してもよい。
距離測定部600は、自車両と対象物との間の距離を測定することができる。距離測定部600は、例えばTOF(Time of Flight)センサ、レーザーレーダーおよびソナーなどの装置によって実現され得る。
進行方向測定部700は、対象物に対する自車両の相対的な進行方向を測定することができる。対象物に対する自車両の相対的な進行方向とは、例えば対象物に対する自車両の位置関係およびその変化の向きである。進行方向測定部700は、例えばTOF、レーザーレーダーおよびソナーなどの装置によって実現され得る。対象物は移動体であってもよく、静止体であってもよい。
上述したとおり、距離測定部600および進行方向測定部700は必須ではない。後述するように、多重露光撮像データを解析することにより、距離および相対的な進行方向といった情報を取得することができる。データ解析によってこれらの情報を取得することより、車両走行制御システム1000のハードウェアの数を低減することができる。その結果、車両走行制御システム1000は、簡素化および最適化され得る。当然ながら、制御の種類に応じて、装置およびデータ解析による距離の検出を使い分けるようにしてもよい。
ECU800は、車載ネットワークの核をなし、エンジン制御、並びに、制動、操舵および加速などの様々な車両の制御を行うユニットである。例えば、ECU800は、検出装置1からの出力に基づいて、車両の制動および加速を制御することができる。また、ECU800は、検出装置1の各種の演算を行うことができる。
<1.2.撮像装置100の基本的動作>
先ず、図6Aおよび図6Bを参照して、撮像装置100の基本的動作を説明する。
図6Aは、単位フレーム期間における多重露光の典型的な動作タイミングを示す。図6Bは、多重露光撮像データが示す画像の一例を示す。図6Aにおいて、VDは、単位フレーム期間の開始パルスを示す。2つの開始パルスの間の期間が単位フレーム期間に相当する。制御信号V2は単位画素101の光電変換膜109Cに印加されるバイアス電圧を示す。
1フレーム期間の多重露光によって取得される複数の撮像データは、電圧制御回路511で生成される制御信号V2のレベルに応じて取得される。制御信号V2がHiである期間は、露光期間であり、制御信号V2がLowである期間は、非露光期間である。露光期間においては、光電変換膜109Cにおいて光電変換によって生成した電荷が、画素電極109Bに移動する。一方、非露光期間においては、光電変換膜109Cにおいて光電変換によって生成した電荷が再結合し、消滅する。
本実施形態による撮像装置100は、露光期間、露光回数および感度を変えることができる。具体的に、電圧制御回路511は、単位フレーム期間における、制御信号V2のパルス幅およびパルスの振幅を変えることにより露光を制御することができる。
図6Aには、単位フレーム期間に4回以上の露光を、感度を変えずに実施する例を示している。ただし、単位フレーム期間における露光の回数は2回以上であればよい。撮像装置100は、各露光により取得された複数の撮像データ(第1、第2、・・・、第nの撮像データ、nは2以上の整数)を含む多重露光撮像データを生成する。従って、多重露光撮像データは、少なくとも第1および第2の撮像データを含む。第1の撮像データは第1の露光期間に取得され、第2の撮像データは第2の露光期間に取得される。本明細書において、各露光期間の間で画素の感度を変えずに行う多重露光を「通常の多重露光」と呼ぶ場合がある。通常の多重露光によれば、例えば静止体を撮像した場合、被写体は、各露光期間において、例えば図3に示される画素アレイにおける同一の複数の単位画素101によって撮像されることとなる。これに対し、移動体を撮像した場合、その被写体は、各露光期間において異なる複数の単位画素101によって撮像されることとなる。ここで、「各露光期間において異なる複数の単位画素101によって撮像される」とは、例えば、第1の露光期間において被写体を撮像した複数の単位画素101と、第2の露光期間において被写体を撮像した複数の単位画素101とが、一部あるいは全部が一致しないことを指す。その結果、例えば4回以上の露光によって取得された撮像データは、独立な、または一部が重なり合う4つ以上の像として1つの多重露光撮像データに含まれる。図6Bには、自車両の前方を走行している車両のナンバープレートを、単位フレーム期間に互いに異なるタイミングで4回撮像して得られる多重露光撮像データが示す画像の一例を示している。
次に、図7Aから図7Dを参照して、撮像装置100の応用的な動作を説明する。
図7Aは、単位フレーム期間における多重露光の応用的な動作タイミングの例を示す。図7Bは、応用例による多重露光撮像データが示す画像の一例を示す。図7Cは、単位フレーム期間における多重露光の応用的な動作タイミングの他の例を示す。図7Dは、応用例による多重露光撮像データが示す画像の他の一例を示す。
この応用例では、各露光の間で制御信号V2のレベルを変更することにより、感度変調による多重露光が実施される。そのため、2つの露光期間の間で感度および露光量が異なる。制御信号V2のレベルの変更は、例えばパルスの振幅を変更することにより行われる。図7Aには、単位フレーム期間に感度がそれぞれ異なる4回以上の多重露光を実施する例を示している。制御信号V2は、露光毎にレベルが異なる電圧に設定される。制御信号V2のレベルは、図7Aに示されるような単調増加であってもよい。あるいは、制御信号V2のレベルは、図7Cに示されるような単調減少であってもよい。制御信号V2のレベルの変化が、例えば図7Aに示されるような単調増加であった場合、第1の露光期間に取得された第1の撮像データの明度が最も低く、第4の露光期間に取得された第4の撮像データの明度が最も高い。撮像装置100は、各露光により取得された感度の異なる複数の撮像データを含む多重露光撮像データを生成する。制御信号V2は任意に設定可能であり、検出目的に応じて様々なパターンを取り得る。例えば、制御信号V2のレベルは単調増加または単調減少である必要はなく、任意のパターンで増減させてもよい。
図7Bおよび図7Dは、自車両の前方を走行している車両のナンバープレートを、単位フレーム期間に4回撮像して得られる多重露光撮像データが示す画像の一例を示している。
本応用例では、多重露光撮像データにおいて、動きのある被写体を撮像した4つの像の間で明度が異なる。そのため、被写体の動きを時系列で確認することができる。本明細書では、明度は「共通の表示属性の程度」の一例である。共通の表示属性の程度は、明度以外に、例えば彩度および色相の程度であり得る。
図6B、図7Bおよび図7Dは、動きのある同じ被写体を撮像して得られた多重露光撮像データが示す画像の一例を示している。各露光の間で共通の表示属性の程度が全て同じである場合、図6Bに示される撮像データが取得される。各露光の間で共通の表示属性の程度が異なる場合、図7Bまたは図7Dに示される撮像データが取得される。図7Bでは、明度が高い像ほど、時系列で後に取得された被写体像であることを示している。また、図7Dでは明度が低い像ほど、時系列で後に取得された被写体像であることを示している。これは、後述するように、前方の走行車両を基準とした自車両の相対的な進行方向および相対的な速度を、多重露光撮像データに基づいて検出することが可能であることを意味する。自車両は、第1移動体の一例であり、前方の走行車両は第2移動体の一例である。
例えば図7Bでは、明度の高いナンバープレートの像ほど小さく表示されている。つまり、時系列で後に取得された像ほど小さくなっている。したがって、前方の走行車両に対し自車両は相対的に後進している、または、相対的に減速していると検出できる。同様に、例えば図7Dでは、明度の低いナンバープレートの像ほど小さく表示されている。つまり、時系列で後に取得された像ほど小さくなっている。したがって、前方の走行車両に対し自車両は相対的に後進している、または、相対的に減速していると検出できる。
また別の一例として、各露光の間で露光期間を異ならせることにより、感度を変調することできる。以下、その一例を説明する。
図8Aは、単位フレーム期間における多重露光の応用的な動作タイミングの例を示す。図8Bは、応用例による多重露光撮像データが示す画像の一例を示す。図8Cは、単位フレーム期間における多重露光の応用的な動作タイミングの他の例を示す。図8Dは、応用例による多重露光撮像データが示す画像の他の一例を示す。
この応用例では、第1の露光期間から第4の露光期間までの間で露光の長さが異なる。この応用例ではすべての露光期間の間で露光の長さが異なっているが、少なくとも2つの露光期間の長さが異なっていればよい。各露光の間で露光期間、すなわち、制御信号V2のパルス幅を変更することにより、感度が変調される。図8Bでは明度が高い像ほど、時系列で後に取得された像であることを示している。また、図8Dでは明度が低い像ほど、系列で後に取得された像であることを示している。
例えば図8Bでは、明度の高いナンバープレートの像ほど小さく表示されている。つまり、時系列で後に取得された像ほど小さくなっている。したがって、前方の走行車両に対し自車両は相対的に後進している、または、相対的に減速していると検出できる。同様に、例えば図8Dでは、明度の低いナンバープレートの像ほど小さく表示されている。つまり、時系列で後に取得された像ほど小さくなっている。したがって、前方の走行車両に対し自車両は相対的に後進している、または、相対的に減速していると検出できる。
次に、図9Aから図9Dを参照して、幾つかの撮像シーケンスの典型例を説明する。
図9Aから図9Dは、撮像シーケンスの典型例を示す。
図9Aおよび図9Bに示されるように、ある撮像シーケンスにおいて、進行方向を検知するためのフレーム期間にだけ感度変調を適用し、その期間に取得された多重露光撮像データに基づいて進行方向を検出してもよい。さらに、残りのフレーム期間においては、通常の多重露光撮像を行ってもよい。以下、進行方向を検知するためのフレームを「方向検知用フレーム」と表記する。
図9Cに示されるように、ある撮像シーケンスの各フレーム期間において感度変調を常に適用させて、各フレーム期間に取得された多重露光撮像データに基づいて進行方向を常に検出してもよい。また、図9Dに示されるように、ある撮像シーケンス中の複数のフレーム期間の中から、方向検知用フレーム期間を定期的に設定し、そのフレーム期間にだけ感度変調を適用し、その期間に取得された多重露光撮像データに基づいて進行方向を検出してもよい。また、上述した幾つかの撮像シーケンスの構成をコントローラ500の制御に従い、走行条件によって切替えながら撮像装置100を動作させても構わない。
ある撮像シーケンスにおいて、走行状態を検知するためのフレーム期間を設定し、その期間に取得された多重露光撮像データに基づいて速度を検出し、その速度に基づいて、残りのフレーム期間における多重露光撮像での露光間隔を制御してもよい。以下、走行状態を検知するためのフレームを「走行状態検知用フレーム」と表記する。走行状態検知用フレームは、ある撮像シーケンス中の複数のフレーム期間中に、定期的に設定されてもよい。車速に対し取得データが少なすぎると、検出装置1は、速度変化に正確に追従することが難しい。また、取得データが多すぎると計算量の増加、および、チップの消費電力の増加に繋がる。その結果、高速処理が困難になる。一方、上記のように撮像シーケンスにおいて走行状態検知用フレームを設定し、その測定結果をもとに以降の撮像の露光間隔を制御することで、取得するデータ量を適切な範囲に収めることができ、検出精度を維持できる。
<1.3.検出装置1の動作の具体例1>
図10から図12Cを参照して、検出装置1の動作の具体例1を説明する。
本実施形態による撮像装置100は、自車両のエンジンが始動すると同時に、撮像を開始する。撮像装置100は、他車両に含まれる特定対象物を撮像する。コントローラ500は、感度変調により撮像された特定対象物の第1の撮像データおよび第2の撮像データに基づいて、他車両を基準とした自車両の相対的な進行方向を検出することができる。特定対象物は、規格で寸法が定められている物体である。特定対象物は、例えば他車両のナンバープレート、または、他車両のヘッドライトおよびブレーキライトなどのランプである。
図10は、進行方向を検出するための処理フローの一例を示す。本明細書では、コントローラ500が各処理を実行して、自車両の相対的な進行方向若しくは相対速度またはその両方を検出する例を説明する。各処理の主体は、ECU800であってもよい。換言すると、ECU800が、検出装置1からの出力データに基づいて自車両の相対的な進行方向若しくは相対速度またはその両方を検出してもよい。
コントローラ500は、例えば公知の物体認識のアルゴリズムを用いて特定対象物の特徴を検出することができる。コントローラ500は、その特徴を検出すると、車両進行方向を検出するためのプログラムのブートを開始する。これにより、相対的な進行方向を検出するための処理に移行する(図10のスタートおよびステップS100)。
コントローラ500は、相対的な進行方向の検出を開始する(ステップS110)。コントローラ500は、例えば図9Aに示される撮像シーケンスにおいて、方向検知用フレームを設定する。
ここで、図6Aを参照して説明した通常の多重露光に従って多重露光撮像データを取得することを考える。例えば図6Bに示される多重露光撮像データにおいて、任意の2つの撮像データの間で、どちらが最初に取得された撮像データであるかの区別は付かない。これは、2つの撮像データの間で共通の表示属性の程度が同じことに起因している。図6Bに示される多重露光撮像データにおいて、共通の表示属性は明度である。すなわち、この多重露光撮像データに基づいて、前方の車両を基準とした自車両の相対的な進行方向を検出することは困難である。より具体的には、自車両が相対的に加速して前方車両までの距離が縮まっているのか、あるいは自車両が相対的に減速して他車両までの距離が広がっているのかを明確に判別することはできない。
撮像装置100は、例えば図7Aまたは図7Cに示されるように、単位フレーム期間内の複数の露光の間で制御信号V2のレベルを変えることにより、単位時間当たりの感度を異ならせて複数の撮像を行う。その結果共通の表示属性の程度が異なる複数の撮像データを含む多重露光撮像データを取得することができる。コントローラ500は、撮像装置100から出力される多重露光撮像データを受信する。コントローラ500は、その多重露光撮像データに基づいて共通の表示属性の程度の違いを測定し、2つの撮像データの間で、どちらが先に取得された撮像データであるかを判別することができる。このように、コントローラ500は、第1および第2の撮像データの各ナンバープレートの像の明度に基づいて相対的な進行方向を検出することができる(ステップS120)。
その後、コントローラ500は、撮像および進行方向検出を継続するかどうかを判定する(ステップS130)。撮像および進行方向検出を継続する場合、コントローラ500は、上述のフローを繰り返す。一方、撮像および進行方向検出を終了する場合、コントローラ500はフローを終了する。
図11Aおよび図12Aは、検出装置1を搭載した自車両Vが、前方の車両Wに追従して走行している様子を模式的に示す。図11B、図11C、図12Bおよび図12Cは、取得される多重露光撮像データが示す画像の一例を模式的に示す。
図11Aは、特定対象物がナンバープレートである例を示す。図7Aに示される駆動に従って、撮像装置100が車両Wのナンバープレートを撮像すると、図11Bに示される多重露光撮像データが取得される。この駆動によると、後に取得された撮像データほど、像の明度は高くなる。図11Bに示される多重露光撮像データにおいて、ナンバープレートの像は時系列で徐々に小さくなっている。コントローラ500は、ナンバープレートの像の明度および大きさの変化に基づいて相対的な進行方向を検出する。この例では、車両Wを基準とした自車両Vの相対的な進行方向は後方であることが分かる。これから、自車両Vの相対速度は減少していることがさらに分かる。
図11Cは、特定対象物がナンバープレートである別の例を示す。図7Cに示される駆動に従って、撮像装置100がナンバープレートを撮像すると、図11Cに示される多重露光撮像データが取得される。この駆動によると、後に取得された撮像データほど、像の明度は低くなる。図11Cに示される多重露光撮像データにおいて、ナンバープレートの像は時系列で徐々に小さくなっている。この例では、車両Wを基準とした自車両Vの相対的な進行方向は後方であることが分かる。これから、自車両Vの相対速度は減少していることがさらに分かる。
図12Aは、特定対象物がブレーキライトである例を示す。図7Aに示される駆動に従って、撮像装置100が車両Wのブレーキライトを撮像すると、図12Bに示される多重露光撮像データが取得される。この駆動によると、後に取得された撮像データほど、像の明度は高くなる。図12Bに示される多重露光撮像データにおいて、ブレーキライトの像は時系列に徐々に小さくなっている。このことから、車両Wを基準とした自車両Vの相対的な進行方向は後方であることが分かる。また、これから、自車両Vの相対速度は減少していることがさらに分かる。
図12Cは、特定対象物がブレーキライトである別の例を示す。図7Cに示される駆動に従って、撮像装置100がナンバープレートを撮像すると、図12Cに示される多重露光撮像データが取得される。この駆動によると、後に取得された撮像データほど、像の明度は低くなる。図12Cに示される多重露光撮像データにおいて、ブレーキライトの像は時系列で徐々に小さくなっている。このことから、車両Wを基準とした自車両Vの相対的な進行方向は後方であることが分かる。また、これから、自車両Vの相対速度は減少していることがさらに分かる。また、特定対象物としてブレーキライトを用いる場合には、多重露光撮像データにおける左右のブレーキライト間の間隔の大小を用いて、相対的な進行方向および相対速度を検出してもよい。
上述した例において、コントローラ500は、特定対象物の特徴を検出すると、進行方向の検出を開始したが、本開示はこれに限定されない。例えば、コントローラ500は、車両のエンジンがかかっている間は常に進行方向の検出を行ってもよい。または、コントローラ500は、ある一定の間隔で進行方向を検出してもよいし、高速道路への進入を起点にして進行方向の検出を開始してもよい。さらに、コントローラ500は、ギアが変更された等の内部制御情報の変化を起点にして進行方向を検出してもよい。
ナンバープレートおよびブレーキランプは特定対象物の一例である。特定対象物は、規格で寸法が決まっているあらゆる対象物であり得る。特定対象物は、例えば車両の速度を測定するために用いられる専用マーカであり得る。撮像装置100は、相対的な進行方向および相対速度を測定する場合、車両の前方または後方に設置することが好ましい。これにより、測定時の誤差を抑制することができる。また、撮像範囲の広い撮像装置100を、例えば車両のサイドミラーまたはヘッドライトに設置することにより、その配置が車両の形状およびデザインに与える影響を最小限に抑えることができる。撮像範囲が広いとは、例えば画角が広いことを意味する。
<1.4.検出装置の動作の具体例2>
図13Aから図13Cを参照して、検出装置1の動作の具体例2を説明する。
図13Aは、検出装置1を搭載した自車両が、道路標識Sを撮像しながら走行している様子を模式的に示す。図13Bおよび図13Cは、取得される多重露光撮像データに含まれる各撮像データが示す画像を模式的に示す。
本具体例では、検出装置1は、静止体を撮像して自車両の絶対的な進行方向を検出する。静止体は、例えば、道路に設置された道路標識Sである。道路標識Sは特定対象物として機能する。図7Aに示される駆動に従って、撮像装置100が道路標識Sを撮像すると、図13Bまたは図13Cに示される多重露光撮像データが取得される。この駆動によると、後に取得された撮像データほど、像の明度は高くなる。図13Bに示される多重露光撮像データにおいて、画像の右端、つまり車両の最後方の道路標識Sの像の明度が最も明るく、最前方の像が最も暗い。これは、自車両が前方方向に走行していることを意味する。
一方、図13Cに示される多重露光撮像データでは、画像の左端、つまり、車両の最前方の道路標識Sの像の明度が最も明るく、最後方の像が最も暗い。これは、自車両が後方に走行していることを意味する。
このように、検出装置1は、道路標識Sの多重露光撮像データに基づいて自車両の絶対的な進行方向を検出することができる。なお、この例において、道路標識Sの設置場所を考慮すると、撮像装置100は、車両側面に設置されることが望ましい。
<1.5.検出装置の動作の具体例3>
図14を参照して、検出装置1の動作の具体例3を説明する。
図14は、車両の相対的または絶対的な進行方向および速度を検出し、その検出結果に基づいて車両の制動および加速を制御する処理フローの一例を示す。
コントローラ500は、上述したような特定対象物の特徴を検出すると(ステップS200)、進行方向および速度を検出するための処理に移行する。
コントローラ500は、進行方向および速度の検出を開始する(ステップS210)。
コントローラ500は、例えば方向検知用フレームにおいて多重露光撮像データを取得する。コントローラ500は、図10に示される処理フローのステップS120と同様に、多重露光撮像データ中の第1および第2の撮像データのそれぞれの表示属性の程度を測定して進行方向を検出する(ステップS220)。
距離測定部600、例えばTOFは、例えばコントローラ500からの開始指示に応答して、自車両から特定対象物までの距離dを測定する。コントローラ500は、距離測定部600から距離dを受け取る(ステップ230)。
コントローラ500は、多重露光撮像データに含まれる第1および第2の撮像データが示す各特定対象物像の間隔m、自車両から他車両までの距離d、および、第1露光期間と第2露光期間との間の露光間隔tを用いて、速度を検出する(ステップS240)。特定対象物は、例えばナンバープレートである。自車両から他車両までの距離dは、正確には距離測定部600から他車両のナンバープレートまでの距離である。速度は、周辺を走行する車両を基準とした自車両の速度である。
多重露光撮像データに含まれる第1および第2の撮像データが示す各特定対象物像の間隔は、例えば各特定対象物像の特徴点の間隔で表わすことができる。特徴点は、例えば特定対象物のエッジである。コントローラ500は、例えば公知のエッジ検出手法を用いて特定対象物のエッジを検出することができる。コントローラ500は、撮像データ間における特定対象物のエッジの間隔lを演算する。
第1露光期間と第2露光期間との間の露光間隔tは、例えば図7Aに示される。図7Aにおける露光間隔tは、第1の露光期間の終了から第2の露光期間の終了までの期間に相当する。言い換えると、制御信号V2がHighからLowになる各タイミングの間隔に相当する。
例えば、通常の多重露光でナンバープレートを撮像した場合、ナンバープレートの像は車両の進行方向に沿って多重化される。そのため、その情報だけでは、自車両が周辺車両に近づいているのか、または、周辺車両から遠のいているのかを判別することができない。本具体例では、ステップS220において、自車両の進行方向を示す情報が得られる。したがって検出装置1は、自車両の速度の大きさおよびその向きを含む情報を得ることができる。すなわち、検出装置1は、自車両の正確な速度ベクトルを得ることが可能となる。
検出装置1は、進行方向および速度を示す情報を、画像送信IFを介してECU800に送信する。
ECU800は、検出装置1から受信した進行方向および速度を示す情報に基づいて、車両の制動および加速を制御する(ステップS250)。例えば自動運転のレベル0、1に相当する走行補助を想定した場合、ECU800は、例えば、周辺車両との間隔(距離d)が所定の閾値未満になると、または、速度が所定の閾値を超えると、制動の制御を行う。具体的には、例えば、前方を走行する他車両との距離が所定の値よりも小さくなっていることが検出された場合には、他車両との距離を広げるように自車両のブレーキを作動させてもよく、あるいは他車両のアクセルを作動させるように制御してもよい。また、例えば、前方を走行する他車両との距離が所定の値よりも大きくなっていることが検出された場合には、他車両との距離を縮めるように自車両のアクセルを作動させてもよく、あるいは他車両のブレーキを作動させるように制御してもよい。なお、自動運転のレベルは、日本政府によって定められた、レベル0からレベル4までの自動化の基準を意味する。例えば自動運転のレベル2から4に相当する自動運転または完全自動運転を想定した場合、ECU800は、例えば、自車両と周辺車両との距離d、撮像した道路標識の情報、道路交通情報および地図情報に基づいて制動の制御を行う。地図情報は、例えばGPS情報である。
車両走行制御システム1000によれば、進行方向および速度の検出結果に基づいて、自車両または他車両の走行を制御することができる。例えば、自車両において取得した検出結果を自車両の走行制御に用いることができる。または、自車両において取得した検出結果を他車両の走行制御に用いることができる。なお、ECU800は、検出装置1から受信した進行方向および速度を示す情報に基づいて、車両の制動および加速を制御するための信号を生成し外部に出力するようにしてもよい。この場合には、例えば自車両または他車両の自動運転制御装置がこの信号を受信して自車両または他車両の運転を制御してもよい。
コントローラ500は、撮像を継続するか否かを決定する(ステップS260)。例えば、コントローラ500は、エンジンがかかっている場合、撮像を継続すると決定し、エンジンが停止している場合、撮像の停止を決定する。コントローラ500が撮像を継続すると決定すると、処理は再びステップ200に戻る。
以上のように、検出装置1およびECU800を備える車両走行制御システム1000によれば、走行補助、自動運転および完全自動運転に対応した車両走行制御システムおよび当該車両走行制御システムを搭載した車両が提供される。
ステップS230において、距離測定部600が、自車両から対象物までの距離dを測定する例を説明したが、本開示はこの限りではない。コントローラ500は、多重露光撮像データを解析することによっても、距離dを算出することが可能である。
コントローラ500は、特定対象物の実際の大きさと、多重露光撮像データ中の特定対象物の大きさと、の比較結果に基づいて、自車両から他車両までの距離dを算出することができる。特定対象物の実際の大きさは、規格で予め決まっている。距離dにおける多重露光撮像データ中の特定対象物の大きさsは、規格、ならびに、撮像装置100および光学系200に関する各種パラメータに基づいて決定される。距離dと特定対象物の大きさsとの対応関係は、例えばプログラムメモリ530に予め格納され得る。コントローラ500は、例えばこの対応関係に基づいて自車両から他車両までの距離dを演算することができる。この構成によれば、距離測定部600は不要になるので、車両走行制御システム1000を簡素化でき、かつ、システムコストを下げることができる。また、本明細書ではすべての処理を時系列で行ったが、各々の処理の順番を変えたり、各々の処理を並列に行ったりすることも可能である。例えば、連続撮像と並行して、進行方向検出や速度検出を行うことが可能である。この時、撮像したデータはすべて利用されても構わないし、演算に必要な分のみ間引いて利用されても構わない。
<1.6.検出装置の動作の具体例4>
図15を参照して、検出装置1の動作の具体例4を説明する。
図15は、車両の進行方向、速度および加速度を検出し、その検出結果に基づいて車両の制動および加速を制御する処理フローの一例を示す。
図15に示される処理フローは、加速度を検出する処理を含む点で、図14に示される処理フローとは異なる。以下、その差異点を主として説明する。
コントローラ500は、図10に示される処理フローのステップS120と同様に、第1および第2の撮像データが示す対象物の像の表示属性の程度を測定して進行方向を検出する。さらに、コントローラ500は、第2および第3の撮像データが示す対象物の像の表示属性の程度を測定して進行方向を検出する(ステップS320)。第1から第3の撮像データは、時系列で連続した撮像データ群である。第1および第2の撮像データは典型的には、露光期間が隣り合う隣接した2つの撮像データの組であり、第2および第3の撮像データは典型的には、露光期間が隣り合う隣接した2つの撮像データの組である。ただし、2つの撮像データは、時系列で連続した2つの撮像データの組でなくてもよい。例えば、第1から第4の連続した撮像データのうちの、第1および第2の撮像データの組と、第2および第4の撮像データの組とを選択してもよい。
コントローラ500は、第1および第2の撮像データの組に基づいて、大きさおよび向きの情報を含む速度1を得る。ここで、速度は、速度ベクトルで表される。コントローラ500は、さらに、第2および第3の撮像データの組に基づいて速度2を得る。コントローラ500は、速度1および速度2の単位時間当たりの変化量を測定することにより加速度を演算する(ステップ340)。
検出装置1は、進行方向、速度1、2および加速度を示す情報を、画像送信IFを介してECU800に送信する。
ECU800は、検出装置1から受信した、進行方向、速度1、2および加速度を示す情報のうちの少なくとも1つに基づいて、車両の制動および加速を制御することが可能である。
本具体例によれば、測定された速度および加速度を用いて車両の制動および加速を制御することができる。そのため、自車両の走行状態を連続的に把握することができ、その結果、より安全な制御が可能となる。
図16Aから図20を参照して、車両の速度および加速度を検出するためのより詳細なアルゴリズムを説明する。本開示のアルゴリズムを説明する前に、参考例のアルゴリズムを説明する。
図16Aは、参考例におけるコントローラの機能ブロックを示す。図16Bは、フレームt-1の画像を模式的に示す。図16Cは、フレームt-1に続くフレームtの画像を模式的に示す。図16Dは、フレームt-1およびフレームtの各撮像データから求められる特定対象物の動きを模式的に示す。
参考例のコントローラは、少なくとも2つのフレームメモリ51A、51B、動きベクトル検出部52、オブジェクト検出部53、および速度検出部54を備える。速度を検出するためのアルゴリズムは、例えば、マイクロコントローラおよびソフトウェアの組み合わせによって実現される。図16Aに示す機能ブロックにおける各ブロックは、ハードウェア単位ではなく機能ブロック単位で示している。フレームt-1およびフレームtのそれぞれに対応する撮像データが撮像装置50から出力される。フレームt-1に対応する撮像データは、フレームメモリ51Aに一旦保持される。フレームtに対応する撮像データは、51Bに一旦保持される。
動きベクトル検出部52は、フレームtに対応する撮像データをフレームメモリ51Aから読み出し、フレームt-1に対応する撮像データをフレームメモリ51Bから読み出す。また、動きベクトル検出部52は、各撮像データの値を画素ごとに比較し、各撮像データの値に差がある画素群を特定する。さらに、動きベクトル検出部52は、特定した画素群に基づいて、特定対象物の動きを示す動きベクトル信号を生成する。
具体的には図16Dに示すように、2つの撮像データを比較することにより、画像上における特定対象物の移動方向および移動量を検出する。
オブジェクト検出部53は、フレームtに対応する撮像データをフレームメモリ51Aから読み出し、公知の物体認識のアルゴリズムを用いて特定対象物の特徴部を検出する。特定対象物は、速度検知のための画像解析に用いる対象物である。既に説明したように、特定対象物は、例えば、白線、標識などの路上マーク情報または他車のナンバープレートを指す。本明細書において、静止している特定対象物を固定物体と呼び、動いている特定対象物を運動物体と呼ぶことがある。オブジェクト検出部53は、形状検出またはエッジ検出などの一般的な検知手法を用いて、特定対象物の特徴部を検出する。
速度検出部54は、動きベクトル検出部52から出力される動きベクトル信号およびオブジェクト検出部53から出力される検出結果に基づいて、自車速度、他車速度および相対速度の少なくとも1つを算出する。動きベクトル信号が示す動きのある部分に特定対象物が存在する場合、速度検出部54は、その移動量を速度として検出する。例えば、速度検出部54は、先ず、画像における路上マーク情報の大きさおよびその移動量に基づいて自車の速度を算出する。次に、速度検出部54は、自車の速度、他車のナンバープレートの大きさおよびその移動量に基づいて自車の相対速度または他車の相対速度を算出する。
図16Eは、速度を検出するための参考例のアルゴリズムの処理フローを例示する。動きベクトル検出部52は、フレームtの撮像データとフレームt-1の撮像データとを用いて、フレームtの撮像データの予め設定した領域Rの全ての画素P(i,j)における動きベクトルv(i,j)を算出する(ステップS1010、1011)。オブジェクト検出部53は、フレームtの撮像データの領域Rにおいて、指定した特定対象物が存在するか否かを判定する(ステップS1012、1013)。検出した特定対象物の中に固定物体が存在する場合(ステップ1014においてYes)、速度検出部54は、固定物体の画像上の大きさおよび動きベクトルv(i、j)に基づいて自車の速度Vを算出する(ステップS1015)。自車の速度Vが算出された後、検出した特定対象物の中に運動物体が存在する場合(ステップ1016においてYes)、速度検出部54は、自車の速度V、運動物体の画像上の大きさおよび動きベクトルv(i、j)に基づいて、全ての運動物体の速度V2iを算出する(ステップS1017、1018)。
本参考例によれば、先ず、自車の速度Vを決定してから、運動物体の速度V2iを決定する。その後、自車の速度Vおよび運動物体の速度V2iに基づいて自車の相対速度または他車の相対速度を決定する。
次に、多重露光撮像データを用いて速度および加速度を検出するためのアルゴリズムを説明する。図17は、コントローラ500の機能ブロックを示す。図18は、速度および加速度を検出するためのアルゴリズムの処理フローを示す。図19Aは、多重露光撮像データの画像の一例である。
コントローラ500は、フレームメモリ910、双方向ベクトル算出部920、オブジェクト検出部930、および速度・加速度決定部940を備える。速度および加速度を検出するためのアルゴリズムは、例えば、図1に示すマイクロコントローラ550およびソフトウェアの組み合わせによって実現される。図17に示す機能ブロックにおける各ブロックは、ハードウェア単位ではなく機能ブロック単位で示している。ソフトウェアは、例えば、各機能ブロックに対応した特定の処理を実行させるためのコンピュータプログラムを構成するモジュールであり得る。そのようなコンピュータプログラムは、図1に示すプログラムメモリ530に格納され得る。マイクロコントローラ550は、プログラムメモリ530から命令を読み出して各処理を逐次実行することができる。
フレームメモリ910は、図1または図2に示すワーキングメモリ540に相当する。フレームメモリ910は、1フレーム分の画像データを保持できる容量を有していればよい。フレームメモリ910は、多重露光撮像データであるフレームtの撮像データを保持する。
双方向ベクトル算出部920は、フレームメモリ910からフレームtの撮像データを読み出す。また、双方向ベクトル算出部920は、フレームtの撮像データから特定対象物の特徴部を検出する。特定対象物がフレームtの期間内に動いている場合、フレームtの撮像データにおいて特定対象物の特徴部が複数個所で検出される。双方向ベクトル算出部920は、画像上における複数個所の特徴部の位置から特定対象物の動きを検出する。
図19Aは、双方向ベクトル算出部920によって算出された動きベクトルを示す。図19Aに示す動きベクトルは、方向が一意に定まらない。本明細書において、方向が一意に定まらない動きベクトルを「双方向ベクトルvbd(i,j)」と表記する。
図16Dに示すように、参考例によれば、時刻の異なる2つのフレームの撮像データを比較するため、特定対象物の特徴部は異なるフレームに存在し、動きベクトルの方向は一意に決定することができる。これに対し多重露光撮像データを用いた場合には、異なる時刻で取得された特定対象物の特徴部は同じ一つのフレーム内に存在する。そのため、動きベクトルの方向は一意に決定することができない。
図19Aに示す画像において、車両のある部分に着目すると、その部分に類似する像が近傍に2つ現れる。一連の像の位置から車両の移動軌跡を認識することはできるが、その両端の像が取得された時間の前後関係を決定することはできない。
多重露光撮像データを用いる場合には、一連の像の始点および終点を特定するために、撮像条件を異ならせる必要がある。例えば、最初の像を取得する時の露光時間をより長くしてもよい。これにより、最初の像の輝度を大きくすることができ、一連の像の始点を特定することができる。最終的に、双方向ベクトルvbd(i,j)およびその向きを取得することができる。
双方向ベクトル算出部920は、フレームtを用いて画素P(i,j)に対する双方向ベクトルvbd(i,j)を算出する(ステップS1110)。双方向ベクトル算出部920は、予め設定された領域R内の全ての画素P(i,j)について双方向ベクトルvbd(i,j)を算出する(ステップS1111)。オブジェクト検出部930は、フレームtの予め設定された領域Rに特定対象物が存在するか否かを例えばエッジ検出を用いて判定する(ステップS1120)。オブジェクト検出部930は、フレームtの撮像データをフレームメモリ910から読み出す。オブジェクト検出部930は、形状検出またはエッジ検出などの一般的な検知手法を用いて特定対象物の特徴部を検出する。
図19Bは、多重露光の最後の露光のみ感度を高くして撮像した多重露光画像データが示す画像である。図19Bにおいて、最後に取得された車両の像がNIである。最後に取得された車両の像の特徴部のエッジの輝度は、他の像の特徴部のエッジの輝度よりも高い。オブジェクト検出部930は、車両の像の特徴部のエッジの輝度を検知する。オブジェクト検出部930は、領域Rの全てにおいて特定対象物が存在するか否かを判定する(ステップS1121)。この判定において、固定物体および運動物体が領域Rに存在する場合、オブジェクト検出部930は、両方の存在を特定してもよい。また、複数の運動物体が領域Rに存在する場合、オブジェクト検出部930は、複数の運動物体の存在を特定してもよい。
オブジェクト検出部930が固定物体を検出した場合(ステップS1122のYes)、双方向ベクトル算出部920は、オブジェクト検出部930によって検出された特定対象物の特徴部の位置に基づいて、双方向ベクトルvbd(i,j)を算出する。さらに、双方向ベクトル算出部920は、特定対象物の特徴部のエッジの輝度を比較して、最後に取得された像を特定し、双方向ベクトルvbd(i,j)の向きを決定する。向きが一意に定まった双方向ベクトルvbd(i,j)をベクトルv(i,j)と表記する。
図19Cは、車両のナンバープレート上の1点に着目したときの動きベクトルを示す。破線のベクトルは、フレームにおける総移動量である全移動量ベクトルv(i,j)を表す。実線の各ベクトルは、多重露光における各露光間の移動量であるベクトルv(i,j)を表している。双方向ベクトル算出部920は、ベクトルv(i,j)の総和に基づいて全移動量ベクトルv(i,j)を算出する(ステップS1130)。双方向ベクトル算出部920は、全ての双方向ベクトルvbd(i,j)に対し全移動量ベクトルv(i,j)を算出する(ステップS1131)。双方向ベクトル算出部920は、固定物体の全移動量ベクトルv(i,j)を含む双方向ベクトル信号を速度・加速度決定部940に出力する。
速度・加速度決定部940は、双方向ベクトル算出部920からの双方向ベクトル信号およびオブジェクト検出部930からの検出結果に基づいて、車両の速度および加速度を算出する。速度・加速度決定部940は、画像内の固定物体の大きさおよび固定物体の全移動量ベクトルv(i,j)に基づいて自車速度Vを算出する。さらに、速度・加速度決定部940は、全移動量ベクトルv(i,j)に属するベクトルv(i,j)の変化量に基づいて自車加速度A1を算出する(ステップS1140)。
オブジェクト検出部930によって運動物体が検出された場合(ステップS1150においてYes)、双方向ベクトル算出部920は、オブジェクト検出部930による運動物体の検出結果に基づいて、検出した運動物体上の双方向ベクトルvbd(i,j)を辿り、それらの方向を決定したベクトルv(i,j)を算出する。さらに、双方向ベクトル算出部920は、ベクトルv(i,j)の総和から全移動量ベクトルv(i,j)を運動物体の動きベクトルとして算出する(ステップS1160)。双方向ベクトル算出部920は、全ての双方向ベクトルvbd(i,j)に対し全移動量ベクトルv(i,j)を算出する(ステップS1161)。双方向ベクトル算出部920は、運動物体の全移動量ベクトルv(i,j)をさらに含む双方向ベクトル信号を速度・加速度決定部940に出力する。
速度・加速度決定部940は、運動物体の動きの量に基づいて速度を検出する。より具体的には、速度・加速度決定部940は、双方向ベクトル算出部920からの双方向ベクトル信号およびオブジェクト検出部930からの検出結果に基づいて決定される運動物体の動きの量を用いて、車両の速度および加速度を算出する。速度・加速度決定部940は、自車加速度A1、画像内の運動物体の大きさおよび運動物体の全移動量ベクトルv(i,j)に基づいて運動物体速度V2i、つまり、他車の速度を算出する。さらに、速度・加速度決定部940は、運動物体の全移動量ベクトルv(i,j)に属するベクトルv(i,j)の変化量に基づいて他車の加速度A2iを算出する(ステップS1170)。速度・加速度決定部940は、オブジェクト検出部930によって検出された全ての運動物体に対し、運動物体速度V2iおよび移動体加速度A2iを算出する(ステップS1171)。
速度・加速度決定部940は、算出した自車速度Vおよび他車速度V2iに基づいて自車または他車の相対速度を求めることができる。また、速度・加速度決定部940は、算出した自車加速度A1、他車加速度A2iに基づいて自車または他車の相対加速度を求めることができる。
図20は、多重露光撮像データを用いて速度および加速度を検出するコントローラ500の機能ブロックの他の例を示す。図示するように、オブジェクト検出部930が特定対象物を検知する処理の後、双方向ベクトル算出部920が双方向ベクトル信号を生成する処理を実行してもよい。
このように、多重露光撮像データを用いて特定対象物の速度および加速度を検出することが可能となる。これにより、例えば、車両の制動や加速などの運転制御において、制御内容を決定するための演算量を大幅に削減できることが期待される。また、使用するフレームメモリの数を削減することができる。
参考例では、特定対象物の測定間隔は、イメージセンサの読み出し速度によって律速されていた。多重露光撮像データを用いた場合には、特定対象物の測定間隔は多重露光の各露光の間隔によって規定される。その結果、測定精度を向上させることが可能となる。また、特定対象物の移動量が小さいことからも測定精度の向上が期待される。さらに、速度検知に必要な演算領域を絞り込むことが可能となり、演算量を削減することができる。
また、本説明では、ベクトルv(i,j)の総和から全移動量ベクトルv(i,j)を運動物体の動きベクトルとして算出して速度を求めた。しかし、例えば、右左折、旋回をしている場合には、速度が著しく変化する。このような場合には、各々のベクトルv(i,j)から速度、加速度を算出してもよい。また、算出した速度、加速度に基づいてその後の動作を予測したり、自車両または他車両の運転制御を行ってもよい。
なお、上記実施形態では、多重露光の最後の露光の感度を高くして撮像したが、これには限定されない。例えば、多重露光の最後の露光の感度を低くして撮像してもよく、多重露光の最初の露光の感度を異ならせて撮像してもよい。さらに、多重露光のうちの所定の順番の露光、例えば2番目の露光の感度を異ならせて撮像してもよい。また、感度を異ならせる露光は1つである必要はなく、複数の露光の感度を他の露光の感度と異ならせてもよい。一部の露光の感度を他の露光の感度と異ならせることにより、多重露光画像において各露光に対応する像の前後関係を認識することができる。さらに、他の露光の感度を一定に揃えることにより各露光に対応する像の明度もほぼ同じとなるため、各像の特徴点を検出し易くなる。
<1.7.検出装置の動作の具体例5>
図21Aから図21Cを参照して、検出装置1の動作の具体例5を説明する。
図21Aは、検出装置1を搭載したドローンDが飛行している様子を模式的に示す。図21Bおよび図21Cは、取得される多重露光撮像データが示す画像の一例を模式的に示す。
検出装置1は、車両のみならず飛行体にも好適に搭載され得る。検出装置1は、あらゆる移動体の速度検知装置として用いられる。以下、検出装置1をドローンDに搭載する例を説明する。
ドローンDは検出装置1を備える。検出装置1の撮像装置100は、電柱に貼り付けられた測定用の専用マーカを撮像する。検出装置1は、専用マーカを含む多重露光撮像データを取得し、それを解析することにより例えば速度情報を得る。図21B、21Cは、多重露光撮像データが示す画像の一例を示す。
図7Aに示す駆動に従って、撮像装置100が専用マーカを撮像すると、例えば、図21Bまたは図21Cに示す画像が取得される。図7Aに示す駆動によると、後に取得された像ほど、その明度は高くなる。図21Bに示す画像では、右端の専用マーカ、つまりドローンDの最後方の専用マーカの像の明度が最も明るく、最前方の専用マーカの像の明度が最も暗い。ドローンDの前方とは、ドローンDの正面方向を意味する。図21Bに示す画像は、ドローンDが前方に向かって飛行していることを意味する。図21Cに示す画像では、左端、つまりドローンDの最前方の専用マーカの像の明度が最も明るく、最後方の専用マーカの像の明度が最も暗い。こ図21Bに示す画像は、ドローンDが後方に向かって飛行していることを意味する。
ドローンDの飛行は、検出された速度情報に基づいて制御されてもよい。例えば、ドローンDは、検出装置1および人工知能(AI)を搭載することにより、無人の自律飛行が可能になる。
また、ここでは、ドローンDを例に飛行体における進行方向検出の例を示したが、人や産業制御機器、自律ロボットなど、様々な移動体において、同様の手法における進行方向検出や速度検出が可能である。
(第2の実施形態)
本実施形態では、速度を検出するための動作例を主として説明する。
本実施形態による検出装置2は、例えば図1または図2に示されるハードウェア構成を備えることができる。よって、検出装置2のブロックの説明は省略する。
<2.1.検出装置1の動作の具体例1>
図22Aから図25を参照して、検出装置2の動作の具体例1を説明する。
図22Aは、検出装置2を搭載した自車両が、道路標識Sを撮像しながら走行している様子を模式的に示す。図22Bから図22Dは、取得される多重露光撮像データの画像の一例を模式的に示す。
図22Aに示さるように、移動体である自車両に搭載された検出装置2は、静止体である道路標識Sを撮像する。検出装置2は、取得した多重露光撮像データに基づいて車両の絶対速度を検出する。撮像装置100が、図6Aに示される駆動に従って通常の多重露光撮像をした場合、例えば図22Bに示される画像が取得される。
撮像装置100が、図7Aまたは図8Aに示される駆動に従って、感度変調を行いながら多重露光撮像をした場合、例えば図22Cに示される画像が取得される。撮像装置100が、図7Cまたは図8Cに示される駆動に従って、感度変調を行いながら多重露光撮像をした場合、例えば図22Dに示される画像が取得される。
本具体例において、自車両の絶対速度の検出は、通常の多重露光によって実現され得る。本具体例においては、自車両の進行方向の検出は行わないので、感度を変調して多重露光する必要はない。
図23Aは、検出装置2を搭載した自車両が、道路の白線を撮像しながら走行している様子を模式的に示す。図23Bは、取得される画像の一例を模式的に示す。図24Aは、検出装置2を搭載した自車両が、電柱に貼り付けられた測定用の専用マーカを撮像しながら走行している様子を模式的に示す。図24Bは、取得される多重露光撮像データが示す画像の一例を模式的に示す。
図23Bおよび図24Bには、撮像装置100が、図6Aに示される駆動に従って通常の多重露光撮像をした場合に取得される多重露光撮像データが示す画像の一例を示している。速度測定を行うための特定対象物は、大きさが規格化された路上設置物であってもよい。特定対象物は、例えば道路標識S、白線、電柱標識板または信号機であってもよい。特定対象物は、上述したような車両のナンバープレートまたはランプであってもよい。さらに、特定対象物は、大きさが規格化された専用マーカであってもよい。専用マーカとして、複数のマーカが垂直方向に並べられたマーカを用いてもよい。このような専用マーカを用いることにより、車両が前方に移動した場合にも画像における歪みが少なく、測定誤差を生じにくい。
図25は、多重露光撮像データに基づいて絶対速度を検出し、絶対速度に基づいて車両の制動および加速を制御する処理フローの一例を示す。
絶対速度を検出するための処理フローは、図14に示される処理フローと基本的に同じである。ただし、進行方向を検出するためのステップS220は省略される。
第1の実施形態で説明したように、ステップS230において、自車両から道路標識Sまでの距離dは、距離測定部600によって取得されてもよく、コントローラ500による多重露光撮像データの解析によって取得されてもよい。距離測定部600は、例えばTOFセンサである。
図26Aは、図24Aにおいて道路標識Sにより近い側を走行する車両によって取得される多重露光撮像データが示す画像の一例を模式的に示す。図26Bは、図24Aにおいて道路標識Sからより遠い側を走行する車両によって取得される多重露光撮像データが示す画像の一例を模式的に示す。
多重露光撮像データ中の道路標識Sの大きさは、車両から道路標識Sまでの距離dに応じて変化する。上述したように、特定対象物の実際の大きさは、規格で予め決まっている。距離dにおける多重露光撮像データ中の特定対象物の大きさsは、規格、ならびに、撮像装置100および光学系200に関する各種パラメータに基づいて決定される。コントローラ500は、道路標識Sの実際の大きさと、多重露光撮像データ中の道路標識Sの大きさとを比較した結果に基づいて、自車両から道路標識Sまでの距離を演算することができる。
再び図25を参照する。
コントローラ500は、通常の多重露光撮像によって多重露光撮像データを取得する。コントローラ500は、例えば図22Bに示される多重露光撮像データを取得し、距離d、道路標識Sのエッジの間の間隔m、および、隣接する2つの制御信号V2の間隔tから、車両の絶対速度を検出する(ステップS240)。
その後、検出装置2は、絶対速度を示す情報を、画像送信IFを介してECU800に送信する。
ECU800は、検出装置2から受信した絶対速度を示す情報に基づいて、車両の制動および加速を制御することができる。ECU800は、第1の実施形態と同様に、例えば自動運転のレベル0から4に対応する制御を行うことができる。
上述した例では、コントローラ500は、特定対象物の特徴を検出すると、車両速度の検出を開始したが、本開示はこれに限定されない。例えば、コントローラ500は、車両のエンジンがかかっている間は常に車両速度を検出してもよい。または、コントローラ500は、ある一定の間隔設定される期間においてのみ車両速度を検出してもよい。例えば、コントローラ500は、図9Dに示される方向検知用フレーム期間中にのみ車両速度を検出してもよい。あるいは、コントローラ500は、高速道路への進入を起点にして車両速度を検出してもよく、ギアが変更された等の内部制御情報の変化を起点にして車両速度を検出してもよい。
検出装置2によって絶対速度を測定する場合、車両の側面に撮像装置100を設置してもよい。これにより、測定時の誤差を抑制することができる。
<2.2.検出装置2の動作の具体例2>
図27を参照して、検出装置2の動作の具体例2を説明する。
図27は、多重露光撮像データに基づいて絶対速度および加速度を検出し、絶対速度および加速度に基づいて車両の制動および加速を制御する処理フローの一例を示す。
速度および加速度を検出するための処理フローは、図15に示される処理フローと基本的に同じである。ただし、進行方向を検出するためのステップS320は省略される。
本具体例において、コントローラ500は、多重露光撮像データに基づいて車両の絶対速度および加速度を演算する(ステップS340)。なお、本具体例による絶対速度および加速度は、図15に示されるステップS340で取得される速度および加速度にそれぞれ対応する。
ECU800は、検出装置2から受信した、絶対速度および加速度の少なくとも1つの情報に基づいて、車両の制動および加速を制御することができる。ECU800は、第1の実施形態と同様に、例えば自動運転のレベル0から4に対応する制御を行うことができる。
本具体例によれば、測定された絶対速度および加速度を用いて車両の制動および加速を制御することができる。そのため、自車両の走行状態を連続的に把握することができる。その結果、より安全な制御が可能となる。
<2.3.検出装置2の動作の具体例3>
図28を参照して、検出装置2の動作の具体例3を説明する。
図28は、ECU800によって測定された車両速度をさらに用いて、車両の制動および加速を制御する処理フローの一例を示す。
図28に示される処理フローは、図27に示される処理フローと同様のステップを含む。その処理フローは、ECU800により測定された車両速度を、絶対速度を検出する初期値としてフィードバックするステップS370、および、ECU800の測定速度と比較して、コントローラ500の検出速度を補正するステップS380の少なくとも1つをさらに含む。
ECU800は、検出装置2とは独立して、例えば車輪の回転数に基づいて車両速度を測定することが可能である。ECU800は、測定した車両速度を検出装置2のコントローラ500に送信する。ECU800により測定された車両速度は、絶対速度を検出するための初期値としてコントローラ500に、例えばCANを介してフィードバックされる。ただし、CANとは異なる規格、または独自の規格によってもフィードバック制御は実現され得る。
コントローラ500は、ECU800によって測定された速度情報に基づいて決定される初期値を用いて、多重露光撮像データに基づく速度検出を行うことができる(ステップS370)。
コントローラ500は、ECU800によって測定された速度情報を用いて、多重露光撮像データに基づいて検出した車両の速度情報を補正することができる。換言すると、ECU800によって測定された車両速度を用いて、検出装置2を較正することが可能である(ステップS380)。コントローラ500によって検出された絶対速度と、ECU800によって測定された車両速度とが比較される。車両の絶対速度は、ECU800によって測定された車両速度に基づいて、その比較結果に応じて補正される。なお、上述したフィードバックの制御および較正の両方が適用されてもよく、一方だけが適用されてもよい。
本具体例によれば、ECU800と検出装置2との密な連携により、制御における各機構間のオフセットを低減できる。さらに、速度制御におけるフィードバックを高速に実現することができる。
<2.4.検出装置2の動作の具体例4>
図29から図30Dを参照して、検出装置2の動作の具体例4を説明する。
図29は、多重露光撮像データに基づいて速度を検出し、さらに進行方向を検出して制動および加速の制御を行う処理フローの一例を示す。図30A、図30Bおよび図30Cは、通常の多重露光により取得される多重露光撮像データが示す画像の一例を模式的に示す。
図30Cには、前方を走行する車両と自車両が近いときに取得されるナンバープレートの多重露光撮像データが示す画像の一例を示している。図30Dには、前方を走行する車両と自車両が遠いときに取得されるナンバープレートの画像を示している。
ステップS230において、距離測定部600が前方を走行する車両までの距離dを測定してもよい。または、コントローラ500が、例えば図30Cに示される多重露光撮像データを上述した手法で解析することにより、距離dを測定してもよい。
本具体例による検出装置2は、通常の多重露光撮像により取得された多重露光撮像データを解析して車両の速度を取得する(ステップS240)。具体的には、コントローラ500は、例えば図30Aおよび図30Bに示される多重露光撮像データを取得し、距離d、特定対象物のエッジの間の間隔m、および、隣接する2つの制御信号V2の間隔tから、車両の速度を検出する。
図30Aには、通常の多重露光撮像による取得されるナンバープレートの像の一例を示し、図30Bには、通常の多重露光撮像による取得されるブレーキランプの像の一例を示している。通常の多重露光撮像によると、対象物が車両の進行方向に重畳される。そのため、自車両が加速して前方車両までの距離が縮まっているのか、または、自車両が減速してその距離が遠のいているのかどうかを判別することはできない。
本具体例によるコントローラ500は、車両の速度を取得した後、車両の進行方向を検出する(ステップS220)。例えば、進行方向測定部700を用いて、車両の進行方向を示す情報を取得することが可能である。進行方向測定部は、例えばTOFセンサである。取得した情報は、コントローラ500に送信される。進行方向を検出することにより、車両の速度を取得することが可能となる。なお、速度検出用の特定対象物は、ナンバープレートおよびランプに限られず、例えば、車両に貼り付けることが可能な速度検出用マーカであってもよい。
このように、本実施形態では、撮像の対象物が静止体である場合、コントローラ500は、自車両の絶対速度を検出することができる。静止体は、例えば道路標識Sである。または、撮像の対象物が他の移動体に設けられている場合、コントローラ500は、他の移動体を基準とした自車両の相対速度を検出することができる。他の移動体は、例えば走行車両であり、撮像の対象物はナンバープレートである。
相対的な進行方向および相対速度は、自車両または測定対象の車両の制動、加速に用いることができる。一方、絶対的な進行方向および絶対速度は、自車両または測定対象の車両の制動、加速に用いることに加え、その絶対速度の値を用いて、例えば、自車両の制動モードの制御または故障検出に用いることができる。さらに、絶対的な進行方向および絶対速度は、交通規制への違反の判定などに用いることができる。
検出装置2は、感度変調による多重露光撮像を行い、図11Bまたは図12Bに示される多重露光撮像データを取得してもよい。検出装置2は、その多重露光撮像データを解析することにより進行方向を検出してもよい。
車両の速度を検出するための多重露光撮像データと、進行方向を検出するための多重露光撮像データとは、異なるフレームにおいて取得されてもよい。具体的には、図29に示されるように、あるフレームで取得された多重露光撮像データに基づいて速度を検出する(ステップS240)。その後、別のフレームで取得された多重露光撮像データに基づいて進行方向を検出してもよい(ステップS220)。または、あるフレームで取得された多重露光撮像データに基づいて速度および進行方向を検出してもよい(ステップS220)。さらに、処理の順番を入れ替えて、進行方向を検出(ステップS220)した後で、速度を検出するように変更してもよい(ステップS240)。速度検出と進行方向の検出を交互に行ってもよい。処理の順序は、車両走行制御システム1000に最適である限り、あらゆる態様で選択され得る。
検出装置2は、進行方向および速度に関する情報を、画像送信IFを介してECU800に送信する。ECU800は、検出装置2から受信した進行方向および速度に関する情報に基づいて、車両の制動および加速を制御することができる(ステップS250)。ECU800は、第1の実施形態と同様に、例えば自動運転のレベル0から4に対応する制御を行うことができる。
図31は、多重露光撮像データに基づいて速度および加速度を検出し、さらに進行方向を検出して制動・加速の制御を行う処理フローの一例を示す。
図31に示される処理フローは、図27に示される処理ステップを含み、進行方向を検出するステップS320をさらに含む。この処理フローによると、ECU800は、進行方向、速度および加速度の少なくとも1つの情報に基づいて車両の制動および加速を制御することができる。自車両の走行状態を連続的に把握することができ、その結果、より安全な制御が可能となる。
上述したように、感度変調による多重露光は、車両速度の検出に必ずしも必要とされない。また、例えば、検出装置2は、多重露光撮像データ中の複数の輝度情報を用いて周辺車両の進行方向を検出する第1モードと、複数の輝度情報を用いて自車両に対する周辺車両の相対速度を算出する第2モードと、を有していてもよい。検出装置2は、第1および第2モードを所定の期間毎に交互に切替えるようにしてもよい。所定の期間は、例えば、ある一定のフレーム周期であってもよい。また、速度や加速度情報が変化した時、または制動やハンドル動作が行われた時に、第1モードと第2モードとを切り替えるようにしてもよい。
図32は、ECU800によって測定される車両速度を用いて、制動・加速の制御を行う処理フローの一例を示す。
図32に示されるように、図28に示される速度および加速度を検出するための処理フローに、進行方向を検出するためのステップS320を付加することができる。この処理フローによると、ECU800は、進行方向、速度および加速度の少なくとも1つの情報に基づいて車両の制動および加速を制御することができる。ECU800と検出装置2との密な連携により、制御における各機構間のオフセットを低減でき、さらに、速度制御におけるフィードバックを高速に実現することができる。
<2.5.検出装置2の動作の具体例5>
図33Aから図33Cを参照して、検出装置2の動作の具体例5を説明する。
車両がカーブ路に進入したとき、検出装置2は、多重露光撮像データに基づいて、カーブの内周に対する速度変化および外周に対する速度変化を演算し、内周および外周に対する速度変化に基づいて車両の進入角度を演算することができる。
図33Aは、車両がカーブ路に進入したときの様子を模式的に示す。図33Bは、車両がカーブ路に進入したときにカーブ路の外側を撮像して取得される多重露光撮像データが示す画像の一例を模式的に示し、図33Cは、カーブ路の内側を撮像して取得される多重露光撮像データが示す画像の一例を模式的に示す。
本具体例による車両走行制御システム1000は、例えば図25に示される処理フローに従って、車両の制動・加速および操舵を制御することができる。図33Aに示されるように、例えば、カーブ路の内側および外側の路肩に、車両の進入角度を測定するための専用ポールが所定の間隔で設置されているとする。専用ポールには、図24に示されたマーカと同様の測定用の専用マーカが設置されていてもよい。
コントローラ500は、ハンドルの制御、道路交通情報または地図情報よりカーブに車両が進入したことを検知することができる。コントローラ500は、その検知をトリガーに車両の進入角度を測定することを開始する(ステップS210)。コントローラ500は、具体的に、カーブ路の内周に対する速度、および、カーブ路の外周に対する速度を検出するための演算を開始する。以下、カーブ路の内周に対する速度を「内周速度」と表記し、カーブ路の外周に対する速度を「外周速度」と表記する。
例えば距離測定部600は、自車両から内側および外側の専用ポールまでの距離d_in、d_outをそれぞれ測定する。コントローラ500は、距離測定部600から距離d_in、d_outを取得する(ステップS230)。
コントローラ500は、内側のポールを多重露光撮像して取得される多重露光撮像データを取得する。コントローラ500は、多重露光撮像データ中の第1および第2撮像データの専用ポールの間の間隔m_in、第1露光期間と第2露光期間との間の間隔t_in、および、距離d_inを用いて、自車両の内周速度を検出する。これと同様に、コントローラ500は、外側のポールを多重露光撮像して取得される多重露光撮像データを取得する。コントローラ500は、多重露光撮像データ中の第1および第2撮像データの専用ポールの間の間隔m_out、第1露光期間と第2露光期間との間の間隔t_out、および、距離d_outを用いて、自車両の外周速度を検出する。さらに、コントローラ500は、自車両の外周速度および内周速度に基づいてカーブへの進入角度を演算する(ステップS240)。
検出装置2は、外周および内周速度、または、進入角度の情報を、画像送信IFを介してECU800に送信する。ECU800は、検出装置2から受信したそれらの情報、および、道路交通情報、地図情報などのその他の情報に基づいて、車両の制動、加速および操舵を制御することができる(ステップS250)。
上述したように、ECU800で測定された車両速度の情報を、検出装置2の較正に用いてもよく、検出装置2が内周および外周速度を演算するときの初期値として設定してもよく、それらの両方を適用してもよい。さらに、車両走行制御システムにおいて一般に用いられる各種センサで得られる車両速度以外の情報を、ECU800からの車両速度とともにCANを介して検出装置2にフィードバックしてもよい。各種センサは、例えば操舵角センサや、ヨーレートセンサである。車両速度以外の情報は、例えば操舵角、ヨーレートあるいは加速度である。
本具体例では、車両の側面に撮像装置100を設置してもよい。これにより、測定時の誤差を抑制することができる。
本具体例によれば、ECU800と検出装置2との密な連携により、制御における各機構間のオフセットを低減でき、さらに、制動、加速および操舵などの車両制御におけるフィードバックを高速に実現することができる。
<2.6.検出装置2を用いた自己位置推定・自己経路予測の例>
具体例1から5において、検出装置2によって検出された速度情報は、自車両の制御にのみ用いられることを説明した。本開示はこれに限らず、検出された速度情報は、例えば、正確な自己位置推定および自己経路予測に好適に用いることができる。
自己位置推定および自己経路予測には、検出装置2によって取得することが可能な速度、加速度、対象物までの距離などの情報、車両走行制御システム1000において用いられる各種のセンサからの情報、地図情報、車両間通信データ、および、車両と静止体の間、例えば車両と道路標識の間の通信データなどが活用され得る。
自己位置推定については、例えば、道路標識などの対象物までの距離を測定し、地図情報の中における対象物の位置情報と、測定した対象物と自車との間の距離情報とを用いることで地図上での自己位置を推定できる。またその後の自己位置の推定は、対象物の位置情報、および、測定した対象物と自車との間の距離情報を基準に行ってもよいし、ある時点で推定された自己位置を基準に、その後に検出した自車の進行方向或いは速度情報を地図情報の中に反映させることで自己位置の推定を継続してもよい。さらに、他の対象物までの距離を測定し、他の対象物の位置情報と、他の対象物と自車との間の距離情報とを用いることで自己位置の推定結果に補正をかけてもよい。なお、生成された地図情報が、例えば、車室内に設けられたディスプレイ或いはユーザの携帯端末に表示されてもよい。また、他の実施の形態として、自己位置の情報と、上述の方法で測定した速度情報或いは加速度情報とを用いて、一定時間経過後の自車の運動状態を予測することができる。この予測結果と、地図情報から得られる周辺の交通情報や目的地に合わせて自車を制御することも可能である。双方の車両が相互に経路予測をできれば、クラウドサーバの活用により、複数台の車両の円滑な走行制御が可能となる。
車両の速度情報は、周りを走行する周辺車両に発信され得る。検出装置2によって検出された速度情報を周辺車両に発信することにより、車両間の相互制御も可能である。両車両を同時に制御することにより、例えば制動時間および距離などを短縮させることができる。
例えば、認識ヘッダが付加されたパルス信号を用いて車両間の通信は実現され得る。ただし、通信方式はこれに限られず、周辺車両が送信データを受信できる仕組みであれば方式を問わない。通信は単方向であっても、双方向であってもよい。また、通信方式は、例えば、時分割または波長多重であってもよい。
例えば、通信にはヘッドライト光が利用され得る。周辺への照射に影響を及ぼさない周波数でヘッドライトをパルス駆動し、他車両がヘッドライトの光をセンシングすることにより、通信が可能となる。この通信方式によれば、通信専用の新たなハードウェアなどを増設する必要がないので、システム規模、コストなどを最小限に抑えることができる。
また、自己位置推定および自己経路予測に本開示を用いる場合、1つの検出装置2を用いてもよいし、複数の検出装置2を用いてもよい。例えば、前後左右に設けた検出装置2を用いてもよい。また、撮像装置100のみ複数設け、画像処理、演算は1チップで行ってもよい。
本実施形態による検出装置2は、第1の実施形態による検出装置1と同様に、ドローンなどの飛行体に好適に搭載され得る。
(その他)
撮像装置100およびISP300を同一のチップに実装し得ることを既に説明したが、撮像装置100、ISP300およびコントローラ500を同一のチップに実装することも可能である。このようなチップを用いると、速度および加速度などの演算処理までを1チップで実現できる。近年、データ処理の高速化、低消費電力化、チップサイズの縮小およびコスト低下といったことが要求されている。こういった観点において、1チップ化した構成は最適であると言える。
本明細書では、光電変換膜を含む複数の単位画素を有する撮像装置の動作例を主として説明したが、例えば従来のシリコンPDを用いた撮像装置を用いて撮像することも可能である。その場合、複数の露光の間で露光の長さを変えて感度変調を行うことにより、多重露光撮像データを取得してもよい。
光電変換膜に印加するバイアス電圧を制御することによりグローバルシャッタを実現する例を説明したが、本開示はこれに限られない。例えば、構成要素は増えるものの、電荷転送トランジスタおよび電荷蓄積容量を設けることにより、バイアス電圧の制御と同様な効果が得られる。また、多重露光に関しても、電荷転送トランジスタおよび電荷蓄積容量を設けることにより、バイアス電圧の制御と同様な効果が得られる。
本明細書では、検出装置2を主に移動体に搭載して移動体の速度を検出する例を説明した。しかし、検出装置2を静止体に搭載し、静止体が移動体を撮像することによって、移動体の絶対速度を検出することも可能である。例えば、検出装置2を信号機に設置することにより、走行車両の速度違反を取り締まることができる。
走行制御システム1000により取得された周辺車両の進行方向の検出結果は、例えば、自車両の加速および減速を制御する自動走行制御に用いることができる。または、運転操作を補助するシステムにおいて、自車両のドライバが、その検出結果に従ってブレーキとアクセルを操作することにより、自車両を加速または減速させてもよい。例えば、前方を走る車両のナンバープレートの像の大きさに基づいて前方車両との距離を検出し、その距離が所定の値よりも小さくなっていることが検出された場合、自車両のブレーキを作動させてもよい。あるいは、減速するように自車両の運転者に警告を出しても良い。また、前方車両との距離が所定の値よりも大きくなっていることが検出された場合、自車両のアクセルを作動させてもよい。あるいは、加速するように自車両の運転者に警告を出しても良い。
本開示の検出装置、検出装置、および車両走行制御システム、相対的な進行方向、相対速度、および、絶対的な進行方向、絶対速度を検出する能力が求められるあらゆる移動体または静止体に好適に利用される。
1 検出装置、検出装置
100 撮像装置
101 単位画素
102 垂直走査回路
103 水平走査回路
104 電流源
105 AD変換回路
106 画素電源
107 水平信号線
108 垂直信号線
109 光電変換部
200 光学系
300 ISP
400 画像送信IF
500 コントローラ
510 出力IF
511 電圧制御回路
520 入力IF
530 プルグラムメモリ
540 ワーキングメモリ
550 マイクロコントローラ
600 距離測定部
700 進行方向測定部
800 ECU
1000 車両走行制御システム

Claims (21)

  1. 移動体に設置され、第1のフレーム期間に対象物を複数回撮像して、第1の撮像データおよび第2の撮像データを含む多重露光撮像データを生成する撮像装置と、
    前記多重露光撮像データに含まれる前記第1の撮像データおよび前記第2の撮像データに基づいて、前記対象物を基準とした前記移動体の相対的な運動状態を検出する検出装置と、
    を備え、
    前記撮像装置は、前記第1のフレーム期間内の第1露光期間に第1の感度で前記対象物を撮像して前記第1の撮像データを生成し、前記第1露光期間とは異なる前記第1のフレーム期間内の第2露光期間に、前記第1の感度とは異なる第2の感度で前記対象物を撮像して前記第2の撮像データを生成する、
    運転制御システム。
  2. 第1の制御装置を備え
    前記第1の制御装置は、検出した前記移動体の相対的な運動状態に基づいて、前記移動体の運動状態を変化させるための信号を生成する、請求項1に記載の運転制御システム。
  3. 第2の制御装置を備え、
    前記第2の制御装置は、前記信号に基づいて前記移動体の運動状態を変化させる、請求項2に記載の運転制御システム。
  4. 第1の制御装置を備え、
    前記対象物は、他の移動体に固定されており、
    前記第1の制御装置は、検出した前記移動体の相対的な運動状態に基づいて、前記他の移動体の運動状態を変化させるための信号を生成する、請求項1に記載の運転制御システム。
  5. 第2の制御装置を備え、
    前記第2の制御装置は、前記信号に基づいて前記他の移動体の運動状態を変化させる、請求項4に記載の運転制御システム。
  6. 前記移動体は車両である、請求項1から5のいずれか1項に記載の運転制御システム。
  7. 前記対象物は地面に対して静止しており、
    前記検出装置は、前記移動体の絶対速度を検出する、請求項1から6のいずれか1項に記載の運転制御システム。
  8. 前記対象物は地面に対して静止しており、
    前記検出装置は、前記第1の撮像データに基づいて前記移動体と前記対象物との距離を検出し、前記対象物の位置情報と検出された前記距離とに基づいて、前記移動体の位置情報を生成する、請求項1に記載の運転制御システム。
  9. 前記第1の撮像データは、前記第1のフレーム期間内の最初の撮像により生成され、
    前記第2の撮像データは、前記第1のフレーム期間内の最後の撮像により生成される、請求項1から8のいずれか1項に記載の運転制御システム。
  10. 前記多重露光撮像データに含まれる複数の撮像データのうち、少なくとも前記第2の撮像データを除く他の撮像データは、前記第1の感度で前記対象物を撮像することにより生成される、請求項1から9のいずれか1項に記載の運転制御システム。
  11. 前記多重露光撮像データに含まれる複数の撮像データのうち、少なくとも前記第1の撮像データを除く他の撮像データは、前記第2の感度で前記対象物を撮像することにより生成される、請求項1から9のいずれか1項に記載の運転制御システム。
  12. 前記検出装置は、前記第1の撮像データおよび前記第2の撮像データに基づいて、前記対象物を基準とした前記移動体の進行方向を検出する、請求項1から11のいずれか1項に記載の運転制御システム。
  13. 前記検出装置は、前記第1の撮像データおよび前記第2の撮像データに基づいて、前記対象物を基準とした前記移動体の相対速度を検出する、請求項1から12のいずれか1項に記載の運転制御システム。
  14. 前記検出装置は、前記第1の撮像データおよび前記第2の撮像データに基づいて、前記対象物を基準とした前記移動体の加速度を検出する、請求項1から13のいずれか1項に記載の運転制御システム。
  15. 前記検出装置は、前記第1の撮像データおよび前記第2の撮像データに基づいて、前記対象物を基準とした前記移動体の進行方向を検出する第1モードと、前記対象物を基準とした前記移動体の相対速度を検出する第1モードとを、所定の期間毎に切り替える、請求項1から14のいずれか1項に記載の運転制御システム。
  16. 制御装置を備え、
    前記対象物は他の移動体に固定されており、
    前記検出装置は、前記第1の撮像データおよび前記第2の撮像データに基づいて、前記移動体と前記対象物との距離の変化を検出し、
    前記制御装置は、前記距離が所定の値よりも小さくなっていることが検出された場合、
    前記距離が大きくなるように前記移動体または前記他の移動体の運動状態を変化させるための信号を生成する、請求項1に記載の運転制御システム。
  17. 制御装置を備え、
    前記対象物は他の移動体に固定されており、
    前記検出装置は、前記第1の撮像データおよび前記第2の撮像データに基づいて、前記移動体と前記対象物との距離の変化を検出し、
    前記距離が所定の値よりも大きくなっていることが検出された場合、前記距離が小さくなるように前記移動体または前記他の移動体の運動状態を変化させるための信号を生成する、請求項1に記載の運転制御システム。
  18. 前記検出装置は、前記第1の撮像データおよび前記第2の撮像データが示す前記対象物の各像の特徴点に基づいて、前記対象物を基準とした前記移動体の相対的な運動状態を検出する、請求項1から17のいずれか1項に記載の運転制御システム。
  19. 前記第1の制御装置と前記第2の制御装置とは、共通の制御装置である、請求項3または請求項5に記載の運転制御システム。
  20. 移動体に設置された撮像装置を用いて、第1のフレーム期間内の第1露光期間に第1の感度で対象物を撮像して第1の撮像データを生成し、前記第1露光期間とは異なる前記第1のフレーム期間内の第2露光期間に、前記第1の感度とは異なる第2の感度で前記対象物を撮像して第2の撮像データを生成することにより、前記第1の撮像データと前記第2の撮像データとを含む多重露光撮像データを生成し、
    前記多重露光撮像データに含まれる前記第1の撮像データおよび前記第2の撮像データに基づいて、前記対象物を基準とした前記移動体の相対的な運動状態を算出し、
    算出した前記移動体の相対的な運動状態に基づいて、前記移動体の運動状態を変化させるための信号を生成し、
    生成した前記信号に基づいて前記移動体の運動状態を変化させる、
    運転制御方法。
  21. 移動体に設置された撮像装置を用いて、第1のフレーム期間内の第1露光期間に第1の感度で他の移動体に固定された対象物を撮像して第1の撮像データを生成し、前記第1露光期間とは異なる前記第1のフレーム期間内の第2露光期間に、前記第1の感度とは異なる第2の感度で前記対象物を撮像して第2の撮像データを生成することにより、前記第1の撮像データと前記第2の撮像データとを含む多重露光撮像データを生成し、
    前記多重露光撮像データに含まれる前記第1の撮像データおよび前記第2の撮像データに基づいて、前記対象物を基準とした前記移動体の相対的な運動状態を検出し、
    検出した前記移動体の相対的な運動状態に基づいて、前記他の移動体の運動状態を変化させるための信号を生成し、
    生成した前記信号に基づいて前記他の移動体の運動状態を変化させる、
    運転制御方法。
JP2018564468A 2017-01-25 2018-01-12 運転制御システムおよび運転制御方法 Active JP7108856B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2017011651 2017-01-25
JP2017011651 2017-01-25
JP2017011652 2017-01-25
JP2017011652 2017-01-25
PCT/JP2018/000608 WO2018139212A1 (ja) 2017-01-25 2018-01-12 運転制御システムおよび運転制御方法

Publications (2)

Publication Number Publication Date
JPWO2018139212A1 JPWO2018139212A1 (ja) 2019-11-14
JP7108856B2 true JP7108856B2 (ja) 2022-07-29

Family

ID=62979320

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018564468A Active JP7108856B2 (ja) 2017-01-25 2018-01-12 運転制御システムおよび運転制御方法

Country Status (5)

Country Link
US (2) US10473456B2 (ja)
EP (1) EP3576400B1 (ja)
JP (1) JP7108856B2 (ja)
CN (1) CN108886585B (ja)
WO (1) WO2018139212A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018061469A1 (ja) * 2016-09-28 2018-04-05 日立オートモティブシステムズ株式会社 車両制御装置
JP6739066B2 (ja) * 2016-09-30 2020-08-12 パナソニックIpマネジメント株式会社 撮像制御装置、撮像制御方法、プログラムおよびそれを記録した記録媒体
JP6822815B2 (ja) * 2016-10-17 2021-01-27 トヨタ自動車株式会社 道路標示認識装置
JP7025293B2 (ja) * 2018-07-10 2022-02-24 トヨタ自動車株式会社 自車位置推定装置
WO2020027221A1 (ja) * 2018-08-02 2020-02-06 パナソニックIpマネジメント株式会社 撮像装置、及びそれに用いられる固体撮像素子
US11005662B2 (en) * 2018-08-21 2021-05-11 Ut-Battelle, Llc Multimodal communication system
JP6927943B2 (ja) * 2018-10-30 2021-09-01 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 情報処理装置、飛行制御方法及び飛行制御システム
CN109686106A (zh) * 2019-01-31 2019-04-26 苏州卷积智能信息技术有限公司 封闭停车场伪车牌识别系统及识别方法
JP7331483B2 (ja) * 2019-06-18 2023-08-23 株式会社アイシン 撮像制御装置
US20220319013A1 (en) * 2019-06-25 2022-10-06 Sony Group Corporation Image processing device, image processing method, and program
CN112185144A (zh) * 2019-07-01 2021-01-05 大陆泰密克汽车系统(上海)有限公司 交通预警方法以及系统
WO2021065367A1 (ja) * 2019-10-03 2021-04-08 パナソニックIpマネジメント株式会社 撮像装置、撮像システムおよび撮像方法
KR20210080717A (ko) * 2019-12-20 2021-07-01 주식회사 만도 운전자 보조 장치 및 운전자 보조 방법
CN111596086B (zh) * 2020-05-15 2022-10-11 北京百度网讯科技有限公司 一种自动驾驶中障碍物的速度估计方法、装置和电子设备
US11501452B2 (en) 2020-08-10 2022-11-15 Honeywell International Inc. Machine learning and vision-based approach to zero velocity update object detection
JP7438547B2 (ja) * 2021-03-02 2024-02-27 立山科学株式会社 車両管理システム
CN114419143A (zh) * 2022-01-18 2022-04-29 浙江吉利控股集团有限公司 深度测量方法、深度测量设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015133078A (ja) 2014-01-15 2015-07-23 株式会社リコー 制御用対象物認識装置、移動体機器制御システム及び制御用対象物認識用プログラム
WO2017010047A1 (ja) 2015-07-10 2017-01-19 パナソニックIpマネジメント株式会社 撮像装置

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6477377A (en) 1987-09-18 1989-03-23 Bridgestone Corp Rapid instantaneous multiplex image recorder
JPH0177377U (ja) 1987-11-12 1989-05-24
JPH03178277A (ja) 1989-12-07 1991-08-02 Matsushita Electric Ind Co Ltd 固体撮像装置の駆動方法
JP3510758B2 (ja) 1997-03-06 2004-03-29 株式会社エヌ・ティ・ティ・データ 遠隔撮影システム、無線通信機能付き撮影装置
JP4024367B2 (ja) 1997-12-15 2007-12-19 株式会社フォトロン 多板式撮像装置
JPH11242735A (ja) 1998-02-26 1999-09-07 Hitachi Ltd 走行環境認識装置
JP2001197373A (ja) 2000-01-11 2001-07-19 Sony Corp 撮像装置及び受光感度制御方法
JP2002148270A (ja) 2000-11-09 2002-05-22 Bridgestone Corp 粒子速度の測定方法及び粒子速度測定装置
JP2007081806A (ja) 2005-09-14 2007-03-29 Konica Minolta Holdings Inc 撮像システム
JP4511441B2 (ja) 2005-09-30 2010-07-28 富士フイルム株式会社 感度可変型撮像素子及びこれを搭載した撮像装置
JP4511442B2 (ja) 2005-09-30 2010-07-28 富士フイルム株式会社 感度可変型撮像素子及びこれを搭載した撮像装置
JP2008022485A (ja) 2006-07-14 2008-01-31 Canon Inc 画像処理装置及び画像処理方法
US7711147B2 (en) * 2006-07-28 2010-05-04 Honda Motor Co., Ltd. Time-to-contact estimation device and method for estimating time to contact
US8542315B2 (en) 2007-11-27 2013-09-24 Broadcom Corporation Method and apparatus for expanded dynamic range imaging
KR101442610B1 (ko) 2008-02-18 2014-09-19 삼성전자주식회사 디지털 촬영장치, 그 제어방법 및 제어방법을 실행시키기위한 프로그램을 저장한 기록매체
JP2009257982A (ja) 2008-04-18 2009-11-05 Calsonic Kansei Corp 車両用距離画像データ生成装置
JP5107154B2 (ja) 2008-06-23 2012-12-26 アイドゲノッシッシェ テヒニッシェ ホッホシューレ チューリッヒ 運動推定装置
US20110109745A1 (en) 2008-07-07 2011-05-12 Yuzuru Nakatani Vehicle traveling environment detection device
JP2010130254A (ja) 2008-11-26 2010-06-10 Panasonic Corp 固体撮像素子、固体撮像装置及びその駆動方法
JP5516960B2 (ja) * 2010-04-02 2014-06-11 ソニー株式会社 固体撮像装置、固体撮像装置の駆動方法、および、電子機器
JP2012088217A (ja) 2010-10-21 2012-05-10 Daihatsu Motor Co Ltd 運転支援制御装置
WO2012086123A1 (ja) 2010-12-22 2012-06-28 パナソニック株式会社 撮像装置
JP5497874B2 (ja) 2011-12-22 2014-05-21 富士フイルム株式会社 放射線画像検出器、放射線画像撮像装置、及び放射線画像撮像システム
JP5874476B2 (ja) 2012-03-21 2016-03-02 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP2013223043A (ja) 2012-04-13 2013-10-28 Toshiba Corp 受光装置および伝送システム
WO2014103169A1 (ja) 2012-12-27 2014-07-03 パナソニック株式会社 撮像装置及びその駆動方法
JP6137965B2 (ja) 2013-07-01 2017-05-31 オリンパス株式会社 電子機器、電子機器の制御方法、及び電子機器の制御プログラム
CN105452807A (zh) 2013-08-23 2016-03-30 松下知识产权经营株式会社 测距系统、以及信号产生装置
JP6174975B2 (ja) 2013-11-14 2017-08-02 クラリオン株式会社 周囲環境認識装置
JP6398218B2 (ja) 2014-02-24 2018-10-03 日産自動車株式会社 自己位置算出装置及び自己位置算出方法
JP2016170522A (ja) * 2015-03-11 2016-09-23 株式会社東芝 移動体検出装置
JP6563694B2 (ja) 2015-05-29 2019-08-21 株式会社デンソーテン 画像処理装置、画像処理システム、画像合成装置、画像処理方法及びプログラム
JP5948465B1 (ja) 2015-06-04 2016-07-06 株式会社ファンクリエイト 映像処理システム及び映像処理方法
EP3386189B1 (en) 2015-12-03 2021-03-24 Panasonic Intellectual Property Management Co., Ltd. Image-capture device
US20190246053A1 (en) 2016-10-21 2019-08-08 Invisage Technologies, Inc. Motion tracking using multiple exposures

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015133078A (ja) 2014-01-15 2015-07-23 株式会社リコー 制御用対象物認識装置、移動体機器制御システム及び制御用対象物認識用プログラム
WO2017010047A1 (ja) 2015-07-10 2017-01-19 パナソニックIpマネジメント株式会社 撮像装置

Also Published As

Publication number Publication date
WO2018139212A1 (ja) 2018-08-02
US20190113332A1 (en) 2019-04-18
CN108886585A (zh) 2018-11-23
JPWO2018139212A1 (ja) 2019-11-14
EP3576400A4 (en) 2019-12-25
US10473456B2 (en) 2019-11-12
US11333489B2 (en) 2022-05-17
EP3576400B1 (en) 2024-05-29
EP3576400A1 (en) 2019-12-04
CN108886585B (zh) 2022-01-11
US20200056879A1 (en) 2020-02-20

Similar Documents

Publication Publication Date Title
JP7108856B2 (ja) 運転制御システムおよび運転制御方法
EP3700198B1 (en) Imaging device, image processing apparatus, and image processing method
EP3358545B1 (en) Travel control method and travel control device
JP2017226270A (ja) 車両制御装置
JP2008060874A (ja) 車載カメラ及び車載カメラ用付着物検出装置
JP6740756B2 (ja) 撮像装置および自動車
CN111434105A (zh) 固态成像元件、成像装置和固态成像元件的控制方法
WO2015182135A1 (ja) センシングシステム及び運転支援システム
US20220027643A1 (en) Information processing apparatus, information processing method, and program
JP7172603B2 (ja) 信号処理装置、信号処理方法、およびプログラム
JP2008225822A (ja) 道路区画線検出装置
US20240056694A1 (en) Imaging device, image processing method, and image processing program
CN111862226B (zh) 用于车辆中的摄像机校准和图像预处理的硬件设计
JP2013250694A (ja) 画像処理装置
CN114940179A (zh) 横摆角速度推断装置
US20210295563A1 (en) Image processing apparatus, image processing method, and program
JP2009210401A (ja) 車両用背景画像収集装置
US20240064431A1 (en) Solid-state imaging device, method of controlling solid-state imaging device, and control program for solid-state imaging device
US20240080571A1 (en) Managing Efficiency of Image Processing
US11417023B2 (en) Image processing device, image processing method, and program
WO2023170993A1 (ja) 車載カメラシステム、および、車載カメラの露光条件決定方法
WO2021100593A1 (ja) 測距装置及び測距方法
CN117197773A (zh) 图像处理系统、图像处理方法和存储介质
KR20240116480A (ko) 센서 노출 모드 컨트롤 및 센서 노출 모드 제어 방법
CN116534029A (zh) 车辆控制装置、存储介质以及方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220415

R151 Written notification of patent or utility model registration

Ref document number: 7108856

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151