WO2019146514A1 - 車載カメラシステム、車両用灯具、遠方の検出方法、車両用灯具の制御方法 - Google Patents

車載カメラシステム、車両用灯具、遠方の検出方法、車両用灯具の制御方法 Download PDF

Info

Publication number
WO2019146514A1
WO2019146514A1 PCT/JP2019/001405 JP2019001405W WO2019146514A1 WO 2019146514 A1 WO2019146514 A1 WO 2019146514A1 JP 2019001405 W JP2019001405 W JP 2019001405W WO 2019146514 A1 WO2019146514 A1 WO 2019146514A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
regions
camera system
far
distance
Prior art date
Application number
PCT/JP2019/001405
Other languages
English (en)
French (fr)
Inventor
光治 眞野
Original Assignee
株式会社小糸製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社小糸製作所 filed Critical 株式会社小糸製作所
Priority to JP2019567037A priority Critical patent/JPWO2019146514A1/ja
Publication of WO2019146514A1 publication Critical patent/WO2019146514A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the present invention relates to an on-vehicle camera system.
  • ADB Adaptive Driving Beam
  • a sensor for measuring the situation in front of the vehicle In order to realize the ADB function, a sensor for measuring the situation in front of the vehicle, a processor for processing the output of the sensor to generate a light distribution pattern, and a light source for illuminating the front of the vehicle according to the light distribution pattern are required. It is.
  • a target In order to generate a light distribution pattern, it is necessary to detect the position of a preceding vehicle, an oncoming vehicle or a pedestrian (hereinafter collectively referred to as a target) and a region including the same.
  • the location of the vanishing point is very useful as For example, by knowing the vanishing point, it is possible to accurately distinguish distant vehicles and road illumination. Further, since the vanishing point is a point at which an oncoming vehicle occurs, if the vanishing point is known, the oncoming vehicle can be detected promptly.
  • a camera As a sensor utilized for a car, a camera, LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging), millimeter wave radar, an ultrasonic sonar, etc. are mentioned as a candidate.
  • LiDAR Light Detection and Ranging, Laser Imaging Detection and Ranging
  • millimeter wave radar an ultrasonic sonar, etc.
  • the camera since the camera is the least expensive, if the camera can detect the distance accurately and quickly, it can boost the spread of ADB lamps.
  • the present invention has been made in such a situation, and one of the exemplary objects of an aspect thereof is to provide an on-vehicle camera system capable of detecting a distance.
  • the on-vehicle camera system includes a camera for imaging the front of the vehicle, and a processor for receiving an output image of the camera and detecting a distance of the vehicle.
  • the processor executes the steps of dividing an image obtained by capturing the front of the vehicle into a plurality of regions, and determining whether each of the plurality of regions includes a distance.
  • the vehicular lamp includes the above-described on-vehicle camera system, and is configured to be capable of generating a light distribution pattern based on detected remote information.
  • an on-vehicle camera system capable of detecting a distance.
  • FIGS. 3A and 3B are diagrams showing an example of image data in front of the vehicle captured in different traveling scenes.
  • FIGS. 4A and 4B are diagrams showing an example of image data in front of the vehicle captured in different traveling scenes. It is a flowchart of the distant detection in a vehicle-mounted camera system.
  • 1 is a block diagram of a vehicular lamp according to an embodiment.
  • FIG. 1 is a block diagram of an on-vehicle camera system 100 according to the embodiment.
  • the on-vehicle camera system 100 includes a camera 110 and a processor 120.
  • the on-vehicle camera system 100 detects "far".
  • the “distant” to be detected may be regarded as a vanishing point, but is not limited to the vanishing point in a strict sense, and detects the distant to which the vehicle on which it is mounted is headed.
  • the camera 110 shoots the front of the vehicle.
  • the processor 120 receives the output image IMG of the camera 110 and detects the distance of the vehicle.
  • the processor 120 includes a central processing unit (CPU), a general purpose graphic processor unit (GPGPU), a digital signal processor (DSP), etc., and may be a general-purpose microcomputer that can be software controlled by a program. It may be dedicated hardware such as a chip.
  • CPU central processing unit
  • GPU general purpose graphic processor unit
  • DSP digital signal processor
  • the processor 120 includes a division processing unit 122, a plurality of determination units 124_1 to 124_N, and a determination unit 126.
  • the plurality of blocks constituting the processor 120 represent functions implemented by a combination of software and processor in one embodiment, or represent circuit blocks implemented in hardware in one embodiment.
  • the division processing unit 122 divides the image IMG, which is obtained by photographing the front of the vehicle, into a plurality of regions RGN 1 to RGN N in the horizontal direction.
  • the image data of the plurality of regions RGN 1 to RGN N are input to the plurality of determination units 124_1 to 124_N.
  • the plurality of determination units 124 are classifiers configured by neural networks and implemented based on machine learning.
  • the plurality of determination units 124 can be configured with a deep learning architecture in which hidden layers are layered.
  • a learning model (prediction model) is generated by preparing various images including (or not including) a distance as teacher data (training data) and reading them in a learning device.
  • the determination unit 124 is designed based on the learning model thus obtained.
  • teacher data it is good to use the following. ⁇
  • the image shows the distant place, and the preceding car and the oncoming car are located far away.
  • the division number N of the image be approximately 3 to 16.
  • the division number N or the size of a plurality of areas is changed. If the size of the divided area RGN and the size of the teacher data used for machine learning are the same, accuracy may be reduced if past learning data is used when the size of the area RGN is changed. On the other hand, in order to redo learning after changing the number of divisions, enormous work such as recreating teacher data is required.
  • FIG. 2 is a diagram showing an example of teacher data.
  • Each of the teacher data a to e has a size straddling two or more of the plurality of regions RGN. By doing this, at least one of the plurality of pieces of teacher data a to e can include all the distants to be detected regardless of the size (division number N) of the region RGN. This makes it possible to reduce or eliminate the maximum learning in the case of performing tuning.
  • Determination unit 124 _i 1, 2,..., N receives the image data of corresponding region RGN i , and determines whether or not the image data includes a distant region.
  • the determination value DV i which is the output of the plurality of determination units 124 _i may be a binary value indicating whether or not far is included, or may be a multiple value indicating the included probability. In the following, when the region RGN i includes a distant place, the determination value DV i is assumed to be 1, and when not included, the determination value DV i is assumed to be zero.
  • the sizes of the plurality of regions RGN may be the same or different.
  • the plurality of determination units 124_1 to 124_N do not necessarily represent parallel processing, and may process the plurality of areas RGN 1 to RGN N in a time division manner.
  • the determination unit 126 receives the plurality of determination values DV 1 to DV N , and generates data DP indicating distant position information.
  • data DP may indicate a region RGN j in which a distance is included.
  • FIGS. 3A and 3B are diagrams showing an example of image data IMG in front of the vehicle captured in different traveling scenes.
  • the vanishing point P is included in the region RGN 3. Therefore determination value DV 3 takes the value 1, the remaining decision value DV 1, DV 2, DV 4 , DV 5 takes 0.
  • determination portion 126 may be determined to contain a far in the region RGN 3.
  • the judgment value DV indicates, to the last, information on whether the corresponding area includes the far area, and does not indicate where in the area the far area is included.
  • determination portion 126 may be determined to contain a far in the region RGN 3.
  • FIGS. 4A and 4B are diagrams showing an example of image data IMG in front of the vehicle captured in different traveling scenes.
  • the division number N 6. Since the plurality of determination units 124 perform processing independently, the plurality of determination values may be 1 at the same time.
  • the vanishing point P is located in the vicinity of the boundary of the region RGN 3 and RGN 4, region RGN 3, the determination value becomes 1 in RGN 4, and has a remainder 0 .
  • the determination unit 126 may determine that the boundary between RGN 3 and RGN 4 is far.
  • FIG. 4B when the determination values of the three regions RGN 3 to RGN 6 become 1, the determination unit 126 may determine that a distance is present in the central region RGN 5 .
  • FIG. 5 is a flowchart of distance detection in the on-vehicle camera system 100.
  • An image in front of the vehicle is taken by the camera 110 (S100). Then, the image is divided into a plurality of areas (S102). It is determined whether each of a plurality of regions includes a distance (S104). The determination results for each area are integrated to determine the distant position (S106).
  • the image is divided into a plurality of regions, and the problem is replaced by the binary problem of presence / absence of an object for each region, so that the machine power of the local processor is distant. You can get information.
  • FIG. 6 is a block diagram of the vehicular lamp 200 according to the embodiment.
  • the vehicular lamp 200 includes a light distribution pattern generation unit 210 and a light distribution variable lamp 220 in addition to the on-vehicle camera system 100 described above.
  • the light distribution variable lamp 220 may use a known technology or a technology available in the future. For example, an array method, a scan method, etc. have been proposed for the light distribution variable lamp 220.
  • the array-type lamp includes a plurality of semiconductor light sources arranged in an array, and controls on / off or luminance of each of the plurality of semiconductor light sources.
  • the scan-type lamp includes a semiconductor light source and a scan optical system that scans the light emitted from the semiconductor light source in front of the vehicle, and controls on / off and luminance of the semiconductor light source in synchronization with the scanning operation.
  • the light distribution pattern generation unit 210 In addition to the image IMG captured by the camera 110, distant information detected by the on-vehicle camera system 100 is supplied to the light distribution pattern generation unit 210.
  • the image data IMG input to the light distribution pattern generation unit 210 may be photographed by a camera different from the camera 110.
  • the light distribution pattern generation unit 210 generates the light distribution pattern PAT while utilizing the distant information DP.
  • the light distribution pattern generation unit 210 detects an object (target) such as a preceding vehicle, an oncoming vehicle, a pedestrian, or a sign from the image IMG by image processing, and combines the light shielding area (or light reduction area) and the irradiation area.
  • an object such as a preceding vehicle, an oncoming vehicle, a pedestrian, or a sign from the image IMG by image processing, and combines the light shielding area (or light reduction area) and the irradiation area.
  • the distant information DP can be used supplementally or actively for target detection. For example, by knowing a distant position, it is possible to accurately distinguish distant vehicles (objects) and road illumination. Further, since the distant place is a point at which the oncoming vehicle is generated, if the distant place is known, the oncoming vehicle can be detected quickly.
  • the light distribution pattern generation unit 210 may be mounted on a processor different from the processor 120 of the on-vehicle camera system 100, or may be mounted on the same processor.
  • Reference Signs List 100 in-vehicle camera system 110 camera 120 processor 122 division processing unit 124 determination unit 126 determination unit 200 vehicle lamp 210 light distribution pattern generation unit 220 light distribution variable lamp
  • the present invention relates to an on-vehicle camera system.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)
  • Image Analysis (AREA)

Abstract

車載カメラシステム100は、カメラ110およびプロセッサ120を備える。カメラ110は車両前方を撮像する。プロセッサ120は、カメラ110の出力画像IMGを受け、車両の遠方を検出する。プロセッサ120は、画像IMGを、水平方向に並ぶ複数の領域に分割し、複数の領域それぞれについて、遠方が含まれるか否かを判定する。

Description

車載カメラシステム、車両用灯具、遠方の検出方法、車両用灯具の制御方法
 本発明は、車載カメラシステムに関する。
 近年、車両の周囲の状態にもとづいて、ハイビームの配光パターンを動的、適応的に制御するADB(Adaptive Driving Beam)技術の導入が進められている。ADB技術は、車両の前方の先行車、対向車や歩行者の有無を検出し、車両あるいは歩行者に対応する領域を減光するなどして、車両あるいは歩行者に与えるグレアを低減するものである。
 ADB機能を実現するためには、車両前方の状況を測定するセンサと、センサの出力を処理して配光パターンを生成するプロセッサと、配光パターンに応じて車両前方を照射する光源とが必要である。
 配光パターンの生成のためには、先行車、対向車や歩行者(以下、物標と総称する)の位置やそれを含む領域の検出が必要であるが、それらの検出のための補助的な情報として、消失点の位置が非常に有用である。たとえば消失点を知ることで、遠方の車両と道路照明を精度よく区別することができる。また消失点は、対向車が発生するポイントであるから、消失点が分かっていれば、対向車をいち早く検出することができる。
特開2012-020662号公報
 自動車に利用されるセンサとしては、カメラ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ミリ波レーダ、超音波ソナーなどが候補として挙げられる。このなかで、カメラは最も安価であることから、カメラで遠方を正確かつ迅速に検出できれば、ADBランプの普及を後押しすることができる。
 本発明は係る状況においてなされたものであり、そのある態様の例示的な目的のひとつは、遠方を検出可能な車載カメラシステムの提供にある。
 本発明のある態様は、車載カメラシステムに関する。車載カメラシステムは、車両前方を撮像するカメラと、カメラの出力画像を受け、車両の遠方を検出するプロセッサと、を備える。プロセッサは、車両前方を撮影した画像を、複数の領域に分割するステップと、複数の領域それぞれについて、遠方が含まれるか否かを判定するステップと、を実行する。
 本発明の別の態様は、車両用灯具に関する。車両用灯具は、上述の車載カメラシステムを備え、検出された遠方の情報にもとづいて、配光パターンを生成可能に構成される。
 本発明によれば、遠方を検出可能な車載カメラシステムを提供できる。
実施の形態に係る車載カメラシステムのブロック図である。 学習に用いる教師データの一例を示す図である。 図3(a)、(b)は、異なる走行シーンで撮影される車両前方の画像データの例を示す図である。 図4(a)、(b)は、異なる走行シーンで撮影される車両前方の画像データの例を示す図である。 車載カメラシステムにおける遠方検出のフローチャートである。 実施の形態に係る車両用灯具のブロック図である。
 以下、本発明を好適な実施の形態をもとに図面を参照しながら説明する。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、実施の形態は、発明を限定するものではなく例示であって、実施の形態に記述されるすべての特徴やその組み合わせは、必ずしも発明の本質的なものであるとは限らない。
 図1は、実施の形態に係る車載カメラシステム100のブロック図である。車載カメラシステム100は、カメラ110およびプロセッサ120を備える。車載カメラシステム100は、「遠方」を検出する。検出対象となる「遠方」は、消失点と捉えてもよいが、厳密な意味での消失点に限定されるものでななく、それが搭載される車両が向かう遠方を検出する。
 カメラ110は、車両前方を撮影する。プロセッサ120は、カメラ110の出力画像IMGを受け、車両の遠方を検出する。
 プロセッサ120は、CPU(Central Processing Unit)、GPGPU(General Purpose Graphic Processor Unit)、DSP(Digital Signal Processor)などを含んでおり、プログラムによりソフトウェア制御可能な汎用的なマイコンであってもよいし、AIチップのような専用のハードウェアであってもよい。
 プロセッサ120は、分割処理部122、複数の判定部124_1~124_N、決定部126を備える。プロセッサ120を構成する複数のブロックは、一実施例において、ソフトウェアとプロセッサの組み合わせにより実現される機能を表しており、あるいは一実施例において、ハードウェアで実装された回路ブロックを表している。
 分割処理部122は、車両前方を撮影した画像IMGを、水平方向に複数の領域RGN~RGNに分割する。
 複数の領域RGN~RGNの画像データは、複数の判定部124_1~124_Nに入力される。複数の判定部124は、ニューラルネットワークで構成され機械学習にもとづいて実装される識別器である。たとえば複数の判定部124は、隠れ層が多層化された深層学習(Deep Learning)のアーキテクチャで構成することができる。事前の学習では、遠方を含む(あるいは含まない)さまざまな画像を教師データ(訓練データ)として用意し、学習器に読み込ませることで、学習モデル(予測モデル)が生成される。判定部124はこうして得られた学習モデルにもとづいて設計される。教師データとしては、以下のようなものを用いるとよい。
 ・遠方が写っている画像で、遠方に先行車や対向車が位置している。
 ・遠方が写っている画像で、遠方に街路灯などが集中している。
 ・遠方が写っている画像で、白線が明瞭に写っている。
 ・近傍に明るい照明が多数存在し、または壁面が遠方まで続き、近傍が明瞭に見えており、遠方が暗いもの。
 反対に、以下のような画像は教師データから除外してもよい。
 ・近傍に先行車が存在し、遠方が写っていない画像
 ・近傍に明るい照明が多数存在し、または壁面が遠方まで続き、近傍が明瞭に見えており、遠方も明るい画像
 ・車両が近傍から遠方まで連なっている
 ・車両が左右端両方に存在している
 分割数Nを大きくしすぎると、遠方の位置検出の解像度が高まるが、1領域に含まれる情報量が減るため、判定部124の正解率が低下するかもしれない。反対に分割数Nを小さくしすぎると、1領域に含まれる情報量が増えるため、判定部124の正解率が高まるが、遠方の位置検出の解像度が低下する。画像の分割数Nは、3~16程度とすることが望ましい。
 車載カメラシステムのチューニングのために、分割数Nや複数の領域のサイズを変更することが想定される。分割される領域RGNと、機械学習に用いる教師データのサイズを同じにしておくと、領域RGNのサイズを代えた場合に、過去の学習データを流用すると精度が低下するおそれがある。一方で、分割数を変更した後に学習をやり直すには、教師データを作り直すなどの膨大な作業が必要となる。
 再学習が必要となるケースとして、分割数Nを増加した結果、教師データの1枚の画像に、検出対象(すなわち遠方)の一部のみが含まれる場合が挙げられる。この問題を解決するために、学習器に教師データとして与える画像データに工夫をこらすとよい。図2は、教師データの一例を示す図である。教師データa~eはそれぞれ、複数の領域RGNのうち2以上に跨がるサイズを有する。こうすることで、複数の教師データa~eのうち、少なくとも一枚は、領域RGNのサイズ(分割数N)によらずに、検出対象である遠方をすべて含むことができる。これにより、チューニングを行った場合の最学習を減らすことができ、あるいは無くすことができる。
 図1に戻る。判定部124_i(i=1,2…,N)は、対応する領域RGNの画像データを受け、それに遠方が含まれるか否かを判定する。複数の判定部124_iの出力である判定値DVは、遠方が含まれるか否かを示す2値であってもよいし、あるいは含まれる確率を示す多値であってもよい。以下では、領域RGNに遠方が含まれるとき、判定値DVは1を、含まれないとき、判定値DVは0とるものとする。複数の領域RGNのサイズは同じであってもよいし、異なっていてもよい。
 なお、複数の判定部124_1~124_Nは、必ずしも並列処理を表すものではなく、複数の領域RGN~RGNを時分割で処理してもよい。
 決定部126は、複数の判定値DV~DVを受け、遠方の位置情報を示すデータDPを生成する。たとえばデータDPは、遠方が含まれる領域RGNを示してもよい。
 以上が車載カメラシステム100の構成である。続いて遠方の検出処理を説明する。図3(a)、(b)は、異なる走行シーンで撮影される車両前方の画像データIMGの例を示す図である。これらの例では、画像IMGがN=5の領域に分割されている。図3(a)の例では、消失点Pは領域RGNに含まれている。したがって判定値DVが値1をとり、残りの判定値DV,DV,DV,DVは0をとる。したがって決定部126は、領域RGNに遠方が含まれると判定することができる。判定値DVが示すのは、あくまでも、対応する領域に遠方が含まれるか否かの情報であり、領域内のどこに遠方が含まれるかは示していない。
 図3(b)の例では、消失点Pは領域RGNに含まれている。したがって判定値DVが値1をとり、残りの判定値DV,DV,DV,DVは0をとる。したがって決定部126は、領域RGNに遠方が含まれると判定することができる。
 図4(a)、(b)は、異なる走行シーンで撮影される車両前方の画像データIMGの例を示す図である。ここでは分割数N=6としている。複数の判定部124は独立に処理を行うため、複数の判定値が同時に1となる場合もある。図4(a)の例では、消失点Pは、領域RGNとRGNの境界の近傍に位置しており、領域RGN、RGNの判定値が1となり、残りが0となっている。このような場合、決定部126は、RGNとRGNの境界を遠方と判定してもよい。図4(b)のように、3つの領域RGN~RGNの判定値が1となった場合、決定部126は、中央の領域RGNに遠方が存在するものと判定してもよい。
 判定値DVが、確率を表す多値で与えられる場合(2値の場合も含む)、決定部126は、遠方の位置Xを重み付けで決定してもよい。iは領域の番号を示す。
 X=Σi=1:N(DV×i)/(Σi=1:NDV
 座標軸の取り方は特に限定されないが、たとえばX=jを、領域RGNのセンターに対応付けてもよい。具体的にはX=2は、遠方が領域RGNのセンターに位置することを示し、X=2.5は、遠方が領域RGNとRGNの境界に位置することを示してもよい。
 図5は、車載カメラシステム100における遠方検出のフローチャートである。カメラ110によって車両前方の画像を撮影する(S100)。そして、画像を複数の領域に分割する(S102)。複数の領域それぞれについて、遠方を含むか否かを判定する(S104)。領域毎の判定結果を統合し、遠方の位置を決定する(S106)。
 以上が車載カメラシステム100の動作である。
 深層学習を用いたシステムにおける画像認識では、カメラから得られた画像IMGにおける対象物(ここでは遠方)の位置を検出しようとすると、ハードウェアの規模が大きくなり、またソフト構築の難易度が高まる。ローカルでの処理が難しい場合には、クラウド上に判定器を設けることとなり、通信設備の追加によるコスト増や、通信による遅延に起因してリアルタイム性が低下するかもしれない。
 これに対して本実施の形態によれば、画像を複数の領域に分割し、領域毎に対象が存在する・しないの2値問題に置き換えることで、ローカルのプロセッサのマシンパワーで、遠方の位置情報を得ることができる。
 上述の車載カメラシステム100は、特に車両用灯具に好適に用いることができる。図6は、実施の形態に係る車両用灯具200のブロック図である。車両用灯具200は、上述の車載カメラシステム100に加えて、配光パターン生成部210および配光可変ランプ220を備える。
 配光可変ランプ220は、公知技術あるいは将来利用可能な技術を用いればよい。たとえば、配光可変ランプ220はアレイ方式やスキャン方式などが提案されている。アレイ方式のランプは、アレイ状に配置された複数の半導体光源を備え、複数の半導体光源それぞれのオン、オフあるいは輝度を制御する。スキャン方式のランプは、半導体光源と、半導体光源の出射光を車両前方で走査するスキャン光学系を備え、スキャンの動作と同期して、半導体光源のオン、オフや輝度を制御する。
 配光パターン生成部210には、カメラ110によって撮影された画像IMGに加えて、車載カメラシステム100によって検出された遠方の情報が供給される。配光パターン生成部210に入力する画像データIMGは、カメラ110とは別のカメラによって撮影してもよい。
 配光パターン生成部210は、遠方の情報DPを活用しながら、配光パターンPATを生成する。配光パターン生成部210は、画像処理によって、画像IMGから、先行車、対向車、歩行者、標識などのオブジェクト(物標)を検出し、遮光領域(あるいは減光領域)と照射領域の組み合わせからなる配光パターンPATを生成する。遠方の情報DPは、物標検出に、補助的にあるいは積極的に用いることができる。たとえば遠方の位置を知ることで、遠方の車両(オブジェクト)と道路照明を精度よく区別することができる。また遠方は、対向車が発生するポイントであるから、遠方が分かっていれば、対向車をいち早く検出することができる。
 配光パターン生成部210は、車載カメラシステム100のプロセッサ120と別のプロセッサに実装してもよいし、同一のプロセッサに実装してもよい。
 実施の形態にもとづき、具体的な語句を用いて本発明を説明したが、実施の形態は、本発明の原理、応用の一側面を示しているにすぎず、実施の形態には、請求の範囲に規定された本発明の思想を逸脱しない範囲において、多くの変形例や配置の変更が認められる。
 100 車載カメラシステム
 110 カメラ
 120 プロセッサ
 122 分割処理部
 124 判定部
 126 決定部
 200 車両用灯具
 210 配光パターン生成部
 220 配光可変ランプ
 本発明は、車載カメラシステムに関する。

Claims (9)

  1.  車両前方を撮像するカメラと、
     前記カメラの出力画像を受け、車両の遠方を検出するプロセッサと、
     を備え、
     前記プロセッサは、
     車両前方を撮影した画像を、水平方向に並ぶ複数の領域に分割するステップと、
     前記複数の領域それぞれについて、遠方が含まれるか否かを判定するステップと、
     を実行することを特徴とする車載カメラシステム。
  2.  前記複数の領域のうち、3つの領域について遠方を含む判定された場合、中央の領域に遠方が含まれると判定するステップをさらに備えることを特徴とする請求項1に記載の車載カメラシステム。
  3.  前記複数の領域のうち、2以上の領域について遠方を含む判定された場合、前記2以上の領域の位置を重み付けして、前記遠方の位置を生成するステップをさらに備えることを特徴とする請求項1または2に記載の車載カメラシステム。
  4.  前記プロセッサは、機械学習にもとづいて実装される識別器を含み、前記機械学習の教師データとして用いる画像データは、前記複数の領域のうち2以上に跨がるサイズを有することを特徴とする請求項1から3のいずれかに記載の車載カメラシステム。
  5.  請求項1から4のいずれかに記載の車載カメラシステムを備えることを特徴とする車両用灯具。
  6.  車両前方を撮影した画像を、水平方向に複数の領域に分割するステップと、
     前記複数の領域それぞれについて、遠方が含まれるか否かを判定するステップと、
     を備えることを特徴とする遠方の検出方法。
  7.  前記複数の領域のうち、3つの領域について遠方を含む判定された場合、中央の領域に遠方が含まれると判定するステップをさらに備えることを特徴とする請求項6に記載の検出方法。
  8.  前記複数の領域のうち、2以上の領域について遠方を含む判定された場合、前記2以上の領域の位置を重み付けして、前記遠方の位置を生成するステップをさらに備えることを特徴とする請求項6または7に記載の検出方法。
  9.  請求項6から8のいずれかに記載の検出方法と、
     前記検出方法によって検出された前記遠方の情報にもとづいて、物標を検出するステップと、
     前記物標にもとづいて配光パターンを生成するステップと、
     を備えることを特徴とする車両用灯具の制御方法。
PCT/JP2019/001405 2018-01-24 2019-01-18 車載カメラシステム、車両用灯具、遠方の検出方法、車両用灯具の制御方法 WO2019146514A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019567037A JPWO2019146514A1 (ja) 2018-01-24 2019-01-18 車載カメラシステム、車両用灯具、遠方の検出方法、車両用灯具の制御方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018009945 2018-01-24
JP2018-009945 2018-01-24

Publications (1)

Publication Number Publication Date
WO2019146514A1 true WO2019146514A1 (ja) 2019-08-01

Family

ID=67395474

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/001405 WO2019146514A1 (ja) 2018-01-24 2019-01-18 車載カメラシステム、車両用灯具、遠方の検出方法、車両用灯具の制御方法

Country Status (2)

Country Link
JP (1) JPWO2019146514A1 (ja)
WO (1) WO2019146514A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285335A (ja) * 2005-03-31 2006-10-19 Nissan Motor Co Ltd 障害物検出装置及び障害物検出方法
JP2011022995A (ja) * 2009-06-16 2011-02-03 Nippon Soken Inc 消失点推定装置およびプログラム
JP2011053732A (ja) * 2009-08-31 2011-03-17 Daihatsu Motor Co Ltd 画像処理装置
JP2014052977A (ja) * 2012-09-10 2014-03-20 Nippon Telegr & Teleph Corp <Ntt> 対応付け装置及びコンピュータプログラム
JP2017505946A (ja) * 2014-01-17 2017-02-23 ケーピーアイティ テクノロジーズ リミテッド 車両検出システムおよびその方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285335A (ja) * 2005-03-31 2006-10-19 Nissan Motor Co Ltd 障害物検出装置及び障害物検出方法
JP2011022995A (ja) * 2009-06-16 2011-02-03 Nippon Soken Inc 消失点推定装置およびプログラム
JP2011053732A (ja) * 2009-08-31 2011-03-17 Daihatsu Motor Co Ltd 画像処理装置
JP2014052977A (ja) * 2012-09-10 2014-03-20 Nippon Telegr & Teleph Corp <Ntt> 対応付け装置及びコンピュータプログラム
JP2017505946A (ja) * 2014-01-17 2017-02-23 ケーピーアイティ テクノロジーズ リミテッド 車両検出システムおよびその方法

Also Published As

Publication number Publication date
JPWO2019146514A1 (ja) 2021-01-07

Similar Documents

Publication Publication Date Title
WO2020121973A1 (ja) 物体識別システム、演算処理装置、自動車、車両用灯具、分類器の学習方法
JP5680573B2 (ja) 車両の走行環境認識装置
US8908924B2 (en) Exterior environment recognition device and exterior environment recognition method
JP6132412B2 (ja) 車外環境認識装置
KR101511853B1 (ko) 단일 다중 노출 카메라를 이용한 야간 전방 차량 검출 및 위치 측정 시스템 및 방법
US9616805B2 (en) Method and device for controlling a headlamp of a vehicle
JP2007302068A (ja) 車両用灯火管理システムおよび車両用灯火管理装置
JP6701253B2 (ja) 車外環境認識装置
JP6435661B2 (ja) 物体識別システム、情報処理装置、情報処理方法及びプログラム
JPWO2019194256A1 (ja) 演算処理装置、オブジェクト識別システム、学習方法、自動車、車両用灯具
JP7095640B2 (ja) 物体検出装置
US11704910B2 (en) Vehicle detecting device and vehicle lamp system
JPWO2019194255A1 (ja) 演算処理装置、オブジェクト識別システム、オブジェクト識別方法、自動車、車両用灯具
EP3998767B1 (en) Imaging device, lighting device for same, vehicle, and lamp fitting for vehicle
US20230156341A1 (en) Gating camera, sensing system for vehicle, and lighting unit for vehicle
US20190220988A1 (en) Method for distance measurement using trajectory-based triangulation
JP2003267125A (ja) 前照灯照射範囲制御方法及び前照灯装置
WO2019146514A1 (ja) 車載カメラシステム、車両用灯具、遠方の検出方法、車両用灯具の制御方法
WO2019035363A1 (ja) 認識センサおよびその制御方法、自動車、車両用灯具、オブジェクト識別システム、オブジェクトの識別方法
EP3168779A1 (en) Method for identifying an incoming vehicle and corresponding system
WO2021060397A1 (ja) ゲーティングカメラ、自動車、車両用灯具、画像処理装置、画像処理方法
WO2019159764A1 (ja) 車載カメラシステム、車両用灯具
WO2020039838A1 (ja) 画像処理装置および画像処理方法
CN113632450A (zh) 摄影系统及图像处理装置
EP4382968A1 (en) Gating camera, vehicular sensing system, and vehicular lamp

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19743456

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019567037

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19743456

Country of ref document: EP

Kind code of ref document: A1