JP7031137B2 - Laser scanning device - Google Patents

Laser scanning device Download PDF

Info

Publication number
JP7031137B2
JP7031137B2 JP2017077511A JP2017077511A JP7031137B2 JP 7031137 B2 JP7031137 B2 JP 7031137B2 JP 2017077511 A JP2017077511 A JP 2017077511A JP 2017077511 A JP2017077511 A JP 2017077511A JP 7031137 B2 JP7031137 B2 JP 7031137B2
Authority
JP
Japan
Prior art keywords
scanning
region
laser
liquid crystal
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017077511A
Other languages
Japanese (ja)
Other versions
JP2018180181A (en
Inventor
夏香 堺
八寿彦 吉田
将樹 古山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Inc filed Critical Toppan Inc
Priority to JP2017077511A priority Critical patent/JP7031137B2/en
Publication of JP2018180181A publication Critical patent/JP2018180181A/en
Application granted granted Critical
Publication of JP7031137B2 publication Critical patent/JP7031137B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Liquid Crystal (AREA)
  • Optical Modulation, Optical Deflection, Nonlinear Optics, Optical Demodulation, Optical Logic Elements (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、車両に搭載されるレーザ走査装置に係り、例えば、赤外線レーザを用いたレーザ走査装置に関する。 The present invention relates to a laser scanning device mounted on a vehicle, and relates to, for example, a laser scanning device using an infrared laser.

車両の自動運転、又は車両の運転支援を行う機器が盛んに開発されている。また、車両などに搭載されるLIDAR(Light Detection and Ranging)が知られている。LIDARは、レーザ光(例えば、波長λ=905nm)を用いて車両前方のある範囲を走査し、この走査範囲にある検出物からの反射光を検出することによって、対象物の検出、及び車両から対象物までの距離を測定する。 Equipment for automatic driving of vehicles or driving support for vehicles is being actively developed. Further, LIDAR (Light Detection and Ranging) mounted on a vehicle or the like is known. LIDAR uses a laser beam (for example, wavelength λ = 905 nm) to scan a certain area in front of the vehicle, and detects the reflected light from the detected object in this scanning range to detect the object and from the vehicle. Measure the distance to the object.

LIDARとしては、いくつかの方式が提案されている。レーザ光を出射する複数の送信部を縦方向に配置し、全体を水平面で回転させて走査する方式(特許文献1)、レーザ入射角を変化させて垂直方向(縦方向)を走査し、ポリゴンミラーの回転で水平方向(横方向)を走査する方式(特許文献2)、及び2軸で独立に角度の変えられるMEMSミラーを用いる方式(特許文献3)などがある。これらメカニカルな手法以外にも、電気的に位相を変えることにより光の出射角度を変える方式(特許文献4、5)などがある。 As LIDAR, several methods have been proposed. A method of arranging a plurality of transmitters that emit laser light in the vertical direction and rotating the whole in a horizontal plane to scan (Patent Document 1), scanning in the vertical direction (vertical direction) by changing the laser incident angle, and polygons. There are a method of scanning in the horizontal direction (horizontal direction) by rotating the mirror (Patent Document 2), and a method of using a MEMS mirror whose angle can be changed independently on two axes (Patent Document 3). In addition to these mechanical methods, there are methods for changing the emission angle of light by electrically changing the phase (Patent Documents 4 and 5).

しかし、メカニカルな手法では、素早く走査範囲を変更したり、細かく走査するのが困難である。また、特許文献4、5では、光パワースプリッタ、光フェーズシフタ、光カプラなどが必要であり、構成部品が多く、構造が複雑になってしまう。 However, with the mechanical method, it is difficult to change the scanning range quickly or scan finely. Further, in Patent Documents 4 and 5, an optical power splitter, an optical phase shifter, an optical coupler, and the like are required, and there are many components, which makes the structure complicated.

米国特許出願公開第2010/0020306号明細書U.S. Patent Application Publication No. 2010/0020306 特開2010-38859号公報Japanese Unexamined Patent Publication No. 2010-38859 特開2009-216789号公報Japanese Unexamined Patent Publication No. 2009-216789 国際公開2014/110017号International Publication No. 2014/110017 国際公開2016/022220号International Release 2016/022220

本発明は、走査点の密度を動的に変えることが可能であり、かつ信頼性を向上させることが可能なレーザ走査装置を提供する。 The present invention provides a laser scanning apparatus capable of dynamically changing the density of scanning points and improving reliability.

本発明の一態様に係るレーザ走査装置は、レーザ光によって被走査領域の走査を行うレーザ走査装置であって、前記レーザ光を一定の周期で出射するレーザ源と、前記レーザ源から出射した前記レーザ光を透過し、前記レーザ光の出射角を変える走査素子と、前記走査素子を制御する制御部とを具備する。前記制御部は、前記レーザ光により走査される前記被走査領域のサイズ及び前記被走査領域に対して前記レーザ光を送信する点の密度を変えるように前記走査素子を制御する。 The laser scanning device according to one aspect of the present invention is a laser scanning device that scans a region to be scanned by a laser beam, and is a laser source that emits the laser beam at a constant cycle and the laser source that emits the laser beam. It includes a scanning element that transmits laser light and changes the emission angle of the laser light, and a control unit that controls the scanning element. The control unit controls the scanning element so as to change the size of the scanned region scanned by the laser beam and the density of the points at which the laser beam is transmitted with respect to the scanned region.

本発明によれば、走査点の密度を動的に変えることが可能であり、かつ信頼性を向上させることが可能なレーザ走査装置を提供することができる。 According to the present invention, it is possible to provide a laser scanning apparatus capable of dynamically changing the density of scanning points and improving reliability.

実施形態に係る車載システムの構成を示すブロック図。The block diagram which shows the structure of the in-vehicle system which concerns on embodiment. 運転支援ECUの構成を示すブロック図。The block diagram which shows the structure of the operation support ECU. LIDARの構成を示すブロック図。The block diagram which shows the structure of LIDAR. 液晶素子の平面図。Top view of the liquid crystal element. 図4に示したA-A´線に沿った液晶素子の断面図。FIG. 4 is a cross-sectional view of the liquid crystal element along the AA'line shown in FIG. 液晶素子の動作を説明する図。The figure explaining the operation of a liquid crystal element. 液晶素子によりレーザ光が屈折する動作を説明する図。The figure explaining the operation which the laser beam is refracted by a liquid crystal element. セル電極に印加される実効電圧を説明する図。The figure explaining the effective voltage applied to a cell electrode. 液晶素子によりレーザ光が屈折する動作を説明する図。The figure explaining the operation which the laser beam is refracted by a liquid crystal element. 液晶素子によりレーザ光が屈折する動作を説明する図。The figure explaining the operation which the laser beam is refracted by a liquid crystal element. 液晶分子の傾斜角と実効電圧との関係の一例を示すグラフ。The graph which shows an example of the relationship between the inclination angle of a liquid crystal molecule and an effective voltage. 走査角と実効電圧との関係の一例を示すグラフ。The graph which shows an example of the relationship between a scanning angle and an effective voltage. 運転支援ECUによる対象物を検知する動作を説明するフローチャート。A flowchart illustrating an operation of detecting an object by the driving support ECU. 運転支援ECUによる自車位置を推定する動作を説明するフローチャート。A flowchart illustrating an operation of estimating the position of the own vehicle by the driving support ECU. LIDARの基本動作を説明する概略図。The schematic diagram explaining the basic operation of LIDAR. LIDARによるレーザ光の波形を説明する図。The figure explaining the waveform of the laser beam by LIDAR. LIDARによる走査領域制御動作を説明する模式図。The schematic diagram explaining the scanning area control operation by LIDAR. LIDARによる走査領域制御動作を説明する模式図。The schematic diagram explaining the scanning area control operation by LIDAR. LIDARによる走査領域制御動作を説明する模式図。The schematic diagram explaining the scanning area control operation by LIDAR. LIDARによる走査領域制御動作を説明する模式図。The schematic diagram explaining the scanning area control operation by LIDAR. LIDARによる走査領域制御動作を説明する模式図。The schematic diagram explaining the scanning area control operation by LIDAR. 第1実施例に係る走査動作を説明するフローチャート。The flowchart explaining the scanning operation which concerns on 1st Embodiment. 走査対象の下側領域を走査する様子を説明する図。The figure explaining the state of scanning the lower area of a scanning object. 走査対象の上側領域を走査する様子を説明する図。The figure explaining the state of scanning the upper area of the scanning object. 車両から近い人物がいる領域を走査する様子を説明する図。The figure explaining the state of scanning the area where there is a person close to a vehicle. 第2実施例に係る走査動作を説明するフローチャート。The flowchart explaining the scanning operation which concerns on 2nd Embodiment. 通常時における走査範囲を説明する模式図。The schematic diagram explaining the scanning range in a normal time. LIDARによる走査の一例を説明する図。The figure explaining an example of scanning by LIDAR. LIDARによる走査の一例を説明する図。The figure explaining an example of scanning by LIDAR. LIDARによる走査の一例を説明する図。The figure explaining an example of scanning by LIDAR. 第3実施例に係る走査動作を説明するフローチャート。The flowchart explaining the scanning operation which concerns on 3rd Embodiment. 第3実施例に係る走査領域を説明する図。The figure explaining the scanning area which concerns on 3rd Example.

以下、実施形態について図面を参照して説明する。ただし、図面は模式的または概念的なものであり、各図面の寸法および比率等は必ずしも現実のものと同一とは限らないことに留意すべきである。また、図面の相互間で同じ部分を表す場合においても、互いの寸法の関係や比率が異なって表される場合もある。特に、以下に示す幾つかの実施形態は、本発明の技術思想を具体化するための装置および方法を例示したものであって、構成部品の形状、構造、配置等によって、本発明の技術思想が特定されるものではない。なお、以下の説明において、同一の機能及び構成を有する要素については同一符号を付し、重複説明は必要な場合にのみ行う。 Hereinafter, embodiments will be described with reference to the drawings. However, it should be noted that the drawings are schematic or conceptual, and the dimensions and ratios of each drawing are not necessarily the same as the actual ones. Further, even when the same part is represented between the drawings, the relationship and ratio of the dimensions of each other may be represented differently. In particular, some embodiments shown below exemplify devices and methods for embodying the technical idea of the present invention, and depending on the shape, structure, arrangement, etc. of the components, the technical idea of the present invention. Is not specified. In the following description, elements having the same function and configuration are designated by the same reference numerals, and duplicate explanations will be given only when necessary.

[1] 車載システム1の構成
まず、車両に搭載される車載システム1の全体構成について説明する。図1は、本発明の実施形態に係る車載システム1の構成を示すブロック図である。
[1] Configuration of the in-vehicle system 1 First, the overall configuration of the in-vehicle system 1 mounted on the vehicle will be described. FIG. 1 is a block diagram showing a configuration of an in-vehicle system 1 according to an embodiment of the present invention.

車載システム1は、運転支援ECU(Electronic Control Unit)10、レーザ走査装置としてのLIDAR(Light Detection and Ranging、又はLaser Imaging Detection and Ranging)20、カメラ30、超音波レーダ31、ミリ波レーダ32、GNSS(Global Navigation Satellite System)受信部33、通信部34、車両ECU35、操舵装置36、駆動装置37、及び制動装置38などを備える。LIDAR20、カメラ30、超音波レーダ31、ミリ波レーダ32、及びGNSS受信部33はそれぞれ、センサと呼ぶ場合もある。 The in-vehicle system 1 includes a driving support ECU (Electronic Control Unit) 10, a LIDAR (Light Detection and Ranging or Laser Imaging Detection and Ranging) 20 as a laser scanning device, a camera 30, an ultrasonic radar 31, a millimeter wave radar 32, and a GNSS. (Global Navigation Satellite System) A receiving unit 33, a communication unit 34, a vehicle ECU 35, a steering device 36, a driving device 37, a braking device 38, and the like are provided. The LIDAR 20, the camera 30, the ultrasonic radar 31, the millimeter wave radar 32, and the GNSS receiver 33 may be referred to as sensors, respectively.

車両ECU35は、車両の走行を統括的に制御する装置である。車両ECU35は、1つ又は複数のプロセッサ(CPU(Central Processing Unit)、及び/又はMPU(Micro Processing Unit)を含む)、ROM(Read Only Memory)、及びRAM(Random Access Memory)などを含む周知のマイクロコンピュータである。車両ECU35は、ROMに記憶されているプログラムに基づいて、走行制御を実行する。車両ECU35は、操舵装置36、駆動装置37、及び制動装置38などを制御する。 The vehicle ECU 35 is a device that comprehensively controls the traveling of the vehicle. The vehicle ECU 35 is well known including one or more processors (including a CPU (Central Processing Unit) and / or an MPU (Micro Processing Unit)), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. It is a microcomputer. The vehicle ECU 35 executes traveling control based on the program stored in the ROM. The vehicle ECU 35 controls the steering device 36, the drive device 37, the braking device 38, and the like.

操舵装置36は、車両ECU35の指令に基づいて、車両の進行方向を切り換える。 The steering device 36 switches the traveling direction of the vehicle based on the command of the vehicle ECU 35.

駆動装置37は、車両ECU35の指令に基づいて、車両の駆動力を生成する。例えば、車両がエンジン車両である場合、駆動装置37は、エンジン及びトランスミッション(図示せず)などを有する。車両が電気自動車である場合、駆動装置37は、走行モータ及びトランスミッション(図示せず)などを有する。 The drive device 37 generates the driving force of the vehicle based on the command of the vehicle ECU 35. For example, if the vehicle is an engine vehicle, the drive unit 37 has an engine, a transmission (not shown), and the like. When the vehicle is an electric vehicle, the drive device 37 includes a traveling motor, a transmission (not shown), and the like.

制動装置38は、車両ECU35の指令に基づいて、車両の制動力を生成する。 The braking device 38 generates the braking force of the vehicle based on the command of the vehicle ECU 35.

運転支援ECU10は、運転支援又は自動運転を統括的に制御する装置である。運転支援ECU10は、1つ又は複数のプロセッサ(CPU、及び/又はMPUを含む)、ROM、及びRAMなどを含む周知のマイクロコンピュータである。運転支援ECU10は、ROMに記憶されているプログラムに基づいて、運転支援制御を実行する。 The driving support ECU 10 is a device that comprehensively controls driving support or automatic driving. The driving support ECU 10 is a well-known microcomputer including one or more processors (including a CPU and / or an MPU), a ROM, a RAM, and the like. The driving support ECU 10 executes the driving support control based on the program stored in the ROM.

運転支援ECU10には、それぞれ通信用バスを介して、LIDAR20、カメラ30、超音波レーダ31、ミリ波レーダ32、GNSS受信部33、及び通信部34が接続される。なお、図1では、簡略化のために、LIDAR20、カメラ30、超音波レーダ31、及びミリ波レーダ32をそれぞれ1個のみ図示している。しかし、LIDAR20、カメラ30、超音波レーダ31、及びミリ波レーダ32はそれぞれ、複数個設けられていてもよい。例えば、車両の前後左右に4個のLIDARが取り付けられ、4個のLIDARは、車両の前後左右を走査可能である。カメラ30、超音波レーダ31、及びミリ波レーダ32についても、LIDAR20の配置例と同様である。 The LIDAR 20, the camera 30, the ultrasonic radar 31, the millimeter wave radar 32, the GNSS receiving unit 33, and the communication unit 34 are connected to the operation support ECU 10 via a communication bus, respectively. In FIG. 1, for simplification, only one LIDAR 20, a camera 30, an ultrasonic radar 31, and a millimeter wave radar 32 are shown. However, a plurality of LIDAR 20, a camera 30, an ultrasonic radar 31, and a millimeter wave radar 32 may be provided. For example, four lidars are attached to the front, rear, left and right of the vehicle, and the four lidars can scan the front, back, left and right of the vehicle. The camera 30, the ultrasonic radar 31, and the millimeter wave radar 32 are the same as the arrangement example of the LIDAR 20.

LIDAR20は、車両の前側(例えば、フロントバンパー、又はフロントグリル)、車両の後ろ側(例えば、リアバンパー、又はリアグリル)、及び/又は、車両の側方(例えば、フロントバンパーの側方)に配置される。また、LIDAR20は、ルーフやボンネット等、車両の上部に配置されてもよい。 The LIDAR 20 is located on the front side of the vehicle (eg, front bumper or front grille), on the rear side of the vehicle (eg, rear bumper or rear grille) and / or on the side of the vehicle (eg, side of the front bumper). .. Further, the LIDAR 20 may be arranged on the upper part of the vehicle such as a roof or a bonnet.

LIDAR20は、レーザ光(赤外線レーザ)を車両周辺の所定範囲に送信し、その反射光を受信する。そして、LIDAR20は、反射点(対象物)の存在、及び対象物までの距離を検出する。一例として、LIDAR20は、レーザ光を用いて、車両の前方の所定範囲を走査する。 The LIDAR 20 transmits a laser beam (infrared laser) to a predetermined range around the vehicle and receives the reflected light. Then, the LIDAR 20 detects the existence of the reflection point (object) and the distance to the object. As an example, the LIDAR 20 uses a laser beam to scan a predetermined area in front of the vehicle.

カメラ(画像処理装置)30は、所定周期で車両周辺を撮像する。また、カメラ30は、周辺の車両や人などの対象物、及び、走行車線の特定に用いられる対象物(区画線、縁石、及び中央分離帯など)を検出する。カメラ30は、CCD(charge-coupled device)やCMOS(complementary metal oxide semiconductor)などの撮像素子を含む。 The camera (image processing device) 30 takes an image of the surroundings of the vehicle at a predetermined cycle. Further, the camera 30 detects an object such as a surrounding vehicle or a person, and an object (a lane marking, a curb, a median strip, etc.) used for specifying a traveling lane. The camera 30 includes an image pickup device such as a CCD (charge-coupled device) or a CMOS (complementary metal oxide semiconductor).

超音波レーダ31は、超音波を用いて、車両周辺の対象物を検出する。ミリ波レーダ32は、ミリ波を用いて、車両周辺の対象物を検出する。 The ultrasonic radar 31 uses ultrasonic waves to detect an object around the vehicle. The millimeter wave radar 32 uses millimeter waves to detect an object around the vehicle.

GNSS受信部33は、複数のGNSS(Global Positioning System)衛星から信号を受信し、自車両の位置を示す位置情報を取得する。位置情報には、例えば緯度及び経度が含まれる。なお、本実施形態では、GNSSを用いる構成を示したが、例えばGPSのように、GNSS以外の測位システムの受信機を用いる構成としてもよい。 The GNSS receiving unit 33 receives signals from a plurality of GNSS (Global Positioning System) satellites and acquires position information indicating the position of the own vehicle. The location information includes, for example, latitude and longitude. In this embodiment, the configuration using GNSS is shown, but a configuration using a receiver of a positioning system other than GNSS, such as GPS, may be used.

通信部34は、ネットワークを介して、運転支援サーバや管理センタとの間で無線通信を行う。そして、通信部34は、運転支援サーバや管理センタから、様々な情報を取得する。 The communication unit 34 performs wireless communication with the driving support server and the management center via the network. Then, the communication unit 34 acquires various information from the driving support server and the management center.

[1-1] 運転支援ECU10の構成
次に、運転支援ECU10の構成について説明する。図2は、運転支援ECU10の構成を示すブロック図である。
[1-1] Configuration of the driving support ECU 10 Next, the configuration of the driving support ECU 10 will be described. FIG. 2 is a block diagram showing the configuration of the driving support ECU 10.

運転支援ECU10は、記憶部11、自車位置推定部12、対象物検出部13、センサ制御部14、走査制御部15、電圧制御部16、及び行動計画生成部17を備える。 The driving support ECU 10 includes a storage unit 11, a vehicle position estimation unit 12, an object detection unit 13, a sensor control unit 14, a scanning control unit 15, a voltage control unit 16, and an action plan generation unit 17.

記憶部11は、参照用3次元地図データ(3D地図データ)11Aを記憶する記憶領域を備える。また、記憶部11は、行動計画(走行計画)などを記憶する。 The storage unit 11 includes a storage area for storing the reference three-dimensional map data (3D map data) 11A. Further, the storage unit 11 stores an action plan (travel plan) and the like.

参照用3次元地図データ11Aは、道路の位置情報、道路形状の情報(カーブと直線部との種別、カーブの曲率、車線幅、及び路肩幅などを含む)、交差点及び分岐点の位置情報、施設の情報、信号機の情報、及び交通標識の情報などが含まれている。参照用3次元地図データ11Aは、自動車が走行可能な範囲について、3次元地図作成用である本システムとは別のLIDARによって、あらかじめ作成されているものである。参照用3次元地図データ11Aには、3次元地図作成時における車両の位置情報が含まれていてもよい。参照用3次元地図データ11Aは、記憶部11が備える不揮発性メモリに格納される。参照用3次元地図データ11Aは、通信部34を用いて、最新の情報に更新することが可能である。 The reference three-dimensional map data 11A includes road position information, road shape information (including the type of curve and straight line, curve curvature, lane width, road shoulder width, etc.), position information of intersections and branch points, and so on. Includes facility information, traffic light information, and traffic sign information. The reference three-dimensional map data 11A is created in advance by LIDAR, which is different from the system for creating a three-dimensional map, for the range in which the vehicle can travel. The reference three-dimensional map data 11A may include vehicle position information at the time of creating the three-dimensional map. The reference three-dimensional map data 11A is stored in the non-volatile memory included in the storage unit 11. The reference three-dimensional map data 11A can be updated with the latest information by using the communication unit 34.

センサ制御部14は、カメラ30、超音波レーダ31、ミリ波レーダ32、及びGNSS受信部33を含むセンサ群の動作を制御する。センサ制御部14は、センサ群によって検出された情報を用いて、対象物を認識及び特定する。 The sensor control unit 14 controls the operation of the sensor group including the camera 30, the ultrasonic radar 31, the millimeter wave radar 32, and the GNSS receiving unit 33. The sensor control unit 14 recognizes and identifies an object by using the information detected by the sensor group.

走査制御部15は、LIDAR20の走査動作を制御する。走査制御部15は、LIDAR20による走査領域(フレーム)のサイズを変える制御、及び走査領域を走査するための走査点(レーザ光が送信される点)の密度を変える制御などを実行する。 The scanning control unit 15 controls the scanning operation of the LIDAR 20. The scanning control unit 15 executes control by the LIDAR 20 to change the size of the scanning region (frame), control to change the density of scanning points (points to which the laser beam is transmitted) for scanning the scanning region, and the like.

電圧制御部16は、LIDAR20を駆動する。具体的には、電圧制御部16は、LIDAR20に含まれる液晶素子22が所望の動作を実現できるように、各種電圧を液晶素子22に供給する。 The voltage control unit 16 drives the LIDAR 20. Specifically, the voltage control unit 16 supplies various voltages to the liquid crystal element 22 so that the liquid crystal element 22 included in the LIDAR 20 can realize a desired operation.

自車位置推定部12は、各種センサによる情報に基づいて、自車の位置を推定する。対象物検出部13は、各種センサによる情報に基づいて、車両周囲の対象物を検出する。行動計画生成部17は、自車位置の推定結果、及び対象物の検知結果に基づいて、車両が走行するルートである行動計画を生成する。 The own vehicle position estimation unit 12 estimates the position of the own vehicle based on the information from various sensors. The object detection unit 13 detects an object around the vehicle based on information from various sensors. The action plan generation unit 17 generates an action plan, which is a route on which the vehicle travels, based on the estimation result of the position of the own vehicle and the detection result of the object.

[1-2] LIDAR20の構成
次に、LIDAR20の構成について説明する。図3は、LIDAR20の構成を示すブロック図である。
[1-2] Configuration of LIDAR 20 Next, the configuration of LIDAR 20 will be described. FIG. 3 is a block diagram showing the configuration of LIDAR 20.

LIDAR20は、レーザ源21、走査素子としての液晶素子22、及び検出回路23を備える。LIDAR20の基本的な動作は、送信したレーザ光が対象物で反射して検出回路23に戻るまでの光の往復時間(TOF:Time of Flight)を計測する。 The LIDAR 20 includes a laser source 21, a liquid crystal element 22 as a scanning element, and a detection circuit 23. The basic operation of the LIDAR 20 is to measure the round-trip time (TOF: Time of Flight) of the transmitted laser light until it is reflected by the object and returned to the detection circuit 23.

レーザ源21は、レーザ光を発生及び出射する。レーザ光としては、赤外線レーザ(例えば波長λ=905nm)が用いられる。 The laser source 21 generates and emits laser light. As the laser beam, an infrared laser (for example, wavelength λ = 905 nm) is used.

液晶素子22は、レーザ源21からの赤外線レーザを透過させるとともに、赤外線レーザを走査、すなわち赤外線レーザの出射角を時分割で変える。これにより、対象物の複数点に対して赤外線レーザを照射することができる。液晶素子22の具体的な構成については後述する。 The liquid crystal element 22 transmits the infrared laser from the laser source 21 and scans the infrared laser, that is, the emission angle of the infrared laser is changed in time division. This makes it possible to irradiate a plurality of points of the object with an infrared laser. The specific configuration of the liquid crystal element 22 will be described later.

検出回路23は、対象物によって反射された赤外線レーザを検出する。検出回路23は、例えば赤外線センサから構成される。その他、検出回路23として赤外線カメラを用いてもよい。 The detection circuit 23 detects the infrared laser reflected by the object. The detection circuit 23 is composed of, for example, an infrared sensor. In addition, an infrared camera may be used as the detection circuit 23.

[1-3] 液晶素子22の構成
次に、LIDAR20に含まれる液晶素子22の構成について説明する。図4は、液晶素子22の平面図である。図5は、図4に示したA-A´線に沿った液晶素子22の断面図である。
[1-3] Configuration of Liquid Crystal Element 22 Next, the configuration of the liquid crystal element 22 included in the LIDAR 20 will be described. FIG. 4 is a plan view of the liquid crystal element 22. FIG. 5 is a cross-sectional view of the liquid crystal element 22 along the AA'line shown in FIG.

液晶素子22は、透過型の液晶パネルである。液晶素子22は、対向配置された基板40、41と、基板40、41間に挟持された液晶層42とを備える。基板40、41の各々は、透明基板(例えば、ガラス基板、又はプラスチック基板)から構成される。基板40は、レーザ源21に対向配置され、レーザ源21からのレーザ光は、基板40側から液晶層42に入射する。 The liquid crystal element 22 is a transmissive liquid crystal panel. The liquid crystal element 22 includes substrates 40 and 41 arranged to face each other and a liquid crystal layer 42 sandwiched between the substrates 40 and 41. Each of the substrates 40 and 41 is composed of a transparent substrate (for example, a glass substrate or a plastic substrate). The substrate 40 is arranged to face the laser source 21, and the laser light from the laser source 21 is incident on the liquid crystal layer 42 from the substrate 40 side.

液晶層42は、基板40、41間に充填される。具体的には、液晶層42は、基板40、41と、シール材43とによって包囲された領域内に封入される。シール材43は、例えば、紫外線硬化樹脂、熱硬化樹脂、又は紫外線・熱併用型硬化樹脂等からなり、製造プロセスにおいて基板40又は基板41に塗布された後、紫外線照射、又は加熱等により硬化させられる。 The liquid crystal layer 42 is filled between the substrates 40 and 41. Specifically, the liquid crystal layer 42 is enclosed in a region surrounded by the substrates 40 and 41 and the sealing material 43. The sealing material 43 is made of, for example, an ultraviolet curable resin, a thermosetting resin, an ultraviolet / heat combined type curable resin, or the like, and is applied to the substrate 40 or the substrate 41 in the manufacturing process and then cured by ultraviolet irradiation, heating, or the like. Be done.

液晶層42を構成する液晶材料は、基板40、41間に印加された電圧(電界)に応じて液晶分子の配向が操作されて光学特性が変化する。本実施形態の液晶素子22は、ホモジニアスモードある。すなわち、液晶層42として正の誘電率異方性を有するポジ型(P型)のネマティック液晶が用いられ、液晶分子は、電圧(電界)を印加しない時には基板面に対して概略水平方向に配向する。ホモジニアスモードでは、電圧を印加しない時に液晶分子の長軸(ダイレクタ)が概略水平方向に配向し、電圧を印加した時に液晶分子の長軸が垂直方向に向かって傾く。傾斜角の大きさは、印加される実効電圧に応じて変化する。液晶層の初期配向は、液晶層42を挟むようにして基板40、41にそれぞれ設けられた2つの配向膜(図示せず)によって制御される。 The liquid crystal material constituting the liquid crystal layer 42 changes its optical characteristics by manipulating the orientation of the liquid crystal molecules according to the voltage (electric field) applied between the substrates 40 and 41. The liquid crystal element 22 of the present embodiment has a homogeneous mode. That is, a positive (P-type) nematic liquid crystal having a positive dielectric anisotropy is used as the liquid crystal layer 42, and the liquid crystal molecules are oriented substantially horizontally with respect to the substrate surface when no voltage (electric field) is applied. do. In the homogenous mode, the long axis (director) of the liquid crystal molecule is substantially oriented in the horizontal direction when no voltage is applied, and the long axis of the liquid crystal molecule is tilted in the vertical direction when the voltage is applied. The magnitude of the tilt angle changes depending on the effective voltage applied. The initial orientation of the liquid crystal layer is controlled by two alignment films (not shown) provided on the substrates 40 and 41 so as to sandwich the liquid crystal layer 42.

なお、液晶モードとして、ネガ型(N型)のネマティック液晶を用いた垂直配向(VA:Vertical Alignment)モードを用いてもよい。VAモードでは、電界を印加しない時に液晶分子の長軸が概略垂直方向に配向し、電圧を印加した時に液晶分子の長軸が水平方向に向かって傾く。 As the liquid crystal mode, a vertical alignment (VA: Vertical Alignment) mode using a negative type (N type) nematic liquid crystal may be used. In the VA mode, the major axis of the liquid crystal molecule is oriented substantially vertically when no electric field is applied, and the major axis of the liquid crystal molecule is tilted in the horizontal direction when a voltage is applied.

基板40の液晶層42側には、それぞれがY方向に延びる複数のセル電極44が設けられる。任意の数のセル電極群は、単位電極45を構成する。図4には、3個の単位電極45-1~45-3を例示しているが、実際には、さらに多くの単位電極45が設けられる。また、図4では、1つの単位電極45が10個のセル電極を備えているが、セル電極の数は、任意に設定可能である。単位電極45のX方向の長さは、これを構成するセル電極44の数を変更することで変えることができる。セル電極44は、透明電極から構成され、例えばITO(インジウム錫酸化物)が用いられる。 A plurality of cell electrodes 44, each extending in the Y direction, are provided on the liquid crystal layer 42 side of the substrate 40. An arbitrary number of cell electrode groups constitutes the unit electrode 45. Although FIG. 4 illustrates three unit electrodes 45-1 to 45-3, in reality, more unit electrodes 45 are provided. Further, in FIG. 4, one unit electrode 45 includes 10 cell electrodes, but the number of cell electrodes can be arbitrarily set. The length of the unit electrode 45 in the X direction can be changed by changing the number of cell electrodes 44 constituting the unit electrode 45. The cell electrode 44 is composed of a transparent electrode, and for example, ITO (indium tin oxide) is used.

複数の単位電極45は、互いに電気的に分離されており、また、複数のセル電極44は、互いに電気的に分離されている。すなわち、セル電極44に対して個別に電圧制御が可能であり、また、単位電極45に対して個別に電圧制御が可能である。 The plurality of unit electrodes 45 are electrically separated from each other, and the plurality of cell electrodes 44 are electrically separated from each other. That is, the voltage can be individually controlled for the cell electrode 44, and the voltage can be individually controlled for the unit electrode 45.

基板41の液晶層42側には、それぞれがX方向に延びる複数のセル電極46が設けられる。任意の数のセル電極群は、単位電極47を構成する。図4には、3個の単位電極47-1~47-3を例示しているが、実際には、さらに多くの単位電極45が設けられる。単位電極47のY方向の長さは、これを構成するセル電極46の数を変更することで変えることができる。セル電極46は、透明電極から構成され、例えばITOが用いられる。 A plurality of cell electrodes 46, each extending in the X direction, are provided on the liquid crystal layer 42 side of the substrate 41. An arbitrary number of cell electrode groups constitutes a unit electrode 47. Although FIG. 4 illustrates three unit electrodes 47-1 to 47-3, in reality, more unit electrodes 45 are provided. The length of the unit electrode 47 in the Y direction can be changed by changing the number of cell electrodes 46 constituting the unit electrode 47. The cell electrode 46 is composed of a transparent electrode, and for example, ITO is used.

複数の単位電極47は、互いに電気的に分離されており、また、複数のセル電極46は、互いに電気的に分離されている。すなわち、セル電極46に対して個別に電圧制御が可能であり、また、単位電極47に対して個別に電圧制御が可能である。 The plurality of unit electrodes 47 are electrically separated from each other, and the plurality of cell electrodes 46 are electrically separated from each other. That is, the voltage can be individually controlled for the cell electrode 46, and the voltage can be individually controlled for the unit electrode 47.

図4から理解されるように、液晶素子22は、パッシブマトリクス方式(単純マトリクス方式)であり、また、ドットマトリクス方式である。すなわち、液晶素子22は、ドットマトリクスのパターンを有する。液晶素子22は、1つのセル電極44と1つのセル電極46とが交差する1つのドット毎に、液晶配向を制御できる。 As can be understood from FIG. 4, the liquid crystal element 22 is a passive matrix system (simple matrix system) and is also a dot matrix system. That is, the liquid crystal element 22 has a dot matrix pattern. The liquid crystal element 22 can control the liquid crystal orientation for each dot where one cell electrode 44 and one cell electrode 46 intersect.

単位電極45と単位電極47との1つの交差領域は、図4の例では概略正方形であり、この交差領域は、光の位相を制御する単位となる。単位電極45及び単位電極47の電圧制御は、運転支援ECU10に含まれる電圧制御部16によって行われる。 One intersection region between the unit electrode 45 and the unit electrode 47 is a substantially square in the example of FIG. 4, and this intersection region is a unit for controlling the phase of light. The voltage control of the unit electrode 45 and the unit electrode 47 is performed by the voltage control unit 16 included in the operation support ECU 10.

なお、液晶素子22として、LCOS(Liquid Crystal on Silicon)方式を用いた透過型液晶パネル(透過型LCOS)を用いてもよい。透過型LCOSを用いることで、電極を微細加工することが可能となり、より小型の液晶素子22を実現できる。透過型LCOSでは、シリコン基板(又は透明基板上に形成されたシリコン層)が用いられる。シリコン基板は、バンドギャップとの関係で、特定の波長以上の波長を有する光(赤外線を含む)を透過するため、LCOSを透過型液晶パネルとして使用することができる。LCOSを使用することにより、セル電極がより小さい液晶パネルとすることができるため、さらに小型化することが可能となる。また、液晶分子の移動度が高いため、レーザ光を高速で走査することが可能となる。 As the liquid crystal element 22, a transmissive liquid crystal panel (transmissive LCOS) using an LCOS (Liquid Crystal on Silicon) method may be used. By using the transmissive LCOS, the electrodes can be finely processed, and a smaller liquid crystal element 22 can be realized. In the transmissive LCOS, a silicon substrate (or a silicon layer formed on the transparent substrate) is used. Since the silicon substrate transmits light (including infrared rays) having a wavelength equal to or higher than a specific wavelength in relation to the band gap, LCOS can be used as a transmissive liquid crystal panel. By using LCOS, the cell electrode can be made into a smaller liquid crystal panel, so that the size can be further reduced. Further, since the mobility of the liquid crystal molecules is high, it is possible to scan the laser beam at high speed.

(液晶素子22の動作)
次に、LIDAR20に含まれる液晶素子22の動作について説明する。図6は、液晶素子22の動作を説明する図である。レーザ源21からのレーザ光は、基板40側から液晶層42に入射する。液晶素子22の電圧制御は、運転支援ECU10に含まれる電圧制御部16によって実行される。以下の説明では、図6のX方向に走査する例について説明する。
(Operation of liquid crystal element 22)
Next, the operation of the liquid crystal element 22 included in the LIDAR 20 will be described. FIG. 6 is a diagram illustrating the operation of the liquid crystal element 22. The laser light from the laser source 21 is incident on the liquid crystal layer 42 from the substrate 40 side. The voltage control of the liquid crystal element 22 is executed by the voltage control unit 16 included in the operation support ECU 10. In the following description, an example of scanning in the X direction of FIG. 6 will be described.

電圧制御部16は、基板40に設けられた単位電極45に含まれる全てのセル電極44、及び基板41に設けられた単位電極47に含まれる全てのセル電極46に0Vを印加する。この場合、図6に示すように、液晶層42の全領域にわたって、液晶分子は、概略水平方向に配向する。この時、液晶層42に屈折率の勾配は生じていない。よって、レーザ源21から入射したレーザ光は、屈折せずに液晶素子22を透過する。 The voltage control unit 16 applies 0V to all the cell electrodes 44 included in the unit electrode 45 provided on the substrate 40 and all the cell electrodes 46 included in the unit electrode 47 provided on the substrate 41. In this case, as shown in FIG. 6, the liquid crystal molecules are oriented substantially horizontally over the entire region of the liquid crystal layer 42. At this time, the liquid crystal layer 42 does not have a gradient of refractive index. Therefore, the laser light incident from the laser source 21 passes through the liquid crystal element 22 without being refracted.

図7は、液晶素子22によりレーザ光が屈折する動作を説明する図である。電圧制御部16は、1つの単位電極45に含まれる複数のセル電極44に、図7の左から右に向かって順に高くなる実効電圧を印加する。 FIG. 7 is a diagram illustrating an operation in which the laser beam is refracted by the liquid crystal element 22. The voltage control unit 16 applies an effective voltage that increases in order from the left to the right in FIG. 7 to the plurality of cell electrodes 44 included in one unit electrode 45.

図8は、セル電極44に印加される実効電圧を説明する図である。図8の横軸は、1つの単位電極45に含まれる複数のセル電極44の番号に対応しており、図7の左から右に順に配置された例えば10個のセル電極を表している。図8の縦軸は、実効電圧(V)であり、セル電極44には交流電圧が印加される。 FIG. 8 is a diagram illustrating an effective voltage applied to the cell electrode 44. The horizontal axis of FIG. 8 corresponds to the numbers of the plurality of cell electrodes 44 included in one unit electrode 45, and represents, for example, 10 cell electrodes arranged in order from left to right in FIG. 7. The vertical axis of FIG. 8 is the effective voltage (V), and an AC voltage is applied to the cell electrode 44.

勾配を有する複数の実効電圧を複数のセル電極44に印加すると、液晶層42に屈折率の勾配が形成される。すなわち、印加電圧が高くなるにつれて、液晶分子の水平方向に対する傾きが大きくなる。液晶層42の屈折率の勾配に起因して、液晶素子22を透過したレーザ光は、角度θで屈折する。 When a plurality of effective voltages having a gradient are applied to the plurality of cell electrodes 44, a gradient of the refractive index is formed in the liquid crystal layer 42. That is, as the applied voltage increases, the inclination of the liquid crystal molecules with respect to the horizontal direction increases. Due to the gradient of the refractive index of the liquid crystal layer 42, the laser light transmitted through the liquid crystal element 22 is refracted at an angle θ.

図9及び図10は、実効電圧を順に高くした場合におけるレーザ光が屈折する動作を説明する図である。単位電極45に印加する最大の実効電圧を高くするにつれて、水平方向に対する液晶分子の傾きが大きくなる。これにより、液晶層42の屈折率の勾配がより大きくなる。すなわち、実効電圧を変えることで、レーザ光の角度θを任意に変えることができる。 9 and 10 are diagrams illustrating the operation of refracting the laser beam when the effective voltage is increased in order. As the maximum effective voltage applied to the unit electrode 45 increases, the inclination of the liquid crystal molecules with respect to the horizontal direction increases. As a result, the gradient of the refractive index of the liquid crystal layer 42 becomes larger. That is, the angle θ of the laser beam can be arbitrarily changed by changing the effective voltage.

次に、LIDAR20が出射するレーザ光の走査角θについて説明する。液晶層42の厚さdLC、単位電極45及び単位電極47の各々における走査方向の長さL、異常光の屈折率n、正常光の屈折率n、水平方向に対する液晶分子の傾斜角αmax、係数A、Bとする。“Δn”は、液晶の屈折率異方性(複屈折性)であり、異常光の屈折率と正常光の屈折率との差である。“Δn”は、見かけの複屈折性である。走査角θは、以下の式(1)~(3)で表される。 Next, the scanning angle θ of the laser beam emitted by the LIDAR 20 will be described. Thickness d LC of liquid crystal layer 42, length L in scanning direction in each of unit electrode 45 and unit electrode 47, refractive index ne of abnormal light, refractive index no o of normal light, tilt angle of liquid crystal molecule with respect to horizontal direction Let α max and the coefficients A and B. “Δn” is the refractive index anisotropy (birefringence) of the liquid crystal, and is the difference between the refractive index of abnormal light and the refractive index of normal light. “Δn * ” is the apparent birefringence. The scanning angle θ is represented by the following equations (1) to (3).

Figure 0007031137000001
Figure 0007031137000001

Figure 0007031137000002
Figure 0007031137000002

αmax=90/(1+A・exp(-B・V)) ・・・(3) α max = 90 / (1 + A ・ exp (−B ・ V)) ・ ・ ・ (3)

図11は、液晶分子の傾斜角と実効電圧との関係の一例を示すグラフである。図11の縦軸は、水平方向に対する液晶分子の最大傾斜角αmax(度)であり、すなわち、1つの単位電極45(又は単位電極47)内で最大の実効電圧が印加された領域に存在する液晶分子の傾斜角である。図11の横軸は、実効電圧(V)である。 FIG. 11 is a graph showing an example of the relationship between the tilt angle of the liquid crystal molecule and the effective voltage. The vertical axis of FIG. 11 is the maximum tilt angle α max (degrees) of the liquid crystal molecule with respect to the horizontal direction, that is, exists in the region where the maximum effective voltage is applied in one unit electrode 45 (or unit electrode 47). The tilt angle of the liquid crystal molecule. The horizontal axis of FIG. 11 is the effective voltage (V).

図12は、走査角θと実効電圧との関係の一例を示すグラフである。図12の縦軸は、走査角θ(度)であり、図12の横軸は、実効電圧(V)である。図12の実効電圧は、単位電極45(又は単位電極47)に印加する最大の実効電圧、すなわち、勾配を有する複数の実効電圧のうち最大の実効電圧である。 FIG. 12 is a graph showing an example of the relationship between the scanning angle θ and the effective voltage. The vertical axis of FIG. 12 is the scanning angle θ (degrees), and the horizontal axis of FIG. 12 is the effective voltage (V). The effective voltage in FIG. 12 is the maximum effective voltage applied to the unit electrode 45 (or the unit electrode 47), that is, the maximum effective voltage among a plurality of effective voltages having a gradient.

図11及び図12では、例えば、液晶層42の厚さdLC=30μm、単位電極45の長さL=30μm、異常光の屈折率n=1.592、正常光の屈折率n=1.415、係数A=863、係数B=0.24としている。例えば、1つの単位電極が10本のセル電極で構成されているとすると、1本のセル電極の幅は概略2.5μm、2本のセル電極間の距離は概略0.5μmである。この例の場合、実効電圧を15V~40に変化させると、走査角を0度~10度に変化させることができる。 In FIGS. 11 and 12, for example, the thickness of the liquid crystal layer 42 d LC = 30 μm, the length of the unit electrode 45 L = 30 μm, the refractive index of abnormal light ne = 1.592 , and the refractive index of normal light no =. It is 1.415, the coefficient A = 863, and the coefficient B = 0.24. For example, assuming that one unit electrode is composed of 10 cell electrodes, the width of one cell electrode is approximately 2.5 μm, and the distance between the two cell electrodes is approximately 0.5 μm. In the case of this example, if the effective voltage is changed from 15V to 40, the scanning angle can be changed from 0 degrees to 10 degrees.

なお、図11及び図12は、基板41に垂直方向(すなわち、液晶素子22内を屈折しないで進んだ光の進行方向)に対して一方の側に走査する走査角を示している。実際には、基板41に垂直方向に対して両側に走査することが可能であり、この場合の走査角は2θとなる。基板41に垂直方向に対して他方の側に走査する場合は、実効電圧の傾斜を図8の逆、すなわち、図8の左から右に順に実効電圧が高くなるようにすれば、レーザ光を図7の逆側(右側)に走査することができる。 11 and 12 show scanning angles for scanning to one side in a direction perpendicular to the substrate 41 (that is, a traveling direction of light that has traveled without refraction in the liquid crystal element 22). Actually, it is possible to scan on both sides in the direction perpendicular to the substrate 41, and the scanning angle in this case is 2θ. When scanning to the other side in the direction perpendicular to the substrate 41, the laser beam can be emitted by increasing the slope of the effective voltage in the reverse direction of FIG. 8, that is, increasing the effective voltage in order from the left to the right in FIG. It can be scanned on the opposite side (right side) of FIG.

また、Y方向に沿った一次元で走査する場合は、Y方向に沿って屈折率の勾配を形成すればよい。すなわち、1つの単位電極47に含まれる複数のセル電極46に、勾配を有する複数の実効電圧を印加する。また、二次元で走査する場合は、X方向及びY方向のそれぞれにおいて、屈折率の勾配を形成すればよい。 Further, when scanning in one dimension along the Y direction, a gradient of the refractive index may be formed along the Y direction. That is, a plurality of effective voltages having a gradient are applied to the plurality of cell electrodes 46 included in one unit electrode 47. Further, when scanning in two dimensions, a gradient of the refractive index may be formed in each of the X direction and the Y direction.

[2] 車載システム1の動作
上記のように構成された車載システム1の動作について説明する。
[2] Operation of the in-vehicle system 1 The operation of the in-vehicle system 1 configured as described above will be described.

まず、対象物を検知する動作について説明する。図13は、運転支援ECU10による対象物を検知する動作を説明するフローチャートである。 First, the operation of detecting an object will be described. FIG. 13 is a flowchart illustrating an operation of detecting an object by the driving support ECU 10.

カメラ30は、所定周期ごとに、車両周辺のうち所定領域を撮像する(ステップS100)。カメラ30による撮像データは、運転支援ECU10に送られる。 The camera 30 takes an image of a predetermined area around the vehicle at predetermined intervals (step S100). The image data captured by the camera 30 is sent to the driving support ECU 10.

続いて、超音波レーダ31は、超音波を用いて、所定周期ごとに、車両周辺のうち所定の走査範囲を走査する(ステップS101)。また、ミリ波レーダ32は、ミリ波を用いて、所定周期ごとに、車両周辺のうち所定の走査範囲を走査する(ステップS101)。超音波レーダ31及びミリ波レーダ32による測定データは、運転支援ECU10に送られる。 Subsequently, the ultrasonic radar 31 uses ultrasonic waves to scan a predetermined scanning range around the vehicle at predetermined intervals (step S101). Further, the millimeter wave radar 32 uses millimeter waves to scan a predetermined scanning range around the vehicle at predetermined cycles (step S101). The measurement data by the ultrasonic radar 31 and the millimeter wave radar 32 are sent to the driving support ECU 10.

続いて、LIDAR20は、レーザ光を用いて、所定周期ごとに、車両周辺のうち所定の走査範囲を走査する(ステップS102)。LIDAR20による測定データは、運転支援ECU10に送られる。 Subsequently, the LIDAR 20 uses a laser beam to scan a predetermined scanning range around the vehicle at predetermined intervals (step S102). The measurement data by LIDAR 20 is sent to the driving support ECU 10.

なお、ステップS100~S102の順序は任意であり、例えば、LIDAR20、超音波レーダ31、ミリ波レーダ32、及びカメラ30は、並行して測定動作を行ってもよい。また、前述したように、複数のLIDAR20が車両に取り付けられ、複数のLIDAR20が測定動作を行う。超音波レーダ31、ミリ波レーダ32、及びカメラ30についても同様である。 The order of steps S100 to S102 is arbitrary, and for example, the LIDAR 20, the ultrasonic radar 31, the millimeter wave radar 32, and the camera 30 may perform measurement operations in parallel. Further, as described above, a plurality of LIDAR 20s are attached to the vehicle, and the plurality of LIDAR 20s perform measurement operations. The same applies to the ultrasonic radar 31, the millimeter wave radar 32, and the camera 30.

続いて、対象物検出部13は、カメラ30による撮像データと、超音波レーダ31及びミリ波レーダ32による測定データと、LIDAR20による測定データとを用いて、例えば車両前方の対象物(人や障害物を含む)を検知したか否かを判定する(ステップS103)。具体的には、対象物検出部13は、カメラ30により時間差で撮像された2つ以上のデータを比較し、比較結果としての差分情報を判定することで、対象物を検知する。また、カメラ30により撮像されたデータから、公知のパターン認識技術や形状マッチング技術等を用いて対象物を検知するようにしてもよい。超音波レーダ31及びミリ波レーダ32による測定データを用いることにより、車両から対象物までの距離および方向を検出することができる。LIDAR20による測定データを用いることにより、車両周囲における対象物の立体形状を検出することができる。 Subsequently, the object detection unit 13 uses the image pickup data by the camera 30, the measurement data by the ultrasonic radar 31 and the millimeter wave radar 32, and the measurement data by the LIDAR 20, for example, an object (person or obstacle) in front of the vehicle. It is determined whether or not (including an object) is detected (step S103). Specifically, the object detection unit 13 detects an object by comparing two or more data captured by the camera 30 with a time difference and determining the difference information as the comparison result. Further, the object may be detected from the data captured by the camera 30 by using a known pattern recognition technique, shape matching technique, or the like. By using the measurement data by the ultrasonic radar 31 and the millimeter wave radar 32, the distance and direction from the vehicle to the object can be detected. By using the measurement data by LIDAR20, it is possible to detect the three-dimensional shape of the object around the vehicle.

ステップS103において対象物を検出しなかった場合、ステップS106に移行する。 If the object is not detected in step S103, the process proceeds to step S106.

ステップS103において対象物を検出した場合、対象物検出部13は、LIDAR20による走査範囲を限定し、走査可能な範囲のうち一部を詳細に走査する必要があるか否かを判定する(ステップS104)。S103において例えば車両前方に人を検出した場合、人の人数や歩いている向きなどを認識する必要があるため、詳細な走査が必要であると判定する。一方、S103において車両周囲に人や他の車両が検出されなかった場合、特定の対象物に注目する必要がないため、詳細な走査が必要でないと判定する。 When an object is detected in step S103, the object detection unit 13 limits the scanning range by the LIDAR 20 and determines whether or not it is necessary to scan a part of the scannable range in detail (step S104). ). When a person is detected in front of the vehicle in S103, for example, it is necessary to recognize the number of people, the walking direction, and the like, so it is determined that detailed scanning is necessary. On the other hand, when no person or other vehicle is detected around the vehicle in S103, it is determined that detailed scanning is not necessary because it is not necessary to pay attention to a specific object.

ステップS104において詳細な走査が必要でないと判定された場合、ステップS106に移行する。 If it is determined in step S104 that detailed scanning is not necessary, the process proceeds to step S106.

ステップS104において詳細な走査が必要であると判定された場合、対象物検出部13は、どの領域に走査範囲を限定するのかを特定し、LIDAR20に対して走査範囲を変更する指示を送信する(ステップS105)。LIDAR20に対する指示の送信が完了すると、ステップS106に移行する。 When it is determined in step S104 that detailed scanning is necessary, the object detection unit 13 identifies to which region the scanning range is limited, and transmits an instruction to change the scanning range to LIDAR 20 (. Step S105). When the transmission of the instruction to the LIDAR 20 is completed, the process proceeds to step S106.

続いて、行動計画生成部17は、車両のルートを決定し、行動計画を立てる(ステップS106)。対象物の検出動作において検出された対象物についての情報から、対象物を回避しながら進行方向へ進むために最適なルートを計算する。最適なルートとは、通常であれば自動車の機構にかかる負荷が小さく、運転者にも肉体的負担が小さいルートである。しかし、対象物を検知した結果、事故等の危険が予想される場合には、急加速、急減速あるいは急転回といった行動が必要となるルートを選択してもよい。立てられた行動計画は、車両ECU35に送られる。車両ECU35は、ステップS106で立てた行動計画に従って走行するため、操舵装置36、駆動装置37、および制動装置38等の走行に必要な機構を制御する。 Subsequently, the action plan generation unit 17 determines the route of the vehicle and makes an action plan (step S106). From the information about the object detected in the object detection operation, the optimum route for traveling in the traveling direction while avoiding the object is calculated. The optimum route is a route that normally has a small load on the mechanism of the automobile and a small physical burden on the driver. However, if a danger such as an accident is expected as a result of detecting an object, a route that requires an action such as sudden acceleration, sudden deceleration, or sudden turn may be selected. The established action plan is sent to the vehicle ECU 35. Since the vehicle ECU 35 travels according to the action plan established in step S106, it controls the mechanisms necessary for traveling such as the steering device 36, the drive device 37, and the braking device 38.

その後、ステップS100に戻り、運転支援ECU10は、対象物の検出動作を繰り返す。 After that, the process returns to step S100, and the driving support ECU 10 repeats the detection operation of the object.

次に、自車位置を推定する動作について説明する。図14は、運転支援ECU10による自車位置を推定する動作を説明するフローチャートである。 Next, the operation of estimating the position of the own vehicle will be described. FIG. 14 is a flowchart illustrating an operation of estimating the position of the own vehicle by the driving support ECU 10.

GNSS受信部33は、所定周期ごとに、GNSS衛星から位置情報を受信する(ステップS110)。GNSS受信部33により受信された位置情報は、運転支援ECU10に送られる。運転支援ECU10は、位置情報を用いて、大まかな自車位置を推定する。このときに受信する位置情報は、数メートルから十数メートル程度の誤差を含んでいてもよい。トンネル内やビルの間など、GNSS衛星から位置情報を受信できない場所を走行している場合には、位置情報を受信せずに次のステップに進んでも構わない。また、ジャイロセンサや加速度センサを用いることにより、自車の向きについての情報を取得することができ、自車位置を推定する精度を向上させることができる。 The GNSS receiving unit 33 receives position information from the GNSS satellite at predetermined intervals (step S110). The position information received by the GNSS receiving unit 33 is sent to the driving support ECU 10. The driving support ECU 10 estimates a rough position of the own vehicle by using the position information. The position information received at this time may include an error of about several meters to a dozen meters. If you are traveling in a place where you cannot receive location information from the GNSS satellite, such as in a tunnel or between buildings, you may proceed to the next step without receiving the location information. Further, by using a gyro sensor or an acceleration sensor, it is possible to acquire information about the orientation of the own vehicle, and it is possible to improve the accuracy of estimating the position of the own vehicle.

続いて、LIDAR20は、レーザ光を用いて、車両周辺のうち所定の走査範囲を走査する(ステップS111)。LIDAR20による測定データは、運転支援ECU10に送られる。 Subsequently, the LIDAR 20 uses a laser beam to scan a predetermined scanning range around the vehicle (step S111). The measurement data by LIDAR 20 is sent to the driving support ECU 10.

続いて、自車位置推定部12は、ステップS111の測定データを用いて、3次元地図データを作成する(ステップS112)。続いて、自車位置推定部12は、記憶部11から参照用3次元地図データ11Aを読み出す(ステップS113)。 Subsequently, the own vehicle position estimation unit 12 creates three-dimensional map data using the measurement data in step S111 (step S112). Subsequently, the own vehicle position estimation unit 12 reads out the reference three-dimensional map data 11A from the storage unit 11 (step S113).

続いて、自車位置推定部12は、ステップS112で作成した3次元地図データと、ステップS113で読み出した参照用3次元地図データ11Aとを比較する(ステップS114)。続いて、自車位置推定部12は、ステップS114の比較結果(例えばマッチング結果)に基づいて、自車位置を推定する(ステップS115)。2つの3次元地図のマッチング方法は、一般的なマッチング方法を適用できる。また、公知のSLAM(Simultaneous Localization And Mapping)を用いて、自車位置を推定してもよい。また、参照用3次元地図データ11Aに含まれる地図作成時における車両の位置情報を利用することにより、3次元地図内におけるより詳細な自車位置を推定することができる。 Subsequently, the own vehicle position estimation unit 12 compares the three-dimensional map data created in step S112 with the reference three-dimensional map data 11A read out in step S113 (step S114). Subsequently, the own vehicle position estimation unit 12 estimates the own vehicle position based on the comparison result (for example, matching result) of step S114 (step S115). As the matching method of the two three-dimensional maps, a general matching method can be applied. Further, the position of the own vehicle may be estimated by using a known SLAM (Simultaneous Localization And Mapping). Further, by using the position information of the vehicle at the time of creating the map included in the reference 3D map data 11A, it is possible to estimate the position of the own vehicle in the 3D map in more detail.

続いて、対象物検出部13は、ステップS114の比較結果に基づいて、対象物を検知したか否かを判定する(ステップS116)。すなわち、対象物検出部13は、2つの3次元地図データのうち一致していない領域を対象物であると判定する。なお、ステップS116の判定は行わずに、次のステップS117に進んでも構わない。 Subsequently, the object detection unit 13 determines whether or not the object has been detected based on the comparison result in step S114 (step S116). That is, the object detection unit 13 determines that the non-matching region of the two three-dimensional map data is the object. It should be noted that the determination in step S116 may be performed and the process may proceed to the next step S117.

ステップS116において対象物を検出しなかった場合、ステップS119に移行する。 If the object is not detected in step S116, the process proceeds to step S119.

ステップS116において対象物を検出した場合、対象物検出部13は、LIDAR20による走査範囲を限定し、走査可能な範囲のうち一部を詳細に走査する必要があるか否かを判定する(ステップS117)。 When an object is detected in step S116, the object detection unit 13 limits the scanning range by the LIDAR 20 and determines whether or not it is necessary to scan a part of the scannable range in detail (step S117). ).

ステップS117において詳細な走査が必要でないと判定された場合、ステップS119に移行する。 If it is determined in step S117 that detailed scanning is not necessary, the process proceeds to step S119.

ステップS117において詳細な走査が必要であると判定された場合、対象物検出部13は、どの領域に走査範囲を限定するのかを特定し、LIDAR20に対して走査範囲を変更する指示を送信する(ステップS118)。LIDAR20に対する指示の送信が完了すると、ステップS119に移行する。 When it is determined in step S117 that detailed scanning is necessary, the object detection unit 13 identifies to which region the scanning range is limited, and transmits an instruction to change the scanning range to LIDAR 20 (. Step S118). When the transmission of the instruction to the LIDAR 20 is completed, the process proceeds to step S119.

続いて、行動計画生成部17は、車両のルートを決定し、行動計画を立てる(ステップS119)。対象物の検出動作において検出された対象物についての情報から、対象物を回避しながら進行方向へ進むために最適なルートを計算する。立てられた行動計画は、車両ECU35に送られる。車両ECU35は、ステップS119で立てた行動計画に従って走行するため、操舵装置36、駆動装置37、および制動装置38等の走行に必要な機構を制御する。 Subsequently, the action plan generation unit 17 determines the route of the vehicle and makes an action plan (step S119). From the information about the object detected in the object detection operation, the optimum route for traveling in the traveling direction while avoiding the object is calculated. The established action plan is sent to the vehicle ECU 35. Since the vehicle ECU 35 travels according to the action plan established in step S119, the vehicle ECU 35 controls the mechanisms necessary for traveling such as the steering device 36, the drive device 37, and the braking device 38.

その後、ステップS110に戻り、運転支援ECU10は、自車位置推定動作を繰り返す。 After that, the process returns to step S110, and the driving support ECU 10 repeats the own vehicle position estimation operation.

上述の対象物の検出動作におけるステップS106と、自車位置推定動作におけるステップS119とは、検出動作における判定結果と、自車位置推定動作における判定結果とを同時に処理して並行して行われてもよい。この場合は、立てられる行動計画は2つではなく、1つのみとなる。 Step S106 in the above-mentioned object detection operation and step S119 in the own vehicle position estimation operation are performed in parallel by simultaneously processing the determination result in the detection operation and the determination result in the own vehicle position estimation operation. May be good. In this case, only one action plan can be made, not two.

[2-1] LIDAR20の基本動作
次に、LIDAR20の基本動作について説明する。図15は、LIDAR20の基本動作を説明する概略図である。なお、図15では、LIDAR20が車両2の前方を走査する態様を一例として示している。
[2-1] Basic operation of LIDAR 20 Next, the basic operation of LIDAR 20 will be described. FIG. 15 is a schematic diagram illustrating the basic operation of LIDAR 20. Note that FIG. 15 shows, as an example, a mode in which the LIDAR 20 scans the front of the vehicle 2.

LIDAR20に含まれるレーザ源21及び液晶素子22は、角度θの範囲でレーザ光を送信する。検出回路23は、対象物によって反射されたレーザ光を検出する。想定する対象物までの距離L、距離Lにおける走査範囲Rとする。例えば、角度θ=10度、距離L=10mである場合は、走査範囲R=1.7mであり、角度θ=10度、距離L=50mである場合は、走査範囲R=8.7mである。角度θ、距離L、及び走査範囲Rは、LIDAR20に求められる仕様に応じて任意に設計可能である。 The laser source 21 and the liquid crystal element 22 included in the LIDAR 20 transmit laser light within a range of an angle θ. The detection circuit 23 detects the laser beam reflected by the object. Let the distance L to the assumed object and the scanning range R at the distance L. For example, when the angle θ = 10 degrees and the distance L = 10 m, the scanning range R = 1.7 m, and when the angle θ = 10 degrees and the distance L = 50 m, the scanning range R = 8.7 m. be. The angle θ, the distance L, and the scanning range R can be arbitrarily designed according to the specifications required for the LIDAR 20.

図16は、LIDAR20によるレーザ光の波形を説明する図である。図16の上側が送信の波形、下側が受信の波形である。図16の横軸が時間であり、図16の縦軸が強度(光強度)である。 FIG. 16 is a diagram illustrating a waveform of a laser beam generated by LIDAR 20. The upper side of FIG. 16 is the transmission waveform, and the lower side is the reception waveform. The horizontal axis of FIG. 16 is time, and the vertical axis of FIG. 16 is intensity (light intensity).

レーザ源21は、パルス信号からなるレーザ光を出射する。すなわち、レーザ源21は、時分割でレーザ光を出射する。LIDAR20は、パルス信号としてレーザ光を送信する。パルス信号の周期P、パルス幅Wとする。1つのパルスを送信してから、このパルスが対象物で反射されたパルスを受信するまでの時間である遅れ量Δ、光の速度Cとする。遅れ量Δは、“Δ=2L/C”で算出される。 The laser source 21 emits a laser beam composed of a pulse signal. That is, the laser source 21 emits laser light in a time-division manner. The LIDAR 20 transmits laser light as a pulse signal. Let the period P of the pulse signal and the pulse width W. Let the delay amount Δ, which is the time from the transmission of one pulse to the reception of the pulse reflected by the object, and the speed of light C. The delay amount Δ is calculated by “Δ = 2L / C”.

例えば、パルス幅W=10nsec、周期P=10μsec(すなわち、周波数f=100kHz)であるものとする。遅れ量Δ=67nsecの場合、距離L=10mが算出される。 For example, it is assumed that the pulse width W = 10 nsec and the period P = 10 μsec (that is, the frequency f = 100 kHz). When the delay amount Δ = 67 nsec, the distance L = 10 m is calculated.

このような動作により、対象物が検出でき、また、対象物までの距離が算出できる。 By such an operation, the object can be detected and the distance to the object can be calculated.

[2-2] LIDAR20の走査領域制御動作
次に、LIDAR20の走査領域制御動作について説明する。本実施形態では、LIDAR20は、状況に応じて、走査領域のサイズ、及び走査領域の位置を変化させることができる。図17乃至図21は、LIDAR20による走査領域制御動作を説明する模式図である。LIDAR20の走査領域は、運転支援ECU10に含まれる走査制御部15によって制御される。
[2-2] Scan area control operation of LIDAR 20 Next, a scan area control operation of LIDAR 20 will be described. In the present embodiment, the LIDAR 20 can change the size of the scanning area and the position of the scanning area depending on the situation. 17 to 21 are schematic views illustrating a scanning area control operation by LIDAR 20. The scanning area of the LIDAR 20 is controlled by the scanning control unit 15 included in the driving support ECU 10.

図17は、LIDAR20から距離Lにおける走査領域AR1を走査する動作を説明する図である。走査領域AR1のサイズが、最大の走査領域であるものとする。図17の丸は、LIDAR20が送信するレーザ光の走査点SP(図16の1つのパルスに相当する)を表している。図16に示すように、LIDAR20がレーザ光を送信する周期は、予め決まっている。1つの走査領域AR1に対応する1つのフレームは、所定数の走査点SPによって走査される。 FIG. 17 is a diagram illustrating an operation of scanning the scanning region AR1 at a distance L from the LIDAR 20. It is assumed that the size of the scanning area AR1 is the maximum scanning area. The circle in FIG. 17 represents the scanning point SP (corresponding to one pulse in FIG. 16) of the laser beam transmitted by the LIDAR 20. As shown in FIG. 16, the cycle in which the LIDAR 20 transmits the laser beam is predetermined. One frame corresponding to one scan area AR1 is scanned by a predetermined number of scan points SP.

図17に示すように、簡略化のために、1つのフレームは、12個の走査点SPで走査されるものとするが、実際には、1つのフレームを取得するために、より多くの走査点が用いられる。走査方向は、図17の破線で示すように、例えば、垂直方向である。すなわち、左から右に向かって、複数の列を垂直方向に順に走査する。そして、時分割で、複数のフレームが順次取得される。 As shown in FIG. 17, for the sake of brevity, one frame is assumed to be scanned at 12 scan points SP, but in reality, more scans are made to obtain one frame. Points are used. The scanning direction is, for example, the vertical direction as shown by the broken line in FIG. That is, a plurality of columns are scanned in order in the vertical direction from left to right. Then, a plurality of frames are sequentially acquired by time division.

図18は、走査領域AR1より狭い走査領域AR2を走査する動作を説明する図である。図18は、例えば、走査領域AR1のうちある狭い領域に人物がいることが検出された場合、その人物を中心とした狭い領域に絞って、走査することを想定している。走査領域AR2における走査点SPの数は、走査領域AR1における走査点SPの数と同じである。LIDAR20がレーザ光を送信する周期は変化しないので、走査領域AR1を走査するのに要する時間と走査領域AR2を走査するのに要する時間は同じである。このように、走査領域のサイズを変更することが可能である。また、走査点SPの密度を高くすることができる。これにより、走査領域AR2に対して、走査領域AR1を走査するのと同じ時間の間でより精度の高い情報を取得することができ、検出された走査対象物の形状をより詳細に取得することができる。 FIG. 18 is a diagram illustrating an operation of scanning a scanning area AR2 narrower than the scanning area AR1. FIG. 18 assumes, for example, that when it is detected that a person is present in a narrow area of the scanning area AR1, scanning is performed by focusing on the narrow area centered on the person. The number of scanning points SP in the scanning area AR2 is the same as the number of scanning points SP in the scanning area AR1. Since the cycle in which the LIDAR 20 transmits the laser beam does not change, the time required to scan the scanning region AR1 and the time required to scan the scanning region AR2 are the same. In this way, it is possible to change the size of the scanning area. Further, the density of the scanning points SP can be increased. As a result, it is possible to acquire more accurate information for the scanning region AR2 in the same time as scanning the scanning region AR1, and to acquire the shape of the detected scanning object in more detail. Can be done.

図19は、走査点SPの密度を変えて走査領域AR1を走査する動作を説明する図である。LIDAR20は、走査領域AR1を図17の例より少ない走査点、例えば6点の走査点で走査する。走査点SPの密度を下げて走査することで、同じ範囲をより高速に走査することができ、人物等の走査範囲外から入ってくる走査対象物を発見しやすくなる。 FIG. 19 is a diagram illustrating an operation of scanning the scanning region AR1 by changing the density of the scanning points SP. The LIDAR 20 scans the scanning region AR1 at fewer scanning points than in the example of FIG. 17, for example, 6 scanning points. By scanning at a lower density of the scanning points SP, the same range can be scanned at a higher speed, and it becomes easier to find a scanning object coming in from outside the scanning range such as a person.

図20は、走査点SPの密度を変えて走査領域AR3を走査する動作を説明する図である。走査領域AR3は、走査領域AR1より狭い。また、走査領域AR3における走査点SPの数は、走査領域AR1における走査点SPの数より少ない。図20では、走査領域AR3のフレームを取得する時間は、走査領域AR1のフレームを取得する時間より短い。図20の例では、走査領域AR3の走査点が2個であるものとすると、走査領域AR1を1フレーム分取得する時間は、走査領域AR3を6フレーム分取得する時間に等しい。このように、走査領域AR1より狭い走査領域AR3を、粗くかつより高速に走査することが可能となり、例えば、動く走査対象物の動きを検出する場合等には有効である。 FIG. 20 is a diagram illustrating an operation of scanning the scanning region AR3 by changing the density of the scanning points SP. The scanning area AR3 is narrower than the scanning area AR1. Further, the number of scanning points SP in the scanning area AR3 is smaller than the number of scanning points SP in the scanning area AR1. In FIG. 20, the time for acquiring the frame in the scanning area AR3 is shorter than the time for acquiring the frame in the scanning area AR1. In the example of FIG. 20, assuming that the scanning area AR3 has two scanning points, the time for acquiring the scanning area AR1 for one frame is equal to the time for acquiring the scanning area AR3 for six frames. As described above, the scanning region AR3 narrower than the scanning region AR1 can be scanned coarsely and at a higher speed, which is effective for detecting the movement of a moving scanning object, for example.

図21は、互いに離れた走査領域AR4、AR5を走査する動作を説明する図である。走査領域AR4は、走査領域AR1より狭い。また、走査領域AR4を走査するための走査点SPの数は、走査領域AR1を走査するための走査点SPの数より少ない。同様に、走査領域AR5は、走査領域AR1より狭い。また、走査領域AR5を走査するための走査点SPの数は、走査領域AR1を走査するための走査点SPの数より少ない。走査領域AR4と走査領域AR5とは、空間的に離れている。 FIG. 21 is a diagram illustrating an operation of scanning the scanning regions AR4 and AR5 which are separated from each other. The scanning area AR4 is narrower than the scanning area AR1. Further, the number of scanning points SP for scanning the scanning area AR4 is smaller than the number of scanning points SP for scanning the scanning area AR1. Similarly, the scan area AR5 is narrower than the scan area AR1. Further, the number of scanning points SP for scanning the scanning area AR5 is smaller than the number of scanning points SP for scanning the scanning area AR1. The scanning area AR4 and the scanning area AR5 are spatially separated from each other.

図21の例では、走査領域AR4における走査点SPの数は、走査領域AR5における走査点SPの数と同じである。走査領域AR4、AR5の走査点SPの合計は、図17における走査領域AR1の走査点SPの数と同じである。すなわち、走査領域AR1を走査する時間は、走査領域AR4、AR5を走査する時間と同じである。このように、1つのフレーム(走査領域AR1)のうち互いに離れた走査領域AR4、AR5を走査することが可能であるので、同時に2つ以上の走査対象物について詳細に走査することができる。なお、3つ以上の領域に分割して走査することも可能である。 In the example of FIG. 21, the number of scanning points SP in the scanning area AR4 is the same as the number of scanning points SP in the scanning area AR5. The total number of scanning points SP in the scanning areas AR4 and AR5 is the same as the number of scanning points SP in the scanning area AR1 in FIG. That is, the time for scanning the scanning area AR1 is the same as the time for scanning the scanning areas AR4 and AR5. In this way, since it is possible to scan the scanning regions AR4 and AR5 which are separated from each other in one frame (scanning region AR1), it is possible to scan two or more scanning objects in detail at the same time. It is also possible to scan by dividing into three or more areas.

[2-3] 第1実施例に係る走査動作
次に、第1実施例に係る走査動作について説明する。第1実施例は、車両が走行している周囲の状況に応じて、LIDAR20の走査領域を変えるようにしている。例えば、高速道路を走行しているときは路面を詳細に走査し、市内では車両前方を詳細に走査するように、走査領域を変えるようにしている。図22は、第1実施例に係る走査動作を説明するフローチャートである。
[2-3] Scanning operation according to the first embodiment Next, the scanning operation according to the first embodiment will be described. In the first embodiment, the scanning area of the LIDAR 20 is changed according to the surrounding conditions in which the vehicle is traveling. For example, when driving on a highway, the road surface is scanned in detail, and in the city, the scanning area is changed so as to scan the front of the vehicle in detail. FIG. 22 is a flowchart illustrating a scanning operation according to the first embodiment.

走査制御部15は、LIDAR20を用いて、走査対象の全領域を走査する(ステップS200)。走査対象の全領域は、図17の走査領域AR1に対応する。 The scanning control unit 15 uses the LIDAR 20 to scan the entire region to be scanned (step S200). The entire area to be scanned corresponds to the scanning area AR1 in FIG.

続いて、走査制御部15は、GNSS受信部33を用いて、GNSS情報(位置情報)を取得する(ステップS201)。 Subsequently, the scanning control unit 15 acquires GNSS information (position information) using the GNSS receiving unit 33 (step S201).

続いて、走査制御部15は、ステップS201による位置情報を用いて、車両が高速道路を走行しているか否かを判定する(ステップS202)。ステップS202において高速道路を走行していると判定された場合、走査制御部15は、LIDAR20を用いて、走査対象の下側領域を走査する(ステップS203)。これにより、走査領域を狭くすることができるため、走査点の密度をより高くして下側領域のみを詳細に走査することができる。その後、例えば所定時間が経過後、ステップS200からの動作が繰り返される。 Subsequently, the scanning control unit 15 determines whether or not the vehicle is traveling on the highway by using the position information in step S201 (step S202). When it is determined in step S202 that the vehicle is traveling on the highway, the scanning control unit 15 uses the LIDAR 20 to scan the lower region of the scanning target (step S203). As a result, the scanning area can be narrowed, so that the density of scanning points can be increased and only the lower area can be scanned in detail. Then, for example, after a predetermined time has elapsed, the operation from step S200 is repeated.

図23は、走査対象の下側領域ALを走査する様子を説明する図である。図23において、高速道路を走行している場合、走査対象の上側領域は空であることが多い。この場合、走査対象の上側領域にレーザ光を送信しても反射されず、走査に無駄が生じている。よって、走査対象の下側領域ALを高密度で走査することで、対象物の検出精度を向上させる。 FIG. 23 is a diagram illustrating a state of scanning the lower region AL of the scanning target. In FIG. 23, when traveling on a highway, the upper region to be scanned is often empty. In this case, even if the laser beam is transmitted to the upper region of the scanning target, it is not reflected, resulting in waste in scanning. Therefore, by scanning the lower region AL of the scanning target at a high density, the detection accuracy of the target object is improved.

一方、ステップS202において高速道路を走行していない(市内を走行している)と判定された場合、走査制御部15は、LIDAR20を用いて、走査対象の上側領域を走査する(ステップS204)。これにより、走査点の密度をより高くして上側領域を走査することができる。 On the other hand, when it is determined in step S202 that the vehicle is not traveling on the expressway (traveling in the city), the scanning control unit 15 uses the LIDAR 20 to scan the upper region to be scanned (step S204). .. This makes it possible to scan the upper region with a higher density of scanning points.

図24は、走査対象の上側領域AUを走査する様子を説明する図である。図24において、市内では、車両からより遠くの対象物を早く検出することを想定している。 FIG. 24 is a diagram illustrating a state of scanning the upper region AU to be scanned. In FIG. 24, it is assumed that an object farther from the vehicle is detected earlier in the city.

続いて、走査制御部15は、カメラ30を用いて、例えば車両前方の撮像データを取得する(ステップS205)。続いて、走査制御部15は、ステップS205による撮像データを用いて、撮像領域内に人物がいるか否かを判定する(ステップS206)。 Subsequently, the scanning control unit 15 uses the camera 30 to acquire, for example, image pickup data in front of the vehicle (step S205). Subsequently, the scanning control unit 15 determines whether or not there is a person in the imaging region using the imaging data obtained in step S205 (step S206).

ステップS206において人物がいると判定された場合、走査制御部15は、LIDAR20を用いて、人物がいる領域を走査する(ステップS207)。その後、例えば所定時間が経過後、ステップS200からの動作が繰り返される。 When it is determined in step S206 that a person is present, the scanning control unit 15 uses the LIDAR 20 to scan the area where the person is present (step S207). Then, for example, after a predetermined time has elapsed, the operation from step S200 is repeated.

図25は、車両から近い人物がいる領域(人物領域)AH1、AH2を走査する様子を説明する図である。図25において、車両の近くに人物がいる場合でも、カメラ30の撮像データを用いることで、車両の近くにいる人物を検出することができる。 FIG. 25 is a diagram illustrating how the areas (personal areas) AH1 and AH2 in which a person close to the vehicle is present are scanned. In FIG. 25, even when a person is near the vehicle, the person near the vehicle can be detected by using the image pickup data of the camera 30.

一方、ステップS206において人物がいないと判定された場合、走査制御部15は、例えば所定時間が経過後、ステップS200からの動作を繰り返す。 On the other hand, when it is determined in step S206 that there is no person, the scanning control unit 15 repeats the operation from step S200, for example, after a predetermined time has elapsed.

[2-4] 第2実施例に係る走査動作
次に、第2実施例に係る走査動作について説明する。第2実施例は、走査の結果、LIDAR20が上り坂を検出した場合に、走査領域を変えるようにしている。図26は、第2実施例に係る走査動作を説明するフローチャートである。
[2-4] Scanning operation according to the second embodiment Next, the scanning operation according to the second embodiment will be described. In the second embodiment, when the LIDAR 20 detects an uphill as a result of scanning, the scanning area is changed. FIG. 26 is a flowchart illustrating the scanning operation according to the second embodiment.

図27は、通常時(車両2がおおよそ平坦な道路を走行している場合)における走査範囲を説明する模式図である。簡略化のため、LIDAR20は、垂直方向に走査するものとする。車両2の進行方向(LIDAR20の水平方向)を中心に、角度-θから角度+θまでが走査範囲であるものとする。角度-θから角度を小さくしながら順番に走査していった場合、N番目の走査を行ったときの角度が角度θである。 FIG. 27 is a schematic diagram illustrating a scanning range in a normal time (when the vehicle 2 is traveling on a substantially flat road). For simplicity, the LIDAR 20 shall scan vertically. It is assumed that the scanning range is from the angle −θ 0 to the angle + θ 0 around the traveling direction of the vehicle 2 (horizontal direction of the LIDAR 20). When scanning is performed in order from the angle −θ 0 while reducing the angle, the angle at the time of performing the Nth scan is the angle θN.

走査制御部15は、変数N=0に設定する(ステップS300)。続いて、走査制御部15は、変数N=Mであるか否かを判定する(ステップS301)。“M”は、予め決められた最大値であり、1以上の整数である。 The scanning control unit 15 sets the variable N = 0 (step S300). Subsequently, the scanning control unit 15 determines whether or not the variable N = M (step S301). “M” is a predetermined maximum value and is an integer of 1 or more.

ステップS301において変数Nが最大値Mに達していない場合、走査制御部15は、LIDAR20を用いて、角度θでレーザ光を送信する(ステップS302)。図28は、LIDAR20による走査の一例を説明する図である。角度θは、θが最大で、θに向かって小さくなる。角度θ、θ、θで3回の走査を行うものとすると、“θ>θ>θ”である。 When the variable N has not reached the maximum value M in step S301, the scanning control unit 15 transmits the laser beam at an angle θ N using the LIDAR 20 (step S302). FIG. 28 is a diagram illustrating an example of scanning by LIDAR 20. The maximum angle θ is θ 0 , and the angle becomes smaller toward θ M. Assuming that scanning is performed three times at angles θ 0 , θ 1 , and θ 3 , “θ 0 > θ 1 > θ 3 ”.

続いて、走査制御部15は、角度θに対応した距離lを測定する(ステップS303)。距離lは、角度θに沿った距離である。具体的には、ステップS302でレーザ光を送信してから、対象物で反射されたレーザ光を受信するまでの遅れ量Δを用いて、対象物までの距離lを測定する。図28には、角度θにおける距離l、角度θにおける距離l、角度θにおける距離lを示している。 Subsequently, the scanning control unit 15 measures the distance l N corresponding to the angle θ N (step S303). The distance l N is a distance along the angle θ N. Specifically, the distance l N to the object is measured by using the delay amount Δ from the transmission of the laser light in step S302 to the reception of the laser light reflected by the object. FIG. 28 shows a distance l 0 at an angle θ 0 , a distance l 1 at an angle θ 1 , and a distance l 2 at an angle θ 3 .

続いて、走査制御部15は、“lN-1sinθN-1>lsinθ”であるか否かを判定する(ステップS304)。ステップS304の条件を満たさない場合(S304=No)、走査制御部15は、通常通り、“-θ<θ<+θ”の範囲で走査を実行する。図28では、“lsinθ=lsinθ=lsinθ”となる。すなわち、車両2が走行している道路が概略平坦であることが認識できる。実際には、“lsinθ”で得られる数値には、多少の誤差が存在するため、誤差が所定値以内である場合に、“lsinθ=lsinθ=lsinθ”であると判定する。 Subsequently, the scanning control unit 15 determines whether or not “l N-1 sinθ N-1 > l N sinθ N ” (step S304). When the condition of step S304 is not satisfied (S304 = No), the scanning control unit 15 executes scanning in the range of “−θ 0 <θ <+ θ 0 ” as usual. In FIG. 28, “l 0 sin θ 0 = l 1 sin θ 1 = l 2 sin θ 2 ”. That is, it can be recognized that the road on which the vehicle 2 is traveling is substantially flat. Actually, there is some error in the numerical value obtained by "l N sinθ N ", so if the error is within a predetermined value, "l 0 sinθ 0 = l 1 sinθ 1 = l 2 sinθ 2 ". It is determined that it is.

続いて、走査制御部15は、変数N=N+1に設定する(ステップS306)。続いて、走査制御部15は、ステップS301に戻り、N=Mになるまで、角度θを変えて走査を繰り返す。 Subsequently, the scanning control unit 15 sets the variable N = N + 1 (step S306). Subsequently, the scanning control unit 15 returns to step S301 and repeats scanning by changing the angle θ until N = M.

一方、ステップS304の条件を満たす場合(S304=Yes)、走査制御部15は、走査範囲を“-θ<θ<2θ-θ”に変更する(ステップS307)。ステップS307の演算についても、前述した誤差が考慮される。 On the other hand, when the condition of step S304 is satisfied (S304 = Yes), the scanning control unit 15 changes the scanning range to “−θ N <θ <2θ 0 −θ N ” (step S307). The above-mentioned error is also taken into consideration in the calculation in step S307.

図29は、LIDAR20による走査の一例を説明する図である。図29では、“lsinθ=lsinθ>lsinθ”となる。すなわち、車両2の前方に上り坂があることが検出できる。この場合、図30に示すように、走査範囲を“-θ<θ<2θ-θ”に変更して、LIDAR20による走査が実行される。 FIG. 29 is a diagram illustrating an example of scanning by LIDAR 20. In FIG. 29, “l 0 sinθ 0 = l 1 sinθ 1 > l 2 sinθ 2 ”. That is, it can be detected that there is an uphill in front of the vehicle 2. In this case, as shown in FIG. 30, the scanning range is changed to “−θ 2 <θ <2θ 0 −θ 2 ”, and scanning by LIDAR 20 is executed.

なお、第2実施例の変形例として、水平方向に走査するようにすれば、車両2がトンネル内を走行している場合に、トンネルのカーブに応じて走査領域を変化させることができる。 As a modification of the second embodiment, if the vehicle 2 is scanned in the horizontal direction, the scanning region can be changed according to the curve of the tunnel when the vehicle 2 is traveling in the tunnel.

[2-5] 第3実施例に係る走査動作
次に、第3実施例に係る走査動作について説明する。第3実施例は、実際の走査(本走査)の前に判定走査を実行し、この判定走査の結果に応じて、本走査を実行するようにしている。図31は、第3実施例に係る走査動作を説明するフローチャートである。図32は、第3実施例に係る走査領域を説明する図である。
[2-5] Scanning operation according to the third embodiment Next, the scanning operation according to the third embodiment will be described. In the third embodiment, the determination scan is executed before the actual scan (main scan), and the main scan is executed according to the result of the determination scan. FIG. 31 is a flowchart illustrating the scanning operation according to the third embodiment. FIG. 32 is a diagram illustrating a scanning region according to the third embodiment.

走査制御部15は、本走査に先立って、判定走査を実行する。図31のステップS400~S403が判定走査に対応する。走査制御部15は、LIDAR20を用いて、走査対象の全領域にレーザ光を送信する(ステップS400)。 The scan control unit 15 executes a determination scan prior to the main scan. Steps S400 to S403 in FIG. 31 correspond to the determination scan. The scanning control unit 15 uses the LIDAR 20 to transmit laser light to the entire region to be scanned (step S400).

続いて、検出回路23は、対象物によって反射されたレーザ光を受信する(ステップS401)。続いて、走査制御部15は、LIDAR20から走査データを取得する(ステップS402)。続いて、走査制御部15は、所定回数Xになるまで、走査動作を繰り返す(ステップS403)。これにより、X個のフレームが取得される。Xは、1以上の整数である。 Subsequently, the detection circuit 23 receives the laser beam reflected by the object (step S401). Subsequently, the scanning control unit 15 acquires scanning data from the LIDAR 20 (step S402). Subsequently, the scanning control unit 15 repeats the scanning operation until the predetermined number of times X is reached (step S403). As a result, X frames are acquired. X is an integer of 1 or more.

図32は、車両が高速道路を走行中に、走査動作を行う様子を一例として示している。判定走査において、レーザ光は、走査対象の全領域に送信される。図32では、レーザ光が送信される領域(送信領域)を破線で囲んで示している。空からはレーザ光が反射されず、おおよそ空以外の領域(受信領域)からレーザ光が受信される。 FIG. 32 shows, as an example, a state in which a vehicle performs a scanning operation while traveling on a highway. In the determination scan, the laser beam is transmitted to the entire region to be scanned. In FIG. 32, a region (transmission region) in which the laser beam is transmitted is shown by being surrounded by a broken line. The laser beam is not reflected from the sky, and the laser beam is received from a region other than the sky (reception region).

走査制御部15は、判定走査の後に、本走査を実行する。図31のステップS404~S408が本走査に対応する。すなわち、走査制御部15は、ステップS402で取得した走査データ(複数のフレーム)を用いて、走査領域を判定する(ステップS404)。具体的には、ステップS402で取得した複数のフレームに共通して受信されたレーザ光がない領域(未受信領域)である第1領域を判定する。そして、走査対象の全領域から未受信領域を除いた領域である第2領域を新たに走査領域として判定する。本走査における走査領域は、レーザ光が受信された領域と同じかそれより少し大きい領域に設定することが望ましい。 The scan control unit 15 executes the main scan after the determination scan. Steps S404 to S408 in FIG. 31 correspond to the main scan. That is, the scanning control unit 15 determines the scanning area using the scanning data (plurality of frames) acquired in step S402 (step S404). Specifically, the first region, which is a region without laser light (unreceived region) commonly received by the plurality of frames acquired in step S402, is determined. Then, the second area, which is the area excluding the unreceived area from the entire area to be scanned, is newly determined as the scanning area. It is desirable to set the scanning area in this scan to the same area as or slightly larger than the area where the laser beam is received.

続いて、走査制御部15は、LIDAR20を用いて、ステップS404で判定された走査領域(走査対象の一部の領域)にレーザ光を送信する(ステップS405)。 Subsequently, the scanning control unit 15 uses the LIDAR 20 to transmit laser light to the scanning region (a part of the region to be scanned) determined in step S404 (step S405).

続いて、検出回路23は、対象物によって反射されたレーザ光を受信する(ステップS406)。続いて、走査制御部15は、LIDAR20から走査データを取得する(ステップS407)。続いて、走査制御部15は、所定回数Yになるまで、走査動作を繰り返す(ステップS408)。これにより、Y個のフレームが取得される。Yは、1以上の整数である。 Subsequently, the detection circuit 23 receives the laser beam reflected by the object (step S406). Subsequently, the scanning control unit 15 acquires scanning data from the LIDAR 20 (step S407). Subsequently, the scanning control unit 15 repeats the scanning operation until the predetermined number of times Y is reached (step S408). As a result, Y frames are acquired. Y is an integer of 1 or more.

図32に示した本走査において、送信領域は、走査対象の全領域のうち一部の領域に絞られている。 In the main scan shown in FIG. 32, the transmission area is narrowed down to a part of the entire area to be scanned.

[3] 本発明の効果
以上詳述したように本実施形態では、車載システム1に含まれるレーザ走査装置は、レーザ光を出射するレーザ源21と、レーザ源21からのレーザ光を透過し、このレーザ光の方向を変える液晶素子(走査素子)22と、対象物によって反射されたレーザ光を検出する検出回路23と、液晶素子22を制御する走査制御部15とを備える。そして、走査制御部15は、レーザ光により走査する領域のサイズを変えるようにしている。
[3] Effect of the Present Invention As described in detail above, in the present embodiment, the laser scanning device included in the in-vehicle system 1 transmits the laser light emitted from the laser source 21 and the laser light from the laser source 21. It includes a liquid crystal element (scanning element) 22 that changes the direction of the laser light, a detection circuit 23 that detects the laser light reflected by the object, and a scanning control unit 15 that controls the liquid crystal element 22. Then, the scanning control unit 15 changes the size of the region scanned by the laser beam.

従って、本実施形態によれば、車両が走行する場所の状況に応じて、必要な領域に集中して走査することができるため、対象物の検出、及び測距をより速く行うことができる。また、狭められ走査領域を走査するための走査点(測定点)の密度を高くすることができるため、高精度の走査データを取得することができる。これにより、運転者又は運転支援システムが危機を回避しやすくなる。 Therefore, according to the present embodiment, it is possible to concentrate the scanning on a necessary area according to the situation of the place where the vehicle travels, so that the detection of the object and the distance measurement can be performed faster. Further, since the density of the scanning points (measurement points) for scanning the narrowed scanning area can be increased, highly accurate scanning data can be acquired. This makes it easier for the driver or driver assistance system to avoid a crisis.

また、本実施形態のLIDAR20は、走査点の密度を動的に変えることで、ある時は広い範囲を粗く観測し、別の時は狭い範囲を集中的に観測できる。LIDAR20を機械的な部品で構成すると、走査点の密度を動的に変えることが難しい。しかし、本実施形態では、機械的な構成部品がない液晶素子22を用いてLIDAR20を構成しているので、例えば、高速道路では解像度を低くしつつ遠方までを観測し、低速で走行する市内では近くを高解像度で観測するといった使い分けが可能になる。 Further, the LIDAR 20 of the present embodiment can observe a wide range roughly at one time and intensively observe a narrow range at another time by dynamically changing the density of scanning points. When the LIDAR 20 is composed of mechanical parts, it is difficult to dynamically change the density of scanning points. However, in the present embodiment, since the LIDAR 20 is configured by using the liquid crystal element 22 having no mechanical components, for example, on a highway, the city travels at a low speed while observing a distant place while lowering the resolution. Then, it is possible to use it properly, such as observing nearby areas with high resolution.

また、本実施形態のLIDAR20は、機械的な構成部品がなく、かつ機械的な可動部がないため、信頼性を向上できる。さらに、LIDAR20は、小型化が可能である。 Further, the LIDAR 20 of the present embodiment has no mechanical components and no mechanical moving parts, so that the reliability can be improved. Further, the LIDAR 20 can be miniaturized.

なお、上記各実施形態では、レーザ走査装置が扱うレーザ光として赤外線レーザを用いている。しかし、これに限定されず、本実施形態にかかるレーザ走査装置は、赤外線以外の光にも適用可能である。 In each of the above embodiments, an infrared laser is used as the laser light handled by the laser scanning device. However, the present invention is not limited to this, and the laser scanning apparatus according to the present embodiment can be applied to light other than infrared rays.

また、上記実施形態では、液晶素子22に単純マトリクス方式を適用しているが、他の電極構造を用いてもよい。例えば、第1基板に複数のドットに対応しかつ互いに電気的に分離された複数の第1電極を形成し、第1基板に対向する第2基板に平面状の1つの共通電極を形成する。そして、TFT(Thin Film Transistor)などで構成される複数のスイッチング素子を用いて複数の第1電極を駆動するようにしてもよい。 Further, in the above embodiment, the simple matrix method is applied to the liquid crystal element 22, but other electrode structures may be used. For example, a plurality of first electrodes corresponding to a plurality of dots and electrically separated from each other are formed on the first substrate, and one planar common electrode is formed on the second substrate facing the first substrate. Then, a plurality of first electrodes may be driven by using a plurality of switching elements composed of a TFT (Thin Film Transistor) or the like.

本発明は、上記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、各実施形態は適宜組み合わせて実施してもよく、その場合組み合わせた効果が得られる。更に、上記実施形態には種々の発明が含まれており、開示される複数の構成要件から選択された組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、課題が解決でき、効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。 The present invention is not limited to the above embodiment, and can be variously modified at the implementation stage without departing from the gist thereof. In addition, each embodiment may be carried out in combination as appropriate, in which case the combined effect can be obtained. Further, the above-described embodiment includes various inventions, and various inventions can be extracted by a combination selected from a plurality of disclosed constituent requirements. For example, even if some constituent elements are deleted from all the constituent elements shown in the embodiment, if the problem can be solved and the effect is obtained, the configuration in which the constituent elements are deleted can be extracted as an invention.

1…車載システム、10…運転支援ECU、20…LIDAR、21…レーザ源、22…液晶素子、23…検出回路、30…カメラ、31…超音波レーダ、32…ミリ波レーダ、33…GNSS受信部、34…通信部、35…車両ECU、36…操舵装置、37…駆動装置、38…制動装置、40,41…基板、42…液晶層、43…シール材、44,46…セル電極、45,47…単位電極 1 ... In-vehicle system, 10 ... Driving support ECU, 20 ... LIDAR, 21 ... Laser source, 22 ... Liquid crystal element, 23 ... Detection circuit, 30 ... Camera, 31 ... Ultrasonic radar, 32 ... Millimeter wave radar, 33 ... GNSS reception Unit, 34 ... Communication unit, 35 ... Vehicle ECU, 36 ... Steering device, 37 ... Drive device, 38 ... Braking device, 40, 41 ... Board, 42 ... Liquid crystal layer, 43 ... Sealing material, 44, 46 ... Cell electrode, 45, 47 ... Unit electrode

Claims (10)

レーザ光を用いて走査を行うレーザ走査装置であって、
前記レーザ光を一定の周期で出射する1つのレーザ源と、
前記レーザ源から出射した前記レーザ光を透過し、前記レーザ光の出射角を変える走査素子と、
前記走査素子を制御する制御部と
を具備し、
前記制御部は、前記レーザ光により走査される走査領域のサイズ及び前記走査領域に対して前記レーザ光を送信する点の密度を変えるように前記走査素子を制御し、
前記走査素子は、液晶素子であり、
前記液晶素子は、
対向配置された第1基板と第2基板と、
前記第1基板及び第2基板の間に挟持された液晶層と、
前記第1基板の液晶層側に設けられ、それぞれが第1方向に延びる複数の第1電極と、
前記第2基板の液晶層側に設けられ、それぞれが前記第1方向に直交する第2方向に延びる複数の第2電極とを含み、
前記制御部は、前記複数の第1電極及び前記複数の第2電極の電圧を制御することにより、二次元で走査する
レーザ走査装置。
A laser scanning device that scans using laser light.
One laser source that emits the laser light at a constant cycle,
A scanning element that transmits the laser light emitted from the laser source and changes the emission angle of the laser light.
It is provided with a control unit that controls the scanning element.
The control unit controls the scanning element so as to change the size of the scanning region scanned by the laser beam and the density of the points at which the laser beam is transmitted with respect to the scanning region.
The scanning element is a liquid crystal element and is a liquid crystal element.
The liquid crystal element is
The first board and the second board arranged to face each other,
A liquid crystal layer sandwiched between the first substrate and the second substrate,
A plurality of first electrodes provided on the liquid crystal layer side of the first substrate and each extending in the first direction,
A plurality of second electrodes provided on the liquid crystal layer side of the second substrate and each extending in a second direction orthogonal to the first direction are included.
The control unit scans in two dimensions by controlling the voltages of the plurality of first electrodes and the plurality of second electrodes.
Laser scanning device.
前記制御部は、走査可能な最も大きい走査範囲のうち互いに離れた第1領域及び第2領域を走査するように前記走査素子を制御し、1サイクルの走査動作中に2つ以上の対象物について走査する
請求項1に記載のレーザ走査装置。
The control unit controls the scanning element so as to scan a first region and a second region separated from each other in the largest scanning range that can be scanned, and for two or more objects during one cycle of scanning operation . The laser scanning apparatus according to claim 1.
車両周辺の情報を取得するセンサをさらに具備し、
前記制御部は、前記センサからの情報に基づいて、前記走査領域のサイズ及び前記走査領域に対して前記レーザ光を送信する点の密度を決定する
請求項1又は2に記載のレーザ走査装置。
It is equipped with a sensor that acquires information around the vehicle.
The laser scanning apparatus according to claim 1 or 2, wherein the control unit determines the size of the scanning region and the density of points at which the laser beam is transmitted to the scanning region based on the information from the sensor.
対象物によって反射されたレーザ光を受信する検出回路をさらに具備し、
前記制御部は、
第1走査動作と、第2走査動作とを所定回ずつ順に実行し、
前記第1走査動作において、第3領域を走査対象とし、
前記第2走査動作において、前記第3領域からレーザ光が受信されない領域を除いた第4領域を走査対象とする
請求項1から3のいずれかに記載のレーザ走査装置。
Further equipped with a detection circuit for receiving the laser beam reflected by the object,
The control unit
The first scanning operation and the second scanning operation are executed in order by a predetermined time,
In the first scanning operation, the third region is set as the scanning target.
The laser scanning apparatus according to any one of claims 1 to 3, wherein in the second scanning operation, a fourth region excluding a region in which laser light is not received from the third region is a scanning target.
対象物によって反射されたレーザ光を受信し、対象物までの距離を検出する検出回路をさらに具備し、
前記制御部は、
前記検出回路による複数の検出結果を用いて、走査範囲に含まれる道路の傾斜を算出し、
前記道路の傾斜に応じて、走査範囲を変える
請求項1から3のいずれかに記載のレーザ走査装置。
It is further equipped with a detection circuit that receives the laser beam reflected by the object and detects the distance to the object.
The control unit
Using a plurality of detection results by the detection circuit, the slope of the road included in the scanning range is calculated.
The laser scanning apparatus according to any one of claims 1 to 3, wherein the scanning range is changed according to the slope of the road.
レーザ光を用いて走査を行うレーザ走査装置であって、
前記レーザ光を一定の周期で出射する1つのレーザ源と、
前記レーザ源から出射した前記レーザ光を透過し、前記レーザ光の出射角を変える走査素子と、
前記走査素子を制御する制御部と
を具備し、
前記制御部は、前記レーザ光により走査される走査領域のサイズ及び前記走査領域に対して前記レーザ光を送信する点の密度を変えるように前記走査素子を制御し、
前記走査素子は、液晶素子であり、
前記制御部は、
複数の走査点を用いて第1領域を走査する第1動作と、
前記第1動作よりも走査点の密度を高くして、前記第1領域のうち前記第1領域よりサイズが小さい第2領域を走査する第2動作と、
前記第1動作よりも走査点の密度を低くして、前記第1領域を走査する第3動作と、
前記第1動作よりも走査点の密度を低くして、前記第1領域のうち前記第1領域よりサイズが小さい第3領域を走査する第4動作と、
前記第1領域のうち、それぞれが前記第1領域よりサイズが小さくかつ互いに離れた第4領域及び第5領域を走査する第5動作と
のうちから選択して実行可能であり、
前記液晶素子は、
対向配置された第1基板と第2基板と、
前記第1基板及び第2基板の間に挟持された液晶層と、
前記第1基板の液晶層側に設けられ、それぞれが第1方向に延びる複数の第1電極と、
前記第2基板の液晶層側に設けられ、それぞれが前記第1方向に直交する第2方向に延びる複数の第2電極とを含み、
前記制御部は、前記複数の第1電極及び前記複数の第2電極の電圧を制御することにより、二次元で走査する
レーザ走査装置。
A laser scanning device that scans using laser light.
One laser source that emits the laser light at a constant cycle,
A scanning element that transmits the laser light emitted from the laser source and changes the emission angle of the laser light.
It is provided with a control unit that controls the scanning element.
The control unit controls the scanning element so as to change the size of the scanning region scanned by the laser beam and the density of the points at which the laser beam is transmitted with respect to the scanning region.
The scanning element is a liquid crystal element and is a liquid crystal element.
The control unit
The first operation of scanning the first region using a plurality of scanning points, and
A second operation in which the density of scanning points is made higher than that of the first operation and the second region of the first region, which is smaller in size than the first region, is scanned.
A third operation of scanning the first region with a lower density of scanning points than the first operation,
A fourth operation in which the density of scanning points is made lower than that of the first operation and a third region of the first region, which is smaller in size than the first region, is scanned.
Among the first regions, the fifth operation of scanning the fourth region and the fifth region, each of which is smaller in size than the first region and is separated from each other , can be selected and executed.
The liquid crystal element is
The first board and the second board arranged to face each other,
A liquid crystal layer sandwiched between the first substrate and the second substrate,
A plurality of first electrodes provided on the liquid crystal layer side of the first substrate and each extending in the first direction,
A plurality of second electrodes provided on the liquid crystal layer side of the second substrate and each extending in a second direction orthogonal to the first direction are included.
The control unit scans in two dimensions by controlling the voltages of the plurality of first electrodes and the plurality of second electrodes.
Laser scanning device.
車両周辺の情報を取得するセンサをさらに具備し、
前記制御部は、前記センサからの情報に基づいて、前記走査領域のサイズ及び前記走査領域における走査点の密度を決定する
請求項6に記載のレーザ走査装置。
It is equipped with a sensor that acquires information around the vehicle.
The laser scanning apparatus according to claim 6, wherein the control unit determines the size of the scanning region and the density of scanning points in the scanning region based on the information from the sensor.
走査により取得した走査データを用いて対象物を検出する検出部をさらに具備し、
前記制御部は、前記第1動作において取得した走査データを用いて対象物が検出された場合に、前記第2動作から前記第5動作のうち少なくとも1つの動作を実行する
請求項6又は7に記載のレーザ走査装置。
It is further equipped with a detection unit that detects an object using the scanning data acquired by scanning.
According to claim 6 or 7, the control unit executes at least one of the fifth operations from the second operation when an object is detected using the scanning data acquired in the first operation. The laser scanning device according to the description.
対象物によって反射されたレーザ光を受信する検出回路をさらに具備し、
前記制御部は、
第6動作と、第7動作とを所定回ずつ順に実行し、
前記第6動作において、第6領域を走査対象とし、
前記第7動作において、前記第6領域からレーザ光が受信されない領域を除いた第7領域を走査対象とする
請求項6から8のいずれかに記載のレーザ走査装置。
Further equipped with a detection circuit for receiving the laser beam reflected by the object,
The control unit
The sixth operation and the seventh operation are executed in order by a predetermined time,
In the sixth operation, the sixth region is set as the scanning target.
The laser scanning apparatus according to any one of claims 6 to 8, wherein in the seventh operation, a seventh region excluding a region in which laser light is not received from the sixth region is targeted for scanning.
対象物によって反射されたレーザ光を受信し、対象物までの距離を検出する検出回路をさらに具備し、
前記制御部は、
前記検出回路による複数の検出結果を用いて、走査範囲に含まれる道路の傾斜を算出し、
前記道路の傾斜に応じて、走査範囲を変える
請求項6から8のいずれかに記載のレーザ走査装置。
It is further equipped with a detection circuit that receives the laser beam reflected by the object and detects the distance to the object.
The control unit
Using a plurality of detection results by the detection circuit, the slope of the road included in the scanning range is calculated.
The laser scanning apparatus according to any one of claims 6 to 8, wherein the scanning range is changed according to the slope of the road.
JP2017077511A 2017-04-10 2017-04-10 Laser scanning device Active JP7031137B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017077511A JP7031137B2 (en) 2017-04-10 2017-04-10 Laser scanning device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017077511A JP7031137B2 (en) 2017-04-10 2017-04-10 Laser scanning device

Publications (2)

Publication Number Publication Date
JP2018180181A JP2018180181A (en) 2018-11-15
JP7031137B2 true JP7031137B2 (en) 2022-03-08

Family

ID=64276439

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017077511A Active JP7031137B2 (en) 2017-04-10 2017-04-10 Laser scanning device

Country Status (1)

Country Link
JP (1) JP7031137B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3028288C (en) 2018-06-25 2022-05-03 Beijing Didi Infinity Technology And Development Co., Ltd. A high-definition map acquisition system
CN111238494B (en) * 2018-11-29 2022-07-19 财团法人工业技术研究院 Carrier, carrier positioning system and carrier positioning method
TWI754808B (en) * 2018-11-29 2022-02-11 財團法人工業技術研究院 Vehicle, vehicle positioning system, and vehicle positioning method
JP2020148747A (en) * 2019-03-15 2020-09-17 株式会社リコー Object detection device
JP7396008B2 (en) 2019-12-09 2023-12-12 株式会社デンソー Sensor control device, sensor control method, sensor control program

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003109171A (en) 2001-09-28 2003-04-11 Nissan Motor Co Ltd Object detector
JP2005352257A (en) 2004-06-11 2005-12-22 National Institute Of Information & Communication Technology Controlling method for liquid light beam deflector with high accuracy considering wavefront curvature
JP2007240208A (en) 2006-03-06 2007-09-20 Toyota Central Res & Dev Lab Inc Environment recognition device
JP2009230345A (en) 2008-03-21 2009-10-08 Honda Motor Co Ltd Object detection device for vehicle
JP2011221005A (en) 2010-03-26 2011-11-04 Denso Corp Division line detector and method for detecting division line
JP2012150054A (en) 2011-01-20 2012-08-09 Ricoh Co Ltd Object detection device and vehicle collision avoidance system mounted with the same
JP2016090717A (en) 2014-10-31 2016-05-23 日本電気硝子株式会社 Liquid crystal optical element and liquid crystal optical element array
US20160291154A1 (en) 2015-04-01 2016-10-06 Vayavision, Ltd. Apparatus for acquiring 3-dimensional maps of a scene
JP2016211881A (en) 2015-04-30 2016-12-15 株式会社デンソー Light flight time measurement device and optical range-finding device
US20170082735A1 (en) 2015-09-20 2017-03-23 Qualcomm Incorporated Light detection and ranging (lidar) system with dual beam steering

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0323414A (en) * 1989-06-20 1991-01-31 Citizen Watch Co Ltd Two-dimensional scanning optical device
JPH11326499A (en) * 1998-05-20 1999-11-26 Mitsubishi Electric Corp Distance measuring device and vehicle controller using the device

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003109171A (en) 2001-09-28 2003-04-11 Nissan Motor Co Ltd Object detector
JP2005352257A (en) 2004-06-11 2005-12-22 National Institute Of Information & Communication Technology Controlling method for liquid light beam deflector with high accuracy considering wavefront curvature
JP2007240208A (en) 2006-03-06 2007-09-20 Toyota Central Res & Dev Lab Inc Environment recognition device
JP2009230345A (en) 2008-03-21 2009-10-08 Honda Motor Co Ltd Object detection device for vehicle
JP2011221005A (en) 2010-03-26 2011-11-04 Denso Corp Division line detector and method for detecting division line
JP2012150054A (en) 2011-01-20 2012-08-09 Ricoh Co Ltd Object detection device and vehicle collision avoidance system mounted with the same
JP2016090717A (en) 2014-10-31 2016-05-23 日本電気硝子株式会社 Liquid crystal optical element and liquid crystal optical element array
US20160291154A1 (en) 2015-04-01 2016-10-06 Vayavision, Ltd. Apparatus for acquiring 3-dimensional maps of a scene
JP2016211881A (en) 2015-04-30 2016-12-15 株式会社デンソー Light flight time measurement device and optical range-finding device
US20170082735A1 (en) 2015-09-20 2017-03-23 Qualcomm Incorporated Light detection and ranging (lidar) system with dual beam steering

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
大前学, 外2名,レーザーレーダーを用いた自動車のインテリジェント化と自動運転,レーザー研究,Vol.38 No.8,日本,2010年08月15日,Page.565-570,https://www.jstage.jst.go.jp/article/lsj/38/8/38_565/_pdf,JST資料番号X0335A ISSN0387-0200

Also Published As

Publication number Publication date
JP2018180181A (en) 2018-11-15

Similar Documents

Publication Publication Date Title
JP7031137B2 (en) Laser scanning device
CN210323367U (en) Flash type light detection and distance measurement laser radar system
US20200348402A1 (en) Detection device and method for adjusting parameter thereof
CN107339997B (en) Autonomous vehicle path planning device and method
US11796644B2 (en) Apparatus and system for a LiDAR antenna
JP6651486B2 (en) Vehicle control device, vehicle control method, and program
US20190219697A1 (en) Lidar localization
US10860028B2 (en) Vehicle control apparatus, vehicle control method, and program
CN108427123A (en) LIDAR device and method for operating LIDAR device
WO2018055513A2 (en) Methods circuits devices assemblies systems and functionally associated machine executable code for light detection and ranging based scanning
AU2020217306B2 (en) Use of extended detection periods for range aliasing detection and mitigation in a light detection and ranging (lidar) system
US20190212454A1 (en) Laser scanner for measuring distances from vehicles
CN117849816A (en) Light detection and ranging (LIDAR) device range aliasing elasticity through multiple hypotheses
CN114556139A (en) System and method for sensor calibration
JP2018109535A (en) Information processing system and information processing method
US20210247505A1 (en) Vehicle lidar polarization
JP5429986B2 (en) Mobile robot remote environment recognition apparatus and method
Voronov et al. Radar reflecting pavement markers for vehicle automation
CN108061902A (en) A kind of method and device of detecting object
EP4001967A1 (en) Systems and methods for reducing cognitive workload and energy consumption by a sensor utilized on a vehicle
JP6895745B2 (en) Unmanned moving body and control method of unmanned moving body
JP6635590B2 (en) 3D distance sensor device
US20190235057A1 (en) Scanning unit of an optical transmission and receiving device of an optical detection apparatus of a vehicle
CN113752945A (en) Vehicle-mounted display system
US20220245844A1 (en) Systems and methods for an improved camera system using filters for depth estimation of grayscale images

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20190425

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220207

R150 Certificate of patent or registration of utility model

Ref document number: 7031137

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150