JP7390312B2 - LiDARセンサユニット - Google Patents

LiDARセンサユニット Download PDF

Info

Publication number
JP7390312B2
JP7390312B2 JP2020565676A JP2020565676A JP7390312B2 JP 7390312 B2 JP7390312 B2 JP 7390312B2 JP 2020565676 A JP2020565676 A JP 2020565676A JP 2020565676 A JP2020565676 A JP 2020565676A JP 7390312 B2 JP7390312 B2 JP 7390312B2
Authority
JP
Japan
Prior art keywords
lidar sensor
unit
vehicle
difference
sensor unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020565676A
Other languages
English (en)
Other versions
JPWO2020145095A1 (ja
Inventor
裕一 綿野
俊亮 岡村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koito Manufacturing Co Ltd
Original Assignee
Koito Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koito Manufacturing Co Ltd filed Critical Koito Manufacturing Co Ltd
Publication of JPWO2020145095A1 publication Critical patent/JPWO2020145095A1/ja
Application granted granted Critical
Publication of JP7390312B2 publication Critical patent/JP7390312B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Alarm Systems (AREA)

Description

本発明は、LiDARセンサユニットおよび車両用防犯システムに関する。
対象物との距離を測定する車両用のLiDARセンサが知られている。
日本国特開2018-128432号公報
このようなLiDARを車両に搭載する際には、LiDARセンサを保護するために透明なカバーが設けられる。あるいは、光を発する発光部や受光部の前に、レンズ要素を設けて集光率が高められたりしている。このようなカバーやインナレンズなどのレンズ要素を設けると、発光部から発せられる光が屈曲し、レンズ要素を設けない状態と比べて、測定データに変化が生じてしまう。
本発明は、レンズ要素が設けられていても、測定データに該レンズ要素の影響が及びにくいLiDARセンサユニットを提供する。
また本発明は、LiDARセンサを用いた車両用防犯システムを提供する。
本発明の一側面に係るLiDARセンサユニットは、
LiDARセンサと、
前記LiDARセンサから出射される光の光路上に設けられたレンズ要素と、
前記LiDARセンサが測定した測定データを出力する処理部を有する、LiDARセンサユニットであって、
前記処理部は、同じ環境において前記レンズ要素を前記LiDARセンサユニットに取り付ける前後で取得した前記LiDARセンサの前記測定データの差分に基づいて、前記レンズ要素を取り付けた前記LiDARセンサから取得した生データを前記差分に応じた補正式により補正した補正データを出力するように構成されている。
本発明の一側面に係る車両用防犯システムは、
車両に搭載され、車両の周囲の情報を取得するLiDARセンサと、
前記LiDARセンサの出力に基づいて画像を生成する画像形成部と、
任意の2時点で取得した前記LiDARセンサの出力に基づいて生成された2つの画像を比較する画像比較部と、
特定の方位に向けて光または音を発する光源または音源と、
前記光源または音源を制御する制御部を有し、
前記制御部は、車両の駐車中に、前記画像比較部の出力に基づき、前記2つの画像の差分が閾値より大きい方位に向けて、前記光源または前記音源から光または音を発信させる。
本発明によれば、レンズ要素が設けられていても、測定データに該レンズ要素の影響が及びにくいLiDARセンサユニットが提供される。また、本発明によれば車両用防犯システムが提供される。
LiDARセンサユニットが取り付けられた車両の上面図である。 LiDARセンサユニットが取り付けられたランプユニットの模式図である。 LiDARセンサの模式図である。 LiDARセンサのブロック図である。 LiDARセンサの検出原理を説明する図である。 アウタカバーをLiDARセンサに取り付けていない状態でセンシングする時の模式図である。 図6に示した状態でセンシングされたセンシング結果の模式図である。 アウタカバーがLiDARセンサに取り付けられた状態でセンシングする時の模式図である。 図8の状態でセンシングされたセンシング結果の模式図である。 車両用防犯システムが取り付けられた車両の上面図である。 車両用防犯システムのブロック図である。 車両用防犯システムが実行する処理のフローチャートである。 時刻t-1における駐車している車両の周囲の様子を示す。 図13の状態において画像形成部が形成した画像である。 時刻tにおける駐車している車両の周囲の様子を示す。 図15の状態において画像形成部が形成した画像である。
添付の図面を参照しつつ、実施形態の例について以下詳細に説明する。以下の説明に用いる各図面では、各部材を認識可能な大きさとするために縮尺を適宜変更している。
<LiDARセンサユニット>
図1は、本実施形態に係るLiDARセンサユニット10が取り付けられた車両1の上面図である。図1に示したように、車両1の右前部、左前部、右後部、左後部にLiDARセンサユニット10が取り付けられている。
図2は、車両1の左前部に取り付けられたLiDARセンサユニット10を示す模式図である。本実施形態において、LiDARセンサユニット10は、車両1の周囲を照らすランプユニット30とともに設けられている。ランプユニット30は、前照灯、リアコンビネーションランプ、デイタイムランニングランプ、フォグランプ、車幅灯、ストップランプとすることができる。LiDARセンサユニット10は、ハウジング11と、アウタカバー12とを備えている。ハウジング11とアウタカバー12で形成される空間の内部に、ランプユニット30とLiDARセンサ20が設けられている。
図3は、LiDARセンサ20の模式図である。図3に示すように、LiDARセンサ20は、発光部41と、受光部42と、MEMSミラー43と、集光レンズ44とを備えている。
発光部41から出射した光は、MEMSミラー43で反射され、集光レンズ44を介して車両1の外部に出射される。発光部41から出射して対象物に反射された光(以降、戻り光と呼ぶ)は、集光レンズ44を介してMEMSミラー43で反射され、受光部42に入射する。発光部41は、可視光を出射してもよいし、赤外線や紫外線などの非可視光を出射してもよい。LiDARセンサ20は、対象物へ光を発し、戻り光を検出するまでの時間から対象物との距離を取得する。MEMSミラー43は、MEMSミラー43で反射される光が出射する方位を任意に変更可能に構成されている。MEMSミラー43により反射光の出射方向を変更することにより、LiDARセンサ20は広い範囲の情報を取得する。
図4は、LiDARセンサ20のブロック図である。図4に示すように、LiDARセンサ20は、発光部41と、光源制御部45と、MEMSミラー43と、ミラー制御部46と、受光部42と、信号処理部47と、メモリ48を備えている。光源制御部45は、発光部41の動作を制御する。ミラー制御部46は、MEMSミラー43の動作を制御する。メモリ48は、書き換え可能な記録手段である。信号処理部47は、受光部42から出力される信号を処理し、車両制御部3へ出力する。車両制御部3は、車両1の挙動を制御する。
車両制御部3はLiDARセンサ20や他のセンサからの出力、あるいはドライバーのステアリングホイールの操作、アクセルペダルの操作、ブレーキペダルの操作に応じて出力される信号に応じて、エンジン、ブレーキ装置、ステアリング装置の挙動を制御する。車両制御部3は、車両1の自動運転を実行する。あるいは、車両制御部3は、ドライバーの運転を支援する。
信号処理部47は、プロセッサとメモリを備えている。プロセッサの例としては、CPU、MPU、GPUが挙げられる。プロセッサは、複数のプロセッサコアを含みうる。メモリの例としては、ROMやRAMが挙げられる。ROMには、上記の処理を実行するプログラムが記憶されうる。当該プログラムは、人工知能プログラムを含みうる。人工知能プログラムの例としては、ディープラーニングによる学習済みニューラルネットワークが挙げられる。プロセッサは、ROMに記憶されたプログラムの少なくとも一部を指定してRAM上に展開し、RAMと協働して処理を実行するように構成されている。信号処理部47は、マイクロコントローラ、FPGA、ASICなどの専用集積回路によって実現されてもよい。
図5を用いて、LiDARセンサ20の検出原理を簡単に説明する。
信号処理部47は、どこの方位に発した光が対象物に当たって反射してくるまでに、どの程度の時間がかかったか、という情報を取得する。これを基に信号処理部47は、方位情報と、該方位における物体までの距離を出力する。一般的に、LiDARセンサ20は、方位角θ[°]と、仰角φ[°]と、距離d[m]のデータを出力する。
例えば、光源制御部45は、所定時間間隔で光を発するように発光部41を制御する。ミラー制御部46は、ある検出範囲に、縦方向に100点、横方向に360点の検出点を設定する。ミラー制御部46は、発光部41からMEMSミラー43に入射する光を順に、各々の検出点に向けて反射させるようにMEMSミラー43を制御する。
受光部42は、各々の測定点について、対象物に当たって反射してきた戻り光を検出し、戻り光を検出したことを信号処理部47に出力する。MEMSミラー43は、発光部41から発した光を順に各々の測定点に向けて反射させているので、受光部42が順に検出した戻り光は、各々の測定点から反射された光として扱うことができる。例えば、36000点の検出点が設定されている場合、1回目に検出した戻り光と、36001回目に検出した戻り光は、同じ方位から戻ってきた光だと扱うことができる。あるいは、360000点の検出点の全ての検出点に向けて光を発するまでに0.01秒かかる場合、ある時刻から0.01秒後に発した光と、ある時刻から0.02秒後に発した光は、同じ方位に発した光として扱うことができる。
信号処理部47は、各々の測定点について、発光部41が発した時間から戻り光を検出するまでの時間を測定する。信号処理部47は、各々の測定した時間に基づいて、対象物との距離を算出する。このようにして信号処理部47は、各々の検出点の方位と関連付けて、距離を出力する。信号処理部47は、ある方位(θ,φ)の距離がdであることを示すために、(θ,φ,d)といったデータを出力する。
ところで、図2に示したように、LiDARセンサ20の発光部41の光を出射する方向、受光部42の光が入射する方向には、アウタカバー12が設けられている。アウタカバー12は、車両1のデザインの制約上、曲面で構成されることが多い。特に、図1に示したように、車両1の右前部、左前部、右後部、左後部といった、車両1のコーナー部分にLiDARセンサ20が設けられる場合には、図2に示したようにアウタカバー12の曲面の曲率が局所的に大きくなる部位12aがある。
このように曲率が局所的に大きくなっている部位12aを、LiDARセンサ20の光が通過すると、光が屈折してしまう。このため、LiDARセンサ20は、本来想定していた方位から外れた方位の距離を測定してしまうことになってしまう。このため、本実施形態のLiDARセンサ20においては、製品の出荷前に予め屈折の影響を補正する補正式がメモリ48に記録されている。出荷後の製品においては、LiDARセンサ20の出力は補正式で補正された値が出力されるように構成されている。この処理について詳述する。
図6は、アウタカバー12をLiDARセンサユニット10に取り付けていない状態で標準スクリーンSに向けてLiDARセンサ20を作動させる様子を示している。標準スクリーンSは、所定の大きさの平面状のスクリーンである。図6では、この標準スクリーンSとLiDARセンサ20とを所定距離離間させて、LiDARセンサ20を作動させた。
図7は、図6に示した状態である領域について出力されるLiDARセンサ20の出力を模式的に表したものである。図7は、LiDARセンサ20がある測定範囲を縦方向に5個の測定点、横方向に5個の測定点で測定して得られた距離を示したものである。説明の便宜のために、図7においては、中心の測定点の距離が1であり、四隅の測定点の距離が5であったとしている。信号処理部47は、アウタカバー12をLiDARセンサユニット10に取り付けていない状態で標準スクリーンSをセンシングした時の出力を、書き換え可能なメモリ48に記録する。
図8は、アウタカバー12をLiDARセンサユニット10に取り付けた状態で標準スクリーンSに向けてLiDARセンサ20を作動させる様子を示している。図9は、図7と同様に、図8に示した状態である領域について出力されるLiDARセンサ20の出力を模式的に表したものである。
アウタカバー12を取り付けた状態でLiDARセンサ20を作動させると、図8に示したように、アウタカバー12の局所的に曲率が大きい部位12aで光が屈折してしまう。図8においては、部位12aで屈折の影響を受けなかった場合に光が進む光路を破線で、部位12aで屈折の影響を受けた場合に光が進む光路を実線で示している。本実施形態において、図7と図9を比較すると、図で表される領域においては、左から5行目、および、上から5列目の数値に変化はないものの、図9の左から1~4行目かつ上から1~4列目の数値は、図7の左から2~5行目かつ上から2~5列目の数値と同一になっている。つまり、図7の左から2~5行目かつ上から2~5列目の測定点は、部位12aによって1列および1行分、左上にずれてしまった。そこで、メモリ48には、この領域の測定点を表すL(式1)を使って表すと、以下の補正式ΔL(式2)が記録されている。
Figure 0007390312000001
(式1)
Figure 0007390312000002
(式2)
そこで信号処理部47は、未加工の生データをLrawで表すと、車両制御部3へ出力データLoutをLout=Lraw+ΔLとして算出する。つまり本実施形態のLiDARセンサユニット10において、LiDARセンサ20は生データLrawを測定する。しかしながら、LiDARセンサ20は、この生データLrawをそのまま車両制御部3へ出力するのではなく、メモリ48に記録された補正式ΔLを生データLrawに適用したデータLoutを車両制御部3へ出力する。これにより、LiDARセンサ20は、アウタカバー12をLiDARセンサユニット10に取り付けない状態で出力されるはずだった値を車両制御部3へ出力することができる。これにより、アウタカバー12によってLiDARセンサ20から出射される光が屈折することによる測定誤差を含まない測定データをLiDARセンサ20から取得することができる。
なお、上述した実施形態における補正式は単なる一例であり、補正式は上述のものに限られない。実際の屈折の様子に応じて適した補正式を採用すればよい。
上述した実施形態においては、アウタカバー12を取り付ける前と取り付けた後の測定点を取り扱う例を説明したが、本発明はこれに限られない。LiDARセンサユニット10には、ハウジング11とアウタカバー12で形成される空間の内部にインナレンズが設けられる場合がある。このインナレンズを取り付ける前と取り付ける後においても、インナレンズの屈折により測定しようとする方位が変化してしまう場合がある。このような場合にも本発明を適用することができる。
すなわち、LiDARセンサ20は、インナレンズをLiDARセンサユニット10に取り付けた状態で標準スクリーンSをセンシングした時の出力と、インナレンズをLiDARセンサユニット10に取り付けていない状態で標準スクリーンSをセンシングした時の出力とを比較し、補正式をメモリ48に記録し、生データに補正式を適用して得られる値を出力データとして出力するように構成されていてもよい。
LiDARセンサユニット10が、アウタカバー12とインナレンズの両方を搭載している場合には、メモリ48は、同じ環境においてアウタカバー12を搭載する前後で取得したLiDARセンサ20の測定データの第一差分または第一差分から算出される第一補正式と、同じ環境においてインナレンズを搭載する前後で取得したLiDARセンサ20の測定データの第二差分または第二差分から算出される第二補正式と、を記録していてもよい。
また、本発明は、LiDARセンサユニット10を車両1に搭載する際に生じる、理想的な取付姿勢(標準状態)と実際の取付姿勢の差に起因するLiDARセンサ出力の差を補正するために用いることもできる。すなわち、標準状態でLiDARセンサユニット10を車両1に取り付け、標準スクリーンSに向けてLiDARセンサ20を動作させたときに得られるであろうLiDARセンサ20の出力(設計値)と、実際にLiDARセンサユニット10を車両1に取り付けた状態で標準スクリーンSに向けてLiDARセンサ20を動作させた時に得たLiDARセンサ20の出力を比較する。これらの比較から導出される第二補正式がメモリ48に記録されている。LiDARセンサユニットは、アウタカバー12の屈折の影響を排除する補正式に加えて、実際の取り付け姿勢の標準状態からのずれを補正する第二補正式も、LiDARセンサ20の生データに適用し、車両制御部3に出力するように構成してもよい。
すなわち、処理部は、同じ環境においてLiDARセンサユニット10を車両1に取り付けた状態で取得したLiDARセンサ20の測定データと、LiDARセンサユニット10を標準状態で車両に取り付けた状態で取得されるLiDARセンサ20の測定データとの差分に基づいて、車両1に取り付けられたLiDARセンサユニット10から取得した生データを差分に応じた補正式により補正した補正データを出力するように構成されていてもよい。
また、本実施形態においては、アウタカバー12をLiDARセンサユニット10に取り付けていない状態で標準スクリーンSをセンシングした時の出力と、アウタカバー12をLiDARセンサユニット10に取り付けた状態で標準スクリーンSをセンシングした時の出力とが、書き換え可能なメモリ48に記録されている。
アウタカバー12は、飛び石などによって傷が付いたり破損したりすることがある。このように傷がついた個所でも屈折が生じたり、光が散乱してしまって上手く距離を測定できなくなってしまうことがある。小さな目立たない傷であっても、該傷が測定方位の延長線上に位置してしまう場合には、LiDARセンサ20は該傷の影響を受けてしまう。しかしながら、小さな傷が付いてしまうためにアウタカバー12を交換することは現実的ではない。
そこで本実施形態においては、定期的にメモリ48に記録される情報を更新することができる。例えば、車両の定期点検などにおいて、上述した標準スクリーンSを使った検査を行う。該検査において、アウタカバー12をLiDARセンサユニット10に取り付けていない状態で標準スクリーンSをセンシングした時の出力と、アウタカバー12をLiDARセンサユニット10に取り付けた状態で標準スクリーンSをセンシングした時の出力とを取得し、メモリ48の内容を定期的に書き換えることができる。これにより、傷に起因して光が屈折してしまう場合でも、補正式を適式に設定することにより、傷に起因する不具合を回避することができる。
また、アウタカバー12の交換時にも、交換後のアウタカバー12の形状に応じた補正式にメモリ48の内容を更新することができる。
また、上述した実施形態においては、車両1の右前部、左前部、右後部、左後部に設けられるLiDARセンサユニット10について説明したが、本発明は、車両1の搭載場所を問わず全てのLiDARセンサユニット10について適用できる。
さらに、上述した実施形態においては、LiDARセンサ20がランプユニット30とともに共通のアウタカバー12とハウジング11の内部に設けられる例を説明したが、本発明はこれに限られない。LiDARセンサ20がランプユニット30とは独立して設けられていてもよい。あるいは、LiDARセンサ20がカメラやミリ波レーダなどの他のセンサと共通のアウタカバー12とハウジング11の内部に設けられていてもよい。
なお、図6から図10を用いて説明したLiDARセンサ20の出力を補正する機能を実現する電子回路は、受光部への光の入射を検出して対象物の距離を算出する機能を実現する電子回路とは別に設けられていてもよい。すなわち、LiDARセンサ20に内蔵される電子回路が受光部への光の入射を検出して対象物の距離を算出する機能を実現し、LiDARセンサ20と車両制御部3との通信経路の途中に、補正式による出力の補正機能を実現する電子回路が設けられていてもよい。
<車両用防犯システム>
次に、本発明に係る車両用防犯システム102について説明する。本発明によれば、LiDARセンサを使った車両用防犯システムが提供される。
図10は、本実施形態に係る車両用防犯システム102が取り付けられた車両101の上面図である。車両用防犯システム102は、複数のLiDARセンサユニット110を有している。図10に示したように、車両101の右前部、左前部、右後部、左後部にLiDARセンサユニット110が取り付けられている。
LiDARセンサユニット110の構造は、図2で説明したLiDARセンサユニット10と同様である。また、ランプユニット130の構造についても図2で説明したランプユニット30と同様である。このため、LiDARセンサユニット110およびランプユニット130の説明は省略する。LiDARセンサ120の構造も、図3で説明したLiDARセンサ20と同様であるため、その説明は省略する。
図11は、車両用防犯システム102のブロック図である。図11に示すように車両用防犯システム102は、LiDARセンサ120と、ランプユニット130と、画像形成部151と、画像比較部152と、ランプ制御部153(制御部)を備えている。図11に示すように、LiDARセンサ120は、発光部141と、光源制御部145と、MEMSミラー143と、ミラー制御部146と、受光部142と、信号処理部147を備えている。光源制御部145は、発光部141の動作を制御する。ミラー制御部146は、MEMSミラー143の動作を制御する。ランプ制御部153は、ランプユニット130の点消灯を制御する。信号処理部147は、受光部142から出力される信号を処理し、車両制御部103へ出力する。車両制御部103は、車両101の挙動を制御する。
車両制御部103の動作については、上述した車両制御部3の動作と同様であるため、その説明を省略する。
信号処理部147の詳細についても、上述した信号処理部47と同様であるため、その説明を省略する。またLiDARセンサの検出原理についても、図5で既に説明しているため、その説明を省略する。
図12は、車両用防犯システム102が実行する処理のフローチャートである。図13は、ある時刻tから所定時間前の時刻t-1における駐車している車両101の周囲の様子を示す。時刻t-1においては、車両101は駐車場に駐車している。図14は、図13の状態においてLiDARセンサ120が取得した測定データに基づいて画像形成部151が形成した画像I[t-1]である。
時刻t-1において、LiDARセンサ120は全ての測定点について距離を測定している。画像形成部151は、時刻t-1における測定データP[t-1]=(θ[t-1],φ[t-1],d[t-1])を取得し、図14に示した画像I[t-1]を形成する(ステップS01)。
図15は、時刻tにおける駐車している車両101の周囲の様子を示す。時刻tにおいては、歩行者Aが、駐車している車両101に図15における右上から接近している。図16は、図15の状態においてLiDARセンサ120が取得した測定データに基づいて画像形成部151が形成した画像I[t]である。
時刻tにおいて、LiDARセンサ120は全ての測定点について距離を測定している。画像形成部151は、時刻tにおける測定データP[t]=(θ[t],φ[t],d[t])を取得し、図16に示した画像I[t]を形成する(ステップS02)。
画像比較部152は、時刻t-1で取得した画像I[t-1]と、時刻tで取得した画像I[t]とを比較する。画像比較部152は、両者の画像I[t-1],I[t]に所定値以上の差異が生じているか否かを判定する(ステップS03)。例えば画像比較部152は、両者の画像I[t-1],I[t]に差異がある画素数が所定値以上であるときに、所定値以上の差異が生じていると判定する。例えば画像比較部152が、画像を構成する全画素数に対して、差異がある画素数が3%以上であるときに、両者の画像I[t-1],I[t]に所定値以上の差異が生じていると判定する。閾値に設定する全画素に対する差異がある画素数の割合は、5%、10%など、ユーザが段階的に変更可能に構成されていてもよい。
両者の画像I[t-1],I[t]に所定値以上の差異が生じていない場合には(ステップS03:No)、車両用防犯システム102は処理を終了する。
両者の画像I[t-1],I[t]に所定値以上の差異が生じている場合には(ステップS03:Yes)、画像比較部152は、差異が自車両101から見てどの方位に生じているかを特定する。さらに、画像比較部152は、特定した方位をランプ制御部153へ出力する(ステップS04)。なお図示の例では、特定する方位は自車両101の右上の位置方向のみであるが、差異が複数の方位で生じている場合には、複数の方位を特定しランプ制御部153へ出力してもよい。
図示の例では、画像比較部152は、両者の画像I[t-1],I[t]を比較して、自車両101の右上の領域に所定値以上の差異が生じていることを特定する。画像比較部152は、所定値以上の差異が右上の領域に生じていることをランプ制御部153に出力する。
ランプ制御部153は、画像比較部152からの入力に基づいて、特定の方位に向けて光を照射するようにランプユニット130を制御する(ステップS05)。図示の例では、ランプ制御部153は、車両101の右前部に設けられたランプユニット130を点灯させる。
このとき、画像比較部152は、時刻tで取得した画像I[t]を自車両101を中心に周方向に12個の領域に区分けしている。画像比較部152は、方位を特定する代わりに、差異の生じている画素がどの領域に属しているかを特定し、属している領域をランプ制御部153に出力するように構成してもよい。この場合、ランプ制御部153は、入力されてきた領域に向けて光を出射可能なランプユニット130を点灯させるように構成してもよい。
本実施形態によれば、LiDARセンサ120を使った車両用防犯システム102が提供される。LiDARセンサ120は、高精度に対象物の形状を取得することができるため、防犯システムに適している。また、LiDARセンサ120は自動運転可能な車両101に搭載されることが多い。自動運転可能な車両101に搭載されたLiDARセンサ120は走行中は稼働しているものの、駐車中は使われていない。本実施形態のLiDARセンサ120を使った車両用防犯システム102は、駐車中に使用されていないLiDARセンサ120を用いることができ、車両用防犯システム102のためだけに別途センサを用いる必要が無く、合理的である。
なお、本実施形態において、車両用防犯システム102は、車両101のオーナーや登録された人物(ユーザと呼ぶ)を、登録していない人物と識別可能に構成されていてもよい。車両用防犯システム102はユーザ情報記録部154(図11参照)を有していてもよい。ユーザ情報記録部154は、ユーザと関連づけられた特定の形状を記録している。画像比較部152は、時刻t-1の画像I[t-1]と時刻tの画像I[t]とに相違があると判定した後に、時刻tの画像I[t]中の差異のあった部分が、ユーザ情報記録部154に記録されている形状と一致するか否かを判定する。両者が一致していれば、ランプ制御部153は、両者が一致していない場合とは異なる方法でランプユニット130を点灯させる。
例えば、差異のあった部分がユーザ情報記録部154に記録されている形状と一致していれば該当する方位に向けてランプユニット130を常時点灯させ、差異のあった部分がユーザ情報記録部154に記録されている形状と一致していなければ該当する領域に向けてランプユニット130を点滅させるように構成してもよい。例えばユーザ情報記録部154は、ユーザの顔の形状や、ユーザが所有するキーホルダーの形状などを記録することができる。
ランプ制御部153は、形状が一致する場合と一致しない場合とでランプユニット130の点灯態様を異ならせるとは、ランプユニット130の点灯と点滅、点滅を相違させる、点灯色を相違させる、明るさを相違させることを含む。また、ランプユニット130が複数の光源を有している場合には、ランプユニット130の点灯態様を異ならせることは、点灯させる光源の数や形状を相違させることを含む。
また、本実施形態において、車両用防犯システム102の光源制御部145は、駐車中にLiDARセンサ120を、走行時に行うセンシングの分解能よりも低い分解能で動作させる、または、走行時に行うセンシングの周期よりも長い周期で動作させるように構成してもよい。
駐車中に防犯用途でLiDARセンサ120を用いる場合には、走行時に求められる分解能(測定点の数)よりも低い分解能で足りる。また、駐車中に防犯用とでLiDARセンサ120を用いる場合には、走行時に求められる周期(スキャン周期)よりも長い周期で足りる。低い分解能や長い周期でLiDARセンサ120を動作させることにより、LiDARセンサ120で消費される電力を抑制することができる。
なお、画像形成部151と画像比較部152とランプ制御部153は、信号処理部147と一体に構成してもよいし、別々に構成してもよい。画像形成部151と画像比較部152とランプ制御部153は、信号処理部147と車両制御部103との通信経路の途中に設けられていてもよい。
また、上述した実施形態においては、画像比較部152が時刻t-1の画像と時刻tの画像とに相違がある場合に、ランプ制御部153に相違のある方位を出力し、ランプ制御部153が対応する方位に向けて光を出射させる構成を説明したが、本発明はこれに限られない。LiDARセンサユニット110に指向性スピーカが設けられている場合には、画像比較部152が時刻t-1の画像と時刻tの画像とに相違がある場合に、音源制御部に相違のある方位を出力し、音源制御部が指向性スピーカに対応する方位に向けて音を出射させる構成としてもよい。
また、上述した実施形態においては、車両101の右前部、左前部、右後部、左後部に設けられるLiDARセンサ120について説明したが、本発明は、車両101の搭載場所を問わず全てのLiDARセンサ120について適用できる。
さらに、上述した実施形態においては、LiDARセンサ120がランプユニット130とともに共通のアウタカバー112とハウジング111の内部に設けられる例を説明したが、本発明はこれに限られない。LiDARセンサ120がランプユニット130とは独立して設けられていてもよい。また、LiDARセンサ120がカメラやミリ波レーダなどの他のセンサと共通のアウタカバー112とハウジング111の内部に設けられていてもよい。
上記の実施形態は、本発明の理解を容易にするための例示にすぎない。上記の実施形態に係る構成は、本発明の趣旨を逸脱しなければ、適宜に変更・改良されうる。
本出願は、2019年1月10日出願の日本特許出願(特願2019-002786)および2019年1月10日出願の日本特許出願(特願2019-002787)に基づくものであり、その内容はここに参照として取り込まれる。
本発明によれば、レンズ要素が設けられていても、測定データに該レンズ要素の影響が及びにくいLiDARセンサユニットが提供される。
1 車両
3 車両制御部
10 LiDARセンサユニット
11 ハウジング
12 アウタカバー(レンズ要素)
20 LiDARセンサ
30 ランプユニット
41 発光部
42 受光部
43 MEMSミラー
44 集光レンズ
45 光源制御部
46 ミラー制御部
47 信号処理部(処理部)
48 メモリ(記録部)
S 標準スクリーン
θ 方位角
φ 仰角
d 距離
101 車両
102 車両用防犯システム
103 車両制御部
110 LiDARセンサユニット
111 ハウジング
112 アウタカバー
120 LiDARセンサ
130 ランプユニット(光源)
141 発光部
142 受光部
143 MEMSミラー
144 集光レンズ
145 光源制御部
146 ミラー制御部
147 信号処理部
151 画像形成部
152 画像比較部
153 ランプ制御部(制御部)
154 ユーザ情報記録部
A 歩行者

Claims (2)

  1. LiDARセンサと、
    前記LiDARセンサから出射される光の光路上に設けられたレンズ要素と、
    前記LiDARセンサが測定した測定対象の距離および方位を含む測定データを出力する処理部を有する、LiDARセンサユニットであって、
    前記処理部は、前記LiDARセンサユニットでセンシングする標準スクリーンにおいて前記レンズ要素を前記LiDARセンサユニットに取り付ける前後で取得した前記LiDARセンサの前記測定データの差分に基づいて、前記レンズ要素を取り付けた前記LiDARセンサから取得した生データを前記差分に応じた補正式により補正した補正データを出力するように構成され、
    前記LiDARセンサユニットでセンシングする前記標準スクリーンにおいて前記レンズ要素を前記LiDARセンサユニットに取り付ける前後で取得した前記LiDARセンサの前記測定データの差分データ、または前記差分データから算出される前記補正式が、書き換え可能な記録部に記録され、
    前記レンズ要素は、前記LiDARセンサを保護するカバーと、前記LiDARセンサと前記カバーとの間に設けられたインナレンズであり、
    前記記録部は、
    前記LiDARセンサユニットでセンシングする前記標準スクリーンにおいて前記カバーを搭載する前後で取得した前記LiDARセンサの前記測定データの第一差分または前記第一差分から算出される第一補正式と、
    前記LiDARセンサユニットでセンシングする前記標準スクリーンにおいて前記インナレンズを搭載する前後で取得した前記LiDARセンサの前記測定データの第二差分または前記第二差分から算出される第二補正式を記録している、LiDARセンサユニット。
  2. 前記処理部は、前記LiDARセンサユニットでセンシングする前記標準スクリーンにおいて前記LiDARセンサユニットを車両に取り付けた状態で取得した前記LiDARセンサの前記測定データと、前記LiDARセンサユニットを標準状態で車両に取り付けた状態で取得した前記LiDARセンサの前記測定データとの差分に基づいて、
    前記車両に取り付けられた前記LiDARセンサから取得した生データを前記差分に応じた補正式により補正した補正データを出力するように構成されている、請求項1に記載のLiDARセンサユニット。
JP2020565676A 2019-01-10 2019-12-20 LiDARセンサユニット Active JP7390312B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2019002786 2019-01-10
JP2019002787 2019-01-10
JP2019002786 2019-01-10
JP2019002787 2019-01-10
PCT/JP2019/050150 WO2020145095A1 (ja) 2019-01-10 2019-12-20 LiDARセンサユニットおよび車両用防犯システム

Publications (2)

Publication Number Publication Date
JPWO2020145095A1 JPWO2020145095A1 (ja) 2021-11-25
JP7390312B2 true JP7390312B2 (ja) 2023-12-01

Family

ID=71521615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020565676A Active JP7390312B2 (ja) 2019-01-10 2019-12-20 LiDARセンサユニット

Country Status (2)

Country Link
JP (1) JP7390312B2 (ja)
WO (1) WO2020145095A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024031215A (ja) * 2022-08-26 2024-03-07 株式会社小糸製作所 測定装置、制御装置及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004280451A (ja) 2003-03-14 2004-10-07 Matsushita Electric Works Ltd 自律移動装置
JP2006323651A (ja) 2005-05-19 2006-11-30 Atsumi Electric Co Ltd 防犯センサ
US20090303026A1 (en) 2008-06-04 2009-12-10 Mando Corporation Apparatus, method for detecting critical areas and pedestrian detection apparatus using the same
JP2011117940A (ja) 2009-11-09 2011-06-16 Sharp Corp 光学式測距装置および電子機器および光学式測距装置の校正方法
WO2018211801A1 (ja) 2017-05-19 2018-11-22 シャープ株式会社 光センサ及び電子機器

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004280451A (ja) 2003-03-14 2004-10-07 Matsushita Electric Works Ltd 自律移動装置
JP2006323651A (ja) 2005-05-19 2006-11-30 Atsumi Electric Co Ltd 防犯センサ
US20090303026A1 (en) 2008-06-04 2009-12-10 Mando Corporation Apparatus, method for detecting critical areas and pedestrian detection apparatus using the same
JP2011117940A (ja) 2009-11-09 2011-06-16 Sharp Corp 光学式測距装置および電子機器および光学式測距装置の校正方法
WO2018211801A1 (ja) 2017-05-19 2018-11-22 シャープ株式会社 光センサ及び電子機器

Also Published As

Publication number Publication date
WO2020145095A1 (ja) 2020-07-16
JPWO2020145095A1 (ja) 2021-11-25

Similar Documents

Publication Publication Date Title
JP4853160B2 (ja) 車両検出装置及びヘッドランプ制御装置
US9555812B2 (en) Method for detecting a roadway and corresponding detection systems
JP4263737B2 (ja) 歩行者検知装置
WO2018154000A1 (en) A 3d-camera device comprising a dirt detection unit
CN113227839A (zh) 具有结构光照明器的飞行时间传感器
US9506859B2 (en) Method and device for determining a visual range in daytime fog
US11440467B2 (en) Autonomous vehicle visual based communication
US20130235364A1 (en) Time of flight sensor, camera using time of flight sensor, and related method of operation
JP7095640B2 (ja) 物体検出装置
EP4020405A1 (en) Road lane condition detection with lane assist for a vehicle using infrared detecting device
US20220413159A1 (en) Method for fog detection for a vehicle with a fog detector with a specially shaped lens
JP7382349B2 (ja) LiDARセンサユニットおよび車両用防犯システム
JP7390312B2 (ja) LiDARセンサユニット
CN109703555A (zh) 用于探测道路交通中被遮蔽的对象的方法和设备
CN111611841A (zh) 用于车辆的对象检测设备和方法
US20200213499A1 (en) Active sensor, object identification system, vehicle and vehicle lamp
CN116071712A (zh) 车辆传感器遮挡检测
JP2007315814A (ja) 物体検出方法および物体検出装置
KR20210114530A (ko) 차량 주위에서의 타깃에 대한 신뢰점수를 결정하는 방법
WO2022190364A1 (ja) 情報処理装置、情報処理方法、プログラム及び記憶媒体
US20220207884A1 (en) Object recognition apparatus and object recognition program product
US20220201164A1 (en) Image registration apparatus, image generation system, image registration method, and image registration program product
JP7217817B2 (ja) 物体認識装置及び物体認識方法
CN110271502A (zh) 传感器系统
WO2023085403A1 (ja) センシングシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231120

R150 Certificate of patent or registration of utility model

Ref document number: 7390312

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150