JP7472136B2 - イメージング装置およびその照明装置、車両、車両用灯具 - Google Patents

イメージング装置およびその照明装置、車両、車両用灯具 Download PDF

Info

Publication number
JP7472136B2
JP7472136B2 JP2021533048A JP2021533048A JP7472136B2 JP 7472136 B2 JP7472136 B2 JP 7472136B2 JP 2021533048 A JP2021533048 A JP 2021533048A JP 2021533048 A JP2021533048 A JP 2021533048A JP 7472136 B2 JP7472136 B2 JP 7472136B2
Authority
JP
Japan
Prior art keywords
image data
pixels
imaging device
pixel
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021533048A
Other languages
English (en)
Other versions
JPWO2021010339A1 (ja
Inventor
輝明 鳥居
祐太 春瀬
真太郎 杉本
健人 新田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koito Manufacturing Co Ltd
Original Assignee
Koito Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koito Manufacturing Co Ltd filed Critical Koito Manufacturing Co Ltd
Publication of JPWO2021010339A1 publication Critical patent/JPWO2021010339A1/ja
Application granted granted Critical
Publication of JP7472136B2 publication Critical patent/JP7472136B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/0017Devices integrating an element dedicated to another function
    • B60Q1/0023Devices integrating an element dedicated to another function the element being a sensor, e.g. distance sensor, camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/23Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on positionally close patterns or neighbourhood relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/75Circuitry for compensating brightness variation in the scene by influencing optical camera components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Mechanical Engineering (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、イメージング装置に関する。
自動運転やヘッドランプの配光の自動制御のために、車両の周囲に存在する物体の位置および種類をセンシングする物体識別システムが利用される。物体識別システムは、センサと、センサの出力を解析する演算処理装置を含む。センサは、カメラ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ミリ波レーダ、超音波ソナーなどの中から、用途、要求精度やコストを考慮して選択される。
イメージング装置(センサ)のひとつとして、ゴーストイメージングの原理を利用したもの(以下、量子レーダと称する)が知られている。ゴーストイメージングは、参照光の強度分布(パターン)をランダムに切り替えながら物体に照射し、パターンごとに反射光の光検出強度を測定する。光検出強度はある平面にわたるエネルギーあるいは強度の積分値であり、強度分布ではない。そして、対応するパターンと光検出強度との相関をとることにより、物体の復元画像を再構成(reconstruct)する。
特許第6412673号公報
量子レーダは、霧中などの視界不良な環境下において、通常の二次元イメージセンサ(カメラ)では撮影できない物体を撮影することができるが、1枚の画像を復元するために、参照光を複数回、照射する必要があり、一般的なカメラに比べてフレームレートが低くなる。したがって、視界が良好な環境下では、量子レーダよりも二次元イメージセンサの方が好ましい状況が生じうる。
1. 本発明のある態様は係る状況においてなされたものであり、その例示的な目的のひとつは、高画質と高フレームレートを両立したイメージング装置およびその照明装置の提供にある。
2. また本発明のある態様の目的のひとつは、量子レーダと二次元イメージセンサの利点を併せ持つイメージング装置の提供にある。
1. 本発明のある態様は相関計算を利用したイメージング装置に関する。イメージング装置は、均一な強度分布を有する光ビームを生成する光源と、二階調の第1画像データに応じて、光ビームの強度分布を変調するパターニングデバイスと、物体からの反射光を測定する光検出器と、光検出器の出力にもとづく検出強度と、m階調(m≧2)の第2画像データとの相関計算を行い、物体の復元画像を再構成する演算処理装置と、を備える。第1画像データの画素数は第2画像データの画素数より多い。第2画像データの1画素は、第1画像データの複数L個の画素を含むピクセル群に対応付けられる。第2画像データのある画素の正規化された階調値をk、それと対応するピクセル群に含まれる値が1である画素の個数をlとするとき、l=L×kが成り立つ。
本発明の別の態様は、相関計算を利用したイメージング装置に用いられる照明装置に関する。照明装置は、均一な強度分布を有する光ビームを生成する光源と、第1画素数の画素のアレイを含み、第1画素数を有し、かつ二階調の第1画像データに応じて光ビームの強度分布を変調するパターニングデバイスと、第1画素数より少ない第2画素数を有し、かつランダムなm階調(m≧2)の第2画像データを生成して相関計算に提供するとともに、第2画像データを第1画像データに変換し、パターニングデバイスに供給するコントローラと、を備える。
2. 本発明の別の態様は、イメージング装置に関する。イメージング装置は、強度分布を制御可能な赤外の参照光を物体に照射する照明装置と、赤外線領域に感度を有する二次元イメージセンサと、二次元イメージセンサが撮影した画像を処理する演算処理装置と、を備える。(i)第1モードにおいて、照明装置は、複数M個のパターニングデータのシーケンスにもとづいて参照光の強度分布を変化させる。それと並行して、二次元イメージセンサは複数(M枚)の画像を撮影する。演算処理装置は、複数の画像それぞれについて複数の画素の積算値に応じた光検出強度を計算する。そして演算処理装置は、複数の画像に対応する複数の光検出強度と複数のパターニングデータとの相関計算を行い、第1出力画像を出力する。(ii)第2モードにおいて、演算処理装置は、二次元イメージセンサが撮影した画像にもとづく第2出力画像を出力する。
本発明のある態様によれば、高画質と高フレームレートを両立できる。また別の態様によれば、量子レーダと二次元イメージセンサの利点を併せ持つイメージング装置を提供できる。
実施形態1に係るイメージング装置を示す図である。 図2(a)~(c)は、パターニングデバイスであるDMDの画素を説明する図である。 第2画像データと第1画像データの関係を説明する図である。 第1画像データと第2画像データの具体例を示す図である。 図5(a)、(b)は、配置規則の例を示す図である。 比較技術に係るイメージング装置の1フレームのセンシングを示すタイムチャートである。 図1のイメージング装置の1フレームのセンシングを示すタイムチャートである。 第2画像データと第1画像データの一例を示す図である。 シミュレーション結果を示す図である。 図10(a)~(c)は、変形例1.1に係る第2画像データを示す図である。 変形例1.2に係る第1画像データと第2画像データを示す図である。 実施形態2に係るイメージング装置を示す図である。 図12のイメージング装置の動作のフローチャートである。 第1モード、第2モード、第3モードにおける照明装置、二次元イメージセンサ、演算処理装置の状態および処理を示す図である。 図15(a)~(c)は、ハイブリッドモードを説明する図である。 物体識別システムのブロック図である。 物体識別システムを備える自動車を示す図である。 物体検出システムを備える車両用灯具を示すブロック図である。
(実施形態の概要)
本開示のいくつかの例示的な実施形態の概要を説明する。この概要は、後述する詳細な説明の前置きとして、実施形態の基本的な理解を目的として、1つまたは複数の実施形態のいくつかの概念を簡略化して説明するものであり、発明あるいは開示の広さを限定するものではない。またこの概要は、考えられるすべての実施形態の包括的な概要ではなく、実施形態の欠くべからざる構成要素を限定するものではない。便宜上、「一実施形態」は、本明細書に開示するひとつの実施形態(実施例や変形例)または複数の実施形態(実施例や変形例)を指すものとして用いる場合がある。
1. 一実施形態は、相関計算を利用したイメージング装置に関する。イメージング装置は、均一な強度分布を有する光ビームを生成する光源と、二階調の第1画像データに応じて、光ビームの強度分布を変調するパターニングデバイスと、物体からの反射光を測定する光検出器と、光検出器の出力にもとづく検出強度と、m階調(m≧2)の第2画像データとの相関計算を行い、物体の復元画像を再構成する演算処理装置と、を備える。第1画像データの画素数は第2画像データの画素数より多い。第2画像データの1画素は、第1画像データの複数L個の画素を含むピクセル群に対応付けられる。第2画像データのある画素の正規化された階調値をk、それと対応するピクセル群に含まれる値が1である画素の個数をlとするとき、l=L×kが成り立つ。
一般的に、パターニングデバイスを多階調で動作させる場合、フレームレートが低下する。この実施形態によれば、相関計算に用いる第2画像データよりも、画素数が多いパターニングデバイスを用い、パターニングデバイスを1ビット動作させることで、高フレームレートを実現できる。パターニングデバイスが生成する参照光の強度分布は、第2画像データの画素数(解像度)でみたときには多階調表現されているため、高画質も実現できる。
イメージング装置は、第2画像データを生成するコントローラをさらに備えてもよい。コントローラは、第2画像データを変換して、第1画像データを生成してもよい。
コントローラは、所定の配置規則にしたがって、ピクセル群に値1,0を割り当ててもよい。
配置規則は、ピクセル群の中央の画素から優先的に値1が埋まるように定められてもよい。この場合、パターニングデバイスの隣接するピクセル群同士の干渉を低減できる。
配置規則は、ピクセル群において、値1が均一に配置されるように定められてもよい。
ピクセル群において、値1と0はランダムに配置されてもよい。
第2画像データを構成する画素のサイズは、位置に応じて異なってもよい。これにより、局所的に分解能を制御することができる。
パターニングデバイスはDMD(Digital Micromirror Device)であってもよい。
照明装置は、相関計算を利用したイメージング装置に利用できる。イメージング装置は、照明装置に加えて、物体からの反射光を測定する光検出器と、光検出器の出力にもとづく検出強度と第2画像データの相関計算を行い、物体の復元画像を再構成する演算処理装置と、を備える。
2. 一実施の形態に係るイメージング装置は、強度分布を制御可能な赤外の参照光を物体に照射する照明装置と、赤外線領域に感度を有する二次元イメージセンサと、二次元イメージセンサが撮影した画像を処理する演算処理装置と、を備える。イメージング装置は、第1モードと第2モードが切り替え可能である。
(i)第1モード
照明装置は、複数のパターニングデータのシーケンスにもとづいて参照光の強度分布を変化させる。この間に、二次元イメージセンサは複数の画像を撮影する。演算処理装置は、複数の画像それぞれについて複数の画素の積算値に応じた光検出強度を計算し、複数の画像に対応する複数の光検出強度と複数のパターニングデータとの相関計算を行い、第1出力画像を出力する。
(ii)第2モード
演算処理装置は、二次元イメージセンサが撮影した画像にもとづく第2出力画像を出力するように構成される。
このイメージング装置は、第1モードにおいて量子レーダとして動作し、第2モードにおいてカメラ(二次元イメージセンサ)として動作するため、量子レーダと二次元イメージセンサの利点を併せ持つことができる。
また、第1モードと第2モードとで、二次元イメージセンサおよび光学系を共有できるため、第1モードと第2モードとで、同じ画角の画像を得ることができ、2つのモード間の視差も存在しない。
第2モードにおいて、照明装置は均一な強度分布を有する参照光を照射してもよい。二次元イメージセンサは、物体からの参照光の反射光を検出するアクティブセンサとして動作してもよい。イメージング装置を、暗視カメラとして使用することができる。
演算処理部は、視界の良・不良を判定可能に構成され、視界不良と判定されたとき、第1モードが選択され、視界良好と判定されたとき、第2モードが選択されてもよい。
第3モードにおいてイメージング装置は、パッシブセンサとして動作してもよい。第3モードにおいて、照明装置は発光を停止してもよい。演算処理装置は、二次元イメージセンサが撮影した画像にもとづく第3出力画像を出力してもよい。
二次元イメージセンサは、赤外線領域に加えて可視光領域に感度を有してもよい。第3出力画像は可視光画像であってもよい。
演算処理部は、視界の良・不良および周囲の明るさを判定可能に構成され、(i)視界不良と判定されたとき、第1モードが選択され、(ii)視界良好であり、かつ周囲が暗いと判定されたとき、第2モードが選択され、(iii)視界良好であり、かつ周囲が明るいと判定されたとき、第3モードが選択されてもよい。
第3出力画像は赤外光画像であってもよい。
イメージング装置は、ハイブリッドモードをサポートしてもよい。
ハイブリッドモードにおいて、照明装置は、参照光の第1部分の強度分布を変化させ、参照光の第2部分の強度分布を均一とし、演算処理装置は、参照光の第1部分の照射範囲について、相関計算により第1出力画像を生成し、参照光の第2部分の照射範囲については、二次元イメージセンサが撮影した画像にもとづく第2出力画像を生成する。
これにより、局所的に視界が悪いような状況において、視界が悪い領域のみ、量子レーダとして動作させることができる。
第2モードにおいてイメージング装置は、パッシブセンサとして動作してもよい。第2モードにおいて、照明装置は発光を停止してもよい。
以下、本発明を好適な実施形態をもとに図面を参照しながら説明する。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。また、実施形態は、発明を限定するものではなく例示であって、実施形態に記述されるすべての特徴やその組み合わせは、必ずしも発明の本質的なものであるとは限らない。
本明細書における「強度分布がランダム」とは、完全なランダムであることを意味するものではなく、ゴーストイメージングにおいて画像を再構築できる程度に、ランダムであればよい。したがって本明細書における「ランダム」は、その中にある程度の規則性を内包することができる。また「ランダム」は、完全に予測不能であることを要求するものではなく、予想可能、再生可能であってもよい。
(実施形態1)
図1は、実施形態1に係るイメージング装置100を示す図である。イメージング装置100はゴーストイメージングの原理を用いた相関関数イメージセンサであり、照明装置110、光検出器120、演算処理装置130を備える。イメージング装置100を、量子レーダカメラとも称する。
照明装置110は、疑似熱光源であり、実質的にランダムとみなしうる強度分布I(x,y)を有する参照光S1を生成し、物体OBJに照射する。物体OBJへの参照光S1の照射は、その強度分布を、複数のM通りのパターンに応じて変化させながら行われる。
照明装置110は、光源112、パターニングデバイス114、コントローラ116を含む。光源112は、均一な強度分布を有する光ビームS0を生成する。光源112は、レーザや発光ダイオードなどを用いてもよい。好ましくは光ビームS0は赤外光であるが、その波長やスペクトルは特に限定されず、複数のあるいは連続スペクトルを有する白色光であってもよいし、所定の波長を含む単色光であってもよい。
パターニングデバイス114は、第1画素数(X×Y)の画素のアレイを含む。パターニングデバイス114は、第1画素数(X×Y)を有し、かつ二階調の第1画像データIMG1を受け、第1画像データIMG1に応じて、画素のアレイを制御し、光ビームS0の強度分布を変調する。パターニングデバイス114としては、DMD(Digital Micromirror Device)や液晶デバイスを用いることができる。本実施形態においてパターニングデバイス114はDMDであるもとする。
図2(a)~(c)は、パターニングデバイス114であるDMDの画素を説明する図である。図2(a)に示すように、DMDは、Y行X列のマトリクス状に配置される複数のマイクロミラー(画素PIX)のアレイである。図2(b)に示すように、各画素PIXは、正方形のミラーであり、対角に設けられたヒンジを軸として、ON方向とOFF方向に傾動可能となっている。パターニングデバイス114は、全画素を独立してオン、オフ制御可能に構成される。以下の説明では、マトリクスの形状を図2(c)のように簡略化して示す。
図1に戻る。DMDを構成する各マイクロミラーの状態は、第1画像データIMG1の対応する画素と対応付けられる。すなわち、第1画像データIMG1のある画素P(i,j)の値が1のとき、その画素P(i,j)に対応するマイクロミラーはオン側に傾動し、ある画素P(i,j)の値が0のとき、その画素に対応するマイクロミラーはオフ側に傾動する。かくして、光ビームS0が第1画像データIMG1に応じてパターニングされ、強度分布I(X,Y)を有する参照光S1が生成され、前方の物体に照射される。
コントローラ116は、パターニングデバイス114を制御するための第1画像データIMG1に加えて、相関計算に用いる第2画像データIMG2を生成する。第2画像データIMG2は第2画素数(x×y)を有しており、各画素はm階調(m≧3)である。第2画素数x×yは、第1画素数X×Yよりも少ない。Xはxの整数倍、Yはyの整数倍の関係を満たす。
X=ax
Y=by
(a,bは自然数であり、少なくとも一方は二以上)
本実施形態において、コントローラ116は、第2画像データIMG2を生成し、第2画像データIMG2にもとづいて第1画像データIMG1を生成する。第2画像データIMG2は、再構成処理部134に供給され、復元画像G(x,y)の生成のための相関計算に利用される。
光検出器120は、物体OBJからの反射光を測定し、検出信号Dを出力する。検出信号Dは、強度分布Iを有する参照光を物体OBJに照射したときに、光検出器120に入射する光エネルギー(あるいは強度)の空間的な積分値である。したがって光検出器120は、シングルピクセルのデバイス(フォトディテクタ)を用いることができる。光検出器120からは、複数M通りの強度分布I~Iそれぞれに対応する複数の検出信号D~Dが出力される。
演算処理装置130は、再構成処理部134を含む。再構成処理部134は、複数の第2画像データIMG2が規定する複数の強度分布I~Iと、複数の検出強度b~bの相関計算を行い、物体OBJの復元画像G(x,y)を再構成する。最終的な復元画像G(x,y)の画素数は、第2画像データIMG2の画素数と一致しており、パターニングデバイス114の画素数より少ない。
検出強度b~bは、検出信号D~Dにもとづいている。検出強度bと検出信号Dの関係は、光検出器120の種類や方式などを考慮して定めればよい。
ある強度分布Iの参照光S1を、ある照射期間にわたり照射するとする。また検出信号Dは、ある時刻(あるいは微小時間)の受光量、すなわち瞬時値を表すとする。この場合、照射期間において検出信号Dを複数回サンプリングし、検出強度bを、検出信号Dの全サンプリング値の積分値、平均値あるいは最大値としてもよい。あるいは、全サンプリング値のうちのいくつかを選別し、選別したサンプリング値の積分値や平均値、最大値を用いてもよい。複数のサンプリング値の選別は、たとえば最大値から数えて序列a番目からb番目を抽出してもよいし、任意のしきい値より低いサンプリング値を除外してもよいし、信号変動の大きさが小さい範囲のサンプリング値を抽出してもよい。
光検出器120として、カメラのように露光時間を設定可能なデバイスを用いる場合には、光検出器120の出力Dをそのまま、検出強度bとすることができる。
検出信号Dから検出強度bへの変換は、演算処理装置130が実行してもよいし、演算処理装置130の外部で行ってもよい。
相関には、式(1)の相関関数が用いられる。Iは、r番目の第2画像データIMG2の画素値の分布であり、bはr番目の検出強度の値である。
Figure 0007472136000001
演算処理装置130は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)、マイコンなどのプロセッサ(ハードウェア)と、プロセッサ(ハードウェア)が実行するソフトウェアプログラムの組み合わせで実装することができる。演算処理装置130は、複数のプロセッサの組み合わせであってもよい。あるいは演算処理装置130はハードウェアのみで構成してもよい。コントローラ116は、演算処理装置130の内部に実装してもよい。
以上がイメージング装置100の全体の基本構成である。続いて、第1画像データIMG1と第2画像データIMG2について説明する。
図3は、第2画像データIMG2と第1画像データIMG1の関係を説明する図である。第2画像データIMG2のi行j列目(i=1~x、j=1~y)の画素をP(i,j)と表すものとする。同様に第1画像データIMG1のI行J列目(I=1~X、J=1~Y)の画素をP(I,J)と表すものとする。
第2画像データIMG2の任意の画素P(i,j)について、その正規化された階調値をkとする。たとえば第2画像データIMG2が2ビット4階調である場合、正規化された階調値kは0,1/3,2/3,1の4値を取り得る。第2画像データIMG2が6階調である場合、正規化された階調値kは0,1/5,2/5,3/5,4/5,5/5の6値を取り得る。一般化すると、第2画像データIMG2がm階調(m≧3)である場合、正規化された階調値kは0,1/(m-1),2/(m-1),…,(m-2)/(m-1),1のm値を取り得る。
第2画像データIMG2の1画素P(i,j)は、第1画像データIMG1の複数L個の画素を含むピクセル群PG(i,j)に対応付けられる。具体的には図3に示すように、第1画像データIMG1と第2画像データIMG2を同じサイズにスケーリングした状態で、それらを重ねたときに、第2画像データIMG2の任意の画素P(i,j)には、第1画像データIMG1のうち複数Lの画素Pがオーバーラップする。この画素P(i,j)とオーバーラップするL個の画素Pの集合が、ピクセル群PG(i,j)である。
第2画像データIMG2のある画素P(i,j)の正規化された階調値をkとする。またその画素P(i,j)に対応するピクセル群PG(i,j)に含まれるL個の画素のうち、値が1である画素の個数をlとする。このとき、l=L×kが成り立つ。なお、(L×k)が非整数の場合、lは、(i)L×kと最近接する整数、(ii)L×kの小数点以下を切り捨てた整数、あるいは(iii)L×kの小数点以下を切り上げた整数、あるいは(iv)L×kの小数点第1位を四捨五入した整数のいずれかとすればよい。
図4は、第1画像データIMG1と第2画像データIMG2の具体例を示す図である。この例では、x=5,y=4,X=15,Y=12であって、a=b=3であり、1つのピクセル群PGには、L(=a×b)個の画素Pが含まれる。なお、実際の画素数x、yはそれぞれ、数十~数百のオーダーである。
図4において、第2画像データIMG2の階調数は4であり、正規化された階調値kは0,1/3,2/3,1のいずれかをとるとする。
第2画像データIMG2の画素P(1,1)の階調値はk=1であり、対応する第1画像データIMG1のピクセル群PG(1,1)は、L個のうちL個すべての値が1である。
たとえば第2画像データIMG2の画素P(3,2)の階調値kは1/3であり、対応する第1画像データIMG1のピクセル群PG(3,2)は、L個の画素のうちl=3個が1であり、6個が0である。
また第2画像データIMG2の画素P(2,1)の階調値kは0であり、対応する第1画像データIMG1のピクセル群PG(2,1)のうち、値が1の画素の数lは0であり、L個すべてが0となる。
第1画像データIMG1を、第2画像データIMG2の画素数の画像としてみたときには、言い換えると第1画像データIMG1を、ピクセル群PGを1画素とする画像としてみたときには、ピクセル群PGの実効的な値は、それに含まれる複数の画素の値の平均であり、したがって対応する第2画像データIMG2の画素Pの値に応じて多階調制御されている。
このような第1画像データIMG1にもとづいてパターニングされた参照光S1を物体に照射し、反射光から得られる検出強度bと、第2画像データIMG2との相関計算を行うことで、高画質を得ることができる。
ピクセル群PG内の値1と0の配置を説明する。コントローラ116は、所定の配置規則にしたがって、ピクセル群PG内の値1,0を配置してもよい。図5(a)、(b)は、配置規則の例を示す図である。これらの例ではピクセル群PGは5×5=25画素を含む。図5(a)に示す第1配置規則は、ピクセル群の中央の画素から優先的に1が埋まるように定められる。光源112が生成する光ビームS0が大きな広がり角を有する場合、各ピクセル群PGで反射された光束が広がり、隣接するピクセル群同士で干渉するおそれがある。この場合に、中央に値1の画素を集中させることで、隣接するピクセル群の干渉を低減できる。
図5(b)の第2配置規則は、ピクセル群PG内において、1が均一に配置されるように定められる。
あるいは、配置規則を定めずに、1と0をランダムに配置してもよい。
以上がイメージング装置100の構成である。続いてイメージング装置100の動作を説明する。イメージング装置100の利点は、比較技術との対比によって明確となる。そこで比較技術におけるセンシングを説明する。
比較技術では、パターニングデバイスを、x×yの画素数の、m階調の画像データにもとづいて制御する。また相関計算も、x×yの画素数でm階調の同じ画像データにもとづいて制御する。
図6は、比較技術に係るイメージング装置の1フレームのセンシングを示すタイムチャートである。1枚の復元画像G(x,y)を生成するためにM回のパターン照射が行われる。比較技術では、相関計算に、多階調の画像データが使用され、パターニングデバイスの実効的な画素数は、画像データの画素数と等しい。パターニングデバイスは、多階調モード(マルチビットモード)で動作する。
DMDの各画素(マイクロミラー)は、図2に示すようにオン状態とオフ状態の2状態を取り得る。したがって、多階調のDMDは、オン状態とオフ状態を高速にスイッチングし、オン状態とオフ状態の時間比率(デューティ比)を変化させることにより多階調を実現する。かかる理由から、多階調モードのDMDは、1ビットモードのDMDよりもフレーム周期が長くなる。
したがって比較技術では、1つの画像データにもとづく参照光S1の照射時間が長くなる。1回目の参照光S1の照射が完了すると、検出強度bが得られ、2回目の参照光S1の照射に移行する。M回の照射が完了し、検出強度b~bが得られると、相関計算が行われ、復元画像G(x,y)が得られる。1枚の復元画像G(x、y)の生成に要する時間は、参照光S1の照射時間が長いほど、長くなる。
続いて図1のイメージング装置100の動作を説明する。図7は、図1のイメージング装置100の1フレームのセンシングを示すタイムチャートである。本実施形態では、相関計算には、多階調・低画素数の第2画像データIMG2が使用される一方、パターニングデバイス114には、二階調・高画素数の第1画像データIMG1が使用される。
本実施形態では、パターニングデバイス114は1ビットモードで動作するため、多階調モードのようなデューティ比制御が不要である。したがって、DMDによる1回の参照光S1の照射時間が、比較技術に比べて短くなる。その結果、1枚の復元画像G(x、y)の生成に要する時間を、比較技術に比べて短縮でき、フレームレートを高めることができる。
また実施形態1によれば、参照光S1の強度分布は、ピクセル群PG単位で多階調制御されているため、比較技術と同等の画質を得ることができる。このことを確認するために行ったシミュレーションについて説明する。シミュレーションでは、x=y=32,X=Y=640とした。また第2画像データIMG2の階調数をm=6階調としている。図8は、第2画像データIMG2と第1画像データIMG1の一例を示す図である。
図9は、シミュレーション結果を示す図である。シミュレーションは、M=1000,5000,10000,50000の4通りについて行った。図9の上段には、比較技術について得られた結果が示される。図9の中段は、実施形態1に係る方法であって第1配置規則を用いた場合の結果が示される。図9の下段は、実施形態1に係る方法であって第2配置規則を用いた場合の結果が示される。本実施形態によれば、比較技術と同等の画質を得ることができることが分かる。
すなわち、実施形態1に係るイメージング装置100によれば、高画質と高フレームレートを両立することができる。
続いて実施形態1に関連する変形例について説明する。
(変形例1.1)
実施形態では、第2画像データIMG2を構成する画素の大きさおよび形状を均一としたが、不均一としてもよい。すなわち局所的に画素サイズを大きくしてもよいし、小さくしてもよい。図10(a)~(c)は、変形例1.1に係る第2画像データIMG2を示す図である。たとえば復元画像の中央において高い解像度が必要な場合、図10(a)に示すように、第2画像データIMG2の中央の画素の大きさを小さくすればよく、復元画像の下方において高い解像度が必要な場合、図10(b)に示すように、第2画像データIMG2の下方の画素の大きさを小さくすればよく。また図10(c)に示すように、第2画像データIMG2は、長方形の画素を含んでもよい。
(変形例1.2)
実施形態では、第2画像データIMG2を生成した後に、それを第1画像データIMG1に変換したが、順序を入れ替えてもよい。すなわち、1ビット二階調で第1画素数(X×Y)のランダムな第1画像データIMG1を生成した後に、それを第2画像データIMG2に変換してもよい。この場合、第1画像データIMG1の、あるピクセル群PG(i,j)の画素数がLであり、値が1である画素の個数がlであるとき、対応する第2画像データIMG1の画素P(i,j)の値(正規化値)を、l/Lとすればよい。
図11は、変形例1.2に係る第1画像データIMG1と第2画像データIMG2を示す図である。図11に示すように、画素数(X×Y)、二階調の第1画像データIMG1から、画素数と階調数の組み合わせの異なる複数の第2画像データIMG2を生成することができる。言い換えれば、復元画像G(x,y)の解像度を、検出強度b~bの取得後においても柔軟に変更することができる。
(実施形態2)
図12は、実施形態2に係るイメージング装置100を示す図である。イメージング装置100は、照明装置110、二次元イメージセンサ120、演算処理装置130を備える。
イメージング装置100は、3つのモード(第1モード~第3モード)が切り替え可能に構成される。
照明装置110は、強度分布を制御可能な赤外の参照光S1を物体に照射する。たとえば照明装置110は、光源112、パターニングデバイス114およびパターン発生器116を含む。光源112は、均一な強度分布を有する光ビームS0を生成する。光源112は、レーザや発光ダイオードなどを用いてもよい。参照光S1の波長やスペクトルは特に限定されないが、本実施形態において赤外である。
パターニングデバイス114は、マトリクス状に配置される複数の画素を有し、複数の画素のオン、オフの組み合わせにもとづいて、光の強度分布Iを空間的に変調可能に構成される。本明細書においてオン状態の画素をオン画素、オフ状態の画素をオフ画素という。なお、以下の説明では理解の容易化のために、各画素は、オンとオフの2値(1,0)のみをとるものとするがその限りでなく、中間的な階調をとってもよい。
パターニングデバイス114としては、反射型のDMD(Digital Micromirror Device)や透過型の液晶デバイスを用いることができる。パターニングデバイス114には、パターン発生器116が発生するパターニングデータPTN(画像データ)が与えられている。
パターン発生器116は、参照光S1の強度分布Iを指定するパターニングデータPTNを発生する。パターン発生器116の動作およびパターニングデータPTNは、モードに応じて異なる。パターン発生器116は、演算処理装置130の内部に実装してもよい。
二次元イメージセンサ120は、赤外線領域および可視光領域に感度を有している。二次元イメージセンサ120は、CMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)である。
演算処理装置130は、二次元イメージセンサ120が撮影した画像IMG0を処理する。演算処理装置130は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)、マイコンなどのプロセッサ(ハードウェア)と、プロセッサ(ハードウェア)が実行するソフトウェアプログラムの組み合わせで実装することができる。演算処理装置130は、複数のプロセッサの組み合わせであってもよい。あるいは演算処理装置130はハードウェアのみで構成してもよい。
続いて、第1モードから第3モードについて説明する。
(第1モード)
第1モードにおいてイメージング装置100は、量子レーダとして動作する。照明装置110は、疑似熱光源として動作し、実質的にランダムとみなしうる強度分布I(x,y)を有する参照光S1を生成し、物体OBJに照射する。第1モードにおいてパターン発生器116は、実質的にランダムなM個のパターニングデータPTN~PTNのシーケンスを生成する。したがって物体OBJへの参照光S1の照射は、その強度分布を、複数のM個のパターニングデータPTN~PTNのシーケンスに応じて変化させながら行われる。
二次元イメージセンサ120は、複数のパターニングデータPTN~PTNにもとづくM回の参照光S1の照射に対応して、複数の画像IMG0~IMGを撮影する。第1モードにおいて二次元イメージセンサ120には赤外光のみが入射し、可視光はフィルタによって除去される。
たとえばイメージング装置100は、二次元イメージセンサ120の入射光路上に設けられた可視光フィルタと赤外線フィルタを備え、モードに応じて、可視光フィルタと赤外線フィルタを機械的に入れ替えるようにしてもよい。
あるいはイメージング装置100は、可視光フィルタを透過して二次元イメージセンサ120に入射する光路と、赤外線フィルタを透過して二次元イメージセンサ120に入射する光路と、を含み、モードに応じて光路を選択可能に構成されてもよい。あるいは、波長可変フィルタを用い、モードに応じて透過波長を制御してもよい。
演算処理装置130は、複数の画像IMG0~IMG0それぞれについて、複数の画素の積算値に応じた光検出強度b~bを計算する。もっとも典型的には、演算処理装置130は、各画像IMG0の全画素の値を積算(あるいは平均)し、光検出強度bを計算することができる。
そして演算処理装置130は、複数の画像IMG0~IMG0に対応する複数の光検出強度b~bと複数のパターニングデータPTN~PTNとの相関計算を行い、復元画像G(x,y)を生成する。
相関には、式(1)の相関関数が用いられる。Iは、r番目の強度分布であり、bはr番目の検出強度の値である。
Figure 0007472136000002
演算処理装置130は、復元画像G(x,y)にもとづく第1出力画像IMG1を出力する。
(ii)第2モード
演算処理装置130は、二次元イメージセンサ120が撮影した画像IMG0にもとづく第2出力画像IMG2を出力するように構成される。より具体的には照明装置110は均一な強度分布を有する赤外光の参照光S1を照射する。二次元イメージセンサ120は、物体OBJからの参照光S1の反射光S2を検出するアクティブセンサとして動作する。第2モードにおいても二次元イメージセンサ120には赤外光のみが入射し、可視光はフィルタによって除去される。第2モードにおいて、イメージング装置100は暗視カメラとして動作する。
(ii)第3モード
演算処理装置130は、二次元イメージセンサ120が撮影した画像IMG0にもとづく第3出力画像IMG3を出力するように構成される。第3モードと第2モードとでは、照明装置110の動作が異なっており、第3モードにおいて照明装置110は発光を停止する。また第3モードにおいて二次元イメージセンサ120には可視光のみが入射し、赤外光はフィルタによって除去される。すなわち、第3モードにおいてイメージング装置100は可視光のパッシブセンサ、言い換えれば一般的なカメラとして動作する。
演算処理装置130は、視界の良・不良を判定可能に構成される。視界の良否の判定手法は特に限定されないが、演算処理装置130は、外部情報にもとづいて、視界の良否を判定してもよい。たとえば信号機等の交通インフラに設置したセンサから、霧発生情報を取得してもよいし、ダイナミックマップの準動的情報(狭域気象情報)を取得してもよい。
あるいは演算処理装置130は、二次元イメージセンサ120の画像IMG0を画像処理することにより、視界の良否を判定してもよい。一例として、(i)機械学習にもとづくクラス分類や(ii)白線の認知可能距離、(iii)先行車の距離情報と輝度の関係にもとづいて、視認性を判定してもよい。あるいは水滴の均一性と大きさにもとづいて判定してもよい。
あるいは、同じシーンで第1モードと第2モードを切り替えて撮影し、各モードで得られる画像IMG1,IMG2の差分にもとづいて視界の良否を判定してもよい。
あるいは、演算処理装置130は、運転者からの指示入力にもとづいて、視界の良否を判定してもよい。
あるいはイメージング装置100は、視界の良否の判断材料を提供しうるセンサを備え、演算処理装置130は、このセンサの出力にもとづいて視界の良否を判定してもよい。たとえば、パルス光を照射し、反射光強度を検出するセンサを用いてもよいし、視程計を用いてもよい。
演算処理装置130は、視界の良否に加えて、周囲の明るさを判定可能に構成される。たとえば演算処理装置130は図示しない照度センサと接続されており、照度センサの出力にもとづいて明るさを判定してもよい。あるいは時間帯やGPS情報に基づいて周囲の明るさを推定してもよい。
上述の第1モードから第3モードは、視界の良否および周囲の明るさにもとづいて選択される。図13は、図12のイメージング装置100の動作のフローチャートである。
視界の良否が判定される(S100)。そして視界が悪いときには(S100のN)、第1モードが選択され(S102)、イメージング装置100は量子レーダとして動作する。
視界が良好なときには(S100のY)、周囲の明るさが判定される(S104)。そして周囲が暗いときには(S104のN)、第2モードが選択され(S106)、イメージング装置100は暗視カメラとして動作する。周囲が明るいときには(S104のY)、第3モード(S108)が選択され、イメージング装置100は通常の可視光カメラとして動作する。
図14は、第1モード、第2モード、第3モードにおける照明装置110、二次元イメージセンサ120、演算処理装置130の状態および処理を示す図である。第1モードでは、照明装置110はランダムな強度分布の参照光を照射する。また二次元イメージセンサ120の検出波長は参照光と同じ赤外であり、全画素が合成され、仮想的にシングルピクセルの光検出器として動作する。演算処理装置130は、相関計算により画像を復元する。
第2モードでは、照明装置110は均一な強度分布の参照光を照射する。また二次元イメージセンサ120の検出波長は参照光と同じ赤外である。二次元イメージセンサ120は、物体からの赤外の反射光を撮影する。
第3モードでは、照明装置110はオフとなる。二次元イメージセンサ120の検出波長は可視光領域であり、物体が、環境光(主として太陽光)を反射した光を撮影する。
以上がイメージング装置100の動作である。このイメージング装置100は、視界が悪い状態では第1モードを選択して、量子レーダとして動作させることで、通常のカメラでは検出しにくい物体を検出することができる。また視界が良い状態では、第2モードあるいは第3モードを選択することで、高いフレームレートで画像を生成することができる。すなわちイメージング装置100は、量子レーダと二次元イメージセンサの利点を併せ持つことができる。
また、第1モード~第3モードで、二次元イメージセンサ120および図示しない光学系を共有できるため、ハードウェアのコストを下げることができ、さらに3つのモードで同じ画角の画像を得ることができる。また3つのモード間の視差も存在しないという利点がある。
続いて、ハイブリッドモードを説明する。イメージング装置100は、第1モードと第2モードの組み合わせであるハイブリッドモードをサポートできる。
図15(a)~(c)は、ハイブリッドモードを説明する図である。図15(a)は、ハイブリッドモードが適用される走行シーンの一例を示す。この例では、中央に濃い霧が発生しており部分的に視界が悪くなっており、その他の部分の視界は良好である。イメージング装置100は、視界が悪い範囲について、第1モードで動作し、視界が良好な範囲について第2モードで動作する。
ハイブリッドモードにおいて照明装置110は、参照光S1の第1部分Xの強度分布をランダムに変化させ、参照光S1の第2部分Yの強度分布を固定して均一照射する。
図15(b)には、二次元イメージセンサ120が撮影する画像IMG0を示す図である。一枚の画像IMG0において、第1部分Xに対応する領域Rxには、ランダムな強度分布を有する参照光S1を、物体OBJ3が反射した光が写っている。
一方で、画像IMG0の第2部分Yに対応する領域Ryに注目すると、イメージング装置100の前方に存在する物体OBJ1,OBJ2が、均一な参照光S0を反射した光が写る。つまり領域Ryは通常の暗視カメラである。
演算処理装置130は、画像IMG0の参照光S1の第1部分Xの照射範囲Rxについて、複数の画像IMG0~IMGについて、第1モードで説明した相関計算を行い、第1出力画像IMG1=G(x,y)を復元する。すなわち、各画像IMG0について、照射範囲Rxの画素値を積算し、光検出強度bを計算する。そして式(1)にもとづく相関計算により第1出力画像G(x,y)を復元する。
図15(c)には、ハイブリッドモードにおいて最終的にえられる画像IMG4が示される。この画像IMG4は、中央部分に、第1出力画像G(x,y)を含み、周囲に第2出力画像IMG2を含む。第1出力画像G(x,y)には、霧の向こう側に存在する物体OBJ3の形状が写っている。
このようにハイブリッドモードによれば、前方の一部分の視界が悪いような状況において、視界が悪い領域のみ、量子レーダとして動作させ、視界が良好な部分は、暗視カメラとして動作させることができる。
なおハイブリッドモードは、第1モードと第3モードの組み合わせでも動作しうる。この場合、第2部分Yについては、参照光S1の強度はゼロとなる。
続いて実施形態2に関連する変形例を説明する。
(変形例2.1)
実施形態2では、照明装置110を、光源112とパターニングデバイス114の組み合わせで構成したがその限りでない。たとえば照明装置110は、マトリクス状に配置される複数の半導体光源(LED(発光ダイオード)やLD(レーザダイオード))のアレイで構成し、個々の半導体光源のオン、オフ(あるいは輝度)を制御可能に構成してもよい。
(変形例2.2)
実施形態では、第1~第3モードをサポートしたが、イメージング装置100は、第1モードと第2モードのみ、あるいは第1モードと第3モードのみをサポートしてもよい。
(変形例2.3)
イメージング装置100が第1モード(あるいはハイブリッドモード)で動作する際に、二次元イメージセンサ120が撮影した画像IMG0の一部分の画素値が飽和した場合、飽和した画素を除外して相関計算を行うようにしてもよい。従来のシングルピクセルの光検出器を用いたゴーストイメージングでは、光検出器の出力が飽和すると、画像を復元できなくなる。これに対して二次元イメージセンサ120を用いた量子レーダでは、飽和した画素を除外することにより、その他の部分については、画像を復元することが可能となる。
(変形例2.4)
実施形態では、第3モードにおいて、二次元イメージセンサ120によって可視光画像を撮影したがその限りでなく、二次元イメージセンサ120は赤外線画像を撮影してもよい。すなわちイメージング装置100を、赤外線のパッシブセンサとして動作させてもよい。
(変形例2.5)
複数のモードの切りかえは、運転者がマニュアルで操作するようにしてもよい。
(変形例6)
あるいは、周囲の明るさや霧の有無等にかかわらず、複数のモード(第1モード~第3モード)を周期的に自動で切り替えてもよい。
(用途)
続いてイメージング装置100の用途を説明する。図16は、物体識別システム10のブロック図である。この物体識別システム10は、自動車やバイクなどの車両に搭載され、車両の周囲に存在する物体OBJの種類(カテゴリ)を判定する。
物体識別システム10は、イメージング装置100と、演算処理装置40を備える。イメージング装置100は、上述のように、物体OBJに参照光S1を照射し、反射光S2を測定することにより、物体OBJの復元画像Gを生成する。
演算処理装置40は、イメージング装置100の出力画像Gを処理し、物体OBJの位置および種類(カテゴリ)を判定する。
演算処理装置40の分類器42は、画像Gを入力として受け、それに含まれる物体OBJの位置および種類を判定する。分類器42は、機械学習によって生成されたモデルにもとづいて実装される。分類器42のアルゴリズムは特に限定されないが、YOLO(You Only Look Once)、SSD(Single Shot MultiBox Detector)、R-CNN(Region-based Convolutional Neural Network)、SPPnet(Spatial Pyramid Pooling)、Faster R-CNN、DSSD(Deconvolution -SSD)、Mask R-CNNなどを採用することができ、あるいは、将来開発されるアルゴリズムを採用できる。
以上が物体識別システム10の構成である。物体識別システム10のセンサとして、イメージング装置100を用いることで、以下の利点を得ることができる。
イメージング装置100すなわち量子レーダカメラを用いることで、ノイズ耐性が格段に高まる。たとえば、降雨時、降雪時、あるいは霧の中を走行する場合、肉眼では物体OBJを認識しにくいが、イメージング装置100を用いることで、雨、雪、霧の影響を受けずに、物体OBJの復元画像Gを得ることができる。
図17は、物体識別システム10を備える自動車を示す図である。自動車300は、前照灯302L,302Rを備える。イメージング装置100は、前照灯302L,302Rの少なくとも一方に内蔵される。前照灯302は、車体の最も先端に位置しており、周囲の物体を検出する上で、イメージング装置100の設置箇所として最も有利である。
図18は、物体検出システム210を備える車両用灯具200を示すブロック図である。車両用灯具200は、車両側ECU304とともに灯具システム310を構成する。車両用灯具200は、光源202、点灯回路204、光学系206を備える。さらに車両用灯具200には、物体検出システム210が設けられる。物体検出システム210は、上述の物体識別システム10に対応しており、イメージング装置100および演算処理装置40を含む。
演算処理装置40が検出した物体OBJに関する情報は、車両用灯具200の配光制御に利用してもよい。具体的には、灯具側ECU208は、演算処理装置40が生成する物体OBJの種類とその位置に関する情報にもとづいて、適切な配光パターンを生成する。点灯回路204および光学系206は、灯具側ECU208が生成した配光パターンが得られるように動作する。
また演算処理装置40が検出した物体OBJに関する情報は、車両側ECU304に送信してもよい。車両側ECUは、この情報にもとづいて、自動運転を行ってもよい。
なおイメージング装置100の用途は車載に限定されず、その他の用途にも適用できる。
実施形態にもとづき、具体的な語句を用いて本発明を説明したが、実施形態は、本発明の原理、応用の一側面を示しているにすぎず、実施形態には、請求の範囲に規定された本発明の思想を逸脱しない範囲において、多くの変形例や配置の変更が認められる。
本発明は、イメージング装置に関する。
OBJ 物体
10 物体識別システム
40 演算処理装置
42 分類器
100 イメージング装置
110 照明装置
112 光源
114 パターニングデバイス
116 コントローラ
120 光検出器
130 演算処理装置
134 再構成処理部
200 車両用灯具
202 光源
204 点灯回路
206 光学系
300 自動車
302 前照灯
310 灯具システム
304 車両側ECU
IMG1 第1画像データ
IMG2 第2画像データ

Claims (11)

  1. 相関計算を利用したイメージング装置であって、
    均一な強度分布を有する光ビームを生成する光源と、
    二階調の第1画像データに応じて、前記光ビームの強度分布を変調するパターニングデバイスと、
    物体からの反射光を測定する光検出器と、
    前記光検出器の出力にもとづく検出強度と、m階調(m≧2)の第2画像データとの相関計算を行い、前記物体の復元画像を再構成する演算処理装置と、
    を備え、
    前記第1画像データの画素数は前記第2画像データの画素数より多く、
    前記第2画像データの1画素は、前記第1画像データの複数L個の画素を含むピクセル群に対応付けられ、
    前記第2画像データのある画素の正規化された階調値をk、それと対応する前記ピクセル群に含まれる値が1である画素の個数をlとするとき、l=L×kが成り立つことを特徴とするイメージング装置。
  2. 前記第2画像データを生成するコントローラをさらに備え、
    前記コントローラは、前記第2画像データを変換して、前記第1画像データを生成することを特徴とする請求項1に記載のイメージング装置。
  3. 前記コントローラは、所定の配置規則にしたがって、前記ピクセル群に値1,0を割り当てることを特徴とする請求項2に記載のイメージング装置。
  4. 前記配置規則は、前記ピクセル群の中央の画素から優先的に値1が埋まるように定められることを特徴とする請求項3に記載のイメージング装置。
  5. 前記配置規則は、前記ピクセル群において、値1が均一に配置されるように定められることを特徴とする請求項3に記載のイメージング装置。
  6. 前記ピクセル群において、値1と0はランダムに配置されることを特徴とする請求項2に記載のイメージング装置。
  7. 前記第2画像データを構成する画素のサイズは、位置に応じて異なることを特徴とする請求項1から6のいずれかに記載のイメージング装置。
  8. 前記パターニングデバイスはDMD(Digital Micromirror Device)であることを特徴とする請求項1から7のいずれかに記載のイメージング装置。
  9. 請求項1から8のいずれかに記載のイメージング装置を備えることを特徴とする車両用灯具。
  10. 請求項1から8のいずれかに記載のイメージング装置を備えることを特徴とする車両。
  11. 相関計算を利用したイメージング装置に用いられる照明装置であって、
    均一な強度分布を有する光ビームを生成する光源と、
    第1画素数の画素のアレイを含み、前記第1画素数を有し、かつ二階調の第1画像データに応じて前記光ビームの強度分布を変調するパターニングデバイスと、
    前記第1画素数より少ない第2画素数を有し、ランダムなm階調(m≧2)の第2画像データを生成して相関計算に提供するとともに、前記第2画像データを前記第1画像データに変換し、前記パターニングデバイスに供給するコントローラと、
    を備えることを特徴とする照明装置。
JP2021533048A 2019-07-12 2020-07-10 イメージング装置およびその照明装置、車両、車両用灯具 Active JP7472136B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2019130478 2019-07-12
JP2019130478 2019-07-12
JP2019131347 2019-07-16
JP2019131347 2019-07-16
PCT/JP2020/027092 WO2021010339A1 (ja) 2019-07-12 2020-07-10 イメージング装置およびその照明装置、車両、車両用灯具

Publications (2)

Publication Number Publication Date
JPWO2021010339A1 JPWO2021010339A1 (ja) 2021-01-21
JP7472136B2 true JP7472136B2 (ja) 2024-04-22

Family

ID=74210943

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021533048A Active JP7472136B2 (ja) 2019-07-12 2020-07-10 イメージング装置およびその照明装置、車両、車両用灯具

Country Status (5)

Country Link
US (1) US12047667B2 (ja)
EP (1) EP3998767B1 (ja)
JP (1) JP7472136B2 (ja)
CN (1) CN114128245B (ja)
WO (1) WO2021010339A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4035942A4 (en) * 2019-09-24 2022-11-30 Sony Semiconductor Solutions Corporation IMAGING DEVICE
JPWO2023085329A1 (ja) * 2021-11-12 2023-05-19
US20230186593A1 (en) * 2021-12-13 2023-06-15 Nvidia Corporation Glare mitigation using image contrast analysis for autonomous systems and applications

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104570000A (zh) 2015-01-07 2015-04-29 太原理工大学 一种基于混沌压缩编码的光学综合孔径成像系统及方法
JP2017525952A (ja) 2014-07-31 2017-09-07 レイセオン カンパニー 線形モード計算センシングレーザーレーダー
WO2017187484A1 (ja) 2016-04-25 2017-11-02 株式会社日立製作所 物体撮像装置
CN108363069A (zh) 2018-01-18 2018-08-03 中国科学院理化技术研究所 基于分布式半导体激光阵列的关联成像装置及方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003252253A1 (en) * 2002-07-26 2004-02-16 Olympus Optical Co., Ltd. Image processing system
US20050133879A1 (en) * 2003-04-07 2005-06-23 Takumi Yamaguti Solid-state imaging device, signal processing device, camera, and spectral device
JP5092613B2 (ja) * 2007-08-06 2012-12-05 日産自動車株式会社 距離計測方法および装置、ならびに距離計測装置を備えた車両
JP2013117575A (ja) * 2011-12-01 2013-06-13 Nippon Hoso Kyokai <Nhk> 立体画像表示装置
JP6019621B2 (ja) * 2012-03-01 2016-11-02 日産自動車株式会社 距離計測装置
CN103363924B (zh) * 2013-07-15 2016-02-03 中国科学院空间科学与应用研究中心 一种压缩的三维计算鬼成像系统及方法
JP2015045587A (ja) * 2013-08-28 2015-03-12 株式会社キーエンス 三次元画像処理装置、三次元画像処理装置の状態変化判定方法、三次元画像処理装置の状態変化判定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
CN106455974B (zh) * 2014-06-20 2018-12-14 拉姆伯斯公司 用于有透镜和无透镜的光学感测的系统和方法
JP6528264B2 (ja) * 2015-01-27 2019-06-12 国立研究開発法人理化学研究所 イメージング装置及び方法
CN107229056A (zh) * 2016-03-23 2017-10-03 松下知识产权经营株式会社 图像处理装置、图像处理方法以及记录介质
JP6741467B2 (ja) * 2016-05-12 2020-08-19 株式会社小糸製作所 車両用灯具
JP6685887B2 (ja) * 2016-12-13 2020-04-22 株式会社日立製作所 撮像装置
JP6765687B2 (ja) * 2016-12-29 2020-10-07 国立大学法人 東京大学 イメージング装置及び方法
WO2018179093A1 (ja) * 2017-03-28 2018-10-04 マクセル株式会社 車載用前照灯および光の投射方法
JP6412673B1 (ja) 2017-07-21 2018-10-24 学校法人玉川学園 画像処理装置及び方法、並びに、プログラム
JP6826972B2 (ja) * 2017-11-16 2021-02-10 株式会社日立製作所 撮像装置
CN109343078A (zh) * 2018-11-27 2019-02-15 北京理工大学 一种具有目标导向性切片三维鬼成像实现方法
WO2021030178A1 (en) * 2019-08-09 2021-02-18 Clearview Ai, Inc. Methods for providing information about a person based on facial recognition

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017525952A (ja) 2014-07-31 2017-09-07 レイセオン カンパニー 線形モード計算センシングレーザーレーダー
CN104570000A (zh) 2015-01-07 2015-04-29 太原理工大学 一种基于混沌压缩编码的光学综合孔径成像系统及方法
WO2017187484A1 (ja) 2016-04-25 2017-11-02 株式会社日立製作所 物体撮像装置
CN108363069A (zh) 2018-01-18 2018-08-03 中国科学院理化技术研究所 基于分布式半导体激光阵列的关联成像装置及方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MEI, Xiaodong et al.,Experimental demonstration of Vehicle-borne Near Infrared Three-Dimensional Ghost Imaging LiDAR,2019 Conference on Lasers and Electro-Optics (CLEO) [online],米国,IEEE,2019年07月01日,インターネット:<URL: https://ieeexplore.ieee.org/document/8749837><DOI: 10.1364/CLEO_AT.2019.JW2A.7>
廣田修 外1名,自動運転用の量子及び古典レーダーカメラと霧の効果,情報理論とその応用シンポジウム予稿集[CD-ROM],日本,2017年11月,Pages 353-358

Also Published As

Publication number Publication date
EP3998767B1 (en) 2023-10-11
EP3998767A4 (en) 2022-08-31
CN114128245B (zh) 2024-08-20
WO2021010339A1 (ja) 2021-01-21
CN114128245A (zh) 2022-03-01
EP3998767A1 (en) 2022-05-18
US12047667B2 (en) 2024-07-23
US20220132022A1 (en) 2022-04-28
JPWO2021010339A1 (ja) 2021-01-21

Similar Documents

Publication Publication Date Title
JP7472136B2 (ja) イメージング装置およびその照明装置、車両、車両用灯具
CN113227838B (zh) 车辆用灯具及车辆
JP7463297B2 (ja) 車載用イメージング装置、車両用灯具、自動車
JP2004538545A (ja) 車両のヘッドランプまたは他の車両機器を制御するための画像処理システム
WO2020218282A1 (ja) イメージング装置、車両用灯具、自動車、イメージング方法
CN113383280A (zh) 用于经由雾的图像增强的弹道光调制
JP7252755B2 (ja) アクティブセンサ、物体識別システム、車両、車両用灯具
US20230009034A1 (en) Imaging apparatus
WO2022091972A1 (ja) イメージング装置および車両用灯具、車両
WO2021079810A1 (ja) イメージング装置、車両用灯具、車両、イメージング方法
CN111965664B (zh) 光发射装置、成像系统和发射光调制方法
CN114556136A (zh) 照明设备、光检测设备以及方法
WO2023074759A1 (ja) イメージング装置、車両用灯具、車両
WO2022270476A1 (ja) イメージング装置および車両用灯具、車両
JP7395511B2 (ja) イメージング装置、その演算処理装置、車両用灯具、車両、センシング方法
JP7524207B2 (ja) イメージング装置、車両用灯具、車両、イメージング方法
WO2023085329A1 (ja) イメージングシステム、センサユニット、車両用灯具、車両
WO2021015208A1 (ja) アクティブセンサ、ゲーティングカメラ、自動車、車両用灯具
WO2022044961A1 (ja) イメージング装置、イメージング方法および車両用灯具、車両
WO2022102775A1 (ja) センシング装置、車両用灯具、車両
WO2023013777A1 (ja) ゲーティングカメラ、車両用センシングシステム、車両用灯具
WO2022014416A1 (ja) ゲーティングカメラ、車両用センシングシステム、車両用灯具
JP7298562B2 (ja) 車両の周辺検知装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240410

R150 Certificate of patent or registration of utility model

Ref document number: 7472136

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150