CN108027416A - 距离测量设备、电子设备以及距离测量设备的控制方法 - Google Patents

距离测量设备、电子设备以及距离测量设备的控制方法 Download PDF

Info

Publication number
CN108027416A
CN108027416A CN201780003177.9A CN201780003177A CN108027416A CN 108027416 A CN108027416 A CN 108027416A CN 201780003177 A CN201780003177 A CN 201780003177A CN 108027416 A CN108027416 A CN 108027416A
Authority
CN
China
Prior art keywords
distance
light source
light
pair
phase difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201780003177.9A
Other languages
English (en)
Other versions
CN108027416B (zh
Inventor
城坚诚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Publication of CN108027416A publication Critical patent/CN108027416A/zh
Application granted granted Critical
Publication of CN108027416B publication Critical patent/CN108027416B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/003Bistatic lidar systems; Multistatic lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4915Time delay measurement, e.g. operational details for pixel components; Phase measurement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S2201/00Indexing scheme relating to beacons or beacon systems transmitting signals capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters
    • G01S2201/01Indexing scheme relating to beacons or beacon systems transmitting signals capable of being detected by non-directional receivers and defining directions, positions, or position lines fixed relatively to the beacon transmitters adapted for specific applications or environments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明减少用于基于光束的相位差来测量距离的设备中的功耗。该测距装置设置有:相位差检测单元和测距单元。在测距装置中,相位差检测单元检测来自一对外部光源中的每个光源的光之间的相位差。此外,在测距装置中,测距单元获取距一对外部光源中的一个光源的距离或一对外部光源之间的间隔作为已知数据,并基于已知数据和相位差来测量距一对外部光源中的另一光源的距离。

Description

距离测量设备、电子设备以及距离测量设备的控制方法
技术领域
本技术涉及一种距离测量设备、电子设备以及距离测量设备的控制方法。具体地,本技术涉及一种用于基于光的相位差来测量距离的距离测量设备、电子设备以及距离测量设备的控制方法。
背景技术
通常,在具有距离测量功能的设备和装置中经常使用被称为“飞行时间(ToF:timeof flight)法”的距离测量方法。这种TOF方法如下:设备用正弦波或矩形波的照射光照射物体,并且该设备接收来自该物体的反射光,以根据照射光和反射光之间的相位差来测量距离。例如,提出了如下设备:该设备使排列在阵列中的多个受光元件接收反射光,并通过ToF方法测量距离(例如,参见非专利文献1)。
引用列表
专利文献
专利文献1:JP 2013-519092T
发明内容
技术问题
在上述传统技术中,阵列中的受光元件可以测量距多个物体中的每一个物体的距离并且生成深度图。然而,在距物体的距离长的情况下或者在物体的反射率低的情况下,反射光的量会减少,从而降低距离测量准确度。为了在这种情况下保持距离测量准确度,需要增加照射光的量,但是问题在于发射照射光的设备的功耗会增加。对于特别是使用电池工作的移动装置来说,功耗增加是非常不利的,因此需要采取措施。
本技术是鉴于上述情况而做出的,其目的是为了降低基于光束之间的相位差来测量距离的设备中的功耗。
技术方案
提出本技术以解决上述问题,并且本技术的第一方面是距离测量设备和距离测量设备的控制方法,该距离测量设备包括:相位差检测部,其被构造成检测来自一对外部光源的光束之间的相位差;距离测量部,其被构造成获取距一对外部光源中的一个光源的距离以及一对外部光源之间的间隔中的任一者作为已知数据,并基于已知数据和相位差来测量距一对外部光源中的另一光源的距离。由此,可以基于已知数据和相位差来测量距一对外部光源中的另一光源之间的距离。
此外,在该第一方面,一对外部光源可以是发射照射光的照射光源。距离测量部可以获取一对外部光源之间的间隔作为已知数据。由此,可以基于一对外部光源之间的间隔和相位差来测量距一对外部光源中的另一光源的距离。
此外,在该第一方面中,可以进一步包括被构造成发射照射光的一对发光部。由此,可以测量距在包括发光部的距离测量设备外部的外部光源的距离。
此外,在该第一方面中,一对外部光源可以在线性光源上以预定位置布置。由此,可以测量距线性光源上的预定位置的距离。
此外,在该第一方面中,一对外部光源中的一个光源可以是发射照射光的照射光源,并且另一个光源可以是反射照射光的反射光源。距离测量部可以获取距该一对外部光源中的一个光源的距离作为已知数据。由此,可以基于距一对外部光源中的一个光源的距离和相位差来测量距一对外部光源中的另一光源的距离。
此外,在该第一方面中,照射光源可以包括交替打开的一对照射光源。距离测量部可以基于一对照射光源之间的间隔来获取距一对照射光源中的一个照射光源的距离。由此,可以基于交替打开的一对照射光源之间的间隔来获取距一对照射光源中的一个光源的距离。
此外,在该第一方面中,距离测量部可以获取通过将三维坐标已知的多个空间点中的每一者投影到预定的成像平面上而获得的投影点的平面坐标,并且可以基于该平面坐标来获取已知数据。由此,可以基于投影点的平面坐标来获取已知数据。
此外,在该第一方面中,距离测量部可以检测表示来自一对外部光源中的每个光源的方向的单位矢量,并且基于单位矢量、已知数据和相位差来测量距另一外部光源的距离。由此,可以基于单位矢量、已知数据和相位差来测量距另一外部光源的距离。
此外,在该第一方面中,相位差检测部和距离测量部可以安装在车辆上。一对外部光源可以是与该车辆不同的另一辆车辆的尾灯。距离测量部可以测量该车辆与另一车辆之间的距离。由此,可以基于已知数据和相位差来测量两车辆之间的距离。
此外,本技术的第二方面是电子设备,该电子设备包括:相位差检测部,其被构造成检测来自一对外部光源的光束之间的相位差;距离测量部,其被构造成获取距一对外部光源中的一个光源的距离以及一对外部光源之间的间隔中的任一者作为已知数据,并且基于已知数据和相位差来测量距一对外部光源中的另一光源的距离;以及控制部,其被构造成基于所测量的距离来使显示部显示预定信息。由此,可以基于已知数据和相位差来测量距一对外部光源中的另一光源的距离,并基于该距离来显示预定信息。
有益效果
根据本技术,基于光的相位差来测量距离的设备的优异效果在于可降低功耗。注意,这里公开的效果不一定是有限制性的,并且可以是本发明中公开的任何效果。
附图说明
图1是示出本技术的第一实施例中的距离测量系统的示例的总图。
图2是示出本技术的第一实施例中的虚拟现实(VR:virtual reality)终端的构造示例的框图。
图3是示出本技术的第一实施例中的固态成像元件的构造示例的框图。
图4是示出本技术的第一实施例中的像素电路的构造示例的电路图。
图5是示出本技术的第一实施例中的Q1Q2检测时段中的固态成像元件的操作的示例的时序图。
图6是示出本技术的第一实施例中的Q3Q4检测时段中的固态成像元件的操作的示例的时序图。
图7是用于说明本技术的第一实施例中的检测相位差的方法的图。
图8是示出本技术的第一实施例中的像素数据的示例的图。
图9是示出本技术的第一实施例中的照射光源和固态成像元件的操作的示例的时序图.
图10是示出本技术的第一实施例中的距离测量计算部的构造示例的框图。
图11是用于说明本技术的第一实施例中的检测单位矢量的方法的图。
图12是示出本技术的第一实施例中的图像数据的示例的图。
图13是用于说明本技术的第一实施例中的测量距照射光源的距离的方法的图。
图14是用于说明本技术的第一实施例中的测量距物体的距离的方法的图。
图15是示出本技术的第一实施例中的距离测量模块的操作的示例的流程图。
图16是示出本技术的第一实施例中的光源距离计算处理的示例的流程图。
图17是示出本技术的第一实施例的第一变形例中的距离测量系统的示例的总图。
图18是用于说明本技术的第一实施例的第一变形例中的测量距离的方法的图。
图19是示出本技术的第一实施例的第一变形例中的距离测量计算部的构造示例的框图。
图20是示出本技术的第一实施例的第二变形例中的距离测量系统的构造示例的总图。
图21是示出本技术的第一实施例的第二变形例中的无人机的构造示例的框图。
图22是示出本技术的第一实施例的第二变形例中的距离测量计算部的构造示例的框图。
图23是示出本技术的第二实施例中的线性光源的示例的图。
图24是用于说明本技术的第二实施例中的测量距照射光源的距离的方法的图。
图25是用于说明在本技术的第二实施例中测量距物体的距离的方法的图。
图26是示出IoT系统9000的示意性构造的示例的图。
图27是示出车辆控制系统的示意性构造的示例的框图。
图28是示出车辆外部信息检测部和成像部的安装位置的示例的说明图。
具体实施方式
以下,将说明实施本技术的形式(以下,被称为“实施例”)。将按以下顺序进行说明。
1.第一实施例(检测来自一对外部光源的光束之间的相位差并测量距离的示例)
2.第二实施例(检测来自线性光源上的一对外部光源的光束之间的相位差并测量距离的示例)
<1.第一实施例>
[距离测量系统的构造示例]
图1是示出本技术的第一实施例中的距离测量系统的示例的总图。该距离测量系统是用于测量距周围物体500的距离的系统,并且包括外部装置110和VR终端200。
外部装置110是安装在房间内的设备,并且包括用于发射照射光的照射光源111和112。期望外部装置110是诸如选台器(tuner)、录音机和ToF照相机等的各种家用电器。这些照射光源111和112是设置在外部装置110的特定位置处的点光源,并且与具有预定频率(例如,20兆赫)的公共同步信号同步地发射例如脉冲光作为照射光。该照射光被位于用户周围的各种物体500的表面反射。使用反射光源(反射光源是照射光被反射的位置)和诸如照射光源111和112等的外部光源来测量距离。
VR终端200生成用于示出距用户周围的每个物体500的距离的深度图。该VR终端200是包括诸如液晶显示器等显示部的护目镜型装置,并且佩戴在用户的头部。此外,基于生成的深度图,VR终端200执行在显示部上显示各种信息的处理。注意,VR终端200是权利要求书中记载的电子设备的示例。
[VR终端的构造示例]
图2是示出本技术的第一实施例中的VR终端200的构造示例的框图。该VR终端200包括:距离测量模块210、终端控制部250和显示部260。此外,距离测量模块210包括:成像镜头220、固态成像元件300和距离测量计算部230。注意,距离测量模块210是权利要求书中记载的距离测量设备的示例。
成像镜头220收集来自照射光源111和112的照射光或收集照射光的反射光,并将照射光或反射光导向固态成像元件300。
固态成像元件300对来自成像镜头220的光进行光电转换以生成图像数据。具有预定频率的垂直同步信号VSYNC和参考时钟CLKs被输入到该固态成像元件300。将垂直同步信号VSYNC的频率的值设置为低于由照射光源111和112发射的照射光的频率(例如,20兆赫)的值(例如,60赫兹)。此外,将参考时钟CLKs的频率的值设置为与照射光的频率相同的值。然而,参考时钟CLKs不与照射光源111和112的照射光同步,因此不一定具有与照射光的相位匹配的相位。固态成像元件300与垂直同步信号VSYNC等同步地生成图像数据,并且将该图像数据提供给距离测量计算部230。
距离测量计算部230检测在来自照射光源111的照射光与来自照射光源112的照射光之间的相位差dP12,并且基于相位差dP12和照射光源111和112之间的间隔W来测量距照射光源111和112中的至少一者的距离。例如,仅测量距照射光源111的距离E1
此外,在测量距离E1之后,距离测量计算部230检测来自照射光源111的照射光和该照射光的反射光之间的相位差dP1d,并且基于已知的距离E1和相位差dP1d来测量距发射反射光的反射光源的距离Ed。该反射光源对应于反射点,在反射点处,照射光被物体的表面反射。即,距离Ed表示距物体的表面上的反射点的距离。距离测量计算部230测量距来自多个反射光源中的每一者的距离Ed,生成表示其测量结果的深度图,并将该深度图提供给终端控制部250。
终端控制部250控制整个VR终端200。该终端控制部250执行使得显示部260基于深度图显示各种信息的处理。例如,终端控制部250基于距由深度图显示的距物体的距离来执行使游戏用物品显示在物体的位置处的处理。注意,终端控制部250是权利要求书中记载的控制部的示例。
显示部260在终端控制部250的控制下显示信息。预期显示部260是液晶显示器、有机电致发光(EL:organic electro luminescence)显示器等。
注意,距离测量模块210设置在VR终端200中。然而,距离测量模块210就可以设置在除了VR终端200以外的设备或装置中,只要该设备或装置使用距离信息即可。例如,距离测量模块210可以设置在ToF照像机、智能手机、个人计算机、汽车等中。
[固态成像元件的构造示例]
图3是示出本技术的第一实施例中的固态成像元件300的构造示例的框图。该固态成像元件300包括行扫描电路310、像素阵列部320、时序控制部340、多个模数(AD:analogto digital)转换部350、列扫描电路360以及信号处理部370。多个像素电路330在像素阵列部320中以二维点阵排列。以下,将在预定方向上排列的像素电路330的集合称为“行”,并且将在与该行垂直的方向上排列的像素电路330的集合称为“列”。针对各个列来设置上述AD转换部350。
时序控制部340与垂直同步信号VSYNC同步地控制行扫描电路310、AD转换部350以及列扫描电路360。
行扫描电路310按顺序选择行并输出像素信号。在行扫描电路310的控制下,各像素电路330输出具有基于接收到的光量的电平的像素信号。
各AD转换部350对来自相应列的像素信号执行AD转换。在列扫描电路360的控制下,该AD转换部350将已经被AD转换的像素信号作为像素数据输出到信号处理部370。列扫描电路360按顺序选择AD转换部350,并使AD转换部350输出像素数据。
信号处理部370对包括像素数据的图像数据执行诸如相关双采样(CDS:correlated double sampling)处理等的信号处理。该信号处理部370将已经经过信号处理的图像数据提供给距离测量计算部230。
[像素电路的构造示例]
图4是示出本技术的第一实施例中的像素电路330的构造示例的框图。该像素电路330包括受光元件331、转换开关332、电荷累积部333和334以及选择开关335和336。
受光元件331对光进行光电转换并产生电荷。该受光元件331例如可以是光电二极管。
在行扫描电路310的控制下,转换开关332将受光元件331连接到电荷累积部333、电荷累积部334和复位电源Vrst中的任一者。该转换开关332例如被实现为多个金属氧化物半导体(MOS:metal-oxide-semiconductor)晶体管等。在将受光元件331连接到复位电源Vrst的情况下,从MOS晶体管的漏极输出的电荷被丢弃,并且受光元件331的电荷被初始化。
电荷累积部333和334均累积电荷并基于电荷的累积量来产生电压。电荷累积部333和334例如可以是浮动扩散层。
选择开关335在行扫描电路310的控制下打开和闭合电荷累积部333与AD转换部350之间的线路。选择开关336在行扫描电路310的控制下打开和闭合电荷累积部334与AD转换部350之间的线路。例如,当由行扫描电路310提供FD读出信号RD_FD1时,选择开关335转换到闭合状态,当由行扫描电路310提供FD读出信号RD_FD2时,选择开关336转换到闭合状态。选择开关335和336均被实施为例如MOS晶体管等。
图5是示出本技术的第一实施例中的Q1Q2检测时段中的像素电路的曝光控制的示例的时序图。当进行用于使VR终端200测量距离的预定操作时,像素电路330交替地且重复地检测接收到的光量Q1和Q2,并检测接收到的光量Q3和Q4。以下,接收到的光量Q1和Q2的检测时段被称为“Q1Q2检测时段”,并且接收到的光量Q3和Q4的检测时段被称为“Q3Q4检测时段”。此外,包括Q1Q2检测时段和Q3Q4检测时段的时段被称为”测量时段”。Q1Q2检测时段和Q3Q4检测时段的长度均为垂直同步信号VSYNC的周期(例如,1/60秒).
这里,当将参考时钟CLKs的指定相位(例如,上升)设置为0度时,通过在Q1Q2检测时段内累积从0度~180度接收到的光量q1来获得接收到的光量Q1。参考时钟CLKs的频率为20兆赫兹(MHz),即,频率很高,因此,每个周期(1/20微秒)接收到的光量q1非常少。因此,进行检测很困难。因此,像素电路330在比参考时钟CLKs(1/20微秒)的周期长的Q1Q2检测时段(例如1/60秒)内累积各个量q1,并且检测其总量以作为接收到的光量Q1。此外,通过在Q1Q2检测时段内累积从180度~360度接收到的光量q2来获得接收到的光量Q2。
此外,通过在Q3Q4检测时段内累积从90度~270度接收到的光量q3来获得接收到的光量Q3。此外,通过在Q3Q4检测时段内累积从270度~90度接收到的光量q4来获得接收达到的光量Q4。.
距离测量计算部230可以将那些接收到的光量Q1、Q2、Q3和Q4代入以下表达式来计算参考时钟CLKs与接收到的光之间的相位差dP。例如在以下文献中公开过推导该表达式的方法,“Time-of-Flight Camera-An Introduction””,Larry Li,德州仪器技术,白皮书SLOA190B,2014年1月,2014年5月修订。
dP=tan-1{(Q3-Q4)/(Q1-Q2)} 表达式1
上式中的“tan-1()”部分表示正切函数的反函数。
例如,在从时刻T1到时刻T2的Q1Q2检测时段中检测接收到的光量Q1和Q2。首先,行扫描电路310在从时刻T1开始的预定脉冲时段内向所有行提供复位信号RST。响应于这些复位信号RST,初始化所有行的电荷累积部333和334中的电荷量累积。此外,响应于FD选择信号SEL_FD,行扫描电路310初始化所有行中的受光元件331的电荷。
然后,行扫描电路310使电荷转移到电荷累积部333,这些电荷是响应于在Q1Q2检测时段的参考时钟CLKs的周期中来自0度~180度的FD选择信号SEL_FD而由所有行中的受光元件331产生的。在该控制下,在电荷累积部333中累积接收到的光量q1。
此外,行扫描电路310使电荷转移到电荷累积部334,这些电荷是响应于在Q1Q2检测时段的参考时钟CLKs的周期中来自180度~360度的FD选择信号SEL_FD而由所有行中的受光元件331产生的。在该控制下,在电荷累积部334中累积接收到的光量q2。
然后,行扫描电路310在时刻T2之前的时刻T11处依次向第一行提供FD读出信号RD_FD1和RD_FD2。在该控制下,读出基于第一行中接收到的光量Q1和Q2的像素信号。接着,行扫描电路310依次向第二行提供FD读出信号RD_FD1和RD_FD2,并且读出像素信号。与上述处理类似,行扫描电路310依次选择行并读出像素信号。
通过这种方式,各像素电路330在Q1Q2检测时段中检测从0度~180度接收到的光量Q1和从180度~360度接收到的光量Q2。
图6是示出本技术的第一实施例中的Q3Q4检测时段中的像素电路330的曝光控制的示例的时序图。例如,在从时刻T2到时刻T3的Q3Q4检测时段中检测接收到的光量Q3和Q4。首先,行扫描电路310在从时刻T2开始的预定脉冲时段内向所有行提供复位信号RST,并且初始化所有行的电荷累积部333和334中的电荷量累积。此外,响应于FD选择信号SEL_FD,行扫描电路310初始化所有行中的受光元件331的电荷。
然后,行扫描电路310使电荷转移到电荷累积部334,这些电荷是响应于来自第一个0度~90度的FD选择信号SEL_FD而由所有行中的受光元件331产生的。在该控制下,在电荷累积部334中累积接收到的光量q4。然后,行扫描电路310使电荷转移到电荷累积部333,这些电荷是响应于在参考时钟CLKs的周期中来90度~270度的FD选择信号SEL_FD而由所有行中的受光元件331产生的。在该控制下,在电荷累积部333中累积接收到的光量q3。
此外,行扫描电路310使电荷转移到电荷累积部334,这些电荷是响应于在Q3Q4检测时段的参考时钟CLKs的周期中来自270度~90度的FD选择信号SEL_FD而由所有行中的受光元件331产生的。在该控制下,在电荷累积部334中累积接收到的光量q4。
然后,行扫描电路310在时刻T3之前的时刻T21处依次向第一行提供FD读出信号RD_FD1和RD_FD2。在该控制下,读出基于第一行中接收到的光量Q3和Q4的像素信号。与上述处理类似,行扫描电路310依次选择行并读出像素信号。
通过这种方式,各像素电路330在Q3Q4检测时段中检测从90度~270度的接收到的光量Q3和从270度~90度的接收到的光量Q4。
图7是用于描述本技术的第一实施例中的检测相位差的方法的图。像素电路330将在Q1Q2检测时段中从时刻T50(0度)到时刻T52(180度)接收到的光量转移到电荷累积部333。在光源(例如,照射光源111和112)于时刻T51处开始发光的情况下,将从时刻T51到时刻T52接收到的光量作为接收到的光量q1传送。
此外,像素电路330将在Q1Q2检测时段中从时刻T52(180度)到时刻T54(360度)接收到的光量转移到电荷累积部334。在光源于时刻T53处停止发光的情况下,将从时刻T52到时刻T53接收到的光量作为接收到的光量q2传送。
然后,像素电路330将在Q3Q4检测时段中从时刻T55(90度)到时刻T57(270度)接收到的光量转移到电荷累积部333。在光源于时刻T56处开始发光的情况下,将从时刻T56到时刻T57接收到的光量作为接收到的光量q3传送。
此外,像素电路330将在Q3Q4检测时段中从时刻T57(270度)到时刻T59(90度)接收到的光量转移到电荷累积部334。在光源于时刻T58处停止发光的情况下,将从时刻T57到时刻T58接收到的光量作为接收到的光量q4传输。
然后,读出Q1Q2检测时段中的接收到的光量q1和q2的累积值作为接收到的光量Q1和Q2,并且读出Q3Q4检测时段中的接收到的光量q3和q4的累积值作为接收到的光量Q3和Q4。Q1和Q2之差与Q3和Q4之差的比率是基于参考时钟CLKs与接收到的光之间的相位差的值。因此,距离测量计算部230可以使用表达式1来计算相位差。
这里,光源包括上述的照射光源111和照射光源112。来自这两个光源的光被像素阵列部320中的不同像素电路330接收。因此,VR终端200可以单独检测这两个光束与参考时钟CLKs之间的相位差。用“dP1s”表示来自照射光源111的光与参考时钟CLKs之间的相位差,“dP2s”表示来自照射光源112的光与参考时钟CLKs之间的相位差用。这些相位差之间的差对应于来自照射光源111的光与来自照射光源112的光之间的相位差dP12。以这种方式,VR终端200可以通过使用作为参考的参考时钟CLKs的相位来检测来自照射光源111的光与来自照射光源112的光之间的相位差dP12
图8是示出第一实施例中的图像数据的数据构造的示例的图。该图像数据包括多块像素数据。在Q1Q2检测时段中,各块像素数据包括接收到的光量Q1和Q2。同时,在Q3Q4检测时段中,各块像素数据包括接收到的光量Q3和Q4。例如,在Q1Q2检测时段中的坐标(0,0)处的像素数据包括接收到的光量Q1“10”和接收到的光量Q2“20”。此外,在坐标(0,1)处的像素数据包括接收到的光量Q1“10”和接收到的光量Q2“20”。
图9是示出本技术的第一实施例中的照射光源和固态成像元件的操作的示例的时序图。将由照射光源111发射的光称为“照射光L1”,并且将由照射光源112发射的光称为“照射光L2”。如上所述,这些光源与公共同步信号同步地发光。因此,照射光L1和照射光L2具有相同的频率,并且在照射时的相位差为0度。然而,在VR终端200接收光时,照射光L1与照射光L2之间的相位差不一定相同。这是因为,从照射光源111和112到VR终端200的距离不一定相同。此外,外部装置110重复仅使照射光源111发光一段时间的控制以及仅使照射光源112发光一段时间的控制。使照射光源中的一者发光的时间段的长度被设定为比测量时段长的时间(例如,1/15秒)。
例如,在从时刻T10到时刻T12的测量时段内的时刻T11处开始发射照射光L1。然后,在从时刻T12到时刻T13的下个测量时段之后的时刻T14处,关闭照射光L1,并且开始发射照射光L2。然后,在时刻T17处,关闭照射光L2,并且开始发射照射光L1,在时刻T17处,从时刻T13到时刻T15的测量时段和从时刻T15到时刻T16的测量时段已经过去。
如上所述,因为在生成深度图时减少了计算量,所以使照射光源111和照射光源112交替发光。下面将说明计算量减少的原因。
从时刻T10到时刻T13仅照射光源111发光,因此,VR终端200可以检测照射光L1相对于参考时钟CLKs的相位。此外,VR终端200还可以基于参考时钟CLKs来检测通过使照射光L1被物体反射而获得的反射光的相位。
此外,由于一开始仅照射光源111发光,然后从时刻T13到时刻T15仅照射光源112发光,因此VR终端200可以使用参考时钟CLKs来检测照射光L1和照射光L2的相位。由于从时刻T15到时刻T16仅照射光源112发光,因此VR终端200可以使用参考时钟CLKs来检测照射光L2的相位。
然后,基于所检测到的照射光L1和照射光L2的相位,VR终端200检测这两种照射光之间的相位差dP12。然后,基于照射光源111与112之间的相位差dP12和已知间隔W,VR终端200测量距照射光源111的距离E1。在测量距离E1之后,VR终端200检测照射光L1与照射光L1的反射光之间的相位差dP1d,并且测量距反射光源的距离Ed,该反射光源基于已知距离E1和相位差dP1d来发射反射光。距离测量计算部230测量距多个反射光源中的每一者的距离Ed,并生成表示其测量结果的深度图。同样地,在时刻T17时或之后,通过类似的方法以一定的时间间隔(例如,2/15秒)重复生成深度图。
[距离测量计算部230的构造示例]
图10是示出本技术的第一实施例中的距离测量计算部230的构造示例的框图。该距离测量计算部230包括:图像保存部231、各照射光源的单位矢量检测部232、光源间隔存储部233、照射光束间相位差检测部234以及光源距离测量部235。此外,距离测量计算部230包括:各反射光源的单位矢量检测部236、照射光与反射光之间的相位差检测部237以及深度图生成部238。
图像保存部231保存预定数量的图像数据块。在需要N帧来生成单个深度图的情况下,至少要保存(换句话说,缓冲)(N-1)帧。
各照射光源的单位矢量检测部232检测各照射光源111和112的单位矢量。这里,单位矢量表示从VR终端200到照射光源111或112的方向,并且单位矢量是长度为“1”的矢量。各照射光源的单位矢量检测部232将各照射光源111和112的单位矢量提供给光源距离测量部235。此外,照射光源111的单位矢量也被提供给深度图生成部238。
光源间隔存储部233存储照射光源111与112之间的已知间隔W。
照射光束间相位差检测部234检测来自照射光源111的光和来自照射光源112的光之间的相位差dP12。例如,照射光束间相位差检测部234基于与照射光源111对应的像素接收到的光量Q1至Q4来检测来自照射光源111的光与参考时钟CLKs之间的相位差dP1s。此外,照射光束间相位差检测部234基于与照射光源112对应的像素接收到的光量Q1至Q4来检测来自照射光源112的光与参考时钟CLKs之间的相位差dP2s。然后,照射光束间相位差检测部234计算这些相位差之间的差作为相位差dP12,并且将该差提供给光源距离测量部235。
光源距离测量部235基于单位矢量、相位差dP12和已知间隔W来测量距照射光源111的距离E1
这里,照射光源111与112之间的间隔W由下式表示,该表达式使用从VR终端200到各照射光源111和112的矢量。
[数学式1]
在上面的表达式中,具有箭头的符号“E1”表示从VR终端200到照射光源111的矢量,具有箭头的符号“E2”表示从VR终端200到照射光源112的矢量。此外,间隔W的单位例如是米。
此外,当从VR终端200到照射光源111的距离E1与从VR终端200到照射光源111的距离E2之间的差由“dE12”表示时,满足以下表达式。
dE12=E2-E1 表达式3
此外,根据余弦定律满足以下表达式。
W2=E1 2+E2 2-2E1·E2·cos R 表达式4
在上面的表达式中,符号“R”表示至照射光源111的单位矢量与至照射光源112的单位矢量之间的角度。该角度R的单位例如是弧度。此外,距离E1和E2的单位例如是米(m)。
当通过表达式3将距离E2替换为距离E1和差值dE12的相加值时,将相加值代入表达式4,并且变形所得到的表达式,从而得到以下表达式。
[数学式2]
此外,当通过表达式3将距离E1替换为距离E2与差dE12之间的差值时,将差值代入表达式4,并且变形所得到的表达式,从而得到以下表达式。
[数学式3]
此外,基于与矢量的内积有关的公式得到以下表达式。
[数学式4]
此外,基于ToF的原理,距离E1和距离E2还可以由以下表达式表示。
E1=c·{P(E1)-P(u1)}/(2πf) 表达式8
E2=c·{P(E2)-P(u2)}/(2πf) 表达式9
在上面的表达式中,符号“c”表示光速,并且光速的单位例如是秒/米(m/s)。符号“π”表示圆的周长与圆的直径的比率。此外,符号“f”表示照射光的频率,并且频率的单位例如是兆赫(MHz)。符号“P(E1)”表示在照射时由照射光源111发射的照射光L1的相位,并且符号“P(u1)”表示在接收光时照射光L1的相位。符号“P(E2)”表示在照射时由照射光源112发射的照射光L2的相位,并且符号“P(u2)”表示在接收光时照射光L2的相位。这些相位的单位例如是弧度。
由于在照射时的相位P(E1)和P(E2)是未知的,因此,距离E1和E2不能通过仅使用表达式8和表达式9来直接获得。然而,如上所述,由于在照射时的相位P(E1)和P(E2)具有相同的值,因此从表达式8和表达式9中删除P(E1)和P(E2)。因此,得到以下表达式。
dE12=E2-E1
=c·{P(u1)-P(u2)}/(2πf)
=c·dP12/(2πf) 表达式10
在知道三边长度为E1、E2和W的三角形的两边的情况下,剩余的一边可以根据余弦定律使用表达式5和表达式6来计算。然而,只有W是已知的。因此,不能通过仅使用表达式5和表达式6来计算剩余的长度E1和E2。然而,由于根据ToF方法进一步获得表达式10,因此可以通过求解联立方程来计算E1和E2
光源距离测量部235用检测到的相位差dP12代入表达式10来计算差dE12,并且将检测到的单位矢量代入表达式7来计算cos R。然后,照射光束间相位差检测部234将计算到的差dE12和cos R和已知间隔W代入表达式5以计算距离E1,并将距离E1提供给深度图生成部238。注意,照射光束间相位差检测部234可以不计算距离E1,而使用表达式6来计算距离E2,或者可以计算距离E1和E2
各反射光源的单位矢量检测部236检测各预定数量的反射光源的单位矢量,反射光源用于反射来自照射光源111的照射光。各反射光源的单位矢量检测部236将计算到的各单位矢量提供给深度图生成部238。
针对各反射光源,照射光与反射光之间的相位差检测部237检测来自反射光源的反射光与来自照射光源111的照射光之间的相位差。照射光与反射光之间的相位差检测部237通过与照射光束间相位差检测部234相同的方法来计算各反射光源的相位差dP1d,并将相位差dP1d提供给深度图生成部238。注意,照射光束间相位差检测部234和照射光与反射光之间的相位差检测部237均为权利要求书中记载的相位差检测部的示例。
深度图生成部238生成深度图,该深度图针对各反射光源示出了距反射光源的距离。以下表达式表示不经过反射光源的距照射光源111的直接距离E1与经过反射光源的距照射光源111的距离之间的差dD。
[数学式5]
在上面的表达式中,具有箭头的符号“E1D”表示示出从照射光源111到反射光源的方向的矢量。此外,符号“D”表示从VR终端200到反射光源的直接距离,并且其单位例如是米(m)。
基于表达式11和余弦定律,距离D可以由下列表达式表示。
D=dD(dD+2E1)/{2dD+2E1(1-cos A)} 表达式12
在上面的表达式中,符号“A”表示至照射光源111的单位矢量与至反射光源的单位矢量之间的夹角。角度A的单位例如是弧度。
此外,基于与矢量的内积有关的公式来获得以下表达式。
[数学式6]
在上面的表达式中,具有箭头的符号“d”表示反射光源的单位矢量。
此外,差值dD还可以基于ToF的原理由以下表达式表示。
dD=c·{P(u1)-P(uD)}/(2πf)
=c·dP1d/(2πf) 表达式14
在上面的表达式中,符号“P(u1)”表示在接收光时来自照射光源111的照射光的相位。符号“P(uD)”表示在接收光时来自反射光源的反射光的相位。
深度图生成部238将检测到的相位差dP1d代入表达式14来计算差值dD,并且将检测到的矢量代入表达式13来计算cos A。然后,深度图生成部238将计算到的dD和cos A和已知距离E1代入表达式12来计算距离D。深度图生成部238针对各照射光源计算距离D,生成深度图,并将深度图提供给终端控制部250。注意,光源距离测量部235和深度图生成部238均为权利要求书中记载的距离测量部的示例。
注意,光源距离测量部235通过假设在照射时相位P(E1)和P(E2)具有相同的值(即,相位差为“0”)来执行计算。然而,这些相位可以具有不同的值。注意,相位差是已知的。在相位差不为“0”的情况下,可以使用通过将相位差与表达式10的dP12相加或相减而获得的表达式来执行计算。
图11是用于说明本技术的第一实施例中的检测单位矢量的方法的图。通常,可以通过预先获得相机(例如,VR终端200)或成像镜头220固有的参数来估计在图像中三维点被投影到哪个坐标上。
例如,相机周围的坐标系中的某点P的坐标(三维坐标)被设置为(x_P,y_P,z_P),并且在投影有点P的图像上的点UP的坐标(平面坐标)被设置为(U_P,V_P)。
该点P的坐标可以使用内部参数矩阵转换为对应点UP的坐标。反之,在给出点UP的坐标的情况下,不能使用内部参数矩阵来获得点P的位置。然而,点P位于沿从光学中心510到点Up的方向的直线上,因此,VR终端200可以基于点UP的坐标来检测表示从光学中心510到点P的方向的单位矢量。
图12是示出本技术的第一实施例中的图像数据的示例的图。图12中的图a示出在仅照射光源111发光期间拍摄的图像数据501的示例。此外,图12中的图b示出在仅照射光源112发光期间拍摄的图像数据502的示例。
例如,VR终端200提取图像数据中具有最高亮度的像素作为接收照射光源(111或112)的光的像素。然后,VR终端200基于所提取的像素的坐标来检测来自照射光源的单位矢量。
图13是用于说明本技术的第一实施例中的测量距照射光源111的距离E1的方法的图。当照射光源111发光时,距离测量模块210拍摄图像数据,并且基于图像数据中的照射光源111的坐标来检测表示起自照射光源111的方向的单位矢量。然后,距离测量模块210也通过类似的方法来检测照射光源112的单位矢量。
此外,距离测量模块210使用表达式1来检测来自照射光源111的光与来自照射光源112的光之间的相位差dP12。然后,距离测量模块210将检测到的单位矢量和相位差dP12和已知间隔W代入上述表达式5、表达式7和表达式10以测量距照射光源111的距离E1
注意,VR终端200基于来自照射光源111和112的光束之间的相位差来测量距离E1。然而,可以使用另一种方法来测量距离E1。例如,可以固定设置有距离测量模块210的装置的位置,并且可以由其他测量装置预先测量距离E1。在这种情况下,使用已知距离E1来生成深度图。
此外,VR终端200基于ToF方法的原理通过使用光的相位差来测量距离。然而,可以基于闪光检测和测距、激光成像检测和测距(LIDAR:laser imaging detection andranging)的原理来测量距离。在对相位进行调制的ToF方法中,相位信息被转换为光的传输时间,并且被进一步转换为距离信息以获得距离。然而,在闪光LIDAR的情况下,可以直接测量光的传输时间。
此外,在图像数据中不存在外部光源(例如,照射光源111和112)的情况下,VR终端200不能测量距离。然而,即使在这种情况下,VR终端200也可以缓冲预定数量的图像数据块,并且基于外部光源在图像数据块中的之前位置来估计外部光源的当前位置。
此外,VR终端200可以在生成深度图的同时估计自身的位置。这种处理被称为“同时定位和映射(SLAM:simultaneous localization and mapping)”。为了估计自身位置,例如,VR终端200仅需要预先存储照射光源111和112的空间坐标,并且基于这些光源的方向和距离来估计自身位置。
图14是用于说明在本技术的第一实施例中测量距物体的距离D的方法的图。距离测量模块210在照射光源111发光时拍摄图像数据,并且基于反射光源的坐标来检测表示图像数据中起自反射光源400的方向的单位矢量。
此外,距离测量模块210使用表达式1来检测来自照射光源111的光和来自反射光源的光之间的相位差dP1d。然后,距离测量模块210将检测到的单位矢量和相位差dP1d以及已经计算出的已知距离E代入上述表达式12~表达式14以测量距反射光源(物体)400的距离D。
这里,在测量距离D时照射光源111和照射光源112同时开启的情况下,照射光源111的照射光和照射光源112的照射光均被物体反射。因此,需要通过将作为反射光的这两个光束重叠而获得的光来计算距离D。因此,与仅开启单个照射光源的情况相比,距离D的计算很复杂。因此,从简化距离D的计算的角度出发,外部装置110交替地打开照射光源111和112。注意,在允许复杂计算的情况下,可以同时打开照射光源111和112。在可以同时打开一对外部光源的情况下,例如,可以使用一对顶灯来代替照射光源111和112。
如参照图13和14所述,距离测量模块210聚焦在一对外部光源(诸如反射光源或照射光源等)上,并检测来自这些外部光源的光束之间的相位差。然后,在一对外部光源之间的间隔W和距外部光源中的一者的距离(例如E1)中的任一者是已知的情况下,距离测量模块210可以基于已知数据和检测到的相位差来测量距另一个光源的距离(E1或E2)。在图13的示例中,两个外部光源都是照射光源,并且基于作为已知数据的间隔W来测量距这些照射光源中的任一者的距离(E1或E2)。图13中的距离E1和E2是权利要求书中“距一对外部光源中的另一光源的距离”的示例。同时,在图14的示例中,两个外部光源中一个是照射光源,另一个是反射光源,并且基于作为已知数据的距一个外部光源的距离(E1或E2)来测量距另一光源(反射光源)的距离D。图14中的距离D是权利要求中“距一对外部光源中的另一光源的距离”的示例。
如上所述,VR终端200通过使用来自外部光源的光束之间的相位差来测量距离,因此不需要在内部包括诸如发光二极管等的发光元件。由此,可以降低要提供给发光元件的功耗。此外,没有必要透射并反射光,并且从光源直接发射到照像机的光不被物体吸收。因此,与用照射光照射物体并接收反射光的普通ToF方法相比,增加了接收到的光量。由此,与接收反射光的方法相比,可以提高距离测量准确度。
图15是示出本技术的第一实施例中的距离测量模块210的操作的示例的流程图。例如当向VR终端200提供电力或执行处理深度图的预定应用时,开始该操作。首先,距离测量模块210执行用于测量距照射光源111的距离E1的光源距离测量处理(步骤S910)。然后,距离测量模块210聚焦在用作待测量目标的预定数量的像素中的任一者上。距离测量模块210检测出现在目标像素中的物体的单位矢量(步骤S901)。此外,距离测量模块210检测照射光和通过使照射光被物体反射而得到的反射光之间的相位差(步骤S902)。
然后,距离测量模块210基于检测到的单位矢量和相位差以及已知距离E1来测量距物体的距离D(步骤S903)。距离测量模块210判定是否已经测量了距作为待测量目标的所有像素的距离(步骤S904)。在没有测量到距所有像素的距离的情况下(步骤S904:否),距离测量模块210重复执行步骤S901和步骤S901之后的步骤。反之,在已经测量了距作为待测量目标的所有像素的距离的情况下(步骤S904:是),距离测量模块210重复执行步骤S910和步骤S910之后的步骤。
图16是示出本技术的第一实施例中的光源距离测量处理的示例的流程图。距离测量模块210检测两个照射光源(例如111和112)中的每一者的单位矢量(步骤S911)。此外,距离测量模块210检测两个照射光源的照射光光束之间的相位差(步骤S912)。然后,距离测量模块210基于检测到的单位矢量和相位差以及已知间隔W来测量距照射光源中的任一者的距离(例如E1)(步骤S913)。在步骤S913之后,距离测量模块210停止光源距离计算处理。
如上所述,根据本技术的第一实施例,VR终端200基于来自一对外部光源的光束之间的相位差来测量距一对外部光源(例如照射光源111和112、照射光源111和反射光源)中的一个光源的距离,因此不需要在内部包括发光元件。由此,可以减少要提供给发光元件的功耗。
[第一变形例]
在上述的第一实施例中,VR终端200基于交替打开的照射光源111和112之间的相位差来测量距照射光源111的距离E1。然而,在某些情况下,仅存在持续发光的光源。在这种情况下,例如,可以基于这些外部光源的投影点来测量距空间坐标已知的多个外部光源的距离。第一实施例的第一变形例中的该VR终端200与第一实施例的VR终端的不同之处在于,基于这些光源的投影点的坐标来测量距多个外部光源的距离。
图17是示出本技术的第一实施例的第一变形例中的距离测量系统的示例的总图。第一实施例的第一变形例中的该距离测量系统与第一实施例的距离测量系统的不同之处在于,将顶灯131~134用作外部光源来代替设置在外部装置110中的照射光源111和112。
将顶灯131~134布置在预定正方形的相应四个顶点处。将这些灯的空间坐标预先存储在VR终端200上。VR终端200通过使用这些空间坐标来测量距离。注意,以顶灯131~134作为顶点的图形不限于正方形,并且可以是矩形、梯形等。
图18是用于说明在本技术的第一实施例的第一变形例中测量距离的方法的图。顶灯131~134投影到预定成像平面上的投影点u1~u4。顶灯131~134的位置不改变,而VR终端200的位置和姿势可以改变。因此,投影点u1~u4的平面坐标会根据VR终端200的位置和姿势而改变。由于投影点u1~u4的坐标与位置和姿势具有一定的关系,因此VR终端200可以通过将投影点u1~u4的平面坐标输入到表示该关系的函数中来计算自身的位置和姿势。当计算VR终端200的位置时,因为顶灯131~134的位置是固定的,所以VR终端200可以基于自身的位置来计算距这些灯的距离。
如上所述,基于已知的空间点(例如,顶灯131~134)及其投影点来获得照像机(VR终端200)的位置和姿势的问题被称为“透镜-n-点(PnP:perspective-n-point)问题”。该PnP问题在例如以下文献中被公开:由Okutomi Masatoshi编辑的“Digital imageprocessing”,修订版,计算机图形艺术学会,2006年3月,第328-331页。
注意,VR终端200使用顶灯131~134的投影点。然而,只要光源是位置已知的外部光源,就可以使用除了顶灯以外的光源的投影点。
图19是示出本技术的第一实施例的第一变形例中的距离测量计算部230的构造示例的框图。第一实施例的第一变形例中的该距离测量计算部230不包括:各照射光源的单位矢量检测部232、光源间隔存储部233、照射光束间相位差检测部234以及光源距离测量部235。距离测量计算部230包括:空间坐标存储部241和光源距离测量部242,而不是以上各部分。
空间坐标存储部241存储各顶灯131~134的空间坐标。光源距离测量部242基于图像数据来获取各顶灯131~134的投影点的平面坐标。然后,光源距离测量部242解决PnP问题以计算VR终端200的位置,并且基于该位置获得表示顶灯131~134中的任一者(例如,顶灯131)的方向的单位矢量和距灯的距离E1。光源距离测量部242将单位矢量和距离E1提供给深度图生成部238。
如上所示,根据本技术的第一实施例的第一变形例,VR终端200基于灯的投影点坐标来测量距多个顶灯的距离,因此即使在不存在交替打开的照射光源111和112的情况下也可以测量距离。
[第二变形例]
在上述的第一实施例中,距离测量模块210设置在VR终端200中。然而,距离测量模块210也可以设置在除了VR终端200以外的设备或装置中。例如,距离测量模块210可以设置在无人机(所谓的无人驾驶飞机)中。在多个无人机编队飞行的情况下,需要与随行无人机保持一定距离。在这种飞行控制等中,可以使用由测量距离的距离测量模块210获得的信息。第一实施例的第二变形例中的距离测量系统与第一实施例的距离测量系统的不同之处在于,距离测量模块210设置在无人机中。
图20是示出本技术的第一实施例的第二变形例中的距离测量系统的构造示例的总图。该距离测量系统包括多个无人机201。每个无人机201包括:发光部271和272以及距离测量模块210。发光部271和272固定在无人机201的规定位置,并且两个无人机之间的间隔W固定。注意,图20中省略了距离测量模块210。
各无人机201检测来自另一无人机201的发光部271的光和来自该无人机的发光部272的光之间的相位差,并且通过与第一实施例类似的方法测量距发光部271的距离E1。无人机201基于测得的距离E1执行诸如与其他无人机保持一定距离等飞行控制。
如上所述,各无人机201在其机体体内具有发光部271和272。然而,无人机201通过使用从另一飞行器本体接收的照射光量来测量距离,而不是使用照射光自自身机体的反射光。与发射照射光并接收反射光的一般ToF方法相比,不需要透射和反射光并且光不会被物体吸收。这使得可以减少发光部271和272的发光量。因此,因为发光量很小,所以可以减少无人机201的功耗。此外,与接收反射光的情况相比,当发光量固定时,接收到的光量增加。这可以提高距离测量准确度。
图21是示出本技术的第一实施例的第二变形例中的无人机201的构造示例的框图。该无人机201包括:距离测量模块210、机体控制部251以及发光部271和272。
距离测量模块210测量距与自身机体不同的另一机体的发光部271的距离E1,并且将该距离提供给机体控制部251。
机体控制部251控制整个无人机201。该机体控制部251将参考时钟CLKs提供给发光部271和272以及固态成像元件300。此外,机体控制部251基于距离E1来控制无人机201行进的速度和方向。例如,机体控制部251执行使距离E1接近某个值的控制。在该控制下,多个无人机210能够在飞行的同时保持彼此相距一定距离。发光部271和272与参考时钟CLKs同步地发光。
图22是示出本技术的第一实施例的第二变形例中的距离测量计算部230的构造示例的框图。第一实施例的第二变形例中的距离测量计算部230与第一实施例的距离测量计算部的不同之处在于,未设置各反射光源的单位矢量检测部236、照射光与反射光之间的相位差检测部237以及深度图生成部238。
如上所述,根据本技术的第一实施例的第二变形例,无人机201检测来自随行无人机的发光部271和272的光束之间的相位差,因此,多个无人机201能够测量彼此之间的距离。
<2.第二实施例>
[距离测量系统的构造示例]
在上述的第一实施例中,VR终端200通过使用来自多个点光源(例如,照射光源111和112)的光束之间的相位差来测量距离。然而,在这些点光源没有布置在要测量距离的目标附近的情况下,不能测量该距离。即使在这种情况下,在将具有例如荧光灯形状的线性光源预先布置在室内的情况下,VR终端200也能够通过使用来自该线性光源的光束之间的相位差来测量距离。例如,即使在室内不存在包括点光源的外部装置110的情况下,在很多情况下,室内也都有照明光源。因此,当照明光源被用作外部光源时,VR终端200就能够测量距离。第二实施例中的该VR终端200与第一实施例的VR终端的不同之处在于,通过使用来自线性光源的光的相位差来测量距离。
图23是示出本技术的第二实施例中的线性光源120的示例的图。期望线性光源120是例如荧光灯累光源或线性发光二极管。整个线性光源120以特定频率闪烁。因此,在照射时来自线性光源120上的点的照射光光束之间的相位差为“0”。此外,在VR终端200上预先存储线性光源120的宽度W作为已知数据。
这里,将聚焦线性光源120上的点121。在距离测量模块210聚焦在该点121上的情况下,来自点121的光被成像镜头220聚集在固态成像元件300上的单个点上,并且不与来自另一点的光混合。因此,可以使用线性光源120上的任意两个点作为单独的照射光源。因此,VR终端200可以通过类似于第一实施例中的方法来测量距那些光源的距离。
图24是用于说明在本技术的第二实施例中测量距照射光源的距离的方法的图。VR终端200将线性光源120的两端用作照射光源,并测量距这些光源的距离。首先,VR终端200检测来自这些照射光源的光束之间的相位差,并检测每个照射光源的单位矢量。然后,VR终端200基于检测到的相位差和单位矢量以及已知宽度W来测量距该两端中的任一端的距离。
注意,VR终端200聚焦在线性光源120的两端上,并检测这两端照射照射光光束之间的相位差。然而,也可能聚焦除了两端之外的两点。此外,代替线性光源120,VR终端200可以聚焦在具有其他形状的光源上的两个点,比如表面光源或球形、环形或盘形光源。
图25是用于说明本技术的第二实施例中的测量距物体的距离的方法的图。在来自线性光源120的照射光被物体上的反射点反射的情况下,反射点会接收来自线性光源120上的多个点中的各个点的光。从反射点到线性光源120上的各点的距离不同,因此,反射光的相位不一定具有与距线性光源120的距离成比例的值。
此外,VR终端200检测线性光源120上的多个点中的各点的单位矢量。此外,针对各个点,VR终端200测量来自该点的照射光的相位。
这里,将沿着线性光源120的轴设为X轴,将与X轴正交的两个轴设为Y轴和Z轴。直线线性光源120具有旋转对称形状,因此,Y轴和Z轴具有任意性。然而,照射光的相位也具有旋转对称形状,这就没有问题。
此外,通常,光源的坐标系的轴的方向与照像机(VR终端200)的坐标系的轴的方向不同。然而,在下文中,为了便于说明,将这些方向假定为相同。即使在坐标系的轴的方向不同的情况下,当从VR终端200看到的线性光源120的姿势已知时,也可以容易地根据另一个轴转换到一个轴。
基于这些前提,在从线性光源120上的各点发出的光的重叠的基础上,反射光由以下表达式表达。
[数学式7]
在上面的表达式中,符号“t”表示时间,并且其单位例如是秒(s)。具有箭头的符号“D”表示从VR终端200到反射点的矢量。此外,左侧表示在时间t使反射点处的反射光。此外,右侧表示来自线性光源120上的各点的光的积分结果。
基于表达式15,反射光的相位可以由以下表达式表示。
[数学式8]
在上面的表达式中,左侧表示在反射点D处的反射光的相位。此外,符号“PEC”表示来自线性光源120的中心的光的相位。这些相位的单位例如是弧度。此外,“g()”部分表示示出反射点距线性光源120中心的位置和照射光与反射光之间的相位差之间的关系的函数。该函数g()是通过例如使用通过一些校准实际测量的值而预先获得的。可选地,也可以在理论上获得函数g()。
此外,基于ToF方法的原理,在接收光时来自线性光源120的中心处的照射光的相位P(uc)由以下表达式表示。
P(uc)=PEc-(2πf/c)·Ec...表达式17
在上面的表达式中,符号“Ec”表示距线性光源120的中心的距离,并且其单位例如是米(m)。基于距线性光源120的一端的距离E1和线性光源各端的单位矢量来获得Ec的坐标。符号“PEc”表示在照射时来自线性光源120中心的照射光的相位,并且其单位例如是弧度。
类似地,接收光时的反射光的相位由以下表达式表示。
[数学式9]
将表达式16代入表达式18可获得以下表达式。
[数学式10]
通过从表达式19的两侧减去表达式17的两侧来满足以下表达式。
[数学式11]
在上面的表达式中,具有箭头的符号“D”表示显示反射点方向的矢量,并且可以用通过将距离D乘以方向的单位矢量而获得的值来代替该矢量。因此,表达式20可以用以下表达式代替。
[数学式12]
在上面的表达式中,具有箭头的符号“d”表示显示反射点方向的单位矢量。
VR终端200检测线性光源120中心的单位矢量和反射点的单位矢量,并且检测在接收光时照射光与反射光之间的相位差。然后,VR终端200将这些单位矢量和相位差以及已知距离Ec代入表达式21来计算距反射点的距离D。
如上所述,根据本技术的第二实施例,VR终端200基于来自两端的光束之间的相位差来测量距线性光源120两端的距离,因此,即使在不存在点光源的情况下,VR终端也可以测量距离。例如,即使在室内不存在包括点光源的外部装置110的情况下,VR终端200也可以使用具有荧光灯形状的线性光源120来测量距离。
<4.应用示例1>
根据本发明的技术适用于所谓的物联网(IoT:Internet of things)技术。IoT是一种将作为“物”的IoT装置9100连接到另一IoT装置9003、因特网、云9005等并且交换信息以彼此控制的机制。IoT可用于诸如农业、住宅、汽车、制造、配电(distribution)和能源等各种行业。
图26是示出根据本发明的技术适用的IoT系统9000的示意性构造的示例的图。
IoT装置9001包括诸如温度传感器、湿度传感器、照度传感器、加速度传感器、距离传感器、图像传感器、气体传感器和运动传感器等各种传感器。此外,IoT装置9001可以包括诸如智能手机、移动电话、可穿戴终端和游戏机等终端。从交流电源、直流电源、电池、非接触式电源、所谓的能量收集等向IoT装置9001供电。IoT装置9001可以经由有线、无线、近距离无线通信等进行通信。作为通信方法,3G/LTE、WiFi、IEEE802.15.4、蓝牙、Zigbee(注册商标)、Z-Wave均适用。IoT装置9001可以切换这些多个通信装置来执行通信。
IoT装置9001可以形成P2P、星型、树型或网状网络。IoT装置9001可以直接或经由网关9002连接到外部云9005。使用IPv4、IPv6、6LoWPAN等赋予IoT装置9001一个地址。将从IoT装置9001收集的数据发送到另一个IoT装置9003、服务器9004、云9005等。从IoT装置9001发送数据的时序或频率可以被适当地调整,并且数据可以被压缩并发送。可以原样适用这种数据,或者可以由计算机9008利用诸如统计分析、机器学习、数据挖掘、聚类分析、组合分析和时间序列分析等各种方法对这种数据进行分析。通过使用这些数据,可以提供诸如控制、警告、监视、可视化、自动化和优化等各种服务。
根据本发明的技术也适用于与住宅有关的装置和服务。住宅里的IoT装置9001包括洗衣机、烘干机、干衣机、微波炉、洗碗机、冰箱、烤箱、电饭煲、烹饪工具、燃气用具、火警器、恒温器、空调、电视机、录音机、音响设备、照明设备、热水器、热水机、真空吸尘器、风扇、空气净化器、安全摄像头、锁、门/快门开关装置、喷淋装置、马桶、温度计、称重秤以及血压计等。IoT装置9001还可以包括太阳能电池、燃料电池、蓄电池、煤气表、电表和配电盘。
住宅中的IoT装置9001的通信方法理想地为低功耗通信方法。此外,在住宅内IoT装置9001可以通过WiFi进行通信,并在住宅外可以通过3G/LTE进行通信。用于控制IoT装置的外部服务器9006可以安装在云9005中来控制IoT装置9001。IoT装置9001传输诸如家用电器的情况、温度、湿度、能耗以及在室内/室外的人/动物的有/无等数据。从家用电器发送的数据经由云9005存储在外部服务器9006中。基于这种数据来提供新服务。可以使用音频识别技术通过音频来控制这种IoT装置9001。
此外,可以将来自各种家用电器的信息直接发送到电视机,以使各种家用电器的状态可视化。此外,各种传感器确定居民的有/无,并将数据发送给空调、灯等,因此可以打开和关闭空调、灯等的电源。此外,可以经由因特网在于各种家用电器上设置的显示器上显示广告。
在上文中,已经说明了根据本发明的技术适用的IoT系统9000的示例。根据本发明的技术适用于上述构造的IoT装置9001中的距离测量传感器。通过将根据本发明的技术应用到距离测量传感器,可以降低IoT装置9001的功耗。
<5.应用示例2>
根据本发明的技术适用于各种产品。例如,根据本发明的技术被实现为安装在诸如汽车、电动汽车、混合电动汽车、摩托车、自行车、个人移动设备、飞机、无人机、船舶、机器人、建筑机器和农业机器(拖拉机)等任何类型的移动物体上的设备。
图27是示出车辆控制系统7000的示意性构造示例的框图,该车辆控制系统是根据本发明的技术可适用的移动物体控制系统的示例。车辆控制系统7000包括经由通信网络7010连接的多个电子控制单元。在图27示出的示例中,车辆控制系统7000包括:驱动线控制单元7100、车身系统控制单元7200、电池控制单元7300、车辆外部信息检测单元7400、车辆内部信息检测单元7500以及集成控制单元7600。连接多个这些控制单元的通信网络7010可以是诸如控制器区域网络(CAN:controller area network)、本地互联网络(LIN:localinterconnect network)、局域网(LAN:local area network)或符合任何标准的FlexRay(注册商标)等的车载通信网络。
各控制单元包括:微型计算机,其根据各种程序执行操作处理;存储部,其存储由微型计算机执行的程序和用于各种操作的参数等;以及驱动电路,其驱动已进行各种类型控制的设备。各控制单元包括:网络I/F,其用于经由通信网络7010与其他控制单元通信;以及通信I/F,其用于通过有线通信或无线通信与车辆内外的设备、传感器等通信。图27示出作为集成控制单元7600的功能组件的微型计算机7610、通用通信I/F7620、专用通信I/F7630、定位部7640、信标接收部7650、车载设备I/F7660、声音和图像输出部7670、车载网络I/F7680以及存储部7690。每个其他控制单元类似地包括微型计算机、通信I/F、存储部等。
驱动线控制单元7100根据各种程序控制与车辆的驱动线相关的设备的操作。例如,驱动线控制单元7100用作驱动力产生设备的控制设备,驱动力产生设备诸如产生车辆驱动力的内燃机或驱动马达、将驱动力传递到车轮的驱动力传递机构、调整车辆的转向角的转向机构以及产生车辆制动力的制动装置等。驱动线控制单元7100可以具有用于防抱死制动系统(ABS:antilock brake system)或电子稳定性控制(ESC:electronic stabilitycontrol)的控制设备的功能。
驱动线控制单元7100连接到车辆状态检测部7110。车辆状态检测部7110例如包括:至少一个传感器,诸如用于检测车体的轴向旋转运动的角速度的陀螺仪传感器、用于检测车辆的加速度的加速度传感器或用于检测加速器踏板的操作量、制动踏板的操作量、方向盘的方向盘角度、发动机转速、车轮转速等的传感器。驱动线控制单元7100使用从车辆状态检测部7110输入的信号来进行操作处理,并且控制内燃机、驱动电机、电动转向设备、制动设备等。
车身系统控制单元7200根据各种程序控制安装在车体上的各种设备的操作。例如,车身系统控制单元7200用作无键进入系统、智能钥匙系统、电动车窗装置或诸如前照灯、后备灯、刹车灯、闪烁器或雾灯等的各种灯的控制装置。在这种情况下,车身系统控制单元7200可以接收从代替各种开关的钥匙或信号的便携式设备发送的无线电波。车身系统控制单元7200接收这些无线电波或信号,并控制车门锁装置、电动车窗装置、灯等。
电池控制单元7300根据各种程序控制二次电池7310。二次电池7310用作驱动电机的电源。例如,电池控制单元7300从包括二次电池7310的电池设备接收诸如电池温度、电池输出电压或剩余电池容量等的信息。电池控制单元7300使用这些信号来进行操作处理,并对二次电池7310进行温度调节控制或控制包括在电池装置内的冷却装置等。
车辆外部信息检测单元7400检测与包括车辆控制系统7000的车辆外部有关的信息。例如,车辆外部信息检测单元7400连接到成像部7410和车辆外部信息检测部7420中的至少一者。成像部7410包括飞行时间(ToF)相机、立体相机、单眼相机、红外相机和其他相机中的至少一者。车辆外部信息检测部7420包括例如检测实时天气的环境传感器和检测另一车辆、包括车辆控制系统7000的车辆周围的、障碍物、行人等的周围信息检测传感器中的至少一者。
环境传感器可以是例如检测阴雨天气的雨滴传感器、检测雾的雾传感器、检测日照程度的日照传感器以及检测降雪的雪传感器中的至少一者。周围信息检测传感器可以是超声波传感器、雷达设备以及光检测和测距/激光成像检测和测距(LIDAR)装置中的至少一者。这些成像部7410和车辆外部信息检测部7420可以作为独立的传感器或设备来安装,或者作为集成有传感器和设备的设备来安装。
这里,图28示出成像部7410和车辆外部信息检测部7420的安装位置的示例。例如,将成像部7910、7912、7914、7916和7918安装在车辆7900的前车头、侧后视镜、后保险杠、后门以及车厢内的挡风玻璃上部中的至少一者处。安装在前车头的成像部7910和安装在车厢内的挡风玻璃上部的成像部7918主要获取车辆7900前方区域的图像。安装在侧后视镜的成像部7912和7914主要获取车辆7900侧面区域的图像。安装在后保险杠或后门的成像部7916主要获取车辆7900后方区域的图像。安装在车厢内的挡风玻璃上部的成像部7918主要用于检测前方车辆、行人、障碍物、交通信号灯、交通标志、车道等。
注意,图28示出成像部7910、7912、7914和7916各自的成像范围的示例。成像范围a表示安装在前车头的成像部7910的成像范围。成像范围b和c分别表示安装在侧后视镜的成像部7912和7914的成像范围。成像范围d表示安装在后保险杠或后门的成像部7916的成像范围。例如,叠加由成像部7910、7912、7914和7916拍摄的图像数据可以提供俯视车辆7900的俯视图像。
安装在车辆7900的前方、后方、侧方、拐角和车厢内的挡风玻璃上部的车辆外部信息检测部7920、7922、7924、7926、7928和7930例如可以是超声波传感器或雷达设备。安装在车辆7900的前车头、后保险杠、后门和车厢内的挡风玻璃上部的车辆外部信息检测部7920、7926和7930例如可以是LIDAR设备。这些车辆外部信息检测部7920~7930主要用于检测前方车辆、行人、障碍物等。
将再次参照图27继续说明。车辆外部信息检测单元7400使成像部7410拍摄车外的图像,并接收拍摄到的图像数据。此外,车辆外部信息检测单元7400接收来自所连接的车辆外部信息检测部7420的检测信息。在车辆外部信息检测部7420是超声波传感器、雷达设备或LIDAR设备的情况下,车辆外部信息检测单元7400使得超声波、无线电波等被发送,并且接收所接收的反射波的信息。车辆外部信息检测单元7400可以执行检测诸如人、车、障碍物、交通标志或道路上的字母等物体处理,或基于接收到的信息执行检测距离的处理。车辆外部信息检测单元7400可以基于接收到的信息执行识别降雨、雾、路况等的环境识别处理。车辆外部信息检测单元7400可以基于接收到的信息来计算距车外物体的距离。
此外,车辆外部信息检测单元7400可以执行识别人、汽车、障碍物、交通标志、道路上的字母等的图像识别处理,或者基于接收到的图像数据执行检测距离的处理。车辆外部信息检测单元7400可以对接收到的图像数据执行失真校正处理、定位处理等,并且组合由不同成像部7410拍摄的图像数据以生成俯视图或全景图像。车辆外部信息检测单元7400可以使用由其他成像部7410拍摄的图像数据来执行视点转换处理。
车辆内部信息检测单元7500检测车内的相关信息。车辆内部信息检测单元7500例如连接到检测驾驶员状态的驾驶员状态检测部7510。驾驶员状态检测部7510可以包括:对驾驶员进行成像的照相机、检测驾驶员的生物信息的生物传感器以及拾取车厢内的声音的麦克风等等。生物传感器例如安装在座位面、方向盘等上,并且检测坐在座椅上的乘客或者握着方向盘的驾驶员的生物信息。车辆内部信息检测单元7500可以基于从驾驶员状态检测部7510输入的检测信息来计算驾驶员的疲劳程度、驾驶员的注意力程度或确定驾驶员是否打瞌睡。车辆内部信息检测单元7500可以对拾取的声音信号执行诸如噪声消除处理等的处理。
集成控制单元7600根据各种程序控制车辆控制系统7000内部的整体操作。集成控制单元7600连接到输入部7800。输入部7800被实现为可供乘客进行输入操作的设备,例如,触摸面板、按钮、麦克风、开关、拉杆等。集成控制单元7600可以接收通过识别经由麦克风输入的语音而获得的数据。例如,输入部7800可以是使用红外线或其他无线电波的遥控设备,或者与车辆控制系统7000的操作对应的外部连接设备(诸如移动电话或个人数字助理(PDA:personal digital assistant)等)。例如,输入部7800可以是照相机。在这种情况下,乘客可以通过手势输入信息。可选地,可以输入通过检测乘客佩戴的可穿戴设备的移动而获得的数据。此外,输入部7800可以包括输入控制电路等,该输入控制电路例如基于使用上述输入部7800由乘客输入的信息等来生成输入信号,并且将生成的输入信号输出到集成控制单元7600。乘客等操作该输入部7800,从而将各种类型的数据输入到车辆控制系统7000或指示车辆控制系统7000进行处理操作。
存储部7690可以包括:只读存储器(ROM:read only memory),其存储由微型计算机执行的各种程序,以及随机存取存储器(RAM:random access memory),其存储各种参数、操作结果、传感器值等。此外,存储部7690可以由诸如硬盘驱动器(HDD:hard disk drive)、半导体存储装置、光存储设备、磁光存储设备等的磁存储装置来实现。
通用通信I/F 7620是调解外部环境7750中的各种设备之间的通信的通用通信I/F。通用通信I/F 7620可以实施诸如全球移动通信系统(GSM:Global System of Mobile)通信、WiMAX、长期演进(LTE:Long Term Evolution)或高级LTE(LTE-A:LTE-Advanced)等蜂窝通信协议,或者可以实施诸如无线LAN(其也被称为Wi-Fi(注册商标))或蓝牙(注册商标)等的其他无线通信协议。通用通信I/F 7620可以例如经由基站或接入点连接到外部网络(例如因特网、云网络或服务提供商特有的网络)上的设备(例如应用程序服务器或控制服务器)。此外,通用通信I/F 7620可以例如使用点对点(P2P)技术连接到车辆附近的终端(例如驾驶员、行人或商店的终端,或机器类型通信(MTC:machine type communication)终端)。
专用通信I/F 7630是支持为车辆使用而定义的通信协议的通信I/F。专用通信I/F7630可以实施标准协议,例如,车辆环境中的无线接入(WAVE:wireless access invehicle environment)(这是用于较低层的IEEE802.11p和用于较高层的IEEE 1609的组合)以及专用短程通信(DSRC:dedicated short range communication)或者蜂窝通信协议。专用通信I/F7630通常执行V2X通信。V2X通信是包括车对车通信、车对基础设施通信、车对家庭通信和车对行人通信中的一者或多者的概念。
定位部7640例如从用于定位的GNSS卫星接收全球导航卫星系统(GNSS:globalnavigation satellite system)信号(诸如来自GPS卫星的全球定位系统(GPS:globalpositioning system)信号),并且生成包括车辆的纬度、经度和高度的位置信息。注意,定位部7640也可以通过与无线接入点交换信号来识别当前位置,或者从诸如移动电话、PHS、具有定位功能的智能手机等的终端获取位置信息。
信标接收部7650例如从安装在道路上的无线站等接收无线电波或电磁波,并且获取诸如当前位置、交通拥堵、封闭道路或必要时间等的信息。注意,信标接收部7650的功能可以包括在上述专用通信I/F 7630中。
车载设备I/F 7660是在微型计算机7610与车辆中的各种车载设备7760之间的连接中起中介作用的通信接口。车载设备I/F 7660可以使用诸如无线LAN、蓝牙(注册商标)、近场通信(NFC:near field communication)、或无线USB(WUSB)等的无线通信协议来建立无线连接。此外,车载设备I/F 7660还可以经由连接终端(未示出)(以及必要时的电缆)来建立诸如通用串行总线(USB:universal serial bus)、高清多媒体接口(HDMI:high-definition multimedia interface)或移动高清链路(MHL:mobile high-definitionlink)等的有线连接。车载设备7760例如可以包括乘客的移动设备、乘客的可穿戴设备以及在车内携带或安装的信息设备中的至少一者。此外,车载设备7760还可以包括搜索到达任何目的地的路线的导航设备。车载设备I/F 7660与这些车载设备7760交换控制信号或数据信号。
车载网络I/F 7680是在微型计算机7610与通信网络7010之间的通信中起中介作用的接口。车载网络I/F 7680依照由通信网络7010支持的预定协议来发送和接收信号等。
集成控制单元7600的微型计算机7610基于经由通用通信I/F 7620、专用通信I/F7630、定位部7640、信标接收部7650、车载设备I/F 7660以及车载网络I/F 7680中的至少一者获取的信息并根据各种程序来控制车辆控制系统7000。例如,微型计算机7610可以基于获取的与车辆的内部和外部有关的信息来计算驱动力产生设备、转向机构或制动设备的控制目标值,并将控制指令输出到驱动线控制单元7100。例如,为了执行包括车辆碰撞避免或减轻冲击、基于车间距离的跟进驾驶、恒定车速驾驶、车辆碰撞警告和车道偏离警告等在内的高级驾驶员辅助系统(ADAS:advanced driver assistance system)的功能,微型计算机7610可以执行协同控制。此外,微型计算机7610可以基于所获取的与车辆周围区域有关的信息来控制驱动力产生设备、转向机构和制动设备等,从而执行用于自动驾驶等的协同控制,自动驾驶能使车辆自主形式而无论驾驶员的操作如何。
微型计算机7610可以基于经由通用通信I/F 7620、专用通信I/F 7630、定位部7640、信标接收部7650、车载设备I/F 7660和车载网络I/F 7680中的至少一者获取的信息来生成与车辆与物体(例如,附近的建筑物或人)之间的距离有关的三维距离信息,并且创建包括与车辆的当前位置有关的周围信息在内的本地地图信息。此外,微型计算机7610可以基于所获取的信息来预测诸如车辆碰撞、接近行人等或进入封闭道路等的危险情况,并生成警告信号。警告信号例如可以是用于生成警告声或打开警告灯的信号。
声音和图像输出部7670将声音和图像中的至少一者的输出信号输出到输出设备,该输出设备能够在视觉上或听觉上将信息通知到车内乘客或车辆外部。在图27的示例中,音频扬声器7710、显示部7720和仪表板7730为输出设备的例子。例如,显示部7720可以包括车载显示器和平视显示器中的至少一者。显示部7720可以具有增强现实(AR:augmentedreality)显示功能。输出设备也可以是除了这些设备以外的设备,例如耳机、诸如乘客戴的眼镜式显示器等的可穿戴设备、投影仪或灯等。在输出设备是显示设备的情况下,输出设备可视地显示由微型计算机7610执行各种处理所获得的结果,或显示从另一控制单元接收到各种形式(例如文本、图像、表格或图表)的信息。此外,在输出设备是声音输出设备的情况下,声音输出设备将包括再现的声音数据、声音数据等的声音信号转换成模拟信号,并可听地输出模拟信号。
注意,在图27所示的示例中,经由通信网络7010连接的至少两个控制单元可以集成到一个控制单元中。可选地,各个控制单元可以被构造成多个控制单元。此外,车辆控制系统7000还可以包括未示出的另一控制单元。此外,在以上说明中,由任何控制单元执行的部分或全部功能也可以由另一控制单元执行。即,只要经由通信网络7010发送和接收信息,则可以由任何控制单元执行预定的操作处理。类似地,连接到任何控制单元的传感器或设备可以连接到另一控制单元,并且控制单元可以经由通信网络7010在彼此之间发送和接收检测信息。
注意,用于实现参照图2已经说明的根据本实施例的距离测量模块210的各功能的计算机程序可以安装在任何控制单元等上。此外,还可以提供存储有这种计算机程序的计算机可读记录介质。记录介质例如是磁盘、光盘、磁光盘或闪存。此外,上述计算机程序可以经由例如网络而不是使用记录介质来分配。
在上述车辆控制系统7000中,参照图2已经说明的根据本实施例的距离测量模块210适用于图27所示的应用例中的集成控制单元7600。例如,距离测量模块210对应于集成控制单元7600的车辆外部信息检测单元7400。例如,当一对外部光源被设定为另一车辆的尾灯时,车辆外部信息检测单元7400(距离测量模块200)可以测量距这些尾灯的距离作为两辆车之间的距离。
上述实施例是体现本技术的示例,并且实施例中的事项均与权利要求书中的公开特定事项具有对应关系。同样地,由相同名称所表示的实施例中的事项和权利要求书中的公开特定事项具有彼此对应的关系。然而,本技术不限于这些实施例,并且在不脱离本技术的精神的情况下可以在本技术的范围内体现实施例的各种修改。
在上述实施例中说明的处理序列可以作为具有一系列序列的方法处理,也可以作为使计算机执行一系列序列的程序和存储该程序的记录介质来处理。作为记录介质,可以使用硬盘、CD(光盘:Compact Disc)、MD(MiniDisc)和DVD(数字通用磁盘:DigitalVersatile Disk)、存储卡和蓝光光盘(注册商标)。
此外,在本说明书中说明的效果不是限制性的,仅仅是示例,并且可能存在其他效果。
此外,本技术还可以构造如下。
(1)
一种距离测量设备,其包括:
相位差检测部,其被构造成检测来自一对外部光源的光束之间的相位差;以及
距离测量部,其被构造成获取距所述一对外部光源中的一个光源的距离和所述一对外部光源之间的间隔中的任一者作为已知数据,并基于所述已知数据和所述相位差来测量距所述一对外部光源中的另一光源的距离。
(2)
根据(1)所述的距离测量设备,其中
所述一对外部光源是发射照射光的照射光源,并且
所述距离测量部获取所述一对外部光源之间的所述间隔作为已知数据。
(3)
根据(2)所述的距离测量设备,还包括:
一对发光部,其被构造成发射照射光。
(4)
根据(2)或(3)所述的距离测量设备,其中
所述一对外部光源在线性光源上以预定位置布置。
(5)
根据(1)所述的距离测量设备,其中
所述一对外部光源中的所述一个光源是发射照射光的照射光源,而所述另一光源是反射所述照射光的反射光源,并且
所述距离测量部获取距所述一对外部光源中的所述一个光源的距离作为已知数据。
(6)
根据(5)所述的距离测量设备,其中
所述照射光源包括交替打开的一对照射光源,以及
所述距离测量部基于是一对照射光源之间的间隔来获取距所述一对照射光源中的一个光源的距离。
(7)
根据(5)所述的距离测量设备,其中
所述距离测量部获取通过将三维坐标已知的多个空间点中的每个空间投影到预定成像平面上而获得的投影点的平面坐标,并基于所述平面坐标来获取所述已知数据。
(8)
根据(1)~(7)中任一项所述的距离测量设备,其中
所述距离测量部检测表示来自所述一对外部光源中的每个光源的方向的单位矢量,并基于所述单位矢量、所述已知数据和所述相位差来测量距所述另一光源的距离。
(9)
根据(1)~(8)中任一项所述的距离测量设备,其中
所述相位差检测部和所述距离测量部均安装在车辆上,
所述一对外部光源是与所述车辆不同的另一车辆的尾灯,并且
距离测量部测量所述车辆与所述另一辆车之间的距离。
(10)
一种电子设备,其包括:
相位差检测部,其被构造成检测来自一对外部光源的光束之间的相位差;
距离测量部,其被构造成获取距所述一对外部光源中的一个光源的距离和所述一对外部光源的间隔中的任一者作为已知数据,并基于所述已知数据和所述相位差来测量距所述一对外部光源中的另一光源的距离;以及
控制部,其被构造成基于测得的所述距离使显示部显示预定信息。
(11)
一种控制距离测量设备的方法,所述方法包括:
相位差检测处理,其检测来自一对外部光源的光束之间的相位差;以及
距离测量处理,其获取距所述一对外部光源中的一个光源的距离和所述一对外部光源之间的间隔中的任一者作为已知数据,并基于所述已知数据和所述相位差来测量距所述一对外部光源中的另一光源的距离。
附图标记列表
110 外部装置
111、112 照射光源
120 线性光源
131、132、133、134 顶灯
200 VR终端
201 无人机
210 距离测量模块
220 成像镜头
230 距离测量计算部
231 图像保存部
232 各照射光源的单位矢量检测部
233 光源间隔存储部
234 照射光束间相位差检测部
235、242 光源距离测量部
236 各反射光源的单位矢量检测部
237 照射光与反射光之间的相位差检测部
238 深度图生成部
241 空间坐标存储部
250 终端控制部
251 机体控制部
260 显示部
271、272 发光部
300 固态成像元件
310 行扫描电路
320 像素阵列部
330 像素电路
331 受光元件
332 转换开关
333、334 电荷累积部
335、336 选择开关
340 时序控制部
350 AD转换部
360 列扫描电路
370 信号处理部
9001 IoT装置

Claims (11)

1.一种距离测量设备,其包括:
相位差检测部,其被构造成检测来自一对外部光源的光束之间的相位差;以及
距离测量部,其被构造成获取距所述一对外部光源中的一个光源的距离和所述一对外部光源之间的间隔中的任一者作为已知数据,并基于所述已知数据和所述相位差来测量距所述一对外部光源中的另一光源的距离。
2.根据权利要求1所述的距离测量设备,其中,
所述一对外部光源是发射照射光的照射光源,并且
所述距离测量部获取所述一对外部光源之间的所述间隔作为所述已知数据。
3.根据权利要求2所述的距离测量设备,还包括:
一对发光部,其被构造成发射照射光。
4.根据权利要求2所述的距离测量设备,其中
所述一对外部光源在线性光源上以预定位置布置。
5.根据权利要求1所述的距离测量设备,其中
所述一对外部光源中的所述一个光源是发射照射光的照射光源,而所述另一光源是反射所述照射光的反射光源,并且
所述距离测量部获取距所述一对外部光源中的所述一个光源的距离作为所述已知数据。
6.根据权利要求5所述的距离测量设备,其中
所述照射光源包括交替打开的一对照射光源,并且
所述距离测量部基于所述一对照射光源之间的间隔来获取距所述一对照射光源中的一个光源的距离。
7.根据权利要求5所述的距离测量设备,其中
所述距离测量部获取通过将三维坐标已知的多个空间点中的每个空间点投影到预定成像平面上而获得的投影点的平面坐标,并基于所述平面坐标来获取所述已知数据。
8.根据权利要求1所述的距离测量设备,其中
所述距离测量部检测表示来自所述一对外部光源中的每个光源的方向的单位矢量,并基于所述单位矢量、所述已知数据和所述相位差来测量距所述另一光源的距离。
9.根据权利要求1所述的距离测量设备,其中
所述相位差检测部和所述距离测量部均安装在车辆上,
所述一对外部光源是与所述车辆不同的另一车辆的尾灯,并且
所述距离测量部测量所述车辆与所述另一车辆之间的距离。
10.一种电子设备,其包括:
相位差检测部,其被构造成检测来自一对外部光源的光束之间的相位差;
距离测量部,其被构造成获取距所述一对外部光源中的一个光源的距离和所述一对外部光源的间隔中的任一者作为已知数据,并基于所述已知数据和所述相位差来测量距所述一对外部光源中的另一光源的距离;以及
控制部,其被构造成基于测得的所述距离使显示部显示预定信息。
11.一种控制距离测量设备的方法,所述方法包括:
相位差检测处理,其检测来自一对外部光源的光束之间的相位差;以及
距离测量处理,其获取距所述一对外部光源中的一个光源的距离和所述一对外部光源之间的间隔中的任一者作为已知数据,并基于所述已知数据和所述相位差来测量距所述一对外部光源中的另一光源的距离。
CN201780003177.9A 2016-08-23 2017-07-06 距离测量设备、电子设备以及距离测量设备的控制方法 Active CN108027416B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016162320A JP2018031607A (ja) 2016-08-23 2016-08-23 測距装置、電子装置、および、測距装置の制御方法
JP2016-162320 2016-08-23
PCT/JP2017/024749 WO2018037728A1 (ja) 2016-08-23 2017-07-06 測距装置、電子装置、および、測距装置の制御方法

Publications (2)

Publication Number Publication Date
CN108027416A true CN108027416A (zh) 2018-05-11
CN108027416B CN108027416B (zh) 2023-03-28

Family

ID=61246716

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780003177.9A Active CN108027416B (zh) 2016-08-23 2017-07-06 距离测量设备、电子设备以及距离测量设备的控制方法

Country Status (4)

Country Link
US (1) US10989790B2 (zh)
JP (1) JP2018031607A (zh)
CN (1) CN108027416B (zh)
WO (1) WO2018037728A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110557582A (zh) * 2018-06-19 2019-12-10 思特威(上海)电子科技有限公司 基于tof的3d成像图像传感器像素电路及测距系统
CN110770600A (zh) * 2018-11-29 2020-02-07 深圳市大疆创新科技有限公司 分布式光检测和测距(lidar)管理系统
CN112740288A (zh) * 2018-10-12 2021-04-30 因温特奥股份公司 进口监控系统和用于运行进口监控系统的方法
CN113126111A (zh) * 2019-12-30 2021-07-16 Oppo广东移动通信有限公司 飞行时间模组和电子设备

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11092689B2 (en) * 2016-09-20 2021-08-17 Apple Inc. Enabling lidar detection
CN110044334B (zh) * 2018-01-16 2020-04-21 京东方科技集团股份有限公司 基于维诺图的室内空间定位
DE102018103262B4 (de) * 2018-02-14 2024-05-29 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zum Betreiben einer Beleuchtungsvorrichtung eines Kraftfahrzeugs
EP3814797A4 (en) * 2018-07-24 2022-03-02 Sense Photonics, Inc. PHASE NOISE AND CORRECTION METHODS IN MULTIFREQUENCY LIDAR
CN112513670B (zh) 2018-08-07 2024-06-18 索尼半导体解决方案公司 测距仪、测距系统、测距方法及程序
JP2020067707A (ja) * 2018-10-22 2020-04-30 豊田合成株式会社 非接触操作検出装置
US10884415B2 (en) * 2018-12-28 2021-01-05 Intel Corporation Unmanned aerial vehicle light flash synchronization
TWI767179B (zh) * 2019-01-24 2022-06-11 宏達國際電子股份有限公司 混合實境中偵測真實世界光源的方法、混合實境系統及記錄媒體
JP2020194995A (ja) * 2019-05-24 2020-12-03 Necプラットフォームズ株式会社 無線通信機器、監視システムおよび無線通信機器の監視方法
JP2021021633A (ja) 2019-07-26 2021-02-18 ソニーセミコンダクタソリューションズ株式会社 測距装置、測距システムおよび測距装置の調整方法
WO2021056179A1 (zh) * 2019-09-24 2021-04-01 深圳市大疆创新科技有限公司 智能辅助照明系统、方法、装置及可移动平台
EP4047307A4 (en) 2019-10-15 2022-12-07 Sony Semiconductor Solutions Corporation TELEMETRY DEVICE AND ASSOCIATED LIGHT RECEIVING METHOD

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002165230A (ja) * 2000-11-24 2002-06-07 Asahi Optical Co Ltd 3次元画像検出装置
CN1735789A (zh) * 2002-11-11 2006-02-15 秦内蒂克有限公司 测距设备
CN1940595A (zh) * 2005-09-30 2007-04-04 株式会社拓普康 测距装置
CN101772711A (zh) * 2007-08-01 2010-07-07 皇家飞利浦电子股份有限公司 车辆定位测量系统和方法
US20110267315A1 (en) * 2010-04-28 2011-11-03 Seiko Epson Corporation Apparatus with position detection function
US20120162633A1 (en) * 2010-12-22 2012-06-28 Roberts Richard D Systems and methods for determining position using light sources
JP2013205407A (ja) * 2012-03-29 2013-10-07 Moire Institute Inc 形状計測装置、形状計測方法及び形状計測装置における校正処理方法
CN103364177A (zh) * 2012-04-04 2013-10-23 大塚电子株式会社 配光特性测量装置和配光特性测量方法
CN104101880A (zh) * 2013-04-05 2014-10-15 日立麦克赛尔株式会社 光学测距装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3483303B2 (ja) * 1994-06-21 2004-01-06 株式会社トプコン 回転レーザ装置
JPH11143640A (ja) * 1997-11-11 1999-05-28 Seiko Epson Corp 座標検出装置、それを備えたスクリーン、及び表示装置
JP4253271B2 (ja) 2003-08-11 2009-04-08 株式会社日立製作所 画像処理システム及び車両制御システム
JP4253275B2 (ja) 2003-08-11 2009-04-08 株式会社日立製作所 車両制御システム
US20090279107A1 (en) * 2008-05-09 2009-11-12 Analog Devices, Inc. Optical distance measurement by triangulation of an active transponder
US8949069B2 (en) * 2009-12-16 2015-02-03 Intel Corporation Position determination based on propagation delay differences of multiple signals received at multiple sensors
JP4956631B2 (ja) * 2010-01-28 2012-06-20 株式会社コナミデジタルエンタテインメント 領域推定装置、領域推定方法、ならびに、プログラム
US8891067B2 (en) 2010-02-01 2014-11-18 Microsoft Corporation Multiple synchronized optical sources for time-of-flight range finding systems
US20130120361A1 (en) * 2011-11-16 2013-05-16 Industrial Technology Research Institute Spatial 3d interactive instrument
LT2858269T (lt) 2012-05-24 2018-05-10 Panasonic Intellectual Property Corporation Of America Informacinio ryšio būdas
US9702977B2 (en) * 2013-03-15 2017-07-11 Leap Motion, Inc. Determining positional information of an object in space
CN104603574B (zh) * 2013-07-01 2017-10-13 松下电器(美国)知识产权公司 具有多个光源的运动传感器装置
IL235359A (en) * 2014-10-27 2015-11-30 Ofer David Simulates a wide-dynamic-range environment with a high intensity beam / reflector
US10306217B2 (en) * 2015-04-17 2019-05-28 Seiko Epson Corporation Display device, control method for display device, and computer program
US11162781B2 (en) * 2016-06-23 2021-11-02 University Of Utah Research Foundation Interferometry systems and methods
US10884127B2 (en) * 2016-08-02 2021-01-05 Samsung Electronics Co., Ltd. System and method for stereo triangulation
US10677894B2 (en) * 2016-09-06 2020-06-09 Magna Electronics Inc. Vehicle sensing system for classification of vehicle model

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002165230A (ja) * 2000-11-24 2002-06-07 Asahi Optical Co Ltd 3次元画像検出装置
CN1735789A (zh) * 2002-11-11 2006-02-15 秦内蒂克有限公司 测距设备
CN1940595A (zh) * 2005-09-30 2007-04-04 株式会社拓普康 测距装置
CN101772711A (zh) * 2007-08-01 2010-07-07 皇家飞利浦电子股份有限公司 车辆定位测量系统和方法
US20110267315A1 (en) * 2010-04-28 2011-11-03 Seiko Epson Corporation Apparatus with position detection function
US20120162633A1 (en) * 2010-12-22 2012-06-28 Roberts Richard D Systems and methods for determining position using light sources
JP2013205407A (ja) * 2012-03-29 2013-10-07 Moire Institute Inc 形状計測装置、形状計測方法及び形状計測装置における校正処理方法
CN103364177A (zh) * 2012-04-04 2013-10-23 大塚电子株式会社 配光特性测量装置和配光特性测量方法
CN104101880A (zh) * 2013-04-05 2014-10-15 日立麦克赛尔株式会社 光学测距装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110557582A (zh) * 2018-06-19 2019-12-10 思特威(上海)电子科技有限公司 基于tof的3d成像图像传感器像素电路及测距系统
CN110557582B (zh) * 2018-06-19 2021-09-17 思特威(上海)电子科技股份有限公司 基于tof的3d成像图像传感器像素电路及测距系统
CN112740288A (zh) * 2018-10-12 2021-04-30 因温特奥股份公司 进口监控系统和用于运行进口监控系统的方法
US11610446B2 (en) 2018-10-12 2023-03-21 Inventio Ag Access control system and method for operating an access control system
CN110770600A (zh) * 2018-11-29 2020-02-07 深圳市大疆创新科技有限公司 分布式光检测和测距(lidar)管理系统
CN110770600B (zh) * 2018-11-29 2023-04-14 深圳市大疆创新科技有限公司 分布式光检测和测距(lidar)管理系统
CN113126111A (zh) * 2019-12-30 2021-07-16 Oppo广东移动通信有限公司 飞行时间模组和电子设备
CN113126111B (zh) * 2019-12-30 2024-02-09 Oppo广东移动通信有限公司 飞行时间模组和电子设备

Also Published As

Publication number Publication date
JP2018031607A (ja) 2018-03-01
US20180259616A1 (en) 2018-09-13
WO2018037728A1 (ja) 2018-03-01
CN108027416B (zh) 2023-03-28
US10989790B2 (en) 2021-04-27

Similar Documents

Publication Publication Date Title
CN108027416A (zh) 距离测量设备、电子设备以及距离测量设备的控制方法
JP6984215B2 (ja) 信号処理装置、および信号処理方法、プログラム、並びに移動体
US10952243B2 (en) Method, system and device for network communications within a vehicle
US10460180B2 (en) Systems and methods for visual classification with region proposals
US20190129431A1 (en) Visual place recognition based self-localization for autonomous vehicles
WO2017057043A1 (ja) 画像処理装置、画像処理方法、およびプログラム
CN107924040A (zh) 图像拾取装置、图像拾取控制方法和程序
WO2020116039A1 (ja) 測距装置及び測距方法
CN108139211A (zh) 用于测量的装置和方法以及程序
WO2019130945A1 (ja) 情報処理装置、情報処理方法、プログラム、及び移動体
US20200322585A1 (en) Image processing device, image processing method, and vehicle
CN109844813A (zh) 图像处理装置和图像处理方法
US20210141386A1 (en) Information processing apparatus, mobile object, control system, information processing method, and program
WO2017057057A1 (ja) 画像処理装置、画像処理方法、およびプログラム
CN107851656A (zh) 摄像装置和测距系统
CN109891463A (zh) 图像处理设备和图像处理方法
CN109076167A (zh) 图像处理器、摄像装置和图像处理系统
CN110351455A (zh) 摄像装置
WO2018131514A1 (ja) 信号処理装置、信号処理方法、およびプログラム
WO2019163315A1 (ja) 情報処理装置、撮像装置、及び撮像システム
Fleck et al. Infra2go: A mobile development platform for connected, cooperative and autonomous driving
Dannheim et al. TEAM--CO2 reduction through online weather assistant for cooperative ACC driving
CN116359943A (zh) 使用无源图像传感器和现有光源的飞行时间相机
WO2021246303A1 (ja) 測距装置、電子機器、センサシステム及び制御方法
JP7200114B2 (ja) 半導体装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant