CN113692521A - 信息处理装置、信息处理方法和信息处理程序 - Google Patents

信息处理装置、信息处理方法和信息处理程序 Download PDF

Info

Publication number
CN113692521A
CN113692521A CN202080025980.4A CN202080025980A CN113692521A CN 113692521 A CN113692521 A CN 113692521A CN 202080025980 A CN202080025980 A CN 202080025980A CN 113692521 A CN113692521 A CN 113692521A
Authority
CN
China
Prior art keywords
vehicle
sensors
information processing
calibration
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080025980.4A
Other languages
English (en)
Inventor
平石一贵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Publication of CN113692521A publication Critical patent/CN113692521A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/003Transmission of data between radar, sonar or lidar systems and remote stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4039Means for monitoring or calibrating of parts of a radar system of sensor or antenna obstruction, e.g. dirt- or ice-coating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)

Abstract

一种信息处理装置(100),包括校准执行部(195),所述校准执行部在两个或更多个传感器之间进行校准,所述两个或更多个传感器被附接在不同位置处并且其视野区域至少部分地彼此重叠。在所述两个或更多个传感器的视野彼此重叠的区域中,使得能够进行所述两个或更多个传感器中的每一个传感器的校准的特征点是可获取的情况下,所述校准执行部(195)在所述传感器之间进行校准。

Description

信息处理装置、信息处理方法和信息处理程序
技术领域
本公开涉及信息处理装置、信息处理方法和信息处理程序。
背景技术
近年来,为了识别自动驾驶和驾驶辅助所需的信息,组合使用从多个车载传感器获取的信息的驾驶辅助系统已经被商业化。
在上述驾驶辅助系统中,当组合使用从多个车载传感器获取的各条信息时,由于车载传感器之间的距离和方位角的偏差,检测误差可能被包含在要使用的信息中。考虑到这一点,已经提出了例如一种基于地图信息进行车载传感器校准的技术。
引用列表
专利文献
专利文献1:JP 2018-96715A
发明内容
技术问题
由于上述车载传感器校准技术基于地图信息,因此在一些情况下不能进行校准。例如,不能对没有地图信息的区域进行校准。另外,在由于施工等而环境改变的情况下,也不能进行校准。
因此,本公开提出了一种即使对没有地图信息的区域也能进行校准而不受环境改变影响的信息处理装置、信息处理方法和信息处理程序。
问题的解决方案
为了解决上述问题,根据本公开的实施例的一种信息处理装置包括:校准执行部,所述校准执行部在两个或更多个传感器之间进行校准,所述两个或更多个传感器被附接在不同位置处并且其视野区域至少部分地彼此重叠,其中,在所述两个或更多个传感器的视野彼此重叠的区域中,使得能够进行所述两个或更多个传感器中的每一个传感器的校准的特征点是可获取的情况下,所述校准执行部在传感器之间进行校准。
附图说明
图1是示出根据本公开的实施例的信息处理的概要图。
图2是示出根据本公开的实施例的管理装置的配置的示例图。
图3是示出根据本公开的实施例的信息处理装置的配置的示例图。
图4是示出根据本公开的实施例的信息处理流程的流程图。
图5是示出由LiDAR进行检测的示例图。
图6是示出根据本公开的实施例的信息处理可以应用到的移动体控制系统的示意性功能的配置示例框图。
图7是示出实现本公开的信息处理装置功能的计算机的示例的硬件配置图。
具体实施方式
在下文中,将参考附图详细描述本公开的实施例。注意,在以下的各实施例中,相同的参考标记表示相同的部分,并且可能省略重复描述。
此外,将按以下顺序描述本公开。
1.实施例
1-1.根据实施例的信息处理的概要
1-2.根据实施例的管理装置的配置
1-3.根据实施例的信息处理装置的配置
1-4.根据实施例的信息处理过程
1-5.根据实施例的修改示例
2.其他实施例
2-1.其它传感器
2-2.移动体的配置
2-3.其他
3.根据本公开的信息处理装置的效果
4.硬件配置
(1.实施例)
[1-1.根据实施例的信息处理的概要]
图1是示出根据本公开的实施例的信息处理的概要图。根据本公开的实施例的信息处理涉及例如安装在车辆上的车载传感器的校准。下述实施例中的车辆,例如是汽车。根据该实施例的信息处理是由安装在汽车上的信息处理装置100执行。
通常,在使用从多个车载传感器获取的信息的驾驶辅助系统中,由于车载传感器之间的距离和方位角的偏差,检测误差可能包含在从多个车载传感器获取的信息中。
另一方面,例如,虽然已经提出一种基于地图信息进行车载传感器校准的技术,但是由于该校准是基于地图信息进行的,在一些情况下,当没有地图信息时该校准不能进行。例如,由于该校准技术是基于地图信息的,因此该校准在行驶在没有地图信息的区域中的汽车中不能进行。另外,在该校准技术中,在由于施工等而发生环境变化以及在实际环境和地图信息之间发生偏差的情况下也不能进行校准。
在这点上,提出了如下的一种方法:根据本实施例的信息处理装置100执行下述的信息处理,以便即使对没有地图信息的区域也进行校准,而不受环境改变的影响。也即,由信息处理装置100执行的信息处理的概要是使安装在车辆上的特定物体用作用于车载传感器之间的校准的特征点。
信息处理装置100安装在图1所示的车辆1和2中的每一个车辆上,并且执行类似的信息处理。在以下描述中,将描述以下情况:在车辆1上的信息处理装置100通过使用安装在车辆2上的特定物体(如下述的校准治具4)的特征点来进行安装在车辆1上的车载传感器之间的校准。在以下描述中,车辆1可以被称为“主车辆”,并且其上安装有特定物体的车辆2可以被称为“目标车辆”,该特定物体具有用于安装在车辆1上的车载传感器之间的校准的特征点。
图1所示的车辆1包括用作外部传感器的接收部12、成像部13和测定部14,以及信息处理装置100。
接收部12例如是GPS接收机。信息处理装置100基于接收部12接收到的信号将位置信息发送到管理装置3。
成像部13和测定部14被附接在车辆1上的不同位置处。成像部13的视野区域FV1和测定部14的视野区域FV2形成区域FV3,区域FV3中视野区域FV1和视野区域FV2至少部分地彼此重叠。成像部13例如是相机,而测定部14例如是毫米波雷达。成像部13和测定部14是两个或更多个传感器的示例。
信息处理装置100例如通过在信息处理装置100与管理装置3之间进行的路对车通信(V2X通信)来发送和接收各种信息。管理装置3基于从车辆1、2接收到的位置信息管理车辆1与车辆2的位置关系。
另外,信息处理装置100从管理装置3获取与目标车辆有关的信息。在车辆2为目标车辆的情况下,信息处理装置100可以获取目标车辆的位置及姿态、校准治具4在目标车辆中的安装位置及姿态、以及棋盘格41与角反射器42之间的位置关系等信息。
校准治具4包括棋盘格41和角反射器42,从棋盘格41中可以提取使得能够对成像部13进行校准的特征点41P,角反射器42具有使得能够对测定部14进行校准的特征点42P。棋盘格41安装在至少迎面而来的车辆可以捕获其图像的位置处和方向上。角反射器42安装在至少可以反射从迎面而来的车辆发出的雷达光的位置处和方向上。
信息处理装置100从管理装置3获取关于以下的信息:具有使得能够在成像部13和测定部14之间进行校准的特征点的目标车辆是否存在于主车辆周围的可获取范围内。然后,在能够在成像部13和测定部14的视野区域彼此重叠的区域FV3中可以获取特征点41P和特征点42P的情况下,信息处理装置100在成像部13和测定部14之间进行校准。
具体而言,信息处理装置100基于目标车辆的位置和校准治具4在目标车辆中的安装位置,对校准治具4在目标车辆中的安装位置进行坐标变换,并且指定校准治具4在全球坐标系中的位置。接着,信息处理装置100基于关于成像部13和测定部14的视野区域彼此重叠的区域FV3的信息和安装在目标车辆上的校准治具4的位置信息,判定目标车辆是否存在于可以进行校准的区域中。例如,当安装在目标车辆上的校准治具4被定位在成像部13和测定部14的视野区域彼此重叠的区域FV3中时,信息处理装置100判定目标车辆存在于可以进行校准的区域中。
然后,信息处理装置100基于主车辆的位置信息及姿态信息、以及目标车辆的位置信息及姿态信息,判定是否可以从校准治具4获取特征点41P及特征点42P。然后,在判定可以从校准治具4获取特征点41P和特征点42P的情况下,信息处理装置100获取特征点41P和特征点42P,并且在成像部13和测定部14之间进行距离和方位角校准。
这样,根据本实施例的信息处理装置100即使对没有地图信息的区域也可以进行校准,而不受环境变化的影响。
[1-2.根据实施例的管理装置的配置]
将参考图2描述根据本公开的实施例的管理装置3的配置。图2是示出根据本公开的实施例的管理装置的配置的示例图。如图2所示,管理装置3具有通信部31、存储部32和控制部33。管理装置3基于从安装在道路上的无线站等路边装置获取的信息,管理车辆的位置关系。
通信部31例如由网络接口卡(NIC)等实现。通信部31可以是有线接口或无线接口。通信部31可以是无线LAN系统或蜂窝通信系统的无线通信接口。通信部31以有线或无线方式连接到网络N(因特网等),并且经由网络N向信息处理装置100等其他装置发送信息和从其接收信息。
存储部32例如由随机存取存储器(RAM)或闪存等半导体存储元件,或硬盘或光盘等存储装置来实现。存储部32存储提供用于实现由控制部33进行的信息处理的功能的程序和各种数据。存储部32可以在控制部33进行信息处理时用作缓冲存储器。存储部32存储从信息处理装置100接收的车辆(车辆1、车辆2等)的位置信息。
控制部33通过例如中央处理器(CPU)、微处理器(MPU)、图形处理器(GPU)等执行以随机存取存储器(RAM)等作为工作区存储在信息处理装置100中的程序(例如,根据本公开的信息处理程序)来实现。此外,控制部33是控制器,并且可以通过例如专用集成电路(ASIC)等集成电路或现场可编程门阵列(FPGA)来实现。
控制部33基于从信息处理装置100接收的车辆(车辆1、车辆2等)的位置信息,指定车辆之间的位置关系。然后,控制部33将表示目标车辆存在的通知发送到安装在处于可以进行校准的位置关系的车辆上的每一个信息处理装置100。处于可以进行校准的位置关系的示例,包括车辆之间的距离在预定距离范围内的情况。
另外,控制部33基于车辆之间的位置关系中继在车辆之间交换的车辆信息。例如,在车辆1和车辆2处于可以进行校准的位置关系的情况下,控制部33将从车辆1接收的车辆信息向车辆2传送,并将从车辆2接收到的车辆信息向车辆1传送。
[1-3.根据实施例的信息处理装置的配置]
将参考图3描述根据本公开的实施例的信息处理装置100的配置。图3是示出根据本公开的实施例的信息处理装置100的配置的示例图。在以下描述中,当车辆1和车辆2处于可以进行校准的位置关系并且所描述为的主车辆是车辆1时,车辆2是目标车辆。相反,在以下描述中,当车辆1和车辆2处于可以进行校准的位置关系并且所描述为的主车辆是车辆2时,车辆1是目标车辆。由于车辆1和车辆2具有相同的配置,所以下面将描述车辆1的配置的示例。
如图3所示,车辆1包括接收部12、成像部13、测定部14、检出部15和信息处理装置100。
接收部12从全球定位系统(GPS)卫星接收用于诸如GPS的卫星定位系统的预定频带的无线电波信号。接收部12对接收的无线电波信号进行解调处理,并将处理后的信号发送到信息处理装置100等。
成像部13是能够捕获主车辆外部的状况的动态图像或静态图像的相机。成像部13例如由立体相机、单目相机或红外相机实现。成像部13可以是除上述之外的相机,例如飞行时间(ToF)相机。成像部13将捕获图像发送到信息处理装置100等。
测定部14是用于测量到主车辆周围的物体的距离的传感器。测定部14例如由使用毫米波雷达的距离测量系统实现。
检出部15检测表示主车辆状态的信息。检出部15例如由惯性测量系统实现,诸如包括车辆速度传感器、加速度传感器、角速度传感器等的惯性测定部(IMU)。检出部15获取作为表示主车辆的状态的信息的检测值,诸如主车辆的行驶速度、作用于主车辆的加速度和作用于主车辆的角速度。检出部15将表示主车辆的状态的信息发送到信息处理装置100等。
返回至图3,安装在车辆1上的信息处理装置100包括通信部101、输入部103、输出部105、存储部107和控制部109。
通信部101例如由网络接口卡(NIC)等实现。通信部101可以是包括通用串行总线(USB)主控制器、USB端口等的USB接口。此外,通信部101可以是有线接口或无线接口。通信部101可以是无线LAN系统或蜂窝通信系统的无线通信接口。通信部101以有线或无线方式连接至网络N(因特网等),并且经由网络N与管理装置3等其他装置进行信息的收发。
输入部103是用于从使用信息处理装置100的用户等接收各种操作的处理部。输入部103例如经由键盘、触摸面板等接收各种类型的信息的输入。
输出部105是用于输出各种类型的信息的处理部。输出部105例如是显示器、扬声器等。例如,输出部105可以显示由成像部13捕获的图像。
存储部107例如由诸如随机存取存储器(RAM)或闪存的半导体存储元件、或诸如硬盘或光盘的存储装置来实现。存储部107存储提供用于实现由控制部109进行的信息处理的功能的程序和各种数据。当控制部109进行信息处理时,存储部107可用作缓冲存储器。
存储部107包括存储主车辆信息的主车辆信息存储部171。主车辆信息包括成像部13和测定部14的视野区域彼此重叠的区域FV3、校准治具4在主车辆中的安装位置、以及关于成像部13和测定部14安装于车辆时的相对位置关系的信息。
控制部109例如通过中央处理器(CPU)、微处理器(MPU)、图形处理器(GPU)等执行以随机存取存储器(RAM)等作为工作区存储在信息处理装置100中的程序(例如,根据本公开的信息处理程序)来实现。此外,控制部109是控制器,并且可以例如由专用集成电路(ASIC)等集成电路或现场可编程门阵列(FPGA)来实现。
如图3所示,控制部109包括提供部191、获取部192、识别部193、判定部194和执行部195,并实现或执行如下所述的信息处理的功能或动作。注意,控制部130的内部配置不限于图3所示的配置,并且可以是其他配置,只要执行稍后描述的信息处理即可。判定部194是判定部的示例,并且执行部195是校准执行部的示例。
提供部191通过V2X通信(路对车通信)与管理装置3周期性地进行通信,并将关于主车辆的信息提供给管理装置3。关于主车辆的信息包括主车辆的位置信息和姿态信息,以及关于主车辆中的校准治具4的信息(主车辆信息)。主车辆的位置信息和姿态信息由稍后描述的识别部193获取。
获取部192通过V2X通信(路对车通信)接收关于以下的信息:在主车辆周围的可获取范围内是否存在具有使得能够在两个或更多个传感器之间进行校准的特征点的特定物体。例如,获取部192从管理装置3接收表示存在目标车辆的通知。另外,获取部192获取关于具有使得能够对两个或更多个传感器中的每一个进行校准的特征点的特定物体的信息。例如,获取部192可以获取关于目标车辆的位置和姿态、校准治具4在目标车辆中的安装位置和姿态、以及校准治具4(棋盘格41和角反射器42)的位置关系的信息。
识别部193基于由接收部12获取的信号来识别主车辆的位置。并且,识别部193基于由检出部15检测出的信息来识别主车辆的姿态,并获取姿态信息。姿态信息包括关于在主车辆行驶期间的行驶速度和定向(姿态)的信息。
在具有特征点的特定物体存在于主车辆周围的可获取范围内的情况下,判定部194利用从管理装置3接收到的目标车辆信息,判定目标车辆是否存在于可以在成像部13与测定部14之间进行校准的区域中。具体而言,判定部194基于目标车辆的位置信息和安装在目标车辆上的校准治具4的位置信息,对校准治具4在目标车辆中的安装位置进行坐标变换,并指定在全球坐标系中的位置。接着,信息处理装置100基于成像部13和测定部14的视野区域彼此重叠的区域FV3的信息和安装在目标车辆上的校准治具4的位置信息,判定目标车辆是否存在于可以进行校准的区域中。即,当安装在目标车辆上的校准治具4被定位于成像部13和测定部14的视野区域彼此重叠的区域FV3中时,判定部194判定目标车辆存在于可以进行校准的区域中。
接着,在判定目标车辆存在于可以进行校准的区域中的情况下,判定部194判定是否可以从安装在目标车辆上的校准治具4获取特征点。具体而言,判定部194获取主车辆的位置信息及姿态信息、以及目标车辆的位置信息及姿态信息。然后,判定部194基于主车辆的位置信息及姿态信息、以及目标车辆的位置信息及姿态信息,判定是否可以从目标车辆获取特征点。即,判定部194判定是否可以从作为安装在目标车辆上的校准治具4的棋盘格41获取特征点41P,并且判定是否可以从角反射器42获取特征点42P。
例如,判定部194可以基于主车辆与目标车辆的位置关系、主车辆与目标车辆的相对速度、主车辆与目标车辆的行驶姿态等,判定特征点是否可以从校准治具4获取。例如,作为可以获取特征点的条件的示例,主车辆和目标车辆之间的相对速度是可以由主车辆的成像部13捕获安装在目标车辆上的校准治具4的图像的速度。另外,作为可以获取特征点的条件的示例,主车辆和目标车辆的行驶姿态是从安装在目标车辆上的校准治具4中相对容易提取特征点的直的姿态。
此外,当安装在目标车辆上的校准治具4被定位于成像部13和测定部14的视野区域彼此重叠的区域FV3中时,判定部194可以判定特征点可以从目标车辆获取。
注意,判定部194也可以使用安装在主车辆中的成像部13和测定部14的位置信息和姿态信息,而不是主车辆的位置信息和姿态信息。判定部194也可以将安装在目标车辆上的校准治具4的位置信息及姿态信息用作目标车辆的位置信息及姿态信息。
在判定部194判定特征点可以从安装在目标车辆上的校准治具4获取的情况下,执行部195进行传感器之间的校准(安装在主车辆上的成像部13与测定部14之间的校准)。即,执行部195进行成像部13与测定部14之间的校准,以便维持成像部13与测定部14在安装在车辆上时的相对位置关系。
具体而言,执行部195识别由成像部13捕获的图像,并且从捕获的图像获取使得能够校准成像部13(相机)和测定部14(毫米波雷达)中的每一个的特征点。即,执行部195从作为安装在目标车辆上的校准治具4的棋盘格41获取特征点41P,并且从角反射器42获取特征点42P。
随后,执行部195基于从捕获的图像获取的特征点41P和特征点P42之间的位置关系,识别成像部13和测定部14之间的当前相对位置关系。随后,执行部195从主车辆信息存储部171获取关于成像部13和测定部14在安装在车辆上时的相对位置关系的信息。随后,执行部195计算成像部13和测定部14之间的当前相对位置关系与成像部13和测定部14在安装在车辆上时的相对位置关系之间的偏差。然后,执行部195将控制信号发送到致动器,用于调整成像部13的附接位置和附接角度,以吸收与成像部13和测定部14在安装在车辆上时的相对位置关系的偏差。以这种方式,执行部195进行成像部13与测定部14之间的校准,使得成像部13与测定部14之间的相对位置关系接近安装在车辆时的最佳状态。
即使当单个传感器随着车辆行驶而从装运时(安装在车辆中时)的位置移位时,只要通过由执行部195进行的传感器之间的校准来维持传感器之间的相对位置关系,成像部13和测定部14就可以用作传感器。即,当主车辆的行驶方向(朝向)可以从接收部12接收到的GPS信号或检出部15的检测结果获取,并且相对位置关系可以被变换为主车辆周围的坐标系时,成像部13和测定部14可以用作传感器。注意,为了知道其它车辆的行驶方向,每个车辆需要从相同的参考系,诸如来自双天线GPS等的地理坐标系,获得行驶方向。
[1-4.根据实施例的信息处理过程]
将参考图4描述根据本公开的实施例的信息处理的过程。图4是示出根据本公开的实施例的信息处理流程的流程图。图4所示的处理例如由控制部109中所包括的各部执行。在主车辆行驶期间重复执行图4所示的处理。
如图4所示,判定部194判定目标车辆是否存在于可对其进行校准的区域中(步骤S101)。
具体而言,在安装在目标车辆上的校准治具4的安装位置包含在成像部13和测定部14的视野区域彼此重叠的区域FV3中时,判定部194判定目标车辆存在于可对其进行校准的区域中。
在判定目标车辆存在于可对其进行校准的区域中的情况下(步骤S101;是),判定部194判定是否可以从安装在目标车辆上的校准治具4获取特征点(步骤S102)。
具体而言,判定部194基于主车辆的位置信息及姿态信息、以及目标车辆的位置信息及姿态信息,判定是否可以从安装于目标车辆的校准治具4获取特征点。作为可以获取特征点的条件的示例,相对速度是安装在目标车辆上的校准治具4的图像可以由主车辆(成像部13)捕获的速度,并且主车辆和目标车辆的行驶姿态是直的姿态。
在判定部判定可以获取特征点的情况下(步骤S103;是),执行部195从安装在目标车辆上的校准治具4获取特征点,进行校准(步骤S107),并结束图4所示的处理。
在判定部194在步骤S103中判定不能获取特征点的情况下(步骤S103;否),执行部195结束图4所示的处理而不进行校准。
在判定部194在步骤S101中判定目标车辆不存在于可进行校准的区域中的情况下(步骤S101;否),图4所示的处理结束。
[1-5.根据实施例的修改示例]
在上述实施例中,已经描述了信息处理装置100经由管理装置3通过路对车通信(V2X通信)获取关于目标车辆的各种类型的信息的示例,但是本公开并不特别限于该示例。信息处理装置100可以通过与目标车辆进行车对车通信来获取关于目标车辆的各种类型的信息。
此外,在上述实施例中,已经描述了进行不同类型的传感器、成像部13(相机)和测定部14(毫米波雷达)之间的校准作为由信息处理装置100执行的信息处理的示例。然而,本公开并不特别限于该示例,并且由信息处理装置100进行的信息处理可以类似地应用于在相同类型的传感器之间进行校准的情况。
另外,在上述实施例中,期望的是,当进行校准时,车辆1行驶在行驶车道的中央附近。
另外,在上述实施例中,用于传感器之间的校准的特征点不一定是安装在目标车辆中用于校准的校准治具4,而且能提取使得能够校准的任何特征点足以。例如,特征点可以是车辆中的现有结构,比如尾灯。
此外,在上述实施例中,已经描述了信息处理装置100使用其他移动体(例如,目标车辆)的捕获图像进行校准(传感器之间的校准)的示例。由信息处理装置100进行的处理可以类似地应用于使用其他移动体(例如,目标车辆)的捕获图像对一个传感器进行校准的情况。
(2.其它实施例)
[2-1.其它传感器]
已经描述了根据上述实施例的信息处理装置100包括例如毫米波雷达作为测定部14的示例,但是本公开并不特别限于该示例。信息处理装置100可以包括读取主车辆的周围环境的三维结构的光检测和测距(激光成像检测和测距(LiDAR))。LiDAR通过用诸如红外激光束的激光束照射周围物体以及测量直到激光束被反射并返回的时间来检测与周围物体的距离和相对速度。信息处理装置100可以通过将由LiDAR获取的关于目标车辆的信息用作特征点来进行LiDAR之间的校准。
图5是示出由LiDAR进行检测的示例的图。如图5所示,例如,假定在车辆1上安装有两个LiDAR,即LiDAR_EX1和LiDAR_EX2。此时,安装在车辆1上的LiDAR_EX1检测表示作为目标车辆的车辆2的外形的检测点组PG1和PG2。类似地,安装在车辆1上的LiDAR_EX2检测表示作为目标车辆的车辆2的外形的检测点组PG11和PG21。
然后,信息处理装置100基于从这两个LiDAR、即LiDAR_EX1和LiDAR_EX2获取的信息进行LiDAR之间的校准。例如,信息处理装置100调整LiDAR的附接位置和附接角度,使得由检测点组PG1和PG2形成的两条直线L1和L2与由检测点组PG11和PG21形成的两条直线L11和L21彼此重叠。以这种方式,信息处理装置100可以基于由LiDAR获取的目标车辆信息来进行LiDAR之间的校准,而不需要额外特征点,诸如校准治具。
[2-2.移动体的配置]
此外,在上述实施例中,已经描述了信息处理装置100被安装在车辆(汽车)上的示例。然而,由信息处理装置100实现的信息处理可以由诸如进行自动驾驶的车辆(汽车)之类的移动体本身执行。在这种情况下,除了图2中所示的配置之外,信息处理装置100还可以具有以下配置。注意,以下描述的每个部可以包含在例如图2中所示的配置中。
即,根据本公开的实施例的信息处理装置100可以被配置为如下所述的移动体控制系统。图6是示出了根据本公开实施例的信息处理可以应用到的移动体控制系统的示意性功能的配置示例框图。
车辆控制系统200的自动驾驶控制部212,作为移动体控制系统的示例,对应于本实施例的信息处理装置100的控制部109。此外,自动驾驶控制部212的检出部231和自身位置推定部232对应于根据本实施例的信息处理装置100的控制部109的识别部193。另外,自动驾驶控制部212的状况解析部233对应于控制部109的识别部193。此外,自动驾驶控制部212的规划部234对应于控制部109的判定部194和执行部195。自动驾驶控制部212的操作控制部235对应于控制部109的判定部194和执行部195。此外,除了图6中示出的各块之外,自动驾驶控制部212还可以包括与控制部130的各个处理部相对应的块。
注意,在下文中,其中设置有车辆控制系统200的车辆被称为主车辆,以将其与其他车辆区分。
车辆控制系统200包括输入部201、数据获取部202、通信部203、车载装备204、输出控制部205、输出部206、驱动系统控制部207、驱动系统208、主体系统控制部209、主体系统210、存储部211和自动驾驶控制部212。输入部201、数据获取部202、通信部203、输出控制部205、驱动系统控制部207、主体系统控制部209、存储部211和自动驾驶控制部212经由通信网络221彼此连接。通信网络221的示例包括根据任何标准的车载通信网络、总线等,诸如控制器局域网(CAN)、局域互联网络(LIN)、局域网(LAN)或FlexRay(注册商标)。注意,车辆控制系统200的各个部件可以直接彼此连接,而不通过通信网络221。
注意,在下文中,当车辆控制系统200的各个部件经由通信网络221彼此进行通信时,将省略对通信网络221的描述。例如,在输入部201和自动驾驶控制部212经由通信网络221彼此进行通信的情况下,简单地描述为输入部201和自动驾驶控制部212彼此进行通信。
输入部201包括乘客用来输入各种数据、指令等的装置。例如,输入部201包括诸如触摸面板、按钮、麦克风、开关或操纵杆之类的操作装置,以及能够接收通过除了手动操作之外的方法,例如通过语音或手势,的输入的操作装置。此外,例如,输入部201可以是使用红外线或其它无线电波的遥控装置,或者是与车辆控制系统200的操作相对应的诸如移动装备或可穿戴装备的外部连接装备。输入部201基于乘客输入的数据、指令等产生输入信号,并将输入信号提供给车辆控制系统200的每个部件。
数据获取部202包括获取用于由车辆控制系统200进行的处理的数据的各种传感器等,并且将所获取的数据提供给车辆控制系统200的每个部件。
例如,数据获取部202包括用于检测主车辆的状态等的各种传感器。具体而言,例如,数据获取部202包括陀螺仪传感器、加速度传感器、惯性测定部(IMU)、用于检测加速器踏板操作量、制动踏板操作量、方向盘转向角以及引擎速度、电机旋转速度、车轮旋转速度等的传感器。
此外,例如,数据获取部202包括用于检测关于主车辆的外部的信息的各种传感器。具体而言,例如,数据获取部202包括成像装置,诸如飞行时间(ToF)相机、立体相机、单目相机、红外相机或其他相机。此外,例如,数据获取部202包括用于检测天气或气候的环境传感器,和用于检测主车辆周围的物体的周围信息检测传感器。环境传感器例如包括雨滴传感器、雾传感器、阳光传感器、雪传感器等。周围信息检测传感器例如包括超声波传感器、雷达、光检测和测距(激光成像检测和测距(LiDAR))、声纳等。
此外,例如,数据获取部202包括用于检测主车辆的当前位置的各种传感器。具体而言,例如,数据获取部202包括从全球导航卫星系统(GNSS)卫星接收GNSS信号的GNSS接收机等。
此外,例如,数据获取部202包括用于检测车辆内部的信息的各种传感器。具体而言,例如,数据获取部202包括捕获驾驶员图像的成像装置、检测驾驶员的生物信息的生物传感器、采集车厢内声音的麦克风等。生物传感器例如设置在座椅或方向盘的表面上,并检测坐在座椅上的乘客或握住方向盘的驾驶员的生物信息。
通信部203与车载装备204和车辆外部的各种装备、服务器、基站等进行通信,发送从车辆控制系统200的每个部件提供的数据,并将接收到的数据发送到车辆控制系统200的每个部件。注意,通信部203所支持的通信协议没有特别限制,并且通信部203可以支持多种类型的通信协议。
例如,通信部203通过使用无线LAN、蓝牙(注册商标)、近场通信(NFC)、无线USB(WUSB)等与车载装备204进行无线通信。此外,例如,通过使用通用串行总线(USB)、高清多媒体接口(HDMI)(注册商标)、移动高清链路(MHL)等,通信部203经由连接终端(未示出)(以及根据需要的电缆)与车载装备204进行有线通信。
此外,例如,通信部203经由基站或接入点与存在于外部网络(例如,因特网、云网络或企业运营商特有的网络)上的装备(例如,应用服务器或控制服务器)进行通信。此外,例如,通信部203使用对等(P2P)技术与存在于主车辆附近的终端(例如,行人、商店终端或机器类通信(MTC)终端)进行通信。另外,例如,通信部203进行V2X通信,例如车对车通信、车对基础设施通信、车对家通信、车对行人通信。此外,例如,通信部203包括信标接收部,接收从安装在道路上的无线站等发送的无线电波或电磁波,并获取诸如当前位置、交通堵塞、交通管制或所需时间的信息。
车载装备204例如包括乘客的移动装备或可穿戴装备、承载于或附接至主车辆的信息装备、以及用于搜索到任意目的地的路线的导航装置。
输出控制部205控制向主车辆的乘客或车辆外部输出各种信息。例如,输出控制部205生成包括视觉信息(例如,图像数据)和听觉信息(例如,音频数据)中的至少一种的输出信号,并将所生成的输出信号提供给输出部206,以控制视觉信息和听觉信息从输出部206的输出。具体而言,例如,输出控制部205组合由数据获取部202的不同成像装置捕获的图像数据,以生成鸟瞰视图、全景图像等,并且将包括所生成的图像的输出信号提供给输出部206。此外,例如,输出控制部205针对诸如碰撞、接触和进入危险区之类的危险生成包括警告声音、警告消息等的音频数据,并且将包括所生成的音频数据的输出信号提供给输出部206。
输出部206包括能够向主车辆的乘客或车辆外部输出视觉信息或听觉信息的装置。例如,输出部206包括显示装置、仪表板、扬声器、耳机、诸如乘客佩戴的眼镜型显示器的可穿戴装置、投影仪、灯等。除了具有正常显示的装置之外,输出部206中包括的显示装置还可以是在驾驶员的视野中显示视觉信息的装置,例如平视显示器、透射显示器和具有增强现实(AR)显示功能的装置。
驱动系统控制部207产生各种控制信号,并将产生的控制信号提供给驱动系统208,以控制驱动系统208。此外,驱动系统控制部207根据需要向除驱动系统208以外的每个部件提供控制信号,并进行驱动系统208的控制状态的通知等。
驱动系统208包括与主车辆的驱动系统相关的各种装置。例如,驱动系统208包括用于产生内燃机、驱动电机等的驱动力的驱动力产生装置、用于将驱动力传递到车轮的驱动力传递机构、用于调节转向角的转向机构、产生制动力的制动装置、防抱死制动系统(ABS)、电子稳定控制(ESC)、电动转向装置等。
主体系统控制部209产生各种控制信号,并将控制信号提供给主体系统210,以控制主体系统210。此外,主体系统控制部209根据需要向除主体系统210之外的每个部件提供控制信号,并进行主体系统210的控制状态的通知等。
主体系统210包括安装在车体上的主体系统的各种装置。例如,主体系统210包括无钥匙进入系统、智能钥匙系统、电动车窗装置、电动座椅、方向盘、空调装置、各种灯(例如,头灯、尾灯、刹车灯、转向指示灯和雾灯)等。
存储部211例如包括磁存储装置,诸如只读存储器(ROM)、随机存取存储器(RAM)或硬盘驱动器(HDD)、半导体存储装置、光存储装置、光磁存储装置等。存储部211存储由车辆控制系统200的每个部件使用的各种程序、数据等。例如,存储部211存储地图数据,例如,诸如动态地图的三维高精度地图、比高精度地图精度低并且覆盖范围广的全球地图、以及包括关于主车辆的周围的信息的本地地图。
自动驾驶控制部212进行与自动驾驶相关的控制,诸如自主驾驶或驾驶辅助。具体而言,例如,自动驾驶控制部212进行协作控制,以实现高级驾驶员辅助系统(ADAS)的功能,这些功能包括对主车辆的防碰撞或缓冲、基于车辆间距离的跟随驾驶、维持车辆速度的驾驶、主车辆碰撞的警告、主车辆偏离车道的警告等。此外,例如,自动驾驶控制部212进行以自动驾驶为目的的协作控制,其中主车辆自主行驶而不依赖于驾驶员的操作。自动驾驶控制部212包括检出部231、自身位置推定部232、状况解析部233、规划部234和操作控制部235。
检出部231检测控制自动驾驶所需的各种信息。检出部231包括车外信息检出部241、车内信息检出部242和车辆状态检出部243。
车外信息检出部241基于来自车辆控制系统200的每个部件的数据或信号,进行检测关于主车辆外部的信息的处理。例如,车外信息检出部241进行主车辆周围的物体的检测处理、识别处理、追踪处理、以及到该物体的距离的检测处理。待检测物体的示例,包括车辆、人、障碍物、建筑物、道路、信号灯、交通标识、路标等。此外,例如,车外信息检出部241进行检测主车辆的周围环境的处理。待检测的周围环境的示例,包括天气、温度、湿度、亮度、路面状态等。车外信息检出部241将表示检测处理结果的数据提供给自身位置推定部232、状况解析部233的地图解析部251、交通规则识别部252和状况识别部253、以及操作控制部235的紧急状况回避部271等。
车内信息检出部242基于来自车辆控制系统200的每个部件的数据或信号,进行检测关于车内的信息的处理。例如,车内信息检出部242进行驾驶员的认证处理和识别处理、检测驾驶员状态的处理、检测乘客的处理、检测车内环境的处理等。待检测的驾驶员状态的示例,包括身体状态、警觉度、集中度、疲劳度、视线方向等。待检测的车内环境的示例,包括温度、湿度、亮度、气味等。车内信息检出部242将表示检测处理的结果的数据提供给状况解析部233的状况识别部253、操作控制部235的紧急状况回避部271等。
车辆状态检出部243根据来自车辆控制系统200的每个部件的数据或信号,进行检测主车辆的状态的处理。待检测的主车辆的状态的示例,包括速度、加速度、转向角、异常的有无及内容、驾驶操作状态、电动座椅的位置/倾斜、门锁状态、其他车载装备的状态等。车辆状态检出部243将表示检测处理的结果的数据提供给状况解析部233的状况识别部253、操作控制部235的紧急状况回避部271等。
自身位置推定部232基于来自车外信息检出部241或状况解析部233的状况识别部253等车辆控制系统200的每个部件的数据或信号,进行推定主车辆的位置、姿态等的处理。另外,自身位置推定部232根据需要生成用于自身位置推定的本地地图(在下文中,被称为自身位置推定地图)。例如,自身位置推定地图是使用诸如同时定位和地图绘制(SLAM)之类的技术的高精度地图。自身位置推定部232将表示推定处理结果的数据提供给状况解析部233的地图解析部251、交通规则识别部252和状况识别部253等。此外,自身位置推定部232将自身位置推定图存储在存储部211中。
状况解析部233进行解析主车辆和周围状况的处理。状况解析部233包括地图解析部251、交通规则识别部252、状况识别部253和状况预测部254。
地图解析部251在根据需要使用来自自身位置推定部232和车外信息检出部241等车辆控制系统200的每个部件的数据或信号的同时,进行解析存储在存储部211中的各种地图的处理,以构建包含自动驾驶处理所需的信息的地图。地图解析部251将所构建的地图提供给例如交通规则识别部252、状况识别部253、状况预测部254、以及规划部234的路线规划部261、行动规划部262、操作规划部263。
交通规则识别部252基于来自自身位置推定部232、车外信息检出部241和地图解析部251等车辆控制系统200的每个部件的数据或信号,进行识别主车辆周围区域中的交通规则的处理。通过该识别处理,例如,识别出主车辆周围的信号的位置和状态、主车辆周围的区域中的交通规则的内容、车辆可以行驶的车道等。交通规则识别部252将表示识别处理的结果的数据提供给状况预测部254等。
状况识别部253基于来自自身位置推定部232、车外信息检出部241、车内信息检出部242、车辆状态检出部243和地图解析部251等车辆控制系统200的每个部件的数据或信号,进行主车辆的状况识别处理。例如,状况识别部253进行识别主车辆的状况、主车辆周围区域中的状况、主车辆的驾驶员的状况等的处理。另外,状况识别部253根据需要生成用于识别主车辆周围区域中的状况的本地地图(在下文中,被称为状况识别地图)。状况识别地图例如是占据栅格地图。
待识别的主车辆状况的示例,包括主车辆的位置、姿态和移动(例如速度、加速度、移动方向等),以及异常的有无和内容。待识别的主车辆周围区域中的状况的示例,包括主车辆周围区域的周围静止物体的种类和位置、周围移动物体的种类、位置和移动(例如速度、加速度、移动方向)、周围道路的构成、路面状态、天气、温度、湿度、亮度等。待识别的驾驶员的状态的示例,包括身体状态、警觉度、集中度、疲劳度、视线移动、驾驶操作等。
状况识别部253将表示识别处理的结果的数据(必要时包括状况识别地图)提供给自身位置推定部232、状况预测部254等。此外,状况识别部253将状况识别地图存储在存储部211中。
状况预测部254基于来自地图解析部251、交通规则识别部252和状况识别部253等车辆控制系统200的每个部件的数据或信号,对主车辆进行状况预测处理。例如,状况预测部254进行预测主车辆的状况、主车辆周围区域中的状况、驾驶员的状况等的处理。
待预测的主车辆的状况的示例,包括主车辆的举动、异常的发生、主车辆可以行驶的距离等。待预测的主车辆周围区域中的状况的示例,包括主车辆周围的移动物体的举动、信号状态的变化、诸如天气的环境变化等。待预测的驾驶员的状况的示例,包括驾驶员的举动、身体状况等。
状况预测部254将表示预测处理结果的数据与来自交通规则识别部252和状况识别部253的数据一起提供给规划部234的路线规划部261、行动规划部262和操作规划部263等。
路线规划部261基于来自地图解析部251和状况预测部254等车辆控制系统200的每个部件的数据或信号,规划到目的地的路线。例如,路线规划部261基于全局地图设定从当前位置到指定目的地的路线。此外,例如,路线规划部261基于交通堵塞、事故、交通管制、施工等状况,以及驾驶员的身体状况,适当地变更路线。路线规划部261将表示所规划的路线的数据提供给行动规划部262等。
行动规划部262基于来自地图解析部251和状况预测部254等车辆控制系统200的每个部件的数据或信号,规划在规划时间内沿着由路线规划部261规划的路线安全行驶的主车辆的行动。例如,行动规划部262规划出发、停止、行驶方向(例如,前进、后退、左转、右转、转弯等)、行驶车道、行驶速度、超车等。行动规划部262将表示所规划的主车辆的行动的数据提供给操作规划部263等。
操作规划部263基于来自地图解析部251和状况预测部254等车辆控制系统200的每个部件的数据或信号,规划用于实现由行动规划部262规划的行动的主车辆的操作。例如,操作规划部263规划加速、减速、行驶轨迹等。操作规划部263将表示主车辆的规划操作的数据提供给操作控制部235的加减速控制部272和方向控制部273。
操作控制部235控制主车辆的操作。操作控制部235包括紧急状况回避部271、加减速控制部272、以及方向控制部273。
紧急状况回避部271基于车外信息检出部241、车内信息检出部242以及车辆状态检出部243的检测结果,进行检测碰撞、接触、进入危险区域、驾驶员异常、车辆异常等紧急状况的处理。当检测到发生紧急状况时,紧急状况回避部271规划主车辆的操作以回避急停或急转弯等紧急状况。紧急状况回避部271将表示主车辆的规划操作的数据提供给加减速控制部272、方向控制部273等。
加减速控制部272进行用于实现由操作规划部263或紧急状况回避部271规划的主车辆操作的加减速控制。例如,加减速控制部272计算用于实现所规划的加速、减速或急停的驱动力产生装置或制动装置的目标控制值,并将表示计算出的目标控制值的控制指令提供给驱动系统控制部207。
方向控制部273进行用于实现由操作规划部263或紧急状况回避部271规划的主车辆的操作的方向控制。例如,方向控制部273计算用于实现由操作规划部263或紧急状况回避部271规划的行驶轨迹或急转弯的转向机构的目标控制值,并将表示计算出的目标控制值的控制指令提供给驱动系统控制部207。
[2-3.其他]
此外,在上述实施例中所描述的各个处理中,描述为自动进行的所有或部分处理可以手动进行。或者,描述为手动进行的所有或部分处理可以通过已知方法自动进行。另外,除非另有说明,说明书和附图中示出的处理过程、具体名称、包括各种数据和参数的信息可以任意改变。例如,在每个附图中示出的各种信息不限于示出的信息。
此外,每个装置的每个图示部件在功能上是概念性的,并且不必一定如附图中所示在物理上进行配置。即,各个装置的分布/整合的具体模式不限于附图中所示的模式。根据各种负载或使用状态,所有或部分装置可以在功能上或物理上分布/整合在任意部中。例如,图2中所示的判定部194和执行部195可以在功能上或物理上整合。此外,图2所示的控制部109中所包括的各个部(提供部191、获取部192、识别部193、判定部194和执行部195)可以在功能上或物理上被整合为一个部。此外,由本公开的信息处理装置100进行的信息处理可以由管理装置3进行。
另外,上述实施例和修改示例可以进行适当地组合,只要处理内容不相互矛盾即可。此外,在上述实施例中,汽车为移动体的示例,但是由本公开的信息处理装置100进行的信息处理也可以应用于除了汽车之外的移动体。例如,移动体可以是诸如摩托车或机动三轮车的小型车辆、诸如公共汽车或卡车的大型车辆、或诸如机器人或无人机的自主移动体。此外,信息处理装置100不一定与移动体整合,而可以是经由网络N从移动体获取信息并基于所获取的信息进行信息处理的云服务器等。
此外,本说明书中描述的每个实施例中的效果仅仅是示例。本公开的效果不限于此,并且可以获得其他效果。
(3.根据本公开的信息处理装置的效果)
如上所述,根据本公开的信息处理装置(本实施例中的信息处理装置100)包括校准执行部(本实施例中的执行部195)。校准执行部在两个或更多个传感器(在本实施例中为成像部13和测定部14)之间进行校准,这些传感器被附接在不同位置处并且其视野区域至少部分地彼此重叠。此外,在两个或更多个传感器的视野彼此重叠的区域中可以获取使得能够校准这两个或更多个传感器中的每一个的特征点的情况下,校准执行部在传感器之间进行校准。
如上所述,在两个或更多个传感器的视野彼此重叠的区域中可以获取使得能够校准这两个或更多个传感器中的每一个的特征点的情况下,根据本公开的信息处理装置在传感器之间进行校准。由此,根据本公开的信息处理装置即使对于没有地图信息的区域也可以进行校准,而不受环境变化的影响。
这两个或更多个传感器是附接到车辆的传感器。由此,根据本公开的信息处理装置即使对于没有地图信息的区域也能够在安装在车辆上的传感器之间进行校准,而不受环境变化的影响。
这两个或更多个传感器中的至少一个是相机。然后,校准执行部识别由相机捕获的图像,并且在捕获的图像中获取使得能够校准相机和除相机之外的传感器中的每一个的特征点。由此,根据本公开的信息处理装置可以在传感器之间进行校准。
此外,在具有使得能够校准两个或更多个传感器中的每一个的特征点的特定物体存在于这两个或更多个传感器的视野彼此重叠的区域中的情况下,校准执行部进行传感器之间的校准。由此,根据本公开的信息处理装置可以从特定物体获取传感器之间的校准所需的特征点。
另外,具有使得能够进行校准的特征点的特定物体是其它车辆。由此,根据本公开的信息处理装置可以从其他车辆获取传感器之间的校准所需的特征点。
此外,根据本公开的信息处理装置通过车对车通信,接收关于在主车辆周围的可获取范围内是否存在具有使得能够在两个或更多个传感器之间进行校准的特征点的其他车辆的信息。由此,根据本公开的信息处理装置可以通过车对车通信迅速掌握其他车辆的位置。
此外,根据本公开的信息处理装置通过V2X通信接收关于在主车辆周围的可获取范围内是否存在具有使得能够在两个或更多个传感器之间进行校准的特征点的其他车辆的信息。由此,通过V2X通信可以迅速掌握其他车辆的位置。
此外,根据本公开的信息处理装置接收具有使得能够进行校准的特征点的其他车辆的位置信息。由此,根据本公开的信息处理装置可以掌握主车辆和其他车辆之间的位置关系。
此外,根据本公开的信息处理装置接收具有使得能够进行校准的特征点的其他车辆的姿态信息。由此,根据本公开的信息处理装置可以掌握特征点是否可以从其他车辆获取。
此外,根据本公开的信息处理装置还包括判定部(本实施例中的判定部194)。判定部获取两个或更多个传感器或两个或更多个传感器所附接的车辆的位置信息和姿态信息,以及具有使得能够校准这两个或更多个传感器中的每一个的特征点的特定物体的位置信息和姿态信息。然后,判定部判定使得能够校准这两个或更多个传感器中的每一个的该特征点是否处于可获取状态。由此,根据本公开的信息处理装置可以准确地判定特征点是否可以从特定物体获取。
另外,传感器是相机,并且具有使得能够进行校准的特征点的特定物体是安装在其他车辆中的棋盘格。由此,根据本公开的信息处理装置可以轻易地获取用于该相机的校准的特征点。
另外,传感器是毫米波雷达,并且具有使得能够进行校准的特征点的特定物体是安装在其他车辆中的角反射器。由此,根据本公开的信息处理装置可以轻易地获取用于该毫米波雷达的校准的特征点。
(4.硬件配置)
通过例如具有如图7所示的配置的计算机1000来实现由根据上述每个实施例的信息处理装置100进行的信息处理。在下文中,根据本公开的实施例的信息处理装置100将作为示例进行描述。图7是示出实现本公开的信息处理装置100的功能的计算机1000的示例的硬件配置图。计算机1000包括CPU 1100、RAM 1200、只读存储器(ROM)1300、硬盘驱动器(HDD)1400、通信接口1500和输入/输出接口1600。计算机1000的每个部件通过总线1050连接。
CPU 1100是基于存储在ROM 1300或HDD 1400中的程序操作的,并控制每个部件。例如,CPU 1100将存储在ROM 1300或HDD 1400中的程序加载到RAM 1200上,并进行与各种程序相对应的处理。
ROM 1300存储诸如在计算机1000启动时由CPU 1100执行的基本输入输出系统(BIOS)的引导程序、依赖于计算机1000的硬件的程序等。
HDD 1400是计算机1000可读的记录介质,其中非临时地记录了由CPU 1100执行的程序、该程序使用的数据等。具体而言,HDD 1400是记录介质,其中记录有例如用于实现图3所示的天线切换过程的程序。
通信接口1500是用于计算机1000连接到外部网络1550(例如,因特网)的接口。例如,CPU 1100经由通信接口1500从其他装备接收数据或者将由CPU 1100生成的数据发送到其他装备。
输入/输出接口1600是用于将输入/输出装置1650和计算机1000彼此连接的接口。例如,CPU 1100经由输入/输出接口1600从键盘或鼠标等输入装置接收数据。此外,CPU1100经由输入/输出接口1600将数据发送到显示器、扬声器或打印机等输出装置。此外,输入/输出接口1600可以用作用于读取记录在预定记录介质中的程序等的介质接口。介质的示例包括诸如数字通用盘(DVD)或相变可重写盘(PD)的光学记录介质、诸如磁光盘(MO)的磁光记录介质、磁带介质、磁记录介质和半导体存储器。
例如,在计算机1000用作根据第一实施例的接收装置10的情况下,计算机1000的CPU 1100执行加载在RAM 1200上的程序(诸如用于实现本公开的信息处理的程序)。由此,实现了诸如由信息处理装置100的控制部109进行的各种类型的处理的功能。另外,HDD1400存储用于实现本公开的信息处理的程序、存储在存储部111中的数据等。注意,CPU1100从HDD 1400读取程序数据1450并执行程序数据1450,但是作为另一示例,这些程序可以经由外部网络1550从其他装置获取。
注意,本技术也可以具有以下配置。
(1)
一种信息处理装置,包括:
校准执行部,所述校准执行部在两个或更多个传感器之间进行校准,所述两个或更多个传感器被附接在不同位置处并且其视野区域至少部分地彼此重叠,
其中,在所述两个或更多个传感器的视野彼此重叠的区域中,使得能够进行所述两个或更多个传感器中的每一个传感器的校准的特征点是可获取的情况下,所述校准执行部在传感器之间进行校准。
(2)
根据(1)所述的信息处理装置,其中所述两个或更多个传感器是被附接到车辆的传感器。
(3)
根据(2)所述的信息处理装置,还包括:
获取部,所述获取部获取关于具有使得能够进行所述两个或更多个传感器之间的校准的特征点的特定物体是否存在于所述车辆周围的可获取范围内的信息;以及
判定部,在所述特定物体存在于所述车辆周围的可获取范围内的情况下,所述判定部判定在所述两个或更多个传感器的视野彼此重叠的区域中,特征点是否从所述特定物体可获取,
其中,在具有使得能够进行所述两个或更多个传感器中的每一个传感器的校准的特征点的所述特定物体存在于所述两个或更多个传感器的视野彼此重叠的区域中的情况下,所述判定部判定特征点是否从所述特定物体可获取,以及
在所述判定部判定特征点是可获取的情况下,所述校准执行部获取特征点。
(4)
根据(3)所述的信息处理装置,
其中,所述两个或更多个传感器中的至少一个传感器是相机,以及
所述校准执行部识别由所述相机捕获的图像,并在所捕获的图像中获取使得能够进行所述相机和除所述相机之外的传感器中的每一个传感器的校准的特征点。
(5)
根据(3)所述的信息处理装置,
其中,所述获取部通过V2X通信接收关于所述特定物体是否存在于所述车辆周围的可获取范围内的信息。
(6)
根据(3)所述的信息处理装置,
其中,所述获取部通过车对车通信接收关于所述特定物体是否存在于所述车辆周围的可获取范围内的信息。
(7)
根据(3)所述的信息处理装置,
其中,所述获取部接收所述特定物体的位置信息和姿态信息,以及
所述判定部基于所述两个或更多个传感器或所述两个或更多个传感器所附接到的所述车辆的位置信息和姿态信息、以及具有使得能够进行所述两个或更多个传感器中的每一个传感器的校准的特征点的所述特定物体的位置信息和姿态信息,判定特征点是否从所述特定物体可获取。
(8)
根据(3)所述的信息处理装置,
其中,所述两个或更多个传感器中的至少一个传感器是相机,以及
所述特定物体是安装在其他车辆中的棋盘格。
(9)
根据(3)所述的信息处理装置,
其中,所述两个或更多个传感器中的至少一个传感器是毫米波雷达,以及
所述特定物体是安装在其他车辆中的角反射器。
(10)
根据(3)所述的信息处理装置,
其中,所述特定物体是其他车辆。
(11)
一种由计算机执行的信息处理方法,所述信息处理方法包括:
在被附接在不同位置处并且其视野区域至少部分地彼此重叠的两个或更多个传感器的视野彼此重叠的区域中,使得能够进行所述两个或更多个传感器中的每一个传感器的校准的特征点是可获取的情况下,在所述两个或更多个传感器之间进行校准。
(12)
一种信息处理程序,使计算机:
在被附接在不同位置处并且其视野区域至少部分地彼此重叠的两个或更多个传感器的视野彼此重叠的区域中,使得能够进行所述两个或更多个传感器中的每一个传感器的校准的特征点是可获取的情况下,在所述两个或更多个传感器之间进行校准。
参考标记列表
1,2 车辆
3 管理装置
12 接收部
13 成像部
14 测定部
15 检出部
100 信息处理装置
101 通信部
103 输入部
105 输出部
107 存储部
109 控制部
191 提供部
192获取部
193 识别部
194 判定部
195 执行部

Claims (12)

1.一种信息处理装置,包括:
校准执行部,所述校准执行部在两个或更多个传感器之间进行校准,所述两个或更多个传感器被附接在不同位置处并且其视野区域至少部分地彼此重叠,
其中,在所述两个或更多个传感器的视野彼此重叠的区域中,使得能够进行所述两个或更多个传感器中的每一个传感器的校准的特征点是可获取的情况下,所述校准执行部在传感器之间进行校准。
2.根据权利要求1所述的信息处理装置,其中所述两个或更多个传感器是被附接到车辆的传感器。
3.根据权利要求2所述的信息处理装置,还包括:
获取部,所述获取部获取关于具有使得能够进行所述两个或更多个传感器之间的校准的特征点的特定物体是否存在于所述车辆周围的可获取范围内的信息;以及
判定部,在所述特定物体存在于所述车辆周围的可获取范围内的情况下,所述判定部判定在所述两个或更多个传感器的视野彼此重叠的区域中,特征点是否从所述特定物体可获取,
其中,在具有使得能够进行所述两个或更多个传感器中的每一个传感器的校准的特征点的所述特定物体存在于所述两个或更多个传感器的视野彼此重叠的区域中的情况下,所述判定部判定特征点是否从所述特定物体可获取,以及
在所述判定部判定特征点是可获取的情况下,所述校准执行部获取特征点。
4.根据权利要求3所述的信息处理装置,
其中,所述两个或更多个传感器中的至少一个传感器是相机,以及
所述校准执行部识别由所述相机捕获的图像,并在所捕获的图像中获取使得能够进行所述相机和除所述相机之外的传感器中的每一个传感器的校准的特征点。
5.根据权利要求3所述的信息处理装置,其中,所述获取部通过V2X通信接收关于所述特定物体是否存在于所述车辆周围的可获取范围内的信息。
6.根据权利要求3所述的信息处理装置,其中,所述获取部通过车对车通信接收关于所述特定物体是否存在于所述车辆周围的可获取范围内的信息。
7.根据权利要求3所述的信息处理装置,
其中,所述获取部接收所述特定物体的位置信息和姿态信息,以及
所述判定部基于所述两个或更多个传感器或所述两个或更多个传感器所附接到的所述车辆的位置信息和姿态信息、以及具有使得能够进行所述两个或更多个传感器中的每一个传感器的校准的特征点的所述特定物体的位置信息和姿态信息,判定特征点是否从所述特定物体可获取。
8.根据权利要求3所述的信息处理装置,
其中,所述两个或更多个传感器中的至少一个传感器是相机,以及
所述特定物体是安装在其他车辆中的棋盘格。
9.根据权利要求3所述的信息处理装置,
其中,所述两个或更多个传感器中的至少一个传感器是毫米波雷达,以及
所述特定物体是安装在其他车辆中的角反射器。
10.根据权利要求3所述的信息处理装置,
其中,所述特定物体是其他车辆。
11.一种由计算机执行的信息处理方法,所述信息处理方法包括:
在被附接在不同位置处并且其视野区域至少部分地彼此重叠的两个或更多个传感器的视野彼此重叠的区域中,使得能够进行所述两个或更多个传感器中的每一个传感器的校准的特征点是可获取的情况下,在所述两个或更多个传感器之间进行校准。
12.一种信息处理程序,使计算机:
在被附接在不同位置处并且其视野区域至少部分地彼此重叠的两个或更多个传感器的视野彼此重叠的区域中,使得能够进行所述两个或更多个传感器中的每一个传感器的校准的特征点是可获取的情况下,在所述两个或更多个传感器之间进行校准。
CN202080025980.4A 2019-04-04 2020-03-26 信息处理装置、信息处理方法和信息处理程序 Pending CN113692521A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019072280 2019-04-04
JP2019-072280 2019-04-04
PCT/JP2020/013699 WO2020203657A1 (ja) 2019-04-04 2020-03-26 情報処理装置、情報処理方法、及び情報処理プログラム

Publications (1)

Publication Number Publication Date
CN113692521A true CN113692521A (zh) 2021-11-23

Family

ID=72668349

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080025980.4A Pending CN113692521A (zh) 2019-04-04 2020-03-26 信息处理装置、信息处理方法和信息处理程序

Country Status (3)

Country Link
US (1) US11915452B2 (zh)
CN (1) CN113692521A (zh)
WO (1) WO2020203657A1 (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210215506A1 (en) * 2020-01-13 2021-07-15 Toyota Motor North America, Inc. Vehicle sensor self-calibration via test vehicles
CN112763995B (zh) * 2020-12-24 2023-09-01 阿波罗智联(北京)科技有限公司 雷达标定方法、装置、电子设备和路侧设备
WO2022196195A1 (ja) * 2021-03-16 2022-09-22 株式会社デンソー 測距制御装置、測距制御方法、測距制御プログラム、および測距装置
JP7396379B2 (ja) 2021-03-16 2023-12-12 株式会社デンソー 測距制御装置、測距制御方法、測距制御プログラム、および測距装置
JP2022181125A (ja) * 2021-05-25 2022-12-07 ソニーグループ株式会社 情報処理装置、キャリブレーションシステム及び情報処理方法
US20230271619A1 (en) * 2022-02-28 2023-08-31 Gm Cruise Holdings Llc Retroflector on autonomous vehicles for automated buddy camera, light detecting and ranging, and radio detection and ranging calibration
JP2024003531A (ja) * 2022-06-27 2024-01-15 株式会社Jvcケンウッド マップ生成装置およびマップ生成方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100076708A1 (en) * 2008-09-19 2010-03-25 Caterpillar Inc. Machine sensor calibration system
JP2010249613A (ja) * 2009-04-14 2010-11-04 Toyota Motor Corp 障害物認識装置及び車両制御装置
CN105387873A (zh) * 2014-08-28 2016-03-09 通用汽车环球科技运作有限责任公司 使用地图信息的传感器补偿校准
US20160245899A1 (en) * 2016-04-29 2016-08-25 Caterpillar Inc. Sensor calibration system
JP2017211877A (ja) * 2016-05-26 2017-11-30 株式会社東芝 情報処理装置および情報処理方法
JP2018096715A (ja) * 2016-12-08 2018-06-21 トヨタ自動車株式会社 車載センサキャリブレーションシステム
CN108779984A (zh) * 2016-03-16 2018-11-09 索尼公司 信号处理设备和信号处理方法
CN109215083A (zh) * 2017-07-06 2019-01-15 华为技术有限公司 车载传感器的外部参数标定的方法和设备
JP2019015606A (ja) * 2017-07-06 2019-01-31 本田技研工業株式会社 情報処理方法及び情報処理装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013074604A2 (en) 2011-11-15 2013-05-23 Magna Electronics, Inc. Calibration system and method for vehicular surround vision system
US11415683B2 (en) * 2017-12-28 2022-08-16 Lyft, Inc. Mobile sensor calibration

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100076708A1 (en) * 2008-09-19 2010-03-25 Caterpillar Inc. Machine sensor calibration system
JP2010249613A (ja) * 2009-04-14 2010-11-04 Toyota Motor Corp 障害物認識装置及び車両制御装置
CN105387873A (zh) * 2014-08-28 2016-03-09 通用汽车环球科技运作有限责任公司 使用地图信息的传感器补偿校准
CN108779984A (zh) * 2016-03-16 2018-11-09 索尼公司 信号处理设备和信号处理方法
US20160245899A1 (en) * 2016-04-29 2016-08-25 Caterpillar Inc. Sensor calibration system
JP2017211877A (ja) * 2016-05-26 2017-11-30 株式会社東芝 情報処理装置および情報処理方法
US20170341661A1 (en) * 2016-05-26 2017-11-30 Kabushiki Kaisha Toshiba Information processing apparatus, information processing method, and computer program product
JP2018096715A (ja) * 2016-12-08 2018-06-21 トヨタ自動車株式会社 車載センサキャリブレーションシステム
CN109215083A (zh) * 2017-07-06 2019-01-15 华为技术有限公司 车载传感器的外部参数标定的方法和设备
JP2019015606A (ja) * 2017-07-06 2019-01-31 本田技研工業株式会社 情報処理方法及び情報処理装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LI, J (LI, JING): "Obstacle Information Detection Based on Fusion of 3D LADAR and Camera", PROCEEDINGS OF THE 36TH CHINESE CONTROL CONFERENCE, 5 June 2018 (2018-06-05) *
王战古;邵金菊;高松;孙亮;于杰;谭德荣;: "基于多传感器融合的前方车辆识别方法研究", 广西大学学报(自然科学版), no. 02, 25 April 2017 (2017-04-25) *

Also Published As

Publication number Publication date
US11915452B2 (en) 2024-02-27
WO2020203657A1 (ja) 2020-10-08
US20220180561A1 (en) 2022-06-09

Similar Documents

Publication Publication Date Title
US11915452B2 (en) Information processing device and information processing method
US20200241549A1 (en) Information processing apparatus, moving apparatus, and method, and program
US11100675B2 (en) Information processing apparatus, information processing method, program, and moving body
US11501461B2 (en) Controller, control method, and program
US20210097707A1 (en) Information processing device, movement device, and method, and program
WO2019098002A1 (ja) 情報処理装置、情報処理方法、プログラム、及び移動体
US11959999B2 (en) Information processing device, information processing method, computer program, and mobile device
EP3835823B1 (en) Information processing device, information processing method, computer program, information processing system, and moving body device
US20220017093A1 (en) Vehicle control device, vehicle control method, program, and vehicle
US20200191975A1 (en) Information processing apparatus, self-position estimation method, and program
WO2019078010A1 (ja) 情報処理装置、情報処理方法、移動体、及び、車両
US20200230820A1 (en) Information processing apparatus, self-localization method, program, and mobile body
US20220185278A1 (en) Information processing apparatus, information processing method, movement control apparatus, and movement control method
US11366237B2 (en) Mobile object, positioning system, positioning program, and positioning method
CN114026436A (zh) 图像处理装置、图像处理方法和程序
US20200357284A1 (en) Information processing apparatus and information processing method
WO2020129656A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
US20210295563A1 (en) Image processing apparatus, image processing method, and program
JP2023122597A (ja) 情報処理装置、情報処理方法及びプログラム
US20240012108A1 (en) Information processing apparatus, information processing method, and program
US20230119187A1 (en) Circuitry and method
US20240142607A1 (en) Information processing device, information processing method, computer program, and mobile device
WO2020116204A1 (ja) 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination