CN115047865A - 驾驶支援装置、驾驶支援方法以及驾驶支援系统 - Google Patents

驾驶支援装置、驾驶支援方法以及驾驶支援系统 Download PDF

Info

Publication number
CN115047865A
CN115047865A CN202210170264.6A CN202210170264A CN115047865A CN 115047865 A CN115047865 A CN 115047865A CN 202210170264 A CN202210170264 A CN 202210170264A CN 115047865 A CN115047865 A CN 115047865A
Authority
CN
China
Prior art keywords
height
plan
view
driving support
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210170264.6A
Other languages
English (en)
Inventor
兵头章彦
刘航
坂庭秀纪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of CN115047865A publication Critical patent/CN115047865A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • G05D1/0282Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal generated in a local control room
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/21Collision detection, intersection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/008Cut plane or projection plane definition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Abstract

提供一种驾驶支援装置、驾驶支援方法以及驾驶支援系统,还能利用于不具备传感器的移动体,在抑制移动体侧的处理负荷的同时支援移动体的驾驶。驾驶支援装置包括:存储部,至少储存表示移动区域的三维模型;输入部,能从设置于移动区域的传感器群接收表示作为移动体的高度的第1高度的第1高度信息和表示作为相对于移动体而满足预定的距离基准的物体的高度的第2高度的第2高度信息;抽出部,根据第1高度信息从三维模型抽出第1平面图,根据第2高度信息从三维模型抽出第2平面图;生成部,通过结合第1平面图和第2平面图,生成用于二维地表示移动区域并对移动体的驾驶进行支援的结合地图;及输出部,能将生成的结合地图发送给移动体。

Description

驾驶支援装置、驾驶支援方法以及驾驶支援系统
技术领域
本公开涉及驾驶支援装置、驾驶支援方法以及驾驶支援系统。
背景技术
近年来,自动驾驶的关联技术逐渐登场。并且,越发期望移动体的自动驾驶功能的高性能化。即便在自动驾驶功能中,移动体的安全性也成为最重要的性能之一。
为了使电动轮椅、移动机器人等移动体在移动区域中高效地移动,需要高精度地判定移动体和障碍物的干扰。如果能够高精度地判定移动体和障碍物的干扰,则移动体能够通过障碍物的附近,其结果,移动体能够在移动区域中自由地移动。
以往,提出了用于判定移动体和障碍物的干扰的各种技术。
作为判定移动体和障碍物的干扰的手段之一,有日本特开2014-56506号公报(专利文献1)。在专利文献1中,记载有“障碍物检测装置具有:移动体形状存储部48,存储移动体的形状;障碍物存储部46,存储处于移动区域内的障碍物的位置和形状;以及干扰判定部38,根据移动体的位置信息、存储于移动体形状存储部的移动体的形状、以及存储于障碍物存储部的障碍物的位置和形状,判定移动体和障碍物的干扰。移动体形状存储部关于将移动体在高度方向上分割为多个层时的各层,存储有其层中的移动体的形状。障碍物存储部关于多个层的各层,存储有存储其层中的障碍物的位置和形状的二维地图。干扰判定部关于多个层的各层,使用其层中的移动体的形状和其层中的障碍物的二维地图,判定移动体和障碍物的干扰”这样的技术。
现有技术文献
专利文献1:日本特开2014-56506号公报
发明内容
在专利文献1中,具备对直至处于移动区域内的障碍物为止的距离进行测量的三维扫描型的距离传感器等的移动体根据由距离传感器取得的测量数据,制作表示移动区域内的障碍物的位置和形状的二维地图,之后,使用制作的二维地图来判定移动体和障碍物的干扰。
但是,在专利文献1中,移动体需要具备在障碍物的检测中使用的各种传感器,所以移动体的成本变高,而且由于通过计算资源受限的本地设备进行移动体和障碍物的干扰判定,所以干扰判定的精度受到限定。
因此,期望还能够利用于不具备传感器的移动体、并在抑制移动体侧的处理的负荷的同时对移动体的驾驶进行支援的驾驶支援手段。
因此,本公开的目的在于,提供一种还能够利用于不具备传感器的移动体、并在抑制移动体侧的处理的负荷的同时对移动体的驾驶进行支援的驾驶支援手段。
为了解决上述课题,代表性的本发明的一种驾驶支援装置是用于支援在移动区域内移动的移动体的驾驶的驾驶支援装置,包括:存储部,至少储存表示所述移动区域的三维模型;输入部,能够从设置于所述移动区域的传感器群接收表示作为所述移动体的高度的第1高度的第1高度信息以及表示作为相对于所述移动体而满足预定的距离基准的物体的高度的第2高度的第2高度信息;抽出部,根据所述第1高度信息从所述三维模型抽出第1平面图,根据所述第2高度信息从所述三维模型抽出第2平面图;生成部,通过结合所述第1平面图和所述第2平面图,生成用于二维地表示所述移动区域并对所述移动体的驾驶进行支援的结合地图;以及输出部,能够将生成的所述结合地图发送给所述移动体。
根据本公开,可提供还能够利用于不具备传感器的移动体、并在抑制移动体侧的处理的负荷的同时对移动体的驾驶进行支援的驾驶支援手段。
上述以外的课题、结构以及效果通过以下的具体实施方式中的说明而会变得清楚。
附图说明
图1是示出用于实施本公开的实施例的计算机系统的图。
图2是示出本公开的实施方式所涉及的驾驶支援系统的结构的一个例子的图。
图3是示出本公开的实施方式所涉及的驾驶支援系统的驾驶支援方法的流程的一个例子的图。
图4是示出本公开的实施方式所涉及的驾驶支援系统中的数据的流动的一个例子的图。
图5是示出本公开的实施方式所涉及的驾驶支援系统的使用例的图。
图6是示出本公开的实施方式所涉及的三维模型的一个例子的图。
图7是示出本公开的实施方式所涉及的从三维模型抽出平面图的处理的具体例的图。
图8是示出本公开的实施方式所涉及的从三维模型抽出的平面图的具体例的图。
图9是示出本公开的实施方式所涉及的通过结合平面图而得到的结合地图的具体例的图。
图10是示出本公开的实施方式所涉及的反映了风险要素的结合地图的一个例子的图。
图11是示出本公开的实施方式所涉及的用于避开风险要素的风险避免指示的一个例子的图。
(符号说明)
200:驾驶支援系统;210:传感器群;220:移动体;230:通信网络;240:驾驶支援装置;242:输入部;244:抽出部;246:生成部;248:解析部;250:输出部;252:存储部。
具体实施方式
以下,参照附图,说明本发明的实施方式。此外,本发明不限定于本实施方式。另外,在附图的记载中,对同一部分附加同一符号来示出。
首先,参照图1,说明用于实施本公开的实施方式的计算机系统100。在本说明书中公开的各种实施方式的机构以及装置也可以应用于任意的适合的计算系统。计算机系统100的主要组件包括1个以上的处理器102、存储器104、终端接口112、存储设备接口113、I/O(输入输出)设备接口114以及网络接口115。这些组件也可以经由存储器总线106、I/O总线108、总线接口部件109以及I/O总线接口部件110而相互连接。
计算机系统100也可以包括总称为处理器102的一个或者多个通用可编程中央处理装置(CPU)102A以及102B。在某个实施方式中,计算机系统100也可以具备多个处理器,另外在另一实施方式中,计算机系统100还可以是单一的CPU系统。各处理器102也可以执行储存于存储器104的命令,并包括板载高速缓存(Onboard cache)。
在某个实施方式中,存储器104也可以包括用于存储数据以及程序的随机存取半导体存储器、存储装置、或者存储介质(易失性或非易失性)。存储器104也可以储存实施在本说明书中说明的功能的程序、模块以及数据构造的全部或者一部分。例如,存储器104也可以储存驾驶支援应用150。在某个实施方式中,驾驶支援应用150也可以包括在处理器102上执行后述的功能的命令或者描述。
在某个实施方式中,也可以代替以处理器为基础的系统或者除了以处理器为基础的系统以外,经由半导体设备、芯片、逻辑门、电路、电路卡和/或其它物理硬件设备而用硬件来实施驾驶支援应用150。在某个实施方式中,驾驶支援应用150也可以包括命令或者描述以外的数据。在某个实施方式中,也可以以与总线接口部件109、处理器102或者计算机系统100的其它硬件直接进行通信的方式提供相机、传感器或者其它数据输入设备(未图示)。
计算机系统100也可以包括处理器102、存储器104、显示系统124、以及进行I/O总线接口部件110间的通信的总线接口部件109。I/O总线接口部件110也可以连结于用于与各种I/O部件之间传送数据的I/O总线108。I/O总线接口部件110也可以经由I/O总线108而与还作为I/O处理器(IOP)或者I/O适配器(IOA)被知晓的多个I/O接口部件112、113、114以及115进行通信。
显示系统124也可以包括显示控制器、显示存储器、或者这两者。显示控制器能够将视频、音频、或者这两者的数据提供给显示装置126。另外,计算机系统100也可以包括以收集数据并对处理器102提供该数据的方式构成的1个或者多个传感器等设备。
例如,计算机系统100也可以包括收集心率数据、应激反应水平数据等的生物测定传感器、收集湿度数据、温度数据、压力数据等的环境传感器、以及收集加速度数据、运动数据等的运动传感器等。还能够使用这以外的类型的传感器。显示系统124也可以连接于单独的显示器画面、电视机、平板或者便携型设备等的显示装置126。
I/O接口部件具备与各种存储设备或者I/O设备进行通信的功能。例如,终端接口部件112能够安装如视频显示装置、扬声器电视机(Speaker TV)等用户输出设备、键盘、鼠标、小键盘、触摸板、跟踪球、按钮、光笔(light pen)、或者其它指示设备等用户输入设备那样的用户I/O设备116。用户也可以通过使用用户接口来操作用户输入设备,从而针对用户I/O设备116以及计算机系统100输入输入数据、指示,并接受来自计算机系统100的输出数据。关于用户接口,例如也可以经由用户I/O设备116显示于显示装置、或者通过扬声器来再现、或者经由打印机来印刷。
存储设备接口113能够安装一个或者多个盘驱动器、直接存取存储设备装置117(通常是磁盘驱动器存储设备装置,但也可以是以可视作单一的盘驱动器的方式构成的盘驱动器的阵列或者其它存储设备装置)。在某个实施方式中,也可以将存储设备装置117作为任意的二次存储装置来安装。存储器104的内容也可以存储到存储设备装置117,并根据需要而从存储设备装置117读出。I/O设备接口114也可以提供针对打印机、传真机等其它I/O设备的接口。网络接口115也可以以使计算机系统100和其它设备能够相互通信的方式提供通信路径。该通信路径例如也可以是网络130。
在某个实施方式中,计算机系统100也可以是多用户主机计算机系统(multi-usermainframe computer system)、单用户系统或者服务器计算机等不具有直接用户接口的、接收来自其它计算机系统(客户端)的请求的设备。在其它实施方式中,计算机系统100也可以是台式计算机、便携型计算机、笔记本个人电脑、平板计算机、袖珍计算机(pocketcomputer)、电话、智能手机、或者任意的其它适合的电子设备。
接下来,参照图2,说明本公开的实施方式所涉及的驾驶支援系统的结构。
图2是示出本公开的实施方式所涉及的驾驶支援系统200的结构的一个例子的图。如图2所示,本公开的实施方式所涉及的驾驶支援系统200包括传感器群210、移动体220、通信网络230以及驾驶支援装置240。另外,传感器群210、移动体220以及驾驶支援装置240经由通信网络230相互连接。
此处的通信网络230也可以包括例如因特网、LAN(Local Area Network,局域网)、MAN(Metropolitan Area Network,城域网)、WAN(Wide Area Network,广域网)等。
传感器群210是以设置于移动体220移动的移动区域内并取得与移动体220、移动区域有关的传感器数据的方式构成的传感器装置。传感器群210也可以包括例如取得移动体、移动区域的影像的相机、取得存在于移动区域内的物体的尺寸(高度、宽度、纵深)、形状、位置等信息的三维扫描型的距离传感器。
关于传感器群210的数量、种类以及配置,也可以根据移动区域的宽窄、布置而适当地选择,但优选构成为能够对整个移动区域进行摄影。此处的移动区域是移动体220移动的环境,也可以是例如机场、车站、医院、办公大厦等公共设施,只要能够设置传感器群210,则可以是任意的环境。
传感器群210既可以将关于移动体220、移动区域而取得的传感器数据原样地传送给驾驶支援装置240,也可以在使用可利用于传感器群210的本地的计算设备进行传感器数据合计、预处理、对象检测等之后传送给驾驶支援装置240。
在某个实施方式中,传感器群210也可以取得表示移动体的高度即第1高度的第1高度信息以及表示存在于从移动体起预定的距离以内的物体的高度即第2高度的第2高度信息作为传感器数据,并发送给驾驶支援装置240。另外,在某个实施方式中,传感器群210也可以取得表示移动区域或者移动体220的输入影像作为传感器数据,并发送给驾驶支援装置240。
移动体220是在移动区域内移动的交通工具。移动体220也可以是例如电动轮椅、踏板车、汽车等任意的移动体,只要能够搭乘乘客而在移动区域内移动,则在本公开中没有特别限定。移动体220也可以具备用于向乘客显示地图等信息或者从乘客受理指示的终端(平板计算机等)。另外,移动体220也可以具备用于经由通信网络230而与驾驶支援装置240进行数据通信的通信功能。
在某个实施方式中,移动体220具备自动驾驶功能,能够自动地决定移动区域内的直至目的地为止的路径。作为一个例子,移动体220在进入到移动环境内时,在将服务请求发送给驾驶支援装置240之后,作为用于在移动环境内移动的引导信息而从驾驶支援装置240接收表示存在于该移动环境的障碍物等物体、风险等的二维地图(结合地图)。之后,移动体220也可以根据接收到的结合地图,自动地决定移动区域内的直至目的地为止的安全的路径。
驾驶支援装置240是用于对在移动区域内移动的移动体220的驾驶进行支援的装置。驾驶支援装置240能够根据例如从传感器群210接收到的传感器数据,生成表示存在于移动环境的障碍物等物体、风险等的结合地图作为用于支援移动体220的驾驶的引导信息,并将生成的结合地图发送给移动体220。在某个实施方式中,驾驶支援装置240也可以是从移动体220以及移动区域在地理上远离的远程的服务器装置。
如图2所示,驾驶支援装置240也可以包括输入部242、抽出部244、生成部246、解析部248、输出部250以及存储部252。
输入部242是用于接收来自传感器群210的传感器数据、来自移动体220的请求的功能部。例如,输入部242也可以从设置于移动区域的传感器群210,接收表示移动体220的高度即第1高度的第1高度信息以及表示存在于从移动体220起预定的距离以内的物体的高度即第2高度的第2高度信息作为传感器数据。另外,在某个实施方式中,输入部242也可以接收表示移动区域或者移动体220的输入影像作为传感器数据。
抽出部244是用于根据从传感器群210接收到的传感器数据而从储存于后述的存储部252的移动区域的三维模型抽出平面图的功能部。例如,抽出部244也可以根据第1高度信息而从三维模型抽出第1平面图,根据第2高度信息而从三维模型抽出第2平面图。
生成部246是用于根据由抽出部244抽出的平面图来生成结合地图作为对移动体220的移动环境内的驾驶进行支援的引导信息的功能部。例如,生成部246也可以通过结合第1平面图和第2平面图,生成用于二维地表示移动区域并对移动体220的驾驶进行支援的结合地图。
解析部248是用于解析从传感器群210接收到的传感器数据的功能部。例如,解析部248也可以通过解析从传感器群210接收到的表示移动区域或者移动体220的输入影像、由生成部246生成的结合地图,判定存在对移动体220的移动进行阻止的可能性的风险要素。
输出部250是用于输出来自驾驶支援装置的各种信息的功能部。例如,输出部250也可以将由生成部246生成的结合地图发送给移动体220。
存储部252是至少储存立体地表示移动区域的三维模型的存储设备部。存储部252例如既可以是搭载于驾驶支援装置240的硬盘驱动器、固态驱动器等本地的存储设备装置,也可以是从驾驶支援装置240能够存取的云型的存储设备区域。
此处的三维模型也可以是例如CG模型,根据移动区域的布置图、影像等而事先生成并被储存到存储部252。作为生成三维模型的手段,可以使用任意的既存的手段,在本公开中没有特别限定。
根据如以上说明那样构成的驾驶支援系统200,可提供还能够利用于不具备传感器的移动体、并在抑制移动体侧的处理的负荷的同时对移动体的驾驶进行支援的驾驶支援手段。
接下来,参照图3,说明本公开的实施方式所涉及的驾驶支援系统的驾驶支援方法的流程。
图3是示出本公开的实施方式所涉及的驾驶支援系统的驾驶支援方法300的流程的一个例子的图。图3所示的驾驶支援方法300是用于生成结合地图来作为对移动体的移动环境内的驾驶进行支援的引导信息的处理,例如通过图2所示的驾驶支援装置240的各功能部来实施。
首先,在步骤S310中,输入部(例如图2所示的输入部242)从移动体(例如图2所示的移动体220),接收请求由驾驶支援系统实施的驾驶支援服务的服务请求。该服务请求既可以根据移动体的乘客的指示而被发送给驾驶支援装置,也可以在移动体进入到移动区域并连接到通信网络时自动地被发送给支援装置。
在某个实施方式中,服务请求也可以除了包括请求驾驶支援服务的指示以外,还包括与移动体有关的信息(例如尺寸、重量、最大速度)、移动体的目的地的信息、与乘客的意向有关的信息(希望避开拥堵的路径、希望经过可看到外面的景色的路径)等信息。
接收到服务请求的驾驶支援装置也可以将传感器数据取得指示发送给设置于移动区域内的传感器群。之后,接收到该传感器数据取得指示的传感器群开始取得传感器数据。
接下来,在步骤S320中,输入部接收来自传感器群(例如图2所示的传感器群210)的传感器数据。例如,输入部也可以从设置于移动区域的传感器群,接收表示移动体的高度即第1高度的第1高度信息以及表示相对于移动体而满足预定的距离基准的物体的高度即第2高度的第2高度信息作为传感器数据。
此处的第1高度和第2高度是由传感器群测量的。例如,在某个实施方式中,传感器群也可以通过LIDAR等三维扫描单元来测量第1高度和第2高度。另外,在某个实施方式中,传感器群也可以通过取得表示移动区域或者移动体的输入影像,并针对该输入影像实施预定的图像处理手段,从而取得第1高度和第2高度。
此外,“移动体的高度”这样的表现既可以是移动体自身的高度,也可以是还包括就坐于移动体的乘客在内的整体的高度。
在此,作为一个例子来说明取得作为移动体的高度的第1高度和作为存在于从移动体起预定的距离以内的物体的高度的第2高度这2个高度的情况,但本公开不限于此,可以取得任意的数量的物体的高度的值。例如,在某个实施方式中,传感器群也可以除了第1高度以及第2高度以外,还取得乘客携带的货物的高度(第3高度)、其它物体的高度(第4高度)并发送给驾驶支援装置。
另外,此处的针对移动体的预定的距离基准是指预先设定的距离范围,也可以设定为例如3米、5米等任意的距离。
通过将距离基准设定为更小的值,物体被检测的对象的范围变窄,但能够抑制在结合地图的生成中所需的计算资源。
另一方面,通过将距离基准设定为更大的值,物体被检测的对象的范围变宽,但在结合地图的生成中所需的计算资源变多。
因此,也可以根据移动区域的布置、宽窄、移动体的移动速度、驾驶支援装置系统可使用的计算资源的量等而恰当地设定该距离基准。
在某个实施方式中,在例如计算资源未被特别限制的情况下,此处的距离基准也可以设定为包括整个移动区域的值。由此,能够网罗地检测存在于移动区域的所有的物体、风险,能够生成更宽范围的结合地图。
接下来,在步骤S330中,抽出部(例如图2所示的抽出部244)根据第1高度信息而从三维模型抽出第1平面图,根据第2高度信息而从三维模型抽出第2平面图。
更具体而言,抽出部从三维模型抽出与移动体的高度方向(与走路面正交的方向)正交且与第1高度对应的第1平面作为第1平面图,并且从三维模型抽出与移动体的高度方向正交且与第2高度对应的第2平面作为第2平面图。
换言之,抽出部将三维模型用与移动体的高度方向正交的多个平面进行切断,并抽出表示与第1高度以及第2高度对应的平面中的物体的剖面形状的平面图。
由此,能够得到表示在移动区域内在第1平面中存在的物体的剖面形状的第1平面图以及表示在移动区域内在第2平面中存在的物体的剖面形状的第2平面图。
接下来,在步骤S340中,生成部(例如图2所示的生成部246)通过结合在步骤S330中抽出的第1平面图和第2平面图,生成用于二维地表示移动区域并对移动体的驾驶进行支援的结合地图。
更具体而言,生成部通过根据第1高度以及第2高度来重叠第1平面图和第2平面图,生成表示在移动区域内在第1平面中存在的物体的剖面形状以及在移动区域内在第2平面中存在的物体的剖面形状的二维地图作为结合地图。
这样,能够得到使表示与移动体的高度方向正交的多个平面中的物体的剖面形状的地图重叠而成的二维地图作为结合地图。
接下来,在步骤S350中,输出部将在步骤S340中由生成部生成的结合地图经由通信网络发送给移动体。之后,接收到结合地图的移动体也可以根据该结合地图来决定移动区域内的直至目的地为止的安全的路径。
此外,在此作为根据结合地图来判定移动区域内的直至目的地为止的安全的路径的手段,能够使用既存的自动驾驶手段,在此没有特别限定。
根据以上说明的驾驶支援方法300,可提供还能够利用于不具备传感器的移动体、并在抑制移动体侧的处理的负荷的同时对移动体的驾驶进行支援的驾驶支援手段。
接下来,参照图4,说明本公开的实施方式所涉及的驾驶支援系统中的数据的流动。
图4是示出本公开的实施方式所涉及的驾驶支援系统中的数据的流动的一个例子的图。
首先,如上所述,传感器群210取得传感器数据405,并传送给驾驶支援装置240。如图4所示,该传感器数据405也可以包括作为移动体220的高度的第1高度Hi、作为相对于移动体220而满足预定的距离基准的物体的高度的第2高度Hii、以及作为移动体220的乘客携带的货物的高度的第3高度Hiii
在某个实施方式中,传感器群210也可以取得在不同的时刻a、b测量的物体的高度Haii、Hbii、货物的高度Haiii、Hbiii,将在不同的时刻测量的高度的平均值作为第2高度Hii以及第3高度Hiii。由此,能够捕捉例如由于乘客、物体的活动(坐着的人站起来)等引起的高度的变化。
在某个实施方式中,该传感器数据405也可以构成为一维的矩阵。
在接收到传感器数据405之后,驾驶支援装置240(更具体而言是包含于驾驶支援装置240的抽出部244)关于包含于传感器数据405的第1高度Hi、第2高度Hii以及第3高度Hiii的各个,从储存于存储部252的三维模型410抽出与该高度对应且与移动体220的高度方向正交的平面作为平面图415。
例如,如图4所示,驾驶支援装置240也可以从三维模型410抽出与第1高度Hi对应的第1平面图Mi、与第2高度Hii对应的第2平面图Mii以及与第3高度Hiii对应的第3平面图Miii。另外,也可以针对不同的时刻a、b分别进行该平面图的抽出。
在抽出与各个高度Hi、Hii、Hiii对应的平面图415之后,驾驶支援装置240通过结合第1平面图Mi、第2平面图Mii以及第3平面图Miii,生成用于二维地表示移动区域并对移动体的驾驶进行支援的结合地图420,将生成的结合地图发送给移动体220。
接下来,参照图5,说明本公开的实施方式所涉及的驾驶支援系统的使用例。
图5是示出本公开的实施方式所涉及的驾驶支援系统的使用例的图。
设为图5所示的移动体220进入到预定的移动区域。此时,从移动体220将请求驾驶支援服务的服务请求经由移动区域的通信网络而发送给驾驶支援装置(在图5中未图示)。之后,接收到服务请求的驾驶支援装置将传感器数据取得指示发送给设置于移动区域内的传感器群210。然后,接收到该传感器数据取得指示的传感器群210开始传感器数据的取得。
在此,传感器群210取得表示作为移动体220的高度的第1高度514的第1高度信息以及表示作为相对于移动体220而满足预定的距离基准的物体520的高度的第2高度516的第2高度信息作为传感器数据,并将取得的传感器数据发送给驾驶支援装置。
接收到传感器数据的驾驶支援装置从三维模型抽出与移动体220的高度方向515正交且与第1高度514对应的第1平面作为第1平面图540,并且从三维模型抽出与移动体220的高度方向515正交且与第2高度516对应的第2平面作为第2平面图550。
由此,能够得到表示在与移动体220的高度方向515正交且与第1高度514对应的第1平面中存在的移动体220、货物535及物体530的剖面形状的第1平面图540、和表示在与移动体220的高度方向515正交且与第2高度516对应的第2平面中存在的物体520及物体530的剖面形状的第2平面图550。
之后,驾驶支援装置通过结合第1平面图540和第2平面图550,生成用于二维地表示移动区域并对移动体220的驾驶进行支援的结合地图(在图5中未图示),将生成的结合地图发送给移动体220。
通过解析在此生成的结合地图,能够判定存在阻止移动体220的移动的可能性的风险要素。在某个实施方式中,也可以通过使用上述解析部(例如图2所示的248)来解析在此生成的结合地图,将存在移动体220的乘客携带的货物535与物体530碰撞的可能性的情况判定为风险要素。也可以将由解析部判定的风险要素的信息追加到结合地图。由此,接收到包括风险要素的信息的结合地图的移动体220能够决定避开这些风险要素的安全的路径。
此外,关于使用驾驶支援装置的解析部来判定风险要素的处理的详情,在后面叙述。
接下来,参照图6,说明本公开的实施方式所涉及的三维模型。
图6是示出本公开的实施方式所涉及的三维模型410的一个例子的图。如上所述,本公开的实施方式所涉及的三维模型410是按照正确的比例尺比率而立体地示出移动区域的三维模型,也可以是例如CG模型。三维模型410也可以示出存在于移动区域的移动体、家具、家电、墙壁、人、动物等所有的物体。例如,如图6所示,三维模型410也可以示出移动体220、桌子610A、620B、椅子630A、630B、630C、630D、以及电冰箱640。
本公开的实施方式所涉及的三维模型410根据移动区域的布置图、由传感器群取得的影像等而事先生成,并被储存到存储部。作为生成三维模型的手段,可以使用任意的既存的手段,在本公开中没有特别限定。
通过事先制作如图6所示的三维模型410并储存到存储部,能够以任意的高度抽出与移动体220的高度方向正交的平面作为平面图。
接下来,参照图7~图9,说明本公开的实施方式所涉及的生成结合地图的处理的具体例。
图7是示出本公开的实施方式所涉及的从三维模型410抽出平面图的处理的具体例的图。
如上所述,抽出部构成为将三维模型410用与移动体的高度方向750正交的多个平面进行切断,抽出表示与由传感器群取得的传感器数据所包含的各个高度对应的平面中的物体的剖面形状的平面图。
作为一个例子,驾驶支援装置从传感器群接收包括作为移动体220的高度的第1高度710、作为椅子705的高度的第2高度720以及作为电冰箱707的高度的第3高度730的传感器数据。
在该情况下,抽出部从三维模型410抽出与移动体220的高度方向750正交且与第1高度710对应的第1平面715作为第1平面图810(参照图8)。另外,抽出部从三维模型410抽出与移动体220的高度方向750正交且与第2高度720对应的第2平面725作为第2平面图820(参照图8)。另外,抽出部从三维模型410抽出与移动体220的高度方向750正交且与第3高度730对应的第3平面735作为第3平面图830(参照图8)。
图8是示出从图7所示的三维模型410抽出的平面图810、820、830的具体例的图。
如图8所示,第2平面图820示出在与移动体220的高度方向750正交且与第2高度720对应的第2平面725中存在的4个椅子705、2个桌子的脚部711、移动体220以及电冰箱707的剖面形状。
另外,第1平面图810示出在与移动体220的高度方向750正交且与第1高度710对应的第1平面715中存在的桌子的顶板709、移动体220的靠背部以及电冰箱707的剖面形状。
另外,第3平面图830示出在与移动体220的高度方向750正交且与第3高度730对应的第3平面735中存在的电冰箱707的剖面形状。
这样,能够得到表示在移动区域内在与移动体220的高度方向750正交且与任意的高度对应的平面中存在的物体的剖面形状的平面图。
图9是示出通过结合图8所示的平面图而得到的结合地图的具体例的图。如上所述,本公开的实施方式所涉及的驾驶支援装置的生成部通过结合从三维模型抽出的各个平面图,生成用于二维地表示移动区域并对移动体的驾驶进行支援的结合地图910。
更具体而言,生成部也可以通过重叠第1平面图810、第2平面图820以及第3平面图830,生成表示在移动区域内在第1平面715、第2平面725以及第3平面735中存在的物体的剖面形状的二维地图作为结合地图。
在此,生成部也可以决定将第1平面图810、第2平面图820以及第3平面图830根据第1高度710、第2高度720以及第3高度730进行重叠的顺序。例如,生成部也可以将与更低的高度对应的平面图作为下方并将与更高的高度对应的平面图作为上方等,按照高度的顺序来重叠平面图。
在某个实施方式中,如图9所示,生成部也可以生成将在第1平面图810、第2平面图820以及第3平面图830中示出的物体的剖面形状以不透明的方式表示的结合地图910。由此,在多个剖面形状重叠的情况下,得到如从正上方观察移动区域的情况那样下方的剖面形状(例如桌子的脚部711)被隐藏而仅能看到高度最高的剖面形状(例如桌子的顶板709)的结合地图910。
另一方面,在某个实施方式中,生成部也可以生成将在第1平面图810、第2平面图820以及第3平面图830中示出的物体的剖面形状用半透明的不同的颜色来表示的结合地图910。作为一个例子,生成部也可以用半透明的红色来表示在第1平面图810中示出的物体的剖面形状,用半透明的蓝色来表示第2平面图820,用半透明的绿色来表示第3平面图830。由此,得到将存在于各个平面的物体的形状用1个图来表示的结合地图910。
这样,能够得到将表示与移动体的高度方向正交的多个平面中的物体的剖面形状的平面图进行重叠而成的二维地图作为结合地图910。之后,移动体能够根据该结合地图910,自动地决定移动区域内的直至目的地为止的安全的路径。
另外,在某个实施方式中,生成部也可以通过合成关于移动区域的不同的部分而生产的结合地图,从而生成更宽范围的地图。
接下来,参照图10~图11,说明本公开的实施方式所涉及的驾驶支援系统的风险要素判定。
如上所述,本公开的实施方式所涉及的解析部(例如图2所示的解析部248)通过解析从传感器群接收到的输入影像、由生成部生成的结合地图,能够判定存在阻止移动体的移动的可能性的风险要素。
此处的风险要素是指存在阻止移动体的移动的可能性的要素,也可以包括例如人的行动、障碍物、危险的状况等。
在某个实施方式中,解析部在从传感器群接收到表示移动区域或者移动体的输入影像的情况下,也可以通过利用既存的图像处理手段来解析该输入影像,从而检测存在与移动体碰撞的可能性的障碍物、危险的状况。
在此,在解析部中,作为用于判定风险要素的图像处理手段,可以使用例如基于Haar-Like特征的Viola-Jones物体检测框架、尺度不变特征变换(SIFT)、Hog特征量等机器学习方法、区域建议(R-CNN、Fast R-CNN、Faster R-CNN、cascade R-CNN)、单发多盒检测器(Single Shot MultiBox Detector,SSD)、You Only Look Once(YOLO)、用于对象检测的单次细化神经网络(Single-Shot Refinement Neural Network for Object Detection,RefineDet)、Retina-Net、可变形卷积网络(Deformable convolutional networks)等利用深度学习的方法等任意的手法。
另外,在某个实施方式中,解析部也可以利用根据过去的风险要素的数据来训练的机器学习手段来解析由生成部生成的结合地图,从而检测存在与移动体碰撞的可能性的障碍物、危险的状况。
在此,在解析部中,作为用于判定风险要素的机器学习手段,可以使用线性回归(Linear Regression)、逻辑回归(Logistic Regression)、决策树(Decision Trees)、支持向量机(Support Vector Machines)、朴素贝叶斯(Naive Bayes)、K-最近邻(K-NearestNeighbor)、K-均值(K-means)、随机森林(Random Forest)、降维算法(DimensionalityReduction Algorithms)、梯度提升算法(Gradient Boosting Algorithms)等任意的手法。
图10是示出反映了风险要素1020、1030的结合地图1010的一个例子的图。
在某个实施方式中,解析部也可以使判定的风险要素反映到结合地图。
作为一个例子,在解析部中,在对从传感器群接收到的输入影像、由生成部生成的结合地图(例如图9所示的结合地图910)进行了解析的结果,在电冰箱707的门被打开了的情况下,将该门判定为存在干扰移动体220的移动的可能性的风险要素1020,并使判定的风险要素1020在结合地图1010中反映到对应的区域。
另外,在解析部中,在对从传感器群接收到的输入影像、由生成部生成的结合地图进行了解析的结果,在就坐于椅子705的人站起来的情况下,将该人判定为存在干扰移动体220的移动的可能性的风险要素1030,并使判定的风险要素1030在结合地图1010中反映到对应的区域。
反映到结合地图1010的风险要素1020、1030如图10所示,既可以用“X”那样的特定的符号、记号以视觉方式来示出,也可以作为表示风险要素的内容以及发生坐标的源数据而附加到结合地图1010。
这样,通过判定存在阻止移动体的移动的可能性的风险要素并反映到结合地图1010,从而接收到反映了风险要素的结合地图的移动体能够决定避开这些风险要素的安全的路径。
图11是示出用于避开风险要素的风险避免指示的一个例子的图。
在某个实施方式中,解析部也可以将用于避开判定的风险要素的风险避免指示与结合地图一起发送给移动体。此处的风险避免指示既可以是对由移动体220决定的移动路径进行控制的指示,也可以是与移动体220的乘客的行动有关的指示。
作为一个例子,在解析部中,在对从传感器群接收到的输入影像、由生成部生成的结合地图(例如图9所示的结合地图910)进行了解析的结果,在移动体220的乘客横向地拿着货物1120的状态下,将无法通过处于移动路径中的窄的空间1130的情形判定为风险要素。在该情况下,解析部也可以生成要求纵向地拿着货物1120的风险避免指示,并发送给移动体220。此处的风险避免指示例如既可以显示于搭载到移动体220的终端的画面,也可以从搭载于移动体220的扬声器用语音、警告音等来发声。
之后,接受风险避免指示的移动体的乘客通过依照风险避免指示纵向地拿着货物1120,从而能够经过处于移动路径中的窄的空间1130。
这样,通过将用于避开风险要素的风险避免指示发送给移动体,能够避开风险要素,能够提高乘客的安全性。
此外,以上作为一个例子说明了具备自动驾驶功能的移动体220根据从驾驶支援装置接收到的结合地图而自动地决定移动区域内的直至目的地为止的安全的路径的情况,但本公开不限于此,驾驶支援装置的解析部也可以通过解析从传感器群接收到的输入影像、由生成部生成的结合地图,为移动体220决定直至目的地为止的安全的路径,将反映了决定的路径的结合地图发送给移动体220。
另外,在某个实施方式中,驾驶支援装置的解析部也可以决定考虑了包含于从移动体接收到的服务请求的信息的路径。例如,解析部也可以根据与移动体有关的信息(例如尺寸、重量、最大速度)、移动体的目的地的信息、与乘客的意向有关的信息(希望避开拥堵的路径、希望经过可看到外面的景色的路径)等信息,判定在避开风险要素的同时符合乘客的意向的路径。
以上说明了本发明的实施方式,但本发明不限于上述实施方式,能够在不脱离本发明的要旨的范围中进行各种变更。

Claims (9)

1.一种驾驶支援装置,用于支援在移动区域内移动的移动体的驾驶,其特征在于,所述驾驶支援装置包括:
存储部,至少储存表示所述移动区域的三维模型;
输入部,能够从设置于所述移动区域的传感器群接收表示作为所述移动体的高度的第1高度的第1高度信息以及表示作为相对于所述移动体而满足预定的距离基准的物体的高度的第2高度的第2高度信息;
抽出部,根据所述第1高度信息从所述三维模型抽出第1平面图,根据所述第2高度信息从所述三维模型抽出第2平面图;
生成部,通过结合所述第1平面图和所述第2平面图,生成用于二维地表示所述移动区域并对所述移动体的驾驶进行支援的结合地图;以及
输出部,能够将生成的所述结合地图发送给所述移动体。
2.根据权利要求1所述的驾驶支援装置,其特征在于,
所述抽出部从所述三维模型抽出与所述移动体的高度方向正交且与所述第1高度对应的第1平面作为所述第1平面图,并从所述三维模型抽出与所述移动体的高度方向正交且与所述第2高度对应的第2平面作为所述第2平面图,
所述第1平面图表示在所述移动区域内在所述第1平面中存在的物体的剖面形状,
所述第2平面图表示在所述移动区域内在所述第2平面中存在的物体的剖面形状。
3.根据权利要求2所述的驾驶支援装置,其特征在于,
所述生成部通过根据所述第1高度以及所述第2高度来重叠所述第1平面图和所述第2平面图,生成表示在所述移动区域内在所述第1平面中存在的物体的剖面形状以及在所述移动区域内在所述第2平面中存在的物体的剖面形状的二维地图作为所述结合地图。
4.根据权利要求1所述的驾驶支援装置,其特征在于,
所述输入部从所述传感器群接收表示作为所述移动体的乘客携带的货物的高度的第3高度的第3高度信息,
所述抽出部从所述三维模型抽出与所述移动体的高度方向正交且与所述第3高度对应的第3平面作为第3平面图,
所述生成部通过结合所述第1平面图、所述第2平面图以及所述第3平面图,生成所述结合地图。
5.根据权利要求1所述的驾驶支援装置,其特征在于,
所述驾驶支援装置还包括解析部,
所述输入部从所述传感器群接收表示所述移动区域或者所述移动体的输入影像,
所述解析部通过解析所述输入影像或者所述结合地图,判定存在阻止所述移动体的移动的可能性的风险要素,
所述生成部使所述风险要素的信息反映到所述结合地图。
6.根据权利要求5所述的驾驶支援装置,其特征在于,
所述解析部生成用于避开所述风险要素的风险避免指示,
所述输出部将反映所述风险要素的信息的结合地图以及所述风险避免指示发送给所述移动体。
7.根据权利要求1所述的驾驶支援装置,其特征在于,
所述移动体是具备自动驾驶功能的移动体。
8.一种驾驶支援方法,用于支援在移动区域内移动的移动体的驾驶,其特征在于,所述驾驶支援方法包括:
从移动体接收请求驾驶支援服务的服务请求的工序;
将使传感器数据的取得开始的传感器数据取得指示发送给设置于所述移动体移动的移动区域的传感器群的工序;
从所述传感器群接收表示作为所述移动体的高度的第1高度的第1高度信息以及表示作为相对于所述移动体而满足预定的距离基准的物体的高度的第2高度的第2高度信息的工序;
从立体地表示所述移动区域的三维模型抽出与所述移动体的高度方向正交且与所述第1高度对应的第1平面作为第1平面图的工序;
从所述三维模型抽出与所述移动体的高度方向正交且与所述第2高度对应的第2平面作为第2平面图的工序;
通过根据所述第1高度以及所述第2高度来重叠所述第1平面图和所述第2平面图,生成表示在所述移动区域内在所述第1平面中存在的物体的剖面形状以及在所述移动区域内在所述第2平面中存在的物体的剖面形状的二维地图作为结合地图的工序;以及
将生成的所述结合地图发送给所述移动体的工序。
9.一种驾驶支援系统,用于支援在移动区域内移动的移动体的驾驶,其特征在于,所述驾驶支援系统包括:
移动体,在移动区域内移动;
传感器群,设置于所述移动区域内;以及
驾驶支援装置,用于支援所述移动体的驾驶,
所述移动体、所述传感器群以及所述驾驶支援装置经由通信网络被连接,
所述驾驶支援装置包括:
存储部,至少储存立体地表示所述移动区域的三维模型;
输入部,从所述传感器群接收表示作为所述移动体的高度的第1高度的第1高度信息以及表示作为相对于所述移动体而满足预定的距离基准的物体的高度的第2高度的第2高度信息;
抽出部,根据所述第1高度信息从所述三维模型抽出第1平面图,根据所述第2高度信息从所述三维模型抽出第2平面图;
生成部,通过结合所述第1平面图和所述第2平面图,生成用于二维地表示所述移动区域并对所述移动体的驾驶进行支援的结合地图;以及
输出部,将生成的所述结合地图发送给所述移动体。
CN202210170264.6A 2021-02-25 2022-02-24 驾驶支援装置、驾驶支援方法以及驾驶支援系统 Pending CN115047865A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021028497A JP7441190B2 (ja) 2021-02-25 2021-02-25 運転支援装置、運転支援方法及び運転支援システム
JP2021-028497 2021-02-25

Publications (1)

Publication Number Publication Date
CN115047865A true CN115047865A (zh) 2022-09-13

Family

ID=82900722

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210170264.6A Pending CN115047865A (zh) 2021-02-25 2022-02-24 驾驶支援装置、驾驶支援方法以及驾驶支援系统

Country Status (3)

Country Link
US (1) US20220270328A1 (zh)
JP (1) JP7441190B2 (zh)
CN (1) CN115047865A (zh)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5205366B2 (ja) 2009-12-25 2013-06-05 本田技研工業株式会社 移動可能領域抽出装置、移動可能領域抽出システム、移動可能領域抽出方法、およびプログラム
JP2014056506A (ja) 2012-09-13 2014-03-27 Toyota Central R&D Labs Inc 障害物検出装置及びそれを備えた移動体

Also Published As

Publication number Publication date
JP7441190B2 (ja) 2024-02-29
US20220270328A1 (en) 2022-08-25
JP2022129713A (ja) 2022-09-06

Similar Documents

Publication Publication Date Title
US10297070B1 (en) 3D scene synthesis techniques using neural network architectures
US8891855B2 (en) Information processing apparatus, information processing method, and program for generating an image including virtual information whose size has been adjusted
JP6765487B2 (ja) 人工知能を用いるコンピュータ実施方法、aiシステム、及びプログラム
US10424065B2 (en) Systems and methods for performing three-dimensional semantic parsing of indoor spaces
US9183444B2 (en) Information processing apparatus, information processing method, and computer program
US10922536B2 (en) Age classification of humans based on image depth and human pose
JP5251987B2 (ja) 人判定装置、方法およびプログラム
CN108876706B (zh) 根据全景图像的缩略图生成
US8634595B2 (en) Method for dynamically setting environmental boundary in image and method for instantly determining human activity
US20230245476A1 (en) Location discovery
US11842496B2 (en) Real-time multi-view detection of objects in multi-camera environments
US9851784B2 (en) Movement line conversion and analysis system, method and program
JP7409499B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2017199278A (ja) 検出装置、検出方法、およびプログラム
US20150254527A1 (en) Methods for 3d object recognition and registration
CN112950759A (zh) 基于房屋全景图的三维房屋模型构建方法及装置
CN115047865A (zh) 驾驶支援装置、驾驶支援方法以及驾驶支援系统
JP2005250692A (ja) 物体の同定方法、移動体同定方法、物体同定プログラム、移動体同定プログラム、物体同定プログラム記録媒体、移動体同定プログラム記録媒体
JP6769859B2 (ja) 画像処理装置及び画像処理方法
JP6806159B2 (ja) 動線分類装置、動線分類方法およびプログラム
US20230215135A1 (en) Image processing apparatus, image processing method, and non-transitory storage medium
JP7364077B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US20230244713A1 (en) Image processing apparatus, image processing method, and non-transitory storage medium
Choi et al. Joint solution for the online 3D photorealistic mapping using SfM and SLAM
JP7485040B2 (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination