CN111566707A - 设置位置信息提供装置以及设置位置信息提供方法 - Google Patents
设置位置信息提供装置以及设置位置信息提供方法 Download PDFInfo
- Publication number
- CN111566707A CN111566707A CN201980007670.7A CN201980007670A CN111566707A CN 111566707 A CN111566707 A CN 111566707A CN 201980007670 A CN201980007670 A CN 201980007670A CN 111566707 A CN111566707 A CN 111566707A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- image
- installation position
- unit
- adjustment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
- G01S7/4004—Means for monitoring or calibrating of parts of a radar system
- G01S7/4026—Antenna boresight
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/625—License plates
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Traffic Control Systems (AREA)
- Closed-Circuit Television Systems (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Radar Systems Or Details Thereof (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
Abstract
本公开的一个方面中的设置位置信息提供装置(5)具备拍摄装置、显示由拍摄装置拍摄到的影像(7)的显示装置、识别部、计算部以及重叠显示部。识别部从由拍摄装置拍摄到的影像识别车辆(1)或者车辆的附近的特定两个部位、以及地面(2)。计算部基于由识别部识别出的特定两个部位以及地面,计算影像内的车载传感器(17)的调整作业所使用的调整用设备的设置位置。重叠显示部使表示设置位置的图像亦即设置位置对象(112)重叠显示在显示于显示装置的影像中的由计算部计算出的设置位置。
Description
相关申请的交叉引用
本国际申请要求基于2018年1月11日在日本专利厅申请的日本专利申请第2018-002794号的优先权,通过参照将其全部内容引用到本国际申请。
技术领域
本发明涉及提供车载传感器的调整作业所使用的调整用设备的设置位置的技术。
背景技术
专利文献1公开了利用设置于车外的调整装置来调整车载照相机、雷达装置等车载传感器的光轴或者角度轴的技术。
专利文献1:日本特开2010-156609号公报
为了高精度地进行车载传感器的调整作业,需要将调整作业所需要的调整装置设置于适当的位置。调整装置的设置作业一般在多个作业者进行各种测量的同时实施。发明人详细研究的结果,发现了这样的设置作业需要很多的工时这样的课题。
发明内容
本公开的一个方面在于提供以较少的工时容易地向作业者提供车载传感器的调整用设备的设置位置的技术。
本公开的一个方面中的设置位置信息提供装置具备:拍摄影像的拍摄装置、显示由上述拍摄装置拍摄到的影像的显示装置、识别部、计算部、以及重叠显示部。
识别部从由拍摄装置拍摄到的影像,识别该影像所包含的车辆或者车辆的附近的特定两个部位、以及该影像所包含的载置有车辆的地面。
计算部基于由识别部识别出的两个部位以及地面,计算影像内的调整用设备的设置位置。调整用设备被用于搭载于车辆的车载传感器的调整作业。
重叠显示部对于显示于显示装置的影像,使设置位置对象重叠显示在由计算部计算出的设置位置。设置位置对象是表示设置位置的图像。
根据这样的构成,基于由拍摄装置拍摄到的特定两个部位以及地面,来计算调整用设备的设置位置,并在影像中的该计算出的设置位置重叠显示有设置位置对象。由此,作业者能够从显示于显示装置的影像容易地把握设置位置。然后,作业者一边看着影像一边设置调整用设备以使实际的调整用设备与被重叠显示的设置位置对象的位置一致,从而能够将调整用设备设置在适当的位置。
因此,能够以较少的工时容易地向作业者提供车载传感器的调整用设备的设置位置。
附图说明
图1是表示实施方式的车载传感器调整辅助系统的整体构成的说明图。
图2是表示AR机的概略结构的框图。
图3是车载传感器调整辅助处理的流程图。
图4是表示在AR机重叠显示基准点以及基准线的例子的说明图。
图5是表示在AR机重叠显示与前照相机对应的设置位置对象的例子的说明图。
图6是表示在AR机重叠显示与毫米波雷达传感器对应的设置位置对象的例子的说明图。
图7是表示在AR机重叠显示与两个后方传感器对应的设置位置对象的例子的说明图。
图8是表示使用标记来识别车辆中心的例子的说明图。
图9是表示AR机的其他的构成例的框图。
具体实施方式
以下,参照附图对本公开的例示性的实施方式进行说明。
[1.实施方式]
(1-1)车载传感器调整辅助系统的整体构成
图1所示的本实施方式的车载传感器调整辅助系统具备服务器201、个人计算机(以下,简称为“PC”)202、中继装置203、以及设置位置信息提供装置(以下,简称为“AR机”)5。其中,“AR”是“Augmented Reality(增强现实)”的简称。
中继装置203对利用无线的数据通信进行中继。即,中继装置203能够通过无线与PC202进行数据通信,能够通过无线经由通信网络200与服务器201进行数据通信。PC202能够经由通信网络200、或者经由中继装置203以及通信网络200与服务器201进行数据通信。AR机5具备无线通信功能,能够经由中继装置203与PC202以及服务器201进行数据通信。换句话说,AR机5、服务器201以及PC202能够相互进行数据通信。
AR机5、服务器201以及PC202能够相互进行数据通信的通信系统的具体构成不限于图1所示的构成。例如,AR机5也可以不经由中继装置203而能够与服务器201或者PC202直接通信。另外,例如,通信网络200既可以是有线网络也可以是无线网络。
在服务器201存储有包括车辆1的各种车辆的车种信息。服务器201还存储有表示各种调整用设备(详细后述)的设置位置对象的对象数据。设置位置对象是表示调整用设备的设置位置的图像。服务器201也存储有各种调整用设备的后述的与调整作业有关的各种作业相关信息(例如作业顺序等)。
与相同种类的调整用设备对应的设置位置对象也可以按车辆或者按车种分别独立地准备。另外,例如,也可以对特定的多个车辆或者车种准备相同的一个设置位置对象。关于作业相关信息也相同。
PC202能够从服务器201下载车种信息、对象数据以及作业相关信息并保存。PC202也可以能够向服务器201上传车种信息、设置位置对象以及作业相关信息。
AR机5能够从服务器201或者PC202下载车种信息、设置位置对象以及作业相关信息来获取。
AR机5是佩戴于作业者3的头部的所谓的护目镜型的图像信息提供设备。在AR机5实时地显示后述的照相机32(参照图2)拍摄到的影像7。在AR机5适当地佩戴于作业者3的情况下,影像7表示作业者3的前方。
作业者3例如也可以按如下那样的顺序进行设置于车辆1的各种车载传感器的调整作业。即,作业者3首先使车辆1入库到规定的作业区域中的地面2上。作业者3接下来将与调整对象的车载传感器对应的调整用设备设置在地面2上的车辆1的外部的规定位置。然后,作业者3使用该调整用设备进行对应的车载传感器的调整作业。
本实施方式的车载传感器调整辅助系统在进行上述的调整作业时利用。更具体而言,车载传感器调整辅助系统经由AR机5将调整用设备的设置位置提供给作业者3以使作业者3能够容易且高效地设置调整用设备。
即,AR机5显示影像7,并且根据作业者3的操作,在该影像7中的应该设置调整用设备的位置显示表示该设置位置的设置位置对象。
AR机5具有基于视觉型的增强现实功能。AR机5根据该增强现实功能,在实际的影像7中的应该设置调整用设备的设置位置重叠显示设置位置对象。
作为车载传感器,在本实施方式的车辆1设置有前照相机16(参照图4)、毫米波雷达传感器17(参照图4)、以及右后方雷达18(参照图7)、左后方雷达19(参照图7)。
前照相机16设置于车辆1的车厢前方,拍摄车辆1的前方。由前照相机16拍摄到的图像例如被利用于搭载于车辆1的碰撞防止辅助系统、车道脱离防止辅助系统等各种驾驶辅助系统。
毫米波雷达传感器17例如设置于车辆1中的前保险杠的里侧。毫米波雷达传感器17放射毫米波带的电波,并接收该放射出的电波被车辆1前方的物标反射出的反射波。毫米波雷达传感器17基于放射波和反射波检测物标的位置、距离。毫米波雷达传感器17的检测结果例如利用于搭载于车辆1的碰撞防止辅助系统、障碍物警报系统等各种驾驶辅助系统。
右后方雷达18以及左后方雷达19基本上与毫米波雷达传感器17相同地构成。右后方雷达18检测存在于车辆1的右后方的物标的位置、距离,左后方雷达19检测存在于车辆1的左后方的物标的位置、距离。右后方雷达18以及左后方雷达19例如利用于搭载于车辆1的盲点监视系统等各种驾驶辅助系统。
为了通过前照相机16拍摄车辆1的前方中的适当范围,需要适当地调整前照相机16的光轴。进行该光轴的调整时使用的调整用设备例如是未图示的3个靶板。
作业者3在调整前照相机16的光轴时将3个靶板分别设置在车辆1的前方的规定位置。而且,在前照相机16中拍摄这3个靶板,并基于该拍摄到的3个靶板的图像,适当地调整前照相机16的光轴。
为了适当地调整前照相机16的光轴,需要将3个靶板分别准确地设置于规定位置。AR机5构成为能够将该3个靶板的设置位置提供给作业者3。具体而言,在显示于AR机5的影像7中的应该设置3个靶板的位置显示有表示这3个靶板的设置位置的设置位置对象106~108(参照图5)。
为了能够通过毫米波雷达传感器17高精度地检测物标,需要适当地调整毫米波雷达传感器17的角度轴(即,雷达波的放射角度)。在进行该角度轴的调整时使用的调整用设备是未图示的反光板。
作业者3在调整毫米波雷达传感器17的角度轴时,在车辆1的前方的规定位置设置反光板。而且,在毫米波雷达传感器17中放射雷达波并且接收该雷达波被反光板反射的反射波,基于该接收到的反射波,适当地调整角度轴。
为了适当地调整毫米波雷达传感器17的角度轴,需要将反光板准确地设置在规定位置。AR机5构成为能够将该反光板的设置位置提供给作业者3。具体而言,在显示于AR机5的影像7中的应该设置反光板的位置显示有表示该设置位置的设置位置对象112(参照图6)。
为了能够通过右后方雷达18以及左后方雷达19高精度地检测物标,需要适当地调整这些各个角度轴。进行该角度轴的调整时使用的调整用设备是未图示的反光板。
作业者3在调整右后方雷达18以及左后方雷达19的角度轴时,在车辆1的右后方以及左后方各自的规定位置设置反光板。而且,在右后方雷达18以及左后方雷达19各个,放射雷达波并且接收该雷达波被反光板反射的反射波,基于该接收到的反射波而适当地调整角度轴。
为了适当地调整右后方雷达18以及左后方雷达19的角度轴,需要将各反光板准确地设置在规定位置。AR机5构成为能够将各反光板的设置位置提供给作业者3。具体而言,在显示于AR机5的影像7中的应该设置各反光板的位置显示有表示该设置位置的第1设置位置对象83(参照图7)以及第2设置位置对象93(参照图7)。
(1-2)AR机的构成
如图2所示,AR机5具备空间识别用传感器31、照相机32、自己位置识别用传感器33以及显示部34。
空间识别用传感器31获取表示存在于AR机5的前方的各种物体的信息。空间识别用传感器31的具体构成并不特别限定。在本实施方式中,空间识别用传感器31例如是激光传感器。通过空间识别用传感器31,三维地检测AR机5的前方的空间,检测出作为该检测结果的空间信息。
照相机32拍摄AR机5的前方的影像,并输出该拍摄数据。本实施方式的照相机32以特定的帧率拍摄影像(即,动画)。
自己位置识别用传感器33检测AR机5自身的三维空间内的位置,更具体而言例如方向(角度),并输出作为该检测结果的自己位置信息。自己位置识别用传感器33的具体构成并不特别限定。在本实施方式中,自己位置识别用传感器33例如是陀螺仪传感器。
显示部34构成为能够显示图像。显示部34显示从照相机32输出的拍摄数据所示的影像,即,影像7。另外,显示部34基于来自对象控制部38的显示信息,除了影像7以外还显示各种对象。显示部34在AR机5中搭载为将AR机5适当地佩戴于头部的作业者3能够视觉确认影像7等影像或者图像。
AR机5还具备空间识别控制部35、图像识别控制部36、自己位置识别控制部37以及对象控制部38。
空间识别控制部35周期性地获取由空间识别用传感器31检测到的空间信息,并实时地解析该空间信息,根据该解析结果,三维且实时地识别AR机5的前方的空间。空间识别控制部35将表示识别结果的空间识别信息输出到对象控制部38。
图像识别控制部36根据从照相机32输出的拍摄数据,识别拍摄到的影像(即,影像7)内的特定图像。在本实施方式中,图像识别控制部36能够提取影像7中的特征点,并基于该提取出的特征点来识别各种图像。通过图像识别控制部36能够识别的图像例如包含有设置于各种车辆的前端以及后端的标志、车牌号码、特定标记等。
如图4所示,本实施方式的车辆1具备设置于车辆1的前端的前标志11以及前车牌号码13、设置于车辆1的后端的后标志12以及后车牌号码14。图像识别控制部36除了能够识别车辆1本身以外,还能够分别独立地识别车辆1中的这些各标志11、12、各车牌号码13、14。
图像识别控制部36能够识别的各种图像的信息既可以预先存储于AR机5中的未图示的存储器,也可以能够从服务器201或者PC202下载。
图像识别控制部36将表示图像的识别结果的图像识别信息与拍摄数据一起输出到对象控制部38。另外,即使照相机32的位置、角度变化而拍摄到的影像变化,图像识别控制部36也能够通过跟踪功能继续识别一次识别出的图像。
自己位置识别控制部37根据从自己位置识别用传感器33输出的自己位置信息,识别AR机5的方向(角度)。然后,自己位置识别控制部37将表示该识别结果的自己位置识别信息输出到对象控制部38。
对象控制部38基于从图像识别控制部36输入的拍摄数据,在显示部34显示影像7。
另外,对象控制部38基于从空间识别控制部35输入的空间识别信息、从图像识别控制部36输入的图像识别信息、从自己位置识别控制部37输入的自己位置识别信息、以及通过无线通信从服务器201或者PC202获取到的车种信息、对象数据以及作业相关信息等,进行用于计算调整用设备的设置位置的各种处理。而且,对象控制部38使设置位置对象显示在影像7中的与该计算出的设置位置对应的位置。对象控制部38能够根据用户操作来显示作业相关信息。
调整用设备的设置位置根据车种以及调整作业对象的车载传感器的种类唯一地规定。换句话说,车辆1与设置位置对象的相对位置关系唯一地规定。因此,对象控制部38在所输入的各种信息每次变化时(即,AR机5的方向、位置每次变化时)追随其变化,设置位置对象的显示位置、显示角度、大小等也变化,以便维持上述相对位置关系。
换句话说,即使作业者3移动或改变AR机5的角度、方向,显示于影像7的车辆1与设置位置对象的相对关系也维持恒定。
因此,例如,在通过作业者3朝向车辆1的后方,而调整用设备的设置位置未进入影像7内的情况下,在影像7未显示设置位置对象。而且,在通过作业者3再次朝向车辆1的前方,而调整用设备的设置位置进入影像7内的情况下,在影像7再次显示设置位置对象。
另外,例如,作业者3在场所移动而从其它的角度看调整用设备的设置位置附近的情况下,追随该移动后的位置以及方向,影像7中的设置位置对象的显示角度也变化。另外,例如,若作业者3远离车辆1,则与此对应地,影像7中的车辆1以及设置位置对象的大小也变小。
此外,AR机5具备未图示的计算机。未图示的计算机具备CPU、存储器等。存储器具备ROM、RAM、闪存等各种半导体存储装置。在存储器存储有后述的图3的车载传感器调整辅助处理的程序。
空间识别控制部35、图像识别控制部36、自己位置识别控制部37以及对象控制部38表示通过CPU执行车载传感器调整辅助处理的程序而实现的功能模块。换句话说,空间识别控制部35、图像识别控制部36、自己位置识别控制部37以及对象控制部38所具有的功能由软件提供。
但是,这些各功能的至少一部分或者全部也可以不是利用软件的处理而使用一个或者多个硬件实现。
(1-3)车载传感器调整辅助处理
接下来,使用图3对AR机5中的上述的CPU执行的车载传感器调整辅助处理,即,实现作为空间识别控制部35、图像识别控制部36、自己位置识别控制部37以及对象控制部38的功能的车载传感器调整辅助处理进行说明。
若作业者3对AR机5进行用于使车载传感器调整辅助处理开始的特定的起动操作,则AR机5(详细而言CPU)开始车载传感器调整辅助处理。
若AR机5开始车载传感器调整辅助处理,则在S110中进行车种选择处理。具体而言,根据从服务器201或者PC202获取到的各种车种信息,在显示部34显示车种的一览列表。然后,从显示的车种列表中选择调整作业对象的车辆1。
车种信息既可以预先存储于AR机5的存储器,也可以在规定的时机(例如起动时、或者恒定周期)从服务器201或者PC202下载并存储于存储器,也可以在S110的处理的执行时从服务器201或者PC202下载来获取。
另外,从车种列表中选择调整作业对象的车辆1的方法可以是任何方法。例如,作业者3也可以对于显示于影像7的车种列表中的表示车辆1的项目,能够通过示出特定姿势(例如,以在影像7中作业者3的姿势与表示车辆1的项目重叠的方式示出姿势),来选择车辆1。
此外,也可以不需要作业者3的选择操作,例如,通过使用图像识别功能,对显示于影像7的车辆1进行图像识别来自动地确定出车辆1是什么样的车种。
在S120中,进行车辆基准点决定处理。具体而言,首先,执行作为上述的空间识别控制部35以及自己位置识别控制部37的功能。即,基于由空间识别用传感器31检测到的空间信息、以及从自己位置识别用传感器33输出的自己位置信息,生成上述的空间识别信息以及自己位置识别信息,基于这些各信息而三维地识别前方空间。而且,执行作为对象控制部38的功能。即,从识别出的前方空间中识别地面2。
地面2的识别方法可以是任何方法。例如,在显示于显示部34的影像7显示有地面2的情况下,通过相对于该显示的地面2,作业者3示出特定姿势(例如,以在影像7中作业者3的姿势与地面2重叠的方式示出姿势),来将示出该姿势的位置识别为地面2。或者,也可以通过图像识别控制部36的功能来识别置于地面2的特定标记,并基于该识别结果(换句话说,以识别出的标记为基准)识别地面2。
若CPU识别地面2,则计算三维坐标空间内的该识别出的地面2与AR机5的位置的相对位置关系。由此,识别出的地面2与AR机5的相对位置关系确定。
接下来,CPU计算图4所示的车辆1的中心线25。为了计算中心线25,首先,识别车辆1的前后2处的车宽度方向的中心点。
在本实施方式中,具体而言,作为表示车宽度方向的中心的图像,识别车辆1的前标志11以及后标志12。该识别是作为图像识别控制部36的功能。例如,作业者3通过移动到在影像7内显示有前标志11的位置,来从该影像7识别前标志11。该识别例如也可以通过与预先存储于存储器的前标志11的数据相比较来自动地进行。另外,例如,也可以通过作业者3对于显示于影像7的前标志11示出特定姿势,来将影像7中的示出该姿势的图像识别为前标志11。
而且,在识别出前标志11后,通过作业者3移动到影像7内显示有后标志12的位置,来从该影像7,与前标志11的情况相同地,通过图像识别控制部36的功能来识别后标志12。
若CPU识别各标志11、12,则从识别出的标志11、12分别生成向地面2的垂线。即,如图4所示,生成从前标志11向地面2的前部垂线21和从后标志12向地面2的后部垂线22。而且,计算前部基准点23和后部基准点24。前部基准点23是前部垂线21与地面2的交点。后部基准点24是后部垂线22与地面2的交点。
而且,计算通过前部基准点23和后部基准点24的中心线25。中心线25是地面2上的线。这样一来,计算出地面2上的中心线25。
在S130中,进行车辆基准点对象显示处理。具体而言,使在S120中计算出的前部垂线21、后部垂线22以及中心线25重叠显示于影像7内。图4示出重叠显示有前部垂线21、后部垂线22以及中心线25的影像7的一个例子。
在S140中,进行调整传感器选定处理。该处理是决定调整对象的车载传感器的处理。具体而言,使显示部34基于从服务器201或者PC202获取到的各种车载传感器的信息,显示车载传感器的一览列表。
该情况下,也可以使与不同的多个车种对应的多个车载传感器一览显示,但在本实施方式中,锁定为在S110中选择出的车种,即能够搭载(或者实际搭载)于调整作业对象的车辆1的车载传感器并使其一览显示。
而且,从显示的车载传感器的列表中选择调整作业对象的车载传感器。选择车载传感器的方法也可以是任何方法。例如,作业者3也可以能够通过对于显示于影像7的车载传感器的列表中的调整作业对象的车载传感器示出特定姿势,来选择该车载传感器。
车载传感器的信息既可以预先存储于AR机5的存储器,也可以在规定的时机(例如起动时、或者恒定周期)从服务器201或者PC202下载并存储于存储器,也可以在S140的处理的执行时从服务器201或者PC202下载来获取。
在S150中,判断在S140选定的车载传感器是哪个。在选定的车载传感器是毫米波雷达传感器17的情况下,进入S160。在S160中,作为对象控制部38的功能,使影像7显示表示应该设置毫米波雷达传感器17的调整作业所使用的调整用设备(即,反光板)的位置的设置位置对象。
具体而言,例如图6所示,在中心线25上的距前部基准点23的恒定距离前方的位置显示设置基准点61a。并且,显示通过该设置基准点61a且与中心线25垂直的设置基准线61。上述恒定距离根据车种以及调整对象的车载传感器而预先设定。并且,显示与设置基准点61a垂直的设置垂线111。而且,在该设置垂线111上的距地面2的恒定高度的位置显示设置位置对象112。上述恒定高度也根据车种以及调整对象的车载传感器而预先设定。
车辆1与设置位置对象112的相对位置关系恒定。因此,若作业者3改变方向或移动,则跟随该方向、位置的移动,基于与车辆1的相对位置关系,影像7中的设置位置对象112的显示位置、角度、大小等也变化。
通过这样在影像7显示有设置位置对象112,作业者3能够明确地把握将毫米波雷达传感器17的角度轴调整所需要的反光设置在哪里即可。作业者3能够通过将反光板设置为与显示于AR机5的设置位置对象112重叠,来将反光板设置在准确的位置。
在S150中,在选定的车载传感器是前照相机16的情况下,进入S170。在S170中,作为对象控制部38的功能,使影像7显示表示应该设置前照相机16的调整作业所使用的调整用设备(即,3个靶板)的位置的设置位置对象。
具体而言,例如图5所示,在中心线25上的距前部基准点23的恒定距离前方的位置显示第1设置基准点41a。并且,显示通过该第1设置基准点41a且与中心线25垂直的设置基准线41。上述恒定距离根据车种以及调整对象的车载传感器而预先设定。
另外,在设置基准线41中,在与第1设置基准点41a向两方向分别分离恒定距离的位置显示第2设置基准点41b以及第3设置基准点41c。
并且,根据各设置基准点41a、41b、41c,显示与地面2垂直的垂线,即,第1设置垂线101、第2设置垂线102、第3设置垂线103。而且,在这些各设置垂线101、102、103上的距地面2的恒定高度的位置分别显示设置位置对象106、107、108。上述恒定高度也根据车种以及调整对象的车载传感器而预先设定。
车辆1与各设置位置对象106、107、108的相对位置关系也恒定。因此,若作业者3改变方向或者移动,则根据该方向、位置的移动,根据与车辆1的相对位置关系,影像7中的设置位置对象106、107、108的显示位置、角度、大小等也变化。
通过这样在影像7显示有设置位置对象106、107、108,从而作业者3能够明确地把握将前照相机16的光轴调整所需要的3个靶板设置在哪里即可。作业者3能够通过将3个靶板设置为与显示于AR机5的3个设置位置对象106、107、108重叠,来将3个靶板设置于准确的位置。
在S150中,在选定的车载传感器是各后方传感器18、19的情况下,进入S180。在S180中,作为对象控制部38的功能,使表示应该设置各后方传感器18、19的调整作业所使用的调整用设备(即,后方传感器18、19各个的反光板)的位置的设置位置对象显示于影像7。
具体而言,例如图7所示,在地面2上,从中心线25上的后部基准点24相对于中心线25向恒定的角度方向显示两个设置基准线81、91。两个设置基准线81、91相对于中心线25呈线对称的位置关系。
另外,在各设置基准线81、91中的与后部基准点24分离恒定距离的位置,使垂直的设置垂线82、92显示在地面2。而且,在这些各设置垂线82、92上的距地面2的恒定高度的位置,分别显示设置位置对象83、93。上述恒定高度也根据车种以及调整对象的车载传感器而预先设定。
车辆1与各设置位置对象83、93的相对位置关系也恒定。因此,若作业者3改变方向或者移动,则跟随其方向、位置的移动,基于与车辆1的相对位置关系,影像7中的设置位置对象83、93的显示位置、角度、大小等也变化。
通过这样在影像7显示有设置位置对象83、93,作业者3能够明确把握将各后方传感器18、19的角度轴调整所需的反光板设置在哪里即可。作业者3通过将各反光板设置为与显示于AR机5的两个设置位置对象83、93重叠,从而能够将各反光板设置在准确的位置。
此外,在S160、S170以及S180的处理中,也可以在影像7也显示作业相关信息。或者,也可以根据作业者3的操作,显示或者非显示作业相关信息。
在S190中,作为图像识别控制部36的功能,判断调整用设备是否设置于准确的位置(换句话说,在影像7中显示有设置位置对象的位置)。具体而言,例如,利用图像识别功能,若在影像7内,实际的调整用设备与设置位置对象的位置关系为准确的位置关系,则判断为设置在准确的位置。
在未设置于准确的位置的情况下,反复进行S190的判断。在设置于准确的位置的情况下,移至S200。
在S200中,进行通知处理。该通知处理是对于作业者3通知调整用设备设置于准确的位置的处理。具体地通过怎样的方法通知,可以适当地决定,例如,既可以使显示部34显示特定的通知信息,例如,也可以通过未图示的声音输出设备输出特定的声音。
此外,在有多个应该设置的调整用设备的情况下,在S190~S200的处理中,例如,全部多个调整用设备被准确地设置的情况下,也可以从S190移至S200。另外,例如,也可以按调整用设备分别独立地判断是否准确地设置,并基于该判断结果进行通知处理。
在S200中进行了通知处理后,结束车载传感器调整辅助处理。此外,也可以在S200中进行了通知处理后,返回S140。这样一来,能够在某车载传感器的调整作业结束后,顺畅地移至相同的车辆中的其它的车载传感器的调整作业。
(1-4)实施方式的效果
根据以上说明的实施方式,起到以下的(1a)~(1d)的效果。
(1a)根据本实施方式,基于由照相机32拍摄到的两个部位以及地面2计算调整用设备的设置位置,并在显示于显示部34的影像中的该计算出的设置位置重叠显示有设置位置对象。
由此,作业者能够从显示于显示部34的影像容易地把握设置位置。然后,作业者一边看着影像一边设置调整用设备以使实际的调整用设备与被重叠显示的设置位置对象的位置一致,从而能够将调整用设备设置在适当的位置。
因此,能够以较少的工时容易地向作业者提供车载传感器的调整用设备的设置位置。
(1b)在上述实施方式中,对搭载于车辆的两个标志11、12进行图像识别,并基于该识别结果计算两个基准点23、24。因此,能够容易并且适当地计算设置位置的计算所需要的两个基准点23、24。
进一步,根据两个基准点23、24计算中心线25,并以该中心线25为基准计算设置位置。因此,能够容易并且适当地计算设置位置。
(1c)在上述实施方式中,在计算设置位置之前,由作业者选择车种。然后,根据所选择的车种来计算设置位置。因此,能够根据车种高精度地计算设置位置。
而且,在使作业者选择调整作业对象的车载传感器时,车载传感器的选项被锁定为与所选择的车种对应的车载传感器来显示。因此,作业者能够容易地选择与车种对应的车载传感器。
(1d)在上述实施方式中,向作业者通知在计算出的设置位置设置有实际的调整用设备。因此,作业者能够容易地在计算出的设置位置设置调整用设备。
[2.其他的实施方式]
以上,对本公开的实施方式进行了说明,但本公开不局限于上述的实施方式,能够进行各种变形来实施。
(2-1)在上述实施方式中,通过图3的S120的处理,基于前标志11以及后标志12识别出车辆前后两个部位的车宽度方向的中心点,但也可以通过其他的方法识别中心点。
例如,也可以通过对前车牌号码13进行图像识别来将该前车牌号码13的中心位置识别为车辆前方侧的中心点,通过对后车牌号码14进行图像识别来将该后车牌号码14的中心位置识别为车辆后方侧的中心点。
该情况下,例如,也可以将识别对象的车牌号码的数据预先存储于存储器,并通过与该数据比较而自动地识别。另外,例如,也可以通过对显示于影像7的车牌号码示出由作业者3进行的特定姿势,来将示出该姿势的图像识别为车牌号码。
另外,不局限于识别车辆1中的特定的构成物,例如,也可以通过在车辆1中的特定位置、或者车辆1的附近的特定位置设置特定的标记,并对该标记进行图像识别,来识别中心点。
图8示出使用标记的中心点的识别的一个例子。在图8中,在前车牌号码13的中央上部设置有前标记49,在后车牌号码14的中央上部设置有后标记50。各标记49、50的图像数据既可以预先存储于AR机5的存储器,也可以从服务器201或者PC202等下载到AR机5来获取。
各标记49、50由AR机5中的图像识别控制部36分别独立地识别。识别出各标记49、50后的处理与上述实施方式中的识别出各标志11、12后的处理基本相同。换句话说,在上述实施方式的说明中,将各标志11、12置换为各标记49、50即可。
但是,前标志11的位置和前车牌号码13的位置在车辆前后方向上偏离的情况下,从前部基准点23到设置基准点61a的距离与图6中的从前部基准点23到设置基准点61a的距离相差该偏离的量。
此外,设置标记的位置不局限于各车牌号码。只要能够使用标记来识别车宽度方向的中心点,也可以将任何标记设置在任何地方。
另外,也可以利用图像识别功能从车辆1整体的图像识别车宽度的区域,并从该车宽度的区域识别车宽度方向的中心点。此外,识别车宽度的区域的方法也可以是其他的方法。例如,也可以通过在车辆的左右两端设置标记,并对这些标记进行图像识别,来识别车宽度的区域。或者,也可以通过对于显示于影像7的车辆左端以及车辆右端分别示出特定姿势,来将示出该姿势的位置识别为车辆的左右两端,基于该识别结果识别中心点。
(2-2)上述实施方式的AR机5所具备的功能的一部分也可以安装于与AR机5不同的装置。
例如,如图9所示,AR机70具备照相机32和显示部34,空间识别控制部35、图像识别控制部36、以及自己位置识别控制部37的功能也可以安装于与AR机70不同的装置(例如PC202)。
该情况下,也可以在车辆1以及其周围的至少一方设置至少一个标记,利用照相机32拍摄该至少一个标记,并基于该拍摄到的图像,进行基于空间识别控制部35的空间识别信息的生成以及基于自己位置识别控制部37的自己位置识别信息的生成。空间识别控制部35例如也可以构成为根据特定标记的设置位置对成为对象的物体(例如地面、车辆等)进行空间识别。自己位置识别控制部37例如也可以构成为基于由照相机32拍摄到的特定标记的方向和上述空间识别的结果识别自己位置。
此外,在图9所示的构成中,由照相机32拍摄到的图像的数据经由通信从AR机70发送到PC202。另外,由PC202中的对象控制部38生成的影像7的影像数据经由通信从PC202发送到AR机70。
另外,在图9所示的构成中,在PC202所具备的存储器215预先存储有车种信息以及对象数据。PC202也可以自基于存储于存储器215的这些信息以及数据进行各种处理。但是,这些信息以及数据也可以能够从服务器201等其他的装置获取。
(2-3)照相机32既可以是单眼照相机,例如也可以是如立体照相机那样具备多个透镜的照相机。
(2-4)为了修正所生成的设置位置对象的位置,也可以设置修正用标记,保存在计算设置位置对象时该计算出的设置位置对象与修正用标记的相对位置关系,并基于该相对位置关系,修正设置位置对象的位置。
(2-5)AR机的具体方式不局限于护目镜型。例如,也可以使具备照相机以及显示部的平板终端具有AR机的功能。
(2-6)也可以通过多个构成要素实现上述实施方式中的一个构成要素所具有的多个功能,或通过多个构成要素实现一个构成要素所具有的一个功能。另外,也可以通过一个构成要素实现多个构成要素所具有的多个功能,或通过一个构成要素实现由多个构成要素实现的一个功能。另外,也可以省略上述实施方式的构成的一部分。另外,也可以对于其他的上述实施方式的构成附加或者置换上述实施方式的构成的至少一部分。
Claims (8)
1.一种设置位置信息提供装置,具备:
拍摄装置(32),构成为拍摄影像(7);
显示装置(34),构成为显示由上述拍摄装置拍摄到的影像;
识别部(35、36、S120),构成为从由上述拍摄装置拍摄到的影像,识别上述影像所包含的车辆的特定的两个部位(1)或者上述车辆的附近的特定的两个部位、以及上述影像所包含的载置有上述车辆的地面(2);
计算部(38、S120),构成为基于由上述识别部识别出的上述两个部位以及上述地面,计算上述影像内的调整用设备的设置位置,其中,上述调整用设备是搭载于上述车辆的车载传感器的调整作业所使用的设备;以及
重叠显示部(38、S160、S170、S180),构成为对显示于上述显示装置的上述影像,使表示上述设置位置的图像亦即设置位置对象(83、93、106、107、108、112)重叠显示在由上述计算部计算出的上述设置位置。
2.根据权利要求1所述的设置位置信息提供装置,其中,
上述识别部构成为识别搭载于上述车辆的至少一个标志(11、12)、搭载于上述车辆的至少一个车牌号码(13、14)、以及上述车辆的车宽度中的至少两者,并基于该识别出的至少两者来识别上述两个部位。
3.根据权利要求1或者2所述的设置位置信息提供装置,其中,
上述计算部构成为执行:
基准点计算处理,基于由上述识别部识别出的上述两个部位,计算上述地面中的与上述两个部位分别对应的两个基准点(23、24);
基准线计算处理,基于通过上述基准点计算处理计算出的上述两个基准点,计算上述地面上的经过上述两个基准点中的至少一个基准点的至少一个基准线(25);以及
设置位置计算处理,基于通过上述基准点计算处理计算出的上述两个基准点、以及通过上述基准线计算处理计算出的上述至少一个基准线来计算上述设置位置。
4.根据权利要求1~3中的任意一项所述的设置位置信息提供装置,其中,
还具备车种信息获取部(S110),该车种信息获取部构成为获取表示上述车辆的车种的车种信息,
上述计算部构成为根据由上述车种信息获取部获取到的上述车种信息来计算上述设置位置。
5.根据权利要求4所述的设置位置信息提供装置,其中,
还具备:
选项提示部(S140),构成为根据由上述车种信息获取部获取到的上述车种信息,提示与能够搭载于上述车种信息所示的上述车辆的上述车载传感器对应的上述调整用设备的选项;以及
选择受理部(S140),构成为从由上述选项提示部提示的上述选项中受理任意一个上述调整用设备的选择,
上述计算部构成为计算由上述选择受理部选择出的上述调整用设备的上述设置位置。
6.根据权利要求1~5中的任意一项所述的设置位置信息提供装置,其中,
还具备通知部(S200),该通知部(S200)构成为在显示于上述显示装置的影像中,与通过上述重叠显示部重叠显示的上述设置位置对象对应的位置和上述调整用设备的实际的位置一致的情况下进行特定通知。
7.根据权利要求1~6中的任意一项所述的设置位置信息提供装置,其中,
上述拍摄装置、上述显示装置、上述识别部、上述计算部以及上述重叠显示部收容于相同的一个框体。
8.一种设置位置信息提供方法,具有:
拍摄影像;
显示上述拍摄到的影像;
从上述拍摄到的影像,识别上述影像所包含的车辆的特定的两个部位或者上述车辆附近的特定的两个部位、以及上述影像所包含的载置有上述车辆的地面;
基于上述识别出的上述两个部位以及上述地面,来计算上述影像内的调整用设备的设置位置,其中,上述调整用设备是搭载于上述车辆的车载传感器的调整作业所使用的设备;以及
对上述显示的上述影像,使表示上述设置位置的图像亦即设置位置对象重叠显示在上述计算出的上述设置位置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018002794A JP6729607B2 (ja) | 2018-01-11 | 2018-01-11 | 設置位置情報提供装置及び設置位置情報提供方法 |
JP2018-002794 | 2018-01-11 | ||
PCT/JP2019/000712 WO2019139129A1 (ja) | 2018-01-11 | 2019-01-11 | 設置位置情報提供装置及び設置位置情報提供方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111566707A true CN111566707A (zh) | 2020-08-21 |
CN111566707B CN111566707B (zh) | 2023-06-16 |
Family
ID=67219730
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980007670.7A Active CN111566707B (zh) | 2018-01-11 | 2019-01-11 | 设置位置信息提供装置以及设置位置信息提供方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11482003B2 (zh) |
JP (1) | JP6729607B2 (zh) |
CN (1) | CN111566707B (zh) |
DE (1) | DE112019000388T5 (zh) |
WO (1) | WO2019139129A1 (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021096682A (ja) * | 2019-12-18 | 2021-06-24 | 株式会社バンザイ | 車両用運転支援装置の校正用基準具を設置するための表示装置 |
WO2021186853A1 (ja) * | 2020-03-19 | 2021-09-23 | 日本電気株式会社 | 画像生成装置、画像生成方法、およびプログラム |
JP6838183B1 (ja) * | 2020-03-26 | 2021-03-03 | ボッシュ株式会社 | 校正作業補助装置 |
JP2022150965A (ja) * | 2021-03-26 | 2022-10-07 | 株式会社デンソー | 精度補正装置及び拡張現実画像表示装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004069658A (ja) * | 2002-08-09 | 2004-03-04 | Honda Motor Co Ltd | 車載レーダの照準調整検査装置と照準調整検査方法 |
JP2011030274A (ja) * | 2010-10-25 | 2011-02-10 | Fujitsu Ten Ltd | 車載機 |
CN103983255A (zh) * | 2013-02-08 | 2014-08-13 | 赫克斯冈技术中心 | 用于测量和远程控制的移动场控制器 |
CN104423526A (zh) * | 2013-08-30 | 2015-03-18 | 福特全球技术公司 | 一种辅助机动车辆的感应电池充电的方法 |
WO2016129552A1 (ja) * | 2015-02-10 | 2016-08-18 | 株式会社デンソー | カメラパラメータ調整装置 |
WO2016199244A1 (ja) * | 2015-06-10 | 2016-12-15 | 株式会社日立製作所 | 物体認識装置及び物体認識システム |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3708509B2 (ja) | 2002-08-26 | 2005-10-19 | 本田技研工業株式会社 | 車載レーダおよび車載カメラの照準調整検査装置 |
JP5320904B2 (ja) | 2008-08-21 | 2013-10-23 | 株式会社デンソー | 検査システム |
JP2010156609A (ja) | 2008-12-26 | 2010-07-15 | Toyota Motor Corp | 軸調整装置、及び軸調整方法 |
JP2012043396A (ja) * | 2010-08-13 | 2012-03-01 | Hyundai Motor Co Ltd | 拡張現実を用いた車両消耗品管理システム及びその方法 |
MY188596A (en) * | 2015-08-21 | 2021-12-22 | Ns Solutions Corp | Display system, display device, display method, and non-transitory computer readable recording medium |
US11011074B2 (en) * | 2016-03-04 | 2021-05-18 | Ns Solutions Corporation | Information processing system, information processor, information processing method and program |
WO2017203796A1 (ja) * | 2016-05-25 | 2017-11-30 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
-
2018
- 2018-01-11 JP JP2018002794A patent/JP6729607B2/ja active Active
-
2019
- 2019-01-11 WO PCT/JP2019/000712 patent/WO2019139129A1/ja active Application Filing
- 2019-01-11 CN CN201980007670.7A patent/CN111566707B/zh active Active
- 2019-01-11 DE DE112019000388.7T patent/DE112019000388T5/de active Pending
-
2020
- 2020-06-29 US US16/915,419 patent/US11482003B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004069658A (ja) * | 2002-08-09 | 2004-03-04 | Honda Motor Co Ltd | 車載レーダの照準調整検査装置と照準調整検査方法 |
JP2011030274A (ja) * | 2010-10-25 | 2011-02-10 | Fujitsu Ten Ltd | 車載機 |
CN103983255A (zh) * | 2013-02-08 | 2014-08-13 | 赫克斯冈技术中心 | 用于测量和远程控制的移动场控制器 |
CN104423526A (zh) * | 2013-08-30 | 2015-03-18 | 福特全球技术公司 | 一种辅助机动车辆的感应电池充电的方法 |
WO2016129552A1 (ja) * | 2015-02-10 | 2016-08-18 | 株式会社デンソー | カメラパラメータ調整装置 |
WO2016199244A1 (ja) * | 2015-06-10 | 2016-12-15 | 株式会社日立製作所 | 物体認識装置及び物体認識システム |
Also Published As
Publication number | Publication date |
---|---|
CN111566707B (zh) | 2023-06-16 |
DE112019000388T5 (de) | 2020-09-17 |
WO2019139129A1 (ja) | 2019-07-18 |
US11482003B2 (en) | 2022-10-25 |
JP2019121322A (ja) | 2019-07-22 |
JP6729607B2 (ja) | 2020-07-22 |
US20200327333A1 (en) | 2020-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111566707B (zh) | 设置位置信息提供装置以及设置位置信息提供方法 | |
US10659677B2 (en) | Camera parameter set calculation apparatus, camera parameter set calculation method, and recording medium | |
US10794995B2 (en) | System and method for vehicle radar inspection | |
US8872920B2 (en) | Camera calibration apparatus | |
US9386302B2 (en) | Automatic calibration of extrinsic and intrinsic camera parameters for surround-view camera system | |
US10935643B2 (en) | Sensor calibration method and sensor calibration apparatus | |
RU2666061C2 (ru) | Устройство распознавания сигнала регулирования движения | |
CN109658684B (zh) | 车辆调度系统、自主驾驶车辆以及车辆调度方法 | |
EP3140725B1 (en) | Dynamic camera view to aid with trailer attachment | |
JP4461091B2 (ja) | 位置検出装置及びその補正方法 | |
EP2500890A2 (en) | Image processing device, method thereof, and moving body anti-collision device | |
JP2007034477A (ja) | 車両用走行支援装置 | |
JP6972692B2 (ja) | 作業機械の周囲監視システム | |
US20170028917A1 (en) | Driving assistance device and driving assistance method | |
CN114341869A (zh) | 信息处理装置、信息处理方法和程序 | |
JP4523445B2 (ja) | 通信車両表示装置 | |
JP2020098451A (ja) | 情報投影システム、制御装置、及び情報投影方法 | |
JP2019504986A (ja) | 自動車用視覚システム及び視覚システムを制御する方法 | |
CN111915900B (zh) | 信息处理装置和方法及计算机可读存储介质 | |
CN115235526A (zh) | 用于传感器的自动校准的方法和系统 | |
JP4867035B2 (ja) | 画像処理装置、画像処理用プログラム、画像処理方法 | |
JP2022116668A (ja) | 情報提供方法及び情報提供システム | |
WO2022202926A1 (ja) | 精度補正装置及び拡張現実画像表示装置 | |
JP4105146B2 (ja) | エイミング装置 | |
US20230388477A1 (en) | Verification method for calibration of camera, calibration verification program and calibration verification apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |