CN111152232A - 服务机器人以及用于操作该服务机器人的方法 - Google Patents

服务机器人以及用于操作该服务机器人的方法 Download PDF

Info

Publication number
CN111152232A
CN111152232A CN201910670016.6A CN201910670016A CN111152232A CN 111152232 A CN111152232 A CN 111152232A CN 201910670016 A CN201910670016 A CN 201910670016A CN 111152232 A CN111152232 A CN 111152232A
Authority
CN
China
Prior art keywords
service robot
target vehicle
controller
user
visual information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910670016.6A
Other languages
English (en)
Other versions
CN111152232B (zh
Inventor
金桂润
韩志旼
李知娥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hyundai Motor Co
Kia Corp
Original Assignee
Hyundai Motor Co
Kia Motors Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hyundai Motor Co, Kia Motors Corp filed Critical Hyundai Motor Co
Publication of CN111152232A publication Critical patent/CN111152232A/zh
Application granted granted Critical
Publication of CN111152232B publication Critical patent/CN111152232B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/453Help systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0623Item investigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • H04W4/027Services making use of location information using location based information parameters using movement velocity, acceleration information

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Manipulator (AREA)

Abstract

本发明涉及服务机器人以及用于操作该服务机器人的方法。具体地,本发明涉及用于引导并说明展示车辆的所述服务机器人以及用于操作所述机器人的方法,其中,所述服务机器人可以包括:投影仪,其用于投影与目标车辆相关的视觉信息;监测装置,其用于监测用户的状态;以及控制器,其配置为与目标车辆的引导说明一起向用户推荐视觉信息的呈现;通过监测装置确定用户是否接受推荐;当确定用户接受推荐时,通过投影仪呈现视觉信息。

Description

服务机器人以及用于操作该服务机器人的方法
相关申请的交叉引用
本申请要求2018年11月8日提交的韩国专利申请第10-2018-0136707号的优先权,该申请的全部内容结合于此用于通过该引用的所有目的。
技术领域
本发明涉及一种用于引导并说明展示车辆的服务机器人以及操作所述机器人的方法。
背景技术
通常,当用户需要购买车辆时,用户可以访问车展场地(例如车辆经销商或汽车工作室)以查看与所要购买车辆相关的信息。当用户以现有的方式查看车辆信息的时候,用户很难准确掌握在车辆的实际驾驶环境中的车辆性能和功能。因此,按照传统的方式,用户无法确定用户是否合适于所述车辆和驾驶环境。
公开于本发明的背景部分的信息仅仅旨在加深对本发明的一般背景技术的理解,而不应当被视为承认或以任何形式暗示该信息构成已为本领域技术人员所公知的现有技术。
发明内容
本发明的各方面旨在提供一种服务机器人以及用于操作所述机器人的方法,所述服务机器人用于在引导并说明展示车辆时呈现视觉信息。
本发明构思要解决的技术问题不限于上述技术问题,本发明所属领域的技术人员通过如下说明可以清楚理解本文未提到的其它技术问题。
根据本发明的各方面,提供一种服务机器人,其可以包括:投影仪,其用于投影与目标车辆相关的视觉信息;监测装置,其用于监测用户的状态;和控制器,其配置为在目标车辆的引导说明期间向用户推荐视觉信息的呈现;通过监测装置确定用户是否接受推荐;当确定用户接受推荐时,通过投影仪呈现视觉信息。
根据本发明的示例性实施方案,所述监测装置可以包括:传感器,其用于检测位于自目标车辆预定半径内的用户;以及处理器,其用于对传感器输出的检测到的数据进行分析,并确定用户的状态。
根据本发明的示例性实施方案,所述传感器可以包括:摄像机和麦克风中的至少一种。
根据本发明的示例性实施方案,所述机器人进一步可以包括:传感器系统,其用于检测目标车辆和服务机器人的位置;以及通信模块,其用于与目标车辆进行无线通信。
根据本发明的示例性实施方案,所述控制器进一步可以配置为:通过通信模块获取与目标车辆相关的识别信息;并且基于所述识别信息来识别目标车辆。
根据本发明的示例性实施方案,所述控制器进一步可以配置为:利用传感器系统来确定目标车辆和服务机器人的位置;并且将服务机器人的中心部分与目标车辆的中心部分直线对齐。
根据本发明的示例性实施方案,所述控制器进一步可以配置为:参考预存储信息来确定视觉信息的呈现位置,所述预存储信息指示对应于每个车辆部分的预定呈现位置;并且将服务机器人移动至确定的呈现位置。
根据本发明的示例性实施方案,所述控制器进一步可以配置为:识别投影仪可以投影视觉信息的位置。
根据本发明的示例性实施方案,所述控制器进一步可以配置为:获取目标车辆的影像并将获取的影像与预存储的参考影像比较;并且,基于比较结果,确定是否需要服务机器人的位置调整。
根据本发明的示例性实施方案,所述控制器进一步可以配置为:当获取的影像和参考影像的相似度低于阈值的时候,基于预存储的车辆轮廓信息来调整服务机器人的位置。
根据本发明的各方面,用于操作服务机器人的方法可以包括:进行对目标车辆的引导说明;向用户推荐视觉信息服务的呈现;确定用户是否接受推荐;并且,当确定用户接受推荐时,呈现视觉信息。
根据本发明的示例性实施方案,进行引导说明可以包括:识别目标车辆;并且,呈现目标车辆的功能和操纵方式。
根据本发明的示例性实施方案,识别目标车辆可以包括:利用短距离无线通讯来识别附着于目标车辆的标签信息。
根据本发明的示例性实施方案,推荐视觉信息的呈现可以包括:确定是否在引导说明的内容中包含附加说明;并且,当确定在内容中包含附加说明时,向用户推荐视觉信息的呈现。
根据本发明的示例性实施方案,所述附加说明是以视觉方式呈现。
根据本发明的示例性实施方案,确定用户是否接受推荐可以包括:识别通过麦克风输入的用户的声音,并且基于声音确定用户是否接受推荐。
根据本发明的示例性实施方案,确定用户是否接受推荐可以包括:利用摄像机监测用户的状态,并且基于用户的状态,确定用户是否接受推荐。
根据本发明的示例性实施方案,视觉信息的呈现可以包括:将服务机器人的位置对齐至目标车辆,将服务机器人的位置对齐至目标车辆完成时,投影视觉信息。
根据本发明的示例性实施方案,服务机器人的位置的对齐可以包括:确定服务机器人的当前位置;确定用于视觉信息的呈现位置;将服务机器人移动至确定的呈现位置;并且,识别视觉信息可以被投影的位置。
根据本发明的示例性实施方案,服务机器人的位置的对齐可以包括:确定用于视觉信息的呈现位置;将服务机器人移动至确定的呈现位置;拍摄目标车辆的影像;比较拍摄的影像和参考影像;基于比较结果,确定是否需要调整服务机器人的位置;并且,当确定服务机器人的位置需要调整时,调整服务机器人的位置。
通过纳入本文的附图以及随后与附图一起用于说明本发明的某些原理的具体描述,本发明的方法和装置所具有的其它特征和优点将更为具体地变得清楚或得以阐明。
附图说明
图1为显示根据本发明的示例性实施方案的服务机器人的方框图。
图2为说明与本发明相关的基于车辆部分的信息的示意图。
图3为操作根据本发明的示例性实施方案的服务机器人的方法的流程图。
图4示出了图3所示的基于目标车辆对齐服务机器人的过程的一个示例。
图5示出了图3所示的基于目标车辆对齐服务机器人的过程的另一个示例。
图6、图7、图8、图9和图10示出了根据本发明示例性实施方案的投影视觉信息的示例。
应当理解,附图不一定是按照比例绘制,而是呈现各种特征的略微简化表示,以对本发明的基本原理进行说明。本文所公开的本发明的具体设计特征(包括例如具体尺寸、方向、位置和形状)将部分地由具体所要应用和使用的环境来确定。
在这些图中,贯穿附图的多幅图,附图标记涉及本发明的相同或等同的部分。
具体实施方式
下面将参考示例性附图对本发明的各示例性实施方案进行详细描述。当对每个附图的元件添加附图标记时,应注意的是,即使他们在其他附图中显示的时候,相同或等同的元件是通过相同的附图标记表示的。另外,在描述本发明示例性实施方案中,当确定相关的公知的配置或功能的详细描述会干扰对于本发明示例性实施方案的理解的时候,其会被省略。
如第一、第二、A、B、(a)和(b)等的术语可以用于描述本申请的示例性实施方案中的元件。这些术语仅用于区分一个元件和另一个元件,但是这些术语并不限制相应元件的本质特征、顺序或次序。除非另有声明,本文使用的所有术语(包括技术术语和科技术语)具有正如本公开所属领域的技术人员通常理解的相同含义。还应理解,常用词典中定义的术语应被解释为具有与相关技术的语境中的含义一致的含义,不应被解释为理想的意义或过于字面的意义,除非本文清楚定义。
如本文所述,服务机器人是指讲解员机器人,其将访客引导到车辆经销商或汽车工作室展示的车辆,并使用语音来说明所展示车辆的功能以及操作方法。
图1为显示根据本发明的示例性实施方案的服务机器人的方框图。
图2为说明与本发明相关的基于车辆部分的信息的示意图。
参考图1,服务机器人100包括:通信模块110,传感器系统120,储存装置130,投影仪140,监测装置150,驱动装置160,以及控制器170。
所述通信模块110与连接在无线通信网络的电子设备(例如,电子标签、车辆终端、智能手机和服务器)交换数据。所述通信模块110可以包括:用于接入无线网络的无线网络模块和/或用于短距离通信的短距离无线通信模块。所述无线通信技术可以包括:无线网络技术,例如WLAN(无线局域网)(WiFi)、Wibro(无线宽带)和Wimax(全球微波接入互操作性);和/或短距离通信技术,例如蓝牙、近场通信(NFC)、射频识别(RFID)、红外数据协会(IrDA),超宽带(UWB)和无线个域网(Zigbee)。
所述通信模块110接收从每个展示车辆传输的识别信息。例如,通信模块110接收从附着于要说明的车辆(以下称为目标车辆)上的电子标签传输的标签信息。在当前关系中,标签信息可以包括:目标车辆的识别信息(例如,车辆编号、车型、和车辆模型)。
所述传感器系统120检测服务机器人100周围的周围物体,并且测量服务机器人100和周围物体的当前位置。另外,传感器系统120获取与服务机器人周围环境相关的视觉信息、听觉信息和触觉信息。传感器系统120可以包括:距离传感器、惯性传感器、主动信标传感器、影像传感器、触觉传感器和听觉传感器。
距离传感器测量服务机器人100和目标车辆之间的距离。距离传感器可以实施为例如雷达(无线电探测和测距)和超声波传感器等传感器的至少一种。
惯性传感器测量服务机器人100移动时的加速度和角速度。惯性传感器可以包括:角速度传感器和加速度传感器。通过惯性传感器测量的加速度和角速度用于识别服务机器人100的位置和姿势。
主动信标传感器是与惯性传感器一起用于估算服务机器人100的位置的传感器。主动信标传感器主要用于在室内估算服务机器人100和目标车辆的位置。主动信标传感器可以通过发射超声波然后确定超声波的返回时间,来估算服务机器人100或目标车辆的位置。如此的主动信标传感器和惯性传感器可以被统称为位置估算传感器。
影像传感器获取服务机器人100周围环境的影像或目标车辆的影像。影像传感器可以具体体现为:电荷耦合器件(CCD)影像传感器、互补金属氧化物半导体(CMOS)影像传感器、电荷引发器件(CPD)影像传感器和电荷注入器件(CID)影像传感器中的至少一种。
触觉传感器使服务机器人100检测触觉并识别外部触觉刺激。触觉传感器可以包括:触摸传感器、压力传感器和/或力传感器。
听觉传感器检测从外部产生的声信号。作为听觉传感器可以使用麦克风(声音传感器)。
储存装置130存储信息(例如车辆规格信息、车辆轮廓信息、每个车辆部分的适当投影位置以及数据库表单中每个车辆模型的投影车辆信息)。车辆轮廓信息包括:车辆的前部、后部和两侧部的长度以及轮胎位置。基于车辆部分的信息包括:如图2所示的从车辆中心部分的8个方向和3段距离获取的影像。对所有影像,车辆部分的位置会被标签和存储。
另外,储存装置130存储根据“道路交通法规”的车道宽度和停车场参考信息。储存装置130可以存储机器人控制算法、位置估算算法、影像处理算法和影像比较算法。
储存装置130可以具体体现为:至少一种存储(记录)介质的至少一个,所述存储(记录)介质包括:闪存、硬盘、安全数字(SD)卡、随机存取存储器(RAM)、静态随机存取存储器(SRAM)、只读存储器(ROM)、可编程只读存储器(PROM)、电可擦可编程只读存储器(EEPROM)、可擦可编程只读存储器(EPROM)、寄存器、可移动硬盘和网络存储器。
投影仪140将存储在储存装置130的视觉信息(投影影像)输出到投影位置。投影仪140可机械地连接至致动器上,所述致动器用于调整投影仪140的倾斜度和旋转(滚动、倾斜、偏航),以此将投影影像输出至所需的投影位置。致动器是在控制器170的控制下工作。
监测装置150监测用户(即,观看展示车辆的人们)的状态。监测装置150包括:摄像机151、麦克风152、存储器153和处理器154。
摄像机151获取用户的影像。摄像机151可以包括:例如CCD影像传感器、CMOS影像传感器、CPD影像传感器和CID影像传感器的传感器中的至少一种影像传感器。
麦克风152通过振动板接收来自外部的外部声信号,并且将信号转换成电子语音数据(语音信号)。在麦克风152中可以实施噪声消除算法,所述噪声消除算法用于消除当从外部接收声信号时产生的噪声。
存储器153可以存储用于操作处理器154的程序,并且暂时存储输入/输出数据。存储器153存储影像处理和分析算法、视线识别算法和语音识别算法。
存储器153可以具体体现为:闪存、硬盘、RAM、SRAM、ROM、EEPROM、PROM、磁存储器、磁盘和光盘中的至少一种。
处理器154控制监测装置150的全部操作。处理器154可具体体现为:专用集成电路(ASIC)、数字信号处理器(DSP)、可编程逻辑器件(PLD)、现场可编辑门阵列(FPGA)、中央处理器(CPU)、微控制器和微处理器中的至少一种。
处理器154分析通过摄像机151获取的用户影像,以掌握用户的状态。在当前关系中,用户的状态包括:例如视线、视线停留时间、视线位置、用户的头部运动以及用户是否乘坐在车中的信息。
处理器154利用语音识别技术分析通过麦克风152输入的用户语音信号,并将语音信号转化成单词或句子。处理器154识别用户语音并将语音识别结果传输到控制器170。
在本发明的示例性实施方案中,使用摄像机151和/或麦克风152来监测用户的状态的监测装置150是单独实施的。然而,可以使用服务机器人100的传感器系统120中提供的影像传感器和听觉传感器来监测用户的状态。
驱动装置160根据来自控制器170的指令来控制服务机器人100的移动。换句话说,驱动装置160包括:致动器,其用于控制服务机器人100的移动(行进)或旋转。
控制器170控制服务机器人100的全部操作。控制器170包括:处理器和存储器(例如,ROM、RAM和EEPROM),所述存储器具有被编程为使处理器进行预定操作的程序。所述处理器可以实施为:ASIC、DSP、PLD、FPGA、CPU、微控制器和微处理器中的至少一种。
控制器170可以通过通信模块110,根据从外部传输的控制指令来控制服务机器人100的操作。例如,当用户(引导员)通过在智能手机中布置的控制器来控制服务机器人100时,控制器170通过通信模块110接收从智能手机传输的控制指令,并且根据接收的控制指令来控制服务机器人100的操作。
在一个示例中,控制器170通过传感器系统120或监测装置150识别用户的语音指令,并且根据识别的语音指令来控制服务机器人100的操作。例如,控制器170通过监测装置150的麦克风152来识别用户的语音指令“开始引导”,并开始对于展示车辆的引导。
控制器170可以通过基于存储在储存装置130中的行进路径信息的控制驱动装置160来移动服务机器人100。换句话说,控制器170是沿着预定的行进路径将观看的人们引导至目标车辆。在一示例中,控制器170通过监测装置150识别参观者的行进路径,并且根据识别的行进路径来移动服务机器人100。
控制器170识别展示车辆中的目标车辆。控制器170读取附着于目标车辆的电子标签或物理标签,以确定目标车辆的位置。控制器170控制驱动装置160以将服务机器人100移动至目标车辆的位置。
当机器人100向目标车辆的移动完成的时候,控制器170从储存装置130读取与目标车辆相关的信息,并且向参观者(用户)呈现所述信息。控制器170可以通过利用文本转语音(TTS)应用来将与车辆信息(目标车辆信息)相关的信息转换成语音信号,并通过扬声器向用户输出语音信号。在当前关系中,目标车辆信息可以被存储为语音数据。在此情况中,控制器170播放作为语音数据的目标车辆信息,并将其输出到扬声器。
当基于目标车辆信息说明目标车辆的时候,控制器170向用户(参观者)推荐视觉信息服务。换句话说,当视觉附加呈现功能包含在目标车辆说明内容中的时候,控制器170可以向用户推荐提供相应的视觉附加呈现。例如,在说明车辆的整个宽度的期间,控制器170可以推荐向用户提供相应的视觉附加呈现“你想知道相对于车道或停车场宽度的车辆的总宽度吗?”。在一示例中,在说明先进的驾驶辅助系统(ADAS)期间,控制器170可以推荐向用户提供相应的视觉附加呈现“你想看到当物体出现在车辆的盲区中时的情况吗?”。
向用户推荐视觉呈现之后,控制器170在预定的时间内等待来自于用户(参观者)的回复。控制器170可以通过监测装置150来接收用户的回复。为此,控制器170通过监测装置150来分析用户的视线或头部移动,以确定用户是否接受推荐。或者,控制器170通过监测装置150的麦克风152来识别用户的语音输入,并确定用户是否接受推荐。在一示例中,基于通过输入/输出装置(例如触摸屏)的用户输入,控制器170可以确定用户是否接受推荐。
控制器170根据用户是否接受推荐来投影(输出)视觉信息。当用户没有接受推荐的时候,控制器170不会向用户呈现视觉附加呈现,而开始呈现目标车辆信息。
相反地,当用户接受推荐的时候,控制器170会基于目标车辆使服务机器人100对齐,并调整机器人和车辆之间的距离以此确保投影距离。控制器170可以识别附着于目标车辆的位置标签,并基于位置标签来设定相关对齐参考点。位置标签可以分别附着于车辆的前中心、后中心、两个前轮和两个后轮。附着于车辆的前中心和后中心的位置标签可以作为对齐参考点,同时,附着于前轮胎和后轮胎的位置标签可以作为对齐调整参考点。
更具体地,以下会说明如何将服务机器人100和目标车辆对齐。
控制器170利用附着于车辆的前中心或后中心的标签来识别目标车辆的中心位置。当机器人100在车辆前方的时候,控制器170将服务机器人100的中心部分与目标车辆的中心位置直线对齐。
控制器170确保用于投影视觉信息所需的投影距离。基于视觉信息提前确定投影距离。
基于附着于目标车辆的两个前轮胎或其两个后轮胎的位置标签以及存储在储存装置130中的车辆规格数据库,控制器170将服务机器人100重新安排到目标车辆的中心部分。
当服务机器人100的对齐完成的时候,控制器170将储存装置130的视觉信息投影到目标车辆。在当前关系中,视觉信息可以实施为代表停车场定义线、车道宽度、车道等的影像数据。
图3为用于操作根据本发明的示例性实施方案的服务机器人的方法的流程图。
参考图3,服务机器人100的控制器170识别将要说明的目标车辆(S110)。控制器170将服务机器人100移动至目标车辆的位置,并识别附着于目标车辆的电子标签。电子标签包括识别信息(例如车辆模型信息)。相应地,控制器170可以通过存储在电子标签中的车辆模型信息来识别将要说明的目标车辆。
控制器170输出关于目标车辆的说明(S120)。为此,控制器170从储存装置130中读取与已识别的目标车辆相关的信息,并且基于读取的信息来呈现车辆说明。在此时,控制器170可以使用语音输出车辆说明。
控制器170向用户推荐视觉信息服务的呈现(S130)。当与目标车辆说明相关的说明信息包括附加视觉信息的时候,控制器170可以向用户(参观者)推荐视觉信息服务的呈现。
控制器170检查用户是否接受附加视觉信息的呈现的推荐(S140)。控制器170可以通过监测装置150来检查用户是否已接受推荐。例如,当附加视觉信息“你想知道车辆A、车辆B或车辆C的轮胎尺寸和目标车辆的轮胎尺寸之间的比较吗”包含在安装于车辆上的轮胎的说明中时,服务机器人100可以做出此附加视觉信息的呈现。同样地,对此作为回复,用户可以说“将目标车辆的轮胎尺寸与车辆A的轮胎尺寸进行比较”。如此,服务机器人100的控制器170可以通过监测装置150的麦克风152来识别参观者的语音。
同样地,控制器170将服务机器人100的位置与目标车辆对齐(S150)。控制器170通过驱动装置160来移动服务机器人100,使得服务机器人100的中心部分在车辆的纵向方向上直线对齐至目标车辆的中心部分。
当服务机器人100的对齐完成时候,控制器170投影视觉信息(S160)。控制器170向目标车辆投影视觉信息。
图4示出了图3所示的将服务机器人的位置与目标车辆对齐的过程。本示例性实施方案描述了利用四方向的车辆轮廓信息来对齐服务机器人的投影位置。在当前关系中,四方向的车辆轮廓信息包括车辆的前部、后部、两侧部的长度,以及车辆的轮胎位置。本发明的本示例性实施方案可应用于如下情况中,所述情况是需要准确的位置和尺寸比较的情况,例如比较目标车辆与其他车辆产品之间的尺寸(例如,轮胎和车辆宽度)和形状(例如,外观、轿车和掀背式)。
在S140中,当用户接受视觉信息呈现推荐的时候,服务机器人100的控制器170确定视觉信息的呈现位置(S1501)。即,控制器170识别要附加说明的车辆部分,然后通过参考存储在储存装置130中的表明每个车辆部分的适当投影位置的信息,来确定呈现位置。
控制器170控制驱动装置160,以使服务机器人100移动到呈现位置(S1502)。
控制器170拍摄目标车辆的影像(S1503)。控制器170拍摄要附加说明的车辆部分的影像。
控制器170比较拍摄的影像和参考影像(S1504)。控制器170将拍摄的影像与包含在存储于储存装置130中的车辆轮廓信息中的影像进行比较。控制器170确定拍摄的影像和包含在车辆轮廓信息中的影像之间的相似度。
控制器170根据比较结果来确定是否需要位置调整(S1505)。当相似度小于95%的时候,控制器170确定需要位置调整。当相似度为95%或以上的时候,控制器170确定不需要位置调整。
当需要位置调整的时候,控制器170重新调整服务机器人100的位置。当相似度小于75%,控制器170将服务机器人100从当前呈现位置进一步移动预定的距离。当相似度大于或等于75%并小于95%的时候,控制器170优化并重新定义呈现位置。
当服务机器人100的位置调整完成的时候,控制器170向要附加说明的车辆部分投影视觉信息(S160)。
图5显示图3所示的服务机器人与目标车辆对齐的过程的另一个示例。本示例性实施方案描述了如何利用从8方向和3段距离取得的车辆影像信息来对齐服务机器人的投影位置。本发明的本示例性实施方案可以应用于如下情况,所述情况是当需要指定多种车辆元件(例如A/B柱、前照灯等)的每个的合适位置的情况。
当服务机器人100的控制器170在S140中确定用户接受推荐的时候,控制器170确定服务机器人自身的位置(S1511)。控制器170分析通过摄像机获取的影像并定位服务机器人自身的位置。即,控制器170识别相对于目标车辆的服务机器人100的相对位置。
控制器170确定用于视觉信息的呈现位置(S1512)。控制器170参考存储在储存装置130中的表明每个车辆部分的适当投影位置的信息,并识别对应于要附加说明的车辆部分的呈现位置。
控制器170将服务机器人100移动至呈现位置(S1513)。控制器170通过驱动装置160来控制服务机器人100的行进,从而将服务机器人100移动到要附加说明车辆部分的点或投影点上。
控制器170识别目标车辆的投影位置(指定位置)(S1514)。控制器170识别这样的位置,所述位置为考虑到服务机器人100和要附加说明的车辆部分的位置而使视觉信息被指定或被投影的位置。
控制器170将视觉信息输出至已识别的视觉信息被指定的投影位置。
图6、图7、图8、图9和图10示出了根据本发明示例性实施方案的投影视觉信息的示例。
参考图6,在车辆总宽度的呈现期间,当控制器170表示停车空间尺寸和车辆尺寸之间的比较时,控制器170基于根据“道路交通法规”的停车场线定义参考信息,在目标车辆周围视觉地投影并显示停车场定义线。
在一示例中,当控制器170呈现车辆尺寸比较车道宽度的时候,控制器控制投影仪140在目标车辆周围视觉地显示车道。对于此,控制器170通过反映实际道路的车道宽度来选择指示车道的显示位置。
接着,当控制器呈现车辆的安全功能(例如LAKS(车道保持辅助系统)和LDWS(车道偏离预警系统))的时候,控制器170如图7所示在目标车辆周围投影车道,从而呈现相应的安全功能和/或呈现如何操作相应的安全功能。如此,控制器170输出相应的安全功能的操作状态和操作的视觉信息来辅助用户。
如图8所示,控制器可以显示如下情况,所述情况为当机器人100位于车辆盲区的时候,并且通过车道投影可以证明驾驶员不能看到在盲区中的服务机器人100的情况。
参考图9,当服务机器人100说明车辆的特定的部分的时候,可以通过在所述部分上投影视觉信息(例如,箭头影像)来指定所述部分。例如,当服务机器人100呈现一种说明“车辆具有薄的B柱,从而使得车辆看起来纤细”的时候,控制器170可以指定对应于B柱的位置。因此,不知道术语“B柱”的参观者可容易理解通过服务机器人100呈现的车辆部分。
在一示例中,具有多个选择的外观元件(例如轮胎)可以以比较的方式视觉地显示。例如,如图10所示,服务机器人100将可比较的轮胎的尺寸投影到目标车辆的轮胎上,从而与当前安装在目标车辆上的轮胎进行比较。
根据本发明的示例性实施方案,当机器人说明与展示车辆相关的信息的时候,与实际驾驶环境相似的周围环境可以以视觉方式呈现,由此可以提高用户对基于实际驾驶环境的车辆特定部分的理解。
为了方便解释和精确限定所附权利要求,术语“上方”、“下方”、“内”、“外”、“上”、“下”、“向上”、“向下”、“前”、“后”、“背”、“内侧”、“外侧”、“向内”、“向外”、“内部”、“外部”、“内部的”、“外部的”、“向前”和“向后”被用于参考附图中所显示的这些特征的位置来描述示例性实施方案的特征。
前面对本发明具体示例性实施方案所呈现的描述是出于说明和描述的目的。它们不旨在穷举或限制本发明至公开的精确形式,根据上述教导,许多改变和变化明显是可能的。选择示例性实施方案并进行描述是为了解释本发明的特定原理及其实际应用,从而使得本领域的其它技术人员能够实现并利用本发明的各种示例性实施方案及其不同选择形式和修改形式。本发明的范围由权利要求书和它们的等同替代限定。

Claims (20)

1.一种服务机器人,其包括:
投影仪,其用于投影与目标车辆相关的视觉信息;
监测装置,其用于监测用户的状态;以及
控制器,其连接至所述投影仪和所述监测装置,并且所述控制器配置为:
在目标车辆的引导说明期间向用户推荐视觉信息的呈现;
通过监测装置确定用户是否接受所述呈现的推荐;
当确定用户接受推荐时,通过投影仪呈现视觉信息。
2.如权利要求1所述的服务机器人,其中,所述监测装置包括:
传感器,其用于检测位于自目标车辆预定半径内的用户;以及
处理器,其连接至所述传感器,并且所述处理器配置为对传感器输出的检测到的数据进行分析,并确定用户的状态。
3.如权利要求2所述的服务机器人,其中,所述传感器包括:摄像机和麦克风中的至少一种。
4.如权利要求1所述的服务机器人,其中,所述服务机器人进一步包括:
传感器系统,其用于检测目标车辆和服务机器人的位置;以及
通信模块,其用于与目标车辆进行无线通信。
5.如权利要求4所述的服务机器人,其中,所述控制器进一步配置为:
通过通信模块获取与目标车辆相关的识别信息;
基于所述识别信息来识别目标车辆。
6.如权利要求4所述的服务机器人,其中,所述控制器进一步配置为:
利用传感器系统来确定目标车辆和服务机器人的位置;
将服务机器人的中心部分与目标车辆的中心部分直线对齐。
7.如权利要求4所述的服务机器人,其中,所述控制器进一步配置为:
参考预存储信息来确定视觉信息的呈现位置,所述预存储信息指示对应于每个车辆部分的预定呈现位置;
将服务机器人移动至确定的呈现位置。
8.如权利要求7所述的服务机器人,其中,所述控制器进一步配置为:识别投影仪能够投影视觉信息的位置。
9.如权利要求7所述的服务机器人,其中,所述控制器进一步配置为:
获取目标车辆的影像,并将获取的影像与预存储的参考影像比较;
基于比较获取的影像与预存储的参考影像的结果,确定是否需要服务机器人的位置调整。
10.如权利要求9所述的服务机器人,其中,所述控制器进一步配置为:
当获取的影像和预存储的参考影像的相似度低于阈值的时候,基于预存储的车辆轮廓信息来调整服务机器人的位置。
11.一种用于操作服务机器人的方法,所述方法包括:
通过控制器,进行对于目标车辆的引导说明;
通过控制器,向用户推荐视觉信息的呈现;
通过控制器,确定用户是否接受视觉信息的呈现的推荐;
当确定用户接受推荐时,通过控制器来呈现视觉信息。
12.如权利要求11所述的用于操作服务机器人的方法,其中,进行引导说明包括:
识别目标车辆;
呈现目标车辆的功能和操纵方式。
13.如权利要求12所述的用于操作服务机器人的方法,其中,识别目标车辆包括:利用短距离无线通讯来识别附着于目标车辆的标签信息。
14.如权利要求11所述的用于操作服务机器人的方法,其中,推荐视觉信息的呈现包括:
确定在引导说明的内容中是否包含附加说明;
当确定在引导说明的内容中包含附加说明时,向用户推荐视觉信息的呈现。
15.如权利要求14所述的用于操作服务机器人的方法,其中,所述附加说明是以视觉方式呈现。
16.如权利要求11所述的用于操作服务机器人的方法,其中,确定用户是否接受推荐包括:识别通过麦克风输入的用户的声音,并且基于声音确定用户是否接受视觉信息的推荐。
17.如权利要求11所述的用于操作服务机器人的方法,其中,确定用户是否接受推荐包括:利用摄像机监测用户的状态,并且基于用户的状态确定用户是否接受推荐。
18.如权利要求11所述的用于操作服务机器人的方法,其中,视觉信息的呈现包括:
将服务机器人的位置对齐至目标车辆;
当将服务机器人的位置对齐至目标车辆完成时,投影视觉信息。
19.如权利要求18所述的用于操作服务机器人的方法,其中,服务机器人的位置的对齐包括:
确定服务机器人的当前位置;
确定用于视觉信息的呈现位置;
将服务机器人移动至确定的呈现位置;
识别视觉信息能够被投影的位置。
20.如权利要求18所述的用于操作服务机器人的方法,其中,服务机器人的位置的对齐包括:
确定用于视觉信息的呈现位置;
将服务机器人移动至确定的呈现位置;
拍摄目标车辆的影像;
比较拍摄的影像和参考影像;
基于比较拍摄的影像和参考影像的结果,确定是否需要调整服务机器人的位置;
当确定服务机器人的位置需要调整时,调整服务机器人的位置。
CN201910670016.6A 2018-11-08 2019-07-24 服务机器人以及用于操作该服务机器人的方法 Active CN111152232B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0136707 2018-11-08
KR1020180136707A KR102673293B1 (ko) 2018-11-08 2018-11-08 서비스 로봇 및 그의 운용 방법

Publications (2)

Publication Number Publication Date
CN111152232A true CN111152232A (zh) 2020-05-15
CN111152232B CN111152232B (zh) 2024-06-18

Family

ID=70550590

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910670016.6A Active CN111152232B (zh) 2018-11-08 2019-07-24 服务机器人以及用于操作该服务机器人的方法

Country Status (3)

Country Link
US (1) US11538350B2 (zh)
KR (1) KR102673293B1 (zh)
CN (1) CN111152232B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10867338B2 (en) 2019-01-22 2020-12-15 Capital One Services, Llc Offering automobile recommendations from generic features learned from natural language inputs
US10489474B1 (en) 2019-04-30 2019-11-26 Capital One Services, Llc Techniques to leverage machine learning for search engine optimization
US10565639B1 (en) 2019-05-02 2020-02-18 Capital One Services, Llc Techniques to facilitate online commerce by leveraging user activity
US10796355B1 (en) * 2019-12-27 2020-10-06 Capital One Services, Llc Personalized car recommendations based on customer web traffic
CN112565724B (zh) * 2020-12-01 2022-05-17 北京航迹科技有限公司 一种图像投射方法和系统

Citations (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012066345A (ja) * 2010-09-24 2012-04-05 Ihi Corp 投影面情報提示装置と方法
CN102609089A (zh) * 2011-01-13 2012-07-25 微软公司 用于机器人和用户交互的多状态模型
KR101309670B1 (ko) * 2012-11-29 2013-09-23 주식회사 디아이랩 차량 정보 서비스를 위한 차량 시스템 및 방법
KR20140074588A (ko) * 2012-12-10 2014-06-18 주식회사 케이티 프로젝션 기능을 갖는 로봇 및 로봇의 프로젝터 제어 방법
CN104511905A (zh) * 2013-09-28 2015-04-15 沈阳新松机器人自动化股份有限公司 一种基于结构光的机器人视觉伺服控制方法
CN104732478A (zh) * 2013-12-18 2015-06-24 现代自动车株式会社 用于车辆的平视显示器的检验装置和方法
CN105313123A (zh) * 2015-11-30 2016-02-10 上海理工大学 红外感应投影交互机器人
CN105500371A (zh) * 2016-01-06 2016-04-20 山东优宝特智能机器人有限公司 服务机器人控制器及其控制方法
WO2016198090A1 (fr) * 2015-06-08 2016-12-15 Battlekart Europe Système de création d'un environnement
CN106393142A (zh) * 2016-11-01 2017-02-15 王华勤 一种智能机器人
US20170069052A1 (en) * 2015-09-04 2017-03-09 Qiang Li Systems and Methods of 3D Scanning and Robotic Application of Cosmetics to Human
CN106903695A (zh) * 2017-01-16 2017-06-30 北京光年无限科技有限公司 应用于智能机器人的投影交互方法及系统
CN107030733A (zh) * 2017-06-19 2017-08-11 合肥中科奥威智能科技有限公司 一种轮式机器人
US20170244942A1 (en) * 2016-02-18 2017-08-24 Samsung Electronics Co., Ltd. Multi-modal projection display
CN107219915A (zh) * 2016-03-21 2017-09-29 现代自动车株式会社 车辆和用于控制该车辆的方法
KR20170135195A (ko) * 2016-05-30 2017-12-08 엘지전자 주식회사 이동 로봇 및 그 이동 로봇의 제어 방법
US9895809B1 (en) * 2015-08-20 2018-02-20 X Development Llc Visual annotations in robot control interfaces
CN107817110A (zh) * 2016-09-13 2018-03-20 现代自动车株式会社 用于检测车辆的驾驶员辅助系统的装置及其控制方法
KR20180039439A (ko) * 2016-10-10 2018-04-18 엘지전자 주식회사 공항용 안내 로봇 및 그의 동작 방법
WO2018089700A1 (en) * 2016-11-10 2018-05-17 Warner Bros. Entertainment Inc. Social robot with environmental control feature
WO2018151368A1 (ko) * 2017-02-20 2018-08-23 엘지전자 주식회사 모듈형 가정용 로봇
CN108748219A (zh) * 2018-09-07 2018-11-06 绵香物联网技术有限公司 一种检测助理机器人系统

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005293052A (ja) * 2004-03-31 2005-10-20 Honda Motor Co Ltd 顧客応対ロボット
KR100651292B1 (ko) * 2004-12-30 2006-11-29 엘지전자 주식회사 카메라가 탑재된 티브이 및 그 티브이의 영상 정보 제공방법과 그 시스템
JP2007152442A (ja) * 2005-11-30 2007-06-21 Mitsubishi Heavy Ind Ltd ロボット案内システム
EP3031375B1 (en) * 2007-05-09 2021-11-03 iRobot Corporation Compact autonomous coverage robot
JP2009166184A (ja) 2008-01-17 2009-07-30 Saitama Univ ガイドロボット
JP5077077B2 (ja) 2008-05-30 2012-11-21 富士通株式会社 移動説明装置、および、移動説明プログラム
US9138891B2 (en) * 2008-11-25 2015-09-22 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
KR20100086262A (ko) * 2009-01-22 2010-07-30 삼성전자주식회사 로봇 및 그 제어방법
JP2011020223A (ja) 2009-07-16 2011-02-03 Otsuka Bijutsu Zaidan 展示品説明ロボット及びロボットを使用した展示品説明方法
KR101472278B1 (ko) 2013-03-31 2014-12-11 목포대학교산학협력단 프로젝터와 카메라 및 거리센서를 이용하여 안내화면을 제공하는 전시장용 도슨트 이동로봇
JP6134895B2 (ja) * 2013-09-27 2017-05-31 株式会社国際電気通信基礎技術研究所 ロボット制御システム、ロボット制御プログラムおよび説明ロボット
US10065314B2 (en) * 2014-08-29 2018-09-04 General Electric Company System and method for manipulation platform
US9717387B1 (en) * 2015-02-26 2017-08-01 Brain Corporation Apparatus and methods for programming and training of robotic household appliances
US10500716B2 (en) * 2015-04-08 2019-12-10 Beijing Evolver Robotics Co., Ltd. Multi-functional home service robot
KR102521493B1 (ko) * 2015-10-27 2023-04-14 삼성전자주식회사 청소 로봇 및 그 제어방법
CN106406119B (zh) * 2016-11-15 2019-05-10 福州大学 基于语音交互、云技术及集成智能家居监控的服务机器人
US11204787B2 (en) * 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
US11100384B2 (en) * 2017-02-14 2021-08-24 Microsoft Technology Licensing, Llc Intelligent device user interactions
JP6830032B2 (ja) * 2017-05-10 2021-02-17 株式会社日立製作所 サービス提供システム
KR20190057687A (ko) * 2017-11-20 2019-05-29 삼성전자주식회사 챗봇 변경을 위한 위한 전자 장치 및 이의 제어 방법
EP3596729A1 (en) * 2018-03-07 2020-01-22 Google LLC. Systems and methods for voice-based initiation of custom device actions
US11340625B2 (en) * 2018-08-08 2022-05-24 Uatc, Llc Autonomous vehicle compatible robot
US11440490B2 (en) * 2018-08-08 2022-09-13 Uatc, Llc Location-based checklist interface for autonomous vehicle users
US20200051001A1 (en) * 2018-08-08 2020-02-13 Uatc, Llc Systems and Methods for Autonomous Robot Delivery and Retrieval

Patent Citations (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012066345A (ja) * 2010-09-24 2012-04-05 Ihi Corp 投影面情報提示装置と方法
CN102609089A (zh) * 2011-01-13 2012-07-25 微软公司 用于机器人和用户交互的多状态模型
KR101309670B1 (ko) * 2012-11-29 2013-09-23 주식회사 디아이랩 차량 정보 서비스를 위한 차량 시스템 및 방법
KR20140074588A (ko) * 2012-12-10 2014-06-18 주식회사 케이티 프로젝션 기능을 갖는 로봇 및 로봇의 프로젝터 제어 방법
CN104511905A (zh) * 2013-09-28 2015-04-15 沈阳新松机器人自动化股份有限公司 一种基于结构光的机器人视觉伺服控制方法
CN104732478A (zh) * 2013-12-18 2015-06-24 现代自动车株式会社 用于车辆的平视显示器的检验装置和方法
WO2016198090A1 (fr) * 2015-06-08 2016-12-15 Battlekart Europe Système de création d'un environnement
US9895809B1 (en) * 2015-08-20 2018-02-20 X Development Llc Visual annotations in robot control interfaces
US20170069052A1 (en) * 2015-09-04 2017-03-09 Qiang Li Systems and Methods of 3D Scanning and Robotic Application of Cosmetics to Human
CN105313123A (zh) * 2015-11-30 2016-02-10 上海理工大学 红外感应投影交互机器人
CN105500371A (zh) * 2016-01-06 2016-04-20 山东优宝特智能机器人有限公司 服务机器人控制器及其控制方法
US20170244942A1 (en) * 2016-02-18 2017-08-24 Samsung Electronics Co., Ltd. Multi-modal projection display
CN107219915A (zh) * 2016-03-21 2017-09-29 现代自动车株式会社 车辆和用于控制该车辆的方法
KR20170135195A (ko) * 2016-05-30 2017-12-08 엘지전자 주식회사 이동 로봇 및 그 이동 로봇의 제어 방법
CN107817110A (zh) * 2016-09-13 2018-03-20 现代自动车株式会社 用于检测车辆的驾驶员辅助系统的装置及其控制方法
KR20180039439A (ko) * 2016-10-10 2018-04-18 엘지전자 주식회사 공항용 안내 로봇 및 그의 동작 방법
CN106393142A (zh) * 2016-11-01 2017-02-15 王华勤 一种智能机器人
WO2018089700A1 (en) * 2016-11-10 2018-05-17 Warner Bros. Entertainment Inc. Social robot with environmental control feature
CN106903695A (zh) * 2017-01-16 2017-06-30 北京光年无限科技有限公司 应用于智能机器人的投影交互方法及系统
WO2018151368A1 (ko) * 2017-02-20 2018-08-23 엘지전자 주식회사 모듈형 가정용 로봇
CN107030733A (zh) * 2017-06-19 2017-08-11 合肥中科奥威智能科技有限公司 一种轮式机器人
CN108748219A (zh) * 2018-09-07 2018-11-06 绵香物联网技术有限公司 一种检测助理机器人系统

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
张圣祥;庄礼鸿;: "多传感器信息融合的服务机器人导航方法", 单片机与嵌入式系统应用, no. 03 *
张圣祥;庄礼鸿;: "多传感器信息融合的服务机器人导航方法", 单片机与嵌入式系统应用, no. 03, 1 March 2018 (2018-03-01) *
李金泉, 陈善本, 吴林: "基于手眼立体视觉的弧焊机器人平面工件定位系统", 焊接学报, no. 04 *
李金泉, 陈善本, 吴林: "基于手眼立体视觉的弧焊机器人平面工件定位系统", 焊接学报, no. 04, 30 August 2003 (2003-08-30) *
汤士华;李硕;吴清潇;李一平;张奇峰;: "一种基于视觉的水下机器人动力定位方法", 海洋工程, no. 02, 30 May 2006 (2006-05-30) *

Also Published As

Publication number Publication date
US11538350B2 (en) 2022-12-27
US20200152073A1 (en) 2020-05-14
KR102673293B1 (ko) 2024-06-11
CN111152232B (zh) 2024-06-18
KR20200055819A (ko) 2020-05-22

Similar Documents

Publication Publication Date Title
CN111152232B (zh) 服务机器人以及用于操作该服务机器人的方法
US10011216B1 (en) Auto turn signal initiation based on lane change and driver history
JP6724986B2 (ja) 自動運転車のためのホーンの適応検出および適用のための方法およびシステム
CN107251120B (zh) 具有单摄像头停车辅助的可训练收发器
CN111746503B (zh) 泊车方法、系统、设备、车辆及计算机可读存储介质
US10162360B2 (en) Vehicle environment imaging systems and methods
CN108140319B (zh) 停车辅助方法及停车辅助装置
US11881030B2 (en) Method for detecting vehicle and device for executing the same
CN106794874B (zh) 用于运行自动引导的无人驾驶的机动车的方法和监控系统
US10525873B2 (en) Turn by turn activation of turn signals
KR102613790B1 (ko) 주행 학습 기반 자율 주행 시스템 및 방법
JP4765566B2 (ja) 運転行動評価装置
US20200380257A1 (en) Autonomous vehicle object content presentation systems and methods
CN109661338B (zh) 障碍物的判定方法、停车辅助方法、出库辅助方法及障碍物判定装置
CN108351958A (zh) 停车位的框线的检测方法及装置
US11267394B2 (en) Projection apparatus for indicating a recommended position to observe a movable body, portable device, and recording medium
CN108664883B (zh) 用于启动挂接视图的方法和装置
US20200074060A1 (en) User authentication device and method for triggering user-specific target operation
JP2017100562A (ja) 運転制御装置、運転制御方法及びプログラム
CN107640107A (zh) 用于车辆的行驶前检测的设备及方法
KR20200070100A (ko) 차량 검출 방법 및 이를 수행하는 전자 기기
US20230154242A1 (en) Autonomous vehicle, control system for remotely controlling the same, and method thereof
US20230061098A1 (en) Apparatus for determining a traffic light, system having the same and method thereof
US11365975B2 (en) Visual confirmation system for driver assist system
CN210039098U (zh) 一种基于机器视觉的报警装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant