KR102610737B1 - Service providing robot for vehicle display shop and method of operating thereof - Google Patents

Service providing robot for vehicle display shop and method of operating thereof Download PDF

Info

Publication number
KR102610737B1
KR102610737B1 KR1020180134480A KR20180134480A KR102610737B1 KR 102610737 B1 KR102610737 B1 KR 102610737B1 KR 1020180134480 A KR1020180134480 A KR 1020180134480A KR 20180134480 A KR20180134480 A KR 20180134480A KR 102610737 B1 KR102610737 B1 KR 102610737B1
Authority
KR
South Korea
Prior art keywords
service
user
determination unit
interest
unit
Prior art date
Application number
KR1020180134480A
Other languages
Korean (ko)
Other versions
KR20200054362A (en
Inventor
이지아
한지민
김계윤
Original Assignee
현대자동차주식회사
기아 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아 주식회사 filed Critical 현대자동차주식회사
Priority to KR1020180134480A priority Critical patent/KR102610737B1/en
Publication of KR20200054362A publication Critical patent/KR20200054362A/en
Application granted granted Critical
Publication of KR102610737B1 publication Critical patent/KR102610737B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed

Abstract

본 발명은 고객 맞춤형 서비스를 제공하기 위한 차량 전시 매장의 서비스 제공 로봇 및 이의 동작 방법에 관한 것이다. 본 발명의 일 실시예에 따른 차량 전시 매장의 서비스 제공 로봇은, 사용자의 상태에 기초하여 상기 사용자의 관심 대상을 결정하는 제1 서비스 판단부, 상기 사용자의 상태에 기초하여 상기 관심 대상에 대한 서비스 컨텐츠를 제공할 시작 시점을 결정하는 제2 서비스 판단부 및 상기 서비스 컨텐츠를 상기 시작 시점에 따라 상기 사용자에게 제공하는 서비스 제공부를 포함할 수 있다.The present invention relates to a service provision robot at a vehicle exhibition store and a method of operating the same to provide customized services to customers. A service providing robot at a vehicle exhibition store according to an embodiment of the present invention includes a first service determination unit that determines an object of interest for the user based on the user's state, and a service for the object of interest based on the state of the user. It may include a second service determination unit that determines a start time for providing content, and a service provision unit that provides the service content to the user according to the start time.

Description

차량 전시 매장의 서비스 제공 로봇 및 이의 동작 방법{SERVICE PROVIDING ROBOT FOR VEHICLE DISPLAY SHOP AND METHOD OF OPERATING THEREOF}Service provision robot for vehicle display store and its operating method {SERVICE PROVIDING ROBOT FOR VEHICLE DISPLAY SHOP AND METHOD OF OPERATING THEREOF}

본 발명은 고객 맞춤형 서비스를 제공하기 위한 차량 전시 매장의 서비스 제공 로봇 및 이의 동작 방법에 관한 것이다.The present invention relates to a service provision robot at a vehicle exhibition store and a method of operating the same to provide customized services to customers.

최근 로봇 관련 기술이 빠르게 발전함에 따라 다양한 산업 분야에서 필요한 기능을 가진 로봇에 대한 개발이 활발히 진행되고 있다. 특히, 로봇은 기계적인 단순 반복 작업이 필요한 제조업 분야에서 큰 활용가치를 인정받고 있다.Recently, as robot-related technology has developed rapidly, the development of robots with necessary functions in various industrial fields is actively underway. In particular, robots are recognized for their great utility in the manufacturing field, which requires simple mechanical repetitive tasks.

한편, 기계적인 작업이 아닌 다소 복잡한 작업이라도 로봇은 작업 정확도, 효율성, 경제성 등의 면에서 많은 강점을 가진다는 점에서 여러 산업 분야에서 그 수요가 증가되고 있는 실정이다.Meanwhile, the demand for robots is increasing in various industrial fields because robots have many strengths in terms of work accuracy, efficiency, and economic feasibility, even in somewhat complex tasks other than mechanical work.

본 발명이 일 목적은 전시 매장을 방문하는 사용자에 대해 능동적으로 서비스를 제공할 수 있는 차량 전시 매장의 서비스 제공 로봇 및 이의 동작 방법을 제공하는 데 있다. The purpose of the present invention is to provide a service provision robot at a vehicle exhibition store that can actively provide services to users visiting the exhibition store and a method of operating the same.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below.

본 발명의 일 실시예에 따른 차량 전시 매장의 서비스 제공 로봇은, 사용자의 상태에 기초하여 상기 사용자의 관심 대상을 결정하는 제1 서비스 판단부, 상기 사용자의 상태에 기초하여 상기 관심 대상에 대한 서비스 컨텐츠를 제공할 시작 시점을 결정하는 제2 서비스 판단부 및 상기 서비스 컨텐츠를 상기 시작 시점에 따라 상기 사용자에게 제공하는 서비스 제공부를 포함할 수 있다.A service providing robot at a vehicle exhibition store according to an embodiment of the present invention includes a first service determination unit that determines an object of interest for the user based on the user's state, and a service for the object of interest based on the state of the user. It may include a second service determination unit that determines a start time for providing content, and a service provision unit that provides the service content to the user according to the start time.

본 발명의 일 실시예에 따른 차량 전시 매장의 매장 서비스 제공 시스템은, 상기 서비스 제공 로봇; 및 상기 서비스 제공 로봇과 통신하여 상태 정보를 제공하는 적어도 하나의 차량을 포함할 수 있다.A store service provision system for a vehicle exhibition store according to an embodiment of the present invention includes the service provision robot; And it may include at least one vehicle that communicates with the service providing robot and provides status information.

본 발명의 일 실시예에 따른 차량 전시 매장의 서비스 제공 로봇의 동작 방법은, 사용자의 상태에 기초하여 상기 사용자의 관심 대상을 결정하는 단계, 상기 사용자의 상태에 기초하여 상기 관심 대상에 대한 서비스 컨텐츠를 제공할 시작 시점을 결정하는 단계 및 상기 서비스 컨텐츠를 상기 시작 시점에 따라 상기 사용자에게 제공하는 단계를 포함할 수 있다.A method of operating a service providing robot at a vehicle exhibition store according to an embodiment of the present invention includes determining an object of interest of the user based on the user's state, and service content for the object of interest based on the state of the user. It may include determining a starting time to provide and providing the service content to the user according to the starting time.

본 발명의 일 실시예에 따른 차량 전시 매장의 서비스 제공 로봇 및 이의 동작 방법은 사용자의 별도 조작 없이도 사용자의 위치, 행동, 음성 등을 능동적으로 파악하여 사용자의 다양한 취향, 관심사에 적합한 서비스를 제공할 수 있다.The service provision robot and its operating method at a vehicle exhibition store according to an embodiment of the present invention can provide services suitable for the user's various tastes and interests by actively identifying the user's location, behavior, voice, etc. without separate manipulation by the user. You can.

또한, 서비스 제공에 대한 사용자의 반응을 학습함으로써, 보다 향상된 품질의 서비스 제공이 가능하다.Additionally, by learning the user's response to service provision, it is possible to provide services of improved quality.

도 1은 본 발명의 일 실시예에 따른 서비스 제공 로봇이 적용되는 장소의 일 예를 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른 서비스 제공 로봇을 나타낸 블록도이다.
도 3은 본 발명의 일 실시예에 따른 서비스 제공 로봇의 동작 방법을 나타낸 흐름도이다.
도 4는 도 3에 도시된 S2 단계를 보다 상세히 나타낸 흐름도이다.
도 5는 도 3에 도시된 S3 단계를 보다 상세히 나타낸 흐름도이다.
도 6은 도 3에 도시된 S7 단계를 보다 상세히 나타낸 흐름도이다.
도 7은 도 3에 도시된 S8 단계를 보다 상세히 나타낸 흐름도이다.
Figure 1 is a diagram showing an example of a place where a service providing robot according to an embodiment of the present invention is applied.
Figure 2 is a block diagram showing a service providing robot according to an embodiment of the present invention.
Figure 3 is a flowchart showing a method of operating a service providing robot according to an embodiment of the present invention.
Figure 4 is a flowchart showing step S2 shown in Figure 3 in more detail.
Figure 5 is a flowchart showing step S3 shown in Figure 3 in more detail.
Figure 6 is a flowchart showing step S7 shown in Figure 3 in more detail.
Figure 7 is a flowchart showing step S8 shown in Figure 3 in more detail.

이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail through illustrative drawings. When adding reference numerals to components in each drawing, it should be noted that identical components are given the same reference numerals as much as possible even if they are shown in different drawings. Additionally, when describing embodiments of the present invention, if detailed descriptions of related known configurations or functions are judged to impede understanding of the embodiments of the present invention, the detailed descriptions will be omitted.

본 발명의 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In describing the components of the embodiment of the present invention, terms such as first, second, A, B, (a), and (b) may be used. These terms are only used to distinguish the component from other components, and the nature, sequence, or order of the component is not limited by the term. Additionally, unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as generally understood by a person of ordinary skill in the technical field to which the present invention pertains. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted in an ideal or excessively formal sense unless explicitly defined in the present application. No.

도 1은 본 발명의 일 실시예에 따른 서비스 제공 로봇이 적용되는 장소의 일 예를 나타낸 도면이다.Figure 1 is a diagram showing an example of a place where a service providing robot according to an embodiment of the present invention is applied.

도 1을 참조하면, 서비스 제공 로봇(100)은 일반 고객들에게 차량을 전시하고 직접 체험해 볼 수 있는 기회를 제공하는 전시 매장(또는 차량 전시 매장, 10)에 적용될 수 있다. 전시 매장(10)은 일 예에 불과하며, 본 발명은 다양한 제품을 전시하거나 판매하는 매장에 적용될 수 있다.Referring to FIG. 1, the service providing robot 100 can be applied to an exhibition store (or vehicle exhibition store, 10) that provides general customers with the opportunity to display and directly experience vehicles. The exhibition store 10 is only an example, and the present invention can be applied to stores that display or sell various products.

전시 매장(10)에는 전시용 차량들(차량1~차량3)이 특정 위치에 전시되어 있으며, 사용자(50)는 전시 매장(10)에 출입하여 관심있는 차량을 직접 보고 체험할 수 있다. 전시 매장(10)의 구조나 차량의 위치, 대수 등은 예시적인 것에 불과하다.In the exhibition store 10, vehicles for display (vehicle 1 to vehicle 3) are displayed at a specific location, and the user 50 can enter the exhibition store 10 to directly see and experience the vehicle of interest. The structure of the exhibition store 10, the location and number of vehicles, etc. are merely examples.

서비스 제공 로봇(100)은 도 1에 도시된 바와 같이 전시 매장(10)의 입구에 위치하고 있거나, 전시 매장(10) 내 임의의 위치에서 대기하고 있다가, 사용자(50)가 전시 매장(10) 내로 진입하는 것을 인식할 수 있다. 서비스 제공 로봇(100)은 인식된 사용자(50)의 위치 및/또는 시선 등을 파악하여 사용자(50)가 관심을 가지는 차량이 어떤 차량(예컨대, 차량3)인지 판단할 수 있다. As shown in FIG. 1, the service providing robot 100 is located at the entrance of the exhibition store 10 or waits at a random location within the exhibition store 10, and then when the user 50 enters the exhibition store 10. I can recognize what is entering within me. The service providing robot 100 may determine which vehicle (eg, vehicle 3) the user 50 is interested in by determining the location and/or gaze of the recognized user 50.

도 1에서와 같이 사용자(50)가 관심을 가지는 차량이 차량3이라면, 서비스 제공 로봇(100)은 차량3에 대한 서비스 컨텐츠를 준비할 수 있다. 또한, 서비스 제공 로봇(100)은 사용자(50)의 근방으로 이동할 수 있다.As shown in FIG. 1 , if the vehicle in which the user 50 is interested is vehicle 3, the service providing robot 100 may prepare service content for vehicle 3. Additionally, the service providing robot 100 may move near the user 50 .

서비스 제공 로봇(100)은 사용자가 차량3의 근처에서 머무르는 시간, 리액션(reaction) 및/또는 체험 행위 등을 고려하여 준비된 서비스 컨텐츠를 제공할 시작 시점을 결정할 수 있으며, 시작 시점 도래시 사용자(50)의 리액션 및 체험 행위에 따라 적절한 서비스 컨텐츠를 제공할 수 있다. The service providing robot 100 may determine the starting time to provide the prepared service content by considering the time the user stays near vehicle 3, reaction, and/or experiential behavior, and when the starting time arrives, the user (50 ) can provide appropriate service content according to the reaction and experience behavior.

서비스 제공 로봇(100)은 지속적으로 사용자(50)의 위치, 시선, 리액션, 체험 행위를 트랙킹(tracking)할 수 있고, 트랙킹된 사용자(50)의 정보에 따라 서비스 컨텐츠의 제공을 종료할 종료 시점을 결정할 수 있으며, 종료 시점 도래시 서비스 컨텐츠의 제공을 종료할 수 있다. 또한, 서비스 제공 로봇(100)은 카메라를 통해 수집된 정보 및 마이크를 통해 수집된 정보를 통해 서비스 컨텐츠의 제공에 대한 사용자의 반응을 감지하여 데이터베이스화함으로써 사용자의 반응을 학습할 수 있다.The service providing robot 100 can continuously track the location, gaze, reaction, and experience behavior of the user 50, and the end point at which provision of service content will end according to the tracked information of the user 50. can be determined, and the provision of service content can be terminated when the end point arrives. In addition, the service providing robot 100 can learn the user's reaction by detecting the user's reaction to the provision of service content through information collected through a camera and information collected through a microphone and forming a database.

서비스 제공 로봇(100)은 전시 매장(10) 내 차량들과 통신하여 차량의 상태 정보(예컨대, 트렁크, 도어 등의 개폐 여부에 대한 정보)를 수집할 수 있으며, 차량들과 함께 매장 서비스 제공 시스템을 구성할 수 있다.The service provision robot 100 can collect status information of the vehicle (e.g., information on whether the trunk, door, etc. is open or closed) by communicating with the vehicles in the exhibition store 10, and is a store service provision system together with the vehicles. can be configured.

본 발명의 일 실시예에 따른 서비스 제공 로봇(100)에 의하면, 사용자(50)의 별도 조작 없이도 사용자(50)의 위치, 행동, 음성 등을 능동적으로 파악하여 사용자(50)의 다양한 취향, 관심사에 적합한 서비스를 제공할 수 있다.According to the service providing robot 100 according to an embodiment of the present invention, the location, behavior, voice, etc. of the user 50 are actively identified without any separate manipulation by the user 50, and the various tastes and interests of the user 50 are provided. We can provide services suitable for you.

또한, 서비스 제공에 대한 사용자(50)의 반응을 학습함으로써, 보다 향상된 품질의 서비스 제공이 가능하다.Additionally, by learning the user's (50) response to service provision, it is possible to provide services of improved quality.

도 2는 본 발명의 일 실시예에 따른 서비스 제공 로봇을 나타낸 블록도이다.Figure 2 is a block diagram showing a service providing robot according to an embodiment of the present invention.

도 2를 참조하면, 서비스 제공 로봇(100)은 센서부(110), 사용자 인식부(120), 제1 서비스 판단부(130), 제2 서비스 판단부(140), 서비스 생성부(150), 서비스 제공부(160), 제3 서비스 판단부(170) 및 사용자 반응 학습부(180)를 포함할 수 있다. 서비스 제공 로봇(100)의 각 구성은 하드웨어, 소프트웨어, 또는 이들의 조합으로 구현될 수 있다. 서비스 제공 로봇(100)의 각 구성은 예시적인 것에 불과하며, 필요에 따라 일부 구성이 생략되거나 추가될 수 있다. 예를 들어, 서비스 제공 로봇(100)의 외관을 형성하는 본체, 서비스 제공 로봇(100)을 이동시키기 위한 회전 바퀴, 센서부(110)에 포함된 각종 센서의 센싱 방향을 전환하기 위한 회전 구동부 등의 구성이 더 포함될 수 있다.Referring to FIG. 2, the service providing robot 100 includes a sensor unit 110, a user recognition unit 120, a first service determination unit 130, a second service determination unit 140, and a service creation unit 150. , It may include a service provision unit 160, a third service determination unit 170, and a user response learning unit 180. Each component of the service providing robot 100 may be implemented as hardware, software, or a combination thereof. Each configuration of the service providing robot 100 is merely illustrative, and some configurations may be omitted or added as needed. For example, a main body that forms the appearance of the service providing robot 100, a rotating wheel for moving the service providing robot 100, a rotating drive unit for changing the sensing direction of various sensors included in the sensor unit 110, etc. Additional configurations may be included.

센서부(110)는 서비스 제공 로봇(100)의 외부로부터 각종 정보를 수집하기 위한 적어도 하나의 센서를 포함할 수 있다. 센서부(110)는 외부 영상을 촬영할 수 있는 카메라, 외부 음성을 수집할 수 있는 마이크, 외부 물체와의 거리를 감지할 수 있는 거리 센서, 전시 매장(10) 내 서비스 제공 로봇(100) 및 사용자(50)의 위치를 감지할 수 있는 위치 센서 등을 포함할 수 있다. 여기서, 거리 센서는 적외선 센서, 초음파 센서, ToF(Time of Flight) 센서 등 중 적어도 하나일 수 있다. 또한, 위치 센서는 기지국, Wi-Fi, 관성항법, 고감도 GNSS(Global Navigation Satellite System), UWB(Ultra Wide Band), RFID(Radio Frequency Identification), 의사위성, 초음파, 적외선, 지자계, 카메라 등 다양한 물리적 자원을 활용하여 서비스 제공 로봇(100) 및 사용자(50)에 대한 측위를 수행할 수 있다. 예를 들어, 서비스 제공 로봇(100)은 서비스 제공 로봇(100)의 위치를 먼저 확정하고 서비스 제공 로봇(100)으로부터 사용자(50)의 상대적인 위치를 파악하여 사용자(50)의 정확한 위치를 확정할 수 있다.The sensor unit 110 may include at least one sensor for collecting various types of information from the outside of the service providing robot 100. The sensor unit 110 includes a camera capable of capturing external images, a microphone capable of collecting external voices, a distance sensor capable of detecting the distance to an external object, a service provision robot 100 in the exhibition store 10, and a user. It may include a position sensor capable of detecting the position of (50). Here, the distance sensor may be at least one of an infrared sensor, an ultrasonic sensor, and a Time of Flight (ToF) sensor. In addition, location sensors are used in a variety of applications such as base stations, Wi-Fi, inertial navigation, high-sensitivity GNSS (Global Navigation Satellite System), UWB (Ultra Wide Band), RFID (Radio Frequency Identification), pseudosatellites, ultrasound, infrared, geomagnetic fields, cameras, etc. Positioning of the service providing robot 100 and the user 50 can be performed using physical resources. For example, the service providing robot 100 may first determine the location of the service providing robot 100 and determine the relative position of the user 50 from the service providing robot 100 to determine the exact location of the user 50. You can.

또한, 센서부(110)는 차량들(차량1~차량3) 각각과 통신하여 차량들(차량1~차량3)에 설치된 센서(트렁크, 도어, 본넷 등의 개폐 센서)의 센싱 정보를 수집할 수 있다.In addition, the sensor unit 110 communicates with each vehicle (vehicle 1 to vehicle 3) to collect sensing information from sensors (opening and closing sensors of the trunk, door, bonnet, etc.) installed in the vehicles (vehicle 1 to vehicle 3). You can.

센서부(110)는 적어도 하나의 센서로부터 수집되는 센싱 정보를 다른 구성(예컨대, 사용자 인식부(120))으로 제공할 수 있다.The sensor unit 110 may provide sensing information collected from at least one sensor in another configuration (eg, the user recognition unit 120).

사용자 인식부(120)는 센서부(110)로부터 제공되는 센싱 정보를 기초로 사용자(50)가 정해진 영역(예컨대, 임의의 차량으로부터 일정 범위 이내 또는 서비스 제공 로봇(100)의 일정 범위 이내)에 진입하였는지 인식할 수 있으며, 사용자(50)의 진입이 인식된 경우 대기 모드로부터 준비 모드로 진입하여 제1 서비스 판단부(130)와 제2 서비스 판단부(140)의 동작을 활성화할 수 있다. The user recognition unit 120 allows the user 50 to enter a designated area (for example, within a certain range from any vehicle or within a certain range of the service providing robot 100) based on the sensing information provided from the sensor unit 110. It is possible to recognize whether the user 50 has entered, and when the user 50's entry is recognized, the operation of the first service determination unit 130 and the second service determination unit 140 can be activated by entering the preparation mode from the standby mode.

서비스 제공 로봇(100)은 대기 모드, 준비 모드 및 서비스 모드의 3가지 모드로 동작할 수 있으며, 대기 모드는 유휴 상태에서 사용자(50)가 전시 매장(10) 내로 진입하는지 여부를 주기적으로 체크하는 모드를 의미하고, 준비 모드는 전시 매장(10) 내 사용자(50)의 위치, 행동, 음성 등을 파악하여 사용자(50)에게 적합한 서비스를 준비하는 모드를 의미하고, 서비스 모드는 결정된 서비스 제공에 대한 시작 시점으로부터 서비스 제공에 대한 종료 시점까지 서비스를 제공하는 모드를 의미한다.The service providing robot 100 can operate in three modes: standby mode, preparation mode, and service mode. The standby mode periodically checks whether the user 50 enters the exhibition store 10 in an idle state. means a mode, and the preparation mode means a mode that prepares a service suitable for the user 50 by identifying the location, behavior, voice, etc. of the user 50 in the exhibition store 10, and the service mode refers to the provision of the determined service. It refers to the mode of providing services from the start point to the end point of service provision.

제1 서비스 판단부(130)는 사용자(50)의 상태에 기초하여 사용자(50)의 관심 대상을 결정할 수 있다. 여기서, 관심 대상은 사용자(50)가 관심있어 하는 관심 차종 및 관심 차종의 여러 부분 중에서 특정 부분을 지칭하는 관심 부문을 포함할 수 있다. 실시예에 따라, 관심 부문을 특정할 수 없는 경우 관심 대상은 관심 차종 만으로 구성될 수도 있다.The first service determination unit 130 may determine an object of interest of the user 50 based on the user's 50 status. Here, the object of interest may include a car model of interest in which the user 50 is interested and a segment of interest that refers to a specific part among various parts of the car model of interest. Depending on the embodiment, if the segment of interest cannot be specified, the object of interest may consist only of the vehicle type of interest.

구체적으로, 제1 서비스 판단부(130)는 사용자(50)의 위치 및 해당 위치에 머무른 시간에 기초하여 사용자(50)의 관심 차종을 판단할 수 있다. 이를 위해, 제1 서비스 판단부(130)는 센서부(110)의 위치 센서로부터 사용자(50)의 위치를 제공받을 수 있으며, 사전에 저장된 전시 매장(50) 및 차량들(차량1~차량3)의 위치를 저장하는 맵(map) 정보와 현재 사용자(50)의 위치로부터, 현재 사용자(50)의 위치가 차량들(차량1~차량3) 중 어느 차량에 근접하는지 및 근접한 위치에 일정 시간(예컨대, 10초) 이상 머무르는지 분석함(즉, 위치 트랙킹)에 기초하여 사용자(50)의 관심 차종(예컨대, 차량3)을 판단할 수 있다.Specifically, the first service determination unit 130 may determine the type of vehicle of interest to the user 50 based on the location of the user 50 and the time spent at the location. For this purpose, the first service determination unit 130 may receive the location of the user 50 from the position sensor of the sensor unit 110, and the exhibition store 50 and vehicles (vehicle 1 to vehicle 3) stored in advance ) From the map information storing the location of the user 50 and the current location of the user 50, which of the vehicles (vehicle 1 to vehicle 3) is the current location of the user 50 close to and for a certain period of time at the adjacent location The type of vehicle of interest (eg, vehicle 3) of the user 50 may be determined based on analysis (eg, location tracking) of whether the user 50 stays there for more than 10 seconds.

또한, 제1 서비스 판단부(130)는 사용자(50)의 시선 및 시선이 지속되는 시간을 트랙킹하여 사용자(50)가 관심을 가지고 있는 관심 부문을 판단할 수 있다. 제1 서비스 판단부(130)는 센서부(110)의 카메라로부터 사용자(50)의 안면을 촬영한 영상을 제공받을 수 있으며, 영상 내에서 사용자(50)의 시선 방향을 분석하고 차량들(차량1~차량3)의 위치를 저장하는 맵 정보로부터 사용자(50)의 시선 방향이 관심 차종의 어느 부분을 향하는지 분석함(즉, 시선 트랙킹)에 기초하여 사용자(50)가 관심을 가지고 있는 관심 부문(예컨대, 후방 카메라, AVM(Around View Monitor) 카메라)을 판단할 수 있다.Additionally, the first service determination unit 130 may track the gaze of the user 50 and the time the gaze lasts to determine the section of interest in which the user 50 is interested. The first service determination unit 130 may receive an image of the face of the user 50 from the camera of the sensor unit 110, analyze the gaze direction of the user 50 in the image, and detect vehicles (vehicles). The interest that the user 50 is interested in based on analyzing which part of the vehicle type of interest the user 50's gaze direction is directed to from map information storing the locations of vehicles 1 to 3) (i.e., gaze tracking) The category (eg, rear camera, AVM (Around View Monitor) camera) can be determined.

예를 들어, 사용자(50)가 근접한 차량 또는 시선 방향이 향하는 부분이 복수 개 존재할 경우(사용자(50)가 산타페의 전면부에 위치하여 그릴을 3초, 헤드램프를 10이상 바라보고 있는 경우), 제1 서비스 판단부(130)는 사용자(50) 시선이 가장 오래 지속되는 부분인 헤드램프를 최고 순위의 관심 대상으로 판단할 수 있다.For example, when there are a plurality of vehicles close to the user 50 or areas where the user's gaze is directed (when the user 50 is located at the front of the Santa Fe and looks at the grill for 3 seconds and the headlamps for more than 10 seconds) , the first service determination unit 130 may determine that the headlamp, which is the part where the user 50's gaze lasts the longest, is the highest priority object of interest.

제1 서비스 판단부(130)는 관심 차종 및 관심 부문을 서비스 생성부(150)로 제공할 수 있다.The first service determination unit 130 may provide the vehicle model of interest and the sector of interest to the service creation unit 150.

제2 서비스 판단부(140)는 사용자(50)의 상태에 기초하여 관심 대상에 대한 서비스 컨텐츠를 제공할 시작 시점을 결정할 수 있다.The second service determination unit 140 may determine a starting time to provide service content for an object of interest based on the state of the user 50.

구체적으로, 제2 서비스 판단부(140)는 사용자(50)의 시선 트랙킹 결과 및 사용자(50)의 리액션에 따라 관심 정도를 판단할 수 있다. 제2 서비스 판단부(140)는 앞서 설명한 시선 트랙킹에 따라 특정 관심 대상을 향한 시선이 얼마나 지속되는지 여부 및 센서부(110)의 마이크로부터 수집된 음성을 변환한 텍스트(STT; Speech to Text)에 형용사 내지 감탄사(즉, 리액션을 의미함, 예컨대, '와 이거 괜찮네, 이번에 좀 다르다, 예쁘다' 등)가 얼마나 포함되는지 여부에 기초하여 관심 정도를 판단할 수 있다.Specifically, the second service determination unit 140 may determine the degree of interest according to the user 50's gaze tracking result and the user 50's reaction. The second service determination unit 140 determines how long the gaze toward a specific object of interest lasts according to the gaze tracking described above and determines the text (STT; Speech to Text) converted from the voice collected from the microphone of the sensor unit 110. The level of interest can be judged based on how many adjectives or exclamations (i.e., meaning reactions, e.g., 'Wow, this is good, it's a little different this time, it's pretty', etc.) are included.

만일, 특정 관심 대상에 대한 시선이 일정 시간(예컨대, 15초) 이상 지속되는 경우(이하, 시선 조건) 또는 STT에 따른 텍스트에 형용사 내지 감탄사가 일정 횟수(예컨대, 3회) 이상 포함된 경우(이하, 리액션 조건), 제2 서비스 판단부(140)는 즉시 서비스 생성부(150)가 해당 서비스 컨텐츠를 서비스 제공부(160)에 제공할 수 있도록 제어할 수 있다.If the gaze on a specific object of interest continues for more than a certain period of time (e.g., 15 seconds) (hereinafter referred to as gaze condition), or if the text according to STT contains adjectives or interjections more than a certain number of times (e.g., 3 times) ( Hereinafter, reaction conditions), the second service determination unit 140 may immediately control the service creation unit 150 to provide the corresponding service content to the service provision unit 160.

또한, 제2 서비스 판단부(140)는 센서부(110)로부터 수집된 차량들(차량1~차량3)에 설치된 센서(트렁크, 도어, 본넷 등의 개폐 센서)의 센싱 정보를 기초로 서비스 제공에 대한 시작 시점을 결정할 수 있다. 제2 서비스 판단부(140)는 사용자(50)가 체험 아이템(트렁크, 도어, 본넷 등)을 조작하는지 여부를 센서부(110)의 센싱 정보에 따라 결정하고, 사용자(50)가 체험 아이템을 조작한 경우(이하, 체험 인지 조건) 즉시 서비스 생성부(150)가 체험 아이템에 대한 서비스 컨텐츠를 서비스 제공부(160)에 제공할 수 있도록 제어할 수 있다.In addition, the second service determination unit 140 provides services based on sensing information from sensors (opening and closing sensors of trunk, door, bonnet, etc.) installed on vehicles (vehicles 1 to 3) collected from the sensor unit 110. You can decide the starting point for . The second service determination unit 140 determines whether the user 50 operates the experience item (trunk, door, bonnet, etc.) according to the sensing information of the sensor unit 110, and determines whether the user 50 operates the experience item. In the case of manipulation (hereinafter referred to as an experience recognition condition), the service creation unit 150 can immediately control the service content for the experience item to be provided to the service provider 160.

만일, 제2 서비스 판단부(140)가 활성화된지 일정 시간(예컨대, 30초)이 경과하여도 시선 조건, 리액션 조건 및 체험 인지 조건 중 어느 하나도 만족하지 못하는 경우, 제2 서비스 판단부(140)는 서비스 생성부(150)가 생성한 서비스 컨텐츠를 제안 형태로 가공하여 서비스 제공부(160)로 제공하도록 제어할 수 있다.If any one of the gaze condition, reaction condition, and experience recognition condition is not satisfied even after a certain period of time (e.g., 30 seconds) has elapsed since the second service determination unit 140 is activated, the second service determination unit 140 Can control the service content generated by the service creation unit 150 to be processed into a suggestion form and provided to the service provision unit 160.

즉, 제2 서비스 판단부(140)는 서비스 생성부(150)가 생성한 서비스를 제공하는 시작 시점을 판단할 수 있고, 시작 시점에 따라 서비스 생성부(150)가 서비스를 서비스 제공부(160)로 전달할 수 있다.That is, the second service determination unit 140 can determine the start time of providing the service created by the service creation unit 150, and the service creation unit 150 may provide the service according to the start time to the service provision unit 160. ) can be transmitted.

서비스 생성부(150)는 제1 서비스 판단부(130)가 제공하는 관심 차종 및 관심 부문에 기초하여 서비스 컨텐츠를 수집할 수 있다. 이를 위해, 서비스 생성부(150)는 서비스 제공 로봇(100)의 내부 또는 외부의 서비스 컨텐츠 데이터베이스(미도시)와 통신하여 관심 차종 및 관심 부문에 대응하는 서비스 컨텐츠를 수집할 수 있다. 여기서, 서비스 컨텐츠는 관심 차종 및 관심 부문에 따른 관심 대상(예컨대, 차량3의 트렁크)에 대한 특징, 장점, 사용법, 제원 등의 정보를 의미할 수 있다. 서비스 컨텐츠 데이터베이스(미도시)는 rule base 기반의 학습 모델일 수 있다.The service creation unit 150 may collect service content based on the vehicle type and segment of interest provided by the first service determination unit 130. To this end, the service creation unit 150 may communicate with a service content database (not shown) internal or external to the service providing robot 100 to collect service content corresponding to the vehicle type and sector of interest. Here, service content may refer to information such as features, advantages, usage, specifications, etc. about the object of interest (e.g., the trunk of vehicle 3) according to the vehicle type and segment of interest. The service content database (not shown) may be a rule base-based learning model.

또한, 서비스 생성부(150)는 제2 서비스 판단부(140)의 제어에 따른 시작 시점에 서비스 컨텐츠를 서비스 제공부(160)에 전달하거나, 서비스 컨텐츠를 제안 형태로 가공하여 서비스 제공부(160)로 전달할 수 있다.In addition, the service creation unit 150 delivers the service content to the service provider 160 at the start time under the control of the second service determination unit 140, or processes the service content into a proposal form to provide the service provider 160 ) can be transmitted.

서비스 제공부(160)는 서비스 생성부(150)로부터 전달받은 서비스 컨텐츠를 사용자(50)에게 제공할 수 있다. 이때, 사용자(50)에게 제공하는 방법으로 음성 표시 및/또는 화면 표시가 이용될 수 있으며, 이를 위해 서비스 제공부(160)는 스피커 및/또는 디스플레이를 포함할 수 있다. The service provider 160 may provide the service content received from the service creation unit 150 to the user 50. At this time, voice display and/or screen display may be used as a method of providing information to the user 50, and for this purpose, the service provider 160 may include a speaker and/or display.

앞서 설명한 바와 같이, 서비스 제공부(160)는 두가지 종류의 서비스 컨텐츠를 전달 받을 수 있다. 즉, 시선 조건, 리액션 조건 및 체험 인지 조건 중 적어도 하나의 조건이 만족될 경우, 서비스 제공부(160)는 본래의 서비스 컨텐츠(예를 들어, '헤드 램프 예쁘죠, 이 헤드 램프는 ~~한 특징이 있고, 디자인은 ~~에 특화되어 있어요' 등)를 전달받을 수 있다. As described above, the service provider 160 can receive two types of service content. That is, when at least one of the gaze conditions, reaction conditions, and experience recognition conditions is satisfied, the service provider 160 provides original service content (e.g., 'Isn't the headlamp pretty? This headlamp has ~~ features). and the design is specialized in ~~', etc.) can be received.

그러나, 시선 조건, 리액션 조건 및 체험 인지 조건 중 어느 하나의 조건도 만족되지 못할 경우, 서비스 제공부(160)는 제안 형태로 가공된 서비스 컨텐츠(예를 들어, '헤드 램프에 관심 있으신 가봐요, 이 헤드 램프의 특징에 대해 설명을 해드릴까요?', '차량의 후방 쪽에 관심 있으신 가봐요, 트렁크, 리어 램프, 후방 카메라 중에서 관심 있으신 부문은 어디신가요?' 등)를 전달받을 수 있다. 이후, 서비스 제공부(160)는 유저 인터페이스를 통한 사용자(50)의 선택 입력에 따라 서비스 생성부(150)로부터 본래의 서비스 컨텐츠(예를 들어, 헤드 램프의 특징)를 전달 받아 사용자(50)에게 제공할 수 있다.However, if any of the gaze conditions, reaction conditions, and experience recognition conditions are not satisfied, the service provider 160 provides service content processed in the form of a suggestion (for example, 'Are you interested in a headlamp?' ‘Can you explain the characteristics of the headlamp?’, ‘Are you interested in the rear of the vehicle? Among the trunk, rear lamp, and rear camera, which part are you interested in?’, etc.). Thereafter, the service provider 160 receives the original service content (e.g., features of a headlamp) from the service creation unit 150 according to the user 50's selection input through the user interface and provides the user 50 can be provided to.

또한, 서비스 제공부(160)는 제3 서비스 판단부(170)의 제어에 따라 서비스 컨텐츠의 제공을 종료할 수 있다.Additionally, the service provider 160 may end provision of service content under the control of the third service determination unit 170.

제3 서비스 판단부(170)는 센서부(110)의 카메라 및 마이크로부터 각각 제공되는 영상 및 음성에 기초하여 서비스 제공에 대한 종료 시점을 판단할 수 있다. The third service determination unit 170 may determine the end point of service provision based on the video and audio provided from the camera and microphone of the sensor unit 110, respectively.

제3 서비스 판단부(170)는 영상에 포함된 사용자(50)의 안면을 인식하고 인식된 안면 상의 표정 특징점을 추출한 뒤, 감정/감성 분류기(classifier)를 이용해 표정 특징점에 대응하는 감정을 추출할 수 있다. 제3 서비스 판단부(170)는 이러한 감정을 긍정 또는 부정의 카테고리로 분류하여 저장할 수 있다. 예를 들어, 표정 특징점에 따라 웃음, 놀람, 짜증, 우울 등의 감정이 추출될 수 있는데, 웃음과 놀람은 긍정의 카테고리로, 짜증과 우울은 부정의 카테고리로 분류될 수 있다.The third service determination unit 170 recognizes the face of the user 50 included in the video, extracts facial expression feature points on the recognized face, and then extracts emotions corresponding to the facial expression feature points using an emotion/emotion classifier. You can. The third service determination unit 170 may classify these emotions into positive or negative categories and store them. For example, emotions such as laughter, surprise, irritation, and depression can be extracted depending on facial expression features. Laughter and surprise can be classified into the positive category, and irritation and depression can be classified into the negative category.

제3 서비스 판단부(170)는 음성에 포함된 사용자(50)의 음성을 인식하고 텍스트를 추출한 뒤(STT), 형용사/감탄사 분류기(classifier)를 이용해 텍스트에 대응하는 리액션을 추출할 수 있다. 제3 서비스 판단부(170)는 이러한 리액션을 긍정 또는 부정의 카테고리로 분류하여 저장할 수 있다.The third service determination unit 170 may recognize the voice of the user 50 included in the voice, extract the text (STT), and then extract a reaction corresponding to the text using an adjective/exclamation classifier. The third service determination unit 170 may classify these reactions into positive or negative categories and store them.

제3 서비스 판단부(170)는 긍정 및 부정 각각의 카테고리에 저장된 감정 및 리액션을 기초로 서비스 제공에 대한 종료 시점을 판단할 수 있다. The third service determination unit 170 may determine the end point of service provision based on the emotions and reactions stored in each positive and negative category.

예를 들어, 제3 서비스 판단부(170)는 부정의 카테고리에 저장된 감정 및 리액션의 개수가 일정 개수(예컨대, 3개)를 초과하거나, 긍정의 카테고리에 저장된 감정 및 리액션의 개수 대비 부정의 카테고리에 저장된 감정 및 리액션의 개수의 비율이 일정 비율(예컨대, 2배)을 초과할 경우를 서비스 제공에 대한 종료 시점으로 판단할 수 있다. 이에 따라, 제3 서비스 판단부(170)는 서비스 제공부(160)가 즉시 해당 서비스 컨텐츠의 제공을 종료하도록 제어할 수 있다.For example, the third service determination unit 170 determines whether the number of emotions and reactions stored in the negative category exceeds a certain number (e.g., 3) or when the number of emotions and reactions stored in the positive category is compared to the number of emotions and reactions stored in the negative category. When the ratio of the number of emotions and reactions stored in exceeds a certain ratio (e.g., double), it can be determined as the end point for service provision. Accordingly, the third service determination unit 170 can control the service provider 160 to immediately end provision of the corresponding service content.

아울러, 서비스 제공부(160)의 서비스 제공 중에도 제1 및 제2 서비스 판단부(130, 140)들의 관심 대상, 관심 정도, 체험 아이템 트랙킹 동작은 지속될 수 있으며, 관심 대상이 변경되거나, 체험 아이템이 변경되는 경우 해당 서비스 판단부는 변경된 관심 대상 또는 체험 아이템에 대한 준비 모드가 실행될 수 있도록 다른 서비스 판단부 및 서비스 생성부(150)를 제어할 수 있다.In addition, even while the service provider 160 is providing the service, the object of interest, degree of interest, and experience item tracking operations of the first and second service determination units 130 and 140 may continue, and the object of interest may change or the experience item may be changed. In case of change, the corresponding service determination unit may control other service determination units and the service creation unit 150 so that a preparation mode for the changed object of interest or experience item can be executed.

사용자 반응 학습부(180)는 서비스 제공 전의 사용자 반응 및 서비스 제공 후의 사용자 반응을 기초로 사용자 반응을 학습할 수 있다. The user response learning unit 180 may learn user responses based on user responses before service provision and user responses after service provision.

서비스 제공 전의 사용자 반응은 제1 서비스 판단부(130)의 관심 차종 및 관심 부문에 따른 특정 관심 대상에 대한 사용자 반응, 서비스 제공부(160)의 서비스 제안에 대한 사용자 선택 등이 포함될 수 있다.The user response before service provision may include a user response to a specific object of interest according to the vehicle type and segment of interest of the first service determination unit 130, a user selection of a service proposal from the service provision unit 160, etc.

서비스 제공 후의 사용자 반응은 제3 서비스 판단부(170)가 저장한 긍정 및 부정 각각의 카테고리의 감정 및 리액션이 포함될 수 있다. The user reaction after service provision may include emotions and reactions of each positive and negative category stored by the third service determination unit 170.

사용자 반응 학습부(180)는 서비스 제공 전의 사용자 반응 및 서비스 제공 후의 사용자 반응을 제공받아 머신 러닝(machine learning)을 위한 학습 알고리즘을 이용하여, 서비스 종류 및 제공 시점에 대한 사용자 반응을 축적 및 학습함으로써, 서비스 제공 로봇(100)의 동작을 위한 각종 파라미터를 수정할 수 있다.The user response learning unit 180 receives user responses before service provision and user responses after service provision, and uses a learning algorithm for machine learning to accumulate and learn user responses regarding the type and time of service provision. , various parameters for the operation of the service providing robot 100 can be modified.

예를 들어, 서비스 제공부(160)의 서비스 제안에 대해 사용자(50)의 선택을 지속적으로 받지 못하는 경우, 사용자 반응 학습부(180)는 서비스 제안 방식을 변경하도록(예컨대, 특징 설명 제안에서 장점 설명 제안으로 변경) 서비스 생성부(150)를 제어할 수 있다.For example, if the user 50's selection is not continuously received for the service proposal of the service provider 160, the user response learning unit 180 may change the service proposal method (e.g., the advantage in the feature description proposal). Change to explanation suggestion) The service creation unit 150 can be controlled.

또는, 제3 서비스 판단부(170)가 저장한 부정 카테고리의 감정 및 리액션의 비율이 과도하게 높을 경우, 사용자 반응 학습부(180)는 서비스 제공부(160)가 제공하는 서비스 컨텐츠의 순서를 변경하도록(예컨대, 특징->장점->제원 순서에서 장점->제원->특징 순서로 변경) 제어할 수 있다. Alternatively, if the ratio of emotions and reactions in the negative category stored by the third service determination unit 170 is excessively high, the user response learning unit 180 changes the order of service content provided by the service provider 160. (e.g., change the order from Features->Advantages->Specs to Advantages->Specs->Features).

사용자 반응 학습부(180)가 학습 결과에 따라 변경할 수 있는 파라미터는 이에 그치지 않고, 판단의 기준이 되는 일정 시간, 일정 횟수를 비롯하여 사용자(50)와의 거리, 출력 음성 및 화면 인터페이스 등을 포함할 수 있다.The parameters that the user response learning unit 180 can change according to the learning results are not limited to this and may include a certain time and a certain number of times, which are the criteria for judgment, as well as the distance from the user 50, output voice, and screen interface. there is.

도 3은 본 발명의 일 실시예에 따른 서비스 제공 로봇의 동작 방법을 나타낸 흐름도이다. 도 4는 도 3에 도시된 S2 단계를 보다 상세히 나타낸 흐름도이다. 도 5는 도 3에 도시된 S3 단계를 보다 상세히 나타낸 흐름도이다. 도 6은 도 3에 도시된 S7 단계를 보다 상세히 나타낸 흐름도이다. 도 7은 도 3에 도시된 S8 단계를 보다 상세히 나타낸 흐름도이다.Figure 3 is a flowchart showing a method of operating a service providing robot according to an embodiment of the present invention. Figure 4 is a flowchart showing step S2 shown in Figure 3 in more detail. Figure 5 is a flowchart showing step S3 shown in Figure 3 in more detail. Figure 6 is a flowchart showing step S7 shown in Figure 3 in more detail. Figure 7 is a flowchart showing step S8 shown in Figure 3 in more detail.

도 3 내지 도 7을 참조하면, 도 3에서 서비스 제공 로봇(100)의 전체적인 동작 방법이 도시되어 있으며, 도 4 내지 도 7 각각에는 도 3의 단계들 중 특정 단계가 보다 상세히 나타나 있다. Referring to FIGS. 3 to 7, the overall operating method of the service providing robot 100 is shown in FIG. 3, and each of FIGS. 4 to 7 shows specific steps among the steps in FIG. 3 in more detail.

먼저 도 3에서, 서비스 제공 로봇(100)이 대기 모드에 있다고 가정하기로 한다. First, in FIG. 3, it is assumed that the service providing robot 100 is in standby mode.

사용자 인식부(120)는 센서부(110)로부터 제공되는 센싱 정보를 기초로 사용자(50)가 정해진 영역(예컨대, 임의의 차량으로부터 일정 범위 이내 또는 서비스 제공 로봇(100)의 일정 범위 이내)에 진입하였는지 인식할 수 있으며, 사용자(50)의 진입이 인식된 경우 대기 모드로부터 준비 모드로 진입하여 제1 서비스 판단부(130)와 제2 서비스 판단부(140)의 동작을 활성화할 수 있다(S1).The user recognition unit 120 allows the user 50 to enter a designated area (for example, within a certain range from any vehicle or within a certain range of the service providing robot 100) based on the sensing information provided from the sensor unit 110. It is possible to recognize whether the user 50 has entered, and when the user 50's entry is recognized, the operation of the first service determination unit 130 and the second service determination unit 140 can be activated by entering the preparation mode from the standby mode ( S1).

제1 서비스 판단부(130)는 사용자(50)의 위치 및 해당 위치에 머무른 시간에 기초하여 사용자(50)의 관심 차종을 판단하고, 사용자(50)의 시선을 트랙킹하여 사용자(50)가 관심을 가지고 있는 관심 부문을 판단하여, 관심 차종과 관심 부문에 따른 관심 대상을 결정할 수 있다(S2).The first service determination unit 130 determines the vehicle type of interest of the user 50 based on the location of the user 50 and the time spent at the location, and tracks the gaze of the user 50 to determine the type of vehicle of interest to the user 50. By determining the interest segment you have, you can determine the vehicle type of interest and the object of interest according to the interest segment (S2).

도 4에서, S2 단계는 S21 내지 S24 단계를 포함할 수 있다.In Figure 4, step S2 may include steps S21 to S24.

제1 서비스 판단부(130)는 센서부(110)의 위치 센서로부터 사용자(50)의 위치를 제공받을 수 있으며, 사전에 저장된 전시 매장(50) 및 차량들(차량1~차량3)의 위치를 저장하는 맵 정보와 현재 사용자(50)의 위치로부터, 현재 사용자(50)의 위치가 차량들(차량1~차량3) 중 어느 차량에 근접하는지 및 근접한 위치에 일정 시간(예컨대, 10초) 이상 머무르는지를 분석하는 위치 트랙킹을 수행할 수 있다(S21).The first service determination unit 130 may receive the location of the user 50 from the position sensor of the sensor unit 110, and the locations of the exhibition store 50 and vehicles (vehicle 1 to vehicle 3) stored in advance. From the map information that stores and the current location of the user 50, the current location of the user 50 determines which of the vehicles (vehicle 1 to vehicle 3) is close to the vehicle and the proximity location for a certain period of time (e.g., 10 seconds). Location tracking can be performed to analyze whether there is an abnormal stay (S21).

제1 서비스 판단부(130)는 위치 트랙킹 결과에 기초하여 사용자(50)의 관심 차종(예컨대, 차량3)을 판단할 수 있다(S21).The first service determination unit 130 may determine the vehicle type (eg, vehicle 3) of interest to the user 50 based on the location tracking result (S21).

제1 서비스 판단부(130)는 센서부(110)의 카메라로부터 사용자(50)의 안면을 촬영한 영상을 제공받을 수 있으며, 영상 내에서 사용자(50)의 시선 방향을 분석하고 차량들(차량1~차량3)의 위치를 저장하는 맵 정보로부터 사용자(50)의 시선 방향이 관심 차종의 어느 부분을 향하는지 분석하는 시선 트랙킹을 수행할 수 있다(S23).The first service determination unit 130 may receive an image of the face of the user 50 from the camera of the sensor unit 110, analyze the gaze direction of the user 50 in the image, and detect vehicles (vehicles). From the map information storing the positions of vehicles 1 to 3), gaze tracking can be performed to analyze which part of the vehicle type of interest the user 50's gaze direction is toward (S23).

제1 서비스 판단부(130)는 시선 트랙킹 결과에 기초하여 사용자(50)가 관심을 가지고 있는 관심 부문(예컨대, 후방 카메라, AVM(Around View Monitor) 카메라)을 판단할 수 있다(S24).The first service determination unit 130 may determine the area of interest (eg, rear camera, AVM (Around View Monitor) camera) in which the user 50 is interested based on the gaze tracking result (S24).

다시 도 3에서, S2 단계와 병행하여 제2 서비스 판단부(140)는 서비스 생성부(150)의 서비스 컨텐츠를 서비스 제공부(160)로 전달하여 사용자(50)에게 제공할 시작 시점을 판단할 수 있다(S3).Again in FIG. 3, in parallel with step S2, the second service determination unit 140 transfers the service content of the service creation unit 150 to the service provision unit 160 to determine the starting point of time to provide it to the user 50. (S3).

도 5에서, S3 단계는 S31 내지 S35 단계를 포함할 수 있다.In Figure 5, step S3 may include steps S31 to S35.

제2 서비스 판단부(140)는 앞서 설명한 시선 트랙킹에 따라 특정 관심 대상을 향한 시선이 얼마나 지속되는지 여부를 판단하고(S31), 센서부(110)의 마이크로부터 수집된 음성을 변환한 텍스트에 형용사 내지 감탄사가 얼마나 포함되는지 여부를 판단(즉, 리액션 트랙킹)할 수 있다(S32). 제2 서비스 판단부(140)는 시선 트랙킹 결과와 리액션 트릭킹 결과에 기초하여 관심 정도를 판단할 수 있다(S33).The second service determination unit 140 determines how long the gaze toward a specific object of interest continues according to the gaze tracking described above (S31), and adds an adjective to the text converted from the voice collected from the microphone of the sensor unit 110. It is possible to determine (i.e., reaction tracking) how many exclamations are included (S32). The second service determination unit 140 may determine the degree of interest based on the gaze tracking result and the reaction tricking result (S33).

제2 서비스 판단부(140)는 사용자(50)가 체험 아이템(트렁크, 도어, 본넷 등)을 조작하는지 여부를 센서부(110)의 센싱 정보에 따라 결정(즉, 체험 아이템 트랙킹)할 수 있다(S34).The second service determination unit 140 may determine (i.e., experience item tracking) whether the user 50 operates an experience item (trunk, door, bonnet, etc.) based on the sensing information of the sensor unit 110. (S34).

만일, 특정 관심 대상에 대한 시선이 일정 시간(예컨대, 15초) 이상 지속되는 경우 또는 STT에 따른 텍스트에 형용사 내지 감탄사가 일정 횟수(예컨대, 3회) 이상 포함된 경우(즉, 관심 정도가 높은 경우), 제2 서비스 판단부(140)는 현재 시점을 시작 시점으로 판단하고(S35), 즉시 서비스 생성부(150)가 해당 서비스 컨텐츠를 서비스 제공부(160)에 전달하도록 제어할 수 있다(S6의 Yes).If the gaze on a specific object of interest continues for more than a certain period of time (e.g., 15 seconds) or if the text according to STT contains adjectives or interjections more than a certain number of times (e.g., 3 times) (i.e., if the text has a high degree of interest) case), the second service determination unit 140 determines the current time as the start time (S35) and immediately controls the service creation unit 150 to deliver the corresponding service content to the service provider 160 (S35) Yes in S6).

만일, 사용자(50)가 체험 아이템을 조작한 경우, 제2 서비스 판단부(140)는 현재 시점을 시작 시점으로 판단하고(S35), 즉시 서비스 생성부(150)가 체험 아이템에 대한 서비스 컨텐츠를 서비스 제공부(160)에 전달하도록 제어할 수 있다(S6의 Yes).If the user 50 manipulates the experience item, the second service determination unit 140 determines the current time as the start time (S35), and immediately the service creation unit 150 creates service content for the experience item. It can be controlled to transmit it to the service provider 160 (Yes in S6).

만일, 제2 서비스 판단부(140)가 활성화된지 일정 시간(예컨대, 30초)이 경과하여도 시선 조건, 리액션 조건 및 체험 인지 조건 중 어느 하나도 만족하지 못하는 경우, 제2 서비스 판단부(140)는 현재 시점으로부터 일정 시간(예컨대, 10초) 경과한 시점을 시작 시점으로 판단하고(S35), 서비스 생성부(150)가 생성한 서비스 컨텐츠를 제안 형태로 가공하여 시작 시점에 서비스 제공부(160)로 전달하도록 제어할 수 있다(S6의 Yes).If any one of the gaze condition, reaction condition, and experience recognition condition is not satisfied even after a certain period of time (e.g., 30 seconds) has elapsed since the second service determination unit 140 is activated, the second service determination unit 140 The service provider determines that a certain amount of time (e.g., 10 seconds) has elapsed from the current time as the start time (S35), processes the service content generated by the service creation unit 150 into a proposal form, and sends the service content to the service provider 160 at the start time. ) can be controlled to be transmitted (Yes in S6).

다시 도 3에서, 서비스 생성부(150)는 제1 서비스 판단부(130)가 제공하는 관심 차종 및 관심 부문에 기초하여 서비스 컨텐츠를 수집하여 생성할 수 있다(S4). 이를 위해, 서비스 생성부(150)는 서비스 제공 로봇(100)의 내부 또는 외부의 서비스 컨텐츠 데이터베이스(미도시)와 통신하여 관심 차종 및 관심 부문에 대응하는 서비스 컨텐츠를 수집할 수 있다. Referring back to FIG. 3 , the service creation unit 150 may collect and generate service content based on the vehicle type and segment of interest provided by the first service determination unit 130 (S4). To this end, the service creation unit 150 may communicate with a service content database (not shown) internal or external to the service providing robot 100 to collect service content corresponding to the vehicle type and sector of interest.

또한, 서비스 생성부(150)는 서비스 컨텐츠 또는 제안 형태로 가공된 서비스 컨텐츠를 임시 저장하고 서비스 대기 상태에 있을 수 있다(S5). 이는 상술한 대기 모드와는 다른 상태이고, 준비 모드의 일부에 해당한다.Additionally, the service creation unit 150 may temporarily store service content or service content processed in the form of a suggestion and may be in a service standby state (S5). This is a different state from the standby mode described above and corresponds to a part of the preparation mode.

서비스 생성부(150)는 제2 서비스 판단부(140)의 제어에 따른 시작 시점에 서비스 컨텐츠를 서비스 제공부(160)에 전달하거나, 서비스 컨텐츠를 제안 형태로 가공하여 서비스 제공부(160)로 전달할 수 있다(S6의 Yes).The service creation unit 150 delivers the service content to the service provider 160 at the start time under the control of the second service determination unit 140, or processes the service content into a proposal form and sends it to the service provider 160. Can be passed on (Yes in S6).

서비스 제공부(160)는 서비스 생성부(150)로부터 전달받은 서비스 컨텐츠를 사용자(50)에게 제공할 수 있다(S7). 이때, 사용자(50)에게 제공하는 방법으로 음성 표시 및/또는 화면 표시가 이용될 수 있으며, 이를 위해 서비스 제공부(160)는 스피커 및/또는 디스플레이를 포함할 수 있다. The service provider 160 may provide the service content received from the service creation unit 150 to the user 50 (S7). At this time, voice display and/or screen display may be used as a method of providing information to the user 50, and for this purpose, the service provider 160 may include a speaker and/or display.

도 6에서, S7 단계는 S71 내지 S74 단계를 포함할 수 있다.In Figure 6, step S7 may include steps S71 to S74.

앞서 설명한 바와 같이, 서비스 제공부(160)는 두가지 종류의 서비스 컨텐츠를 전달 받을 수 있다. 즉, 시선 조건, 리액션 조건 및 체험 인지 조건 중 적어도 하나의 조건이 만족될 경우, 서비스 제공부(160)는 본래의 서비스 컨텐츠(예를 들어, '헤드 램프 예쁘죠, 이 헤드 램프는 ~~한 특징이 있고, 디자인은 ~~에 특화되어 있어요' 등)를 전달받아 사용자(50)에게 제공할 수 있다(S74). As described above, the service provider 160 can receive two types of service content. That is, when at least one of the gaze conditions, reaction conditions, and experience recognition conditions is satisfied, the service provider 160 provides original service content (e.g., 'Isn't the headlamp pretty? This headlamp has ~~ features). ', and the design is specialized for ~~', etc.) can be received and provided to the user (50) (S74).

그러나, 시선 조건, 리액션 조건 및 체험 인지 조건 중 어느 하나의 조건도 만족되지 못할 경우, 서비스 제공부(160)는 제안 형태로 가공된 서비스 컨텐츠(예를 들어, '헤드 램프에 관심 있으신 가봐요, 이 헤드 램프의 특징에 대해 설명을 해드릴까요?', '차량의 후방 쪽에 관심 있으신 가봐요, 트렁크, 리어 램프, 후방 카메라 중에서 관심 있으신 부문은 어디신가요?' 등)를 전달받아 사용자(50)에게 제공할 수 있다(S71). However, if any of the gaze conditions, reaction conditions, and experience recognition conditions are not satisfied, the service provider 160 provides service content processed in the form of a suggestion (for example, 'Are you interested in a headlamp?' Would you like to explain the features of the headlamp?', 'Are you interested in the rear of the vehicle? Among the trunk, rear lamp, and rear camera, which part are you interested in?', etc.) are delivered to the user (50). (S71).

이후, 유저 인터페이스를 통해 사용자(50)가 서비스 제공을 거부하는 선택을 입력한 경우(S72의 No), 서비스 제공부(160)는 이러한 결과를 사용자 반응 학습부(180)로 전달하고, 서비스 제공 로봇(100)은 대기 모드로 진입할 수 있다.Thereafter, when the user 50 inputs a choice to refuse service provision through the user interface (No in S72), the service provision unit 160 transmits this result to the user response learning unit 180 and provides the service. The robot 100 may enter standby mode.

유저 인터페이스를 통해 사용자(50)가 서비스 제공을 허용하는 선택을 입력한 경우(S72의 Yes), 서비스 제공부(160)는 서비스 생성부(150)로부터 본래의 서비스 컨텐츠(예를 들어, 헤드 램프의 특징)를 전달 받아 사용자(50)에게 제공할 수 있다(S73).When the user 50 enters the selection to allow service provision through the user interface (Yes in S72), the service provider 160 generates the original service content (e.g., head lamp) from the service creation unit 150. characteristics) can be delivered and provided to the user 50 (S73).

다시 도 3에서, 제3 서비스 판단부(170)는 센서부(110)의 카메라 및 마이크로부터 각각 제공되는 영상 및 음성에 기초하여 서비스 제공에 대한 종료 시점을 결정할 수 있다(S8). Referring again to FIG. 3, the third service determination unit 170 may determine the end point of service provision based on the video and audio provided from the camera and microphone of the sensor unit 110, respectively (S8).

도 7에서, S8 단계는 S81 내지 S86 단계를 포함할 수 있다.In Figure 7, step S8 may include steps S81 to S86.

제3 서비스 판단부(170)는 영상을 분석하여 영상에 포함된 사용자(50)의 안면을 인식하고(S81), 인식된 안면 상의 표정 특징점을 추출한 뒤(S82), 감정/감성 분류기를 이용해 표정 특징점에 대응하는 감정을 추출할 수 있다(S83). 제3 서비스 판단부(170)는 이러한 감정을 긍정 또는 부정의 카테고리로 분류하여 저장할 수 있다.The third service determination unit 170 analyzes the video to recognize the face of the user 50 included in the video (S81), extracts facial expression feature points on the recognized face (S82), and then uses the emotion/emotion classifier to determine the facial expression. Emotions corresponding to feature points can be extracted (S83). The third service determination unit 170 may classify these emotions into positive or negative categories and store them.

제3 서비스 판단부(170)는 음성을 분석하여 음성에 포함된 사용자(50)의 음성을 인식하고(S84), 텍스트를 추출한 뒤(S85), 형용사/감탄사 분류기를 이용해 텍스트에 대응하는 리액션을 추출할 수 있다(S86). 제3 서비스 판단부(170)는 이러한 리액션을 긍정 또는 부정의 카테고리로 분류하여 저장할 수 있다.The third service determination unit 170 analyzes the voice, recognizes the voice of the user 50 included in the voice (S84), extracts the text (S85), and creates a reaction corresponding to the text using an adjective/interjection classifier. Can be extracted (S86). The third service determination unit 170 may classify these reactions into positive or negative categories and store them.

다시 도 3에서, 제3 서비스 판단부(170)는 긍정 및 부정 각각의 카테고리에 저장된 감정 및 리액션을 기초로 서비스 제공에 대한 종료 시점을 판단할 수 있다(S8). 또한, 사용자 반응 학습부(180)는 서비스 제공 전의 사용자 반응 및 서비스 제공 후의 사용자 반응을 기초로 사용자 반응을 학습할 수 있다(S8). Referring again to FIG. 3, the third service determination unit 170 may determine the end point of service provision based on the emotions and reactions stored in each positive and negative category (S8). Additionally, the user response learning unit 180 may learn user responses based on user responses before service provision and user responses after service provision (S8).

서비스 제공 전의 사용자 반응은 제1 서비스 판단부(130)의 관심 차종 및 관심 부문에 따른 특정 관심 대상에 대한 사용자 반응, 서비스 제공부(160)의 서비스 제안에 대한 사용자 선택 등이 포함될 수 있다.The user response before service provision may include a user response to a specific object of interest according to the vehicle type and segment of interest of the first service determination unit 130, a user selection of a service proposal from the service provision unit 160, etc.

서비스 제공 후의 사용자 반응은 제3 서비스 판단부(170)가 저장한 긍정 및 부정 각각의 카테고리의 감정 및 리액션이 포함될 수 있다. The user reaction after service provision may include emotions and reactions of each positive and negative category stored by the third service determination unit 170.

사용자 반응 학습부(180)는 서비스 제공 전의 사용자 반응 및 서비스 제공 후의 사용자 반응을 제공받아 머신 러닝(machine learning)을 위한 학습 알고리즘을 이용하여 서비스 제공 로봇(100)의 동작을 위한 각종 파라미터를 수정할 수 있다.The user response learning unit 180 receives user responses before service provision and user responses after service provision, and can modify various parameters for the operation of the service provision robot 100 using a learning algorithm for machine learning. there is.

부정의 카테고리에 저장된 감정 및 리액션의 개수가 일정 개수(예컨대, 3개)를 초과하거나, 긍정의 카테고리에 저장된 감정 및 리액션의 개수 대비 부정의 카테고리에 저장된 감정 및 리액션의 개수의 비율이 일정 비율(예컨대, 2배)을 초과할 경우, 제3 서비스 판단부(170)는 현재 시점을 서비스 제공에 대한 종료 시점으로 판단할 수 있다. 이에 따라, 제3 서비스 판단부(170)는 서비스 제공부(160)가 즉시 해당 서비스 컨텐츠의 제공을 종료하도록 제어할 수 있다(S9의 부정). 이 때, 서비스 제공 로봇(100)은 해당 사용자에 대한 서비스 제공을 하지 않도록 대기 모드에 진입할 수 있다(S10).The number of emotions and reactions stored in the negative category exceeds a certain number (e.g., 3), or the ratio of the number of emotions and reactions stored in the negative category to the number of emotions and reactions stored in the positive category is a certain ratio ( For example, if it exceeds 2 times), the third service determination unit 170 may determine the current time as the end point for service provision. Accordingly, the third service determination unit 170 can control the service provision unit 160 to immediately end provision of the corresponding service content (negation of S9). At this time, the service providing robot 100 may enter standby mode so as not to provide service to the user (S10).

부정의 카테고리에 저장된 감정 및 리액션의 개수가 일정 개수(예컨대, 3개)를 초과하지 않고, 긍정의 카테고리에 저장된 감정 및 리액션의 개수 대비 부정의 카테고리에 저장된 감정 및 리액션의 개수의 비율이 일정 비율(예컨대, 2배)을 초과하지 않을 경우, 제3 서비스 판단부(170)는 서비스 제공부(160)가 보유한 서비스 컨텐츠 제공을 완료하는 시점을 서비스 제공에 대한 종료 시점으로 판단할 수 있다. 이에 따라, 서비스 제공부(160)에 의한 해당 서비스 컨텐츠의 제공이 완료되면(S9의 긍정), 제3 서비스 판단부(170)는 해당 사용자에 대한 서비스 제공을 준비할 수 있도록 사용자 인식부(120)가 해당 사용자의 관심 대상을 트랙킹하도록 제어할 수 있다.The number of emotions and reactions stored in the negative category does not exceed a certain number (e.g., 3), and the ratio of the number of emotions and reactions stored in the negative category to the number of emotions and reactions stored in the positive category is a certain ratio. If it does not exceed (eg, twice), the third service determination unit 170 may determine the point in time at which the service provision unit 160 completes provision of service content as the end point for service provision. Accordingly, when the provision of the service content by the service provider 160 is completed (S9 affirmative), the third service determination unit 170 uses the user recognition unit 120 to prepare for service provision to the user. ) can be controlled to track the object of interest of the user.

아울러, 서비스 제공 로봇(100)의 준비 모드 또는 서비스 모드 내에서 사용자(50)가 관심 차종의 위치로부터 일정 범위(예컨대, 차량으로부터 2미터 이내 범위)를 벗어날 경우, 제1 서비스 판단부(130)는 즉시 추가적인 동작을 중지하고 서비스 제공 로봇(100)이 대기 모드로 진입하도록 제어할 수 있다.In addition, when the user 50 leaves a certain range (e.g., within 2 meters from the vehicle) from the location of the vehicle type of interest within the preparation mode or service mode of the service providing robot 100, the first service determination unit 130 Can immediately stop additional operations and control the service providing robot 100 to enter standby mode.

본 명세서에 개시된 실시예들과 관련하여 설명된 방법 또는 알고리즘의 단계는 프로세서에 의해 실행되는 하드웨어, 소프트웨어 모듈, 또는 그 2 개의 결합으로 직접 구현될 수 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드 디스크, 착탈형 디스크, CD-ROM과 같은 저장 매체에 상주할 수도 있다. 예시적인 저장 매체는 프로세서에 커플링되며, 그 프로세서는 저장 매체로부터 정보를 판독할 수 있고 저장 매체에 정보를 기입할 수 있다. 다른 방법으로, 저장 매체는 프로세서와 일체형일 수도 있다. 프로세서 및 저장 매체는 주문형 집적회로(ASIC) 내에 상주할 수도 있다. ASIC는 사용자 단말기 내에 상주할 수도 있다. 다른 방법으로, 프로세서 및 저장 매체는 사용자 단말기 내에 개별 컴포넌트로서 상주할 수도 있다.The steps of the method or algorithm described in connection with the embodiments disclosed herein may be implemented directly in hardware, software modules, or a combination of the two executed by a processor. Software modules may reside in a storage medium such as RAM memory, flash memory, ROM memory, EPROM memory, EEPROM memory, registers, hard disk, removable disk, or CD-ROM. An exemplary storage medium is coupled to a processor, the processor capable of reading information from and writing information to the storage medium. Alternatively, the storage medium may be integral with the processor. The processor and storage medium may reside within an application specific integrated circuit (ASIC). The ASIC may reside within the user terminal. Alternatively, the processor and storage medium may reside as separate components within the user terminal.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. The above description is merely an illustrative explanation of the technical idea of the present invention, and various modifications and variations will be possible to those skilled in the art without departing from the essential characteristics of the present invention.

따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but are for illustrative purposes, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be construed as being included in the scope of rights of the present invention.

10: 전시 매장
50: 사용자
100: 서비스 제공 로봇
10: Exhibition store
50: user
100: Service provision robot

Claims (20)

외부로부터 정보를 수집하기 위한 적어도 하나의 센서를 포함하는 센서부;
사용자의 상태에 기초하여 상기 사용자의 관심 대상을 결정하는 제1 서비스 판단부;
상기 사용자의 상태 및 상기 센서부로부터 제공되는 센싱 정보에 기초하여 상기 관심 대상에 대한 서비스 컨텐츠를 제공할 시작 시점을 결정하는 제2 서비스 판단부;
상기 사용자에 대한 영상 및 음성에 기초하여 상기 서비스 컨텐츠 제공의 종료 시점을 결정하는 제3 서비스 판단부;
상기 센서부로부터 제공되는 상기 센싱 정보에 기반하여 상기 사용자가 지정된 영역 내에 진입한지 여부를 식별하는 사용자 인식부; 및
상기 서비스 컨텐츠를 상기 시작 시점에 따라 상기 사용자에게 제공하는 서비스 제공부를 포함하고,
상기 사용자 인식부는,
상기 센서부로부터 제공된 상기 센싱 정보에 기반하여, 상기 사용자가 지정된 영역 내에 진입한 것을 식별함에 기반하여, 대기 모드로부터 준비 모드로 변경하여, 상기 제1 서비스 판단부 및 상기 제2 서비스 판단부를 활성화하고,
상기 제3 서비스 판단부는,
상기 서비스 컨텐츠를 제공하는 동안, 상기 사용자에 대한 영상 및 음성에 기초하여, 상기 서비스 컨텐츠 제공의 종료 시점을 결정하는 차량 전시 매장의 서비스 제공 로봇.
A sensor unit including at least one sensor for collecting information from the outside;
a first service determination unit that determines an object of interest for the user based on the user's status;
a second service determination unit that determines a starting time to provide service content for the object of interest based on the user's status and sensing information provided from the sensor unit;
a third service determination unit that determines an end point of providing the service content based on the video and audio for the user;
a user recognition unit that identifies whether the user has entered a designated area based on the sensing information provided from the sensor unit; and
A service provider that provides the service content to the user according to the start time,
The user recognition unit,
Based on the sensing information provided from the sensor unit, and based on identifying that the user has entered the designated area, change from standby mode to ready mode, activating the first service determination unit and the second service determination unit; ,
The third service judgment department,
A service providing robot at a vehicle exhibition store that determines an end point of providing the service content based on video and audio for the user while providing the service content.
제1항에 있어서,
상기 제1 서비스 판단부는, 상기 사용자의 위치 및 상기 위치에 머무른 시간에 기초하여 관심 차종을 판단하는 서비스 제공 로봇.
According to paragraph 1,
The first service determination unit is a service providing robot that determines a vehicle type of interest based on the user's location and the time spent at the location.
제1항에 있어서,
상기 제1 서비스 판단부는, 상기 사용자의 시선 및 상기 시선이 지속되는 시간을 트랙킹하여 관심 부문을 판단하는 서비스 제공 로봇.
According to paragraph 1,
The first service determination unit is a service providing robot that determines a section of interest by tracking the user's gaze and the time the gaze lasts.
제1항에 있어서,
상기 제2 서비스 판단부는, 상기 사용자의 시선이 일정 시간 이상 지속되는지에 대한 시선 조건 및 상기 사용자의 음성에 형용사 또는 감탄사가 일정 횟수 이상 포함되는지에 대한 리액션 조건을 만족하는지 여부를 판단하는 서비스 제공 로봇.
According to paragraph 1,
The second service determination unit is a service providing robot that determines whether the gaze condition for whether the user's gaze continues for more than a certain time and the reaction condition for whether the user's voice contains an adjective or exclamation more than a certain number of times are satisfied. .
제4항에 있어서,
상기 제2 서비스 판단부는, 상기 사용자가 체험 아이템을 조작하는지에 대한 체험 인지 조건을 만족하는지 여부를 판단하는 서비스 제공 로봇.
According to paragraph 4,
The second service determination unit is a service providing robot that determines whether the user satisfies the experience recognition condition for manipulating the experience item.
제5항에 있어서,
상기 제2 서비스 판단부는, 상기 시선 조건, 상기 리액션 조건 및 상기 체험 인지 조건 중 적어도 하나가 만족되는 경우, 상기 서비스 제공부가 상기 서비스 컨텐츠를 즉시 상기 사용자에게 제공하도록 제어하는 서비스 제공 로봇.
According to clause 5,
The second service determination unit controls the service provider to immediately provide the service content to the user when at least one of the gaze condition, the reaction condition, and the experience recognition condition is satisfied.
제5항에 있어서,
상기 제2 서비스 판단부는, 상기 시선 조건, 상기 리액션 조건 및 상기 체험 인지 조건 중 어느 하나도 만족되지 않는 경우, 제안 형태로 가공된 서비스 컨텐츠를 상기 서비스 제공부가 상기 사용자에게 제공하도록 제어하는 서비스 제공 로봇.
According to clause 5,
The second service determination unit, when any one of the gaze condition, the reaction condition, and the experience recognition condition is not satisfied, controls the service provider unit to provide service content processed in the form of a suggestion to the user.
제1항에 있어서,
상기 관심 대상에 대한 상기 서비스 컨텐츠를 수집하고, 상기 제2 서비스 판단부의 제어에 따라 상기 시작 시점에 상기 서비스 컨텐츠를 상기 서비스 제공부로 전달하거나, 상기 서비스 컨텐츠를 제안 형태로 가공하여 상기 서비스 제공부로 전달하는 서비스 생성부를 더 포함하는 서비스 제공 로봇.
According to paragraph 1,
Collects the service content for the object of interest, and delivers the service content to the service provider at the start time under the control of the second service determination unit, or processes the service content into a proposal form and delivers it to the service provider. A service providing robot further comprising a service creation unit.
제8항에 있어서,
상기 서비스 제공부는, 상기 제안 형태로 가공된 서비스 컨텐츠를 상기 사용자에게 제공하고, 유저 인터페이스를 통한 상기 사용자의 선택 입력에 따라 상기 서비스 컨텐츠를 제공하는 서비스 제공 로봇.
According to clause 8,
The service providing unit provides service content processed in the form of the suggestion to the user, and provides the service content according to the user's selection input through a user interface.
삭제delete 제1항에 있어서,
상기 제3 서비스 판단부는,
상기 영상에 포함된 상기 사용자의 안면을 인식하여 표정 특징점을 추출한 뒤, 감정/감성 분류기를 이용해 표정 특징점에 대응하는 감정을 추출하고, 상기 감정을 긍정 또는 부정의 카테고리로 분류하여 저장하는 서비스 제공 로봇.
According to paragraph 1,
The third service judgment department,
A service providing robot that recognizes the user's face included in the video, extracts facial expression feature points, extracts emotions corresponding to the facial expression feature points using an emotion/emotion classifier, classifies the emotions into positive or negative categories, and stores them. .
제1항에 있어서,
상기 제3 서비스 판단부는,
상기 음성에 포함된 상기 사용자의 음성을 인식하고 텍스트를 추출한 뒤, 형용사/감탄사 분류기를 이용해 상기 텍스트에 대응하는 리액션을 추출하고, 상기 리액션을 긍정 또는 부정의 카테고리로 분류하여 저장하는 서비스 제공 로봇.
According to paragraph 1,
The third service judgment department,
A service providing robot that recognizes the user's voice included in the voice, extracts text, extracts a reaction corresponding to the text using an adjective/exclamation classifier, classifies the reaction into a positive or negative category, and stores the reaction.
제12항에 있어서,
상기 제3 서비스 판단부는, 상기 부정의 카테고리에 저장된 감정 및 리액션의 개수가 일정 개수를 초과하거나, 상기 긍정의 카테고리에 저장된 감정 및 리액션의 개수 대비 부정의 카테고리에 저장된 감정 및 리액션의 개수의 비율이 일정 비율을 초과할 경우, 상기 서비스 제공부가 즉시 해당 서비스 컨텐츠의 제공을 종료하도록 제어하는 서비스 제공 로봇.
According to clause 12,
The third service determination unit determines whether the number of emotions and reactions stored in the negative category exceeds a certain number, or the ratio of the number of emotions and reactions stored in the negative category to the number of emotions and reactions stored in the positive category is A service provision robot that controls the service provider to immediately terminate provision of the service content when a certain ratio is exceeded.
제1항에 있어서,
서비스 제공 전의 사용자 반응 및 서비스 제공 후의 사용자 반응을 기초로 사용자 반응을 축적 및 학습함으로써, 적어도 하나의 파라미터를 수정하는 사용자 반응 학습부를 더 포함하는 서비스 제공 로봇.
According to paragraph 1,
A service providing robot further comprising a user response learning unit configured to modify at least one parameter by accumulating and learning user responses based on user responses before service provision and user responses after service provision.
제1항의 상기 서비스 제공 로봇; 및
상기 서비스 제공 로봇과 통신하여 상태 정보를 제공하는 적어도 하나의 차량을 포함하고,
상기 서비스 제공 로봇은,
센서부로부터 제공된 센싱 정보에 기반하여, 사용자가 지정된 영역 내에 진입한 것을 식별함에 기반하여, 대기 모드로부터 준비 모드로 변경하여, 제1 서비스 판단부 및 제2 서비스 판단부를 활성화하고,
서비스 컨텐츠를 제공하는 동안, 상기 사용자에 대한 영상 및 음성에 기초하여, 상기 서비스 컨텐츠 제공의 종료 시점을 결정하도록, 구성된, 매장 서비스 제공 시스템.
The service providing robot of claim 1; and
At least one vehicle that communicates with the service providing robot to provide status information,
The service providing robot is,
Based on the sensing information provided from the sensor unit, and based on identifying that the user has entered the designated area, changing from the standby mode to the ready mode, activating the first service determination unit and the second service determination unit,
A store service providing system, configured to determine an end point of providing service content, based on video and audio for the user, while providing service content.
센서부로부터 제공된 센싱 정보에 기반하여, 사용자가 지정된 영역 내에 진입한 것을 식별함에 기반하여, 대기 모드로부터 준비 모드로 변경하여, 제1 서비스 판단부 및 제2 서비스 판단부를 활성화하는 단계;
상기 사용자의 상태에 기초하여 상기 사용자의 관심 대상을 결정하는 단계;
상기 사용자의 상태 및 상기 센서부로부터 제공된 센싱 정보에 기초하여 상기 관심 대상에 대한 서비스 컨텐츠를 제공할 시작 시점을 결정하는 단계;
상기 서비스 컨텐츠를 상기 시작 시점에 따라 상기 사용자에게 제공하는 단계; 및
상기 서비스 컨텐츠를 제공하는 동안, 상기 사용자에 대한 영상 및 음성에 기초하여, 상기 서비스 컨텐츠 제공의 종료 시점을 결정하는 단계를 포함하는 차량 전시 매장의 서비스 제공 로봇의 동작 방법.
Based on the sensing information provided from the sensor unit, and based on identifying that the user has entered the designated area, changing from the standby mode to the preparation mode and activating the first service determination unit and the second service determination unit;
determining an object of interest for the user based on the user's status;
determining a starting time to provide service content for the object of interest based on the user's status and sensing information provided from the sensor unit;
providing the service content to the user according to the start time; and
A method of operating a service providing robot in a vehicle exhibition store, comprising determining an end point of providing the service content based on video and audio for the user while providing the service content.
제16항에 있어서,
상기 사용자의 관심 대상을 결정하는 단계는,
상기 사용자의 위치 및 상기 위치에 머무른 시간에 기초하여 관심 차종을 판단하는 단계; 및
상기 사용자의 시선 및 상기 시선이 지속되는 시간을 트랙킹하여 관심 부문을 판단하는 단계를 포함하는 서비스 제공 로봇의 동작 방법.
According to clause 16,
The step of determining the object of interest of the user is,
determining a vehicle type of interest based on the user's location and the time spent at the location; and
A method of operating a service providing robot including the step of determining a section of interest by tracking the user's gaze and the time the gaze lasts.
제16항에 있어서,
상기 시작 시점을 결정하는 단계는,
상기 사용자의 시선이 일정 시간 이상 지속되는지에 대한 시선 조건 및 상기 사용자의 음성에 형용사 또는 감탄사가 일정 횟수 이상 포함되는지에 대한 리액션 조건을 만족하는지 여부를 판단하는 단계; 및
상기 사용자가 체험 아이템을 조작하는지에 대한 체험 인지 조건을 만족하는지 여부를 판단하는 단계를 포함하는 서비스 제공 로봇의 동작 방법.
According to clause 16,
The step of determining the starting point is,
determining whether the gaze condition of whether the user's gaze continues for more than a certain period of time and the reaction condition of whether the user's voice includes an adjective or an exclamation more than a certain number of times are satisfied; and
A method of operating a service providing robot including the step of determining whether the user satisfies an experience recognition condition for manipulating an experience item.
제18항에 있어서,
상기 시작 시점을 결정하는 단계는,
상기 시선 조건, 상기 리액션 조건 및 상기 체험 인지 조건 중 적어도 하나가 만족되는 경우, 상기 서비스 컨텐츠를 즉시 상기 사용자에게 제공하도록 제어하는 단계를 포함하는 서비스 제공 로봇의 동작 방법.
According to clause 18,
The step of determining the starting point is,
A method of operating a service providing robot comprising the step of controlling to immediately provide the service content to the user when at least one of the gaze condition, the reaction condition, and the experience recognition condition is satisfied.
제18항에 있어서,
상기 시작 시점을 결정하는 단계는,
상기 시선 조건, 상기 리액션 조건 및 상기 체험 인지 조건 중 어느 하나도 만족되지 않는 경우, 제안 형태로 가공된 서비스 컨텐츠를 상기 사용자에게 제공하도록 제어하는 서비스 제공 로봇의 동작 방법.
According to clause 18,
The step of determining the starting point is,
A method of operating a service providing robot that controls providing service content processed in the form of a suggestion to the user when any one of the gaze condition, the reaction condition, and the experience recognition condition is not satisfied.
KR1020180134480A 2018-11-05 2018-11-05 Service providing robot for vehicle display shop and method of operating thereof KR102610737B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180134480A KR102610737B1 (en) 2018-11-05 2018-11-05 Service providing robot for vehicle display shop and method of operating thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180134480A KR102610737B1 (en) 2018-11-05 2018-11-05 Service providing robot for vehicle display shop and method of operating thereof

Publications (2)

Publication Number Publication Date
KR20200054362A KR20200054362A (en) 2020-05-20
KR102610737B1 true KR102610737B1 (en) 2023-12-07

Family

ID=70919618

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180134480A KR102610737B1 (en) 2018-11-05 2018-11-05 Service providing robot for vehicle display shop and method of operating thereof

Country Status (1)

Country Link
KR (1) KR102610737B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005293052A (en) * 2004-03-31 2005-10-20 Honda Motor Co Ltd Robot for dealing with customer
JP2007152442A (en) * 2005-11-30 2007-06-21 Mitsubishi Heavy Ind Ltd Robot guiding system
JP2009166184A (en) 2008-01-17 2009-07-30 Saitama Univ Guide robot
JP2010049374A (en) 2008-08-20 2010-03-04 Fujitsu Ltd Exhibition guidance system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100081587A (en) * 2009-01-06 2010-07-15 삼성전자주식회사 Sound recognition apparatus of robot and method for controlling the same
KR101295003B1 (en) * 2011-10-12 2013-08-16 한국과학기술연구원 Intelligent robot, system for interaction between intelligent robot and user, and method for interaction between intelligent robot and user
KR101479471B1 (en) * 2012-09-24 2015-01-13 네이버 주식회사 Method and system for providing advertisement based on user sight
KR102520627B1 (en) * 2017-02-01 2023-04-12 삼성전자주식회사 Apparatus and method and for recommending products

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005293052A (en) * 2004-03-31 2005-10-20 Honda Motor Co Ltd Robot for dealing with customer
JP2007152442A (en) * 2005-11-30 2007-06-21 Mitsubishi Heavy Ind Ltd Robot guiding system
JP2009166184A (en) 2008-01-17 2009-07-30 Saitama Univ Guide robot
JP2010049374A (en) 2008-08-20 2010-03-04 Fujitsu Ltd Exhibition guidance system

Also Published As

Publication number Publication date
KR20200054362A (en) 2020-05-20

Similar Documents

Publication Publication Date Title
KR102501714B1 (en) Device and method for providing response message to user’s voice input
CN106682090B (en) Active interaction implementation device and method and intelligent voice interaction equipment
US20200034661A1 (en) Artificial intelligence apparatus for generating training data, artificial intelligence server, and method for the same
JP6700785B2 (en) Control system, method and device for intelligent robot based on artificial intelligence
US20150081288A1 (en) Speech recognition device and the operation method thereof
US11217246B2 (en) Communication robot and method for operating the same
Vögel et al. Emotion-awareness for intelligent vehicle assistants: A research agenda
US9928833B2 (en) Voice interface for a vehicle
CN108989541A (en) Session initiation device, system, vehicle and method based on situation
KR20140064969A (en) Context-based smartphone sensor logic
CN102023703A (en) Combined lip reading and voice recognition multimodal interface system
US20200152193A1 (en) Control apparatus, control method agent apparatus, and computer readable storage medium
Sathyanarayana et al. Information fusion for robust ‘context and driver aware’active vehicle safety systems
US20200114925A1 (en) Interaction device, interaction method, and program
CN111415347B (en) Method and device for detecting legacy object and vehicle
US11421610B2 (en) Artificial intelligence apparatus for controlling auto stop system and method therefor
US10943136B1 (en) Apparatuses, systems and methods for generating a vehicle driver signature
CN111152232A (en) Service robot and method for operating the same
JP6886651B2 (en) Action command generation system, response system and action command generation method
EP3712887A1 (en) Vehicle operation assistance device
US11720231B2 (en) Vehicle having an intelligent user interface
KR102610737B1 (en) Service providing robot for vehicle display shop and method of operating thereof
US20220084234A1 (en) Method and electronic device for identifying size of measurement target object
KR20190078222A (en) Electronic device, server and method thereof for recommending fashion item
WO2023231211A1 (en) Voice recognition method and apparatus, electronic device, storage medium, and product

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right