WO2020196960A1 - 차량용 전자 장치 및 차량용 전자 장치의 동작 방법 - Google Patents

차량용 전자 장치 및 차량용 전자 장치의 동작 방법 Download PDF

Info

Publication number
WO2020196960A1
WO2020196960A1 PCT/KR2019/003627 KR2019003627W WO2020196960A1 WO 2020196960 A1 WO2020196960 A1 WO 2020196960A1 KR 2019003627 W KR2019003627 W KR 2019003627W WO 2020196960 A1 WO2020196960 A1 WO 2020196960A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
processor
user
electronic device
command
Prior art date
Application number
PCT/KR2019/003627
Other languages
English (en)
French (fr)
Inventor
김현수
신경준
유경환
김선엽
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2019/003627 priority Critical patent/WO2020196960A1/ko
Publication of WO2020196960A1 publication Critical patent/WO2020196960A1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers

Definitions

  • the present invention relates to an electronic device for a vehicle and a method of operating the electronic device for a vehicle.
  • a vehicle is a device that moves in a direction desired by a boarding user.
  • a typical example is a car.
  • Autonomous vehicle refers to a vehicle that can be driven automatically without human driving operation. Meanwhile, the autonomous vehicle may be provided in a form shared by several people or may be provided in a form that can be used by the public, such as a bus.
  • an object of the present invention is to provide an electronic device for a vehicle that enables an assistant to be implemented even in an autonomous vehicle used by several people.
  • Another object of the present invention is to provide a method of operating an electronic device for a vehicle that enables an assistant to be implemented even in an autonomous vehicle used by several people.
  • the electronic device for a vehicle determines whether or not a user has boarded a vehicle, and when it is determined that the first user has boarded the vehicle, the first user And a processor that performs synchronization with an assistant database (DB, data base), and obtains, from the database, natural voice commands personalized to the first user.
  • DB assistant database
  • the processor when a voice input is received and it is determined that the voice input matches a first command among the natural voice commands, the processor performs an operation based on the first command.
  • the processor updates the natural voice command in the database based on the voice input obtained from the first user while in the vehicle.
  • the processor determines whether the first user gets off the vehicle, and when it is determined that the first user gets off the vehicle, performs the database update.
  • the processor determines whether the first user gets off the vehicle, and when it is determined that the first user gets off the vehicle, performs an initialization operation.
  • a common natural voice command is obtained from the common database.
  • the processor when a voice input is received from a plurality of users, the processor requests voiceprint recognition from an external server, and identifies a speaker based on a voiceprint recognition result received from the external server.
  • the processor recombines the voice input by the distinguished speaker based on the voiceprint recognition result, and determines that the recombined voice input matches a first command among the natural voice commands. If yes, the operation based on the first command is performed.
  • a method of operating an electronic device for a vehicle may include: determining, by at least one processor, whether a first user boards a vehicle; Performing, by at least one processor, synchronizing with a first assistant database (DB) of the first user when it is determined that the first user has boarded the vehicle; And obtaining, by at least one processor, a natural voice command personalized to the first user from the database.
  • DB first assistant database
  • determining whether the voice input matches a first command among the natural voice commands when it is determined that at least one processor matches, performing an operation based on the first command.
  • At least one processor on the basis of the voice input obtained from the first user in the vehicle state, updating the natural voice command in the database; further comprises.
  • the at least one processor further includes determining whether the first user has alighted the vehicle, and the updating may include determining that the first user has alighted the vehicle. If so, the database is updated.
  • At least one processor may include determining whether the first user gets off the vehicle; And performing, by the at least one processor, an initialization operation when it is determined that the first user has got off the vehicle.
  • the at least one processor when it is determined that the first assistant database does not exist by the at least one processor, obtaining a common natural voice command from the common database.
  • At least one processor when a voice input is received from a plurality of users, requesting voiceprint recognition from an external server; And at least one processor classifying a speaker based on a voiceprint recognition result received from the external server.
  • At least one processor based on the voiceprint recognition result, recombining the voice input by the distinguished speaker; Determining, by at least one processor, whether the recombined speech input matches a first command among the natural speech commands; And when it is determined that at least one processor matches, performing an operation based on the first command.
  • FIG. 1 is a view showing the exterior of a vehicle according to an embodiment of the present invention.
  • FIG. 2 is a control block diagram of a vehicle according to an embodiment of the present invention.
  • 3 is a diagram referenced to describe an entire system according to an embodiment of the present invention.
  • FIG. 4 is a diagram referenced to describe an electronic device for a vehicle according to an embodiment of the present invention.
  • FIG. 5 is a flow chart of an electronic device for a vehicle according to an embodiment of the present invention.
  • 6 to 10 are views referenced to explain the operation of the electronic device for a vehicle according to an embodiment of the present invention.
  • FIG. 1 is a view showing a vehicle according to an embodiment of the present invention.
  • a vehicle 10 is defined as a means of transport running on a road or track.
  • the vehicle 10 is a concept including a car, a train, and a motorcycle.
  • the vehicle 10 may be a concept including both an internal combustion engine vehicle including an engine as a power source, a hybrid vehicle including an engine and an electric motor as a power source, and an electric vehicle including an electric motor as a power source.
  • the vehicle 10 may be a vehicle used by an unspecified number of personnel.
  • the vehicle 10 may be a shared vehicle. (10) may be an autonomous vehicle.
  • the electronic device 100 may be included in the vehicle 10.
  • the electronic device 100 may be a device that synchronizes with an assistant database of a specific user who uses the vehicle 10.
  • FIG. 2 is a control block diagram of a vehicle according to an embodiment of the present invention.
  • the vehicle 10 includes an electronic device 100 for a vehicle, a user interface device 200, an object detection device 210, a communication device 220, a driving operation device 230, and a main ECU 240. ), a vehicle driving device 250, a driving system 260, a sensing unit 270, and a location data generating device 280.
  • the vehicle electronic device 100 may be a device that synchronizes with an assistant database of a specific user who uses the vehicle 10.
  • the vehicle electronic device 100 may exchange signals with the user's assistant database.
  • the vehicle electronic device 100 may exchange signals with a database through the communication device 220.
  • the vehicle electronic device 100 may include a separate communication unit, and may exchange signals with a database through the communication unit.
  • the user interface device 200 is a device for communicating with the vehicle 10 and a user.
  • the user interface device 200 may receive a user input and provide information generated in the vehicle 10 to the user.
  • the vehicle 10 may implement a user interface (UI) or a user experience (UX) through the user interface device 200.
  • UI user interface
  • UX user experience
  • the object detection device 210 may detect an object outside the vehicle 10.
  • the object detection device 210 may include at least one of a camera, a radar, a lidar, an ultrasonic sensor, and an infrared sensor.
  • the object detection device 210 may provide data on an object generated based on a sensing signal generated by a sensor to at least one electronic device included in the vehicle.
  • the communication device 220 may exchange signals with devices located outside the vehicle 10.
  • the communication device 220 may exchange signals with at least one of an infrastructure (eg, a server, a broadcasting station) and another vehicle.
  • the communication device 220 may include at least one of a transmission antenna, a reception antenna, a radio frequency (RF) circuit capable of implementing various communication protocols, and an RF element to perform communication.
  • RF radio frequency
  • the driving operation device 230 is a device that receives a user input for driving. In the case of the manual mode, the vehicle 10 may be driven based on a signal provided by the driving operation device 230.
  • the driving operation device 230 may include a steering input device (eg, a steering wheel), an acceleration input device (eg, an accelerator pedal), and a brake input device (eg, a brake pedal).
  • the main ECU 240 may control the overall operation of at least one electronic device provided in the vehicle 10.
  • the vehicle drive device 250 is a device that electrically controls driving of various devices in the vehicle 10.
  • the vehicle driving apparatus 250 may include a power train driving unit, a chassis driving unit, a door/window driving unit, a safety device driving unit, a lamp driving unit, and an air conditioning driving unit.
  • the power train driving unit may include a power source driving unit and a transmission driving unit.
  • the chassis driving unit may include a steering driving unit, a brake driving unit, and a suspension driving unit.
  • the safety device driving unit may include a safety belt driving unit for controlling the safety belt.
  • the ADAS 260 may control a movement of the vehicle 10 or generate a signal for outputting information to a user based on data on an object received by the object detection apparatus 210.
  • the ADAS 260 may provide the generated signal to at least one of the user interface device 200, the main ECU 240, and the vehicle driving device 250.
  • ADAS 260 includes an adaptive cruise control system (ACC), an automatic emergency braking system (AEB), a forward collision warning system (FCW), and a lane maintenance assistance system (LKA: Lane Keeping Assist), Lane Change Assist (LCA), Target Following Assist (TFA), Blind Spot Detection (BSD), Adaptive High Beam Control System (HBA: High) Beam Assist), Auto Parking System (APS), PD collision warning system, Traffic Sign Recognition (TSR), Traffic Sign Assist (TSA), At least one of a night vision system (NV: Night Vision), a driver status monitoring system (DSM), and a traffic jam assistance system (TJA) may be implemented.
  • ACC adaptive cruise control system
  • AEB automatic emergency braking system
  • FCW forward collision warning system
  • LKA Lane Keeping Assist
  • Lane Change Assist LCA
  • TFA Target Following Assist
  • BSD Blind Spot Detection
  • HBA High Beam Control System
  • APS Auto Parking System
  • the sensing unit 270 may sense the state of the vehicle.
  • the sensing unit 270 includes an inertial navigation unit (IMU) sensor, a collision sensor, a wheel sensor, a speed sensor, a tilt sensor, a weight detection sensor, a heading sensor, a position module, and a vehicle.
  • IMU inertial navigation unit
  • a collision sensor a wheel sensor
  • a speed sensor a speed sensor
  • a tilt sensor a weight detection sensor
  • a heading sensor a position module
  • a vehicle At least one of forward/reverse sensor, battery sensor, fuel sensor, tire sensor, steering sensor by steering wheel rotation, vehicle interior temperature sensor, vehicle interior humidity sensor, ultrasonic sensor, illuminance sensor, accelerator pedal position sensor, and brake pedal position sensor It may include.
  • the inertial navigation unit (IMU) sensor may include one or more of an acceleration sensor, a gyro sensor, and a magnetic sensor.
  • the sensing unit 270 may generate state data of the vehicle based on a signal generated by at least one sensor.
  • the sensing unit 270 includes vehicle attitude information, vehicle motion information, vehicle yaw information, vehicle roll information, vehicle pitch information, vehicle collision information, vehicle direction information, vehicle angle information, and vehicle speed.
  • the sensing unit 270 includes an accelerator pedal sensor, a pressure sensor, an engine speed sensor, an air flow sensor (AFS), an intake air temperature sensor (ATS), a water temperature sensor (WTS), and a throttle position sensor. (TPS), a TDC sensor, a crank angle sensor (CAS), and the like may be further included.
  • the sensing unit 270 may generate vehicle state information based on the sensing data.
  • the vehicle status information may be information generated based on data sensed by various sensors provided inside the vehicle.
  • the vehicle status information includes vehicle attitude information, vehicle speed information, vehicle tilt information, vehicle weight information, vehicle direction information, vehicle battery information, vehicle fuel information, vehicle tire pressure information, It may include vehicle steering information, vehicle interior temperature information, vehicle interior humidity information, pedal position information, vehicle engine temperature information, and the like.
  • the sensing unit may include a tension sensor.
  • the tension sensor may generate a sensing signal based on a tension state of the seat belt.
  • the location data generating device 280 may generate location data of the vehicle 10.
  • the location data generating apparatus 280 may include at least one of a Global Positioning System (GPS) and a Differential Global Positioning System (DGPS).
  • GPS Global Positioning System
  • DGPS Differential Global Positioning System
  • the location data generating apparatus 280 may generate location data of the vehicle 10 based on a signal generated by at least one of GPS and DGPS.
  • the location data generating apparatus 280 may correct the location data based on at least one of an IMU (Inertial Measurement Unit) of the sensing unit 270 and a camera of the object detection apparatus 210.
  • IMU Inertial Measurement Unit
  • Vehicle 10 may include an internal communication system 50.
  • a plurality of electronic devices included in the vehicle 10 may exchange signals through the internal communication system 50.
  • the signal may contain data.
  • the internal communication system 50 may use at least one communication protocol (eg, CAN, LIN, FlexRay, MOST, Ethernet).
  • 3 is a diagram referenced to describe an entire system according to an embodiment of the present invention.
  • FIG. 4 is a diagram referenced to describe an electronic device for a vehicle according to an embodiment of the present invention.
  • the system may include a vehicle 10, a mobile terminal 20, and an external device 30.
  • the vehicle 10 may exchange signals with the mobile terminal 20 and the external device 30 through at least one communication network.
  • the vehicle 10 is as described with reference to FIGS. 1 and 2.
  • the vehicle 10 may include an electronic device 100 for a vehicle.
  • the vehicle electronic device 100 may exchange signals with the mobile terminal 20 and the external device 30 through the communication device 220. Depending on the embodiment, the vehicle electronic device 100 may be connected to the communication device 220 via an Ethernet switch hub.
  • the processor 170 may exchange signals with the mobile terminal 20 through the interface unit 180 and the communication device 220.
  • the processor 170 may receive data from the mobile terminal 20 and transmit the data to the mobile terminal 20.
  • the processor 170 may exchange signals with the external device 30 through the interface unit 180 and the communication device 220.
  • the processor 170 may receive data from the external device 30 and transmit the data to the external device 30.
  • the vehicle electronic device 100 may include a memory 140, a processor 170, an interface unit 180, and a power supply unit 190.
  • the memory 140 is electrically connected to the processor 170.
  • the memory 140 may store basic data for a unit, control data for controlling the operation of the unit, and input/output data.
  • the memory 140 may store data processed by the processor 170.
  • the memory 140 may be configured with at least one of ROM, RAM, EPROM, flash drive, and hard drive.
  • the memory 140 may store various data for overall operation of the electronic device 100, such as a program for processing or controlling the processor 170.
  • the memory 140 may be implemented integrally with the processor 170. Depending on the embodiment, the memory 140 may be classified as a sub-element of the processor 170.
  • the memory 140 may store personalized natural voice commands acquired from a synchronized database. When the user gets off the vehicle 10, the memory 140 may delete and initialize the stored natural voice command.
  • the interface unit 180 may exchange signals with at least one electronic device provided in the vehicle 10 by wire or wirelessly.
  • the interface unit 280 includes an object detection device 210, a communication device 220, a driving operation device 230, a main ECU 140, a vehicle driving device 250, an ADAS 260, and a sensing unit 170. And it is possible to exchange a signal with at least one of the location data generating device 280 wired or wirelessly.
  • the interface unit 280 may be configured with at least one of a communication module, a terminal, a pin, a cable, a port, a circuit, an element, and a device.
  • the interface unit 180 may receive location data of the vehicle 10 from the location data generating device 280.
  • the interface unit 180 may receive driving speed data from the sensing unit 270.
  • the interface unit 180 may receive object data around the vehicle from the object detection device 210.
  • the power supply unit 190 may supply power to the electronic device 100.
  • the power supply unit 190 may receive power from a power source (eg, a battery) included in the vehicle 10 and supply power to each unit of the electronic device 100.
  • the power supply unit 190 may be operated according to a control signal provided from the main ECU 140.
  • the processor 170 may be electrically connected to the memory, the interface unit 180, and the power supply unit 190 to exchange signals.
  • the processor 170 includes application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), processors, and controllers. It may be implemented using at least one of (controllers), micro-controllers, microprocessors, and electrical units for performing other functions.
  • the processor 170 may perform a processing operation while receiving power from the power supply unit 190.
  • the processor 170 may include a personalized application 171.
  • the personalized application may be installed on the processor 170.
  • the personalization application 171 may synchronize with the first assistant database of the first user who has boarded the vehicle 10.
  • the personalization application 171 may obtain a natural voice command personalized to the first user from the database.
  • the processor 170 may include a media player, a SIP client, a face detector, a personalization service client 172, and a voice service client 173.
  • the media player 121 can play content.
  • the SIP client (session initiation protocol client) 122 may interwork with the SIP server.
  • the SIP client 122 may perform a video call function with the counterpart terminal 32 through interworking with the SIP server.
  • the face detector 123 may recognize a speaker's face from an image acquired from the camera 212.
  • the personalization service client 172 may play a role of creating a personalization DB for a vehicle occupant and linking it with a service based on this.
  • the voice service client 125 may interwork with the open cloud server 31.
  • the voice service client 125 may transmit the speaker's voice to the open cloud server 31 and receive translation data from the open cloud server 31 using the open cloud service.
  • the processor 170 may determine whether the first user boards the vehicle.
  • the first user may be a user who has made a reservation in advance and boarded the vehicle 10.
  • the processor 170 may receive reservation information of the first user from the reservation server 34.
  • the processor 170 may determine whether the first user boards the vehicle based on the reservation information.
  • the processor 170 may receive image data inside the vehicle from the camera 212.
  • the processor 170 may determine whether the first user boards the vehicle based on the image data inside the vehicle.
  • the processor 170 may determine whether or not a first assistant database (DB) exists.
  • Assistant can be defined as a virtual assistant using artificial intelligence.
  • the assistant can interact with the user through various input devices, but it is preferable to interact with the user with natural voice.
  • the assistant may generate a control signal for performing an operation desired by the user based on a user input.
  • the processor 170 may perform synchronization with the first assistant database.
  • the processor 170 may obtain, from the first assistant database, a natural voice command personalized to the first user.
  • the processor 170 may store the acquired natural voice command in the memory 140.
  • the processor 170 may receive a user's voice input. When a voice input is received, the processor 170 may determine whether the voice input matches any one of natural voice commands. When a voice input is received and it is determined that the voice input matches a first command among natural voice commands, the processor 170 may perform an operation based on the first command.
  • the processor 170 may update the natural voice command in the database based on the voice input obtained from the first user in the vehicle 10.
  • the processor 170 may determine whether the first user gets off the vehicle 10.
  • the processor 170 may determine whether the first user gets off the vehicle 10 based on the reservation information received from the reservation server 34.
  • the processor 170 may determine whether the first user gets off the vehicle 10 based on the image data inside the vehicle received from the camera 212.
  • the processor 170 may update the database.
  • the processor 170 continuously stores the voice input received from the first user in the memory 140 from the time when the first user boards the vehicle 10 until the time when the first user gets off the vehicle 10. Can be saved.
  • the processor 170 may update the database based on the voice input stored in the memory 140 at the time the first user gets off the vehicle 10.
  • the processor 170 may perform an initialization operation.
  • the processor 170 may delete the voice input related to the first user stored in the memory 140.
  • the processor 170 may obtain a common natural voice command from the common database.
  • the processor 170 may obtain a common natural voice command from a common database.
  • the common database may be previously stored in the memory 140.
  • the processor 170 may determine whether the voice input matches the first command among common natural voice commands. When it is determined that the processor 170 matches the first command, the processor 170 may perform an operation based on the first command.
  • the processor 170 may receive voice inputs from a plurality of users. When voice input is received from a plurality of users, the processor 170 may request voiceprint recognition from an external server. The processor 170 may transmit voice input data to an external server.
  • the external server may be the control server 33 described above. The external server may perform voiceprint recognition based on the received voice input data and generate a voiceprint recognition result.
  • the processor 170 may receive a voiceprint recognition result from an external server.
  • the processor 170 may classify a speaker based on a voiceprint recognition result received from an external server. For example, when a plurality of voice inputs are received from a plurality of speakers, the processor 170 may classify each of the plurality of speakers based on the voiceprint recognition result.
  • the processor 170 may recombine the voice input by the distinguished speaker based on the voiceprint recognition result received from the external server. When it is determined that the recombined voice input matches the first instruction among natural voice instructions, the processor 170 may perform an operation based on the first instruction. The processor 170 may recombine the voice input received from each of the divided speakers based on the voiceprint recognition result. The processor 170 may perform an operation based on voice input from each speaker.
  • the touch module 211, the camera 212, the microphone 213, and the display 214 may be classified as sub-components of the user interface device 200.
  • the electronic device 100 may include at least one printed circuit board (PCB).
  • PCB printed circuit board
  • the electronic device 110, the memory, the interface unit 180, the power supply unit, and the processor 170 may be electrically connected to a printed circuit board.
  • the mobile terminal 20 can exchange signals with the vehicle 10.
  • the mobile terminal 20 can exchange signals with the vehicle 10 through a short-range communication method (eg, Bluetooth).
  • a short-range communication method eg, Bluetooth
  • the external device 30 can be exchanged with the vehicle 10 using at least one communication network.
  • the external device 30 may include an open cloud server 31, a counterpart terminal 32, a control server 33, and a reservation server 34.
  • the open cloud server 31 can provide a translation function.
  • the open cloud server 31 may provide a speech to text (STT) function and/or a text to speech (TTS) function.
  • the counterpart terminal 32 may be an electronic device used by the counterpart of the video conference.
  • the counterpart terminal 32 may be a mobile terminal, a fixed terminal, or a vehicle system.
  • the control server 33 may control an autonomous vehicle and set a driving route.
  • the control server 33 may perform a vehicle providing service in connection with the reservation server.
  • the reservation server 34 may reserve the vehicle 10 by receiving a reservation request signal from the mobile terminal 20.
  • the reservation server 34 may provide reservation information to the mobile terminal 20 after reservation is completed.
  • FIG. 5 is a flow chart of an electronic device for a vehicle according to an embodiment of the present invention.
  • the processor 170 may determine whether the first user boards the vehicle (S505). When it is determined that the first user has boarded the vehicle 10, the processor 170 may determine whether a first assistant database (DB) exists (S510). When it is determined that the first user has boarded the vehicle 10 and it is determined that the first assistant database exists, the processor 170 may perform synchronization with the first assistant database (S515). . The processor 170 may obtain a natural voice command personalized to the first user from the first assistant database (S520).
  • DB first assistant database
  • the processor 170 may receive a user's voice input (S525). When a voice input is received, the processor 170 may determine whether the voice input matches a first command among natural voice commands (S530). When a voice input is received, when it is determined that the voice input matches a first command among natural voice commands (S530), the processor 170 may perform an operation based on the first command (S535).
  • the processor 170 may update the natural voice command in the database based on the voice input obtained from the first user while in the vehicle (S540, 545).
  • the processor 170 may determine whether the first user gets off the vehicle 10 (S540). When it is determined that the first user is getting off the vehicle 10, the processor 170 may update the database (S545). When it is determined that the first user is getting off the vehicle 10, the processor 170 may perform an initialization operation (S550).
  • the processor 170 may obtain a common natural voice command from the common database (S560).
  • the common database may be previously stored in the memory 140.
  • the processor 170 may receive voice inputs from a plurality of users (S565). When voice inputs are received from a plurality of users, the processor 170 may request voiceprint recognition from an external server (S570). The processor 170 may classify a speaker based on a voiceprint recognition result received from an external server (S580). The processor 170 may reconstruct the voice input by the distinguished speaker based on the voiceprint recognition result received from the external server (S585). The processor 170 may determine whether the recombined speech input matches the first command among natural speech commands (S530). When it is determined that the recombined voice input matches the first command among natural voice commands (S530), the processor 170 may perform an operation based on the first command (S535).
  • 6 to 10 are views referenced to explain the operation of the electronic device for a vehicle according to an embodiment of the present invention.
  • the first user 611 may be a google assistant user.
  • the first user 611 may reserve the autonomous vehicle 10 using the google assistant.
  • the electronic device 100 may synchronize with the google assistant database of the first user 611.
  • the electronic device 100 may obtain the natural voice command 631a from the google assistant database.
  • the electronic device 100 may drive the google assistant.
  • the electronic device 100 may receive a voice input from the first user 611 while the google assistant is driven.
  • the electronic device 100 may determine whether the voice input matches any one of the acquired natural voice commands 631a. When it is determined that the voice input matches any one of the natural voice commands, the electronic device 100 may perform an operation corresponding to the corresponding natural voice command.
  • the google assistant database may be updated and the system may be initialized.
  • the second user 612 may be an alexa assistant user.
  • the second user 612 may reserve the autonomous vehicle 10 using the alexa assistant.
  • the electronic device 100 may synchronize with the alexa assistant database of the second user 612.
  • the electronic device 100 may obtain the natural voice command 632a from the alexa assistant database.
  • the electronic device 100 may drive the alexa assistant.
  • the electronic device 100 may receive a voice input from the second user 612 while the alexa assistant is driven.
  • the electronic device 100 may determine whether the voice input matches any one of the acquired natural voice commands 632a. When it is determined that the voice input matches any one of the natural voice commands, the electronic device 100 may perform an operation corresponding to the corresponding natural voice command.
  • the alexa assistant database may be updated and the system may be initialized.
  • the third user 613 may be a siri assistant user.
  • the third user 613 can make a reservation for the autonomous vehicle 10 using the siri assistant.
  • the electronic device 100 may synchronize with the siri assistant database of the third user 613.
  • the electronic device 100 may obtain a natural voice command from the siri assistant database.
  • the electronic device 100 may drive the siri assistant.
  • the electronic device 100 may receive a voice input from the third user 613 while the siri assistant is driven.
  • the electronic device 100 may determine whether the voice input matches any one of the acquired natural voice commands. When it is determined that the voice input matches any one of the natural voice commands, the electronic device 100 may perform an operation corresponding to the corresponding natural voice command.
  • the siri assistant database may be updated and the system may be initialized.
  • the fourth user 614 may be a user who does not use a specific assistant.
  • the electronic device 100 may use a common command embedded in the vehicle 10.
  • the electronic device 100 may receive a voice input from the fourth user 614.
  • the electronic device 9100 may determine whether the voice input matches any one of built-in common commands. When it is determined that the voice input matches any one of the common commands, the electronic device 100 may perform an operation corresponding to the corresponding common command.
  • a first user 810 and a second user 820 may board the vehicle 10.
  • the first voice input of the first user 810 and the second voice input of the second user 820 may be mixed.
  • the electronic device 100 may distinguish between the first user 810 and the second user 820 based on the result of recognizing the voiceprint.
  • the electronic device 100 may distinguish between a first voice input of the first user 810 and a second voice input of the second user 820 based on the voiceprint recognition result.
  • the electronic device 100 may transmit data to an external server in a state in which the first voice input and the second voice input are mixed.
  • the external server may perform voiceprint recognition by comparing the received data with pre-registered voiceprint data.
  • the external server may generate a voiceprint recognition result.
  • the electronic device 100 may receive voiceprint recognition result data from an external server.
  • the mobile terminal 20 may register a user's voice (S1010).
  • the mobile terminal 20 may transmit voice registration information paired with the mobile terminal 20 information to the second external server 33 (S1020).
  • the second external server 33 may register the user's voiceprint based on the user's voice.
  • the second external server 33 may match and register the user's voiceprint with information on the mobile terminal 20.
  • the mobile terminal 20 may receive a user's voice command (S1030).
  • the mobile terminal 20 may transmit a voice command for requesting an in-vehicle service to the electronic device 100.
  • the electronic device 100 may request the second external server 33 to recognize a voiceprint for a voice command (S1060).
  • the electronic device 100 may receive a voiceprint recognition result from the second external server 33 (S1070).
  • the electronic device 100 may classify each of a plurality of users. Also, the electronic device 100 may classify a plurality of mixed voice inputs for each speaker by using the voiceprint recognition result.
  • the present invention described above can be implemented as a computer-readable code in a medium on which a program is recorded.
  • the computer-readable medium includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is also a carrier wave (eg, transmission over the Internet).
  • the computer may include a processor or a control unit. Therefore, the detailed description above should not be construed as restrictive in all respects and should be considered as illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Navigation (AREA)

Abstract

본 발명은 제1 사용자의 차량 탑승 여부를 판단하고, 상기 제1 사용자가 차량에 탑승한 것으로 판단되는 경우, 상기 제1 사용자의 제1 어시스턴트(assistant) 데이터 베이스(Data Base, DB)와의 동기화를 수행하고, 상기 데이터 베이스에서, 상기 제1 사용자에 개인화된 자연 음성 명령어를 획득하는 프로세서;를 포함하는 차량용 전자 장치에 관한 것이다.

Description

차량용 전자 장치 및 차량용 전자 장치의 동작 방법
본 발명은 차량용 전자 장치 및 차량용 전자 장치의 동작 방법에 관한 것이다.
차량은 탑승하는 사용자가 원하는 방향으로 이동시키는 장치이다. 대표적으로 자동차를 예를 들 수 있다. 자율 주행 차량은 인간의 운전 조작 없이 자동으로 주행할 수 있는 차량을 의미한다. 한편, 자율 주행 차량은, 여러 사람이 공유하는 형태로 제공되거나, 버스와 같이 공공이 이용 가능한 형태로 제공될 수도 있다.
이와 같이, 여러 사람이 이용하는 자율 주행 차량의 경우에는, 어느 한 사용자에 특화된 어시스턴트 기능이 구현되기 어려운 문제가 있다.
본 발명은 상기한 문제점을 해결하기 위하여, 여러 사람이 이용하는 자율 주행 차량에서도 어시스턴트 구현을 가능하게 하는 차량용 전자 장치를 제공하는데 목적이 있다.
또한, 본 발명은, 여러 사람이 이용하는 자율 주행 차량에서도 어시스턴트 구현을 가능하게 하는 차량용 전자 장치의 동작 방법을 제공하는데 목적이 있다.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 차량용 전자 장치는, 1 사용자의 차량 탑승 여부를 판단하고, 상기 제1 사용자가 차량에 탑승한 것으로 판단되는 경우, 상기 제1 사용자의 제1 어시스턴트(assistant) 데이터 베이스(DB, data base)와의 동기화를 수행하고, 상기 데이터 베이스에서, 상기 제1 사용자에 개인화된 자연 음성 명령어를 획득하는 프로세서;를 포함한다.
본 발명의 실시예에 따르면, 상기 프로세서는, 음성 입력이 수신되는 경우, 상기 음성 입력이 상기 자연 음성 명령어 중 제1 명령어와 매칭되는 것으로 판단되는 경우, 상기 제1 명령어에 기초한 동작을 수행한다.
본 발명의 실시예에 따르면, 상기 프로세서는, 차량에 탑승한 상태의 상기 제1 사용자로부터 획득된 음성 입력에 기초하여 상기 데이터 베이스의 자연 음성 명령어를 업데이트 한다.
본 발명의 실시예에 따르면, 상기 프로세서는, 상기 제1 사용자의 차량 하차 여부를 판단하고, 상기 제1 사용자가 차량에서 하차하는 것으로 판단되는 경우, 상기 데이터 베이스 업데이트를 수행한다.
본 발명의 실시예에 따르면, 상기 프로세서는, 상기 제1 사용자의 차량 하차 여부를 판단하고, 상기 제1 사용자가 차량에서 하차한 것으로 판단되는 경우, 초기화 동작을 수행한다.
본 발명의 실시예에 따르면, 상기 제1 어시스턴트 데이터 베이스가 없는 것으로 판단되는 경우, 공용 데이터 베이스에서, 공용의 자연 음성 명령어를 획득한다.
본 발명의 실시예에 따르면, 상기 프로세서는, 복수의 사용자로부터 음성 입력이 수신되는 경우, 외부 서버에 성문 인식을 요청하고, 상기 외부 서버로부터 수신되는 성문 인식 결과에 기초하여, 화자를 구분한다.
본 발명의 실시예에 따르면, 상기 프로세서는, 상기 성문 인식 결과에 기초하여, 구분된 화자에 의한 음성 입력을 재조합하고, 상기 재조합된 음성 입력이 상기 자연 음성 명령어 중 제1 명령어와 매칭되는 것으로 판단되는 경우, 상기 제1 명령어에 기초한 동작을 수행한다.
본 발명의 실시예에 따른 차량용 전자 장치의 동작 방법은, 적어도 하나의 프로세서가, 제1 사용자의 차량 탑승 여부를 판단하는 단계; 적어도 하나의 프로세서가, 상기 제1 사용자가 차량에 탑승한 것으로 판단되는 경우, 상기 제1 사용자의 제1 어시스턴트(assistant) 데이터 베이스(DB, data base)와의 동기화를 수행하는 단계; 및 적어도 하나의 프로세서가, 상기 데이터 베이스에서, 상기 제1 사용자에 개인화된 자연 음성 명령어를 획득하는 단계;를 포함한다.
본 발명의 실시예에 따르면, 적어도 하나의 프로세서가, 음성 입력이 수신되는 경우, 상기 음성 입력이 상기 자연 음성 명령어 중 제1 명령어와 매칭되는지 판단하는 단계; 및 적어도 하나의 프로세서가, 매칭되는 것으로 판단되는 경우, 상기 제1 명령어에 기초한 동작을 수행하는 단계;를 더 포함한다.
본 발명의 실시예에 따르면, 적어도 하나의 프로세서가, 차량에 탑승한 상태의 상기 제1 사용자로부터 획득된 음성 입력에 기초하여 상기 데이터 베이스의 자연 음성 명령어를 업데이트하는 단계;를 더 포함한다.
본 발명의 실시예에 따르면, 적어도 하나의 프로세서가, 상기 제1 사용자의 차량 하차 여부를 판단하는 단계;를 더 포함하고, 상기 업데이트하는 단계는, 상기 제1 사용자가 차량에서 하차한 것으로 판단되는 경우, 상기 데이터 베이스 업데이트를 수행한다.
본 발명의 실시예에 따르면, 적어도 하나의 프로세서가, 상기 제1 사용자의 차량 하차 여부를 판단하는 단계; 및 적어도 하나의 프로세서가, 상기 제1 사용자가 차량에서 하차한 것으로 판단되는 경우, 초기화 동작을 수행하는 단계;를 더 포함한다.
본 발명의 실시예에 따르면, 적어도 하나의 프로세서가, 상기 제1 어시스턴트 데이터 베이스가 없는 것으로 판단되는 경우, 공용 데이터 베이스에서, 공용의 자연 음성 명령어를 획득하는 단계;를 더 포함한다.
본 발명의 실시예에 따르면, 적어도 하나의 프로세서가, 복수의 사용자로부터 음성 입력이 수신되는 경우, 외부 서버에 성문 인식을 요청하는 단계; 및 적어도 하나의 프로세서가, 상기 외부 서버로부터 수신되는 성문 인식 결과에 기초하여, 화자를 구분하는 단계;를 더 포함한다.
본 발명의 실시예에 따르면, 적어도 하나의 프로세서가, 상기 성문 인식 결과에 기초하여, 구분된 화자에 의한 음성 입력을 재조합하는 단계; 적어도 하나의 프로세서가, 상기 재조합된 음성 입력이 상기 자연 음성 명령어 중 제1 명령어와 매칭되는지 판단하는 단계; 및 적어도 하나의 프로세서가, 매칭되는 것으로 판단되는 경우, 상기 제1 명령어에 기초한 동작을 수행하는 단계;를 더 포함한다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.
첫째, 여러 사람이 이용하는 자율 주행 차량에서도 개인용 어시스턴트를 이용할 수 있는 효과가 있다.
둘째, 여러 사람이 이용하는 자율 주행 차량을 개인용 자율 주행 차량처럼 이용할 수 있는 효과가 있다.
셋째, 사용자 편의성이 증대되는 효과가 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 실시예에 따른 차량의 외관을 도시한 도면이다.
도 2는 본 발명의 실시예에 따른 차량의 제어 블럭도이다.
도 3은 본 발명의 실시예에 따른 전체 시스템을 설명하는데 참조되는 도면이다.
도 4는 본 발명의 실시예에 따른 차량용 전자 장치를 설명하는데 참조되는 도면이다.
도 5는 본 발명의 실시예에 따른 차량용 전자 장치의 플로우 차트이다.
도 6 내지 도 10은 본 발명의 실시예에 따른 차량용 전자 장치의 동작을 설명하는데 참조되는 도면이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
도 1은 본 발명의 실시예에 따른 차량을 도시한 도면이다.
도 1을 참조하면, 본 발명의 실시예에 따른 차량(10)은, 도로나 선로 위를 달리는 수송 수단으로 정의된다. 차량(10)은, 자동차, 기차, 오토바이를 포함하는 개념이다. 차량(10)은, 동력원으로서 엔진을 구비하는 내연기관 차량, 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량, 동력원으로서 전기 모터를 구비하는 전기 차량등을 모두 포함하는 개념일 수 있다. 차량(10)은, 불특정 다수의 인원이 이용하는 차량일 수 있다. 차량(10)은, 공유형 차량일 수 있다. (10)은 자율 주행 차량일 수 있다.
차량(10)에는 전자 장치(100)가 포함될 수 있다. 전자 장치(100)는, 차량(10)을 이용하는 특정 사용자의 어시스턴트(assistant) 데이터 베이스와의 동기화를 수행하는 장치일 수 있다.
도 2는 본 발명의 실시예에 따른 차량의 제어 블럭도이다.
도 2를 참조하면, 차량(10)은, 차량용 전자 장치(100), 사용자 인터페이스 장치(200), 오브젝트 검출 장치(210), 통신 장치(220), 운전 조작 장치(230), 메인 ECU(240), 차량 구동 장치(250), 주행 시스템(260), 센싱부(270) 및 위치 데이터 생성 장치(280)를 포함할 수 있다.
차량용 전자 장치(100)는, 차량(10)을 이용하는 특정 사용자의 어시스턴트 데이터 베이스와 동기화를 수행하는 장치일 수 있다. 차량용 전자 장치(100)는, 사용자의 어시스턴트 데이터 베이스와 신호를 교환할 수 있다. 차량용 전자 장치(100)는, 통신 장치(220)를 통해, 데이터 베이스와 신호를 교환할 수 있다. 실시예에 따라, 차량용 전자 장치(100)는, 별도의 통신부를 구비하고, 통신부를 통해, 데이터 베이스와 신호를 교환할 수 있다.
사용자 인터페이스 장치(200)는, 차량(10)과 사용자와의 소통을 위한 장치이다. 사용자 인터페이스 장치(200)는, 사용자 입력을 수신하고, 사용자에게 차량(10)에서 생성된 정보를 제공할 수 있다. 차량(10)은, 사용자 인터페이스 장치(200)를 통해, UI(User Interface) 또는 UX(User Experience)를 구현할 수 있다.
오브젝트 검출 장치(210)는, 차량(10) 외부의 오브젝트를 검출할 수 있다. 오브젝트 검출 장치(210)는, 카메라, 레이다, 라이다, 초음파 센서 및 적외선 센서 중 적어도 하나를 포함할 수 있다. 오브젝트 검출 장치(210)는, 센서에서 생성되는 센싱 신호에 기초하여 생성된 오브젝트에 대한 데이터를 차량에 포함된 적어도 하나의 전자 장치에 제공할 수 있다.
통신 장치(220)는, 차량(10) 외부에 위치하는 디바이스와 신호를 교환할 수 있다. 통신 장치(220)는, 인프라(예를 들면, 서버, 방송국) 및 타 차량 중 적어도 어느 하나와 신호를 교환할 수 있다. 통신 장치(220)는, 통신을 수행하기 위해 송신 안테나, 수신 안테나, 각종 통신 프로토콜이 구현 가능한 RF(Radio Frequency) 회로 및 RF 소자 중 적어도 어느 하나를 포함할 수 있다.
운전 조작 장치(230)는, 운전을 위한 사용자 입력을 수신하는 장치이다. 메뉴얼 모드인 경우, 차량(10)은, 운전 조작 장치(230)에 의해 제공되는 신호에 기초하여 운행될 수 있다. 운전 조작 장치(230)는, 조향 입력 장치(예를 들면, 스티어링 휠), 가속 입력 장치(예를 들면, 가속 페달) 및 브레이크 입력 장치(예를 들면, 브레이크 페달)를 포함할 수 있다.
메인 ECU(240)는, 차량(10) 내에 구비되는 적어도 하나의 전자 장치의 전반적인 동작을 제어할 수 있다.
차량 구동 장치(250)는, 차량(10)내 각종 장치의 구동을 전기적으로 제어하는 장치이다. 차량 구동 장치(250)는, 파워 트레인 구동부, 샤시 구동부, 도어/윈도우 구동부, 안전 장치 구동부, 램프 구동부 및 공조 구동부를 포함할 수 있다. 파워 트레인 구동부는, 동력원 구동부 및 변속기 구동부를 포함할 수 있다. 샤시 구동부는, 조향 구동부, 브레이크 구동부 및 서스펜션 구동부를 포함할 수 있다.
한편, 안전 장치 구동부는, 안전 벨트 제어를 위한 안전 벨트 구동부를 포함할 수 있다.
ADAS(260)는, 오브젝트 검출 장치(210)에서 수신한 오브젝트에 대한 데이터에 기초하여, 차량(10)의 움직임을 제어하거나, 사용자에게 정보를 출력하기 위한 신호를 생성할 수 있다. ADAS(260)는, 생성된 신호를, 사용자 인터페이스 장치(200), 메인 ECU(240) 및 차량 구동 장치(250) 중 적어도 어느 하나에 제공할 수 있다.
ADAS(260)는, 적응형 크루즈 컨트롤 시스템(ACC : Adaptive Cruise Control), 자동 비상 제동 시스템(AEB : Autonomous Emergency Braking), 전방 충돌 알림 시스템(FCW : Foward Collision Warning), 차선 유지 보조 시스템(LKA : Lane Keeping Assist), 차선 변경 보조 시스템(LCA : Lane Change Assist), 타겟 추종 보조 시스템(TFA : Target Following Assist), 사각 지대 감시 시스템(BSD : Blind Spot Detection), 적응형 하이빔 제어 시스템(HBA : High Beam Assist), 자동 주차 시스템(APS : Auto Parking System), 보행자 충돌 알림 시스템(PD collision warning system), 교통 신호 검출 시스템(TSR : Traffic Sign Recognition), 교통 신호 보조 시스템(TSA : Trafffic Sign Assist), 나이트 비전 시스템(NV : Night Vision), 운전자 상태 모니터링 시스템(DSM : Driver Status Monitoring) 및 교통 정체 지원 시스템(TJA : Traffic Jam Assist) 중 적어도 어느 하나를 구현할 수 있다.
센싱부(270)는, 차량의 상태를 센싱할 수 있다. 센싱부(270)는, IMU(inertial navigation unit) 센서, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 조도 센서, 가속 페달 포지션 센서 및 브레이크 페달 포지션 센서 중 적어도 어느 하나를 포함할 수 있다. 한편, IMU(inertial navigation unit) 센서는, 가속도 센서, 자이로 센서, 자기 센서 중 하나 이상을 포함할 수 있다.
센싱부(270)는, 적어도 하나의 센서에서 생성되는 신호에 기초하여, 차량의 상태 데이터를 생성할 수 있다. 센싱부(270)는, 차량 자세 정보, 차량 모션 정보, 차량 요(yaw) 정보, 차량 롤(roll) 정보, 차량 피치(pitch) 정보, 차량 충돌 정보, 차량 방향 정보, 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도, 차량 외부 조도, 가속 페달에 가해지는 압력, 브레이크 페달에 가해지는 압력 등에 대한 센싱 신호를 획득할 수 있다.
센싱부(270)는, 그 외, 가속페달센서, 압력센서, 엔진 회전 속도 센서(engine speed sensor), 공기 유량 센서(AFS), 흡기 온도 센서(ATS), 수온 센서(WTS), 스로틀 위치 센서(TPS), TDC 센서, 크랭크각 센서(CAS), 등을 더 포함할 수 있다.
센싱부(270)는, 센싱 데이터를 기초로, 차량 상태 정보를 생성할 수 있다. 차량 상태 정보는, 차량 내부에 구비된 각종 센서에서 감지된 데이터를 기초로 생성된 정보일 수 있다.
예를 들면, 차량 상태 정보는, 차량의 자세 정보, 차량의 속도 정보, 차량의 기울기 정보, 차량의 중량 정보, 차량의 방향 정보, 차량의 배터리 정보, 차량의 연료 정보, 차량의 타이어 공기압 정보, 차량의 스티어링 정보, 차량 실내 온도 정보, 차량 실내 습도 정보, 페달 포지션 정보 및 차량 엔진 온도 정보 등을 포함할 수 있다.
한편, 센싱부는, 텐션 센서를 포함할 수 있다. 텐션 센서는, 안전 벨트의 텐션 상태에 기초하여 센싱 신호를 생성할 수 있다.
위치 데이터 생성 장치(280)는, 차량(10)의 위치 데이터를 생성할 수 있다. 위치 데이터 생성 장치(280)는, GPS(Global Positioning System) 및 DGPS(Differential Global Positioning System) 중 적어도 어느 하나를 포함할 수 있다. 위치 데이터 생성 장치(280)는, GPS 및 DGPS 중 적어도 어느 하나에서 생성되는 신호에 기초하여 차량(10)의 위치 데이터를 생성할 수 있다. 실시예에 따라, 위치 데이터 생성 장치(280)는, 센싱부(270)의 IMU(Inertial Measurement Unit) 및 오브젝트 검출 장치(210)의 카메라 중 적어도 어느 하나에 기초하여 위치 데이터를 보정할 수 있다.
차량(10)은, 내부 통신 시스템(50)을 포함할 수 있다. 차량(10)에 포함되는 복수의 전자 장치는 내부 통신 시스템(50)을 매개로 신호를 교환할 수 있다. 신호에는 데이터가 포함될 수 있다. 내부 통신 시스템(50)은, 적어도 하나의 통신 프로토콜(예를 들면, CAN, LIN, FlexRay, MOST, 이더넷)을 이용할 수 있다.
도 3은 본 발명의 실시예에 따른 전체 시스템을 설명하는데 참조되는 도면이다.
도 4는 본 발명의 실시예에 따른 차량용 전자 장치를 설명하는데 참조되는 도면이다.
도 3 및 도 4를 참조하면, 시스템은, 차량(10), 이동 단말기(20) 및 외부 장치(30)를 포함할 수 있다. 차량(10)은, 적어도 하나의 통신망을 통해, 이동 단말기(20) 및 외부 장치(30)와 신호를 교환할 수 있다.
차량(10)은, 도 1 및 도 2를 참조하여 설명한 바와 같다. 차량(10)은, 차량용 전자 장치(100)를 포함할 수 있다.
차량용 전자 장치(100)는, 통신 장치(220)를 통해, 이동 단말기(20) 및 외부 장치(30)와 신호를 교환할 수 있다. 실시예에 따라, 차량용 전자 장치(100)는 이더넷 스위치 허브를 거쳐 통신 장치(220)에 연결될 수 있다. 프로세서(170)는, 인터페이스부(180) 및 통신 장치(220)를 통해, 이동 단말기(20)와 신호를 교환할 수 있다. 프로세서(170)는, 이동 단말기(20)로부터 데이터를 수신하고, 이동 단말기(20)에 데이터를 전송할 수 있다. 프로세서(170)는, 인터페이스부(180) 및 통신 장치(220)를 통해, 외부 장치(30)와 신호를 교환할 수 있다. 프로세서(170)는, 외부 장치(30)로부터 데이터를 수신하고, 외부 장치(30)에 데이터를 전송할 수 있다.
차량용 전자 장치(100)는, 메모리(140), 프로세서(170), 인터페이스부(180) 및 전원 공급부(190)를 포함할 수 있다.
메모리(140)는, 프로세서(170)와 전기적으로 연결된다. 메모리(140)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(140)는, 프로세서(170)에서 처리된 데이터를 저장할 수 있다. 메모리(140)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 중 적어도 어느 하나로 구성될 수 있다. 메모리(140)는 프로세서(170)의 처리 또는 제어를 위한 프로그램 등, 전자 장치(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다. 메모리(140)는, 프로세서(170)와 일체형으로 구현될 수 있다. 실시예에 따라, 메모리(140)는, 프로세서(170)의 하위 구성으로 분류될 수 있다.
메모리(140)는, 동기화된 데이터 베이스에서 획득된 개인화된 자연 음성 명령어를 저장할 수 있다. 메모리(140)는, 사용자가 차량(10)에서 하차하는 경우, 저장된 자연 음성 명령어를 삭제하고, 초기화될 수 있다.
인터페이스부(180)는, 차량(10) 내에 구비되는 적어도 하나의 전자 장치와 유선 또는 무선으로 신호를 교환할 수 있다. 인터페이스부(280)는, 오브젝트 검출 장치(210), 통신 장치(220), 운전 조작 장치(230), 메인 ECU(140), 차량 구동 장치(250), ADAS(260), 센싱부(170) 및 위치 데이터 생성 장치(280) 중 적어도 어느 하나와 유선 또는 무선으로 신호를 교환할 수 있다. 인터페이스부(280)는, 통신 모듈, 단자, 핀, 케이블, 포트, 회로, 소자 및 장치 중 적어도 어느 하나로 구성될 수 있다.
인터페이스부(180)는, 위치 데이터 생성 장치(280)로부터, 차량(10) 위치 데이터를 수시할 수 있다. 인터페이스부(180)는, 센싱부(270)로부터 주행 속도 데이터를 수신할 수 있다. 인터페이스부(180)는, 오브젝트 검출 장치(210)로부터, 차량 주변 오브젝트 데이터를 수신할 수 있다.
전원 공급부(190)는, 전자 장치(100)에 전원을 공급할 수 있다. 전원 공급부(190)는, 차량(10)에 포함된 파워 소스(예를 들면, 배터리)로부터 전원을 공급받아, 전자 장치(100)의 각 유닛에 전원을 공급할 수 있다. 전원 공급부(190)는, 메인 ECU(140)로부터 제공되는 제어 신호에 따라 동작될 수 있다.
프로세서(170)는, 메모리, 인터페이스부(180), 전원 공급부(190)와 전기적으로 연결되어 신호를 교환할 수 있다. 프로세서(170)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 프로세서(170)는, 전원 공급부(190)로부터 전원을 공급받는 상태에서, 처리 동작을 수행할 수 있다.
프로세서(170)는, 개인화 애플리케이션(171)을 포함할 수 있다. 개인화 애플리케이션은, 프로세서(170)에 설치될 수 있다. 개인화 애플리케이션(171)은, 차량(10) 탑승한 제1 사용자의 제1 어시스턴트 데이터 베이스와의 동기화를 수행할 수 있다. 개인화 애플리케이션(171)은, 데이터 베이스에서 제1 사용자에 개인화된 자연 음성 명령어를 획득할 수 있다.
프로세서(170)는, 미디어 플레이어, SIP 클라이언트, 페이스 디텍터, 개인화 서비스 클라이언트(172) 및 음성 서비스 클라이언트(173)를 포함할 수 있다.
미디어 플레이어(media player)(121)는, 컨텐츠를 재생할 수 있다. SIP 클라이언트(session initiation protocol client)(122)는, SIP 서버와 연동될 수 있다. SIP 클라이언트(122)는, SIP 서버와의 연동을 통해, 상대 단말기(32)와의 영상 통화 기능을 수행할 수 있다. 페이스 디텍터(face detector)(123)는, 카메라(212)로부터 획득된 영상에서 화자의 얼굴을 인식할 수 있다. 개인화 서비스 클라이언트(172)는, 차량 탑승자에 대한 개인화 DB를 생성, 이를 바탕으로 서비스와 연동시키는 역할을 수행할 수 있다. 음성 서비스 클라이언트(125)는, 오픈 클라우드 서버(31)와 연동될 수 있다. 음성 서비스 클라이언트(125)는, 오픈 클라우드 서비스를 이용하여, 화자의 음성을 오픈 클라우드 서버(31)로 전송하고, 오픈 클라우드 서버(31)로부터 번역 데이터를 수신할 수 있다.
프로세서(170)는, 제1 사용자의 차량 탑승 여부를 판단할 수 있다. 제1 사용자는, 미리 예약을 하고, 차량(10)에 탑승한 사용자일 수 있다. 프로세서(170)는, 예약 서버(34)로부터, 제1 사용자의 예약 정보를 수신할 수 있다. 프로세서(170)는, 예약 정보에 기초하여, 제1 사용자의 차량 탑승 여부를 판단할 수 있다. 프로세서(170)는, 카메라(212)로부터 차량 내부 영상 데이터를 수신할 수 있다. 프로세서(170)는, 차량 내부 영상 데이터에 기초하여, 제1 사용자의 차량 탑승 여부를 판단할 수 있다.
프로세서(170)는, 제1 사용자 차량(10)에 탑승한 것으로 판단되는 경우, 제1 어시스턴트(assistant) 데이터 베이스(data base, DB)가 존재 하는지 여부를 판단할 수 있다. 어시스턴트는, 인공 지능을 이용한 가상의 비서로 정의될 수 있다. 어시스턴트는 다양한 입력 장치를 통해 사용자와 상호 작용할 수 있으나, 자연 음성으로 사용자와 상호 작용하는 것이 바람직하다. 어시스턴트는, 사용자 입력에 기초하여, 사용자가 원하는 동작을 수행하기 위한 제어 신호를 생성할 수 있다.
프로세서(170)는, 제1 사용자가 차량(10)에 탑승한 것으로 판단되고, 제1 어시스턴트 데이터 베이스가 존재하는 것으로 판단되는 경우, 제1 어시스턴트 데이터 베이스와의 동기화를 수행할 수 있다.
프로세서(170)는, 제1 어시스턴트 데이터 베이스에서, 제1 사용자에 개인화된 자연 음성 명령어를 획득할 수 있다. 프로세서(170)는, 획득된 자연 음성 명령어를 메모리(140)에 저장할 수 있다.
프로세서(170)는, 사용자의 음성 입력을 수신할 수 있다. 프로세서(170)는, 음성 입력이 수신되는 경우, 음성 입력이 자연 음성 명령어 중 어느 하나와 매칭되는지 판단할 수 있다. 프로세서(170)는, 음성 입력이 수신되는 경우, 음성 입력이 자연 음성 명령어 중 제1 명령어와 매칭되는 것으로 판단되는 경우, 제1 명령어에 기초한 동작을 수행할 수 있다.
프로세서(170)는, 차량(10)에 탑승한 상태의 제1 사용자로부터 획득된 음성 입력에 기초하여, 데이터 베이스의 자연 음성 명령어를 업데이트할 수 있다. 프로세서(170)는, 차량(10)에서 제1 사용자가 하차하는지 판단할 수 있다. 프로세서(170)는, 예약 서버(34)로부터 수신되는 예약 정보에 기초하여, 차량(10)에서 제1 사용자가 하차하는지 판단할 수 있다. 프로세서(170)는, 카메라(212)로부터 수신되는 차량 내부 영상 데이터에 기초하여, 차량(10)에서 제1 사용자가 하차하는지 판단할 수 있다. 프로세서(170)는, 제1 사용자가 차량(10)에서 하차하는 것으로 판단되는 경우, 데이터 베이스 업데이트를 수행할 수 있다. 프로세서(170)는, 차량(10)에 제1 사용자가 탑승한 시점부터, 차량(10)에서 제1 사용자가 하차한 시점까지, 제1 사용자로부터 수신된 음성 입력을 지속적으로 메모리(140)에 저장할 수 있다. 프로세서(170)는 제1 사용자의 차량(10) 하차 시점에, 메모리(140)에 저장된 음성 입력을 기초로 데이터 베이스 업데이트를 수행할 수 있다.
프로세서(170)는, 제1 사용자가 차량(10)에서 하차하는 것으로 판단되는 경우, 초기화 동작을 수행할 수 있다. 프로세서(170)는, 메모리(140)에 저장된 제1 사용자와 관련된 음성 입력을 삭제할 수 있다.
프로세서(170)는, 제1 어시스턴트 데이터 베이스가 없는 것으로 판단되는 경우, 공용 데이터 베이스에서, 공용의 자연 음성 명령어를 획득할 수 있다. 제1 사용자가 별도의 어시스턴트를 이용하지 않는 경우, 제1 사용자와 연관된 제1 어시스턴트 데이터 베이스가 존재하지 않을 수 있다. 이경우, 프로세서(170)는, 공용 데이터 베이스에서, 공용의 자연 음성 명령어를 획득할 수 있다. 한편, 공용 데이터 베이스는, 메모리(140)에 기 저장된 상태일 수 있다. 프로세서(170)는, 제1 사용자의 음성 입력이 수신되는 경우, 음성 입력이 공용의 자연 음성 명령어 중 제1 명령어와 매칭되는지 판단할 수 있다. 프로세서(170)는, 제1 명령어와 매칭되는 것으로 판단되는 경우, 제1 명령어에 기초한 동작을 수행할 수 있다.
프로세서(170)는, 복수의 사용자로부터 음성 입력을 수신할 수 있다. 프로세서(170)는, 복수의 사용자로부터 음성 입력이 수신되는 경우, 외부 서버에 성문 인식을 요청할 수 있다. 프로세서(170)는, 외부 서버에 음성 입력 데이터를 전송할 수 있다. 여기서, 외부 서버는, 상술한 관제 서버(33)일 수 있다. 외부 서버는, 수신된 음성 입력 데이터에 기초하여, 성문 인식을 수행하고, 성문 인식 결과를 생성할 수 있다.
프로세서(170)는, 외부 서버로부터 성문 인식 결과를 수신할 수 있다. 프로세서(170)는, 외부 서버로부터 수신되는 성문 인식 결과에 기초하여, 화자를 구분할 수 있다. 예를 들면, 복수의 화자로부터 복수의 음성 입력이 수신되는 경우, 프로세서(170)는, 성문 인식 결과에 기초하여, 복수의 화자를 각각 구분할 수 있다.
프로세서(170)는, 외부 서버로부터 수신되는 성문 인식 결과에 기초하여, 구분된 화자에 의한 음성 입력을 재조합할 수 있다. 프로세서(170)는, 재조합된 음성 입력이 자연 음성 명령어 중 제1 명령어와 매칭되는 것으로 판단되는 경우, 제1 명령어에 기초한 동작을 수행할 수 있다. 프로세서(170)는, 성문 인식 결과에 기초하여, 구분된 복수의 화자 각각으로부터 수신된 음성 입력을 재조합할 수 있다. 프로세서(170)는 각각의 화자로부터의 음성 입력에 의한 동작을 수행할 수 있다.
한편, 터치 모듈(211), 카메라(212), 마이크(213) 및 디스플레이(214)는, 사용자 인터페이스 장치(200)의 하위 구성으로 분류될 수 있다.
전자 장치(100)는, 적어도 하나의 인쇄 회로 기판(printed circuit board, PCB)을 포함할 수 있다. 전자 장치(110), 메모리, 인터페이스부(180), 전원 공급부 및 프로세서(170)는, 인쇄 회로 기판에 전기적으로 연결될 수 있다.
이동 단말기(20)는, 차량(10)과 신호를 교환할 수 있다. 예를 들면, 이동 단말기(20)는, 근거리 통신 방식(예를 들면, 블루투스)를 통해, 차량(10)과 신호를 교환할 수 있다.
외부 장치(30)는, 적어도 하나의 통신망을 이용해, 차량(10)과 교환할 수 있다. 외부 장치(30)는, 오픈 클라우드 서버(31), 상대 단말기(32), 관제 서버(33) 및 예약 서버(34)를 포함할 수 있다.
오픈 클라우드 서버(31)는, 번역 기능을 제공할 수 있다. 오픈 클라우드 서버(31)는, STT(speech to text) 기능 및/또는 TTS(text to speech) 기능을 제공할 수 있다. 상대 단말기(32)는, 화상 회의의 상대방이 이용하는 전자 장치일 수 있다. 상대 단말기(32)는, 이동 단말기, 고정 단말기 또는 차량 시스템일 수 있다. 관제 서버(33)는, 자율 주행 차량을 제어하고 주행 경로를 설정할 수 있다. 관제 서버(33)는, 예약 서버와 연동하여 차량 제공 서비스를 수행할 수 있다. 예약 서버(34)는, 이동 단말기(20)로부터, 예약 요청 신호를 수신하여, 차량(10)을 예약할 수 있다. 예약 서버(34)는, 예약 완료 후, 예약 정보를 이동 단말기(20)에 제공할 수 있다.
도 5는 본 발명의 실시예에 따른 차량용 전자 장치의 플로우 차트이다.
프로세서(170)는, 제1 사용자의 차량 탑승 여부를 판단할 수 있다(S505). 프로세서(170)는, 제1 사용자가 차량(10)에 탑승한 것으로 판단되는 경우, 제1 어시스턴트(assistant) 데이터 베이스(data base, DB)가 존재 하는지 여부를 판단할 수 있다(S510). 프로세서(170)는, 제1 사용자가 차량(10)에 탑승한 것으로 판단되고, 제1 어시스턴트 데이터 베이스가 존재하는 것으로 판단되는 경우, 제1 어시스턴트 데이터 베이스와의 동기화를 수행할 수 있다(S515). 프로세서(170)는, 제1 어시스턴트 데이터 베이스에서, 제1 사용자에 개인화된 자연 음성 명령어를 획득할 수 있다(S520).
프로세서(170)는, 사용자의 음성 입력을 수신할 수 있다(S525). 프로세서(170)는, 음성 입력이 수신되는 경우, 음성 입력이 자연 음성 명령어 중 제1 명령어와 매칭되는지 판단할 수 있다(S530). 프로세서(170)는, 음성 입력이 수신되는 경우, 음성 입력이 자연 음성 명령어 중 제1 명령어와 매칭되는 것으로 판단되는 경우(S530), 제1 명령어에 기초한 동작을 수행할 수 있다(S535).
프로세서(170)는, 차량에 탑승한 상태의 제1 사용자로부터 획득된 음성 입력에 기초하여, 데이터 베이스의 자연 음성 명령어를 업데이트할 수 있다(S540, 545). 프로세서(170)는, 차량(10)에서 제1 사용자가 하차하는지 판단할 수 있다(S540). 프로세서(170)는, 제1 사용자가 차량(10)에서 하차하는 것으로 판단되는 경우, 데이터 베이스 업데이트를 수행할 수 있다(S545). 프로세서(170)는, 제1 사용자가 차량(10)에서 하차하는 것으로 판단되는 경우, 초기화 동작을 수행할 수 있다(S550).
프로세서(170)는, 제1 어시스턴트 데이터 베이스가 없는 것으로 판단되는 경우(S510), 공용 데이터 베이스에서, 공용의 자연 음성 명령어를 획득할 수 있다(S560). 공용 데이터 베이스는 메모리(140)에 기 저장된 상태일 수 있다.
프로세서(170)는, 복수의 사용자로부터 음성 입력을 수신할 수 있다(S565). 프로세서(170)는, 복수의 사용자로부터 음성 입력이 수신되는 경우, 외부 서버에 성문 인식을 요청할 수 있다(S570). 프로세서(170)는, 외부 서버로부터 수신되는 성문 인식 결과에 기초하여, 화자를 구분할 수 있다(S580). 프로세서(170)는, 외부 서버로부터 수신되는 성문 인식 결과에 기초하여, 구분된 화자에 의한 음성 입력을 재조합할 수 있다(S585). 프로세서(170)는, 재조합된 음성 입력이 자연 음성 명령어 중 제1 명령어와 매칭되는지 판단할 수 있다(S530). 프로세서(170)는, 재조합된 음성 입력이 자연 음성 명령어 중 제1 명령어와 매칭되는 것으로 판단되는 경우(S530), 제1 명령어에 기초한 동작을 수행할 수 있다(S535).
도 6 내지 도 10은 본 발명의 실시예에 따른 차량용 전자 장치의 동작을 설명하는데 참조되는 도면이다.
도 6 및 도 7을 참조하면, 제1 사용자(611)는 google 어시스턴트 사용자일 수 있다. 제1 사용자(611)는, google 어시스턴트를 이용해 자율 주행 차량(10)을 예약할 수 있다. 제1 사용자(611)가 차량(10)에 탑승하는 경우, 전자 장치(100)는, 제1 사용자(611)의 google 어시스턴트 데이터 베이스와의 동기화를 수행할 수 있다. 전자 장치(100)는, google 어시스턴트 데이터 베이스에서 자연 음성 명령어(631a)를 획득할 수 있다. 제1 사용자(611)가 차량(10)에 탑승하는 경우, 전자 장치(100)는, google 어시스턴트를 구동할 수 있다. 전자 장치(100)는, google 어시스턴트가 구동된 상태에서, 제1 사용자(611)의 음성 입력을 수신할 수 있다. 전자 장치(100)는, 음성 입력이 획득된 자연 음성 명령어(631a) 중 어느 하나와 매칭되는지 판단할 수 있다. 전자 장치(100)는, 음성 입력이 자연 음성 명령어 중 어느 하나와 매칭되는 것으로 판단되는 경우, 해당 자연 음성 명령어에 대응되는 동작을 수행할 수 있다. 제1 사용자(611)가 차량(10)에서 하차하는 경우, google 어시스턴트 데이터 베이스를 업데이트하고, 시스템을 초기화할 수 있다.
제2 사용자(612)는 alexa 어시스턴트 사용자일 수 있다. 제2 사용자(612)는, alexa 어시스턴트를 이용해 자율 주행 차량(10)을 예약할 수 있다. 제2 사용자(612)가 차량(10)에 탑승하는 경우, 전자 장치(100)는, 제2 사용자(612)의 alexa 어시스턴트 데이터 베이스와의 동기화를 수행할 수 있다. 전자 장치(100)는, alexa 어시스턴트 데이터 베이스에서 자연 음성 명령어(632a)를 획득할 수 있다. 제2 사용자(612)가 차량(10)에 탑승하는 경우, 전자 장치(100)는, alexa 어시스턴트를 구동할 수 있다. 전자 장치(100)는, alexa 어시스턴트가 구동된 상태에서, 제2 사용자(612)의 음성 입력을 수신할 수 있다. 전자 장치(100)는, 음성 입력이 획득된 자연 음성 명령어(632a) 중 어느 하나와 매칭되는지 판단할 수 있다. 전자 장치(100)는, 음성 입력이 자연 음성 명령어 중 어느 하나와 매칭되는 것으로 판단되는 경우, 해당 자연 음성 명령어에 대응되는 동작을 수행할 수 있다. 제2 사용자(612)가 차량(10)에서 하차하는 경우, alexa 어시스턴트 데이터 베이스를 업데이트하고, 시스템을 초기화할 수 있다.
제3 사용자(613)는 siri 어시스턴트 사용자일 수 있다. 제3 사용자(613)는, siri 어시스턴트를 이용해 자율 주행 차량(10)을 예약할 수 있다. 제3 사용자(613)가 차량(10)에 탑승하는 경우, 전자 장치(100)는, 제3 사용자(613)의 siri 어시스턴트 데이터 베이스와의 동기화를 수행할 수 있다. 전자 장치(100)는, siri 어시스턴트 데이터 베이스에서 자연 음성 명령어를 획득할 수 있다. 제3 사용자(613)가 차량(10)에 탑승하는 경우, 전자 장치(100)는, siri 어시스턴트를 구동할 수 있다. 전자 장치(100)는, siri 어시스턴트가 구동된 상태에서, 제3 사용자(613)의 음성 입력을 수신할 수 있다. 전자 장치(100)는, 음성 입력이 획득된 자연 음성 명령어 중 어느 하나와 매칭되는지 판단할 수 있다. 전자 장치(100)는, 음성 입력이 자연 음성 명령어 중 어느 하나와 매칭되는 것으로 판단되는 경우, 해당 자연 음성 명령어에 대응되는 동작을 수행할 수 있다. 제3 사용자(613)가 차량(10)에서 하차하는 경우, siri 어시스턴트 데이터 베이스를 업데이트하고, 시스템을 초기화할 수 있다.
제4 사용자(614)는 특정 어시스턴트를 사용하지 않는 사용자일 수 있다. 제4 사용자(614)가 차량(10)에 탑승하는 경우, 전자 장치(100)는, 차량(10)에 내장된 공통 명령어를 이용할 수 있다. 전자 장치(100)는, 제4 사용자(614)의 음성 입력을 수신할 수 있다. 전자 장치9100)는, 음성 입력이 내장된 공통 명령어 중 어느 하나와 매칭되는지 판단할 수 있다. 전자 장치(100)는, 음성 입력이 공통 명령어 중 어느 하나와 매칭되는 것으로 판단되는 경우, 해당 공통 명령어에 대응되는 동작을 수행할 수 있다.
도 8 내지 도 9를 참조하면, 차량(10)에 제1 사용자(810)와 제2 사용자(820)가 탑승할 수 있다. 차량(10)에 구비된 공용 마이크가 이용되는 경우, 제1 사용자(810)의 제1 음성 입력과 제2 사용자(820)의 제2 음성 입력이 혼재될 수 있다. 이경우, 전자 장치(100)는, 성문 인식 결과에 기초하여, 제1 사용자(810)와 제2 사용자(820)를 구분할 수 있다. 전자 장치(100)는, 성문 인식 결과에 기초하여, 제1 사용자(810)의 제1 음성 입력과 제2 사용자(820)의 제2 음성 입력을 구분할 수 있다.
전자 장치(100)는, 제1 음성 입력과 제2 음성 입력이 혼재된 상태로 데이터를 외부 서버에 전송할 수 있다. 외부 서버는, 수신된 데이터와 기 등록된 성문 데이터를 비교하여 성문 인식을 수행할 수 있다. 외부 서버는, 성문 인식 결과를 생성할 수 있다. 전자 장치(100)는, 외부 서버로부터 성문 인식 결과 데이터를 수신할 수 있다.
도 10을 참조하면, 이동 단말기(20)는, 사용자의 음성을 등록할 수 있다(S1010). 이동 단말기(20)는, 이동 단말기(20) 정보와 페어링된 음성 등록 정보를 제2 외부 서버(33)에 전송할 수 있다(S1020). 제2 외부 서버(33)는, 사용자의 음성에 기초하여, 사용자의 성문을 등록할 수 있다. 제2 외부 서버(33)는, 사용자의 성문을 이동 단말기(20) 정보에 매칭하여 등록할 수 있다.
전자 장치(100)와 이동 단말기(20)가 동기화된 상태에서(S1025), 이동 단말기(20)는, 사용자의 음성 명령을 수신할 수 있다(S1030). 이동 단말기(20)는 차량 내 서비스 요청을 위한 음성 명령을 전자 장치(100)에 전송할 수 있다. 전자 장치(100)는, 제2 외부 서버(33)에 음성 명령에 대한 성문 인식을 요청할 수 있다(S1060). 전자 장치(100)는, 제2 외부 서버(33)로부터 성문 인식 결과를 수신할 수 있다(S1070). 성문이 기 등록된 성문 데이터와 일치하는 결과를 수신하는 경우, 전자 장치(100)는, 복수의 사용자 각각을 구분할 수 있다. 또한, 전자 장치(100)는, 성문 인식 결과를 이용하여 혼재된 복수의 음성 입력을 화자별로 구분할 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 프로세서 또는 제어부를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
[부호의 설명]
10 : 차량
100 : 전자 장치

Claims (16)

  1. 제1 사용자의 차량 탑승 여부를 판단하고,
    상기 제1 사용자가 차량에 탑승한 것으로 판단되는 경우, 상기 제1 사용자의 제1 어시스턴트(assistant) 데이터 베이스(Data Base, DB)와의 동기화를 수행하고,
    상기 데이터 베이스에서, 상기 제1 사용자에 개인화된 자연 음성 명령어를 획득하는 프로세서;를 포함하는 차량용 전자 장치.
  2. 제1 항에 있어서,
    상기 프로세서는,
    음성 입력이 수신되는 경우, 상기 음성 입력이 상기 자연 음성 명령어 중 제1 명령어와 매칭되는 것으로 판단되는 경우, 상기 제1 명령어에 기초한 동작을 수행하는 차량용 전자 장치.
  3. 제 1항에 있어서,
    상기 프로세서는,
    차량에 탑승한 상태의 상기 제1 사용자로부터 획득된 음성 입력에 기초하여 상기 데이터 베이스의 자연 음성 명령어를 업데이트하는 차량용 전자 장치.
  4. 제 3항에 있어서,
    상기 프로세서는,
    상기 제1 사용자의 차량 하차 여부를 판단하고,
    상기 제1 사용자가 차량에서 하차하는 것으로 판단되는 경우, 상기 데이터 베이스 업데이트를 수행하는 차량용 전자 장치.
  5. 제 1항에 있어서,
    상기 프로세서는,
    상기 제1 사용자의 차량 하차 여부를 판단하고,
    상기 제1 사용자가 차량에서 하차한 것으로 판단되는 경우, 초기화 동작을 수행하는 차량용 전자 장치.
  6. 제 1항에 있어서,
    상기 제1 어시스턴트 데이터 베이스가 없는 것으로 판단되는 경우, 공용 데이터 베이스에서, 공용의 자연 음성 명령어를 획득하는 차량용 전자 장치.
  7. 제 1항에 있어서,
    상기 프로세서는,
    복수의 사용자로부터 음성 입력이 수신되는 경우, 외부 서버에 성문 인식을 요청하고, 상기 외부 서버로부터 수신되는 성문 인식 결과에 기초하여, 화자를 구분하는 차량용 전자 장치.
  8. 제 7항에 있어서,
    상기 프로세서는,
    상기 성문 인식 결과에 기초하여, 구분된 화자에 의한 음성 입력을 재조합하고,
    상기 재조합된 음성 입력이 상기 자연 음성 명령어 중 제1 명령어와 매칭되는 것으로 판단되는 경우, 상기 제1 명령어에 기초한 동작을 수행하는 차량용 전자 장치.
  9. 적어도 하나의 프로세서가, 제1 사용자의 차량 탑승 여부를 판단하는 단계;
    적어도 하나의 프로세서가, 상기 제1 사용자가 차량에 탑승한 것으로 판단되는 경우, 상기 제1 사용자의 제1 어시스턴트(assistant) 데이터 베이스(DB, data base)와의 동기화를 수행하는 단계; 및
    적어도 하나의 프로세서가, 상기 데이터 베이스에서, 상기 제1 사용자에 개인화된 자연 음성 명령어를 획득하는 단계;를 포함하는 차량용 전자 장치의 동작 방법.
  10. 제 9항에 있어서,
    적어도 하나의 프로세서가, 음성 입력이 수신되는 경우, 상기 음성 입력이 상기 자연 음성 명령어 중 제1 명령어와 매칭되는지 판단하는 단계; 및
    적어도 하나의 프로세서가, 매칭되는 것으로 판단되는 경우, 상기 제1 명령어에 기초한 동작을 수행하는 단계;를 더 포함하는 차량용 전자 장치의 동작 방법.
  11. 제 9항에 있어서,
    적어도 하나의 프로세서가, 차량에 탑승한 상태의 상기 제1 사용자로부터 획득된 음성 입력에 기초하여 상기 데이터 베이스의 자연 음성 명령어를 업데이트하는 단계;를 더 포함하는 차량용 전자 장치의 동작 방법.
  12. 제 11항에 있어서,
    적어도 하나의 프로세서가, 상기 제1 사용자의 차량 하차 여부를 판단하는 단계;를 더 포함하고,
    상기 업데이트하는 단계는,
    상기 제1 사용자가 차량에서 하차한 것으로 판단되는 경우, 상기 데이터 베이스 업데이트를 수행하는 차량용 전자 장치의 동작 방법.
  13. 제 9항에 있어서,
    적어도 하나의 프로세서가, 상기 제1 사용자의 차량 하차 여부를 판단하는 단계; 및
    적어도 하나의 프로세서가, 상기 제1 사용자가 차량에서 하차한 것으로 판단되는 경우, 초기화 동작을 수행하는 단계;를 더 포함하는 차량용 전자 장치의 동작 방법.
  14. 제 9항에 있어서,
    적어도 하나의 프로세서가, 상기 제1 어시스턴트 데이터 베이스가 없는 것으로 판단되는 경우, 공용 데이터 베이스에서, 공용의 자연 음성 명령어를 획득하는 단계;를 더 포함하는 차량용 전자 장치의 동작 방법.
  15. 제 9항에 있어서,
    적어도 하나의 프로세서가, 복수의 사용자로부터 음성 입력이 수신되는 경우, 외부 서버에 성문 인식을 요청하는 단계; 및
    적어도 하나의 프로세서가, 상기 외부 서버로부터 수신되는 성문 인식 결과에 기초하여, 화자를 구분하는 단계;를 더 포함하는 차량용 전자 장치의 동작 방법.
  16. 제 15항에 있어서,
    적어도 하나의 프로세서가, 상기 성문 인식 결과에 기초하여, 구분된 화자에 의한 음성 입력을 재조합하는 단계;
    적어도 하나의 프로세서가, 상기 재조합된 음성 입력이 상기 자연 음성 명령어 중 제1 명령어와 매칭되는지 판단하는 단계; 및
    적어도 하나의 프로세서가, 매칭되는 것으로 판단되는 경우, 상기 제1 명령어에 기초한 동작을 수행하는 단계;를 더 포함하는 차량용 전자 장치의 동작 방법.
PCT/KR2019/003627 2019-03-28 2019-03-28 차량용 전자 장치 및 차량용 전자 장치의 동작 방법 WO2020196960A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/003627 WO2020196960A1 (ko) 2019-03-28 2019-03-28 차량용 전자 장치 및 차량용 전자 장치의 동작 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/003627 WO2020196960A1 (ko) 2019-03-28 2019-03-28 차량용 전자 장치 및 차량용 전자 장치의 동작 방법

Publications (1)

Publication Number Publication Date
WO2020196960A1 true WO2020196960A1 (ko) 2020-10-01

Family

ID=72609491

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/003627 WO2020196960A1 (ko) 2019-03-28 2019-03-28 차량용 전자 장치 및 차량용 전자 장치의 동작 방법

Country Status (1)

Country Link
WO (1) WO2020196960A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140067687A (ko) * 2012-11-27 2014-06-05 현대자동차주식회사 대화형 음성인식이 가능한 차량 시스템
US20180182391A1 (en) * 2016-12-26 2018-06-28 Hyundai Motor Company Speech processing apparatus, vehicle having the speech processing apparatus, and speech processing method
KR20180121210A (ko) * 2017-04-28 2018-11-07 삼성전자주식회사 음성 인식 서비스를 제공하는 전자 장치 및 그 방법
US20180350365A1 (en) * 2017-05-30 2018-12-06 Hyundai Motor Company Vehicle-mounted voice recognition device, vehicle including the same, vehicle-mounted voice recognition system, and method for controlling the same
KR101930462B1 (ko) * 2017-09-25 2018-12-17 엘지전자 주식회사 차량 제어 장치 및 그것을 포함하는 차량

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140067687A (ko) * 2012-11-27 2014-06-05 현대자동차주식회사 대화형 음성인식이 가능한 차량 시스템
US20180182391A1 (en) * 2016-12-26 2018-06-28 Hyundai Motor Company Speech processing apparatus, vehicle having the speech processing apparatus, and speech processing method
KR20180121210A (ko) * 2017-04-28 2018-11-07 삼성전자주식회사 음성 인식 서비스를 제공하는 전자 장치 및 그 방법
US20180350365A1 (en) * 2017-05-30 2018-12-06 Hyundai Motor Company Vehicle-mounted voice recognition device, vehicle including the same, vehicle-mounted voice recognition system, and method for controlling the same
KR101930462B1 (ko) * 2017-09-25 2018-12-17 엘지전자 주식회사 차량 제어 장치 및 그것을 포함하는 차량

Similar Documents

Publication Publication Date Title
WO2020222333A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2021002517A1 (ko) 공유형 차량 관리 장치 및 공유형 차량의 관리 방법
WO2012148240A2 (ko) 차량 제어 장치 및 이의 제어 방법
WO2020241952A1 (ko) 자율 주행 차량 시스템 및 차량의 자율 주행 방법
WO2020241955A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2020096083A1 (ko) 차량용 전자 장치, 차량용 전자 장치의 동작 방법 및 시스템
WO2021002503A1 (ko) 차량용 전자 장치 및 그 동작 방법
WO2020241954A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2020241971A1 (ko) 교통 사고 처리 장치 및 교통 사고 처리 방법
WO2020091119A1 (ko) 차량용 전자 장치, 차량용 전자 장치의 동작 방법 및 시스템
WO2020196960A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2020222317A1 (ko) 전자 장치 및 전자 장치의 동작 방법
WO2020196931A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2021002518A1 (ko) 위치 데이터 생성 장치, 자율 주행 차량 및 위치 데이터 생성 방법
WO2020096081A1 (ko) 차량용 전자 장치, 차량용 전자 장치의 동작 방법 및 시스템
WO2020091113A1 (ko) 차량용 전자 장치, 차량용 전자 장치의 동작 방법 및 시스템
JP7127636B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
WO2020196961A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2021002516A1 (ko) 전자 장치 및 전자 장치의 동작 방법
WO2020196932A1 (ko) 디지털 사이니지 장치 및 디지털 사이니지 장치의 동작 방법
WO2019117658A1 (ko) 카메라 제어 장치 및 그것의 제어 방법
WO2020222319A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2020196933A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2020222318A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
WO2020166747A1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19921938

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19921938

Country of ref document: EP

Kind code of ref document: A1