KR20240066649A - A Display for displaying contents of call or message, a vehicle including them, and a method therefore - Google Patents

A Display for displaying contents of call or message, a vehicle including them, and a method therefore Download PDF

Info

Publication number
KR20240066649A
KR20240066649A KR1020220147678A KR20220147678A KR20240066649A KR 20240066649 A KR20240066649 A KR 20240066649A KR 1020220147678 A KR1020220147678 A KR 1020220147678A KR 20220147678 A KR20220147678 A KR 20220147678A KR 20240066649 A KR20240066649 A KR 20240066649A
Authority
KR
South Korea
Prior art keywords
vehicle
display
user
message
call
Prior art date
Application number
KR1020220147678A
Other languages
Korean (ko)
Inventor
박성현
Original Assignee
현대모비스 주식회사
Filing date
Publication date
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Publication of KR20240066649A publication Critical patent/KR20240066649A/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • B60K35/81Arrangements for controlling instruments for controlling displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/85Arrangements for transferring vehicle- or driver-related data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/12Messaging; Mailboxes; Announcements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/40Hardware adaptations for dashboards or instruments
    • B60K2360/48Sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/92Driver displays

Abstract

본 발명의 일 실시예에 따른 차량은 상기 차량에 설치되고, 상기 차량과 관련된 정보를 표시하는 디스플레이; 상기 차량에 탑승한 사용자를 식별하기 위한 센서; 및 상기 디스플레이를 제어하는 프로세서를 포함하고, 상기 프로세서는, 차량의 통신 장치 또는 차량에 연결된 통신 단말을 통해 통화 또는 메시지를 수신하고, 상기 센서를 통해 검출한 정보에 따라 상기 통신 장치 또는 통신 단말과 연관된 사용자를 식별하고, 상기 수신된 통화 또는 메시지의 내용을 상기 사용자와 연관된 상기 차량의 디스플레이에 표시하도록 제어할 수 있다.A vehicle according to an embodiment of the present invention includes a display installed in the vehicle and displaying information related to the vehicle; A sensor for identifying a user riding in the vehicle; and a processor that controls the display, wherein the processor receives a call or message through a communication device in the vehicle or a communication terminal connected to the vehicle, and communicates with the communication device or communication terminal according to information detected through the sensor. The associated user can be identified and the contents of the received call or message can be controlled to be displayed on the display of the vehicle associated with the user.

Description

통화 또는 메시지 내용을 표시하기 위한 디스플레이, 이를 포함하는 차량, 그리고 이를 위한 차량 제어 방법{A Display for displaying contents of call or message, a vehicle including them, and a method therefore}A display for displaying call or message contents, a vehicle including them, and a vehicle control method therefor {A Display for displaying contents of call or message, a vehicle including them, and a method therefore}

본 발명은 차량에 관한 것으로서, 좀더 구체적으로는 차량에 설치된, 차량 관련 정보를 표시하기 위한 디스플레이 장치, 이를 포함하는 차량 및 이를 위한 차량 제어 방법에 관한 것이다.The present invention relates to vehicles, and more specifically, to a display device installed in a vehicle for displaying vehicle-related information, a vehicle including the same, and a vehicle control method therefor.

미국 자동차 공학회인 SAE(Society of Automotive Engineers)는 자율 주행 레벨을 예를 들어 다음과 같이, 레벨0 부터 레벨5 까지 총 6단계로 세분화하고 있다.SAE (Society of Automotive Engineers), the American Society of Automotive Engineers, divides autonomous driving levels into a total of 6 levels, from Level 0 to Level 5, as follows, for example.

레벨 0(비자동화, No Automation)은, 운전자가 주행의 모든 것을 통제하고 책임지는 단계이다. 운전자가 항시 운전하며, 차량의 시스템은 긴급상황 알림 등 보조 기능만을 수행한다. 주행 제어의 주체는 인간이며, 주행 중 변수 감지와 주행 책임도 인간에게 있는 레벨이다.Level 0 (No Automation) is the stage where the driver controls and takes responsibility for all aspects of driving. The driver always drives, and the vehicle's system only performs auxiliary functions such as emergency notification. The subject of driving control is a human, and the level of variable detection and driving responsibility during driving also lies with humans.

레벨 1(운전자 보조, Driver Assistance)은, 어뎁티브 크루즈 컨트롤, 차선유지 기능을 통해 운전자를 보조하는 단계이다. 시스템 활성화로 차량의 속도와 차간거리 유지, 차선 유지로 운전자를 보조한다. 주행 제어 주체는 인간과 시스템에 있으며, 주행 중에 발생하는 변수의 감지와 주행 책임은 모두 인간에게 있는 레벨이다.Level 1 (Driver Assistance) is the level that assists the driver through adaptive cruise control and lane keeping functions. By activating the system, it assists the driver by maintaining vehicle speed, distance between vehicles, and lane maintenance. The subjects of driving control are humans and the system, and the detection of variables that occur during driving and driving responsibility are all at the level of humans.

레벨 2(부분 자동화, Partial Automation)는, 특정 조건 내에서 일정 시간 동안 차량의 조향과 가감속을 차량이 인간과 동시에 제어할 수 있는 단계이다. 완만한 커브에서의 조향과 앞 차와의 간격을 유지하는 보조 주행이 가능하다. 그러나, 주행 중 변수 감지와 주행 책임은 인간에게 있는 레벨로, 운전자는 항상 주행 상황의 모니터링이 필요하며, 시스템이 인지하지 못하는 상황 등에서는 운전자가 즉시 운전에 개입해야 한다.Level 2 (Partial Automation) is a stage where the vehicle can control the steering and acceleration/deceleration of the vehicle simultaneously with humans for a certain period of time within specific conditions. Steering in gentle curves and assist driving that maintains the distance from the car in front are possible. However, the level of variable detection and driving responsibility during driving lies with humans, so the driver must always monitor the driving situation, and in situations that the system cannot recognize, the driver must immediately intervene in driving.

레벨 3(조건부 자율주행, Partial Automation)은, 고속도로와 같은 특정 조건의 구간에서 시스템이 주행을 담당하며, 위험 시에만 운전자가 개입하는 레벨이다. 주행 제어와 주행 중 변수 감지는 시스템이 담당하며, 레벨 2와 다르게 상기 모니터링을 요구하지 않는다. 다만, 시스템의 요구 조건을 넘어서는 경우, 시스템은 운전자의 즉시 개입을 요청한다.Level 3 (Conditional Automation, Partial Automation) is a level where the system is responsible for driving in sections with specific conditions, such as highways, and the driver intervenes only in case of danger. The system is responsible for driving control and detecting variables during driving, and unlike level 2, the above monitoring is not required. However, if the system's requirements are exceeded, the system requests the driver's immediate intervention.

레벨 4(고등 자율주행, High Automation)는, 대부분의 도로에서 자율주행이 가능하다. 주행 제어와 주행 책임이 모두 시스템에 있다. 제한 상황을 제외한 대부분의 도로에서 운전자 개입이 불필요하다. 다만, 악천후와 같은 특정 조건에서는 운전자 개입이 요청될 수 있기에 인간을 통한 주행 제어 장치가 필요한 단계이다.Level 4 (High Automation) allows autonomous driving on most roads. Driving control and driving responsibility are both in the system. Driver intervention is not required on most roads except in restricted situations. However, driver intervention may be requested under certain conditions such as bad weather, so a human-assisted driving control device is necessary.

레벨 5(완전 자율주행, Full Automation)는, 운전자가 불필요하며, 탑승자만으로 주행이 가능한 단계이다. 탑승자는 목적지만 입력하며, 시스템이 모든 조건에서 주행을 담당한다. 레벨 5 단계에서는 차량의 조향과 가속, 감속을 위한 제어 장치들이 불필요하다.Level 5 (Full Automation) is a level where a driver is not required and driving is possible with only passengers. The rider simply inputs the destination, and the system takes care of driving in all conditions. At level 5, control devices for steering, acceleration, and deceleration of the vehicle are unnecessary.

한편, 한국에서는 UN 산하 자동차 안전 기준 국제조화포럼(UN/ECE/WP.29)에서 논의 중인 국제 동향 등을 고려하여, 지난 2020년 레벨 3에 대한 안전 기준을 마련하였다.Meanwhile, in Korea, safety standards for level 3 were established in 2020, taking into account international trends being discussed at the UN's International Forum on Harmonization of Automotive Safety Standards (UN/ECE/WP.29).

향후에는 자율 주행 레벨이 고도화됨에 따라, 차량 내에서의 탑승자의 경험이 좀 다른 양상으로 발전될 가능성이 높다. 즉, 차량의 운전 자체는 차량 스스로에게 맡기는 대신, 탑승자는 업무, 오락 등을 수행할 수 있는 환경이 마련될 것으로 예상된다. 이러한 배경하에서 차량 내에서 사용자의 경험을 증대할 수 있는 방안에 대해서 논의되고 있다.As the level of autonomous driving becomes more advanced in the future, it is highly likely that the passenger experience within the vehicle will develop into a slightly different aspect. In other words, it is expected that an environment will be created where passengers can carry out work, entertainment, etc., instead of leaving the driving of the vehicle to the vehicle itself. Against this background, ways to increase the user experience within a vehicle are being discussed.

앞서 언급한 배경에 따라, 본 발명의 일 실시예는, 차량 탑승 중에 수신된 통화나 메시지의 내용을 디스플레이에 표시할 수 있는 방안을 제공하고자 한다. According to the above-mentioned background, an embodiment of the present invention seeks to provide a method for displaying the contents of a call or message received while riding a vehicle on a display.

본 발명의 또다른 실시예는, 차량 탑승 중에 수신된 메시지를 탑승자에게 표시하고, 이에 응답하여 답장을 보낼 수 있는 방안을 제공하고자 한다.Another embodiment of the present invention seeks to provide a method for displaying messages received while riding a vehicle to passengers and sending replies in response to them.

본 발명의 과제는 위에서 설명한 과제들로 제한되지 않는다. 위에서 설명되지 않은 다른 과제들은 아래의 본 발명의 설명으로부터 통상의 기술자에게 이해될 수 있다.The object of the present invention is not limited to the problems described above. Other problems not described above can be understood by those skilled in the art from the description of the present invention below.

본 발명에 따른 일 실시예에 따른 차량은, 차량에 설치되고, 상기 차량과 관련된 정보를 표시하는 디스플레이; 상기 차량에 탑승한 사용자를 식별하기 위한 센서; 및 상기 디스플레이를 제어하는 프로세서를 포함하고, 상기 프로세서는, 차량의 통신 장치 또는 차량에 연결된 통신 단말을 통해 통화 또는 메시지를 수신하고, 상기 센서를 통해 검출한 정보에 따라 상기 통신 장치 또는 통신 단말과 연관된 사용자를 식별하고, 상기 수신된 통화 또는 메시지의 내용을 상기 사용자와 연관된 상기 차량의 디스플레이에 표시하도록 제어할 수 있다.A vehicle according to an embodiment of the present invention includes a display installed in the vehicle and displaying information related to the vehicle; A sensor for identifying a user riding in the vehicle; and a processor that controls the display, wherein the processor receives a call or message through a communication device in the vehicle or a communication terminal connected to the vehicle, and communicates with the communication device or communication terminal according to information detected through the sensor. The associated user can be identified and the contents of the received call or message can be controlled to be displayed on the display of the vehicle associated with the user.

추가로 또는 대안으로, 상기 디스플레이에 표시되는 통화 또는 메시지의 내용은 상기 통화 또는 메시지의 전체 내용 또는 전체 내용 중 일부를 요약한 형태를 포함할 수 있다.Additionally or alternatively, the content of the call or message displayed on the display may include a summary of the entire content or a portion of the entire content of the call or message.

추가로 또는 대안으로, 상기 프로세서는 상기 수신된 통화 또는 메시지 내용을 상기 차량의 주행 속도에 따라 변경되는 속도로 상기 디스플레이에 표시하도록 제어할 수 있다.Additionally or alternatively, the processor may control the content of the received call or message to be displayed on the display at a rate that changes depending on the driving speed of the vehicle.

추가로 또는 대안으로, 상기 프로세서는 상기 차량의 주행 속도가 설정치를 초과하면, 상기 수신된 통화 또는 메시지의 내용을 상기 디스플레이에 표시하지 않도록 제어할 수 있다.Additionally or alternatively, the processor may control the content of the received call or message not to be displayed on the display when the vehicle's driving speed exceeds a set value.

추가로 또는 대안으로, 상기 프로세서는 상기 디스플레이에 표시되는 것에 대응하는, 상기 사용자의 음성을 획득 및 인식하고, 상기 인식된 사용자의 음성을 문자로 변환하며, 상기 사용자의 조작 신호가 수신되면, 상기 변환된 문자를 상기 수신된 통화 또는 메시지의 발신자에게 전송하도록 제어할 수 있다.Additionally or alternatively, the processor acquires and recognizes the user's voice, corresponding to what is displayed on the display, converts the recognized user's voice into text, and when the user's operation signal is received, the processor The converted text can be controlled to be transmitted to the sender of the received call or message.

추가로 또는 대안으로, 상기 디스플레이는 상기 차량의 헤드업 디스플레이를 포함할 수 있다.Additionally or alternatively, the display may include a head-up display of the vehicle.

추가로 또는 대안으로, 상기 프로세서는 상기 사용자를 식별하기 위해, 상기 차량에 탑승한 사용자의 안면 인식, 상기 차량에 탑승한 사용자의 시트 위치, 또는 상기 통신 단말의 사용자 정보 중 적어도 하나를 이용할 수 있다.Additionally or alternatively, the processor may use at least one of facial recognition of a user riding in the vehicle, a seat position of a user riding in the vehicle, or user information of the communication terminal to identify the user. .

본 발명에 따른 일 실시예에 따른 차량 제어 방법은, 차량의 통신 장치 또는 차량에 연결된 통신 단말을 통해 통화 또는 메시지를 수신하는 단계; 상기 통신 장치 또는 통신 단말과 연관된 사용자를 식별하는 단계; 및 상기 수신된 통화 또는 메시지의 내용을 상기 사용자와 연관된 상기 차량의 디스플레이에 표시하는 단계를 포함할 수 있다.A vehicle control method according to an embodiment of the present invention includes receiving a call or message through a communication device in the vehicle or a communication terminal connected to the vehicle; identifying a user associated with the communication device or communication terminal; and displaying the contents of the received call or message on a display of the vehicle associated with the user.

추가로 또는 대안으로, 상기 디스플레이에 표시되는 통화 또는 메시지의 내용은 상기 통화 또는 메시지의 전체 내용 또는 전체 내용 중 일부를 요약한 형태를 포함할 수 있다.Additionally or alternatively, the content of the call or message displayed on the display may include a summary of the entire content or a portion of the entire content of the call or message.

추가로 또는 대안으로, 상기 수신된 통화 또는 메시지 내용은 상기 차량의 주행 속도에 따라 변경되는 속도로 상기 디스플레이에 표시될 수 있다.Additionally or alternatively, the content of the received call or message may be displayed on the display at a rate that changes depending on the speed of travel of the vehicle.

추가로 또는 대안으로, 상기 수신된 통화 또는 메시지의 내용은 상기 차량의 주행 속도가 설정치를 초과하면, 상기 디스플레이에 표시되지 않을 수 있다.Additionally or alternatively, the content of the received call or message may not be displayed on the display if the vehicle's traveling speed exceeds a set value.

추가로 또는 대안으로, 상기 방법은 상기 디스플레이에 표시되는 것에 대응하는, 상기 사용자의 음성을 획득 및 인식하는 단계; 상기 인식된 사용자의 음성을 문자로 변환하는 단계; 및 상기 사용자의 조작 신호가 수신되면, 상기 변환된 문자를 상기 수신된 통화 또는 메시지의 발신자에게 전송하는 단계를 포함할 수 있다.Additionally or alternatively, the method may include obtaining and recognizing the user's voice, corresponding to that displayed on the display; Converting the recognized user's voice into text; And when the user's operation signal is received, it may include transmitting the converted text to the sender of the received call or message.

추가로 또는 대안으로, 상기 디스플레이는 상기 차량의 헤드업 디스플레이를 포함할 수 있다.Additionally or alternatively, the display may include a head-up display of the vehicle.

추가로 또는 대안으로, 상기 사용자를 식별하는 단계는 상기 차량에 탑승한 사용자의 안면 인식, 상기 차량에 탑승한 사용자의 시트 위치, 또는 상기 통신 단말의 사용자 정보 중 적어도 하나를 이용하여 상기 사용자를 식별하는 단계를 포함할 수 있다.Additionally or alternatively, the step of identifying the user may include identifying the user using at least one of facial recognition of the user riding in the vehicle, seat position of the user riding in the vehicle, or user information of the communication terminal. It may include steps to:

본 발명의 또다른 일 실시예에 따른 디스플레이 장치는, 차량과 관련된 정보를 표시하는 디스플레이 모듈; 상기 차량에 탑승한 사용자를 식별하기 위한 센서; 및 상기 디스플레이 모듈을 제어하는 프로세서를 포함하고, 상기 프로세서는, 차량의 통신 장치 또는 차량에 연결된 통신 단말을 통해 통화 또는 메시지를 수신하고, 상기 센서를 통해 검출한 정보에 따라 상기 통신 장치 또는 통신 단말과 연관된 사용자를 식별하고, 상기 수신된 통화 또는 메시지의 내용을 상기 사용자와 연관된 상기 디스플레이 모듈에 표시하도록 제어할 수 있다.A display device according to another embodiment of the present invention includes a display module that displays information related to a vehicle; A sensor for identifying a user riding in the vehicle; and a processor that controls the display module, wherein the processor receives a call or message through a communication device in the vehicle or a communication terminal connected to the vehicle, and sends a call or message to the communication device or communication terminal according to information detected through the sensor. The user associated with the user can be identified and the contents of the received call or message can be controlled to be displayed on the display module associated with the user.

본 발명의 또다른 일 실시예에 따라 앞서 언급한 차량 제어 방법을 수행하기 위한 컴퓨터 판독가능 매체에 저장된 컴퓨터 프로그램이 제안된다.According to another embodiment of the present invention, a computer program stored in a computer-readable medium for performing the above-mentioned vehicle control method is proposed.

상술한 본 발명의 해결수단은 본 발명의 실시예들 중의 일부이다. 상술한 과제의 해결수단 이외의 다양한 해결수단이 아래에서 설명될 본 발명의 상세한 설명을 기반으로 도출되고 이해될 수 있다.The solutions of the present invention described above are some of the embodiments of the present invention. Various solution methods other than those for solving the problems described above can be derived and understood based on the detailed description of the present invention, which will be described below.

상술한 본 발명의 효과는 다음과 같다.The effects of the present invention described above are as follows.

차량 내에서 상대방의 통화 내용을 음성이 아닌 문자 형태로 표시함으로써, 차량에서 전화 통화하는 탑승자의 사생활 보호의 효과가 있다.By displaying the other party's call content in text form rather than voice within the vehicle, the privacy of passengers talking on the phone in the vehicle is protected.

또한, 차량 내에서 탑승자에게 수신된 메시지의 내용을 해당 탑승자에게만 볼 수 있도록 표시함으로써, 차량에 탑승하여 메시지를 송수신하는 탑승자의 사생활 보호의 효과가 있다.In addition, by displaying the contents of messages received from passengers in the vehicle so that only the relevant passengers can see them, there is an effect of protecting the privacy of passengers sending and receiving messages while riding in the vehicle.

또한, 수신된 메시지에 대응하는, 답장을 음성으로 인식받아 문자의 형태로 디스플레이에 표시하고 전송함으로써, 운전 방해를 최소화하여 안전을 보장하는 효과가 있다.In addition, the reply corresponding to the received message is recognized as a voice, displayed on the display in the form of text, and transmitted, thereby ensuring safety by minimizing driving disruption.

본 발명의 효과는 위에서 설명한 효과들로 제한되지 않는다. 위에서 설명되지 않은 다른 효과들은 아래의 본 발명의 설명으로부터 통상의 기술자에게 이해될 수 있다.The effects of the present invention are not limited to the effects described above. Other effects not described above can be understood by those skilled in the art from the description of the present invention below.

본 발명에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 발명에 대한 실시예를 제공하고, 상세한 설명과 함께 본 발명의 내용을 설명한다.
도 1은 본 발명의 일실시예들 중 어느 하나에 의한 자율 주행 장치가 적용될 수 있는 자율 주행 제어 시스템의 전체 블록구성도이다.
도 2는 본 발명의 일실시예들 중 어느 하나에 의한 자율 주행 장치가 차량에 적용되는 예시를 보인 예시도이다.
도 3 내지 도 4는 본 발명에 따른 통화 또는 메시지 내용을 디스플레이로 표시하는 방식을 나타낸다.
도 5는 본 발명에 따른 차량 운전 중에 음성을 상대방에게 문자 형태로 전송하기 위한 차량 내 구성을 도시한다.
도 6은 본 발명에 따른 차량 탑승자 검출 또는 식별을 위한 구성을 도시한다.
도 7은 본 발명에 따른 수신된 통화 또는 메시지를 디스플레이 장치에 표시하는 차량 제어 방법과 관련된 순서도를 도시한다.
도 8은 본 발명에 따른 디스플레이 장치의 블록도를 도시한다.
The accompanying drawings, which are included as part of the detailed description to aid understanding of the present invention, provide embodiments of the present invention and, together with the detailed description, explain the content of the present invention.
Figure 1 is an overall block diagram of an autonomous driving control system to which an autonomous driving device according to one of the embodiments of the present invention can be applied.
Figure 2 is an illustrative diagram showing an example of an autonomous driving device according to one of the embodiments of the present invention being applied to a vehicle.
Figures 3 and 4 show a method of displaying the contents of a call or message on a display according to the present invention.
Figure 5 shows a configuration within a vehicle for transmitting voice in the form of text to the other party while driving the vehicle according to the present invention.
Figure 6 shows a configuration for detecting or identifying vehicle occupants according to the present invention.
Figure 7 shows a flow chart related to a vehicle control method for displaying a received call or message on a display device according to the present invention.
Figure 8 shows a block diagram of a display device according to the present invention.

이하 첨부된 도면을 참조하여, 본 발명의 실시예를 설명한다. Hereinafter, embodiments of the present invention will be described with reference to the attached drawings.

아래에서 설명되는 실시예는 본 발명의 이해를 돕기 위한 것이며, 따라서 본 발명은 아래에서 설명되는 실시예에 한정되지는 않는다. 또한, 첨부된 도면에서는 발명의 이해를 돕기 위하여 특정 구성요소는 과장되거나 축소되어 도시될 수 있다. 본 발명은 첨부된 도면에 그려진 형태로 한정되는 것은 아니다.The embodiments described below are intended to aid understanding of the present invention, and therefore the present invention is not limited to the embodiments described below. Additionally, in the attached drawings, certain components may be exaggerated or reduced in order to facilitate understanding of the invention. The present invention is not limited to the form depicted in the attached drawings.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification, when a part is said to "include" a certain component, this means that it does not exclude other components but may further include other components unless specifically stated to the contrary.

도 1은 본 발명의 일실시예들 중 어느 하나에 의한 자율 주행 장치가 적용될 수 있는 자율 주행 제어 시스템의 전체 블록구성도이다. Figure 1 is an overall block diagram of an autonomous driving control system to which an autonomous driving device according to one of the embodiments of the present invention can be applied.

도 2는 본 발명의 일실시예들 중 어느 하나에 의한 자율 주행 장치가 차량에 적용되는 예시를 보인 예시도이다.Figure 2 is an illustrative diagram showing an example of an autonomous driving device according to one of the embodiments of the present invention being applied to a vehicle.

우선, 도 1 및 도 2를 참조하여 본 실시예들에 따른 자율 주행 장치가 적용될 수 있는 자율 주행 제어 시스템(예를 들어, 자율 주행 차량)의 구조 및 기능에 대하여 설명한다.First, the structure and function of an autonomous driving control system (eg, autonomous vehicle) to which the autonomous driving device according to the present embodiments can be applied will be described with reference to FIGS. 1 and 2.

도 1에 도시된 바와 같이, 자율 주행 차량(1000)은, 운전 정보 입력 인터페이스(101), 주행 정보 입력 인터페이스(201), 탑승자 출력 인터페이스(301) 및 차량 제어 출력 인터페이스(401)를 통해 차량의 자율 주행 제어에 필요한 데이터를 송수신하는 자율 주행 통합 제어부(600)를 중심으로 구현될 수 있다. 다만, 자율 주행 통합 제어부(600)를, 당해 명세서 상에서 컨트롤러, 프로세서 또는 간단히 제어부로 지칭할 수도 있다.As shown in FIG. 1, the autonomous vehicle 1000 operates the vehicle through the driving information input interface 101, the driving information input interface 201, the occupant output interface 301, and the vehicle control output interface 401. It can be implemented around the autonomous driving integrated control unit 600, which transmits and receives data required for autonomous driving control. However, the autonomous driving integrated control unit 600 may be referred to as a controller, a processor, or simply a control unit in this specification.

자율 주행 통합 제어부(600)는 차량의 자율 주행 모드 또는 수동 주행 모드에서 사용자 입력부(100)에 대한 탑승자의 조작에 따른 운전 정보를 운전 정보 입력 인터페이스(101)를 통해 획득할 수 있다. 사용자 입력부(100)는 도 1에 도시된 바와 같이, 주행 모드 스위치(110) 및 컨트롤 패널(120)(예를 들어, 차량에 장착된 네비게이션 단말, 탑승자가 소지한 스마트폰 또는 태블릿 PC 등등)을 포함할 수 있으며, 이에 따라 운전 정보는 차량의 주행 모드 정보 및 항법 정보를 포함할 수 있다.The autonomous driving integrated control unit 600 may obtain driving information according to the passenger's manipulation of the user input unit 100 in the vehicle's autonomous driving mode or manual driving mode through the driving information input interface 101. As shown in FIG. 1, the user input unit 100 uses the driving mode switch 110 and the control panel 120 (e.g., a navigation terminal mounted on the vehicle, a smartphone or tablet PC carried by the passenger, etc.) Accordingly, the driving information may include driving mode information and navigation information of the vehicle.

예를 들어, 주행 모드 스위치(110)에 대한 탑승자의 조작에 따라 결정되는 차량의 주행 모드(즉, 자율 주행 모드/수동 주행 모드 또는 스포츠 모드(Sports Mode)/에코 모드(Eco Mode)/안전 모드(Safe Mode)/일반 모드(Normal Mode))가 상기한 운정 정보로서 운전 정보 입력 인터페이스(101)를 통해 자율 주행 통합 제어부(600)로 전달될 수 있다.For example, the driving mode of the vehicle determined according to the occupant's operation of the driving mode switch 110 (i.e., autonomous driving mode/manual driving mode or Sports Mode/Eco Mode/Safe Mode) (Safe Mode)/Normal Mode) may be transmitted to the autonomous driving integrated control unit 600 through the driving information input interface 101 as the above-described driving information.

또한, 탑승자가 컨트롤 패널(120)을 통해 입력하는 탑승자의 목적지, 목적지까지의 경로(목적지까지의 후보 경로 중 탑승자가 선택한 최단 경로 또는 선호 경로 등)와 같은 항법 정보가 상기한 운전 정보로서 운전 정보 입력 인터페이스(101)를 통해 자율 주행 통합 제어부(600)로 전달될 수 있다.In addition, navigation information such as the passenger's destination and the route to the destination (such as the shortest route or preferred route selected by the passenger among candidate routes to the destination) that the passenger inputs through the control panel 120 is the driving information. It may be transmitted to the autonomous driving integrated control unit 600 through the input interface 101.

한편, 컨트롤 패널(120)은 차량의 자율 주행 제어를 위한 정보를 운전자가 입력하거나 수정하기 위한 UI(User Interface)를 제공하는 터치 스크린 패널로 구현될 수도 있으며, 이 경우 전술한 주행 모드 스위치(110)는 컨트롤 패널(120) 상의 터치 버튼으로 구현될 수도 있다.Meanwhile, the control panel 120 may be implemented as a touch screen panel that provides a UI (User Interface) for the driver to input or modify information for autonomous driving control of the vehicle. In this case, the driving mode switch 110 described above ) may also be implemented as a touch button on the control panel 120.

또한, 자율 주행 통합 제어부(600)는 차량의 주행 상태를 나타내는 주행 정보를 주행 정보 입력 인터페이스(201)를 통해 획득할 수 있다. 주행 정보는 탑승자가 조향휠을 조작함에 따라 형성되는 조향각과, 가속 페달 또는 브레이크 페달을 답입함에 따라 형성되는 가속 페달 스트로크 또는 브레이크 페달의 스트로크와, 차량에 형성되는 거동으로서 차속, 가속도, 요, 피치 및 롤 등 차량의 주행 상태 및 거동을 나타내는 다양한 정보를 포함할 수 있으며, 상기 각 주행 정보는 도 1에 도시된 바와 같이, 조향각 센서(210), APS(Accel Position Sensor)/PTS(Pedal Travel Sensor)(220), 차속 센서(230), 가속도 센서(240), 요/피치/롤 센서(250)를 포함하는 주행 정보 검출부(200)에 의해 검출될 수 있다.Additionally, the autonomous driving integrated control unit 600 may obtain driving information indicating the driving state of the vehicle through the driving information input interface 201. Driving information includes the steering angle formed as the passenger operates the steering wheel, the accelerator pedal stroke or brake pedal stroke formed as the passenger presses the accelerator or brake pedal, and vehicle speed, acceleration, yaw, and pitch as the behavior formed in the vehicle. and roll, etc. may include various information indicating the driving state and behavior of the vehicle, and each of the driving information includes a steering angle sensor 210, an Accel Position Sensor (APS)/Pedal Travel Sensor (PTS), as shown in FIG. ) 220, vehicle speed sensor 230, acceleration sensor 240, and yaw/pitch/roll sensor 250 may be detected by the driving information detector 200.

나아가, 차량의 주행 정보는 차량의 위치 정보를 포함할 수도 있으며, 차량의 위치 정보는 차량에 적용된 GPS(Global Positioning System) 수신기(260)를 통해 획득될 수 있다. 이러한 주행 정보는 주행 정보 입력 인터페이스(201)를 통해 자율 주행 통합 제어부(600)로 전달되어 차량의 자율 주행 모드 또는 수동 주행 모드에서 차량의 주행을 제어하기 위해 활용될 수 있다.Furthermore, the vehicle's driving information may include the vehicle's location information, and the vehicle's location information may be obtained through a Global Positioning System (GPS) receiver 260 applied to the vehicle. This driving information can be transmitted to the autonomous driving integrated control unit 600 through the driving information input interface 201 and used to control the driving of the vehicle in the vehicle's autonomous driving mode or manual driving mode.

또한, 자율 주행 통합 제어부(600)는 차량의 자율 주행 모드 또는 수동 주행 모드에서 탑승자에게 제공되는 주행 상태 정보를 탑승자 출력 인터페이스(301)를 통해 출력부(300)로 전달할 수 있다. 즉, 자율 주행 통합 제어부(600)는 차량의 주행 상태 정보를 출력부(300)로 전달함으로써, 출력부(300)를 통해 출력되는 주행 상태 정보를 기반으로 탑승자가 차량의 자율 주행 상태 또는 수동 주행 상태를 확인하도록 할 수 있으며, 상기 주행 상태 정보는 이를테면 현재 차량의 주행 모드, 변속 레인지, 차속 등 차량의 주행 상태를 나타내는 다양한 정보를 포함할 수 있다.Additionally, the autonomous driving integrated control unit 600 may transmit driving status information provided to the passenger in the vehicle's autonomous driving mode or manual driving mode to the output unit 300 through the passenger output interface 301. That is, the autonomous driving integrated control unit 600 transmits the vehicle's driving status information to the output unit 300, so that the occupants can select the vehicle's autonomous driving status or manual driving status based on the driving status information output through the output unit 300. The status can be checked, and the driving status information may include various information indicating the driving status of the vehicle, such as the current vehicle driving mode, shift range, and vehicle speed.

또한, 자율 주행 통합 제어부(600)는 상기한 주행 상태 정보와 함께 차량의 자율 주행 모드 또는 수동 주행 모드에서 운전자에게 경고가 필요한 것으로 판단된 경우, 탑승자 출력 인터페이스(301)를 통해 경고 정보를 출력부(300)로 전달하여 출력부(300)가 운전자에게 경고를 출력하도록 할 수 있다. 이러한 주행 상태 정보 및 경고 정보를 청각적 및 시각적으로 출력하기 위해 출력부(300)는 도 1에 도시된 바와 같이 스피커(310) 및 디스플레이 장치(320)를 포함할 수 있다. 이때, 디스플레이 장치(320)는 전술한 컨트롤 패널(120)과 동일한 장치로 구현될 수도 있고, 분리된 독립적인 장치로 구현될 수도 있다.In addition, when the autonomous driving integrated control unit 600 determines that a warning is required to the driver in the vehicle's autonomous driving mode or manual driving mode along with the driving status information, the autonomous driving integrated control unit 600 outputs warning information through the passenger output interface 301. It can be transmitted to 300 so that the output unit 300 outputs a warning to the driver. In order to output such driving status information and warning information audibly and visually, the output unit 300 may include a speaker 310 and a display device 320 as shown in FIG. 1 . At this time, the display device 320 may be implemented as the same device as the control panel 120 described above, or may be implemented as a separate and independent device.

또한, 자율 주행 통합 제어부(600)는 차량의 자율 주행 모드 또는 수동 주행 모드에서 차량의 주행 제어를 위한 제어 정보를 차량 제어 출력 인터페이스(401)를 통해 차량에 적용된 하위 제어 시스템(400)으로 전달할 수 있다. 차량의 주행 제어를 위한 하위 제어 시스템(400)은 도 1에 도시된 바와 같이 엔진 제어 시스템(410), 제동 제어 시스템(420) 및 조향 제어 시스템(430)을 포함할 수 있으며, 자율 주행 통합 제어부(600)는 상기 제어 정보로서 엔진 제어 정보, 제동 제어 정보 및 조향 제어 정보를 차량 제어 출력 인터페이스(401)를 통해 각 하위 제어 시스템(410, 420, 430)으로 전달할 수 있다. 이에 따라, 엔진 제어 시스템(410)은 엔진에 공급되는 연료를 증가 또는 감소시켜 차량의 차속 및 가속도를 제어할 수 있고, 제동 제어 시스템(420)은 차량의 제동력을 조절하여 차량의 제동을 제어할 수 있으며, 조향 제어 시스템(430)은 차량에 적용된 조향 장치(예: MDPS(Motor Driven Power Steering) 시스템)를 통해 차량의 조향을 제어할 수 있다.In addition, the autonomous driving integrated control unit 600 can transmit control information for driving control of the vehicle in the vehicle's autonomous driving mode or manual driving mode to the lower control system 400 applied to the vehicle through the vehicle control output interface 401. there is. The sub-control system 400 for driving control of the vehicle may include an engine control system 410, a braking control system 420, and a steering control system 430, as shown in FIG. 1, and an autonomous driving integrated control unit. 600 can transmit engine control information, braking control information, and steering control information as the control information to each lower control system 410, 420, and 430 through the vehicle control output interface 401. Accordingly, the engine control system 410 can control the vehicle speed and acceleration by increasing or decreasing the fuel supplied to the engine, and the braking control system 420 can control the braking of the vehicle by adjusting the braking force of the vehicle. The steering control system 430 may control the steering of the vehicle through a steering device applied to the vehicle (e.g., Motor Driven Power Steering (MDPS) system).

상기한 것과 같이 본 실시예의 자율 주행 통합 제어부(600)는 운전 정보 입력 인터페이스(101) 및 주행 정보 입력 인터페이스(201)를 통해 운전자의 조작에 따른 운전 정보 및 차량의 주행 상태를 나타내는 주행 정보를 각각 획득하고, 자율 주행 알고리즘에 따라 생성되는 주행 상태 정보 및 경고 정보를 탑승자 출력 인터페이스(301)를 통해 출력부(300)로 전달할 수 있으며, 또한 자율 주행 알고리즘에 따라 생성되는 제어 정보를 차량 제어 출력 인터페이스(401)를 통해 하위 제어 시스템(400)으로 전달하여 차량의 주행 제어가 이루어지도록 동작할 수 있다.As described above, the autonomous driving integrated control unit 600 of this embodiment provides driving information according to the driver's operation and driving information indicating the driving state of the vehicle through the driving information input interface 101 and the driving information input interface 201, respectively. The driving state information and warning information generated according to the autonomous driving algorithm can be transmitted to the output unit 300 through the passenger output interface 301, and the control information generated according to the autonomous driving algorithm can be transmitted through the vehicle control output interface. It can be transmitted to the lower control system 400 through 401 and operated to control the driving of the vehicle.

한편, 차량의 안정적인 자율 주행을 보장하기 위해서는 차량의 주행 환경을 정확하게 계측함으로써 주행 상태를 지속적으로 모니터링하고 계측된 주행 환경에 맞추어 주행을 제어해야 할 필요가 있으며, 이를 위해 본 실시예의 자율 주행 장치는 도 1에 도시된 바와 같이 주변 차량, 보행자, 도로 또는 고정 시설물(예: 신호등, 이정표, 교통 표지판, 공사 펜스 등) 등 차량의 주변 객체를 검출하기 위한 센서부(500)를 포함할 수 있다. Meanwhile, in order to ensure stable autonomous driving of the vehicle, it is necessary to continuously monitor the driving state by accurately measuring the driving environment of the vehicle and control driving according to the measured driving environment. To this end, the autonomous driving device of this embodiment is As shown in FIG. 1, it may include a sensor unit 500 for detecting objects around the vehicle, such as surrounding vehicles, pedestrians, roads, or fixed facilities (e.g., traffic lights, signposts, traffic signs, construction fences, etc.).

센서부(500)는 도 1에 도시된 바와 같이 차량 외부의 주변 객체를 검출하기 위해 라이다 센서(510), 레이더 센서(520) 및 카메라 센서(530) 중 하나 이상을 포함할 수 있다.As shown in FIG. 1, the sensor unit 500 may include one or more of a lidar sensor 510, a radar sensor 520, and a camera sensor 530 to detect surrounding objects outside the vehicle.

라이다 센서(510)는 차량 주변으로 레이저 신호를 송신하고 해당 객체에 반사되어 되돌아오는 신호를 수신함으로써, 차량 외부의 주변 객체를 검출할 수 있으며, 그 사양에 따라 미리 정의되어 있는 설정 거리, 설정 수직 화각(Vertical Field Of View) 및 설정 수평 화각 범위(Vertical Field Of View) 이내에 위치한 주변 객체를 검출할 수 있다. 라이다 센서(510)는 차량의 전면, 상부 및 후면에 각각 설치되는 전방 라이다 센서(511), 상부 라이다 센서(512) 및 후방 라이다 센서(513)를 포함할 수 있으나, 그 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 해당 객체에 반사되어 되돌아오는 레이저 신호의 유효성을 판단하기 위한 임계값은 자율 주행 통합 제어부(600)의 메모리(미도시)에 미리 저장되어 있을 수 있으며, 자율 주행 통합 제어부(600)는 라이다 센서(510)를 통해 송신된 레이저 신호가 해당 객체에 반사되어 되돌아오는 시간을 측정하는 방식을 통해 해당 객체의 위치(해당 객체까지의 거리를 포함한다), 속도 및 이동 방향을 판단할 수 있다.The LiDAR sensor 510 can detect surrounding objects outside the vehicle by transmitting a laser signal to the surroundings of the vehicle and receiving a signal that is reflected and returned by the object, and has a predefined distance and setting according to its specifications. It is possible to detect surrounding objects located within the vertical field of view and the set horizontal field of view. The LiDAR sensor 510 may include a front LiDAR sensor 511, an upper LiDAR sensor 512, and a rear LiDAR sensor 513, which are installed at the front, top, and rear of the vehicle, respectively, but their installation locations and number of installations are not limited to specific embodiments. The threshold for determining the validity of the laser signal reflected by the object and returned may be pre-stored in the memory (not shown) of the autonomous driving integrated control unit 600, and the autonomous driving integrated control unit 600 uses a lidar sensor. The location (including the distance to the object), speed, and direction of movement of the object can be determined by measuring the time when the laser signal transmitted through 510 is reflected by the object and returns.

레이더 센서(520)는 차량 주변으로 전자파를 방사하고 해당 객체에 반사되어 되돌아오는 신호를 수신함으로써, 차량 외부의 주변 객체를 검출할 수 있으며, 그 사양에 따라 미리 정의되어 있는 설정 거리, 설정 수직 화각 및 설정 수평 화각 범위 이내에 위치한 주변 객체를 검출할 수 있다. 레이더 센서(520)는 차량의 전면, 좌측면, 우측면 및 후면에 각각 설치되는 전방 레이더 센서(521), 좌측 레이더 센서(521), 우측 레이더 센서(522) 및 후방 레이더 센서(523)를 포함할 수 있으나, 그 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 자율 주행 통합 제어부(600)는 레이더 센서(520)를 통해 송수신된 전자파의 파워(Power)를 분석하는 방식을 통해 해당 객체의 위치(해당 객체까지의 거리를 포함한다), 속도 및 이동 방향을 판단할 수 있다.The radar sensor 520 can detect surrounding objects outside the vehicle by radiating electromagnetic waves around the vehicle and receiving signals that are reflected and returned by the object, and has a predefined distance and vertical angle of view according to its specifications. And surrounding objects located within the set horizontal angle of view can be detected. The radar sensor 520 may include a front radar sensor 521, a left radar sensor 521, a right radar sensor 522, and a rear radar sensor 523, which are installed on the front, left side, right side, and rear of the vehicle, respectively. However, the installation location and number of installations are not limited to specific embodiments. The autonomous driving integrated control unit 600 determines the location (including the distance to the object), speed, and direction of movement of the object by analyzing the power of electromagnetic waves transmitted and received through the radar sensor 520. can do.

카메라 센서(530)는 차량 주변을 촬상하여 차량 외부의 주변 객체를 검출할 수 있으며, 그 사양에 따라 미리 정의되어 있는 설정 거리, 설정 수직 화각 및 설정 수평 화각 범위 이내에 위치한 주변 객체를 검출할 수 있다.The camera sensor 530 can detect surrounding objects outside the vehicle by capturing images around the vehicle, and can detect surrounding objects located within a predefined range of a set distance, a set vertical angle of view, and a set horizontal angle of view according to its specifications. .

카메라 센서(530)는 차량의 전면, 좌측면, 우측면 및 후면에 각각 설치되는 전방 카메라 센서(531), 좌측 카메라 센서(532), 우측 카메라 센서(533) 및 후방 카메라 센서(534)를 포함할 수 있으나, 그 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 자율 주행 통합 제어부는 카메라 센서(530)를 통해 촬상된 이미지에 대하여 미리 정의된 영상 처리 프로세싱을 적용함으로써 해당 객체의 위치(해당 객체까지의 거리를 포함한다), 속도 및 이동 방향 등을 판단할 수가 있다.The camera sensor 530 may include a front camera sensor 531, a left camera sensor 532, a right camera sensor 533, and a rear camera sensor 534 installed on the front, left side, right side, and rear of the vehicle, respectively. However, the installation location and number of installations are not limited to specific embodiments. The autonomous driving integrated control unit can determine the location (including the distance to the object), speed, and direction of movement of the object by applying predefined image processing to the image captured through the camera sensor 530. there is.

또한, 차량 내부를 촬상하기 위한 내부 카메라 센서(535)가 차량의 내부의 소정 위치(예: 리어뷰 미러)에 장착되어 있을 수 있으며, 자율 주행 통합 제어부(600)는 내부 카메라 센서(535)를 통해 획득된 이미지를 기반으로 탑승자의 거동 및 상태를 모니터링하여 전술한 출력부(300)를 통해 탑승자에게 안내 또는 경고를 출력할 수도 있다.Additionally, an internal camera sensor 535 for capturing images of the inside of the vehicle may be mounted at a predetermined location inside the vehicle (e.g., a rearview mirror), and the autonomous driving integrated control unit 600 uses the internal camera sensor 535. Based on the image acquired through the vehicle, the occupant's behavior and status may be monitored and guidance or warnings may be output to the occupant through the above-mentioned output unit 300.

라이다 센서(510), 레이더 센서(520) 및 카메라 센서(530) 뿐만 아니라, 센서부(500)는 도 1에 도시된 바와 같이 초음파 센서(540)를 더 포함할 수도 있으며, 이와 함께 차량의 주변 객체를 검출하기 위한 다양한 형태의 센서가 센서부(500)에 더 채용될 수도 있다. In addition to the lidar sensor 510, radar sensor 520, and camera sensor 530, the sensor unit 500 may further include an ultrasonic sensor 540 as shown in FIG. 1, along with the vehicle's Various types of sensors for detecting surrounding objects may be further employed in the sensor unit 500.

도 2는 본 실시예의 이해를 돕기 위해 전방 라이다 센서(511) 또는 전방 레이더 센서(521)가 차량의 전면에 설치되고, 후방 라이다 센서(513) 또는 후방 레이더 센서(524)가 차량의 후면에 설치되며, 전방 카메라 센서(531), 좌측 카메라 센서(532), 우측 카메라 센서(533) 및 후방 카메라 센서(534)가 각각 차량의 전면, 좌측면, 우측면 및 후면에 설치된 예시를 도시하고 있으나, 전술한 것과 같이 각 센서의 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 2 shows that the front lidar sensor 511 or the front radar sensor 521 is installed at the front of the vehicle, and the rear lidar sensor 513 or rear radar sensor 524 is installed at the rear of the vehicle to help understand this embodiment. It is installed in, and shows an example where the front camera sensor 531, left camera sensor 532, right camera sensor 533, and rear camera sensor 534 are installed on the front, left side, right side, and rear of the vehicle, respectively. , As described above, the installation location and number of each sensor are not limited to a specific embodiment.

나아가, 센서부(500)는 차량에 탑승한 탑승자의 상태 판단을 위해, 탑승자의 생체 신호(예: 심박수, 심전도, 호흡, 혈압, 체온, 뇌파, 혈류(맥파) 및 혈당 등)를 검출하기 위한 생체 센서를 더 포함할 수도 있으며, 생체 센서로는 심박수 센서, 심전도(Electrocardiogram) 센서, 호흡 센서, 혈압 센서, 체온 센서, 뇌파(Electroencephalogram) 센서, 혈류(Photoplethysmography) 센서 및 혈당 센서 등이 있을 수 있다.Furthermore, the sensor unit 500 is used to detect the occupant's biological signals (e.g., heart rate, electrocardiogram, respiration, blood pressure, body temperature, brain wave, blood flow (pulse wave), and blood sugar, etc.) to determine the condition of the occupant in the vehicle. It may further include a biometric sensor, and the biometric sensor may include a heart rate sensor, an electrocardiogram sensor, a respiration sensor, a blood pressure sensor, a body temperature sensor, an electroencephalogram sensor, a blood flow sensor, and a blood sugar sensor. .

마지막으로, 센서부(500)는 마이크(550)를 추가적으로 부가하고 있으며, 내부 마이크(551) 및 외부 마이크(552)는 각각 다른 용도를 위해 사용된다.Lastly, the sensor unit 500 additionally includes a microphone 550, and the internal microphone 551 and external microphone 552 are used for different purposes.

내부 마이크(551)는, 예를 들어 자율 주행 차량(1000)에 탑승한 탑승자의 음성을 AI 등에 기반하여 분석하거나 또는 직접적인 음성 명령에 즉각적으로 반응하기 위해 사용될 수 있다.The internal microphone 551 may be used, for example, to analyze the voice of a passenger in the autonomous vehicle 1000 based on AI or to immediately respond to a direct voice command.

반면, 외부 마이크(552)는, 예를 들어 자율 주행 차량(1000)의 외부에서 발생하는 다양한 소리를 딥러닝등 다양한 분석툴로 분석하여 안전 운행 등에 적절히 대응하기 위한 용도로 사용될 수가 있다.On the other hand, the external microphone 552 can be used, for example, to appropriately respond to safe driving by analyzing various sounds generated outside the autonomous vehicle 1000 using various analysis tools such as deep learning.

참고로, 도 2에 도시된 부호는 도 1에 도시된 부호와 동일 또는 유사한 기능을 수행할 수 있으며, 도 2는 도 1과 비교하여 각 구성요소들의 상대적 위치관계(자율 주행 차량(1000) 내부를 기준으로)를 보다 상세히 예시하였다.For reference, the symbols shown in FIG. 2 may perform the same or similar functions as the symbols shown in FIG. 1, and FIG. 2 shows the relative positional relationship of each component (inside the autonomous vehicle 1000) compared to FIG. 1. (based on) is exemplified in more detail.

도 3 내지 도 4는 본 발명에 따른 통화 또는 메시지의 내용을 디스플레이에 표시하는 방식을 나타낸다.Figures 3 and 4 show a method of displaying the contents of a call or message on a display according to the present invention.

도 3 내지 도 4에 도시된 디스플레이 장치(320)는 도 1 내지 도 2에 도시된 디스플레이 장치(320)에 대응할 수 있다. 예를 들어, 디스플레이 장치(320)는 차량에 설치된 헤드업 디스플레이(headup display; HUD)를 포함할 수 있다.The display device 320 shown in FIGS. 3 and 4 may correspond to the display device 320 shown in FIGS. 1 and 2 . For example, the display device 320 may include a headup display (HUD) installed in a vehicle.

도 3은 차량의 통신 장치 또는 차량에 연결된 사용자의 통신 단말을 통해 수신한 통화의 내용이나 메시지의 내용(T1)을 차량의 HUD(320)에 표시하는 것을 도시한다. 이는 차량에 운전자 외에 다른 탑승자가 있는 경우, 운전자의 사생활 보호 또는 동승자의 불편함 해소를 위해 운전자의 통화 내용이나 메시지 내용을 운전자에게만 보여주기 위함이다. Figure 3 shows the contents of a call or message (T1) received through the vehicle's communication device or a user's communication terminal connected to the vehicle being displayed on the vehicle's HUD 320. This is to show the contents of the driver's calls or messages only to the driver in order to protect the driver's privacy or relieve the passengers' inconvenience when there are other passengers in the vehicle other than the driver.

본 발명은 운전자의 사생활 보호뿐만 아니라, 다른 탑승자를 위한 동일한 목적을 위해서도 확장될 수 있다. 차량에 개인(시트)별 디스플레이가 설치되어 있다면, 차량(또는 차량 제어 시스템)은 사용자를 식별하고, 식별된 사용자와 연관된 차량의 디스플레이 장치(320)에 통화 또는 메시지 내용을 표시할 수 있다. 추가적으로, 개인(시트)별 디스플레이가 아니더라도, 차량의 디스플레이 장치(320)에 편광 제어 또는 표시 각도 제어와 같은 디스플레이의 방향성 제어를 위한 기능이 내재되어 있으면, 차량(또는 차량 제어 시스템)은 이러한 기능을 활용하여, 특정 사용자에게만 대화 또는 메시지 내용이 보이게끔 제어할 수 있다.The invention can be extended not only to protect the driver's privacy, but also for the same purpose for other passengers. If a display for each individual (seat) is installed in the vehicle, the vehicle (or vehicle control system) can identify the user and display the contents of the call or message on the display device 320 of the vehicle associated with the identified user. Additionally, even if it is not a display for each individual (seat), if the display device 320 of the vehicle has functions for controlling the directionality of the display, such as polarization control or display angle control, the vehicle (or vehicle control system) may use these functions. By using this, you can control the contents of conversations or messages to be visible only to specific users.

이하, 본 명세서에서 앞서 설명한 통화 또는 메시지 내용을 문자 형태로 디스플레이에 표시하는 기능을 "시크릿 모드"라 지칭한다. 아울러, 시크릿 모드가 활성화될 수 있는 조건에 대해서 설명하도록 한다.Hereinafter, the function of displaying the contents of a call or message described above in text form on the display is referred to as "Secret mode". In addition, the conditions under which secret mode can be activated will be explained.

본 발명에 따른 시크릿 모드는 동승자가 있는 경우에만 활성화가 될 수 있다. 이를 위해, 차량(또는 차량 제어 시스템)은 운전자 뿐만 아니라 다른 동승자의 여부를 검출할 수 있다. 차량의 탑승자의 검출을 위해서, 센서가 이용될 수 있다. 센서는 앞서 언급한, 차량 내, 외부의 객체 검출 등을 위한 라이다 센서, 레이더 센서, 카메라 센서(또는 이미지 센서)를 포함할 수 있고, 차량 시트에 설치된 무게 압력 센서를 포함할 수 있다.Secret mode according to the present invention can be activated only when there is a passenger. To this end, the vehicle (or vehicle control system) can detect the presence of not only the driver but also other passengers. For detection of occupants of the vehicle, sensors may be used. The sensor may include a lidar sensor, radar sensor, camera sensor (or image sensor) for detecting objects inside and outside the vehicle, as mentioned above, and may include a weight pressure sensor installed on the vehicle seat.

추가적으로, 본 발명은 운전자 외의 탑승자 여부와 관계 없이도 시크릿 모드가 활성화될 수 있다.Additionally, in the present invention, the secret mode can be activated regardless of whether there are passengers other than the driver.

본 발명에 따른 시크릿 모드가 활성화되고, 기능하는 동안, 디스플레이 장치(320)에 표시되는 통화 또는 메시지 내용은 문자 형태로 표시될 수 있다. 디스플레이 장치(320)에 표시되는 통화 또는 메시지 내용은 미리 지정되거나 설정된 음성 인식 수단을 통해 문자로 변환될 수 있다. While the secret mode according to the present invention is activated and functioning, the content of a call or message displayed on the display device 320 may be displayed in text form. The content of a call or message displayed on the display device 320 may be converted into text through a pre-designated or set voice recognition means.

이 때, 디스플레이 장치(320)에 표시되는 문자 형태의 내용은, 차량의 통신 장치 또는 차량에 연결된 통신 단말을 통해 수신된 통화 또는 메시지의 전체일 수 있다. 예컨대, 외화 영화나 드라마의 자막처럼, 통화 또는 메시지 내용의 전체가 디스플레이(320)에 표시될 수 있다. 대안으로, 디스플레이(320)에 표시되는 문자 형태의 내용은, 차량의 통신 장치 또는 차량에 연결된 통신 단말을 통해 수신된 통화 또는 메시지의 요약 정보일 수 있다. 표시되는 요약 정보는 발신자 정보, 통화 또는 메시지 내용에서 추출된 키워드 등을 포함할 수 있다. 본 발명에 따른 시크릿 모드는 수신된 통화 또는 메시지의 내용을 표시하는 것으로서, 그 발신자로 다시 사용자(운전자 또는 동승자)의 음성이나 메시지가 전달될 것이므로 요약 정보가 표시되더라도 통화 또는 메시지의 내용의 이해에는 큰 문제는 없을 것이고, 오히려 음성 인식 및 문자 출력에 따른 시간 지연을 줄일 수 있다.At this time, the content in the form of text displayed on the display device 320 may be the entire call or message received through the vehicle's communication device or a communication terminal connected to the vehicle. For example, the entire content of a call or message may be displayed on the display 320, like subtitles for a foreign movie or drama. Alternatively, the text-type content displayed on the display 320 may be summary information of a call or message received through the vehicle's communication device or a communication terminal connected to the vehicle. The displayed summary information may include caller information, keywords extracted from call or message content, etc. The secret mode according to the present invention displays the contents of a received call or message. Since the voice or message of the user (driver or passenger) will be transmitted back to the sender, even if summary information is displayed, it is difficult to understand the contents of the call or message. There will be no major problems, and rather, the time delay due to voice recognition and text output can be reduced.

도 4는 차량의 통신 장치 또는 차량에 연결된 사용자의 통신 단말을 통해 수신한 통화 또는 메시지의 내용(T11)과 그에 대응한 사용자의 답장 내용(T12)을 차량의 HUD(320)에 표시하는 것을 도시한다. Figure 4 shows the contents of a call or message received through the vehicle's communication device or the user's communication terminal connected to the vehicle (T11) and the corresponding user's reply contents (T12) displayed on the vehicle's HUD 320. do.

앞서, 사용자의 상대방의 통화 또는 메시지의 내용을 디스플레이(320)에 표시할 수 있음을 설명하였다. 그에 응답하여, 사용자는 상대방으로 답장을 문자 메시지의 형태로 답변할 수 있다. 사용자가 음성으로 수신된 내용에 대한 답변을 입력하면, 차량(또는 차량 제어 시스템)은 음성 인식 수단을 통해 음성을 문자로 변환할 수 있다. 그리고나서, 차량(또는 차량 제어 시스템)은 변환된 문자를 디스플레이(320)에 표시하고, 이를 상대방의 통신 단말 등으로 전송할 수 있다. Previously, it was explained that the contents of the user's other party's call or message can be displayed on the display 320. In response, the user may send a reply to the other party in the form of a text message. When the user inputs a response to the content received by voice, the vehicle (or vehicle control system) can convert the voice into text through voice recognition means. Then, the vehicle (or vehicle control system) can display the converted text on the display 320 and transmit it to the other party's communication terminal.

도 4를 참조하면, 디스플레이 장치(320)에 표시된 사용자와 상대방 간의 대화 내용은 문자, 대화 메신저 등의 그래픽 사용자 인터페이스와 유사하게, 상대방과 사용자의 대화의 내용이 누적되어 표시된다. Referring to FIG. 4, the content of the conversation between the user and the other party displayed on the display device 320 is displayed in an accumulated manner, similar to a graphical user interface such as a text message or conversation messenger.

도 5는 본 발명에 따른 차량 운전 중에 음성을 상대방에게 문자 형태로 전송하기 위한 차량 내 사용자 입력조작부(130)를 도시한다.Figure 5 shows a user input control unit 130 in the vehicle for transmitting voice in text form to the other party while driving the vehicle according to the present invention.

한편, 도 4를 참조하여 설명한, 차량(또는 차량 제어 시스템)은 사용자의 음성을 변환된 문자를 디스플레이 장치(320)에 표시하고나면, 사용자의 입력에 따라 상대방의 통신 단말 등으로 전송할 수 있다. 도 5는 이를 위한 스티어링 휠에 설치된 사용자 입력조작부(130)를 도시하며, 사용자 입력조작부(130)는 음성 입력 버튼(131) 또는 전송 버튼(132) 중 적어도 하나를 포함할 수 있다. Meanwhile, the vehicle (or vehicle control system) described with reference to FIG. 4 can display text converted from the user's voice on the display device 320 and then transmit it to the other party's communication terminal according to the user's input. Figure 5 shows a user input control unit 130 installed on the steering wheel for this purpose, and the user input control unit 130 may include at least one of a voice input button 131 or a transmission button 132.

사용자가 음성 입력 버튼(131)을 가압하여 음성 입력 신호가 입력되면, 차량(또는 차량 제어 시스템)은 음성 인식 수단을 실행하여 사용자에 대한 음성 인식을 수행하며, 인식된 음성을 문자 형태로 디스플레이 장치(320)에 표시할 수 있다. 그리고나서, 사용자가 전송 버튼(132)을 가압하여 전송 지시 신호가 입력되면, 차량(또는 차량 제어 시스템)은 디스플레이 장치(320)에 표시된 문자 형태의 내용을 메시지로서 상대방의 통신 단말 등으로 전송할 수 있다. When the user presses the voice input button 131 and a voice input signal is input, the vehicle (or vehicle control system) executes voice recognition means to perform voice recognition for the user, and displays the recognized voice in text form on a display device. It can be displayed at (320). Then, when the user presses the transmission button 132 and a transmission instruction signal is input, the vehicle (or vehicle control system) can transmit the contents in the form of characters displayed on the display device 320 as a message to the other party's communication terminal, etc. there is.

전송 버튼(131) 또는 음성 입력 버튼(132) 중 하나만 구비된 경우에는, 첫번째 버튼 가압에 따른 신호 입력은 음성 입력을 개시하는 용도로 이용되며, 두번째 버튼 가압에 따른 신호 입력은 음성 변환된 문자의 전송을 지시하는 용도로 이용될 수 있다.When only one of the transmission button 131 or the voice input button 132 is provided, the signal input by pressing the first button is used to initiate voice input, and the signal input by pressing the second button is used to input the voice converted text. It can be used to instruct transmission.

한편, 앞서 차량(또는 차량 제어 시스템)은 차량에 탑승한 탑승자(운전자 또는 동승자)를 검출 또는 식별할 수 있다고 설명하였다. 이를 위한, 본 발명에 따른 차량(또는 차량 제어 시스템)에 대해 설명하도록 한다.Meanwhile, it was previously explained that a vehicle (or vehicle control system) can detect or identify occupants (driver or passenger) riding in the vehicle. For this purpose, the vehicle (or vehicle control system) according to the present invention will be described.

도 6은 본 발명에 따른 탑승자 검출 또는 식별을 위한 구성을 도시한다. 디스플레이 장치는 클러스터(계기판)(321) 또는 차량의 센터페시아 또는 그 근처에 설치된 디스플레이(322)를 포함할 수 있다. 도 6에서는 디스플레이 근처에 객체 인식을 위한 수단(536, 537)이 설치된 것으로 도시되었으나, 그 설치의 위치는 차량 내 어디든 가능하다. 객체 인식을 위한 수단은 차량 내 탑승자를 검출 또는 식별하기 위한 것이다. 앞서 설명한 것과 유사하게, 객체 인식을 위한 수단은 센서일 수 있고, 센서는 라이다 센서, 레이더 센서, 카메라 센서(또는 이미지 센서)를 포함할 수 있고, 차량 시트에 설치된 무게 압력 센서를 포함할 수 있다.Figure 6 shows a configuration for occupant detection or identification according to the present invention. The display device may include a cluster (instrument panel) 321 or a display 322 installed on or near the center fascia of the vehicle. In FIG. 6, means 536 and 537 for object recognition are shown installed near the display, but the installation location can be anywhere in the vehicle. The means for object recognition is for detecting or identifying occupants in a vehicle. Similar to what was previously described, the means for object recognition may be a sensor, and the sensor may include a lidar sensor, a radar sensor, a camera sensor (or image sensor), and a weight pressure sensor installed on the vehicle seat. there is.

탑승자 식별을 위해서는 카메라 센서가 바람직할 수 있으며, 카메라 센서로 획득한 이미지를 분석하여 안면 인식을 통해 식별을 수행할 수 있다. 이 때, 차량을 자주 탑승하는 탑승자에 대한 안면 이미지가 미리 저장되어 있는 것이 바람직하다. 또한, 안면 이미지와 개인 고유 정보(예컨대, 이름, 개인 통신 단말의 사용자 정보 등)가 서로 연계되어 있는 것이 바람직하다.A camera sensor may be desirable for occupant identification, and identification may be performed through facial recognition by analyzing images acquired with the camera sensor. At this time, it is desirable to store facial images of passengers who frequently ride the vehicle in advance. Additionally, it is desirable that the facial image and personal unique information (eg, name, user information of a personal communication terminal, etc.) are linked to each other.

탑승자의 검출만을 지원하는지, 추가적으로 식별까지 지원하는지에 따라 차량(또는 차량 제어 시스템)의 동작을 다음과 같이 고려해볼 수 있다.Depending on whether it supports only occupant detection or additional identification, the operation of the vehicle (or vehicle control system) can be considered as follows.

- 탑승자의 검출만을 지원하는 경우- When only detecting passengers is supported

탑승자의 검출만을 지원하는 경우, 운전자 또는 동승자를 검출하고, 이에 따라 차량(또는 차량 제어 시스템)은 시크릿 모드를 활성할지 여부를 결정할 수 있다. 예를 들어, 운전자 및 그외의 동승자가 검출되었다면, 차량(또는 차량 제어 시스템)은 시크릿 모드를 활성화할 수 있다.When only supporting detection of occupants, the driver or passenger may be detected and the vehicle (or vehicle control system) may decide accordingly whether to activate incognito mode. For example, if the driver and other passengers are detected, the vehicle (or vehicle control system) may activate incognito mode.

또는, 탑승자 1인만이 검출된 경우라면, 차량(또는 차량 제어 시스템)은 차량의 통신 장치 또는 차량에 연결된 통신 단말을 통해 수신된 통화 또는 메시지의 내용을 디스플레이 장치(320)에 표시할 수 있다. 복수의 디스플레이 장치(320)가 차량 내에 구비되면, 차량(또는 차량 제어 시스템)은 검출된 탑승자를 위한 디스플레이 장치(320)에 수신된 통화 또는 메시지의 내용을 표시할 수 있다. 또한, 디스플레이 장치(320)의 방향성의 제어가 가능하면 차량(또는 차량 제어 시스템)은 검출된 탑승자를 위한 디스플레이의 방향성 제어를 수행하면서 수신된 통화 또는 메시지의 내용을 표시할 수 있다.Alternatively, if only one occupant is detected, the vehicle (or vehicle control system) may display the contents of a call or message received through the vehicle's communication device or a communication terminal connected to the vehicle on the display device 320. . If a plurality of display devices 320 are provided in a vehicle, the vehicle (or vehicle control system) may display the contents of a received call or message on the display device 320 for the detected occupant. Additionally, if the directionality of the display device 320 can be controlled, the vehicle (or vehicle control system) can display the contents of a received call or message while controlling the directionality of the display for the detected occupant.

- 탑승자의 식별까지 지원하는 경우- In case of supporting identification of passengers

탑승자의 식별까지 지원하는 경우, 차량(또는 차량 제어 시스템)은 좀더 세밀한 표시 또는 디스플레이 장치의 제어를 수행할 수 있다. When supporting passenger identification, the vehicle (or vehicle control system) can perform more detailed display or control of the display device.

탑승자 1인만이 검출되고 식별된 경우, 차량(또는 차량 제어 시스템)은 식별된 탑승자와 차량의 통신 장치 또는 현재 차량에 연결된 통신 단말의 소유자를 비교할 수 있다. 탑승자와 상기 소유자가 동일한 경우, 차량(또는 차량 제어 시스템)은 수신된 통화 또는 메시지의 내용을 디스플레이 장치(320)에 표시할 수 있다. 탑승자와 상기 소유자가 다른 경우, 차량(또는 차량 제어 시스템)은 수신된 통화 또는 메시지의 내용을 디스플레이 장치(320)에 표시하지 않을 수 있다. If only one occupant is detected and identified, the vehicle (or vehicle control system) may compare the identified occupant to the owner of the vehicle's communication device or communication terminal currently connected to the vehicle. If the occupant and the owner are the same, the vehicle (or vehicle control system) may display the contents of the received call or message on the display device 320. If the occupant and the owner are different, the vehicle (or vehicle control system) may not display the content of the received call or message on the display device 320.

탑승자가 복수 검출되고 식별된 경우, 차량(또는 차량 제어 시스템)은 식별된 탑승자와 차량의 통신 장치 또는 현재 차량에 연결된 통신 단말의 소유자를 비교할 수 있다. 탑승자 중에 상기 소유자가 있는 경우, 차량(또는 차량 제어 시스템)은 상기 소유자를 위한 차량의 디스플레이 장치(320)에 수신된 통화 또는 메시지의 내용을 표시할 수 있다. 디스플레이 장치(320)의 방향성의 제어가 가능하면 차량(또는 차량 제어 시스템)은 상기 소유자를 위한 디스플레이 장치의 방향성 제어를 수행하면서 수신된 통화 또는 메시지의 내용을 표시할 수 있다. 탑승자 중에 상기 소유자가 없는 경우, 차량(또는 차량 제어 시스템)은 수신된 통화 또는 메시지의 내용을 디스플레이 장치(320)에 표시하지 않을 수 있다. If multiple occupants are detected and identified, the vehicle (or vehicle control system) may compare the identified occupants with the owner of the vehicle's communication device or communication terminal currently connected to the vehicle. If the owner is among the occupants, the vehicle (or vehicle control system) may display the content of the received call or message on the vehicle's display device 320 for the owner. If control of the directionality of the display device 320 is possible, the vehicle (or vehicle control system) can display the contents of a received call or message while controlling the directionality of the display device for the owner. If the owner is not among the occupants, the vehicle (or vehicle control system) may not display the content of the received call or message on the display device 320.

추가적으로, 수신된 통화 또는 메시지 내용에 대한 답장을 송신하는 절차도 도 4 내지 5를 참조하여 설명한 바와 같이 수행될 수 있다. 즉, 수신된 통화 또는 메시지의 내용과 답장 내용이 표시되는 디스플레이 장치가 상기 소유자를 위한 디스플레이 장치로 지정될 것이다. 이 때, 각 디스플레이 장치를 위한 사용자 입력조작부(130)가 구비될 수 있다. 또는 차량(또는 차량 제어 시스템)은 수신된 통화 또는 메시지의 내용과 답장 내용이 표시되는 디스플레이 장치가 편광 소자 등을 통해 방향성을 갖도록 하여, 상기 소유자를 향해서만 표시되도록 제어할 수 있다.Additionally, the procedure for sending a reply to the content of a received call or message may also be performed as described with reference to FIGS. 4 and 5. That is, the display device that displays the contents of the received call or message and the contents of the reply will be designated as the display device for the owner. At this time, a user input manipulation unit 130 may be provided for each display device. Alternatively, the vehicle (or vehicle control system) may control the display device on which the content of the received call or message and the content of the reply are displayed to have directionality through a polarizing element or the like so that the content is displayed only toward the owner.

수신된 통화 또는 메시지의 내용을 표시, 답장 내용의 표시 뿐만 아니라, 탑승자의 검출 또는 식별을 통해, 디스플레이 장치에 표시되는 사용자 인터페이스를 위한 조작부(예컨대, 터치 아이콘, 가상의 버튼 등)의 구성 또는 위치가 변경될 수 있다. 예를 들어, 운전자 또는 조수석 탑승자가 검출되면, 차량(또는 차량 제어 시스템)은 디스플레이 장치 내에서 검출된 탑승자 측에 가까운 위치에 사용자 인터페이스를 위한 조작부를 표시할 수 있다. 예를 들어, 운전자 또는 조수석 탑승자가 검출 및 식별되면, 차량(또는 차량 제어 시스템)은 디스플레이 장치 내에서 식별된 탑승자 측에 가까운 위치에, 식별된 탑승자를 위해 설정된 사용자 인터페이스를 위한 조작부를 표시할 수 있다.Configuration or location of the operating panel (e.g., touch icon, virtual button, etc.) for the user interface displayed on the display device through displaying the content of the received call or message, displaying the content of the reply, as well as detecting or identifying the occupant. may change. For example, when a driver or front passenger is detected, the vehicle (or vehicle control system) may display an operation unit for a user interface at a location close to the detected occupant within the display device. For example, when a driver or front passenger is detected and identified, the vehicle (or vehicle control system) may display an operating panel for a user interface configured for the identified occupant within the display device at a location close to the identified occupant. there is.

도 7은 본 발명에 따른 수신된 통화 또는 메시지를 디스플레이 장치에 표시하는 차량 제어 방법과 관련된 순서도를 도시한다. Figure 7 shows a flow chart related to a vehicle control method for displaying a received call or message on a display device according to the present invention.

차량(또는 차량 제어 시스템)은 차량의 통신 장치 또는 차량에 연결된 통신 단말을 통해 통화 또는 메시지를 수신할 수 있다(S710). 그리고나서, 차량(또는 차량 제어 시스템)은 통신 장치 또는 통신 단말과 연관된 사용자를 식별할 수 있다(S720). 다만, S710과 S720은 서로 순서를 바꾸어 수행될 수도 있고, 동시에 수행될 수도 있다. 사용자를 식별함에 있어서, 차량에 탑승한 사용자의 안면 인식, 차량에 탑승한 사용자의 시트 위치, 또는 통신 단말의 사용자 정보 중 적어도 하나를 이용하여 상기 사용자를 식별할 수 있다.The vehicle (or vehicle control system) may receive a call or message through the vehicle's communication device or a communication terminal connected to the vehicle (S710). Then, the vehicle (or vehicle control system) may identify the user associated with the communication device or communication terminal (S720). However, S710 and S720 may be performed in a different order or may be performed simultaneously. When identifying a user, the user may be identified using at least one of facial recognition of the user riding in the vehicle, the seat position of the user riding in the vehicle, or user information of the communication terminal.

차량(또는 차량 제어 시스템)은 수신된 통화 또는 메시지의 내용을 식별된 사용자와 연관된 차량의 디스플레이 장치에 표시할 수 있다(S730).The vehicle (or vehicle control system) may display the contents of the received call or message on the display device of the vehicle associated with the identified user (S730).

여기서, 디스플레이 장치에 표시되는 통화 또는 메시지의 내용은 수신된 통화 또는 메시지의 전체 내용 또는 전체 내용 중 일부를 요약한 형태를 포함할 수 있다. 즉, 디스플레이 장치에 수신된 통화 또는 메시지의 전체가 표시되거나, 전체 내용 중 일부가 요약되어 표시될 수 있다.Here, the content of the call or message displayed on the display device may include a summary of the entire content or part of the entire content of the received call or message. That is, the entire received call or message may be displayed on the display device, or a portion of the entire content may be summarized and displayed.

또한, 수신된 통화 또는 메시지의 내용의 표시는 차량의 주행 속도에 따라 디스플레이 장치에 표시되는 속도가 변경될 수 있다. 디스플레이 장치에 표시되는 속도라 함은, 문자 형태의 내용이 순차적으로 표시되는 빠르기, 또는 디스플레이 장치에 표시된 문자 형태의 내용이 디스플레이 장치에서 유지되는 시간 간격 등을 의미할 수 있다. 또한, 수신된 통화 또는 메시지는 차량의 주행 속도가 설정치를 초과하면, 디스플레이 장치에 표시되지 않을 수 있다. 이는 안전을 위한 것으로서, 특히 사용자가 운전자인 경우 운전 시야를 최대한 방해하지 않기 위함이다. Additionally, the speed at which the content of a received call or message is displayed on the display device may change depending on the driving speed of the vehicle. The speed at which text is displayed on a display device may mean the speed at which text content is sequentially displayed, or the time interval at which text content displayed on the display device is maintained on the display device. Additionally, a received call or message may not be displayed on the display device if the vehicle's driving speed exceeds a set value. This is for safety reasons, especially if the user is the driver, so as not to obstruct the driver's view as much as possible.

또한, 차량(또는 차량 제어 시스템)은 디스플레이 장치에 표시되는 통화 또는 메시지의 내용에 대응하는, 사용자의 음성을 획득 및 인식할 수 있다. 차량(또는 차량 제어 시스템)은 인식된 사용자의 음성을 문자로 변환할 수 있다. 차량(또는 차량 제어 시스템)은 사용자의 조작 신호가 수신되면, 변환된 문자를 수신된 통화 또는 메시지의 발신자에게 전송할 수 있다.Additionally, the vehicle (or vehicle control system) may acquire and recognize the user's voice corresponding to the content of the call or message displayed on the display device. The vehicle (or vehicle control system) can convert the recognized user's voice into text. When a user's operation signal is received, the vehicle (or vehicle control system) can transmit the converted text to the sender of the received call or message.

여기서, 디스플레이 장치는 차량의 헤드업 디스플레이를 포함할 수 있다.Here, the display device may include a head-up display of a vehicle.

도 7을 참조하여 설명한 본 발명에 따른 차량 제어와 관련하여 설명하지 않은 본 발명에 따른 차량 제어와 관련된 동작 내지 특징은 앞서 설명한 도 1 내지 도 6의 설명을 참조하도록 한다. For operations or features related to vehicle control according to the present invention that are not described in relation to vehicle control according to the present invention described with reference to FIG. 7, refer to the description of FIGS. 1 to 6 described above.

도 8은 본 발명에 따른 디스플레이 장치(320)의 블록도를 도시한다. 디스플레이 장치(320)는 디스플레이(323), 프로세서(324) 및 센서(325)를 포함할 수 있다.Figure 8 shows a block diagram of a display device 320 according to the present invention. The display device 320 may include a display 323, a processor 324, and a sensor 325.

디스플레이(323)는 차량에 설치되고, 상기 차량과 관련된 정보를 표시할 수 있다. 센서(325)는 차량에 탑승한 사용자를 식별할 수 있다. 프로세서(324)는 상기 디스플레이와 상기 센서를 제어하며, 상기 센서로부터 수신된 센싱 정보에 따라 본 발명에 따른 차량 또는 차량 시스템의 제어 동작을 수행할 수 있다. 상기 프로세서는, 차량의 통신 장치 또는 차량에 연결된 통신 단말을 통해 통화 또는 메시지를 수신하고, 상기 센서를 통해 검출한 정보에 따라 상기 통신 장치 또는 통신 단말과 연관된 사용자를 식별하고, 상기 수신된 통화 또는 메시지의 내용을 상기 사용자와 연관된 상기 차량의 디스플레이에 표시하도록 제어할 수 있다. The display 323 is installed in the vehicle and can display information related to the vehicle. The sensor 325 can identify the user boarding the vehicle. The processor 324 controls the display and the sensor, and can perform control operations of the vehicle or vehicle system according to the present invention according to sensing information received from the sensor. The processor receives a call or message through a communication device in the vehicle or a communication terminal connected to the vehicle, identifies a user associated with the communication device or communication terminal according to information detected through the sensor, and identifies the received call or message. The content of the message can be controlled to be displayed on the display of the vehicle associated with the user.

도 8을 참조하여 설명한 본 발명에 따른 디스플레이 장치와 관련하여 설명하지 않은 디스플레이 장치의 구성에 따른 동작 내지 특징은 앞서 설명한 도 1 내지 도 6의 설명을 참조하도록 한다. For operations or features according to the configuration of the display device that are not described in relation to the display device according to the present invention described with reference to FIG. 8, refer to the description of FIGS. 1 to 6 described above.

이상의 명세서에서, "차량(또는 차량 제어 시스템)"이 발명을 수행하는 것으로 설명하였으나, "차량"과 그에 속한 구성들은 명칭일 뿐 권리범위가 그에 종속되는 것은 아니다. In the above specification, the "vehicle (or vehicle control system)" is described as carrying out the invention, but the "vehicle" and its components are only names and the scope of rights is not dependent thereon.

즉, 차량, 시스템 외의 다른 명칭으로서도 본 발명이 수행될 수 있으며, 그뿐만 아니라 차량 제어를 위한 소프트웨어 또는 컴퓨터 또는 그 밖의 기계, 장치 등으로 판독가능한 코드에 의해 앞서 설명한 방법 또는 방식 등이 수행될 수 있다. In other words, the present invention can be carried out under other names other than vehicles and systems, and in addition, the method or methods described above can be carried out by software for vehicle control or codes that can be read by computers or other machines, devices, etc. there is.

아울러, 본 발명의 또다른 양태(aspect)로서, 앞서 설명한 제안 또는 발명의 동작이 "컴퓨터"(시스템 온 칩(system on chip; SoC) 또는 (마이크로) 프로세서 등을 포함하는 포괄적인 개념)에 의해 구현, 실시 또는 실행될 수 있는 코드 또는 상기 코드를 저장 또는 포함한 컴퓨터-판독가능한 저장 매체 또는 컴퓨터 프로그램 제품(product) 등으로도 제공될 수 있다. 본 발명의 권리범위가 상기 코드 또는 상기 코드를 저장 또는 포함한 컴퓨터-판독가능한 저장 매체 또는 컴퓨터 프로그램 제품으로 확장가능하다. In addition, as another aspect of the present invention, the operation of the proposal or invention described above is a "computer" (a comprehensive concept including a system on chip (SoC) or (micro) processor, etc.) It may also be provided as a code that can be implemented, implemented, or executed by, or as a computer-readable storage medium or computer program product that stores or contains the code. The scope of the present invention can be extended to the code or a computer-readable storage medium or computer program product that stores or includes the code.

또한, 본 발명의 또다른 양태로서, 앞서 설명한 제안 또는 발명의 동작, 또는 이를 수행하는 장치(예컨대, 차량 제어 장치)가 “차량”에 포함되어 제공될 수 있다. 본 발명에 따른 차량(1)은 차종을 가리지 않는다. In addition, as another aspect of the present invention, the operation of the above-described proposal or invention, or a device for performing the same (eg, a vehicle control device) may be included and provided as a “vehicle.” The vehicle 1 according to the present invention is not limited to any type of vehicle.

상술한 바와 같이 개시된 본 발명의 바람직한 실시예들에 대한 상세한 설명은 해당 기술분야의 통상의 기술자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. The detailed description of the preferred embodiments of the present invention disclosed above is provided to enable anyone skilled in the art to implement and practice the present invention.

상기에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 통상의 기술자는 하기의 특허 청구의 범위에 기재된 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. Although the present invention has been described above with reference to preferred embodiments, those skilled in the art will understand that various modifications and changes can be made to the present invention as set forth in the claims below.

따라서, 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.Accordingly, the present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein.

Claims (16)

차량에 설치되고, 상기 차량과 관련된 정보를 표시하는 디스플레이;
상기 차량에 탑승한 사용자를 식별하기 위한 센서; 및
상기 디스플레이를 제어하는 프로세서를 포함하고,
상기 프로세서는, 차량의 통신 장치 또는 차량에 연결된 통신 단말을 통해 통화 또는 메시지를 수신하고, 상기 센서를 통해 검출한 정보에 따라 상기 통신 장치 또는 통신 단말과 연관된 사용자를 식별하고, 상기 수신된 통화 또는 메시지의 내용을 상기 사용자와 연관된 상기 차량의 디스플레이에 표시하도록 제어하는, 차량.
A display installed in a vehicle and displaying information related to the vehicle;
A sensor for identifying a user riding in the vehicle; and
Includes a processor that controls the display,
The processor receives a call or message through a communication device in the vehicle or a communication terminal connected to the vehicle, identifies a user associated with the communication device or communication terminal according to information detected through the sensor, and identifies the received call or message. Controlling the vehicle to display the content of a message on a display of the vehicle associated with the user.
제1항에 있어서, 상기 디스플레이에 표시되는 통화 또는 메시지의 내용은 상기 통화 또는 메시지의 전체 내용 또는 전체 내용 중 일부를 요약한 형태를 포함하는, 차량.The vehicle according to claim 1, wherein the content of the call or message displayed on the display includes a summary of the entire content or part of the entire content of the call or message. 제1항에 있어서, 상기 프로세서는 상기 수신된 통화 또는 메시지 내용을 상기 차량의 주행 속도에 따라 변경되는 속도로 상기 디스플레이에 표시하도록 제어하는, 차량.The vehicle according to claim 1, wherein the processor controls the contents of the received call or message to be displayed on the display at a speed that changes depending on the driving speed of the vehicle. 제1항에 있어서, 상기 프로세서는 상기 차량의 주행 속도가 설정치를 초과하면, 상기 수신된 통화 또는 메시지의 내용을 상기 디스플레이에 표시하지 않도록 제어하는, 차량.The vehicle according to claim 1, wherein the processor controls not to display the contents of the received call or message on the display when the driving speed of the vehicle exceeds a set value. 제1항에 있어서, 상기 프로세서는 상기 디스플레이에 표시되는 것에 대응하는, 상기 사용자의 음성을 획득 및 인식하고,
상기 인식된 사용자의 음성을 문자로 변환하며,
상기 사용자의 조작 신호가 수신되면, 상기 변환된 문자를 상기 수신된 통화 또는 메시지의 발신자에게 전송하도록 제어하는, 차량.
The method of claim 1, wherein the processor acquires and recognizes the user's voice corresponding to what is displayed on the display,
Converting the recognized user's voice into text,
When the user's operation signal is received, the vehicle is controlled to transmit the converted text to the sender of the received call or message.
제1항에 있어서,
상기 디스플레이는 상기 차량의 헤드업 디스플레이를 포함하는, 차량.
According to paragraph 1,
A vehicle, wherein the display includes a head-up display of the vehicle.
제1항에 있어서, 상기 프로세서는 상기 사용자를 식별하기 위해, 상기 차량에 탑승한 사용자의 안면 인식, 상기 차량에 탑승한 사용자의 시트 위치, 또는 상기 통신 단말의 사용자 정보 중 적어도 하나를 이용하는, 차량.The vehicle according to claim 1, wherein the processor uses at least one of facial recognition of a user riding in the vehicle, a seat position of a user riding in the vehicle, or user information of the communication terminal to identify the user. . 차량의 통신 장치 또는 차량에 연결된 통신 단말을 통해 통화 또는 메시지를 수신하는 단계;
상기 통신 장치 또는 통신 단말과 연관된 사용자를 식별하는 단계; 및
상기 수신된 통화 또는 메시지의 내용을 상기 사용자와 연관된 상기 차량의 디스플레이에 표시하는 단계를 포함하는, 차량 제어 방법.
Receiving a call or message through a communication device in the vehicle or a communication terminal connected to the vehicle;
identifying a user associated with the communication device or communication terminal; and
A vehicle control method comprising displaying the contents of the received call or message on a display of the vehicle associated with the user.
제8항에 있어서, 상기 디스플레이에 표시되는 통화 또는 메시지의 내용은 상기 통화 또는 메시지의 전체 내용 또는 전체 내용 중 일부를 요약한 형태를 포함하는, 차량 제어 방법.The vehicle control method according to claim 8, wherein the content of the call or message displayed on the display includes a summary of the entire content or part of the entire content of the call or message. 제8항에 있어서,
상기 수신된 통화 또는 메시지 내용의 표시는 상기 차량의 주행 속도에 따라 상기 디스플레이에 표시되는 속도가 변경되는, 차량 제어 방법.
According to clause 8,
A vehicle control method, wherein the speed of the content of the received call or message is changed on the display according to the driving speed of the vehicle.
제8항에 있어서, 상기 수신된 통화 또는 메시지의 내용은 상기 차량의 주행 속도가 설정치를 초과하면, 상기 디스플레이에 표시되지 않는, 차량 제어 방법.The vehicle control method according to claim 8, wherein the content of the received call or message is not displayed on the display when the driving speed of the vehicle exceeds a set value. 제8항에 있어서, 상기 디스플레이에 표시되는 것에 대응하는, 상기 사용자의 음성을 획득 및 인식하는 단계;
상기 인식된 사용자의 음성을 문자로 변환하는 단계; 및
상기 사용자의 조작 신호가 수신되면, 상기 변환된 문자를 상기 수신된 통화 또는 메시지의 발신자에게 전송하는 단계를 포함하는, 차량 제어 방법.
The method of claim 8, further comprising: acquiring and recognizing the user's voice, corresponding to what is displayed on the display;
Converting the recognized user's voice into text; and
When the user's operation signal is received, a vehicle control method comprising transmitting the converted text to the sender of the received call or message.
제8항에 있어서,
상기 디스플레이는 상기 차량의 헤드업 디스플레이를 포함하는, 차량 제어 방법.
According to clause 8,
A vehicle control method, wherein the display includes a head-up display of the vehicle.
제8항에 있어서,
상기 사용자를 식별하는 단계는,
상기 차량에 탑승한 사용자의 안면 인식, 상기 차량에 탑승한 사용자의 시트 위치, 또는 상기 통신 단말의 사용자 정보 중 적어도 하나를 이용하여 상기 사용자를 식별하는 단계를 포함하는, 차량 제어 방법.
According to clause 8,
The step of identifying the user is,
A vehicle control method comprising identifying the user using at least one of facial recognition of the user riding the vehicle, seat position of the user riding the vehicle, or user information of the communication terminal.
차량과 관련된 정보를 표시하는 디스플레이 모듈;
상기 차량에 탑승한 사용자를 식별하기 위한 센서; 및
상기 디스플레이 모듈을 제어하는 프로세서를 포함하고,
상기 프로세서는, 차량의 통신 장치 또는 차량에 연결된 통신 단말을 통해 통화 또는 메시지를 수신하고, 상기 센서를 통해 검출한 정보에 따라 상기 통신 장치 또는 통신 단말과 연관된 사용자를 식별하고, 상기 수신된 통화 또는 메시지의 내용을 상기 사용자와 연관된 상기 디스플레이 모듈에 표시하도록 제어하는, 디스플레이 장치.
a display module that displays information related to the vehicle;
A sensor for identifying a user riding in the vehicle; and
Including a processor that controls the display module,
The processor receives a call or message through a communication device in the vehicle or a communication terminal connected to the vehicle, identifies a user associated with the communication device or communication terminal according to information detected through the sensor, and identifies the received call or message. A display device that controls the content of a message to be displayed on the display module associated with the user.
제8항에 따른 차량 제어 방법을 수행하기 위한 컴퓨터 판독가능 매체에 저장된 컴퓨터 프로그램. A computer program stored in a computer-readable medium for performing the vehicle control method according to claim 8.
KR1020220147678A 2022-11-08 A Display for displaying contents of call or message, a vehicle including them, and a method therefore KR20240066649A (en)

Publications (1)

Publication Number Publication Date
KR20240066649A true KR20240066649A (en) 2024-05-16

Family

ID=

Similar Documents

Publication Publication Date Title
US11673569B2 (en) Alert control apparatus and alert control method
CN111361552B (en) Automatic driving system
US11295143B2 (en) Information processing apparatus, information processing method, and program
US10882398B2 (en) System and method for correlating user attention direction and outside view
US10078966B2 (en) Warning method outside vehicle, driver assistance apparatus for executing method thereof and vehicle having the same
CN111443708B (en) Automatic driving system
US11873007B2 (en) Information processing apparatus, information processing method, and program
JP2017200808A (en) Information display device
US10674003B1 (en) Apparatus and system for identifying occupants in a vehicle
US11547361B2 (en) Display controller, display device, display system, mobile object, image generation method, and carrier means
WO2020031695A1 (en) Information processing device, mobile body, information processing method, and program
JP2016016853A (en) Drive support system and drive support method
JP2020035437A (en) Vehicle system, method to be implemented in vehicle system, and driver assistance system
KR20180112336A (en) Electronic device and method for recognizing object by using a plurality of senses
JP7234614B2 (en) Anomaly detection device, anomaly detection system and anomaly detection program
KR20240066649A (en) A Display for displaying contents of call or message, a vehicle including them, and a method therefore
US20240075960A1 (en) Device and method for notifying vehicle arrival to respond to transportation vulnerable
KR20230133994A (en) Method and Vehicle for recognizing traffic sign
KR20230087631A (en) Method, apparatus, storage medium, vehicle for prventing collision in vehicle blind spot
KR20230169645A (en) Object recognition-based intelligence glasses system for preventing traffic accidents, and operation method for the same
KR20230055840A (en) Method and Apparatus for controlling Autonomous Vehicle
KR20230090400A (en) Methods and apparatus for preventing entry of animals
KR20230171068A (en) Method and Apparatus for reroute
KR20230159774A (en) Method and apparatus for emergency response
KR20230106207A (en) Vehicle and method for performing according to at least one mode