KR102174863B1 - Autonomous Vehicle Exterior Display Interaction Apparatus and Method - Google Patents

Autonomous Vehicle Exterior Display Interaction Apparatus and Method Download PDF

Info

Publication number
KR102174863B1
KR102174863B1 KR1020190065284A KR20190065284A KR102174863B1 KR 102174863 B1 KR102174863 B1 KR 102174863B1 KR 1020190065284 A KR1020190065284 A KR 1020190065284A KR 20190065284 A KR20190065284 A KR 20190065284A KR 102174863 B1 KR102174863 B1 KR 102174863B1
Authority
KR
South Korea
Prior art keywords
vehicle
display
pedestrian
interaction
unit
Prior art date
Application number
KR1020190065284A
Other languages
Korean (ko)
Inventor
주다영
정소연
Original Assignee
연세대학교 산학협력단
한양대학교 에리카산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단, 한양대학교 에리카산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020190065284A priority Critical patent/KR102174863B1/en
Application granted granted Critical
Publication of KR102174863B1 publication Critical patent/KR102174863B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • B60K35/81Arrangements for controlling instruments for controlling displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/188Displaying information using colour changes
    • B60K2370/188
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/30Driving style
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance

Landscapes

  • Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Abstract

According to the present invention, disclosed are an exterior display interaction device of an autonomous vehicle, which can personalize the exterior of the vehicle and change the exterior in various ways, and a method thereof. The exterior display interaction device of an autonomous vehicle includes: a design management unit that stores and manages at least one color and pattern information of the vehicle; and a display control unit that selects a pattern and a color according to user input by the design management unit and controls a display device to display the user input and an interaction message.

Description

자율주행 차량의 외장 디스플레이 인터랙션 장치 및 방법{Autonomous Vehicle Exterior Display Interaction Apparatus and Method}Autonomous Vehicle Exterior Display Interaction Apparatus and Method

본 발명은 차량의 디스플레이 인터랙션 장치 및 방법에 관한 것으로, 특히 자율주행 차량의 외장 디스플레이 인터랙션 장치 및 방법에 관한 것이다.The present invention relates to a display interaction apparatus and method of a vehicle, and more particularly, to an external display interaction apparatus and method of an autonomous vehicle.

차량은 흔히 인포테인먼트(infotainment) 및 내비게이션 시스템들과 같은 다양한 시스템들을 포함한다. 이러한 시스템들에는 일반적으로 디스플레이가 제공되며, 이 디스플레이 주변에는 기계 제어 요소들이 운전자 및 앞좌석 탑승자의 접근을 위해 차량 내부공간(vehicle cabin)의 전면판(dashboard)에 장착된 사용자 인터페이스를 제공하도록 배치된다.Vehicles often include various systems such as infotainment and navigation systems. These systems are typically provided with displays, around which machine control elements are arranged to provide a user interface mounted on the dashboard of the vehicle cabin for access by the driver and front seat occupants. do.

또한, 최근에는 차량의 사용자를 검출할 수 있는 사용자 식별 서브시스템, 및 사용자의 검출에 응답하여 차량 윈도우 상에 디스플레이를 위한 출력을 생성할 수 있는 인터랙티브 디스플레이 서브시스템이 개발되고 있다.In addition, recently, a user identification subsystem capable of detecting a user of a vehicle, and an interactive display subsystem capable of generating an output for display on a vehicle window in response to the detection of the user have been developed.

이에 따라, 자율주행차량과 인포테인먼트의 중요성이 커지면서 차량의 외장을 개인화 하고, 다양하게 바꿀 수 있으며, 보행자와의 인터랙션으로 안전한 주행을 가능하게 하는 기술이 필요하다.Accordingly, as the importance of autonomous vehicles and infotainment grows, there is a need for a technology that can personalize the exterior of the vehicle, change it in various ways, and enable safe driving through interaction with pedestrians.

본 발명은 자율주행 차량의 외장 디스플레이 인터랙션 장치 및 방법으로 적어도 하나 이상의 상기 차량의 색상 및 패턴 정보들을 저장하여 관리하는 디자인 관리부, 디자인 관리부에서 사용자의 입력에 따른 패턴 및 색상을 선택하고, 사용자 입력과 인터랙션 메시지를 표시하도록 상기 디스플레이 장치를 제어하는 디스플레이 제어부를 포함하여 차량의 외장을 개인화 하고, 다양하게 바꿀 수 있도록 하는데 그 목적이 있다.The present invention is an external display interaction device and method of an autonomous vehicle, a design management unit that stores and manages at least one color and pattern information of the vehicle, and selects a pattern and color according to a user's input from the design management unit, and An object of the present invention is to personalize the exterior of a vehicle, including a display control unit that controls the display device to display an interaction message, and to make various changes.

또한, 차량의 주변 환경을 기반으로 상기 차량의 주행 상황을 판단하고 감지된 보행자의 이동 상황을 예측하여, 상기 보행자에게 인터랙션 메시지를 제공하는 인터랙션 제어부를 포함하여 보행자와의 인터랙션으로 안전한 주행을 가능하게 하는데 또 다른 목적이 있다.In addition, it includes an interaction control unit that determines the driving situation of the vehicle based on the surrounding environment of the vehicle and predicts the detected movement situation of the pedestrian, and provides an interaction message to the pedestrian, enabling safe driving through interaction with the pedestrian. It has another purpose.

본 발명의 명시되지 않은 또 다른 목적들은 하기의 상세한 설명 및 그 효과로부터 용이하게 추론할 수 있는 범위 내에서 추가적으로 고려될 수 있다.Still other objects, not specified, of the present invention may be additionally considered within the range that can be easily deduced from the following detailed description and effects thereof.

상기 과제를 해결하기 위해, 자율주행 차량의 외장 디스플레이 인터랙션 장치에 있어서, 차량의 외부에 위치하며 사용자 입력을 시각적으로 표시하는 디스플레이 장치, 상기 차량의 색상 및 패턴 변경을 위한 상기 사용자 입력을 사용자 단말로부터 입력 받는 입력부, 적어도 하나 이상의 상기 차량의 색상 및 패턴 정보들을 저장하여 관리하는 디자인 관리부 상기 차량의 주변 환경을 기반으로 상기 차량의 주행 상황을 판단하고 감지된 보행자의 이동 상황을 예측하여, 상기 보행자에게 인터랙션 메시지를 제공하는 인터랙션 제어부 및 상기 입력부로부터 상기 사용자 입력을 전달 받아 상기 디자인 관리부에서 상기 사용자의 입력에 따른 패턴 및 색상을 선택하고, 상기 사용자 입력과 상기 인터랙션 메시지를 표시하도록 상기 디스플레이 장치를 제어하는 디스플레이 제어부를 포함한다.In order to solve the above problem, in an external display interaction device of an autonomous vehicle, a display device that is located outside the vehicle and visually displays a user input, and the user input for changing the color and pattern of the vehicle from a user terminal An input receiving unit, a design management unit that stores and manages at least one color and pattern information of the vehicle, determines the driving situation of the vehicle based on the surrounding environment of the vehicle, and predicts the detected movement situation of the pedestrian, An interaction control unit providing an interaction message and receiving the user input from the input unit, selecting a pattern and color according to the user's input in the design management unit, and controlling the display device to display the user input and the interaction message It includes a display control unit.

또한, 상기 차량의 전방 또는 후방에 위치하여 상기 차량의 주변 환경을 감지하는 센서부를 더 포함하며, 상기 인터랙션 제어부는, 상기 센서부로부터 감지된 물체 및 상기 차량의 주변 환경을 기반으로 도로, 인프라 및 이동 물체 정보를 인지하는 환경 인지부, 상기 환경 인지부에서 인지된 상기 도로, 인프라 및 이동 물체 정보에 따라 상기 차량의 주행 상황을 판단하고 감지된 보행자의 이동 상황을 예측하는 이동 판단부 및 상기 이동 판단부의 판단에 따라 상기 디스플레이 장치에 표시하고자 하는 인터랙션 메시지를 생성하는 인터랙션 메시지 생성부를 포함한다.In addition, it further comprises a sensor unit located in the front or rear of the vehicle to detect the surrounding environment of the vehicle, the interaction control unit, based on the object detected by the sensor unit and the surrounding environment of the vehicle, An environment recognition unit that recognizes moving object information, a movement determination unit that determines the driving situation of the vehicle according to the road, infrastructure, and moving object information recognized by the environment recognition unit and predicts the detected movement situation of a pedestrian, and the movement And an interaction message generator that generates an interaction message to be displayed on the display device according to the determination of the determination unit.

여기서, 상기 디스플레이 장치는, 상기 차량의 외장을 둘러싸는 스킨 형태로 마련되며, 상기 디스플레이 제어부는, 상기 차량 주변의 보행자의 위치에 따라 좌측 디스플레이, 우측 디스플레이, 전면 디스플레이 및 후면 디스플레이 중 상기 보행자와 근접한 위치의 디스플레이를 선택하여, 상기 인터랙션 메시지 생성부에서 생성된 인터랙션 메시지를 표시할 위치를 선택하며, 상기 보행자의 이동 시, 상기 보행자의 이동 경로에 맞게 상기 디스플레이 장치에서 상기 인터랙션 메시지를 이동시켜 내용을 표시한다.Here, the display device is provided in the form of a skin surrounding the exterior of the vehicle, and the display control unit is adjacent to the pedestrian among the left display, the right display, the front display, and the rear display according to the position of the pedestrian around the vehicle. By selecting a display of the location, a location to display the interaction message generated by the interaction message generator is selected, and when the pedestrian moves, the display device moves the interaction message according to the pedestrian's moving path to display the contents. Indicate.

여기서, 상기 환경 인지부는, 상기 보행자와 상기 차량의 사이의 거리를 인지하며, 상기 디스플레이 제어부는, 상기 보행자와 상기 차량의 사이의 거리에 따라 상기 디스플레이 장치에서 표시되는 인터랙션 메시지의 크기를 변화시킨다.Here, the environment recognition unit recognizes a distance between the pedestrian and the vehicle, and the display controller changes the size of the interaction message displayed on the display device according to the distance between the pedestrian and the vehicle.

본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치는, 환경 인지부가 차량 주변의 정보를 인식하는 단계, 이동 판단부가 상기 환경 인지부에서 인지된 상기 도로, 인프라 및 이동 물체 정보에 따라 상기 차량의 주행 상황을 판단하고 감지된 보행자의 이동 상황을 예측하는 단계, 인터랙션 메시지 생성부가 서버에 등록된 메시지들을 확인하고, 예측된 상기 보행자의 이동 상황에 맞게 인터랙션 메시지를 생성하는 단계 및 디스플레이 제어부가 상기 인터랙션 메시지를 표시할 상기 디스플레이 장치에서 표시할 위치에 해당하는 디스플레이를 선택하고, 상기 보행자의 이동 경로에 맞게 인터랙션 메시지를 이동시키는 단계를 포함한다.In the external display interaction device of an autonomous vehicle according to an embodiment of the present invention, an environment recognition unit recognizing information around the vehicle, and a movement determination unit according to the road, infrastructure, and moving object information recognized by the environment recognition unit. Determining the driving situation of the vehicle and predicting the detected movement of the pedestrian, the interaction message generating unit checking the messages registered in the server, generating an interaction message according to the predicted movement of the pedestrian, and a display control unit A step of selecting a display corresponding to a location to be displayed on the display device to display the interaction message, and moving the interaction message according to the movement path of the pedestrian.

이상에서 설명한 바와 같이 본 발명의 실시예들에 의하면, 적어도 하나 이상의 상기 차량의 색상 및 패턴 정보들을 저장하여 관리하는 디자인 관리부, 디자인 관리부에서 사용자의 입력에 따른 패턴 및 색상을 선택하고, 사용자 입력과 인터랙션 메시지를 표시하도록 상기 디스플레이 장치를 제어하는 디스플레이 제어부를 포함하여 차량의 외장을 개인화 하고, 다양하게 바꿀 수 있다.As described above, according to embodiments of the present invention, a design management unit that stores and manages at least one color and pattern information of the vehicle, a design management unit selects a pattern and color according to a user's input, The exterior of the vehicle may be personalized and variously changed, including a display controller that controls the display device to display an interaction message.

또한, 차량의 주변 환경을 기반으로 상기 차량의 주행 상황을 판단하고 감지된 보행자의 이동 상황을 예측하여, 상기 보행자에게 인터랙션 메시지를 제공하는 인터랙션 제어부를 포함하여 보행자와의 인터랙션으로 안전한 주행을 가능하게 할 수 있다.In addition, it includes an interaction control unit that determines the driving situation of the vehicle based on the surrounding environment of the vehicle and predicts the detected movement situation of the pedestrian, and provides an interaction message to the pedestrian, enabling safe driving through interaction with the pedestrian. can do.

여기에서 명시적으로 언급되지 않은 효과라 하더라도, 본 발명의 기술적 특징에 의해 기대되는 이하의 명세서에서 기재된 효과 및 그 잠정적인 효과는 본 발명의 명세서에 기재된 것과 같이 취급된다.Even if it is an effect not explicitly mentioned herein, the effect described in the following specification expected by the technical features of the present invention and the provisional effect thereof are treated as described in the specification of the present invention.

도 1은 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치를 나타낸 블록도이다.
도 2는 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 디자인 관리부를 나타낸 블록도이다.
도 3은 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 인터랙션 제어부를 나타낸 블록도이다.
도 4는 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 구성을 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 센서부의 구성을 나타낸 도면이다.
도 6은 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 인터랙션 제어부의 프로세스를 나타낸 도면이다.
도 7은 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 인터랙션 메시지를 각 상황별로 나타낸 도면이다.
도 8은 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 인터랙션 메시지의 특징을 나타낸 도면이다.
도 9 내지 도 12는 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 방법을 나타낸 흐름도이다.
도 13은 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 외장 디스플레이를 각 상황별로 나타낸 도면이다.
1 is a block diagram showing an external display interaction device for an autonomous vehicle according to an embodiment of the present invention.
2 is a block diagram illustrating a design management unit of an external display interaction device for an autonomous vehicle according to an embodiment of the present invention.
3 is a block diagram showing an interaction control unit of an external display interaction device for an autonomous vehicle according to an embodiment of the present invention.
4 is a diagram showing the configuration of an external display interaction device for an autonomous vehicle according to an embodiment of the present invention.
5 is a diagram showing a configuration of a sensor unit of an external display interaction device of an autonomous vehicle according to an embodiment of the present invention.
6 is a diagram illustrating a process of an interaction control unit of an external display interaction device of an autonomous vehicle according to an embodiment of the present invention.
7 is a diagram showing an interaction message of an external display interaction device of an autonomous vehicle according to an embodiment of the present invention for each situation.
8 is a diagram showing characteristics of an interaction message of an external display interaction device of an autonomous vehicle according to an embodiment of the present invention.
9 to 12 are flowcharts illustrating an external display interaction method of an autonomous vehicle according to an embodiment of the present invention.
13 is a diagram illustrating an external display of an external display interaction device of an autonomous vehicle according to an embodiment of the present invention for each situation.

이하, 본 발명에 관련된 자율주행 차량의 외장 디스플레이 인터랙션 장치 및 방법에 대하여 도면을 참조하여 보다 상세하게 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 설명하는 실시예에 한정되는 것이 아니다. 그리고, 본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 생략되며, 도면의 동일한 참조부호는 동일한 부재임을 나타낸다.Hereinafter, an external display interaction apparatus and method for an autonomous vehicle according to the present invention will be described in more detail with reference to the drawings. However, the present invention may be implemented in various different forms, and is not limited to the described embodiments. In addition, in order to clearly describe the present invention, parts irrelevant to the description are omitted, and the same reference numerals in the drawings indicate the same members.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. When a component is referred to as being "connected" or "connected" to another component, it is understood that it may be directly connected or connected to the other component, but other components may exist in the middle. Should be.

이하의 설명에서 사용되는 구성요소에 대한 접미사 “모듈” 및 “부”는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.The suffixes “module” and “unit” for components used in the following description are given or used interchangeably in consideration of only the ease of preparation of the specification, and do not have distinct meanings or roles by themselves.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms such as first and second may be used to describe various components, but the components should not be limited by terms. These terms are used only for the purpose of distinguishing one component from another component.

본 발명은 자율주행 차량의 외장 디스플레이 인터랙션 장치 및 방법에 관한 것이다.The present invention relates to an external display interaction apparatus and method for an autonomous vehicle.

도 1은 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치를 나타낸 블록도이다.1 is a block diagram showing an external display interaction device for an autonomous vehicle according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치(10)는 입력부(100), 디자인 관리부(200), 인터랙션 제어부(300), 센서부(400), 디스플레이 제어부(500), 디스플레이 장치(600)를 포함한다.Referring to FIG. 1, the external display interaction device 10 of an autonomous vehicle according to an embodiment of the present invention includes an input unit 100, a design management unit 200, an interaction control unit 300, a sensor unit 400, and a display. The controller 500 and the display device 600 are included.

본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치(10)는 자동차 또는 자율 주행 자동차 외장에 특수한 형태(Stretchable Display, LED, Flexible Display 등)의 디스플레이 또는 LED가 적용되어 차량의 외장을 사용자가 원하는 대로 커스터마이징(customizing)을 할 수 있도록 하며, 보행자와의 인터랙션으로 안전한 주행을 가능하게 하는 장치이다.The external display interaction device 10 of an autonomous vehicle according to an embodiment of the present invention is a display or LED of a special form (Stretchable Display, LED, Flexible Display, etc.) applied to the exterior of a vehicle or autonomous vehicle to protect the exterior of the vehicle. It is a device that allows the user to customize as desired, and enables safe driving through interaction with pedestrians.

사용자 단말(20)에 어플리케이션이 설치될 수 있으며, 설치된 어플리케이션 또는 클라우드 서버(30)를 통해 사용자 단말(20)과 외장 디스플레이 인터랙션 장치(10)간의 사용자 인터페이스가 형성될 수 있다.An application may be installed on the user terminal 20, and a user interface between the user terminal 20 and the external display interaction device 10 may be formed through the installed application or the cloud server 30.

또한, 도 1에서 화살표는 유/무선 네트워크를 통해 데이터가 송수신될 수 있음을 의미할 수 있다.In addition, arrows in FIG. 1 may mean that data can be transmitted/received through wired/wireless networks.

디스플레이 장치(600)는 차량의 외부에 위치하며 사용자 입력을 시각적으로 표시한다. 디스플레이 장치는, 상기 차량의 외장을 둘러싸는 스킨 형태로 마련되는 것이 바람직하다. 차량의 외장을 둘러싸는 스킨 형태는, 차량의 외부에서 어느 측면을 바라보아도 디스플레이에 표시되는 메시지를 확인할 수 있으며, 차량 전체를 커스터마이징 하도록 구현할 수 있다.The display device 600 is located outside the vehicle and visually displays a user input. The display device is preferably provided in the form of a skin surrounding the exterior of the vehicle. In the form of a skin surrounding the exterior of the vehicle, a message displayed on the display can be checked even when looking at any side of the vehicle, and the entire vehicle can be customized.

입력부(100)는 상기 차량의 색상 및 패턴 변경을 위한 상기 사용자 입력을 사용자 단말로부터 입력 받는다.The input unit 100 receives the user input for changing the color and pattern of the vehicle from a user terminal.

디자인 관리부(200)는 적어도 하나 이상의 상기 차량의 색상 및 패턴 정보들을 저장하여 관리한다.The design management unit 200 stores and manages at least one color and pattern information of the vehicle.

디자인 관리부(200)를 이용하여 자율 주행 자동차 외장 스킨을 사용자가 원하는대로 바꿀 수 있으며, 외장 디스플레이의 화면을 활용하여 다양한 콘텐츠를 사용할 수 있다.By using the design management unit 200, the exterior skin of the autonomous vehicle can be changed as desired by the user, and various contents can be used by using the screen of the external display.

인터랙션 제어부(300)는 상기 차량의 주변 환경을 기반으로 상기 차량의 주행 상황을 판단하고 감지된 보행자의 이동 상황을 예측하여, 상기 보행자에게 인터랙션 메시지를 제공한다.The interaction controller 300 determines the driving situation of the vehicle based on the surrounding environment of the vehicle, predicts the detected movement situation of the pedestrian, and provides an interaction message to the pedestrian.

인터랙션 제어부(300)는 자율주행자동차 외장 디스플레이를 활용하여 V2P 인터랙션을 구현한다. 여기서, V2P(Vehicle to Pedestrian communication)는 차량, 보행자 통신을 의미한다. 즉, 보행자나 자전거 탑승자가 소지한 이동 단말 기기 사이의 무선 통신을 의미한다. 예를 들어, 차량이 길을 건너는 보행자의 스마트폰을 인지해 운전자에게 보행자 접근 경보를 보내 사고를 예방할 수 있다. V2P는 차량 간 통신(V2V: Vehicle to Vehicle), 차량과 인프라 간 통신(V2I: Vehicle to Infrastructure)와 함께 차량, 사물 통신(V2X: Vehicle to Everything)의 주요 기술이며 지능형 교통 서비스를 구현할 수 있다.The interaction control unit 300 implements a V2P interaction using an external display of an autonomous vehicle. Here, V2P (Vehicle to Pedestrian communication) means vehicle and pedestrian communication. That is, it means wireless communication between mobile terminal devices possessed by a pedestrian or a cyclist. For example, a vehicle can recognize the smartphone of a pedestrian crossing the street and send a pedestrian approach warning to the driver to prevent an accident. V2P is a major technology for vehicle and thing communication (V2X: Vehicle to Everything), along with vehicle-to-vehicle communication (V2V) and vehicle-to-infrastructure communication (V2I), and can implement intelligent transportation services.

센서부(400)는 상기 차량의 전방 또는 후방에 위치하여 상기 차량의 주변 환경을 감지한다.The sensor unit 400 is located in the front or rear of the vehicle to detect the surrounding environment of the vehicle.

디스플레이 제어부(500)는 상기 입력부로부터 상기 사용자 입력을 전달 받아 상기 디자인 관리부에서 상기 사용자의 입력에 따른 패턴 및 색상을 선택하고, 상기 사용자 입력과 상기 인터랙션 메시지를 표시하도록 상기 디스플레이 장치를 제어한다.The display controller 500 receives the user input from the input unit, selects a pattern and color according to the user input from the design management unit, and controls the display device to display the user input and the interaction message.

디스플레이 제어부(500)는, 상기 차량 주변의 보행자의 위치에 따라 좌측 디스플레이, 우측 디스플레이, 전면 디스플레이 및 후면 디스플레이 중 상기 보행자와 근접한 위치의 디스플레이를 선택하여, 상기 인터랙션 메시지 생성부에서 생성된 인터랙션 메시지를 표시할 위치를 선택하며, 상기 보행자의 이동 시, 상기 보행자의 이동 경로에 맞게 상기 디스플레이 장치에서 상기 인터랙션 메시지를 이동시켜 내용을 표시한다.The display control unit 500 selects a display located close to the pedestrian among the left display, the right display, the front display, and the rear display according to the position of the pedestrian around the vehicle, and generates an interaction message generated by the interaction message generator. A location to be displayed is selected, and when the pedestrian moves, the display device displays the contents by moving the interaction message according to the pedestrian's moving path.

도 2는 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 디자인 관리부를 나타낸 블록도이다.2 is a block diagram illustrating a design management unit of an external display interaction device for an autonomous vehicle according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치(10)의 디자인 관리부(200)는 스타일 관리부(210), 패턴 관리부(220), 사진 관리부(230), 스킨 옵션 생성부(240)를 포함한다.Referring to FIG. 2, the design management unit 200 of the external display interaction device 10 of an autonomous vehicle according to an embodiment of the present invention includes a style management unit 210, a pattern management unit 220, a photo management unit 230, It includes a skin option generator 240.

디자인 관리부(200)는 적어도 하나 이상의 상기 차량의 색상 및 패턴 정보들을 저장하여 관리한다.The design management unit 200 stores and manages at least one color and pattern information of the vehicle.

디자인 관리부(200)를 이용하여 자율 주행 자동차 외장 스킨을 사용자가 원하는대로 바꿀 수 있으며, 외장 디스플레이의 화면을 활용하여 다양한 콘텐츠를 사용할 수 있다.By using the design management unit 200, the exterior skin of the autonomous vehicle can be changed as desired by the user, and various contents can be used by using the screen of the external display.

스타일 관리부(210)는 차량 외장 디스플레이가 스타일 외장 스킨을 구현하도록 사용자 단말(20)을 이용하여 클라우드 서버(30)에 접속하여 색상을 관리한다.The style management unit 210 manages colors by accessing the cloud server 30 using the user terminal 20 so that the vehicle exterior display implements a style exterior skin.

여기서 사용자 단말(20)은 스마트 워치 또는 스마트 폰을 포함한다. 구체적으로, 입력부가 스마트워치 또는 스마트폰을 인식하면, 스마트워치 또는 스마트폰을 이용하여 클라우드 서버에 접속하고, 사용자는 착용하고 있거나 휴대하고 있는 사용자 단말로 사용자를 촬영하면, 스타일 관리부(210)는 촬영된 옷에서 색상을 추출한다. 여기서, 카메라는 자동 인식 기능을 수행하며 스마트워치 또는 스마트폰을 이용하여 클라우드에 접속하면, 차량 외부에 부착되어 있는 카메라가 사용자를 촬영하고, 스타일 관리부(210)가 촬영된 이미지에서 사용자의 옷 색상들을 추출하게 된다.Here, the user terminal 20 includes a smart watch or a smart phone. Specifically, when the input unit recognizes a smart watch or smartphone, the smart watch or smartphone is used to access the cloud server, and when the user photographs the user with a user terminal wearing or carrying, the style management unit 210 Color is extracted from the photographed clothes. Here, the camera performs an automatic recognition function, and when accessing the cloud using a smart watch or smartphone, the camera attached to the outside of the vehicle photographs the user, and the style management unit 210 captures the color of the user's clothes in the captured image. Will extract them.

스킨 옵션 생성부(240)는 추출된 색상들로 여러 개의 스킨 옵션을 만들어 사용자 단말(20)에 제공하면 사용자는 사용자 단말(20)에 표시된 스킨 옵션을 선택하고, 디스플레이 제어부(500)는 외장 디스플레이 장치(600)가 선택된 스킨 색상으로 차량의 외관이 변화하도록 제어한다.When the skin option generator 240 creates several skin options with the extracted colors and provides them to the user terminal 20, the user selects a skin option displayed on the user terminal 20, and the display controller 500 is an external display. The device 600 controls the vehicle appearance to change with the selected skin color.

패턴 관리부(220)는 차량 외장 디스플레이가 패턴 외장 스킨을 구현하도록 사용자 단말(20)을 이용하여 클라우드 서버(30)에 접속하여 서버 또는 디자인 관리부의 데이터 베이스(201)에 패턴과 스킨을 저장하여 관리하며, 스킨 옵션 생성부(240)는 저장되어 있는 패턴, 스킨들을 사용자 단말(20)에 제공하면 사용자는 사용자 단말(20)에 표시된 스킨 옵션을 선택하고, 디스플레이 제어부(500)는 외장 디스플레이 장치(600)가 선택된 패턴, 스킨으로 차량의 외관이 변화하도록 제어한다.The pattern management unit 220 connects to the cloud server 30 using the user terminal 20 so that the vehicle exterior display implements the pattern exterior skin, and stores and manages the pattern and skin in the server or the database 201 of the design management unit. And, when the skin option generation unit 240 provides the stored patterns and skins to the user terminal 20, the user selects a skin option displayed on the user terminal 20, and the display control unit 500 performs an external display device ( 600) is controlled to change the appearance of the vehicle with the selected pattern and skin.

사진 관리부(230)는 차량 외장 디스플레이가 사진 외장 스킨을 구현하도록 사용자 단말(20)을 이용하여 클라우드 서버(30)에 접속하여 원하는 배경을 촬영하거나 사진첩에 저장되어 있는 사진을 저장하여 관리한다. 스킨 옵션 생성부(240)는 촬영된 배경, 또는 사진첩에 저장되어 있는 사진을 사용자 단말(20)에 제공하면 사용자는 사용자 단말(20)에 표시된 스킨 옵션을 선택하고, 디스플레이 제어부(500)는 외장 디스플레이 장치(600)가 선택된 이미지로 차량의 외관이 변화하도록 제어한다.The photo management unit 230 connects to the cloud server 30 using the user terminal 20 so that the vehicle exterior display implements a photo exterior skin to take a desired background or store and manage a photo stored in a photo album. When the skin option generation unit 240 provides the photographed background or a picture stored in the photo book to the user terminal 20, the user selects a skin option displayed on the user terminal 20, and the display control unit 500 is external The display device 600 controls the vehicle appearance to change with the selected image.

스킨 옵션 생성부(240)는 외장에 표시하고자 하는 스킨 옵션들을 생성하고, 생성된 스킨 옵션을 사용자 단말(20)에 제공하면 사용자는 사용자 단말(20)에 표시된 스킨 옵션을 선택하고, 디스플레이 제어부(500)는 외장 디스플레이 장치(600)가 선택된 옵션으로 차량의 외관이 변화하도록 제어한다.The skin option generation unit 240 generates skin options to be displayed on the exterior, and provides the generated skin options to the user terminal 20, the user selects the skin options displayed on the user terminal 20, and the display control unit ( 500) controls the external display device 600 to change the appearance of the vehicle as a selected option.

도 3은 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 인터랙션 제어부를 나타낸 블록도이다.3 is a block diagram showing an interaction control unit of an external display interaction device for an autonomous vehicle according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치(10)의 인터랙션 제어부(300)는 환경 인지부(310), 이동 판단부(320), 인터랙션 메시지 생성부(330)를 포함한다.Referring to FIG. 3, the interaction control unit 300 of the external display interaction device 10 of an autonomous vehicle according to an embodiment of the present invention includes an environment recognition unit 310, a movement determination unit 320, and an interaction message generation unit. Includes 330.

인터랙션 제어부(300)는 상기 차량의 주변 환경을 기반으로 상기 차량의 주행 상황을 판단하고 감지된 보행자의 이동 상황을 예측하여, 상기 보행자에게 인터랙션 메시지를 제공한다.The interaction controller 300 determines the driving situation of the vehicle based on the surrounding environment of the vehicle, predicts the detected movement situation of the pedestrian, and provides an interaction message to the pedestrian.

환경 인지부(310)는 상기 센서부로부터 감지된 물체 및 상기 차량의 주변 환경을 기반으로 도로, 인프라 및 이동 물체 정보를 인지한다.The environment recognition unit 310 recognizes road, infrastructure, and moving object information based on the object sensed by the sensor unit and the surrounding environment of the vehicle.

이동 판단부(320)는 상기 환경 인지부에서 인지된 상기 도로, 인프라 및 이동 물체 정보에 따라 상기 차량의 주행 상황을 판단하고 감지된 보행자의 이동 상황을 예측한다.The movement determination unit 320 determines the driving situation of the vehicle according to the road, infrastructure, and moving object information recognized by the environment recognition unit and predicts the detected movement situation of the pedestrian.

인터랙션 메시지 생성부(330)는 상기 이동 판단부의 판단에 따라 상기 디스플레이 장치에 표시하고자 하는 인터랙션 메시지를 생성한다.The interaction message generation unit 330 generates an interaction message to be displayed on the display device according to the determination of the movement determination unit.

도 4는 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 구성을 나타낸 도면이다.4 is a diagram showing the configuration of an external display interaction device for an autonomous vehicle according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치는 차량의 외장 커스터마이징 구현을 위한 스타일 관리부, 패턴 관리부, 사진 관리부 및 차량의 인터랙션 메시지 표출을 위한 인터랙션 제어부(V2P)를 포함하여 구성된다.Referring to FIG. 4, the external display interaction device of an autonomous vehicle according to an embodiment of the present invention includes a style management unit, a pattern management unit, a photo management unit, and an interaction control unit (V2P) for expressing vehicle interaction messages. ).

스타일 관리부(210)는 차량 외장 디스플레이가 스타일 외장 스킨을 구현하도록 사용자 단말(20)을 이용하여 클라우드 서버(30)에 접속하여 색상을 관리한다.The style management unit 210 manages colors by accessing the cloud server 30 using the user terminal 20 so that the vehicle exterior display implements a style exterior skin.

여기서 사용자 단말(20)은 스마트 워치 또는 스마트 폰을 포함한다. 구체적으로, 입력부가 스마트워치 또는 스마트폰을 인식하면, 스마트워치 또는 스마트폰을 이용하여 클라우드 서버에 접속하고, 자동 색상 추출부(211)가 사용자의 스타일에서 자동으로 색상을 추출하거나, 사용자는 착용하고 있거나 휴대하고 있는 사용자 단말로 사용자를 촬영하면, 스타일 관리부(210)는 카메라 촬영부(212)에서 촬영된 옷에서 색상 추출부(213)를 이용하여 색상을 추출한다.Here, the user terminal 20 includes a smart watch or a smart phone. Specifically, when the input unit recognizes a smart watch or smartphone, the smart watch or smartphone is used to access the cloud server, and the automatic color extraction unit 211 automatically extracts colors from the user's style, or the user wears it. When a user is photographed with a user terminal being carried or carried, the style management unit 210 extracts a color from the clothes photographed by the camera photographing unit 212 using the color extraction unit 213.

여기서, 카메라는 자동 인식 기능을 수행하며 스마트워치 또는 스마트폰을 이용하여 클라우드에 접속하면, 차량 외부에 부착되어 있는 카메라가 사용자를 촬영하고, 스타일 관리부(210)가 촬영된 이미지에서 사용자의 옷 색상들을 추출하게 된다.Here, the camera performs an automatic recognition function, and when accessing the cloud using a smart watch or smartphone, the camera attached to the outside of the vehicle photographs the user, and the style management unit 210 captures the color of the user's clothes in the captured image. Will extract them.

스킨 옵션 생성부(240)는 추출된 색상들로 여러 개의 스킨 옵션을 만들어 사용자 단말(20)에 제공하면 사용자는 사용자 단말(20)에 표시된 스킨 옵션을 선택하고, 디스플레이 제어부(500)는 외장 디스플레이 장치(600)가 선택된 스킨 색상으로 차량의 외관이 변화하도록 제어한다.When the skin option generator 240 creates several skin options with the extracted colors and provides them to the user terminal 20, the user selects a skin option displayed on the user terminal 20, and the display controller 500 is an external display. The device 600 controls the vehicle appearance to change with the selected skin color.

패턴 관리부(220)는 차량 외장 디스플레이가 패턴 외장 스킨을 구현하도록 사용자 단말(20)을 이용하여 클라우드 서버(30)에 접속하여 서버 또는 디자인 관리부의 데이터 베이스(201)에 패턴과 스킨을 저장하여 관리하며, 스킨 옵션 생성부(240)는 패턴 선택부(221)를 통해 저장되어 있는 패턴, 스킨들을 선택하여 사용자 단말(20)에 제공하면 사용자는 사용자 단말(20)에 표시된 스킨 옵션을 선택하고, 디스플레이 제어부(500)는 외장 디스플레이 장치(600)가 선택된 패턴, 스킨으로 차량의 외관이 변화하도록 제어한다.The pattern management unit 220 connects to the cloud server 30 using the user terminal 20 so that the vehicle exterior display implements the pattern exterior skin, and stores and manages the pattern and skin in the server or the database 201 of the design management unit. The skin option generation unit 240 selects patterns and skins stored through the pattern selection unit 221 and provides them to the user terminal 20, the user selects a skin option displayed on the user terminal 20, and The display controller 500 controls the external display device 600 to change the appearance of the vehicle with the selected pattern and skin.

사진 관리부(230)는 차량 외장 디스플레이가 사진 외장 스킨을 구현하도록 사용자 단말(20)을 이용하여 클라우드 서버(30)에 접속하고 사진 촬영부(232)를 통해 원하는 배경을 촬영하거나 사진첩에 저장되어 있는 사진을 저장하여 관리한다. 스킨 옵션 생성부(240)는 앨범 사진 선택부(231)를 통해 촬영된 배경, 또는 사진첩에 저장되어 있는 사진을 선택하여 사용자 단말(20)에 제공하면 사용자는 사용자 단말(20)에 표시된 스킨 옵션을 선택하고, 디스플레이 제어부(500)는 외장 디스플레이 장치(600)가 선택된 이미지로 차량의 외관이 변화하도록 제어한다.The photo management unit 230 connects to the cloud server 30 using the user terminal 20 so that the vehicle exterior display implements a photo exterior skin, and takes a desired background through the photo shoot unit 232 or is stored in a photo album. Save and manage photos. When the skin option generation unit 240 selects a background taken through the album photo selection unit 231 or a photo stored in the photo book and provides it to the user terminal 20, the user can use the skin option displayed on the user terminal 20. Then, the display controller 500 controls the external display device 600 to change the appearance of the vehicle with the selected image.

스킨 옵션 생성부(240)는 외장에 표시하고자 하는 스킨 옵션들을 생성하고, 생성된 스킨 옵션을 사용자 단말(20)에 제공하면 사용자는 사용자 단말(20)에 표시된 스킨 옵션을 선택하고, 디스플레이 제어부(500)는 외장 디스플레이 장치(600)가 선택된 옵션으로 차량의 외관이 변화하도록 제어한다.The skin option generation unit 240 generates skin options to be displayed on the exterior, and provides the generated skin options to the user terminal 20, the user selects the skin options displayed on the user terminal 20, and the display control unit ( 500) controls the external display device 600 to change the appearance of the vehicle as a selected option.

인터랙션 제어부(300)는 상기 차량의 주변 환경을 기반으로 상기 차량의 주행 상황을 판단하고 감지된 보행자의 이동 상황을 예측하여, 상기 보행자에게 인터랙션 메시지를 제공한다.The interaction controller 300 determines the driving situation of the vehicle based on the surrounding environment of the vehicle, predicts the detected movement situation of the pedestrian, and provides an interaction message to the pedestrian.

인터랙션 제어부(300)는 차량 외장 디스플레이가 인터랙션 메시지를 표출하도록 사용자 단말(20)을 이용하여 클라우드 서버(30)에 접속하고 상황에 맞게 사용자가 원하는 메시지를 작성하여 인터랙션 제어(V2P) 리스트(301)를 저장하여 관리한다. The interaction control unit 300 connects to the cloud server 30 using the user terminal 20 so that the vehicle exterior display displays the interaction message, and creates a message that the user wants according to the situation to control the interaction (V2P) list 301 Save and manage.

환경 인지부(310)의 상황 인지부(311)가 차량의 주변 환경을 기반으로 도로, 인프라 및 이동 물체 정보를 기반으로 상황을 인지하면, 인터랙션 메시지 생성부(330)의 메시지 작성부(331)는 인터랙션 제어(V2P) 리스트를 기반으로 메시지를 조합하여 디스플레이 장치에 표시하고자 하는 인터랙션 메시지를 생성하여 상황에 맞게 자동으로 메시지를 표시(횡단보도, 중행 중 등)한다. 또한 사용자가 사용자 단말(20)을 이용하여 직접 메시지를 선택하여 표시할 수도 있다.When the situation recognition unit 311 of the environment recognition unit 310 recognizes the situation based on road, infrastructure, and moving object information based on the surrounding environment of the vehicle, the message creation unit 331 of the interaction message generation unit 330 Generates an interaction message to be displayed on the display device by combining the messages based on the interaction control (V2P) list, and automatically displays the message (crosswalk, in transit, etc.) according to the situation. In addition, the user may directly select and display a message using the user terminal 20.

도 5는 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 센서부의 구성을 나타낸 도면이다.5 is a diagram showing a configuration of a sensor unit of an external display interaction device of an autonomous vehicle according to an embodiment of the present invention.

도 5를 참조하면, 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 센서부(400)는 전방 레이더(401a, 401b), 카메라(402), 360도 라이다(403), 후방 레이더(404a, 404b)를 포함한다.5, the sensor unit 400 of the external display interaction device of an autonomous vehicle according to an embodiment of the present invention includes front radars 401a and 401b, a camera 402, a 360 degree radar 403, It includes rear radars 404a, 404b.

외장 디스플레이(600)는 차량의 전체를 둘러싸는 스킨형태로 구현된다.The external display 600 is implemented in the form of a skin surrounding the entire vehicle.

전방 레이더(401a, 401b)는 차량 전방에 물체의 거리나 속도, 각도를 측정하기 위해 전자기파를 사용하는 감지 센서이다.The front radars 401a and 401b are detection sensors that use electromagnetic waves to measure the distance, speed, and angle of an object in front of the vehicle.

카메라(402)는 차선이나, 보행자 등을 영상으로 수집하여 분석 후 감지하는 센서이다.The camera 402 is a sensor that collects a lane or a pedestrian as an image, analyzes it, and detects it.

360도 라이다(403)는 차량 주위 360도를 빛을 이용해 측정하며, 사각지대까지 측정이 가능하여 정밀한 측정을 구현한다.The 360 degree lidar 403 measures 360 degrees around the vehicle using light, and it can measure even the blind spot, thereby realizing precise measurement.

후방 레이더(404a, 404b)는 차량 후방에 물체의 거리나 속도, 각도를 측정하기 위해 전자기파를 사용하는 감지 센서이다.The rear radars 404a and 404b are detection sensors that use electromagnetic waves to measure the distance, speed, and angle of an object behind the vehicle.

외장 디스플레이(600)는 디스플레이 제어부를 통해 센서들로부터 데이터를 처리한 후 보행자에게 메시지 표시한다.The external display 600 processes data from sensors through a display controller and then displays a message to a pedestrian.

도 6은 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 인터랙션 제어부의 프로세스를 나타낸 도면이다.6 is a diagram illustrating a process of an interaction control unit of an external display interaction device of an autonomous vehicle according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 인터랙션 제어부는 인지, 판단, 실행 세 단계의 프로세스를 포함한다.Referring to FIG. 6, the interaction control unit of the external display interaction device of an autonomous vehicle according to an embodiment of the present invention includes a process of recognizing, determining, and executing three steps.

센서부(400)는 상기 차량의 전방 또는 후방에 위치하여 상기 차량의 주변 환경을 감지한다. 카메라, 라이더, 레이다를 이용하여 주행차량 주변 데이터를 수집하고 분석한다. 센서부(400)는 ADAS센서(Advanced Driver Assistance System)로 구현되는 것이 바람직하며, 차량의 주행 중 주변환경을 인지할 수 있는 센서를 이용하여 차량의 주행상황을 판단하고 차량의 거동을 결정할 수 있다.The sensor unit 400 is located in the front or rear of the vehicle to detect the surrounding environment of the vehicle. The camera, rider, and radar are used to collect and analyze data around the driving vehicle. The sensor unit 400 is preferably implemented as an ADAS sensor (Advanced Driver Assistance System), and may determine the driving situation of the vehicle and determine the behavior of the vehicle using a sensor capable of recognizing the surrounding environment while the vehicle is driving. .

또한, 센서부(400)와 함께 V2X(부가정보)를 수집하는 V2X(부가정보) 수집부(410)를 이용하여 차량간 통신, 인프라 통신으로 추가 적인 정보를 수집하고 분석한다. V2X는 차량을 중심으로 유무선망을 통해 정보를 제공하는 기술이다. V2X는 차량과 차량 사이의 무선 통신(V2V: Vehicle to Vehicle), 차량과 인프라 간 무선 통신(V2I: Vehicle to Infrastructure), 차량 내 유무선 네트워킹(IVN: In-Vehicle Networking), 차량과 이동 단말 간 통신(V2P: Vehicle to Pedestrian) 등을 총칭한다. V2X를 이용하여 차량과 도로의 정보 환경, 안정성, 편리성 등을 향상시킬 수 있다. In addition, by using the V2X (additional information) collection unit 410 that collects V2X (additional information) together with the sensor unit 400, additional information is collected and analyzed through inter-vehicle communication and infrastructure communication. V2X is a technology that provides information through wired and wireless networks centering on vehicles. V2X is a wireless communication between vehicle and vehicle (V2V: Vehicle to Vehicle), wireless communication between vehicle and infrastructure (V2I: Vehicle to Infrastructure), in-vehicle wired and wireless networking (IVN: In-Vehicle Networking), communication between vehicle and mobile terminal. (V2P: Vehicle to Pedestrian) is a generic term. V2X can be used to improve the information environment, stability, and convenience of vehicles and roads.

환경 인지부(310)는 도로 및 인프라 인식부(312)와 이동 물체 인식부(313)를 포함하며, 센서부와 V2X(부가정보) 수집부의 정보를 기반으로 감지된 물체 및 상기 차량의 주변 환경을 기반으로 도로, 인프라 및 이동 물체 정보를 인지한다.The environment recognition unit 310 includes a road and infrastructure recognition unit 312 and a moving object recognition unit 313, and an object detected based on information from a sensor unit and a V2X (additional information) collection unit and the surrounding environment of the vehicle. It recognizes information on roads, infrastructure, and moving objects.

도로 및 인프라 인식부(312)는 인도, 횡단보도, 터널, 고가도로 등을 인식한다.The road and infrastructure recognition unit 312 recognizes sidewalks, crosswalks, tunnels, and overpasses.

이동 물체 인식부(313)는 차량, 보행자, 동물 등을 인식한다.The moving object recognition unit 313 recognizes vehicles, pedestrians, and animals.

이동 판단부(320)는 상기 환경 인지부에서 인지된 상기 도로, 인프라 및 이동 물체 정보에 따라 상기 차량의 주행 상황을 판단하고 감지된 보행자의 이동 상황을 예측한다. 예를 들어, 추월, 좌/우회전, 정차, 보행자 이동 상황을 예측할 수 있다.The movement determination unit 320 determines the driving situation of the vehicle according to the road, infrastructure, and moving object information recognized by the environment recognition unit and predicts the detected movement situation of the pedestrian. For example, passing, left/right turn, stopping, and pedestrian movement can be predicted.

인터랙션 메시지 생성부(330)는 상기 이동 판단부의 판단에 따라 상기 디스플레이 장치에 표시하고자 하는 인터랙션 메시지를 생성한다.The interaction message generation unit 330 generates an interaction message to be displayed on the display device according to the determination of the movement determination unit.

생성한 인터랙션 메시지는 디스플레이 제어부(500)에서 보행자의 위치에 따라 차량 외장 디스플레이의 사용될 방향을 결정하며 V2P 문구를 설정할 수 있다. 구체적으로, 차량 주변의 보행자의 위치에 따라 좌측 디스플레이, 우측 디스플레이, 전면 디스플레이 및 후면 디스플레이 중 상기 보행자와 근접한 위치의 디스플레이를 선택하여, 상기 인터랙션 메시지 생성부에서 생성된 인터랙션 메시지를 표시할 위치를 선택하며, 상기 보행자의 이동 시, 상기 보행자의 이동 경로에 맞게 상기 디스플레이 장치에서 상기 인터랙션 메시지를 이동시켜 내용을 표시한다. 또한 보행자와의 거리와 속도에 따라 인터랙션 메시지의 크기를 조절할 수 있다.The generated interaction message determines the direction in which the vehicle exterior display is to be used in the display controller 500 according to the position of the pedestrian, and may set the V2P phrase. Specifically, according to the location of the pedestrian around the vehicle, a display located close to the pedestrian is selected among the left display, the right display, the front display, and the rear display, and a location to display the interaction message generated by the interaction message generator is selected. And, when the pedestrian moves, the display device displays the contents by moving the interaction message according to the pedestrian's moving path. In addition, the size of the interaction message can be adjusted according to the distance and speed of the pedestrian.

도 7은 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 인터랙션 메시지를 각 상황별로 나타낸 도면이다.7 is a diagram showing an interaction message of an external display interaction device of an autonomous vehicle according to an embodiment of the present invention for each situation.

본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 디스플레이 장치(600)는 차량의 외부에 위치하며 사용자 입력을 시각적으로 표시한다. 디스플레이 장치는, 상기 차량의 외장을 둘러싸는 스킨 형태로 마련되는 것이 바람직하다.The display device 600 of the external display interaction device of an autonomous vehicle according to an embodiment of the present invention is located outside the vehicle and visually displays a user input. The display device is preferably provided in the form of a skin surrounding the exterior of the vehicle.

디스플레이 제어부(500)는, 상기 차량 주변의 보행자의 위치에 따라 좌측 디스플레이(601), 우측 디스플레이(603), 전면 디스플레이(602) 및 후면 디스플레이(604) 중 상기 보행자와 근접한 위치의 디스플레이를 선택하여, 상기 인터랙션 메시지 생성부에서 생성된 인터랙션 메시지를 표시할 위치를 선택하며, 상기 보행자의 이동 시, 상기 보행자의 이동 경로에 맞게 상기 디스플레이 장치에서 상기 인터랙션 메시지를 이동시켜 내용을 표시한다.The display controller 500 selects a display located close to the pedestrian among the left display 601, the right display 603, the front display 602, and the rear display 604 according to the position of the pedestrian around the vehicle. , Selecting a location to display the interaction message generated by the interaction message generator, and when the pedestrian moves, the display device moves the interaction message according to the movement path of the pedestrian to display the content.

도 7의 (a)의 상황은 횡단보도가 있는 도로에서 횡단보도 신호등이 빨간색인 경우이며, 차량 우측에 위치한 보행자를 인식하여 차량 우측 디스플레이(603)에서 인터랙션 메시지가 표시된다. 이 상황에서는'건너지 마세요. 지나갑니다.'라는 내용의 메시지가 표출되는 것이 바람직하다.7A is a case in which the crosswalk traffic light is red on a road with a crosswalk, and an interaction message is displayed on the display 603 on the right side of the vehicle by recognizing a pedestrian located on the right side of the vehicle. In this situation,'don't cross. It is desirable to display a message that reads'passed by.'

도 7의 (b)의 상황은 횡단보도가 있는 도로에서 횡단보도 신호등이 빨간색인 경우이며, 무단횡단 하는 보행자를 인식하여 차량 전면 디스플레이(602)에서 인터랙션 메시지가 표시된다. 이 상황에서는'멈출게요. 뛰지 마세요'라는 내용의 메시지가 표출되는 것이 바람직하다.7(b) is a case where the crosswalk traffic light is red on a road with a crosswalk, and an interaction message is displayed on the vehicle front display 602 by recognizing a pedestrian crossing without permission. In this situation,'I will stop. It is desirable to display a message saying,'Do not run.'

도 7의 (c)의 상황은 횡단보도가 있는 도로에서 횡단보도 신호등이 초록색이지만 곧 바뀔 예정인 경우이며, 급하게 건너고 있는 보행자를 인식하여 차량 전면 디스플레이(602)에서 인터랙션 메시지가 표시된다. 이 상황에서는'건널 때까지 기다릴게요'라는 내용의 메시지가 표출되는 것이 바람직하다.The situation of FIG. 7C is a case in which the crosswalk traffic light is green on a road with a crosswalk, but is about to change, and an interaction message is displayed on the vehicle front display 602 by recognizing a pedestrian crossing in a hurry. In this situation, it is desirable to display a message saying'I will wait until I cross over'.

도 7의 (d)의 상황은 횡단보도가 없는 도로이며, 건널까 말까 하는 보행자 를 인식하여 차량 전면 디스플레이(602)에서 인터랙션 메시지가 표시된다. 이 상황에서는'건널 때까지 기다릴게요'라는 내용의 메시지가 표출되는 것이 바람직하다.7(d) is a road without a crosswalk, and an interaction message is displayed on the vehicle front display 602 by recognizing a pedestrian who is going to cross or not. In this situation, it is desirable to display a message saying'I will wait until I cross over'.

도 8은 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 인터랙션 메시지의 특징을 나타낸 도면이다.8 is a diagram showing characteristics of an interaction message of an external display interaction device of an autonomous vehicle according to an embodiment of the present invention.

환경 인지부(310)는 상기 센서부로부터 감지된 물체 및 상기 차량의 주변 환경을 기반으로 도로, 인프라 및 이동 물체 정보를 인지한다. 환경 인지부는, 상기 보행자와 상기 차량의 사이의 거리를 인지하며, 디스플레이 제어부(500)는, 상기 보행자와 상기 차량의 사이의 거리에 따라 상기 디스플레이 장치에서 표시되는 인터랙션 메시지의 크기를 변화시킨다.The environment recognition unit 310 recognizes road, infrastructure, and moving object information based on the object sensed by the sensor unit and the surrounding environment of the vehicle. The environment recognition unit recognizes the distance between the pedestrian and the vehicle, and the display control unit 500 changes the size of the interaction message displayed on the display device according to the distance between the pedestrian and the vehicle.

도 8을 참조하면, 30m에서 사인이 보이기 위해서는 글자 당 높이 약 15cm, 넓이 약 9cm로 보여져야 하기 때문에, 보행자(40)와 제1 차량의 거리가 D1(60~70m)인 경우 제1 인터랙션 메시지(611)의 너비(W1)가 250 내지 260cm이고, 보행자(40)와 제2 차량의 거리가 D2(30~40m)인 경우 제2 인터랙션 메시지(612)의 너비(W2)가 110 내지 120cm로 차량과 보행자 사이의 거리에 따라 인터랙션 메시지의 크기가 변화하는 것이 바람직하다. 또한, 디스플레이 장치의 넓이는 110cm 이상인 것이 바람직하다. Referring to FIG. 8, in order to see the sign at 30m, the first interaction message when the distance between the pedestrian 40 and the first vehicle is D1 (60-70m) is because it must be viewed as about 15cm in height and 9cm in width per letter. When the width (W1) of 611 is 250 to 260 cm, and the distance between the pedestrian 40 and the second vehicle is D2 (30 to 40 m), the width (W2) of the second interaction message 612 is 110 to 120 cm. It is desirable to change the size of the interaction message according to the distance between the vehicle and the pedestrian. In addition, it is preferable that the width of the display device is 110 cm or more.

또한, 빛 반사로 인해 인터랙션 메시지를 보행자가 볼 수 없는 상황을 방지하기 위해 대비가 가장 큰 흑색(Black)과 흰색(White) 사용하여 표시하는 것이 바람직하다.In addition, in order to prevent a situation in which pedestrians cannot see the interaction message due to light reflection, it is desirable to use black and white with the highest contrast.

도 9 내지 도 12는 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 방법을 나타낸 흐름도이다.9 to 12 are flowcharts illustrating an external display interaction method of an autonomous vehicle according to an embodiment of the present invention.

도 9를 참조하면, 단계 S110에서 환경 인지부가 차량 주변의 정보를 인식한다.Referring to FIG. 9, in step S110, the environment recognition unit recognizes information around the vehicle.

단계 S120에서 이동 판단부가 상기 환경 인지부에서 인지된 상기 도로, 인프라 및 이동 물체 정보에 따라 상기 차량의 주행 상황을 판단하고 감지된 보행자의 이동 상황을 예측한다.In step S120, the movement determination unit determines the driving situation of the vehicle according to the road, infrastructure, and moving object information recognized by the environment recognition unit, and predicts the detected movement situation of the pedestrian.

단계 S130에서 인터랙션 메시지 생성부가 서버에 등록된 메시지들을 확인하고, 예측된 상기 보행자의 이동 상황에 맞게 인터랙션 메시지를 생성한다.In step S130, the interaction message generator checks the messages registered in the server, and generates an interaction message according to the predicted movement situation of the pedestrian.

단계 S140에서 디스플레이 제어부가 상기 인터랙션 메시지를 표시할 상기 디스플레이 장치에서 표시할 위치에 해당하는 디스플레이를 선택하고, 단계 S150에서 상기 보행자의 이동 경로에 맞게 인터랙션 메시지를 이동시킨다.In step S140, the display controller selects a display corresponding to a position to be displayed on the display device to display the interaction message, and in step S150 moves the interaction message according to the movement path of the pedestrian.

도 10은 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 방법의 스타일 관리부(210)의 수행 단계를 나타낸 것이다.10 is a diagram illustrating a step of performing a style management unit 210 of an external display interaction method of an autonomous vehicle according to an embodiment of the present invention.

도 10을 참조하면, 단계 S210에서 차량에 탑재되어 있는 센서 또는 차키를 통해 사용자를 인식한다.Referring to FIG. 10, in step S210, a user is recognized through a sensor mounted on a vehicle or a vehicle key.

단계 S220에서 카메라를 통해 사용자를 영상으로 촬영하며, 단계 S230에서 촬영된 영상이 어두울 경우 조명을 보정할 수 있다.In step S220, the user is photographed as an image through the camera, and when the image captured in step S230 is dark, the lighting may be corrected.

단계 S240에서 촬영된 영상에서 색(RGB) 데이터 추출하고, 단계 S250에서 추출된 색 데이터에 기초하여 사용자에게 색을 제안한다.Color (RGB) data is extracted from the image captured in step S240, and a color is suggested to the user based on the color data extracted in step S250.

단계 S260에서 사용자가 선택한 색상으로 외장을 exterior 적용하도록 데이터 처리한다.In step S260, the data is processed so that the exterior is applied with the color selected by the user.

도 11은 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 방법의 패턴 관리부(220)의 수행 단계를 나타낸 것이다.11 is a diagram illustrating a step of performing a pattern management unit 220 of an external display interaction method of an autonomous vehicle according to an embodiment of the present invention.

도 11을 참조하면, 단계 S310에서 사용자가 사용자 단말을 통해 서버로 구현되는 라이브러리에 접속한다.Referring to FIG. 11, in step S310, a user accesses a library implemented as a server through a user terminal.

단계 S320에서 저장되어 있는 패턴, 스킨들을 사용자 단말에 제공하면 사용자는 사용자 단말에 표시된 스킨 옵션을 선택한다.If the pattern and skins stored in step S320 are provided to the user terminal, the user selects a skin option displayed on the user terminal.

단계 S330에서 사용자가 선택한 색상으로 외장을 exterior 적용하도록 데이터 처리한다.In step S330, the data is processed to apply the exterior with the color selected by the user.

도 12는 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 방법의 사진 관리부(230)의 수행 단계를 나타낸 것이다.12 is a diagram illustrating a step of performing a photo management unit 230 in an external display interaction method of an autonomous vehicle according to an embodiment of the present invention.

단계 S410에서 사용자가 스마트 디바이스로 사진을 촬영한다.In step S410, the user takes a picture with the smart device.

단계 S420에서 촬영된 배경, 또는 사진첩에 저장되어 있는 사진을 사용자 단말에 제공하고 단계 S430에서 사용자가 선택한 이미지로 외장을 exterior 적용하도록 데이터 처리한다.The background taken in step S420 or the picture stored in the photo book is provided to the user terminal, and data is processed to apply exterior to the image selected by the user in step S430.

도 9 내지 도 12에 나타난 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 방법의 수행 단계는 각각의 프로세서에서 구현되거나 하나의 프로세서에 통합하여 구현될 수도 있다.The performing step of the external display interaction method of an autonomous vehicle according to an embodiment of the present invention shown in FIGS. 9 to 12 may be implemented in each processor or may be implemented in one processor.

도 13은 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 외장 디스플레이를 각 상황별로 나타낸 도면이다.13 is a diagram illustrating an external display of an external display interaction device of an autonomous vehicle according to an embodiment of the present invention for each situation.

본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치 및 방법은 자동차 또는 자율 주행 자동차 외장에 특수한 형태(Stretchable Display, LED, Flexible Display 등)의 디스플레이 또는 LED가 적용되어 차량의 외장을 사용자가 원하는 대로 커스터마이징(customizing)을 할 수 있도록 하며, 도 13의 (a) 내지 (d)에 나타난 바와 같이 4개의 기능을 포함하여 구현된다. In the external display interaction device and method of an autonomous vehicle according to an embodiment of the present invention, a display or LED of a special form (Stretchable Display, LED, Flexible Display, etc.) is applied to the exterior of a vehicle or autonomous vehicle, so that the exterior of the vehicle is user It enables customization as desired, and is implemented including four functions as shown in (a) to (d) of FIG. 13.

도 13의 (a)는 클라우드 서버에 저장되어 있는 패턴을 선택하여 외장에 적용한 것을 나타낸 것이다. 사용자는 저장되어 있는 패턴(221a)에서 사용자 단말(21)에 표시된 스킨 옵션(221b)을 선택하고, 외장 디스플레이 장치(600)가 선택된 패턴(221c)으로 차량의 외관이 변화된다.13A shows that a pattern stored in a cloud server is selected and applied to the exterior. The user selects the skin option 221b displayed on the user terminal 21 from the stored pattern 221a, and the external display device 600 changes the appearance of the vehicle to the selected pattern 221c.

도 13의 (b)는 사용자의 스타일을 인식하여 색상을 추출하여 외장에 적용한 것을 나타낸 것이다. 자동 색상 추출부가 사용자의 스타일(211a)에서 자동으로 색상을 추출하거나, 사용자 단말로 사용자를 촬영하면 스타일 관리부(210)는 촬영된 옷(211a)에서 색상 추출부를 이용하여 색상(211b)을 추출한다. 선택된 색상(211c)으로 차량의 외관이 변화된다. 13(b) shows that the user's style is recognized and colors are extracted and applied to the exterior. When the automatic color extraction unit automatically extracts colors from the user's style 211a or photographs the user with the user terminal, the style management unit 210 extracts the color 211b from the captured clothes 211a using the color extraction unit. . The exterior of the vehicle is changed with the selected color 211c.

도 13의 (c)는 사진첩 또는 사진 촬영하여 배경을 선택한 것을 나타낸 것이다. 13(c) shows the selection of a background by taking a photo album or a picture.

사용자 단말(21)이 사진 촬영부(232)를 통해 원하는 배경을 촬영하거나 사진첩에 저장되어 있는 사진(231a)을 선택하여, 선택된 사진(231b)으로 차량의 외관이 변화된다.The user terminal 21 takes a desired background through the photo taking unit 232 or selects a photo 231a stored in the photo album, and the appearance of the vehicle is changed to the selected photo 231b.

도 13의 (d)는 차량 보행자 통신(V2P)으로 보행자와 인터랙션 및 차량의 외장을 바꾸는 경우를 나타낸 것이다. 상황에 따라 보행자(40)에게 메시지 작성부(331)는 인터랙션 메시지를 생성하여 자동으로 메시지를 표시한다.13D shows a case of changing the exterior of a vehicle and an interaction with a pedestrian through vehicle pedestrian communication (V2P). Depending on the situation, the message creation unit 331 generates an interaction message to the pedestrian 40 and automatically displays the message.

이에 따라, 차별화된 기능(서비스) 제공이 가능하고, 탑승자 별로 개인화 및 보행자와의 의사소통도 가능하게 함으로써 안전한 주행도 가능하게 할 수 있다.Accordingly, it is possible to provide differentiated functions (services), personalization for each passenger, and communication with pedestrians, thereby enabling safe driving.

또한, 컴퓨터상에서 수행하기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체에 있어서, 자율주행 차량의 외장 디스플레이 인터랙션 방법을 컴퓨터상에서 수행하기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체를 제공한다.In addition, there is provided a computer-readable recording medium in which a program for executing on a computer is recorded, in which a program for performing an external display interaction method of an autonomous vehicle is recorded on a computer.

이러한 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(Floptical disk)와 같은 자기-광매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Such a computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the recording medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floppy disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of the program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The above-described hardware device may be configured to operate as one or more software modules to perform the operation of the present invention, and vice versa.

이상의 설명은 본 발명의 일 실시예에 불과할 뿐, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현할 수 있을 것이다. 따라서 본 발명의 범위는 전술한 실시예에 한정되지 않고 특허 청구 범위에 기재된 내용과 동등한 범위 내에 있는 다양한 실시 형태가 포함되도록 해석되어야 할 것이다.The above description is only an embodiment of the present invention, and those of ordinary skill in the technical field to which the present invention pertains may be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the scope of the present invention is not limited to the above-described embodiments, and should be construed to include various embodiments within the scope equivalent to those described in the claims.

Claims (5)

차량의 외부에 위치하며 차량의 외장을 둘러싸는 스킨 형태로 마련되어, 사용자 입력을 시각적으로 표시하는 디스플레이 장치;
상기 차량의 색상 및 패턴 변경을 위한 상기 사용자 입력을 사용자 단말로부터 입력 받는 입력부;
적어도 하나 이상의 상기 차량의 색상 및 패턴 정보들을 저장하여 관리하는 디자인 관리부;
상기 차량의 주변 환경을 기반으로 상기 차량의 주행 상황을 판단하고 감지된 보행자의 이동 상황을 예측하여, 상기 보행자에게 인터랙션 메시지를 제공하는 인터랙션 제어부; 및
상기 입력부로부터 상기 사용자 입력을 전달 받아 상기 디자인 관리부에서 상기 사용자의 입력에 따른 패턴 및 색상을 선택하고, 상기 사용자 입력과 상기 인터랙션 메시지를 표시하도록 상기 디스플레이 장치를 제어하는 디스플레이 제어부;를 포함하며,
상기 디스플레이 제어부는, 상기 차량 주변의 보행자의 위치에 따라 상기 차량의 외장에서 좌측 디스플레이, 우측 디스플레이, 전면 디스플레이 및 후면 디스플레이 중 상기 보행자와 근접한 위치의 디스플레이를 선택하여, 상기 인터랙션 메시지를 표시할 위치를 선택하고, 상기 보행자의 이동 시, 상기 보행자의 이동 경로에 맞게 상기 디스플레이 장치에서 상기 인터랙션 메시지를 이동시켜 내용을 표시하며,
상기 디자인 관리부는, 클라우드 서버에 접속하여 서버 또는 디자인 관리부의 데이터 베이스에 패턴과 스킨을 저장하여 관리하는 패턴 관리부; 및 저장되어 있는 패턴, 스킨들을 상기 사용자 단말에 제공하는 스킨 옵션 생성부;를 포함하고,
상기 사용자는 상기 사용자 단말에 표시된 스킨 옵션을 선택하고, 상기 디스플레이 제어부는 상기 디스플레이 장치가 선택된 패턴, 스킨으로 차량의 외관이 변화하도록 제어하는 것을 특징으로 하는 차량 외장 디스플레이 인터랙션 장치.
A display device positioned outside the vehicle and provided in the form of a skin surrounding the exterior of the vehicle to visually display a user input;
An input unit for receiving the user input for changing the color and pattern of the vehicle from a user terminal;
A design management unit that stores and manages at least one color and pattern information of the vehicle;
An interaction control unit determining a driving situation of the vehicle based on the surrounding environment of the vehicle, predicting the detected movement situation of the pedestrian, and providing an interaction message to the pedestrian; And
A display control unit configured to control the display device to receive the user input from the input unit, select a pattern and color according to the user input by the design management unit, and display the user input and the interaction message, and
The display control unit selects a display located close to the pedestrian among the left display, the right display, the front display and the rear display from the exterior of the vehicle according to the position of the pedestrian around the vehicle, And when the pedestrian moves, the display device moves the interaction message according to the pedestrian's moving path to display the contents,
The design management unit may include a pattern management unit connected to a cloud server to store and manage patterns and skins in a server or a database of the design management unit; And a skin option generator that provides stored patterns and skins to the user terminal,
Wherein the user selects a skin option displayed on the user terminal, and the display controller controls the display device to change the appearance of the vehicle with the selected pattern and skin.
제1항에 있어서,
상기 차량의 전방 또는 후방에 위치하여 상기 차량의 주변 환경을 감지하는 센서부;를 더 포함하며,
상기 인터랙션 제어부는,
상기 센서부로부터 감지된 물체 및 상기 차량의 주변 환경을 기반으로 도로, 인프라 및 이동 물체 정보를 인지하는 환경 인지부;
상기 환경 인지부에서 인지된 상기 도로, 인프라 및 이동 물체 정보에 따라 상기 차량의 주행 상황을 판단하고 감지된 보행자의 이동 상황을 예측하는 이동 판단부; 및
상기 이동 판단부의 판단에 따라 상기 디스플레이 장치에 표시하고자 하는 인터랙션 메시지를 생성하는 인터랙션 메시지 생성부;를 포함하는 것을 특징으로 하는 차량 외장 디스플레이 인터랙션 장치.
The method of claim 1,
A sensor unit positioned in front or rear of the vehicle to sense the surrounding environment of the vehicle; further comprising,
The interaction control unit,
An environment recognition unit for recognizing road, infrastructure, and moving object information based on the object sensed by the sensor unit and the surrounding environment of the vehicle;
A movement determination unit that determines a driving situation of the vehicle according to the road, infrastructure, and moving object information recognized by the environment recognition unit and predicts a movement situation of the detected pedestrian; And
And an interaction message generator configured to generate an interaction message to be displayed on the display device according to the determination of the movement determination unit.
삭제delete 제2항에 있어서,
상기 환경 인지부는, 상기 보행자와 상기 차량의 사이의 거리를 인지하며,
상기 디스플레이 제어부는, 상기 보행자와 상기 차량의 사이의 거리에 따라 상기 디스플레이 장치에서 표시되는 인터랙션 메시지의 크기를 변화시키는 것을 특징으로 하는 차량 외장 디스플레이 인터랙션 장치.
The method of claim 2,
The environment recognition unit recognizes the distance between the pedestrian and the vehicle,
Wherein the display control unit changes a size of an interaction message displayed on the display device according to a distance between the pedestrian and the vehicle.
차량의 외부에 위치하며 차량의 외장을 둘러싸는 스킨 형태로 마련되어, 사용자 입력을 시각적으로 표시하는 디스플레이 장치의 인터랙션 방법에 있어서,
입력부가 상기 차량의 색상 및 패턴 변경을 위한 상기 사용자 입력을 사용자 단말로부터 입력 받는 단계;
디자인 관리부가 적어도 하나 이상의 상기 차량의 색상 및 패턴 정보들을 저장하여 관리하는 단계;
인터랙션 제어부가 상기 차량의 주변 환경을 기반으로 상기 차량의 주행 상황을 판단하고 감지된 보행자의 이동 상황을 예측하여, 상기 보행자에게 인터랙션 메시지를 제공하는 단계; 및
디스플레이 제어부가 상기 입력부로부터 상기 사용자 입력을 전달 받아 상기 디자인 관리부에서 상기 사용자의 입력에 따른 패턴 및 색상을 선택하고, 상기 사용자 입력과 상기 인터랙션 메시지를 표시하도록 상기 디스플레이 장치를 제어하는 단계;를 포함하며,
상기 보행자에게 인터랙션 메시지를 제공하는 단계는,
환경 인지부가 차량 주변의 정보를 인식하는 단계; 이동 판단부가 상기 환경 인지부에서 인지된 도로, 인프라 및 이동 물체 정보에 따라 상기 차량의 주행 상황을 판단하고 감지된 보행자의 이동 상황을 예측하는 단계; 및 인터랙션 메시지 생성부가 서버에 등록된 메시지들을 확인하고, 예측된 상기 보행자의 이동 상황에 맞게 인터랙션 메시지를 생성하는 단계;를 포함하고,
상기 사용자 입력과 상기 인터랙션 메시지를 표시하도록 상기 디스플레이 장치를 제어하는 단계는,
상기 차량 주변의 보행자의 위치에 따라 상기 차량의 외장에서 좌측 디스플레이, 우측 디스플레이, 전면 디스플레이 및 후면 디스플레이 중 상기 보행자와 근접한 위치의 디스플레이를 선택하여, 상기 인터랙션 메시지 생성부에서 생성된 인터랙션 메시지를 표시할 위치를 선택하며,
상기 보행자의 이동 시, 상기 보행자의 이동 경로에 맞게 상기 디스플레이 장치에서 상기 인터랙션 메시지를 이동시켜 내용을 표시하며,
적어도 하나 이상의 상기 차량의 색상 및 패턴 정보들을 저장하여 관리하는 단계는,
클라우드 서버에 접속하여 서버 또는 디자인 관리부의 데이터 베이스에 패턴과 스킨을 저장하여 관리하는 단계; 및 저장되어 있는 패턴, 스킨들을 상기 사용자 단말에 제공하는 단계;를 포함하고,
상기 사용자는 상기 사용자 단말에 표시된 스킨 옵션을 선택하고, 상기 디스플레이 제어부는 상기 디스플레이 장치가 선택된 패턴, 스킨으로 차량의 외관이 변화하도록 제어하는 것을 특징으로 하는 차량 외장 디스플레이 인터랙션 방법.
In the interaction method of a display device that is located outside the vehicle and provided in the form of a skin surrounding the exterior of the vehicle, and visually displays a user input,
Receiving, by an input unit, the user input for changing the color and pattern of the vehicle from a user terminal;
Storing and managing color and pattern information of at least one vehicle by a design management unit;
Determining, by an interaction controller, a driving situation of the vehicle based on the surrounding environment of the vehicle, predicting the detected movement situation of the pedestrian, and providing an interaction message to the pedestrian; And
And controlling the display device to receive, by a display control unit, the user input from the input unit, select a pattern and color according to the user input by the design management unit, and display the user input and the interaction message; and ,
Providing the interaction message to the pedestrian,
Recognizing, by the environment recognition unit, information around the vehicle; Determining a driving situation of the vehicle according to road, infrastructure and moving object information recognized by the environment recognition unit and predicting a detected movement situation of the pedestrian; And checking the messages registered in the server by the interaction message generator, and generating an interaction message according to the predicted movement situation of the pedestrian; including,
Controlling the display device to display the user input and the interaction message,
Depending on the location of the pedestrian around the vehicle, an interaction message generated by the interaction message generator may be displayed by selecting a display located close to the pedestrian among the left display, the right display, the front display, and the rear display of the vehicle. Select a location,
When the pedestrian moves, the display device displays the contents by moving the interaction message according to the pedestrian's moving path,
The step of storing and managing color and pattern information of at least one or more vehicles,
Connecting to a cloud server and storing and managing patterns and skins in a database of a server or a design management unit; And providing the stored patterns and skins to the user terminal; Including,
Wherein the user selects a skin option displayed on the user terminal, and the display controller controls the display device to change the appearance of the vehicle with the selected pattern and skin.
KR1020190065284A 2019-06-03 2019-06-03 Autonomous Vehicle Exterior Display Interaction Apparatus and Method KR102174863B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190065284A KR102174863B1 (en) 2019-06-03 2019-06-03 Autonomous Vehicle Exterior Display Interaction Apparatus and Method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190065284A KR102174863B1 (en) 2019-06-03 2019-06-03 Autonomous Vehicle Exterior Display Interaction Apparatus and Method

Publications (1)

Publication Number Publication Date
KR102174863B1 true KR102174863B1 (en) 2020-11-05

Family

ID=73249514

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190065284A KR102174863B1 (en) 2019-06-03 2019-06-03 Autonomous Vehicle Exterior Display Interaction Apparatus and Method

Country Status (1)

Country Link
KR (1) KR102174863B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023038428A1 (en) * 2021-09-09 2023-03-16 엘지전자 주식회사 Display device, vehicle having same, and control method for vehicle
KR20230106773A (en) 2022-01-06 2023-07-14 울산과학기술원 Rear-spot warning interaction system and method for automobile
DE102022130912A1 (en) 2022-11-22 2024-05-23 Volkswagen Aktiengesellschaft Method for displaying a navigation instruction on a body surface of at least one motor vehicle, as well as associated vehicle and system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011523388A (en) * 2008-05-01 2011-08-11 ジャガー カーズ リミテッド How to provide car information to users
JP2013067266A (en) * 2011-09-22 2013-04-18 Toyota Motor Corp Vehicle body display control device
JP6137001B2 (en) * 2014-03-14 2017-05-31 株式会社デンソー In-vehicle device
KR20180059485A (en) * 2015-09-30 2018-06-04 닛산 지도우샤 가부시키가이샤 Vehicle status display system
KR20180069439A (en) * 2016-12-15 2018-06-25 현대자동차주식회사 A vehicle and method for notifying pedesrian sensing

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011523388A (en) * 2008-05-01 2011-08-11 ジャガー カーズ リミテッド How to provide car information to users
JP2013067266A (en) * 2011-09-22 2013-04-18 Toyota Motor Corp Vehicle body display control device
JP6137001B2 (en) * 2014-03-14 2017-05-31 株式会社デンソー In-vehicle device
KR20180059485A (en) * 2015-09-30 2018-06-04 닛산 지도우샤 가부시키가이샤 Vehicle status display system
KR20180069439A (en) * 2016-12-15 2018-06-25 현대자동차주식회사 A vehicle and method for notifying pedesrian sensing

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023038428A1 (en) * 2021-09-09 2023-03-16 엘지전자 주식회사 Display device, vehicle having same, and control method for vehicle
KR20230106773A (en) 2022-01-06 2023-07-14 울산과학기술원 Rear-spot warning interaction system and method for automobile
DE102022130912A1 (en) 2022-11-22 2024-05-23 Volkswagen Aktiengesellschaft Method for displaying a navigation instruction on a body surface of at least one motor vehicle, as well as associated vehicle and system

Similar Documents

Publication Publication Date Title
KR102100051B1 (en) A 3d lidar system using a dichroic mirror for autonomous driving vehicles
KR102618662B1 (en) 3D feature prediction for autonomous driving
US11493920B2 (en) Autonomous vehicle integrated user alert and environmental labeling
US11748620B2 (en) Generating ground truth for machine learning from time series elements
US11521371B2 (en) Systems and methods for semantic map-based adaptive auto-exposure
EP3144918B1 (en) Computer system and method for monitoring a traffic system
US10235768B2 (en) Image processing device, in-vehicle display system, display device, image processing method, and computer readable medium
KR102174863B1 (en) Autonomous Vehicle Exterior Display Interaction Apparatus and Method
WO2020042859A1 (en) Smart driving control method and apparatus, vehicle, electronic device, and storage medium
KR20200110702A (en) Default preview area and gaze-based driver distraction detection
US20140354684A1 (en) Symbology system and augmented reality heads up display (hud) for communicating safety information
CN109476309A (en) Dynamic pickup range in advanced driving assistance system
JP6274177B2 (en) Vehicle control system
CN111874006A (en) Route planning processing method and device
KR20210115026A (en) Vehicle intelligent driving control method and device, electronic device and storage medium
KR20210090624A (en) Data distribution systems, sensor devices and servers
US11682297B2 (en) Real-time scene mapping to GPS coordinates in traffic sensing or monitoring systems and methods
US20180135972A1 (en) Using map information to smooth objects generated from sensor data
US11468591B2 (en) Scene attribute annotation of complex road typographies
CN115257768A (en) Intelligent driving vehicle environment sensing method, system, equipment and medium
US20230343108A1 (en) Systems and methods for detecting projection attacks on object identification systems
CN114332821A (en) Decision information acquisition method, device, terminal and storage medium
KR20220142590A (en) Electronic device, method, and computer readable storage medium for detection of vehicle appearance
KR20210147410A (en) Method and apparatus for providing information using vehicle's camera
US20230290137A1 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant