KR102174863B1 - Autonomous Vehicle Exterior Display Interaction Apparatus and Method - Google Patents
Autonomous Vehicle Exterior Display Interaction Apparatus and Method Download PDFInfo
- Publication number
- KR102174863B1 KR102174863B1 KR1020190065284A KR20190065284A KR102174863B1 KR 102174863 B1 KR102174863 B1 KR 102174863B1 KR 1020190065284 A KR1020190065284 A KR 1020190065284A KR 20190065284 A KR20190065284 A KR 20190065284A KR 102174863 B1 KR102174863 B1 KR 102174863B1
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- display
- pedestrian
- interaction
- unit
- Prior art date
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 148
- 238000000034 method Methods 0.000 title claims abstract description 22
- 238000013461 design Methods 0.000 claims abstract description 26
- 230000008859 change Effects 0.000 claims abstract description 14
- 238000010586 diagram Methods 0.000 description 21
- 238000004891 communication Methods 0.000 description 13
- 239000003086 colorant Substances 0.000 description 7
- 239000000284 extract Substances 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006855 networking Effects 0.000 description 2
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 description 1
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/29—Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/80—Arrangements for controlling instruments
- B60K35/81—Arrangements for controlling instruments for controlling displays
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/14—Adaptive cruise control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W40/09—Driving style or behaviour
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K2360/00—Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
- B60K2360/18—Information management
- B60K2360/188—Displaying information using colour changes
-
- B60K2370/188—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/30—Driving style
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/801—Lateral distance
Landscapes
- Engineering & Computer Science (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Lighting Device Outwards From Vehicle And Optical Signal (AREA)
Abstract
Description
본 발명은 차량의 디스플레이 인터랙션 장치 및 방법에 관한 것으로, 특히 자율주행 차량의 외장 디스플레이 인터랙션 장치 및 방법에 관한 것이다.The present invention relates to a display interaction apparatus and method of a vehicle, and more particularly, to an external display interaction apparatus and method of an autonomous vehicle.
차량은 흔히 인포테인먼트(infotainment) 및 내비게이션 시스템들과 같은 다양한 시스템들을 포함한다. 이러한 시스템들에는 일반적으로 디스플레이가 제공되며, 이 디스플레이 주변에는 기계 제어 요소들이 운전자 및 앞좌석 탑승자의 접근을 위해 차량 내부공간(vehicle cabin)의 전면판(dashboard)에 장착된 사용자 인터페이스를 제공하도록 배치된다.Vehicles often include various systems such as infotainment and navigation systems. These systems are typically provided with displays, around which machine control elements are arranged to provide a user interface mounted on the dashboard of the vehicle cabin for access by the driver and front seat occupants. do.
또한, 최근에는 차량의 사용자를 검출할 수 있는 사용자 식별 서브시스템, 및 사용자의 검출에 응답하여 차량 윈도우 상에 디스플레이를 위한 출력을 생성할 수 있는 인터랙티브 디스플레이 서브시스템이 개발되고 있다.In addition, recently, a user identification subsystem capable of detecting a user of a vehicle, and an interactive display subsystem capable of generating an output for display on a vehicle window in response to the detection of the user have been developed.
이에 따라, 자율주행차량과 인포테인먼트의 중요성이 커지면서 차량의 외장을 개인화 하고, 다양하게 바꿀 수 있으며, 보행자와의 인터랙션으로 안전한 주행을 가능하게 하는 기술이 필요하다.Accordingly, as the importance of autonomous vehicles and infotainment grows, there is a need for a technology that can personalize the exterior of the vehicle, change it in various ways, and enable safe driving through interaction with pedestrians.
본 발명은 자율주행 차량의 외장 디스플레이 인터랙션 장치 및 방법으로 적어도 하나 이상의 상기 차량의 색상 및 패턴 정보들을 저장하여 관리하는 디자인 관리부, 디자인 관리부에서 사용자의 입력에 따른 패턴 및 색상을 선택하고, 사용자 입력과 인터랙션 메시지를 표시하도록 상기 디스플레이 장치를 제어하는 디스플레이 제어부를 포함하여 차량의 외장을 개인화 하고, 다양하게 바꿀 수 있도록 하는데 그 목적이 있다.The present invention is an external display interaction device and method of an autonomous vehicle, a design management unit that stores and manages at least one color and pattern information of the vehicle, and selects a pattern and color according to a user's input from the design management unit, and An object of the present invention is to personalize the exterior of a vehicle, including a display control unit that controls the display device to display an interaction message, and to make various changes.
또한, 차량의 주변 환경을 기반으로 상기 차량의 주행 상황을 판단하고 감지된 보행자의 이동 상황을 예측하여, 상기 보행자에게 인터랙션 메시지를 제공하는 인터랙션 제어부를 포함하여 보행자와의 인터랙션으로 안전한 주행을 가능하게 하는데 또 다른 목적이 있다.In addition, it includes an interaction control unit that determines the driving situation of the vehicle based on the surrounding environment of the vehicle and predicts the detected movement situation of the pedestrian, and provides an interaction message to the pedestrian, enabling safe driving through interaction with the pedestrian. It has another purpose.
본 발명의 명시되지 않은 또 다른 목적들은 하기의 상세한 설명 및 그 효과로부터 용이하게 추론할 수 있는 범위 내에서 추가적으로 고려될 수 있다.Still other objects, not specified, of the present invention may be additionally considered within the range that can be easily deduced from the following detailed description and effects thereof.
상기 과제를 해결하기 위해, 자율주행 차량의 외장 디스플레이 인터랙션 장치에 있어서, 차량의 외부에 위치하며 사용자 입력을 시각적으로 표시하는 디스플레이 장치, 상기 차량의 색상 및 패턴 변경을 위한 상기 사용자 입력을 사용자 단말로부터 입력 받는 입력부, 적어도 하나 이상의 상기 차량의 색상 및 패턴 정보들을 저장하여 관리하는 디자인 관리부 상기 차량의 주변 환경을 기반으로 상기 차량의 주행 상황을 판단하고 감지된 보행자의 이동 상황을 예측하여, 상기 보행자에게 인터랙션 메시지를 제공하는 인터랙션 제어부 및 상기 입력부로부터 상기 사용자 입력을 전달 받아 상기 디자인 관리부에서 상기 사용자의 입력에 따른 패턴 및 색상을 선택하고, 상기 사용자 입력과 상기 인터랙션 메시지를 표시하도록 상기 디스플레이 장치를 제어하는 디스플레이 제어부를 포함한다.In order to solve the above problem, in an external display interaction device of an autonomous vehicle, a display device that is located outside the vehicle and visually displays a user input, and the user input for changing the color and pattern of the vehicle from a user terminal An input receiving unit, a design management unit that stores and manages at least one color and pattern information of the vehicle, determines the driving situation of the vehicle based on the surrounding environment of the vehicle, and predicts the detected movement situation of the pedestrian, An interaction control unit providing an interaction message and receiving the user input from the input unit, selecting a pattern and color according to the user's input in the design management unit, and controlling the display device to display the user input and the interaction message It includes a display control unit.
또한, 상기 차량의 전방 또는 후방에 위치하여 상기 차량의 주변 환경을 감지하는 센서부를 더 포함하며, 상기 인터랙션 제어부는, 상기 센서부로부터 감지된 물체 및 상기 차량의 주변 환경을 기반으로 도로, 인프라 및 이동 물체 정보를 인지하는 환경 인지부, 상기 환경 인지부에서 인지된 상기 도로, 인프라 및 이동 물체 정보에 따라 상기 차량의 주행 상황을 판단하고 감지된 보행자의 이동 상황을 예측하는 이동 판단부 및 상기 이동 판단부의 판단에 따라 상기 디스플레이 장치에 표시하고자 하는 인터랙션 메시지를 생성하는 인터랙션 메시지 생성부를 포함한다.In addition, it further comprises a sensor unit located in the front or rear of the vehicle to detect the surrounding environment of the vehicle, the interaction control unit, based on the object detected by the sensor unit and the surrounding environment of the vehicle, An environment recognition unit that recognizes moving object information, a movement determination unit that determines the driving situation of the vehicle according to the road, infrastructure, and moving object information recognized by the environment recognition unit and predicts the detected movement situation of a pedestrian, and the movement And an interaction message generator that generates an interaction message to be displayed on the display device according to the determination of the determination unit.
여기서, 상기 디스플레이 장치는, 상기 차량의 외장을 둘러싸는 스킨 형태로 마련되며, 상기 디스플레이 제어부는, 상기 차량 주변의 보행자의 위치에 따라 좌측 디스플레이, 우측 디스플레이, 전면 디스플레이 및 후면 디스플레이 중 상기 보행자와 근접한 위치의 디스플레이를 선택하여, 상기 인터랙션 메시지 생성부에서 생성된 인터랙션 메시지를 표시할 위치를 선택하며, 상기 보행자의 이동 시, 상기 보행자의 이동 경로에 맞게 상기 디스플레이 장치에서 상기 인터랙션 메시지를 이동시켜 내용을 표시한다.Here, the display device is provided in the form of a skin surrounding the exterior of the vehicle, and the display control unit is adjacent to the pedestrian among the left display, the right display, the front display, and the rear display according to the position of the pedestrian around the vehicle. By selecting a display of the location, a location to display the interaction message generated by the interaction message generator is selected, and when the pedestrian moves, the display device moves the interaction message according to the pedestrian's moving path to display the contents. Indicate.
여기서, 상기 환경 인지부는, 상기 보행자와 상기 차량의 사이의 거리를 인지하며, 상기 디스플레이 제어부는, 상기 보행자와 상기 차량의 사이의 거리에 따라 상기 디스플레이 장치에서 표시되는 인터랙션 메시지의 크기를 변화시킨다.Here, the environment recognition unit recognizes a distance between the pedestrian and the vehicle, and the display controller changes the size of the interaction message displayed on the display device according to the distance between the pedestrian and the vehicle.
본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치는, 환경 인지부가 차량 주변의 정보를 인식하는 단계, 이동 판단부가 상기 환경 인지부에서 인지된 상기 도로, 인프라 및 이동 물체 정보에 따라 상기 차량의 주행 상황을 판단하고 감지된 보행자의 이동 상황을 예측하는 단계, 인터랙션 메시지 생성부가 서버에 등록된 메시지들을 확인하고, 예측된 상기 보행자의 이동 상황에 맞게 인터랙션 메시지를 생성하는 단계 및 디스플레이 제어부가 상기 인터랙션 메시지를 표시할 상기 디스플레이 장치에서 표시할 위치에 해당하는 디스플레이를 선택하고, 상기 보행자의 이동 경로에 맞게 인터랙션 메시지를 이동시키는 단계를 포함한다.In the external display interaction device of an autonomous vehicle according to an embodiment of the present invention, an environment recognition unit recognizing information around the vehicle, and a movement determination unit according to the road, infrastructure, and moving object information recognized by the environment recognition unit. Determining the driving situation of the vehicle and predicting the detected movement of the pedestrian, the interaction message generating unit checking the messages registered in the server, generating an interaction message according to the predicted movement of the pedestrian, and a display control unit A step of selecting a display corresponding to a location to be displayed on the display device to display the interaction message, and moving the interaction message according to the movement path of the pedestrian.
이상에서 설명한 바와 같이 본 발명의 실시예들에 의하면, 적어도 하나 이상의 상기 차량의 색상 및 패턴 정보들을 저장하여 관리하는 디자인 관리부, 디자인 관리부에서 사용자의 입력에 따른 패턴 및 색상을 선택하고, 사용자 입력과 인터랙션 메시지를 표시하도록 상기 디스플레이 장치를 제어하는 디스플레이 제어부를 포함하여 차량의 외장을 개인화 하고, 다양하게 바꿀 수 있다.As described above, according to embodiments of the present invention, a design management unit that stores and manages at least one color and pattern information of the vehicle, a design management unit selects a pattern and color according to a user's input, The exterior of the vehicle may be personalized and variously changed, including a display controller that controls the display device to display an interaction message.
또한, 차량의 주변 환경을 기반으로 상기 차량의 주행 상황을 판단하고 감지된 보행자의 이동 상황을 예측하여, 상기 보행자에게 인터랙션 메시지를 제공하는 인터랙션 제어부를 포함하여 보행자와의 인터랙션으로 안전한 주행을 가능하게 할 수 있다.In addition, it includes an interaction control unit that determines the driving situation of the vehicle based on the surrounding environment of the vehicle and predicts the detected movement situation of the pedestrian, and provides an interaction message to the pedestrian, enabling safe driving through interaction with the pedestrian. can do.
여기에서 명시적으로 언급되지 않은 효과라 하더라도, 본 발명의 기술적 특징에 의해 기대되는 이하의 명세서에서 기재된 효과 및 그 잠정적인 효과는 본 발명의 명세서에 기재된 것과 같이 취급된다.Even if it is an effect not explicitly mentioned herein, the effect described in the following specification expected by the technical features of the present invention and the provisional effect thereof are treated as described in the specification of the present invention.
도 1은 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치를 나타낸 블록도이다.
도 2는 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 디자인 관리부를 나타낸 블록도이다.
도 3은 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 인터랙션 제어부를 나타낸 블록도이다.
도 4는 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 구성을 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 센서부의 구성을 나타낸 도면이다.
도 6은 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 인터랙션 제어부의 프로세스를 나타낸 도면이다.
도 7은 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 인터랙션 메시지를 각 상황별로 나타낸 도면이다.
도 8은 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 인터랙션 메시지의 특징을 나타낸 도면이다.
도 9 내지 도 12는 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 방법을 나타낸 흐름도이다.
도 13은 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 외장 디스플레이를 각 상황별로 나타낸 도면이다.1 is a block diagram showing an external display interaction device for an autonomous vehicle according to an embodiment of the present invention.
2 is a block diagram illustrating a design management unit of an external display interaction device for an autonomous vehicle according to an embodiment of the present invention.
3 is a block diagram showing an interaction control unit of an external display interaction device for an autonomous vehicle according to an embodiment of the present invention.
4 is a diagram showing the configuration of an external display interaction device for an autonomous vehicle according to an embodiment of the present invention.
5 is a diagram showing a configuration of a sensor unit of an external display interaction device of an autonomous vehicle according to an embodiment of the present invention.
6 is a diagram illustrating a process of an interaction control unit of an external display interaction device of an autonomous vehicle according to an embodiment of the present invention.
7 is a diagram showing an interaction message of an external display interaction device of an autonomous vehicle according to an embodiment of the present invention for each situation.
8 is a diagram showing characteristics of an interaction message of an external display interaction device of an autonomous vehicle according to an embodiment of the present invention.
9 to 12 are flowcharts illustrating an external display interaction method of an autonomous vehicle according to an embodiment of the present invention.
13 is a diagram illustrating an external display of an external display interaction device of an autonomous vehicle according to an embodiment of the present invention for each situation.
이하, 본 발명에 관련된 자율주행 차량의 외장 디스플레이 인터랙션 장치 및 방법에 대하여 도면을 참조하여 보다 상세하게 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 설명하는 실시예에 한정되는 것이 아니다. 그리고, 본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 생략되며, 도면의 동일한 참조부호는 동일한 부재임을 나타낸다.Hereinafter, an external display interaction apparatus and method for an autonomous vehicle according to the present invention will be described in more detail with reference to the drawings. However, the present invention may be implemented in various different forms, and is not limited to the described embodiments. In addition, in order to clearly describe the present invention, parts irrelevant to the description are omitted, and the same reference numerals in the drawings indicate the same members.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. When a component is referred to as being "connected" or "connected" to another component, it is understood that it may be directly connected or connected to the other component, but other components may exist in the middle. Should be.
이하의 설명에서 사용되는 구성요소에 대한 접미사 “모듈” 및 “부”는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.The suffixes “module” and “unit” for components used in the following description are given or used interchangeably in consideration of only the ease of preparation of the specification, and do not have distinct meanings or roles by themselves.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms such as first and second may be used to describe various components, but the components should not be limited by terms. These terms are used only for the purpose of distinguishing one component from another component.
본 발명은 자율주행 차량의 외장 디스플레이 인터랙션 장치 및 방법에 관한 것이다.The present invention relates to an external display interaction apparatus and method for an autonomous vehicle.
도 1은 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치를 나타낸 블록도이다.1 is a block diagram showing an external display interaction device for an autonomous vehicle according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치(10)는 입력부(100), 디자인 관리부(200), 인터랙션 제어부(300), 센서부(400), 디스플레이 제어부(500), 디스플레이 장치(600)를 포함한다.Referring to FIG. 1, the external
본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치(10)는 자동차 또는 자율 주행 자동차 외장에 특수한 형태(Stretchable Display, LED, Flexible Display 등)의 디스플레이 또는 LED가 적용되어 차량의 외장을 사용자가 원하는 대로 커스터마이징(customizing)을 할 수 있도록 하며, 보행자와의 인터랙션으로 안전한 주행을 가능하게 하는 장치이다.The external
사용자 단말(20)에 어플리케이션이 설치될 수 있으며, 설치된 어플리케이션 또는 클라우드 서버(30)를 통해 사용자 단말(20)과 외장 디스플레이 인터랙션 장치(10)간의 사용자 인터페이스가 형성될 수 있다.An application may be installed on the
또한, 도 1에서 화살표는 유/무선 네트워크를 통해 데이터가 송수신될 수 있음을 의미할 수 있다.In addition, arrows in FIG. 1 may mean that data can be transmitted/received through wired/wireless networks.
디스플레이 장치(600)는 차량의 외부에 위치하며 사용자 입력을 시각적으로 표시한다. 디스플레이 장치는, 상기 차량의 외장을 둘러싸는 스킨 형태로 마련되는 것이 바람직하다. 차량의 외장을 둘러싸는 스킨 형태는, 차량의 외부에서 어느 측면을 바라보아도 디스플레이에 표시되는 메시지를 확인할 수 있으며, 차량 전체를 커스터마이징 하도록 구현할 수 있다.The
입력부(100)는 상기 차량의 색상 및 패턴 변경을 위한 상기 사용자 입력을 사용자 단말로부터 입력 받는다.The
디자인 관리부(200)는 적어도 하나 이상의 상기 차량의 색상 및 패턴 정보들을 저장하여 관리한다.The
디자인 관리부(200)를 이용하여 자율 주행 자동차 외장 스킨을 사용자가 원하는대로 바꿀 수 있으며, 외장 디스플레이의 화면을 활용하여 다양한 콘텐츠를 사용할 수 있다.By using the
인터랙션 제어부(300)는 상기 차량의 주변 환경을 기반으로 상기 차량의 주행 상황을 판단하고 감지된 보행자의 이동 상황을 예측하여, 상기 보행자에게 인터랙션 메시지를 제공한다.The
인터랙션 제어부(300)는 자율주행자동차 외장 디스플레이를 활용하여 V2P 인터랙션을 구현한다. 여기서, V2P(Vehicle to Pedestrian communication)는 차량, 보행자 통신을 의미한다. 즉, 보행자나 자전거 탑승자가 소지한 이동 단말 기기 사이의 무선 통신을 의미한다. 예를 들어, 차량이 길을 건너는 보행자의 스마트폰을 인지해 운전자에게 보행자 접근 경보를 보내 사고를 예방할 수 있다. V2P는 차량 간 통신(V2V: Vehicle to Vehicle), 차량과 인프라 간 통신(V2I: Vehicle to Infrastructure)와 함께 차량, 사물 통신(V2X: Vehicle to Everything)의 주요 기술이며 지능형 교통 서비스를 구현할 수 있다.The
센서부(400)는 상기 차량의 전방 또는 후방에 위치하여 상기 차량의 주변 환경을 감지한다.The
디스플레이 제어부(500)는 상기 입력부로부터 상기 사용자 입력을 전달 받아 상기 디자인 관리부에서 상기 사용자의 입력에 따른 패턴 및 색상을 선택하고, 상기 사용자 입력과 상기 인터랙션 메시지를 표시하도록 상기 디스플레이 장치를 제어한다.The
디스플레이 제어부(500)는, 상기 차량 주변의 보행자의 위치에 따라 좌측 디스플레이, 우측 디스플레이, 전면 디스플레이 및 후면 디스플레이 중 상기 보행자와 근접한 위치의 디스플레이를 선택하여, 상기 인터랙션 메시지 생성부에서 생성된 인터랙션 메시지를 표시할 위치를 선택하며, 상기 보행자의 이동 시, 상기 보행자의 이동 경로에 맞게 상기 디스플레이 장치에서 상기 인터랙션 메시지를 이동시켜 내용을 표시한다.The
도 2는 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 디자인 관리부를 나타낸 블록도이다.2 is a block diagram illustrating a design management unit of an external display interaction device for an autonomous vehicle according to an embodiment of the present invention.
도 2를 참조하면, 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치(10)의 디자인 관리부(200)는 스타일 관리부(210), 패턴 관리부(220), 사진 관리부(230), 스킨 옵션 생성부(240)를 포함한다.Referring to FIG. 2, the
디자인 관리부(200)는 적어도 하나 이상의 상기 차량의 색상 및 패턴 정보들을 저장하여 관리한다.The
디자인 관리부(200)를 이용하여 자율 주행 자동차 외장 스킨을 사용자가 원하는대로 바꿀 수 있으며, 외장 디스플레이의 화면을 활용하여 다양한 콘텐츠를 사용할 수 있다.By using the
스타일 관리부(210)는 차량 외장 디스플레이가 스타일 외장 스킨을 구현하도록 사용자 단말(20)을 이용하여 클라우드 서버(30)에 접속하여 색상을 관리한다.The
여기서 사용자 단말(20)은 스마트 워치 또는 스마트 폰을 포함한다. 구체적으로, 입력부가 스마트워치 또는 스마트폰을 인식하면, 스마트워치 또는 스마트폰을 이용하여 클라우드 서버에 접속하고, 사용자는 착용하고 있거나 휴대하고 있는 사용자 단말로 사용자를 촬영하면, 스타일 관리부(210)는 촬영된 옷에서 색상을 추출한다. 여기서, 카메라는 자동 인식 기능을 수행하며 스마트워치 또는 스마트폰을 이용하여 클라우드에 접속하면, 차량 외부에 부착되어 있는 카메라가 사용자를 촬영하고, 스타일 관리부(210)가 촬영된 이미지에서 사용자의 옷 색상들을 추출하게 된다.Here, the
스킨 옵션 생성부(240)는 추출된 색상들로 여러 개의 스킨 옵션을 만들어 사용자 단말(20)에 제공하면 사용자는 사용자 단말(20)에 표시된 스킨 옵션을 선택하고, 디스플레이 제어부(500)는 외장 디스플레이 장치(600)가 선택된 스킨 색상으로 차량의 외관이 변화하도록 제어한다.When the
패턴 관리부(220)는 차량 외장 디스플레이가 패턴 외장 스킨을 구현하도록 사용자 단말(20)을 이용하여 클라우드 서버(30)에 접속하여 서버 또는 디자인 관리부의 데이터 베이스(201)에 패턴과 스킨을 저장하여 관리하며, 스킨 옵션 생성부(240)는 저장되어 있는 패턴, 스킨들을 사용자 단말(20)에 제공하면 사용자는 사용자 단말(20)에 표시된 스킨 옵션을 선택하고, 디스플레이 제어부(500)는 외장 디스플레이 장치(600)가 선택된 패턴, 스킨으로 차량의 외관이 변화하도록 제어한다.The
사진 관리부(230)는 차량 외장 디스플레이가 사진 외장 스킨을 구현하도록 사용자 단말(20)을 이용하여 클라우드 서버(30)에 접속하여 원하는 배경을 촬영하거나 사진첩에 저장되어 있는 사진을 저장하여 관리한다. 스킨 옵션 생성부(240)는 촬영된 배경, 또는 사진첩에 저장되어 있는 사진을 사용자 단말(20)에 제공하면 사용자는 사용자 단말(20)에 표시된 스킨 옵션을 선택하고, 디스플레이 제어부(500)는 외장 디스플레이 장치(600)가 선택된 이미지로 차량의 외관이 변화하도록 제어한다.The
스킨 옵션 생성부(240)는 외장에 표시하고자 하는 스킨 옵션들을 생성하고, 생성된 스킨 옵션을 사용자 단말(20)에 제공하면 사용자는 사용자 단말(20)에 표시된 스킨 옵션을 선택하고, 디스플레이 제어부(500)는 외장 디스플레이 장치(600)가 선택된 옵션으로 차량의 외관이 변화하도록 제어한다.The skin
도 3은 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 인터랙션 제어부를 나타낸 블록도이다.3 is a block diagram showing an interaction control unit of an external display interaction device for an autonomous vehicle according to an embodiment of the present invention.
도 3을 참조하면, 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치(10)의 인터랙션 제어부(300)는 환경 인지부(310), 이동 판단부(320), 인터랙션 메시지 생성부(330)를 포함한다.Referring to FIG. 3, the
인터랙션 제어부(300)는 상기 차량의 주변 환경을 기반으로 상기 차량의 주행 상황을 판단하고 감지된 보행자의 이동 상황을 예측하여, 상기 보행자에게 인터랙션 메시지를 제공한다.The
환경 인지부(310)는 상기 센서부로부터 감지된 물체 및 상기 차량의 주변 환경을 기반으로 도로, 인프라 및 이동 물체 정보를 인지한다.The
이동 판단부(320)는 상기 환경 인지부에서 인지된 상기 도로, 인프라 및 이동 물체 정보에 따라 상기 차량의 주행 상황을 판단하고 감지된 보행자의 이동 상황을 예측한다.The
인터랙션 메시지 생성부(330)는 상기 이동 판단부의 판단에 따라 상기 디스플레이 장치에 표시하고자 하는 인터랙션 메시지를 생성한다.The interaction
도 4는 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 구성을 나타낸 도면이다.4 is a diagram showing the configuration of an external display interaction device for an autonomous vehicle according to an embodiment of the present invention.
도 4를 참조하면, 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치는 차량의 외장 커스터마이징 구현을 위한 스타일 관리부, 패턴 관리부, 사진 관리부 및 차량의 인터랙션 메시지 표출을 위한 인터랙션 제어부(V2P)를 포함하여 구성된다.Referring to FIG. 4, the external display interaction device of an autonomous vehicle according to an embodiment of the present invention includes a style management unit, a pattern management unit, a photo management unit, and an interaction control unit (V2P) for expressing vehicle interaction messages. ).
스타일 관리부(210)는 차량 외장 디스플레이가 스타일 외장 스킨을 구현하도록 사용자 단말(20)을 이용하여 클라우드 서버(30)에 접속하여 색상을 관리한다.The
여기서 사용자 단말(20)은 스마트 워치 또는 스마트 폰을 포함한다. 구체적으로, 입력부가 스마트워치 또는 스마트폰을 인식하면, 스마트워치 또는 스마트폰을 이용하여 클라우드 서버에 접속하고, 자동 색상 추출부(211)가 사용자의 스타일에서 자동으로 색상을 추출하거나, 사용자는 착용하고 있거나 휴대하고 있는 사용자 단말로 사용자를 촬영하면, 스타일 관리부(210)는 카메라 촬영부(212)에서 촬영된 옷에서 색상 추출부(213)를 이용하여 색상을 추출한다.Here, the
여기서, 카메라는 자동 인식 기능을 수행하며 스마트워치 또는 스마트폰을 이용하여 클라우드에 접속하면, 차량 외부에 부착되어 있는 카메라가 사용자를 촬영하고, 스타일 관리부(210)가 촬영된 이미지에서 사용자의 옷 색상들을 추출하게 된다.Here, the camera performs an automatic recognition function, and when accessing the cloud using a smart watch or smartphone, the camera attached to the outside of the vehicle photographs the user, and the
스킨 옵션 생성부(240)는 추출된 색상들로 여러 개의 스킨 옵션을 만들어 사용자 단말(20)에 제공하면 사용자는 사용자 단말(20)에 표시된 스킨 옵션을 선택하고, 디스플레이 제어부(500)는 외장 디스플레이 장치(600)가 선택된 스킨 색상으로 차량의 외관이 변화하도록 제어한다.When the
패턴 관리부(220)는 차량 외장 디스플레이가 패턴 외장 스킨을 구현하도록 사용자 단말(20)을 이용하여 클라우드 서버(30)에 접속하여 서버 또는 디자인 관리부의 데이터 베이스(201)에 패턴과 스킨을 저장하여 관리하며, 스킨 옵션 생성부(240)는 패턴 선택부(221)를 통해 저장되어 있는 패턴, 스킨들을 선택하여 사용자 단말(20)에 제공하면 사용자는 사용자 단말(20)에 표시된 스킨 옵션을 선택하고, 디스플레이 제어부(500)는 외장 디스플레이 장치(600)가 선택된 패턴, 스킨으로 차량의 외관이 변화하도록 제어한다.The
사진 관리부(230)는 차량 외장 디스플레이가 사진 외장 스킨을 구현하도록 사용자 단말(20)을 이용하여 클라우드 서버(30)에 접속하고 사진 촬영부(232)를 통해 원하는 배경을 촬영하거나 사진첩에 저장되어 있는 사진을 저장하여 관리한다. 스킨 옵션 생성부(240)는 앨범 사진 선택부(231)를 통해 촬영된 배경, 또는 사진첩에 저장되어 있는 사진을 선택하여 사용자 단말(20)에 제공하면 사용자는 사용자 단말(20)에 표시된 스킨 옵션을 선택하고, 디스플레이 제어부(500)는 외장 디스플레이 장치(600)가 선택된 이미지로 차량의 외관이 변화하도록 제어한다.The
스킨 옵션 생성부(240)는 외장에 표시하고자 하는 스킨 옵션들을 생성하고, 생성된 스킨 옵션을 사용자 단말(20)에 제공하면 사용자는 사용자 단말(20)에 표시된 스킨 옵션을 선택하고, 디스플레이 제어부(500)는 외장 디스플레이 장치(600)가 선택된 옵션으로 차량의 외관이 변화하도록 제어한다.The skin
인터랙션 제어부(300)는 상기 차량의 주변 환경을 기반으로 상기 차량의 주행 상황을 판단하고 감지된 보행자의 이동 상황을 예측하여, 상기 보행자에게 인터랙션 메시지를 제공한다.The
인터랙션 제어부(300)는 차량 외장 디스플레이가 인터랙션 메시지를 표출하도록 사용자 단말(20)을 이용하여 클라우드 서버(30)에 접속하고 상황에 맞게 사용자가 원하는 메시지를 작성하여 인터랙션 제어(V2P) 리스트(301)를 저장하여 관리한다. The
환경 인지부(310)의 상황 인지부(311)가 차량의 주변 환경을 기반으로 도로, 인프라 및 이동 물체 정보를 기반으로 상황을 인지하면, 인터랙션 메시지 생성부(330)의 메시지 작성부(331)는 인터랙션 제어(V2P) 리스트를 기반으로 메시지를 조합하여 디스플레이 장치에 표시하고자 하는 인터랙션 메시지를 생성하여 상황에 맞게 자동으로 메시지를 표시(횡단보도, 중행 중 등)한다. 또한 사용자가 사용자 단말(20)을 이용하여 직접 메시지를 선택하여 표시할 수도 있다.When the
도 5는 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 센서부의 구성을 나타낸 도면이다.5 is a diagram showing a configuration of a sensor unit of an external display interaction device of an autonomous vehicle according to an embodiment of the present invention.
도 5를 참조하면, 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 센서부(400)는 전방 레이더(401a, 401b), 카메라(402), 360도 라이다(403), 후방 레이더(404a, 404b)를 포함한다.5, the
외장 디스플레이(600)는 차량의 전체를 둘러싸는 스킨형태로 구현된다.The
전방 레이더(401a, 401b)는 차량 전방에 물체의 거리나 속도, 각도를 측정하기 위해 전자기파를 사용하는 감지 센서이다.The
카메라(402)는 차선이나, 보행자 등을 영상으로 수집하여 분석 후 감지하는 센서이다.The
360도 라이다(403)는 차량 주위 360도를 빛을 이용해 측정하며, 사각지대까지 측정이 가능하여 정밀한 측정을 구현한다.The 360
후방 레이더(404a, 404b)는 차량 후방에 물체의 거리나 속도, 각도를 측정하기 위해 전자기파를 사용하는 감지 센서이다.The
외장 디스플레이(600)는 디스플레이 제어부를 통해 센서들로부터 데이터를 처리한 후 보행자에게 메시지 표시한다.The
도 6은 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 인터랙션 제어부의 프로세스를 나타낸 도면이다.6 is a diagram illustrating a process of an interaction control unit of an external display interaction device of an autonomous vehicle according to an embodiment of the present invention.
도 6을 참조하면, 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 인터랙션 제어부는 인지, 판단, 실행 세 단계의 프로세스를 포함한다.Referring to FIG. 6, the interaction control unit of the external display interaction device of an autonomous vehicle according to an embodiment of the present invention includes a process of recognizing, determining, and executing three steps.
센서부(400)는 상기 차량의 전방 또는 후방에 위치하여 상기 차량의 주변 환경을 감지한다. 카메라, 라이더, 레이다를 이용하여 주행차량 주변 데이터를 수집하고 분석한다. 센서부(400)는 ADAS센서(Advanced Driver Assistance System)로 구현되는 것이 바람직하며, 차량의 주행 중 주변환경을 인지할 수 있는 센서를 이용하여 차량의 주행상황을 판단하고 차량의 거동을 결정할 수 있다.The
또한, 센서부(400)와 함께 V2X(부가정보)를 수집하는 V2X(부가정보) 수집부(410)를 이용하여 차량간 통신, 인프라 통신으로 추가 적인 정보를 수집하고 분석한다. V2X는 차량을 중심으로 유무선망을 통해 정보를 제공하는 기술이다. V2X는 차량과 차량 사이의 무선 통신(V2V: Vehicle to Vehicle), 차량과 인프라 간 무선 통신(V2I: Vehicle to Infrastructure), 차량 내 유무선 네트워킹(IVN: In-Vehicle Networking), 차량과 이동 단말 간 통신(V2P: Vehicle to Pedestrian) 등을 총칭한다. V2X를 이용하여 차량과 도로의 정보 환경, 안정성, 편리성 등을 향상시킬 수 있다. In addition, by using the V2X (additional information)
환경 인지부(310)는 도로 및 인프라 인식부(312)와 이동 물체 인식부(313)를 포함하며, 센서부와 V2X(부가정보) 수집부의 정보를 기반으로 감지된 물체 및 상기 차량의 주변 환경을 기반으로 도로, 인프라 및 이동 물체 정보를 인지한다.The
도로 및 인프라 인식부(312)는 인도, 횡단보도, 터널, 고가도로 등을 인식한다.The road and
이동 물체 인식부(313)는 차량, 보행자, 동물 등을 인식한다.The moving
이동 판단부(320)는 상기 환경 인지부에서 인지된 상기 도로, 인프라 및 이동 물체 정보에 따라 상기 차량의 주행 상황을 판단하고 감지된 보행자의 이동 상황을 예측한다. 예를 들어, 추월, 좌/우회전, 정차, 보행자 이동 상황을 예측할 수 있다.The
인터랙션 메시지 생성부(330)는 상기 이동 판단부의 판단에 따라 상기 디스플레이 장치에 표시하고자 하는 인터랙션 메시지를 생성한다.The interaction
생성한 인터랙션 메시지는 디스플레이 제어부(500)에서 보행자의 위치에 따라 차량 외장 디스플레이의 사용될 방향을 결정하며 V2P 문구를 설정할 수 있다. 구체적으로, 차량 주변의 보행자의 위치에 따라 좌측 디스플레이, 우측 디스플레이, 전면 디스플레이 및 후면 디스플레이 중 상기 보행자와 근접한 위치의 디스플레이를 선택하여, 상기 인터랙션 메시지 생성부에서 생성된 인터랙션 메시지를 표시할 위치를 선택하며, 상기 보행자의 이동 시, 상기 보행자의 이동 경로에 맞게 상기 디스플레이 장치에서 상기 인터랙션 메시지를 이동시켜 내용을 표시한다. 또한 보행자와의 거리와 속도에 따라 인터랙션 메시지의 크기를 조절할 수 있다.The generated interaction message determines the direction in which the vehicle exterior display is to be used in the
도 7은 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 인터랙션 메시지를 각 상황별로 나타낸 도면이다.7 is a diagram showing an interaction message of an external display interaction device of an autonomous vehicle according to an embodiment of the present invention for each situation.
본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 디스플레이 장치(600)는 차량의 외부에 위치하며 사용자 입력을 시각적으로 표시한다. 디스플레이 장치는, 상기 차량의 외장을 둘러싸는 스킨 형태로 마련되는 것이 바람직하다.The
디스플레이 제어부(500)는, 상기 차량 주변의 보행자의 위치에 따라 좌측 디스플레이(601), 우측 디스플레이(603), 전면 디스플레이(602) 및 후면 디스플레이(604) 중 상기 보행자와 근접한 위치의 디스플레이를 선택하여, 상기 인터랙션 메시지 생성부에서 생성된 인터랙션 메시지를 표시할 위치를 선택하며, 상기 보행자의 이동 시, 상기 보행자의 이동 경로에 맞게 상기 디스플레이 장치에서 상기 인터랙션 메시지를 이동시켜 내용을 표시한다.The
도 7의 (a)의 상황은 횡단보도가 있는 도로에서 횡단보도 신호등이 빨간색인 경우이며, 차량 우측에 위치한 보행자를 인식하여 차량 우측 디스플레이(603)에서 인터랙션 메시지가 표시된다. 이 상황에서는'건너지 마세요. 지나갑니다.'라는 내용의 메시지가 표출되는 것이 바람직하다.7A is a case in which the crosswalk traffic light is red on a road with a crosswalk, and an interaction message is displayed on the
도 7의 (b)의 상황은 횡단보도가 있는 도로에서 횡단보도 신호등이 빨간색인 경우이며, 무단횡단 하는 보행자를 인식하여 차량 전면 디스플레이(602)에서 인터랙션 메시지가 표시된다. 이 상황에서는'멈출게요. 뛰지 마세요'라는 내용의 메시지가 표출되는 것이 바람직하다.7(b) is a case where the crosswalk traffic light is red on a road with a crosswalk, and an interaction message is displayed on the
도 7의 (c)의 상황은 횡단보도가 있는 도로에서 횡단보도 신호등이 초록색이지만 곧 바뀔 예정인 경우이며, 급하게 건너고 있는 보행자를 인식하여 차량 전면 디스플레이(602)에서 인터랙션 메시지가 표시된다. 이 상황에서는'건널 때까지 기다릴게요'라는 내용의 메시지가 표출되는 것이 바람직하다.The situation of FIG. 7C is a case in which the crosswalk traffic light is green on a road with a crosswalk, but is about to change, and an interaction message is displayed on the
도 7의 (d)의 상황은 횡단보도가 없는 도로이며, 건널까 말까 하는 보행자 를 인식하여 차량 전면 디스플레이(602)에서 인터랙션 메시지가 표시된다. 이 상황에서는'건널 때까지 기다릴게요'라는 내용의 메시지가 표출되는 것이 바람직하다.7(d) is a road without a crosswalk, and an interaction message is displayed on the
도 8은 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 인터랙션 메시지의 특징을 나타낸 도면이다.8 is a diagram showing characteristics of an interaction message of an external display interaction device of an autonomous vehicle according to an embodiment of the present invention.
환경 인지부(310)는 상기 센서부로부터 감지된 물체 및 상기 차량의 주변 환경을 기반으로 도로, 인프라 및 이동 물체 정보를 인지한다. 환경 인지부는, 상기 보행자와 상기 차량의 사이의 거리를 인지하며, 디스플레이 제어부(500)는, 상기 보행자와 상기 차량의 사이의 거리에 따라 상기 디스플레이 장치에서 표시되는 인터랙션 메시지의 크기를 변화시킨다.The
도 8을 참조하면, 30m에서 사인이 보이기 위해서는 글자 당 높이 약 15cm, 넓이 약 9cm로 보여져야 하기 때문에, 보행자(40)와 제1 차량의 거리가 D1(60~70m)인 경우 제1 인터랙션 메시지(611)의 너비(W1)가 250 내지 260cm이고, 보행자(40)와 제2 차량의 거리가 D2(30~40m)인 경우 제2 인터랙션 메시지(612)의 너비(W2)가 110 내지 120cm로 차량과 보행자 사이의 거리에 따라 인터랙션 메시지의 크기가 변화하는 것이 바람직하다. 또한, 디스플레이 장치의 넓이는 110cm 이상인 것이 바람직하다. Referring to FIG. 8, in order to see the sign at 30m, the first interaction message when the distance between the
또한, 빛 반사로 인해 인터랙션 메시지를 보행자가 볼 수 없는 상황을 방지하기 위해 대비가 가장 큰 흑색(Black)과 흰색(White) 사용하여 표시하는 것이 바람직하다.In addition, in order to prevent a situation in which pedestrians cannot see the interaction message due to light reflection, it is desirable to use black and white with the highest contrast.
도 9 내지 도 12는 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 방법을 나타낸 흐름도이다.9 to 12 are flowcharts illustrating an external display interaction method of an autonomous vehicle according to an embodiment of the present invention.
도 9를 참조하면, 단계 S110에서 환경 인지부가 차량 주변의 정보를 인식한다.Referring to FIG. 9, in step S110, the environment recognition unit recognizes information around the vehicle.
단계 S120에서 이동 판단부가 상기 환경 인지부에서 인지된 상기 도로, 인프라 및 이동 물체 정보에 따라 상기 차량의 주행 상황을 판단하고 감지된 보행자의 이동 상황을 예측한다.In step S120, the movement determination unit determines the driving situation of the vehicle according to the road, infrastructure, and moving object information recognized by the environment recognition unit, and predicts the detected movement situation of the pedestrian.
단계 S130에서 인터랙션 메시지 생성부가 서버에 등록된 메시지들을 확인하고, 예측된 상기 보행자의 이동 상황에 맞게 인터랙션 메시지를 생성한다.In step S130, the interaction message generator checks the messages registered in the server, and generates an interaction message according to the predicted movement situation of the pedestrian.
단계 S140에서 디스플레이 제어부가 상기 인터랙션 메시지를 표시할 상기 디스플레이 장치에서 표시할 위치에 해당하는 디스플레이를 선택하고, 단계 S150에서 상기 보행자의 이동 경로에 맞게 인터랙션 메시지를 이동시킨다.In step S140, the display controller selects a display corresponding to a position to be displayed on the display device to display the interaction message, and in step S150 moves the interaction message according to the movement path of the pedestrian.
도 10은 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 방법의 스타일 관리부(210)의 수행 단계를 나타낸 것이다.10 is a diagram illustrating a step of performing a
도 10을 참조하면, 단계 S210에서 차량에 탑재되어 있는 센서 또는 차키를 통해 사용자를 인식한다.Referring to FIG. 10, in step S210, a user is recognized through a sensor mounted on a vehicle or a vehicle key.
단계 S220에서 카메라를 통해 사용자를 영상으로 촬영하며, 단계 S230에서 촬영된 영상이 어두울 경우 조명을 보정할 수 있다.In step S220, the user is photographed as an image through the camera, and when the image captured in step S230 is dark, the lighting may be corrected.
단계 S240에서 촬영된 영상에서 색(RGB) 데이터 추출하고, 단계 S250에서 추출된 색 데이터에 기초하여 사용자에게 색을 제안한다.Color (RGB) data is extracted from the image captured in step S240, and a color is suggested to the user based on the color data extracted in step S250.
단계 S260에서 사용자가 선택한 색상으로 외장을 exterior 적용하도록 데이터 처리한다.In step S260, the data is processed so that the exterior is applied with the color selected by the user.
도 11은 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 방법의 패턴 관리부(220)의 수행 단계를 나타낸 것이다.11 is a diagram illustrating a step of performing a
도 11을 참조하면, 단계 S310에서 사용자가 사용자 단말을 통해 서버로 구현되는 라이브러리에 접속한다.Referring to FIG. 11, in step S310, a user accesses a library implemented as a server through a user terminal.
단계 S320에서 저장되어 있는 패턴, 스킨들을 사용자 단말에 제공하면 사용자는 사용자 단말에 표시된 스킨 옵션을 선택한다.If the pattern and skins stored in step S320 are provided to the user terminal, the user selects a skin option displayed on the user terminal.
단계 S330에서 사용자가 선택한 색상으로 외장을 exterior 적용하도록 데이터 처리한다.In step S330, the data is processed to apply the exterior with the color selected by the user.
도 12는 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 방법의 사진 관리부(230)의 수행 단계를 나타낸 것이다.12 is a diagram illustrating a step of performing a
단계 S410에서 사용자가 스마트 디바이스로 사진을 촬영한다.In step S410, the user takes a picture with the smart device.
단계 S420에서 촬영된 배경, 또는 사진첩에 저장되어 있는 사진을 사용자 단말에 제공하고 단계 S430에서 사용자가 선택한 이미지로 외장을 exterior 적용하도록 데이터 처리한다.The background taken in step S420 or the picture stored in the photo book is provided to the user terminal, and data is processed to apply exterior to the image selected by the user in step S430.
도 9 내지 도 12에 나타난 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 방법의 수행 단계는 각각의 프로세서에서 구현되거나 하나의 프로세서에 통합하여 구현될 수도 있다.The performing step of the external display interaction method of an autonomous vehicle according to an embodiment of the present invention shown in FIGS. 9 to 12 may be implemented in each processor or may be implemented in one processor.
도 13은 본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치의 외장 디스플레이를 각 상황별로 나타낸 도면이다.13 is a diagram illustrating an external display of an external display interaction device of an autonomous vehicle according to an embodiment of the present invention for each situation.
본 발명의 일 실시예에 따른 자율주행 차량의 외장 디스플레이 인터랙션 장치 및 방법은 자동차 또는 자율 주행 자동차 외장에 특수한 형태(Stretchable Display, LED, Flexible Display 등)의 디스플레이 또는 LED가 적용되어 차량의 외장을 사용자가 원하는 대로 커스터마이징(customizing)을 할 수 있도록 하며, 도 13의 (a) 내지 (d)에 나타난 바와 같이 4개의 기능을 포함하여 구현된다. In the external display interaction device and method of an autonomous vehicle according to an embodiment of the present invention, a display or LED of a special form (Stretchable Display, LED, Flexible Display, etc.) is applied to the exterior of a vehicle or autonomous vehicle, so that the exterior of the vehicle is user It enables customization as desired, and is implemented including four functions as shown in (a) to (d) of FIG. 13.
도 13의 (a)는 클라우드 서버에 저장되어 있는 패턴을 선택하여 외장에 적용한 것을 나타낸 것이다. 사용자는 저장되어 있는 패턴(221a)에서 사용자 단말(21)에 표시된 스킨 옵션(221b)을 선택하고, 외장 디스플레이 장치(600)가 선택된 패턴(221c)으로 차량의 외관이 변화된다.13A shows that a pattern stored in a cloud server is selected and applied to the exterior. The user selects the
도 13의 (b)는 사용자의 스타일을 인식하여 색상을 추출하여 외장에 적용한 것을 나타낸 것이다. 자동 색상 추출부가 사용자의 스타일(211a)에서 자동으로 색상을 추출하거나, 사용자 단말로 사용자를 촬영하면 스타일 관리부(210)는 촬영된 옷(211a)에서 색상 추출부를 이용하여 색상(211b)을 추출한다. 선택된 색상(211c)으로 차량의 외관이 변화된다. 13(b) shows that the user's style is recognized and colors are extracted and applied to the exterior. When the automatic color extraction unit automatically extracts colors from the user's
도 13의 (c)는 사진첩 또는 사진 촬영하여 배경을 선택한 것을 나타낸 것이다. 13(c) shows the selection of a background by taking a photo album or a picture.
사용자 단말(21)이 사진 촬영부(232)를 통해 원하는 배경을 촬영하거나 사진첩에 저장되어 있는 사진(231a)을 선택하여, 선택된 사진(231b)으로 차량의 외관이 변화된다.The
도 13의 (d)는 차량 보행자 통신(V2P)으로 보행자와 인터랙션 및 차량의 외장을 바꾸는 경우를 나타낸 것이다. 상황에 따라 보행자(40)에게 메시지 작성부(331)는 인터랙션 메시지를 생성하여 자동으로 메시지를 표시한다.13D shows a case of changing the exterior of a vehicle and an interaction with a pedestrian through vehicle pedestrian communication (V2P). Depending on the situation, the
이에 따라, 차별화된 기능(서비스) 제공이 가능하고, 탑승자 별로 개인화 및 보행자와의 의사소통도 가능하게 함으로써 안전한 주행도 가능하게 할 수 있다.Accordingly, it is possible to provide differentiated functions (services), personalization for each passenger, and communication with pedestrians, thereby enabling safe driving.
또한, 컴퓨터상에서 수행하기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체에 있어서, 자율주행 차량의 외장 디스플레이 인터랙션 방법을 컴퓨터상에서 수행하기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체를 제공한다.In addition, there is provided a computer-readable recording medium in which a program for executing on a computer is recorded, in which a program for performing an external display interaction method of an autonomous vehicle is recorded on a computer.
이러한 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(Floptical disk)와 같은 자기-광매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Such a computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the recording medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floppy disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of the program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The above-described hardware device may be configured to operate as one or more software modules to perform the operation of the present invention, and vice versa.
이상의 설명은 본 발명의 일 실시예에 불과할 뿐, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현할 수 있을 것이다. 따라서 본 발명의 범위는 전술한 실시예에 한정되지 않고 특허 청구 범위에 기재된 내용과 동등한 범위 내에 있는 다양한 실시 형태가 포함되도록 해석되어야 할 것이다.The above description is only an embodiment of the present invention, and those of ordinary skill in the technical field to which the present invention pertains may be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the scope of the present invention is not limited to the above-described embodiments, and should be construed to include various embodiments within the scope equivalent to those described in the claims.
Claims (5)
상기 차량의 색상 및 패턴 변경을 위한 상기 사용자 입력을 사용자 단말로부터 입력 받는 입력부;
적어도 하나 이상의 상기 차량의 색상 및 패턴 정보들을 저장하여 관리하는 디자인 관리부;
상기 차량의 주변 환경을 기반으로 상기 차량의 주행 상황을 판단하고 감지된 보행자의 이동 상황을 예측하여, 상기 보행자에게 인터랙션 메시지를 제공하는 인터랙션 제어부; 및
상기 입력부로부터 상기 사용자 입력을 전달 받아 상기 디자인 관리부에서 상기 사용자의 입력에 따른 패턴 및 색상을 선택하고, 상기 사용자 입력과 상기 인터랙션 메시지를 표시하도록 상기 디스플레이 장치를 제어하는 디스플레이 제어부;를 포함하며,
상기 디스플레이 제어부는, 상기 차량 주변의 보행자의 위치에 따라 상기 차량의 외장에서 좌측 디스플레이, 우측 디스플레이, 전면 디스플레이 및 후면 디스플레이 중 상기 보행자와 근접한 위치의 디스플레이를 선택하여, 상기 인터랙션 메시지를 표시할 위치를 선택하고, 상기 보행자의 이동 시, 상기 보행자의 이동 경로에 맞게 상기 디스플레이 장치에서 상기 인터랙션 메시지를 이동시켜 내용을 표시하며,
상기 디자인 관리부는, 클라우드 서버에 접속하여 서버 또는 디자인 관리부의 데이터 베이스에 패턴과 스킨을 저장하여 관리하는 패턴 관리부; 및 저장되어 있는 패턴, 스킨들을 상기 사용자 단말에 제공하는 스킨 옵션 생성부;를 포함하고,
상기 사용자는 상기 사용자 단말에 표시된 스킨 옵션을 선택하고, 상기 디스플레이 제어부는 상기 디스플레이 장치가 선택된 패턴, 스킨으로 차량의 외관이 변화하도록 제어하는 것을 특징으로 하는 차량 외장 디스플레이 인터랙션 장치.A display device positioned outside the vehicle and provided in the form of a skin surrounding the exterior of the vehicle to visually display a user input;
An input unit for receiving the user input for changing the color and pattern of the vehicle from a user terminal;
A design management unit that stores and manages at least one color and pattern information of the vehicle;
An interaction control unit determining a driving situation of the vehicle based on the surrounding environment of the vehicle, predicting the detected movement situation of the pedestrian, and providing an interaction message to the pedestrian; And
A display control unit configured to control the display device to receive the user input from the input unit, select a pattern and color according to the user input by the design management unit, and display the user input and the interaction message, and
The display control unit selects a display located close to the pedestrian among the left display, the right display, the front display and the rear display from the exterior of the vehicle according to the position of the pedestrian around the vehicle, And when the pedestrian moves, the display device moves the interaction message according to the pedestrian's moving path to display the contents,
The design management unit may include a pattern management unit connected to a cloud server to store and manage patterns and skins in a server or a database of the design management unit; And a skin option generator that provides stored patterns and skins to the user terminal,
Wherein the user selects a skin option displayed on the user terminal, and the display controller controls the display device to change the appearance of the vehicle with the selected pattern and skin.
상기 차량의 전방 또는 후방에 위치하여 상기 차량의 주변 환경을 감지하는 센서부;를 더 포함하며,
상기 인터랙션 제어부는,
상기 센서부로부터 감지된 물체 및 상기 차량의 주변 환경을 기반으로 도로, 인프라 및 이동 물체 정보를 인지하는 환경 인지부;
상기 환경 인지부에서 인지된 상기 도로, 인프라 및 이동 물체 정보에 따라 상기 차량의 주행 상황을 판단하고 감지된 보행자의 이동 상황을 예측하는 이동 판단부; 및
상기 이동 판단부의 판단에 따라 상기 디스플레이 장치에 표시하고자 하는 인터랙션 메시지를 생성하는 인터랙션 메시지 생성부;를 포함하는 것을 특징으로 하는 차량 외장 디스플레이 인터랙션 장치.The method of claim 1,
A sensor unit positioned in front or rear of the vehicle to sense the surrounding environment of the vehicle; further comprising,
The interaction control unit,
An environment recognition unit for recognizing road, infrastructure, and moving object information based on the object sensed by the sensor unit and the surrounding environment of the vehicle;
A movement determination unit that determines a driving situation of the vehicle according to the road, infrastructure, and moving object information recognized by the environment recognition unit and predicts a movement situation of the detected pedestrian; And
And an interaction message generator configured to generate an interaction message to be displayed on the display device according to the determination of the movement determination unit.
상기 환경 인지부는, 상기 보행자와 상기 차량의 사이의 거리를 인지하며,
상기 디스플레이 제어부는, 상기 보행자와 상기 차량의 사이의 거리에 따라 상기 디스플레이 장치에서 표시되는 인터랙션 메시지의 크기를 변화시키는 것을 특징으로 하는 차량 외장 디스플레이 인터랙션 장치.The method of claim 2,
The environment recognition unit recognizes the distance between the pedestrian and the vehicle,
Wherein the display control unit changes a size of an interaction message displayed on the display device according to a distance between the pedestrian and the vehicle.
입력부가 상기 차량의 색상 및 패턴 변경을 위한 상기 사용자 입력을 사용자 단말로부터 입력 받는 단계;
디자인 관리부가 적어도 하나 이상의 상기 차량의 색상 및 패턴 정보들을 저장하여 관리하는 단계;
인터랙션 제어부가 상기 차량의 주변 환경을 기반으로 상기 차량의 주행 상황을 판단하고 감지된 보행자의 이동 상황을 예측하여, 상기 보행자에게 인터랙션 메시지를 제공하는 단계; 및
디스플레이 제어부가 상기 입력부로부터 상기 사용자 입력을 전달 받아 상기 디자인 관리부에서 상기 사용자의 입력에 따른 패턴 및 색상을 선택하고, 상기 사용자 입력과 상기 인터랙션 메시지를 표시하도록 상기 디스플레이 장치를 제어하는 단계;를 포함하며,
상기 보행자에게 인터랙션 메시지를 제공하는 단계는,
환경 인지부가 차량 주변의 정보를 인식하는 단계; 이동 판단부가 상기 환경 인지부에서 인지된 도로, 인프라 및 이동 물체 정보에 따라 상기 차량의 주행 상황을 판단하고 감지된 보행자의 이동 상황을 예측하는 단계; 및 인터랙션 메시지 생성부가 서버에 등록된 메시지들을 확인하고, 예측된 상기 보행자의 이동 상황에 맞게 인터랙션 메시지를 생성하는 단계;를 포함하고,
상기 사용자 입력과 상기 인터랙션 메시지를 표시하도록 상기 디스플레이 장치를 제어하는 단계는,
상기 차량 주변의 보행자의 위치에 따라 상기 차량의 외장에서 좌측 디스플레이, 우측 디스플레이, 전면 디스플레이 및 후면 디스플레이 중 상기 보행자와 근접한 위치의 디스플레이를 선택하여, 상기 인터랙션 메시지 생성부에서 생성된 인터랙션 메시지를 표시할 위치를 선택하며,
상기 보행자의 이동 시, 상기 보행자의 이동 경로에 맞게 상기 디스플레이 장치에서 상기 인터랙션 메시지를 이동시켜 내용을 표시하며,
적어도 하나 이상의 상기 차량의 색상 및 패턴 정보들을 저장하여 관리하는 단계는,
클라우드 서버에 접속하여 서버 또는 디자인 관리부의 데이터 베이스에 패턴과 스킨을 저장하여 관리하는 단계; 및 저장되어 있는 패턴, 스킨들을 상기 사용자 단말에 제공하는 단계;를 포함하고,
상기 사용자는 상기 사용자 단말에 표시된 스킨 옵션을 선택하고, 상기 디스플레이 제어부는 상기 디스플레이 장치가 선택된 패턴, 스킨으로 차량의 외관이 변화하도록 제어하는 것을 특징으로 하는 차량 외장 디스플레이 인터랙션 방법.In the interaction method of a display device that is located outside the vehicle and provided in the form of a skin surrounding the exterior of the vehicle, and visually displays a user input,
Receiving, by an input unit, the user input for changing the color and pattern of the vehicle from a user terminal;
Storing and managing color and pattern information of at least one vehicle by a design management unit;
Determining, by an interaction controller, a driving situation of the vehicle based on the surrounding environment of the vehicle, predicting the detected movement situation of the pedestrian, and providing an interaction message to the pedestrian; And
And controlling the display device to receive, by a display control unit, the user input from the input unit, select a pattern and color according to the user input by the design management unit, and display the user input and the interaction message; and ,
Providing the interaction message to the pedestrian,
Recognizing, by the environment recognition unit, information around the vehicle; Determining a driving situation of the vehicle according to road, infrastructure and moving object information recognized by the environment recognition unit and predicting a detected movement situation of the pedestrian; And checking the messages registered in the server by the interaction message generator, and generating an interaction message according to the predicted movement situation of the pedestrian; including,
Controlling the display device to display the user input and the interaction message,
Depending on the location of the pedestrian around the vehicle, an interaction message generated by the interaction message generator may be displayed by selecting a display located close to the pedestrian among the left display, the right display, the front display, and the rear display of the vehicle. Select a location,
When the pedestrian moves, the display device displays the contents by moving the interaction message according to the pedestrian's moving path,
The step of storing and managing color and pattern information of at least one or more vehicles,
Connecting to a cloud server and storing and managing patterns and skins in a database of a server or a design management unit; And providing the stored patterns and skins to the user terminal; Including,
Wherein the user selects a skin option displayed on the user terminal, and the display controller controls the display device to change the appearance of the vehicle with the selected pattern and skin.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190065284A KR102174863B1 (en) | 2019-06-03 | 2019-06-03 | Autonomous Vehicle Exterior Display Interaction Apparatus and Method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190065284A KR102174863B1 (en) | 2019-06-03 | 2019-06-03 | Autonomous Vehicle Exterior Display Interaction Apparatus and Method |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102174863B1 true KR102174863B1 (en) | 2020-11-05 |
Family
ID=73249514
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190065284A KR102174863B1 (en) | 2019-06-03 | 2019-06-03 | Autonomous Vehicle Exterior Display Interaction Apparatus and Method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102174863B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023038428A1 (en) * | 2021-09-09 | 2023-03-16 | 엘지전자 주식회사 | Display device, vehicle having same, and control method for vehicle |
KR20230106773A (en) | 2022-01-06 | 2023-07-14 | 울산과학기술원 | Rear-spot warning interaction system and method for automobile |
DE102022130912A1 (en) | 2022-11-22 | 2024-05-23 | Volkswagen Aktiengesellschaft | Method for displaying a navigation instruction on a body surface of at least one motor vehicle, as well as associated vehicle and system |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011523388A (en) * | 2008-05-01 | 2011-08-11 | ジャガー カーズ リミテッド | How to provide car information to users |
JP2013067266A (en) * | 2011-09-22 | 2013-04-18 | Toyota Motor Corp | Vehicle body display control device |
JP6137001B2 (en) * | 2014-03-14 | 2017-05-31 | 株式会社デンソー | In-vehicle device |
KR20180059485A (en) * | 2015-09-30 | 2018-06-04 | 닛산 지도우샤 가부시키가이샤 | Vehicle status display system |
KR20180069439A (en) * | 2016-12-15 | 2018-06-25 | 현대자동차주식회사 | A vehicle and method for notifying pedesrian sensing |
-
2019
- 2019-06-03 KR KR1020190065284A patent/KR102174863B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011523388A (en) * | 2008-05-01 | 2011-08-11 | ジャガー カーズ リミテッド | How to provide car information to users |
JP2013067266A (en) * | 2011-09-22 | 2013-04-18 | Toyota Motor Corp | Vehicle body display control device |
JP6137001B2 (en) * | 2014-03-14 | 2017-05-31 | 株式会社デンソー | In-vehicle device |
KR20180059485A (en) * | 2015-09-30 | 2018-06-04 | 닛산 지도우샤 가부시키가이샤 | Vehicle status display system |
KR20180069439A (en) * | 2016-12-15 | 2018-06-25 | 현대자동차주식회사 | A vehicle and method for notifying pedesrian sensing |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023038428A1 (en) * | 2021-09-09 | 2023-03-16 | 엘지전자 주식회사 | Display device, vehicle having same, and control method for vehicle |
KR20230106773A (en) | 2022-01-06 | 2023-07-14 | 울산과학기술원 | Rear-spot warning interaction system and method for automobile |
DE102022130912A1 (en) | 2022-11-22 | 2024-05-23 | Volkswagen Aktiengesellschaft | Method for displaying a navigation instruction on a body surface of at least one motor vehicle, as well as associated vehicle and system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102100051B1 (en) | A 3d lidar system using a dichroic mirror for autonomous driving vehicles | |
KR102618662B1 (en) | 3D feature prediction for autonomous driving | |
US11493920B2 (en) | Autonomous vehicle integrated user alert and environmental labeling | |
US11748620B2 (en) | Generating ground truth for machine learning from time series elements | |
US11521371B2 (en) | Systems and methods for semantic map-based adaptive auto-exposure | |
EP3144918B1 (en) | Computer system and method for monitoring a traffic system | |
US10235768B2 (en) | Image processing device, in-vehicle display system, display device, image processing method, and computer readable medium | |
KR102174863B1 (en) | Autonomous Vehicle Exterior Display Interaction Apparatus and Method | |
WO2020042859A1 (en) | Smart driving control method and apparatus, vehicle, electronic device, and storage medium | |
KR20200110702A (en) | Default preview area and gaze-based driver distraction detection | |
US20140354684A1 (en) | Symbology system and augmented reality heads up display (hud) for communicating safety information | |
CN109476309A (en) | Dynamic pickup range in advanced driving assistance system | |
JP6274177B2 (en) | Vehicle control system | |
CN111874006A (en) | Route planning processing method and device | |
KR20210115026A (en) | Vehicle intelligent driving control method and device, electronic device and storage medium | |
KR20210090624A (en) | Data distribution systems, sensor devices and servers | |
US11682297B2 (en) | Real-time scene mapping to GPS coordinates in traffic sensing or monitoring systems and methods | |
US20180135972A1 (en) | Using map information to smooth objects generated from sensor data | |
US11468591B2 (en) | Scene attribute annotation of complex road typographies | |
CN115257768A (en) | Intelligent driving vehicle environment sensing method, system, equipment and medium | |
US20230343108A1 (en) | Systems and methods for detecting projection attacks on object identification systems | |
CN114332821A (en) | Decision information acquisition method, device, terminal and storage medium | |
KR20220142590A (en) | Electronic device, method, and computer readable storage medium for detection of vehicle appearance | |
KR20210147410A (en) | Method and apparatus for providing information using vehicle's camera | |
US20230290137A1 (en) | Information processing apparatus, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |