KR102569898B1 - Driving assistance system using mixed reality and method for controlling the same - Google Patents

Driving assistance system using mixed reality and method for controlling the same Download PDF

Info

Publication number
KR102569898B1
KR102569898B1 KR1020180145598A KR20180145598A KR102569898B1 KR 102569898 B1 KR102569898 B1 KR 102569898B1 KR 1020180145598 A KR1020180145598 A KR 1020180145598A KR 20180145598 A KR20180145598 A KR 20180145598A KR 102569898 B1 KR102569898 B1 KR 102569898B1
Authority
KR
South Korea
Prior art keywords
driving
mixed reality
assistance system
information
driving assistance
Prior art date
Application number
KR1020180145598A
Other languages
Korean (ko)
Other versions
KR20200060651A (en
Inventor
허남웅
Original Assignee
현대자동차주식회사
기아 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아 주식회사 filed Critical 현대자동차주식회사
Priority to KR1020180145598A priority Critical patent/KR102569898B1/en
Publication of KR20200060651A publication Critical patent/KR20200060651A/en
Application granted granted Critical
Publication of KR102569898B1 publication Critical patent/KR102569898B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/34Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating change of drive direction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/107Longitudinal acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2300/00Indexing codes for automatically adjustable headlamps or automatically dimmable headlamps
    • B60Q2300/10Indexing codes relating to particular vehicle conditions
    • B60Q2300/14Other vehicle conditions
    • B60Q2300/142Turn signal actuation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/42
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • B60W2520/105Longitudinal acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors
    • B60Y2400/304Acceleration sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 주행 방향과 운전석 위치가 운전자의 평소 운전 환경과 반대인 상황에서 혼합 현실 기술을 통해 평소 운전 환경과 유사한 환경을 제공할 수 있는 운전 보조 시스템 및 그 제어 방법에 관한 것이다. 본 발명의 일 실시예에 따른 혼합 현실을 이용한 운전 보조 시스템의 제어 방법은, 인지 정보 획득부를 통해 운전자의 감각과 관련된 주변 인지 정보를 획득하는 단계; 소정 조건이 만족되면, 상기 획득된 정보를 미리 설정된 희망 운전 환경에 대응하여 변환하는 단계; 및 상기 변환된 정보를 출력부를 통해 출력하는 단계를 포함하되, 상기 희망 운전 환경은 좌핸들 또는 우핸들 중 어느 하나로 설정될 수 있다. The present invention relates to a driving assistance system capable of providing an environment similar to a driver's usual driving environment through mixed reality technology in a situation where the driving direction and driver's seat position are opposite to the driver's usual driving environment, and a control method thereof. A control method of a driving assistance system using mixed reality according to an embodiment of the present invention includes acquiring peripheral cognitive information related to a driver's senses through a cognitive information acquiring unit; converting the acquired information to correspond to a preset desired driving environment when a predetermined condition is satisfied; and outputting the converted information through an output unit, wherein the desired driving environment may be set to either left-hand drive or right-hand drive.

Description

혼합 현실을 이용한 운전 보조 시스템 및 그 제어 방법{DRIVING ASSISTANCE SYSTEM USING MIXED REALITY AND METHOD FOR CONTROLLING THE SAME}Driving assistance system using mixed reality and its control method

본 발명은 주행 방향과 운전석 위치가 운전자의 평소 운전 환경과 반대인 상황에서 혼합 현실 기술을 통해 평소 운전 환경과 유사한 환경을 제공할 수 있는 운전 보조 시스템 및 그 제어 방법에 관한 것이다.The present invention relates to a driving assistance system capable of providing an environment similar to a driver's usual driving environment through mixed reality technology in a situation where the driving direction and driver's seat position are opposite to the driver's usual driving environment, and a control method thereof.

한국을 포함한 대다수의 국가에서는 도로의 중앙선을 기준으로 우측 차선에서 정방향 주행을 하며, 이러한 국가에서 운행/판매되는 차량은 운전석이 좌측에 위치하므로 흔히 "좌핸들" 차량이라 부른다.In most countries including Korea, forward driving is performed in the right lane based on the center line of the road, and vehicles operated/sold in these countries are often called "left-hand drive" vehicles because the driver's seat is located on the left side.

이와 달리, 영국이나 일본 등 일부 국가에서는 도로의 중앙선을 기준으로 좌측 차선에서 정방향 주행을 하며, 차량의 운전석이 우측에 있어 "우핸들"이라 칭한다.Unlike this, in some countries, such as the UK and Japan, forward driving is performed in the left lane based on the center line of the road, and the vehicle's driver's seat is on the right side, so it is called "right-hand drive".

따라서, 우핸들 국가 국민이 좌핸들 국가에서 좌핸들 차량을 운전하게 될 경우 또는 좌핸들 국가 국민이 우핸들 국가에서 우핸들 차량을 운전하게 될 경우, 좌/우 회전 규칙과 신호 체계 등이 상이하여 운전 피로도가 증가하고 사고 발생률이 증가하기까지 하는 문제점이 있다.Therefore, when a citizen of a right-hand drive country drives a left-hand drive vehicle in a left-hand drive country or a citizen of a left-hand drive country drives a right-hand drive vehicle in a right-hand drive country, left/right turn rules and signal systems are different, There is a problem that driving fatigue increases and the accident rate increases.

본 발명은 주행 방향과 핸들 위치에 무관하게 자국의 운전 환경을 제공할 수 있는 혼합 현실을 이용한 운전 보조 시스템 및 그 제어 방법을 제공하기 위한 것이다.An object of the present invention is to provide a driving assistance system using mixed reality and a control method thereof capable of providing a local driving environment regardless of driving direction and steering wheel position.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below. You will be able to.

상기와 같은 기술적 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 혼합 현실을 이용한 운전 보조 시스템의 제어 방법은, 인지 정보 획득부를 통해 운전자의 감각과 관련된 주변 인지 정보를 획득하는 단계; 소정 조건이 만족되면, 상기 획득된 정보를 미리 설정된 희망 운전 환경에 대응하여 변환하는 단계; 및 상기 변환된 정보를 출력부를 통해 출력하는 단계를 포함하되, 상기 희망 운전 환경은 좌핸들 또는 우핸들 중 어느 하나로 설정될 수 있다. In order to solve the above technical problem, a control method of a driving assistance system using mixed reality according to an embodiment of the present invention includes acquiring peripheral cognitive information related to a driver's senses through a cognitive information acquisition unit; converting the acquired information to correspond to a preset desired driving environment when a predetermined condition is satisfied; and outputting the converted information through an output unit, wherein the desired driving environment may be set to either left-hand drive or right-hand drive.

또한, 본 발명의 일 실시예에 따른 혼합 현실을 이용한 운전 보조 시스템은 운전자의 감각과 관련된 주변 인지 정보를 획득하는 인지 정보 획득부; 소정 조건이 만족되면, 상기 획득된 정보를 미리 설정된 희망 운전 환경에 대응하여 변환하는 운전 환경 제어기; 및 상기 변환된 정보를 출력하는 출력부를 포함하되, 상기 희망 운전 환경은 좌핸들 또는 우핸들 중 어느 하나로 설정될 수 있다.In addition, a driving assistance system using mixed reality according to an embodiment of the present invention includes a cognitive information acquiring unit that acquires peripheral cognitive information related to a driver's senses; a driving environment controller that converts the acquired information to correspond to a preset desired driving environment when a predetermined condition is satisfied; and an output unit outputting the converted information, wherein the desired driving environment may be set to either left-hand drive or right-hand drive.

상기와 같이 구성되는 본 발명의 적어도 하나의 실시예에 관련된 혼합 현실을 이용한 운전 보조 시스템 및 그 제어 방법을 통해, 주행 방향과 핸들 방향이 운전자에 익숙한 방향과 반대인 상황이라도 동일한 감각으로 운전이 가능하다.Through the driving assistance system using mixed reality and its control method according to at least one embodiment of the present invention configured as described above, it is possible to drive with the same sense even in situations where the driving direction and steering wheel direction are opposite to those familiar to the driver. do.

또한, 본 발명은 시각은 물론 청각과 몸의 쏠림까지 반전시켜주므로 혼합 현실에 의한 위화감이 최소화될 수 있다.In addition, since the present invention reverses not only sight, but also hearing and body leaning, discomfort caused by mixed reality can be minimized.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below. will be.

도 1은 본 발명의 일 실시예에 따른 운전 보조 시스템 구조의 일례를 나타낸 블럭도이다.
도 2는 본 발명의 일 실시예에 따른 운전자의 운전 환경을 나타낸다.
도 3은 본 발명의 일 실시예에 따른 운전 보조 시스템의 제어 방법의 일례를 나타내는 순서도이다.
도 4는 본 발명의 일 실시예에 따른 시각정보 변환이 수행되는 형태의 일례를 나타낸다.
도 5는 본 발명의 일 실시예에 따른 운전 보조 시스템에 전방위 카메라가 구비될 경우 시각정보 변환이 수행되는 형태의 일례를 나타낸다.
1 is a block diagram showing an example of a structure of a driving assistance system according to an embodiment of the present invention.
2 illustrates a driver's driving environment according to an embodiment of the present invention.
3 is a flowchart illustrating an example of a method for controlling a driving assistance system according to an embodiment of the present invention.
4 shows an example of a form in which time information conversion is performed according to an embodiment of the present invention.
5 illustrates an example of a form in which visual information conversion is performed when an omnidirectional camera is provided in a driving assistance system according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily carry out the present invention. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서 전체에 걸쳐서 동일한 참조번호로 표시된 부분들은 동일한 구성요소들을 의미한다.Throughout the specification, when a certain component is said to "include", it means that it may further include other components without excluding other components unless otherwise stated. Also, parts denoted with the same reference numerals throughout the specification mean the same components.

본 발명의 일 실시예에서는, 운전자가 익숙한 핸들방향과 반대 방향인 환경에서 운전중에 운전자의 감각을 통해 인지하게 되는 주변 환경 정보를 차량에서 반전시켜 다시 운전자에게 혼합 현실 형태로 제공함으로써 기존의 운전 감각과 동일한 운전 환경을 제공할 것을 제안한다. 또한, 이를 위해 핸들 조작과 방향 지시등 조작 등 방향에 관련된 입력이 차량의 기능 수행 주체에 전달되기 전에 반전되도록 할 것을 제안한다. 여기서, 혼합 현실이란, 일반적으로 가상 현실과 증강 현실을 혼합한 형태의 기술을 의미하는 것으로, 본 발명에서는 운전자의 감각을 실제 환경과 분리하여 제공하는 기술을 의미할 수 있다. In one embodiment of the present invention, the surrounding environment information perceived through the driver's senses while driving in an environment opposite to the direction of the steering wheel familiar to the driver is reversed in the vehicle and provided again to the driver in the form of mixed reality, thereby providing the existing driving sensation. It is proposed to provide the same driving environment as In addition, for this purpose, it is proposed that inputs related to directions, such as steering wheel operation and direction indicator operation, be reversed before being transmitted to the subject performing the function of the vehicle. Here, mixed reality generally refers to a technology in which virtual reality and augmented reality are mixed, and in the present invention, it may mean a technology that separates the driver's senses from the real environment and provides them.

도 1은 본 발명의 일 실시예에 따른 운전 보조 시스템 구조의 일례를 나타낸 블럭도이다.1 is a block diagram showing an example of a structure of a driving assistance system according to an embodiment of the present invention.

도 1을 참조하면, 실시예에 따른 운전 보조 시스템은 인지 정보 획득부(110), 조작부(120), 운전 환경 제어기(130), 출력부(140), 바디 제어기(150) 및 조향 제어기(160)를 포함할 수 있다. 도 1에 도시된 구성 요소는 본 발명의 실시와 관련된 구성 요소만을 나타낸 것으로, 실제 운전 보조 시스템의 구현에는 이보다 많거나 적은 구성 요소가 포함될 수 있음은 물론이다. 이하, 각 구성 요소에 대하여 상세히 설명한다.Referring to FIG. 1 , a driving assistance system according to an embodiment includes a recognition information acquisition unit 110, a manipulation unit 120, a driving environment controller 130, an output unit 140, a body controller 150, and a steering controller 160. ) may be included. The components shown in FIG. 1 represent only the components related to the implementation of the present invention, and it goes without saying that more or fewer components may be included in the actual implementation of the driving assistance system. Hereinafter, each component will be described in detail.

먼저, 인지 정보 획득부(110)는 운전자가 운전 중에 운행 환경을 인지하는 감각과 관련된 정보를 획득할 수 있다. 이를 위해, 인지 정보 획득부(110)는 시각 정보를 획득하는 카메라(111), 음향 정보를 획득하는 마이크(112) 및 차량의 거동에 의해 운전자가 느낄 가속도를 감지하는 센서(113)를 포함할 수 있다.First, the cognitive information acquisition unit 110 may obtain information related to a sense of a driver's perception of a driving environment while driving. To this end, the cognitive information acquisition unit 110 may include a camera 111 that obtains visual information, a microphone 112 that acquires sound information, and a sensor 113 that detects the acceleration felt by the driver due to the behavior of the vehicle. can

예를 들어, 카메라(111)는 적어도 차량 전방의 영상을 획득하는 전방 카메라, 운전자 시점에서 사이드 미러의 영상을 획득하는 인캐빈 카메라, 사이드 미러의 위치 또는 그에 인접하게 배치되는 사이드 카메라, 차량 주변의 360도 영상을 획득하는 전방위 카메라 중 적어도 하나를 포함할 수 있다.For example, the camera 111 includes a front camera that acquires an image of at least the front of the vehicle, an in-cabin camera that acquires an image of a side mirror from the driver's point of view, a side camera disposed at or adjacent to the side mirror, It may include at least one of omnidirectional cameras that acquire 360-degree images.

마이크(112)는 적어도 음향의 좌측과 우측을 구분할 수 있도록 스테레오 마이크인 것이 바람직하며, 더욱 바람직하게는 전방위 마이크일 수 있다.The microphone 112 is preferably a stereo microphone so that at least the left and right sides of the sound can be distinguished, and more preferably, it may be an omnidirectional microphone.

센서(113)는 차량의 거동에 따라 운전자가 느끼는 쏠림을 감지할 수 있도록 가속도 센서나 자이로 센서를 포함할 수 있다.The sensor 113 may include an acceleration sensor or a gyro sensor to detect leaning felt by the driver according to the behavior of the vehicle.

다음으로, 조작부(120)는 특히 방향에 관련되어 운전자가 운전중 조작하게 되는 차량 구성요소로, 스티어링 휠과 방향 지시등 조작 레버가 이에 해당할 수 있다.Next, the control unit 120 is a vehicle component that is operated by a driver while driving in relation to a direction, and may correspond to a steering wheel and a direction indicator control lever.

운전 환경 제어기(130)는 인지 정보 획득부(110)에서 획득된 영상, 음향, 가속도 정보를 입력받아 운전자의 희망 운전 환경과 해당 정보에서 취득된 운전 환경 요소가 일치하는지 여부를 판단하고, 일치하지 않는 경우 해당 정보를 운전자의 희망 운전 환경에 대응되도록 변환시킬 수 있다. 이때, 운전 환경 제어기(130)는 조작부(120)를 통해 입력되는 조작 입력 또한 변환시킬 수 있다. 여기서, 변환이라 함은 좌우 반전을 의미할 수 있다. 변환된 조작 입력은 바디 제어기(150)와 조향 제어기(160) 등의 개별 기능 수행 제어기로 전달될 수 있다. The driving environment controller 130 receives the image, sound, and acceleration information obtained from the recognition information acquisition unit 110 and determines whether the driver's desired driving environment matches the driving environment elements obtained from the corresponding information, and determines whether or not they match. If not, the corresponding information may be converted to correspond to the driver's desired driving environment. At this time, the driving environment controller 130 may also convert a manipulation input input through the manipulation unit 120 . Here, transformation may mean left-right inversion. The converted manipulation input may be transmitted to individual function execution controllers such as the body controller 150 and the steering controller 160.

물론, 운전 환경 제어기(130)는 운전자의 희망 운전 환경과 운전 환경 요소가 일치할 경우에는 해당 정보와 조작 입력을 변환시키지 않고 그대로 출력부(140)와 기타 제어기(150, 160)로 전달할 수 있다. Of course, the driving environment controller 130 may transmit the corresponding information and manipulation input to the output unit 140 and the other controllers 150 and 160 as they are without conversion when the driver's desired driving environment matches the driving environment element. .

출력부(140)는 운전자의 시야를 커버하는 형태의 헤드마운트 디스플레이(141), 음향을 출력하는 헤드폰(142) 및 틸팅 시트(143)를 포함할 수 있다. 헤드마운트 디스플레이(141, HMD: Head Mounted Display)에서 변환된 영상이 표시되는 구체적인 형태는 도 4를 참조하여 후술하기로 한다.The output unit 140 may include a head mounted display 141 covering the driver's field of view, headphones 142 outputting sound, and a tilting seat 143. A specific form in which the converted image is displayed on the head mounted display 141 (HMD: Head Mounted Display) will be described later with reference to FIG. 4 .

헤드폰(142)은 적어도 스테레오 헤드폰인 것이 바람직하며, 전방위 마이크가 지원될 경우에는 좌우는 물론 전후방 음향까지 구분하여 전달하는 다채널 헤드폰인 것이 더욱 바람직하다.The headphone 142 is preferably at least a stereo headphone, and when an omnidirectional microphone is supported, it is more preferable that the headphone 142 is a multi-channel headphone that separately transmits front and rear sounds as well as left and right.

물론, 헤드마운트 디스플레이(141)와 헤드폰(142)은 예시적인 것으로 실제 주변 운전 환경을 차단하고 운전 환경 제어기가 가공한 시각 정보와 청각 정보를 운전자에 전달할 수 있다면, 전방위 모니터나 스피커 등 다른 구성 요소로 대체될 수 있음은 당업자에 자명하다.Of course, the head-mounted display 141 and the headphones 142 are illustrative, and if they can block the actual driving environment and transmit the visual and auditory information processed by the driving environment controller to the driver, other components such as a omnidirectional monitor or speaker It is obvious to those skilled in the art that it can be replaced with.

틸팅 시트(143)는 운전석을 적어도 좌우로 틸팅시킬 수 있는 액츄에이터를 구비하여, 센서(113) 신호에 기반하여 운전 환경 제어기(130)가 생성한 구동 신호에 따라 좌측 또는 우측으로 틸팅될 수 있다. 이러한 틸팅 시트가 구비됨으로 인해, 시각 정보와 청각 정보가 반전될 때 몸의 쏠림까지 반전된 정보와 조화되도록 함으로써 위화감이 최소화될 수 있다. 예를 들어, 시각, 청각 및 핸들 조작이 좌우반전된 상태에서 운전자가 우회전을 시도할 경우, 차량은 실제로 좌회전을 하게 된다. 이때, 틸팅 시트(143)가 구비되지 않는다면 운전자는 우회전을 한다고 생각함에도 몸은 우측으로 쏠려 감각간의 부조화가 발생한다. 따라서, 틸팅 시트(143)가 우측으로 쏠리는 가속도를 상쇄시키고 몸이 좌측으로 쏠릴 정보로 좌측으로 틸팅된다면 운전자는 몸의 쏠림마저도 우회전에 대응되어 반전된 나머지 감각과 일치하므로 반전된 감각에 대한 위화감이 최소화된다.The tilting seat 143 includes an actuator capable of tilting the driver's seat left and right at least, and can be tilted left or right according to a driving signal generated by the driving environment controller 130 based on a signal from the sensor 113. Due to the provision of such a tilting seat, when the visual information and the auditory information are reversed, the sense of incongruity can be minimized by harmonizing the inverted information with the body leaning. For example, when the driver attempts to turn right while the visual, auditory and steering wheel operations are reversed left and right, the vehicle actually turns left. At this time, if the tilting seat 143 is not provided, the driver's body leans to the right even though he thinks he is making a right turn, resulting in incongruity between his senses. Therefore, if the tilting seat 143 cancels the acceleration leaning to the right and tilts to the left with the information that the body will lean to the left, the driver's sense of incongruity for the inverted sense is consistent with the rest of the inverted senses even the body tilt corresponds to the right turn. is minimized

예컨대, 운전자는 도 2와 같은 상황에서 운전을 하게 된다. 도 2은 본 발명의 일 실시예에 따른 운전자의 운전 환경을 나타낸다. 도 2를 참조하면, 운전자는 틸팅 시트(143)로 구현된 운전석에 착석하여, 헤드마운트 디스플레이(141)를 착용한 상태로 운전하게 된다.For example, the driver drives in the situation shown in FIG. 2 . 2 illustrates a driver's driving environment according to an embodiment of the present invention. Referring to FIG. 2 , a driver sits in a driver's seat implemented as a tilting seat 143 and drives while wearing a head mounted display 141 .

다시 도 1로 복귀하여, 바디 제어기(150)는 조작부(120)에서 방향 지시등 레버가 조작됨에 따라 발생한 점등 신호를 운전 환경 제어기(130)를 통해 그대로 전달받거나, 방향이 반전된 점등 신호를 수신하여, 해당 신호에 대응되는 방향 지시등을 점등시킬 수 있다.Returning to FIG. 1 again, the body controller 150 receives the lighting signal generated as the direction indicator lever is operated in the control unit 120 through the driving environment controller 130 as it is or receives the lighting signal whose direction is reversed. , the direction indicator lamp corresponding to the corresponding signal may be turned on.

조향 제어기(160)는 랙 앤 피니언 타입이 아닌 전기 모터를 이용한 전자식 조향 시스템을 제어하는 제어기인 것이 바람직하다. 이는 전자식 조향 시스템이 구비되어야 스티어링 휠의 회전 방향과 조향 방향이 반전될 수 있기 때문이다. 바디 제어기(150)와 유사하게, 조향 제어기(160)는 운전 환경 제어기(130)로부터 반전되거나 반전되지 않은 조향 신호를 입력받고, 그에 대응하여 조향 시스템을 제어할 수 있다.The steering controller 160 is preferably a controller that controls an electronic steering system using an electric motor that is not a rack and pinion type. This is because the rotation direction and the steering direction of the steering wheel can be reversed only when the electronic steering system is provided. Similar to the body controller 150, the steering controller 160 may receive an inverted or non-inverted steering signal from the driving environment controller 130 and control the steering system in response thereto.

도 3은 본 발명의 일 실시예에 따른 운전 보조 시스템의 제어 방법의 일례를 나타내는 순서도이다.3 is a flowchart illustrating an example of a method for controlling a driving assistance system according to an embodiment of the present invention.

도 3을 참조하면, 먼저 운전자의 희망 운전 환경이 결정될 수 있다(S210). 희망 운전 환경의 결정은 운전자가 소정의 조작계 조작을 통한 명령 입력 과정일 수도 있고, 운전자가 소지하되 운전자의 평소 운전 방향에 대한 정보를 저장한 스마트 기기가 차량에 해당 정보를 전달하는 과정일 수도 있다. 예를 들어, 희망 운전 환경은 좌핸들 또는 우핸들 중 어느 하나를 선택하는 형태로 수행될 수 있다.Referring to FIG. 3 , first, a driver's desired driving environment may be determined (S210). Determination of the desired driving environment may be a process in which the driver inputs a command through manipulation of a predetermined control system, or a process in which a smart device carried by the driver but storing information about the driver's usual driving direction transmits the information to the vehicle. . For example, the desired driving environment may be performed in the form of selecting either left-hand drive or right-hand drive.

운전 환경 제어기(130)는 인지 정보 획득부(110)를 통해 시각, 청각, 가속도 등 주변 인지 정보를 획득할 수 있다(S220).The driving environment controller 130 may obtain peripheral cognitive information such as visual, auditory, and acceleration through the cognitive information acquisition unit 110 (S220).

운전 환경 제어기(130)는 획득된 정보를 기반으로 운전 환경 요소를 취득할 수 있다(S230). 여기서 운전 환경 요소라 함은, 도로의 주행방향(또는 핸들 방향)을 결정함에 기반이 되는 정보로, 주행 방향에 대한 중앙선의 위치, 반대 방향으로 주행하는 차량의 위치, 국가를 판단할 수 있는 표지판 등이 이에 해당할 수 있으나, 반드시 이에 한정되는 것은 아니다.The driving environment controller 130 may acquire driving environment elements based on the acquired information (S230). Here, the driving environment factor is information that is the basis for determining the driving direction (or steering wheel direction) of the road, and the position of the center line relative to the driving direction, the position of vehicles driving in the opposite direction, and signs that can determine the country And the like may correspond to this, but is not necessarily limited thereto.

운전 환경 제어기(130)는 취득한 운전 환경 요소를 기반으로 현재 주행 방향을 판단하고, 판단된 주행 방향이 운전자의 희망 운전 환경과 일치하는지 여부를 판단한다(S240).The driving environment controller 130 determines the current driving direction based on the acquired driving environment elements, and determines whether the determined driving direction coincides with the driver's desired driving environment (S240).

판단 결과, 일치하지 않는 경우 운전 환경 제어기(130)는 주변 인지 정보를 희망 운전 환경에 대응하여 변환하고, 변환된 정보를 출력부(140)로 전달할 수 있다(S250). 이때, 운전 환경 제어기(130)는 조작부(120)를 통해 입력된 신호 중 방향과 관련된 조작에 대응되는 신호를 반전하여 바디 제어기(150)와 조향 제어기(160)에 전달할 수 있다. 또한, 정보를 변환한다고 함은 단순히 좌우 반전 외에, 추가적 영상 가공을 포함하는 개념일 수 있다. 추가적 영상 가공이 수행되는 구체적인 형태는 도 4를 참조하여 후술하기로 한다.As a result of the determination, if they do not match, the driving environment controller 130 may convert the surrounding cognitive information to correspond to the desired driving environment, and transmit the converted information to the output unit 140 (S250). At this time, the driving environment controller 130 may invert a signal corresponding to a manipulation related to a direction among signals input through the manipulation unit 120 and transmit the inverted signal to the body controller 150 and the steering controller 160 . In addition, converting information may be a concept including additional image processing in addition to simple horizontal reversal. A specific form in which additional image processing is performed will be described later with reference to FIG. 4 .

이와 달리, 판단된 주행 방향이 운전자의 희망 운전 환경과 일치하는 경우 운전 환경 제어기(130)는 인지 정보 획득부(110)에서 획득한 정보는 반전 없이 그대로 출력부(140)로 전달하고, 조작부(120)에서 입력된 신호도 반전 없이 바디 제어기(150)와 조향 제어기(160)로 전달할 수 있다(S260).In contrast, when the determined driving direction matches the desired driving environment of the driver, the driving environment controller 130 transfers the information obtained from the recognition information acquisition unit 110 to the output unit 140 as it is without reversal, and the operation unit ( The signal input from 120) can also be transmitted to the body controller 150 and the steering controller 160 without inversion (S260).

도 4는 본 발명의 일 실시예에 따른 시각정보 변환이 수행되는 형태의 일례를 나타낸다. 도 4에서는 간명한 이해를 돕기 위하여 차량 전방의 영상을 기준으로 설명하며, 운전자는 좌핸들을 희망 운전 환경으로 선택한 경우가 가정된다.4 shows an example of a form in which time information conversion is performed according to an embodiment of the present invention. In FIG. 4 , a description is given based on an image of the front of the vehicle for easy understanding, and it is assumed that the driver selects the left steering wheel as the desired driving environment.

먼저 도 4의 (a)를 참조하면, 전방 카메라를 통해 촬영된 영상이 도시된다. 이러한 영상에서 운전 환경 제어기(130)는 중앙선(410)을 검출하고 영상 내에서 상대적 방향을 기반으로 현재 주행 방향을 판단할 수 있다. 예를 들어, 도 4의 (a)와 같은 상황에서는 중앙선(410)이 좌측에 위치하므로 운전 환경 제어기(130)는 주행 방향이 좌핸들에 해당함을 판단할 수 있다. 따라서, 희망 운전 환경과 현재 주행방향이 일치하지 않으므로 운전 환경 제어기(130)는 영상의 변환을 결정한다.First, referring to (a) of FIG. 4 , an image captured through a front camera is shown. In this image, the driving environment controller 130 may detect the center line 410 and determine the current driving direction based on the relative direction within the image. For example, in the situation shown in (a) of FIG. 4 , since the center line 410 is located on the left side, the driving environment controller 130 may determine that the driving direction corresponds to the left steering wheel. Therefore, since the desired driving environment and the current driving direction do not match, the driving environment controller 130 determines the conversion of the image.

그에 따라, 운전 환경 제어기(130)는 도 4의 (b)와 같이 전방 영상을 좌우 반전시킬 수 있다. 이때, 좌우 반전된 영상에는 교통 표지판과 같이 운전에 참고될 필요가 있는 주변 객체가 포함될 수 있는데, 운전 환경 제어기(130)는 이러한 주변 객체 중 반전된 상태로 출력될 객체와 반전되어서는 안될 객체를 판단할 수 있다. 여기서, 영상 내에서 주변 객체의 인식은 특징점 추출 기반의 형상 인식 기술이나 텍스트 인식 기술 등 이미 널리 알려진 기술이 이용될 수 있음은 당업자에 자명한 바, 구체적인 인식 방법에 대한 기재는 생략하기로 한다.Accordingly, the driving environment controller 130 may invert the front image left and right as shown in (b) of FIG. 4 . At this time, the left-right reversed image may include surrounding objects that need to be referred to for driving, such as traffic signs. can judge Here, it is obvious to those skilled in the art that widely known technologies such as feature point extraction-based shape recognition technology or text recognition technology can be used to recognize a surrounding object in an image, so description of a specific recognition method will be omitted.

예를 들어, 반전된 상태로 출력될 객체는 방향을 지시하는 객체(430)일 수 있다. 또한, 반전되어서는 안될 방향성을 갖는 객체는 좌우 반전될 경우 운전자가 위화감을 느낄 수 있는 정형화된 표지나 텍스트를 포함하는 객체(420, 440)가 이에 해당할 수 있다.For example, an object to be output in an inverted state may be an object 430 indicating a direction. In addition, the objects 420 and 440 including standardized signs or texts that may cause a driver to feel uncomfortable when left and right reversed may correspond to objects having directions that should not be reversed.

운전 환경 제어기(130)는 도 4의 (c)와 같이 방향성을 갖는 객체는 재반전시켜(420') 최종적으로 헤드마운트 디스플레이(141)에 제공될 영상을 생성할 수 있다. 만일, 희망 운전 환경을 설정함에 있어 희망 언어까지 설정된 경우, 텍스트를 포함하는 객체(440)의 텍스트는 희망 언어로 변환(440')될 수도 있다. 예컨대, 희망 언어가 한글일 경우 "STOP" 표지판은 "정지"와 같이 변환되어 출력될 수 있다.As shown in (c) of FIG. 4 , the driving environment controller 130 may re-invert the directional object ( 420 ′) to finally generate an image to be provided to the head mounted display 141 . If a desired language is set in setting the desired driving environment, the text of the object 440 including text may be converted into the desired language (440'). For example, when the desired language is Korean, a “STOP” sign may be converted to “stop” and output.

도 5는 본 발명의 일 실시예에 따른 운전 보조 시스템에 전방위 카메라가 구비될 경우 시각정보 변환이 수행되는 형태의 일례를 나타낸다. 5 illustrates an example of a form in which visual information conversion is performed when an omnidirectional camera is provided in a driving assistance system according to an embodiment of the present invention.

도 5의 (a)를 참조하면, 전방위 카메라를 통해 촬영된 영상의 한 프레임이 도시된다. 운전 환경 제어기(130)는 희망 운전 환경과 현재 주행방향이 일치하지 않을 경우 도 5의 (b)와 같이 획득된 영상을 좌우 반전시키고, 반전된 영상 중 현재 헤드마운트 디스플레이가 향하는 방향에 대응하여 운전자의 시야에 해당하는 부분의 영상을 헤드마운트 디스플레이에 제공할 수 있다.Referring to (a) of FIG. 5, one frame of an image photographed through an omnidirectional camera is shown. When the desired driving environment and the current driving direction do not match, the driving environment controller 130 horizontally reverses the acquired image as shown in FIG. An image of a portion corresponding to the field of view of the user may be provided to the head mounted display.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. The above-described present invention can be implemented as computer readable code on a medium on which a program is recorded. The computer-readable medium includes all types of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. there is

따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.Accordingly, the above detailed description should not be construed as limiting in all respects and should be considered illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Claims (19)

인지 정보 획득부를 통해 운전자의 감각과 관련된 정보로서 차량 주행 중의주변 인지 정보를 획득하는 단계;
상기 획득된 정보를 기반으로 우측 차선 정방향 주행인지, 좌측 차선 정방향 주행인지 판단하는 단계;
기 설정된 조건이 만족되면, 상기 획득된 정보를 미리 설정된 희망 운전 환경에 대응하여 변환하는 단계; 및
상기 변환된 정보를 출력부를 통해 출력하는 단계를 포함하되,
상기 희망 운전 환경은 좌핸들 또는 우핸들 중 어느 하나로 설정되고,
상기 인지 정보 획득부는 차량의 거동에 따른 가속도를 감지하는 센서를 포함하며,
상기 센서에서 감지된 가속도의 역방향으로 시트를 틸트시키는 단계를 더 포함하는,
혼합 현실을 이용한 운전 보조 시스템의 제어 방법.
Acquiring peripheral cognitive information while the vehicle is driving as information related to a driver's senses through a cognitive information acquisition unit;
determining whether forward driving in the right lane or forward driving in the left lane is based on the obtained information;
converting the acquired information to correspond to a preset desired driving environment when a preset condition is satisfied; and
Outputting the converted information through an output unit,
The desired driving environment is set to either a left-hand drive or a right-hand drive,
The recognition information obtaining unit includes a sensor for detecting acceleration according to the behavior of the vehicle,
Further comprising tilting the sheet in the reverse direction of the acceleration sensed by the sensor,
Control method of driving assistance system using mixed reality.
제1 항에 있어서,
상기 인지 정보 획득부는 적어도 전방 영상을 촬영하는 카메라 및 마이크를 더 포함하고,
상기 주변 인지 정보는 전방 영상 및 주변 음향을 포함하는, 혼합 현실을 이용한 운전 보조 시스템의 제어 방법.
According to claim 1,
The recognition information acquisition unit further includes a camera and a microphone for taking at least a front image,
The method of controlling a driving assistance system using mixed reality, wherein the surrounding perception information includes a front image and ambient sound.
제2 항에 있어서,
상기 변환하는 단계는,
상기 카메라를 통해 획득된 영상과 상기 마이크를 통해 획득된 주변 음향을 좌우 반전시키는 단계를 포함하는, 혼합 현실을 이용한 운전 보조 시스템의 제어 방법.
According to claim 2,
The conversion step is
A method of controlling a driving assistance system using mixed reality, comprising the step of horizontally reversing an image acquired through the camera and an ambient sound obtained through the microphone.
제3 항에 있어서,
상기 출력부는 헤드마운트 디스플레이 및 헤드폰을 포함하되,
상기 출력하는 단계는,
상기 반전된 영상을 헤드마운트 디스플레이로 출력하는 단계; 및
상기 반전된 주변 음향을 헤드폰으로 출력하는 단계를 포함하는, 혼합 현실을 이용한 운전 보조 시스템의 제어 방법.
According to claim 3,
The output unit includes a head mounted display and headphones,
The outputting step is
outputting the inverted image to a head mounted display; and
A method of controlling a driving assistance system using mixed reality, comprising outputting the inverted ambient sound through headphones.
제3 항에 있어서,
상기 변환하는 단계는,
상기 카메라를 통해 획득된 영상에서 적어도 하나의 객체를 추출하는 단계;
상기 적어도 하나의 객체의 방향성 여부를 판단하는 단계; 및
상기 반전된 영상에서 방향성이 있는 것으로 판단된 객체를 재반전시키는 단계를 더 포함하는, 혼합 현실을 이용한 운전 보조 시스템의 제어 방법.
According to claim 3,
The conversion step is
extracting at least one object from an image obtained through the camera;
determining whether the at least one object has a directivity; and
The method of controlling a driving assistance system using mixed reality further comprising the step of re-inverting an object determined to have directionality in the inverted image.
삭제delete 제1 항에 있어서,
상기 기 설정된 조건이 만족될 때,
차량의 조작부를 통해 입력되는 방향과 관련된 조작에 대응되는 신호를 좌우 반전시켜 상기 차량의 기능 수행 제어기로 전달하는 단계를 더 포함하는, 혼합 현실을 이용한 운전 보조 시스템의 제어 방법.
According to claim 1,
When the preset condition is satisfied,
A method of controlling a driving assistance system using mixed reality, further comprising: inverting a signal corresponding to a manipulation related to a direction input through a manipulation unit of a vehicle, and transmitting the signal to a function execution controller of the vehicle.
제7 항에 있어서,
상기 조작부는, 방향 지시등 레버 및 스티어링 휠을 포함하고,
상기 기능 수행 제어기는,
상기 방향 지시등 레버의 조작에 대응되는 방향 지시등을 제어하는 제1 제어기 및 상기 스티어링 휠의 조작에 대응되는 조향 시스템을 제어하는 제2 제어기를 포함하는, 혼합 현실을 이용한 운전 보조 시스템의 제어 방법.
According to claim 7,
The control unit includes a direction indicator lever and a steering wheel,
The function execution controller,
A method of controlling a driving assistance system using mixed reality, comprising: a first controller controlling a direction indicator corresponding to an operation of the direction indicator lever and a second controller controlling a steering system corresponding to an operation of the steering wheel.
제1 항에 있어서,
상기 기 설정된 조건은,
상기 희망 운전 환경과 상기 인지 정보 획득부에서 획득된 정보를 기반으로 판단한 주행방향이 서로 상이한 경우 만족되는, 혼합 현실을 이용한 운전 보조 시스템의 제어 방법.
According to claim 1,
The preset condition is,
The method of controlling a driving assistance system using mixed reality, which is satisfied when the desired driving environment and the driving direction determined based on the information acquired by the recognition information obtaining unit are different from each other.
제1 항 내지 제5 항 및 제7 항 내지 제9 항 중 어느 한 항에 따른 혼합 현실을 이용한 운전 보조 시스템의 제어 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터 해독 가능 기록 매체.A computer readable recording medium storing a program for executing the control method of a driving assistance system using mixed reality according to any one of claims 1 to 5 and 7 to 9. 운전자의 감각과 관련된 정보로서 차량 주행 중의 주변 인지 정보를 획득하는 인지 정보 획득부;
상기 획득된 정보를 기반으로 우측 차선 정방향 주행인지, 좌측 차선 정방향 주행인지 판단하고, 기 설정된 조건이 만족되면, 상기 획득된 정보를 미리 설정된 희망 운전 환경에 대응하여 변환하는 운전 환경 제어기; 및
상기 변환된 정보를 출력하는 출력부를 포함하되,
상기 희망 운전 환경은 좌핸들 또는 우핸들 중 어느 하나로 설정되며,
적어도 좌측 또는 우측으로 틸팅되는 틸팅 시트를 더 포함하되,
상기 인지 정보 획득부는 차량의 거동에 따른 가속도를 감지하는 센서를 포함하고,
상기 운전 환경 제어기는, 상기 틸팅 시트가 상기 센서에서 감지된 가속도의 역방향으로 틸팅되도록 제어하는,
혼합 현실을 이용한 운전 보조 시스템.
A cognitive information acquisition unit for obtaining peripheral recognition information while driving the vehicle as information related to the driver's senses;
a driving environment controller that determines whether forward driving in the right lane or forward driving in the left lane is based on the acquired information, and converts the obtained information according to a preset desired driving environment when a preset condition is satisfied; and
Including an output unit for outputting the converted information,
The desired driving environment is set to either left-hand drive or right-hand drive,
Further comprising a tilting seat that is tilted at least to the left or right,
The recognition information obtaining unit includes a sensor for detecting acceleration according to the behavior of the vehicle,
The driving environment controller controls the tilting seat to be tilted in the reverse direction of the acceleration sensed by the sensor.
Driving assistance systems using mixed reality.
제11 항에 있어서,
상기 인지 정보 획득부는 적어도 전방 영상을 촬영하는 카메라 및 마이크를 더 포함하고,
상기 주변 인지 정보는 전방 영상 및 주변 음향을 포함하는, 혼합 현실을 이용한 운전 보조 시스템.
According to claim 11,
The recognition information acquisition unit further includes a camera and a microphone for taking at least a front image,
The driving assistance system using mixed reality, wherein the surrounding perception information includes a front image and ambient sound.
제12 항에 있어서,
상기 운전 환경 제어기는,
상기 카메라를 통해 획득된 영상과 상기 마이크를 통해 획득된 주변 음향을 좌우 반전시키는, 혼합 현실을 이용한 운전 보조 시스템.
According to claim 12,
The driving environment controller,
A driving assistance system using mixed reality that reverses the image acquired through the camera and the ambient sound acquired through the microphone in the left and right directions.
제13 항에 있어서,
상기 출력부는,
상기 반전된 영상을 출력하는 헤드마운트 디스플레이; 및
상기 반전된 주변 음향을 출력하는 헤드폰을 포함하는, 혼합 현실을 이용한 운전 보조 시스템.
According to claim 13,
the output unit,
a head mounted display outputting the inverted image; and
A driving assistance system using mixed reality, including headphones outputting the inverted ambient sound.
제13 항에 있어서,
상기 운전 환경 제어기는,
상기 카메라를 통해 획득된 영상에서 적어도 하나의 객체를 추출하고, 상기 적어도 하나의 객체의 방향성 여부를 판단하여, 상기 반전된 영상에서 방향성이 있는 것으로 판단된 객체를 재반전시키는, 혼합 현실을 이용한 운전 보조 시스템.
According to claim 13,
The driving environment controller,
Driving using mixed reality that extracts at least one object from the image acquired through the camera, determines whether the at least one object has directionality, and re-inverts the object determined to have directionality in the inverted image. auxiliary system.
삭제delete 제11 항에 있어서,
상기 기 설정된 조건이 만족될 때,
상기 운전 환경 제어기는,
차량의 조작부를 통해 입력되는 방향과 관련된 조작에 대응되는 신호를 좌우 반전시켜 상기 차량의 기능 수행 제어기로 전달하는, 혼합 현실을 이용한 운전 보조 시스템.
According to claim 11,
When the preset condition is satisfied,
The driving environment controller,
A driving assistance system using mixed reality, wherein a signal corresponding to an operation related to a direction input through a control unit of a vehicle is horizontally reversed and transmitted to a controller performing a function of the vehicle.
제17 항에 있어서,
상기 조작부는, 방향 지시등 레버 및 스티어링 휠을 포함하고,
상기 기능 수행 제어기는,
상기 방향 지시등 레버의 조작에 대응되는 방향 지시등을 제어하는 제1 제어기 및 상기 스티어링 휠의 조작에 대응되는 조향 시스템을 제어하는 제2 제어기를 포함하는, 혼합 현실을 이용한 운전 보조 시스템.
According to claim 17,
The control unit includes a direction indicator lever and a steering wheel,
The function execution controller,
A driving assistance system using mixed reality, comprising: a first controller controlling direction indicators corresponding to manipulation of the direction indicator lever and a second controller controlling a steering system corresponding to manipulation of the steering wheel.
제11 항에 있어서,
상기 기 설정된 조건은,
상기 희망 운전 환경과 상기 인지 정보 획득부에서 획득된 정보를 기반으로 판단한 주행방향이 서로 상이한 경우 만족되는, 혼합 현실을 이용한 운전 보조 시스템.
According to claim 11,
The preset condition is,
A driving assistance system using mixed reality, which is satisfied when the desired driving environment and the driving direction determined based on the information acquired by the recognition information obtaining unit are different from each other.
KR1020180145598A 2018-11-22 2018-11-22 Driving assistance system using mixed reality and method for controlling the same KR102569898B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180145598A KR102569898B1 (en) 2018-11-22 2018-11-22 Driving assistance system using mixed reality and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180145598A KR102569898B1 (en) 2018-11-22 2018-11-22 Driving assistance system using mixed reality and method for controlling the same

Publications (2)

Publication Number Publication Date
KR20200060651A KR20200060651A (en) 2020-06-01
KR102569898B1 true KR102569898B1 (en) 2023-08-24

Family

ID=71083291

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180145598A KR102569898B1 (en) 2018-11-22 2018-11-22 Driving assistance system using mixed reality and method for controlling the same

Country Status (1)

Country Link
KR (1) KR102569898B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023287175A1 (en) * 2021-07-13 2023-01-19 엘지전자 주식회사 Route guidance device and route guidance system based on augmented reality and mixed reality

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002318525A (en) * 2001-04-23 2002-10-31 Honda Motor Co Ltd Drive simulator

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2301216A (en) * 1995-05-25 1996-11-27 Philips Electronics Uk Ltd Display headset
KR20180089717A (en) * 2017-02-01 2018-08-09 주식회사 만도 Driving Support Device Of Vehicle And Driving Method Thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002318525A (en) * 2001-04-23 2002-10-31 Honda Motor Co Ltd Drive simulator

Also Published As

Publication number Publication date
KR20200060651A (en) 2020-06-01

Similar Documents

Publication Publication Date Title
US20180270571A1 (en) Techniques for amplifying sound based on directions of interest
US10061995B2 (en) Imaging system to detect a trigger and select an imaging area
US8948414B2 (en) Providing audible signals to a driver
US20090192707A1 (en) Audio Guide Device, Audio Guide Method, And Audio Guide Program
US9984298B2 (en) Method for outputting a drowsiness warning and control unit
EP3495942B1 (en) Head-mounted display and control method thereof
JP2020537257A (en) How to operate a head-worn electronic display device and a display system that displays virtual content
WO2019198123A1 (en) Navigation device and navigation method
KR102569898B1 (en) Driving assistance system using mixed reality and method for controlling the same
JP4075722B2 (en) Display control device for vehicle
US11068054B2 (en) Vehicle and control method thereof
KR20180094717A (en) Driving assistance apparatus using avm
JP7456490B2 (en) Sound data processing device and sound data processing method
JP2007280203A (en) Information presenting device, automobile and information presenting method
JP6941472B2 (en) Video playback device, video playback system, and video playback method
JP2017092766A (en) Image processing device, information display system, image processing method and program
JP2021176107A (en) Drive recorder, approach detection method, and approach detection program
TW201823684A (en) Vehicle navigation projection system and method thereof
KR20230034448A (en) Vehicle and method for controlling thereof
JP6727400B2 (en) Display control device and display control method
KR20200082317A (en) Video processing apparatus and operating method for the same
JP2004177315A (en) Apparatus for detecting direction of line of vision, dialog system using it, and driving support system
KR101633501B1 (en) AVM system for providing information of side distance and method thereof
JP2019186790A (en) Video image control device, vehicle photographing device, video image control method, and program
JP7063098B2 (en) Information providing device for vehicles

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)