KR20230114769A - 안전성를 확보하는 가상 환경 출력 시스템 - Google Patents

안전성를 확보하는 가상 환경 출력 시스템 Download PDF

Info

Publication number
KR20230114769A
KR20230114769A KR1020220009669A KR20220009669A KR20230114769A KR 20230114769 A KR20230114769 A KR 20230114769A KR 1020220009669 A KR1020220009669 A KR 1020220009669A KR 20220009669 A KR20220009669 A KR 20220009669A KR 20230114769 A KR20230114769 A KR 20230114769A
Authority
KR
South Korea
Prior art keywords
virtual environment
vehicle
output
driving
unit
Prior art date
Application number
KR1020220009669A
Other languages
English (en)
Inventor
곽은미
노진우
정다해
조민경
박수조
Original Assignee
한양대학교 에리카산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 에리카산학협력단 filed Critical 한양대학교 에리카산학협력단
Priority to KR1020220009669A priority Critical patent/KR20230114769A/ko
Publication of KR20230114769A publication Critical patent/KR20230114769A/ko

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0016Planning or execution of driving tasks specially adapted for safety of the vehicle or its occupants
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2111/00Details relating to CAD techniques
    • G06F2111/18Details relating to CAD techniques using virtual or augmented reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 자율주행 차량이 주행하는 경우에 가상의 환경에서 실제로 주행하는 것처럼 출력하되 안전을 위해 실제 환경을 함께 출력하여 새로운 사용자 경험을 선사하는 자율주행 차량의 가상 환경 출력 시스템을 제공한다.
이에, 본 발명의 일 측면에 따른 가상 환경 출력 시스템은 가상 환경이 저장된 저장부 또는 서버, 가상 환경이 로딩되는 출력부 및 전방의 오브젝트를 감지하는 감지부를 포함하고, 상기 가상 환경은 차량의 이동에 따라 변화되어 출력되되 상기 감지부가 감지한 오브젝트는 가상 환경 상에 삽입되어 출력된다.

Description

안전성를 확보하는 가상 환경 출력 시스템{EMERGENCY ROUTE SETTING SYSTEM FOR SELF DRIVING CARS}
본 발명은 가상 환경 출력 시스템에 대한 것으로서, 보다 상세하게는 자율주행 차량이 주행하는 중 전방 또는 후방에 가상의 환경이 출력되지만 안정성을 차원에서 실제 환경에 포함된 오브젝트를 함께 출력하도록 하는 자율주행 차량의 가상 환경 출력 시스템에 대한 것이다.
자동차는 사용되는 원동기의 종류에 따라, 내연기관(internal combustion engine) 자동차, 외연기관(external combustion engine) 자동차, 가스터빈(gas turbine) 자동차 또는 전기자동차(electric vehicle) 등으로 분류될 수 있다.
자율주행 차량은 인간의 운전 없이 자동으로 주행할 수 있는 자동차이다. 무인자동차는 레이더, LIDAR(light detection and ranging), GPS, 카메라로 주위의 환경을 인식하여 목적지를 지정하는 것만으로 자율적으로 주행한다. 이미 실용화되고 있는 무인자동차로는 이스라엘 군에서 운용되는 미리 설정된 경로를 순찰하는 무인 차량과 국외 광산이나 건설 현장 등에서 운용되고 있는 덤프 트럭 등의 무인 운행 시스템 등이 있다.
이러한 자율주행 차량의 첫 번째 핵심기술은 무인자동차 시스템과 Actual System이다. 실험실 내의 시뮬레이션뿐만 아니라 실제로 무인자동차 시스템을 구축하는 기술이며 구동장치인 가속기, 감속기 및 조향장치 등을 무인화 운행에 맞도록 구현하고, 무인자동차에 장착된 컴퓨터, 소프트웨어 그리고 하드웨어를 이용하여 제어를 가능하게 한다.
두 번째 핵심기술은 비전, 센서를 이용하여 시각정보를 입력받고 처리하는 것이다. 무인화 운행을 위한 자율 주행의 기본이 되는 것으로, 영상정보를 받아들이고 이 영상 중에서 필요한 정보를 추출해내는 기술이다. 이것은 CCD(charge-coupled device) 카메라뿐만 아니라 초음파 센서 및 레인지 필더 등의 센서를 사용하여 거리와 주행에 필요한 정보를 융합하여 분석 및 처리를 통해 장애물 회피와 돌발상황에 대처할 수 있게 한다.
세 번째 핵심기술은 통합관제 시스템과 운행감시 고장진단체계 기술이다. 이 기술은 차량의 운행을 감시하고 수시로 바뀌는 상황에 따라 적절한 명령을 내리는 운행감시체계를 구축하고, 개별적 프로세서 및 센서에서 발생되는 여러 상황을 분석하여 시스템의 고장을 진단하여 오퍼레이터에 대한 적절한 정보를 제공하거나 경보를 알리는 기능을 수행할 수 있게 한다.
네 번째 핵심기술은 지능제어 및 지능운행 장치이다. 이 기술은 무인운행기법으로 실제 차량모델을 이용한 수학적인 해석에 근거하여 제어명령을 생성하여 현재 무인자동차에 적용되고 있는 첫 번째 적용기술은 지능형 순향제어(ACC: Adaptive Cruise Control) 시스템이다. 지능형 순향제어는 레이더 가이드 기술에 기반을 두고 운전자가 페달을 조작하지 않아도 스스로 속도를 조절하여 앞차 또는 장애물과의 거리를 유지시켜주는 시스템이다. 운전자가 앞차와의 거리를 입력하면 자동차 전면에 부착된 장거리 레이더가 앞차의 위치를 탐지하여 일정속도를 유지하거나 감속, 가속하며 필요한 경우 완전히 정지하여 시야확보가 어려운 날씨에 유용하다.
다섯 번째 적용기술은 차선이탈방지 시스템이다. 이는 내부에 달린 카메라가 차선을 감지하여 의도하지 않은 이탈 상황을 운전자에게 알려주는 기술로 무인자동차에서는 도보와 중앙선을 구분하여 자동차가 차선을 따라 안전하게 주행할 수 있도록 해준다.
여섯 번째 적용기술은 주차보조 시스템이다. 이는 운전자가 어시스트 버튼을 탐색한 수 후진기어를 넣고 브레이크 페달을 밟으면 자동차가 조향장치 조절하여 후진 일렬주차를 도와주는 시스템이다. 차량 장착형 센서뿐만 아니라 인프라를 기반으로 출발지에서 주차공간까지 차량을 자동으로 유도하여 주차 시 불필요하게 소모되는 시간과 에너지를 절약해주어 소요비용과 환경오염을 최소화 해준다.
일곱 번째 적용기술은 자동주차 시스템이다. 이는 운전자가 주차장 앞에 차를 정지시킨 뒤 엔진을 끄고 내려서 리모콘 잠금 스위치를 2회 연속 누르면 자동차에 설치된 카메라가 차고의 반대편 벽에 미리 붙여놓은 반사경을 탐지해 적정한 접근 경로를 계산하여 스스로 주차를 하는 기술이다.
여덟 번째 적용 기술은 사각지대 정보 안내 시스템이다. 이는 자동차의 양측면에 장착된 센서가 사이드 미러로 보이지 않는 사각지대에 다른 차량이 있는지를 판단하여 운전자에게 경고를 해주는 것으로 복잡한 도로 상황에서 양측의 장애물 및 차량을 확인하여 차선을 변경하는 용도로 사용된다.
자율주행의 가장 큰 장점은 주행속도와 교통 관리 자료가 일치하기 때문에 조절장치를 더욱 고르게 하여 반복정지를 피해 연료 효율에 도움을 준다는 것과 노인, 아동, 장애인 등 운전을 할 수 없는 이들도 이용할 수 있다는 것이다. 이외에도 장시간 운전으로 인한 피로를 해결해주고, 교통사고의 위험을 크게 줄일 수 있는 것과 도로의 교통 흐름이 빨라지고 교통 혼잡을 줄일 수 있다는 장점이 있다.
나아가 자율주행 차량을 이용하는 경우에는 운전할 필요가 없어 여가 시간이 확보되어 다양한 사용자 경험이 도출될 수 있다. 그러나 아직까지 자율주행 차량을 이용하는 경우의 다양한 사용자 경험에 대하여는 아직 기초적인 시나리오만이 모색되는 실정이다.
한국등록특허 제10-2184598호(2020. 12. 3.), 자율주행차량의 운전자 응급상황발생판단에 기반한 주행예측 및 안전주행시스템{Driving Prediction and Safety Driving System Based on Judgment of Driver Emergency Situation of Autonomous Driving Vehicle}
본 발명은 상기한 종래기술의 문제점을 해결하기 위한 것으로서, 본 발명의 목적은 자율주행 차량이 주행하는 경우에 가상의 환경에서 실제로 주행하는 것처럼 출력하되 안전을 위해 실제 환경을 함께 출력하여 새로운 사용자 경험을 선사하는 자율주행 차량의 가상 환경 출력 시스템을 제공한다.
본 발명의 일 측면에 따른 가상 환경 출력 시스템은 가상 환경이 저장된 저장부 또는 서버, 가상 환경이 로딩되는 출력부 및 전방의 오브젝트를 감지하는 감지부를 포함하고, 상기 가상 환경은 차량의 이동에 따라 변화되어 출력되되 상기 감지부가 감지한 오브젝트는 가상 환경 상에 삽입되어 출력된다.
이때, 상기 감지부가 감지한 오브젝트는 가상 환경 상에서 변화되어 출력될 수 있다.
또한, 상기 감지부가 감지한 오브젝트는 차량 또는 보행자일 수 있다.
또한, 상기 가상 환경 출력 시스템은 감지된 오브젝트에 따라 위험도를 산출하고 상기 산출된 위험도에 따라 가상 환경을 변화시킬 수 있다.
또한, 가상 환경을 변화시키는 것을 가상 환경의 투명도를 조절하여 수행될 수 있다.
본 발명은 자율주행 차량이 주행하는 경우에 가상의 환경에서 실제로 주행하는 것처럼 출력하되 안전을 위해 실제 환경이 함께 출력되어 새로운 사용자 경험을 제공하면서 안전을 함께 담보한다.
도 1은 본 발명의 일 실시예에 따른 가상 환경 출력 시스템의 구성도이다.
도 2는 도 1에서의 자율주행 차량을 더욱 상세하게 도시한 구성도이다.
도 3은 도 2에서의 감지부를 더욱 상세히 도시한 구성도이다.
도 4는 도 2에서의 출력부를 더욱 상세히 도시한 구성도이다.
도 5는 도 2에서의 제어부를 더욱 상세하 도시한 구성도이다.
도 6 내지 도 9은 본 발명의 일 실시예에 따른 가상 환경 출력 시스템의 작용을 예시하는 도면이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하, 본 발명의 일 실시예에 따른 가상 환경 출력 시스템을 설명한다. 도 1은 본 발명의 일 실시예에 따른 가상 환경 출력 시스템의 구성도이고, 도 2는 도 1에서의 자율주행 차량을 더욱 상세하게 도시한 구성도이며, 도 3은 도 2에서의 감지부를 더욱 상세히 도시한 구성도이고, 도 4는 도 2에서의 출력부를 더욱 상세히 도시한 구성도이며, 도 5는 도 2에서의 제어부를 더욱 상세하 도시한 구성도이고, 도 6 내지 도 9는 본 발명의 일 실시예에 따른 가상 환경 출력 시스템의 작용을 예시하는 도면이다.
도면을 참조하면, 우선 본 발명의 일 실시예에 따른 자율주행 차량의 가상 환경 출력 시스템(1000)은 크게 자율주행 차량(100)과 가상 환경 출력을 지원하는 서버(200)를 포함하여 이루어진다.
이때, 자율주행 차량(100)은 입력부(110), 감지부(120), 출력부(130), 제어부(140), 통신부(150) 및 구동부(160)로 이루어진다.
입력부(110)는 운전을 위한 사용자 입력을 수신하는 장치이다. 메뉴얼 모드인 경우 자율주행 차량(100)의 입력부(110)는 조향 입력 장치, 가속 입력 장치, 브레이크 입력 장치를 포함할 수 있다. 또한, 입력부(110)는 자율주행 차량의 목적지를 입력하는 역할을 하고 입력된 목적지에 따라 제어부(140)가 구동을 제어하거나 서버(200)로부터 정보를 수신 받아 경로를 연속적으로 설정하게 된다.
또한, 입력부(110)는 가상 환경을 선택하는 역할도 함께 수행한다. 이러한 가상 환경은 서버(200) 또는 저장부(미도시)에 저장되어 있는데, 입력부는 어떠한 가상 환경을 로딩시킬지 선택하는 역할을 수행한다. 이때 가상 환경으로서 예를 들어, 외국의 멋진 경치, 외국의 도시 등을 선택할 수 있다.
감지부(120)는 레이더(121) 및 라이다(122)를 포함하고, 카메라(123)를 더 포함하여 이루어질 수 있다. 우선, 레이더(121)는 전파를 이용하여 자율주행 차량(100) 외부의 오브젝트에 대한 정보를 생성할 수 있다. 레이더(121)는 전자파 송신부, 전자파 수신부 및 전자파 송신부 및 전자파 수신부와 전기적으로 연결되어, 수신되는 신호를 처리하고, 처리되는 신호에 기초하여 오브젝트에 대한 데이터를 생성하는 적어도 하나의 프로세서를 포함할 수 있다.
레이더(121)는 전파 발사 원리상 펄스 레이더(Pulse Radar) 방식 또는 연속파 레이더(Continuous Wave Radar) 방식으로 구현될 수 있다. 레이더(121)는 연속파 레이더 방식 중에서 신호 파형에 따라 FMCW(Frequency Modulated Continuous Wave)방식 또는 FSK(Frequency Shift Keyong) 방식으로 구현될 수 있다. 레이더(121)는 전자파를 매개로, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식에 기초하여 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다. 이때 레이더(121)는 차량의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 차량의 외부의 적절한 위치에 배치될 수 있다.
라이다(122)는 레이저 광을 이용하여 자율주행 차량(100) 외부의 오브젝트에 대한 정보를 생성할 수 있다. 라이다(122)는 광 송신부(미도시), 광 수신부(미도시) 및 광 송신부 및 광 수신부와 전기적으로 연결되어, 수신되는 신호를 처리하고, 처리된 신호에 기초하여 오브젝트에 대한 데이터를 생성하는 적어도 하나의 프로세서를 포함할 수 있다.
라이다(122)는 TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식으로 구현될 수 있다. 라이다(122)는 구동식 또는 비구동식으로 구현될 수 있는데, 구동식으로 구현되는 경우 라이다(122)는 모터에 의해 회전되며 자율주행 차량(100) 주변의 오브젝트를 검출할 수 있다. 비구동식으로 구현되는 경우, 라이다(122)는 광 스티어링에 의해 차량을 기준으로 소정 범위 내에 위치하는 오브젝트를 검출할 수 있다. 자율주행 차량(100)은 복수의 비구동식 라이다를 포함할 수 있다. 라이다(122)는 레이저 광 매개로 TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식에 기초하여 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다. 이때 라이다(122)는 차량의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 차량의 외부의 적절한 위치에 배치될 수 있다.
한편, 카메라(123)는 영상을 이용하여 자율주행 차량(100) 외부의 오브젝트에 대한 정보를 생성할 수 있다. 이때 카메라(123)는 차량 외부의 목표물에 대하여 촬상할 수 있다.
카메라(123)는 적어도 하나의 렌즈, 적어도 하나의 이미지 센서 및 이미지 센서와 전기적으로 연결되어 수신되는 신호를 처리하고, 처리되는 신호에 기초하여 오브젝트에 대한 데이터를 생성하는 적어도 하나의 프로세서를 포함할 수 있다.
카메라(123)는 모노 카메라, 스테레오 카메라, AVM(Around View Monitoring) 카메라 중 적어도 어느 하나일 수 있다. 카메라(123)는 다양한 영상 처리 알고리즘을 이용하여, 오브젝트의 위치 정보, 오브젝트와의 거리 정보, 오브젝트와의 상대 속도 정보, 오브젝트의 모션 정보 등을 획득할 수 있다.
예를 들어, 카메라(123)는 획득된 영상에서 시간에 따른 오브젝트 크기의 변화를 기초로, 오브젝트와의 거리 정보 및 상대 속도 정보를 획득할 수 있다. 또한, 카메라(123)는, 핀홀(pin hole) 모델, 노면 프로파일링 등을 통해, 오브젝트와의 거리 정보 및 상대 속도 정보를 획득할 수 있다.
또한, 카메라(123)는 스테레오 카메라에서 획득된 스테레오 영상에서 디스패러티(disparity) 정보를 기초로 오브젝트와의 거리 정보, 상대 속도 정보와 타인의 손짓이나 몸짓 등의 모션에 대한 기초 정보를 획득할 수 있다.
카메라(123)는 차량 외부를 촬영하기 위해 차량에서 FOV(field of view) 확보가 가능한 위치에 장착될 수 있다. 카메라(123)는 차량 전방의 영상을 획득하기 위해 차량의 실내에서 프런트 윈드 쉴드에 근접하게 배치될 수 있다. 나아가 카메라(123)는 프런트 범퍼 또는 라디에이터 그릴 주변에 배치될 수 있다. 카메라(123)는 차량 후방의 영상을 획득하기 위해 차량의 실내에서 리어 글라스에 근접하게 배치될 수 있다. 이때, 카메라(123)는 리어 범퍼, 트렁크 또는 테일 게이트 주변에 배치될 수 있다. 카메라(123)가 차량 측방의 영상을 획득하기 위해서는 차량의 실내에서 사이드 윈도우 중 적어도 어느 하나에 근접하게 배치될 수 있다. 또는 카메라(123)는 사이드 미러, 휀더 또는 도어 주변에 배치될 수 있다.
이러한 레이더(121), 라이다(122) 및 카메라(123)는 차량 전방에서 도로, 도로 인근의 구조물, 건축물, 지형, 다른 차량, 보행자를 인식하게 된다. 인식된 다른 차량 또는 보행자는 후술하는 바와 같이 혼합 현실(MR) 기법으로 가상 환경에 포함되어 출력될 수 있다.
또한, 감지부(120)는 자율주행 차량의 위치 정보를 활용해야 되므로 GPS(124)를 필수적으로 더 포함한다. 또한, GPS(124)는 자율주행 차량(100)의 위치 데이터를 생성하는데 일반적인 GPS(Global Positioning System) 및 DGPS(Differential Global Positioning System) 중 적어도 어느 하나를 포함할 수 있다. 이러한 GPS 및 DGPS 중 적어도 어느 하나에서 생성되는 신호에 기초하여 자율주행 차량(100)의 위치 데이터를 생성할 수 있다.
이때, GPS(124)는 IMU(Inertial Measurement Unit) 및 감지부(120)의 카메라(123) 중 적어도 어느 하나에 기초하여 위치 데이터를 보정할 수 있다. 또한, GPS(124)는 GNSS(Global Navigation Satellite System)로 명명될 수 있다.
한편, 감지부(120)는 탑승자가 조향 작동을 수행하지 않더라도 음성 등으로 보호자 이외에 탑승객도 자율주행에 개입하기 위해 마이크(125)를 더 구비할 수 있다.
생체정보센서(126)은 탑승객의 심박, 협압, 뇌파 등을 센싱하여 탑승객의 안전을 도모하도록 한다. 한편, 생체정보센서(126)은 부가적으로 차량의 입출입 시 지문, 홍채 정보를 센싱하여 오류 탑승을 막는 기능도 별도로 수행할 수 있다. 이러한 생체정보센서(126)를 활용하여 자율주행 차량(100)은 탑승객이 탑승하거나 하차한 것을 감지할 수 있다.
출력부(130)는 배경출력모듈(131), 도로출력모듈(132), 차량출력모듈(133), 보행자출력모듈(134) 및 출력변화모듈(135)를 포함하여 이루어진다.
배경출력모듈(131)은 가상 환경을 구성하는 이미지 중에서 도로를 제외한 배경 부분(자연물, 구조물 등)을 출력하는 역할을 수행한다. 또한, 도로출력모듈(132)은 가상 환경에 포함된 도로를 출력하는 역할을 수행한다.
여기서 가상환경의 배경과 도로는 차량이 이동함에 따라 함께 변화된다. 즉, 가상 환경 속에서 주행하는 경우에는 가상 환경에서 원격에 배치된 객체가 주행에 따라 가까워지고, 근접 배치된 객체는 주행에 따라 멀어지도록 한다. 이를 위해 서버(200) 또는 저장부(미도시)에는 가상 환경를 주행하면서 촬상한 연속된 이미지가 저장되어 있을 수 있다.
그런데, 가상현실이 주행과 관련없는 경우에는 시청 시의 몰입도가 급격하게 떨어질 가능성이 있으므로 가상 환경에서 도로의 출력은 매우 중요하므로 상기 도로출력모듈(132)의 역할이 중요하다. 이에 도로출력모듈(132)은 현재 주행하는 도로를 가상 환경에 포함된 도로로 대체하여 출력한다.
그런데, 도로는 주행감을 느낄 때 매우 중요한 요소이므로 전술한 감지부는 실제 도로를 감지하고 도로출력모듈(132)은 가상의 도로가 아닌 실제 도로를 가상 환경 중에서 출력하는 것도 바람직하다. 이 경우에는 가상 환경에서 실제도로가 혼합된 혼합 현실의 기법으로 출력이 가능하다.
차량출력모듈(133)과 보행자출력모듈(134)은 전술한 감지부가 감지한 오브젝트인 전후측방에서 주행하는 다른 차량이나 보행자를 가상 현실 중에서 증강현실의 기법을 이용한 혼합 현실(MR) 기법으로 삽입 출력한다. 다시 말해, 다른 차량이나 보행자는 차량의 안전한 주행을 위해서 매우 중요한 피감지 대상이므로 전체가 가상 현실로 이루어지더라고 여기에 실제의 다른 차량과 실제의 보행자를 출력시키는 것이 중요하다.
그런데, 이 경우에 차량출력모듈(133)과 보행자출력모듈(132)은 실제 다른 차량과 실제 보행자가 전체적인 가상 환경과 어울리지 않을 수 있으므로 다른 차량 및 보행자의 이미지를 변화시켜 출력할 수 있다. 예들 들어, 차량출력모듈(133)과 보행자출력모듈(134)는 다른 차량 및 보행자를 가상 환경의 색조와 어울리는 동물로 변형시키거나, 움직임이 있는 무생물로 변형시켜 출력할 수 있다.
한편, 출력변화모듈(135)은 가상 환경의 출력 상태를 변동시킬 수 있다. 완전 자율주행 환경에서도 외부 오브젝트에 대한 정보를 반드시 열람해야 되는 급박한 상황은 언제든 발생될 수 있다. 또한, 제어부가 연산하지 못하는 이벤트가 발생한 경우에는 이용자의 결정을 요구하는 경우도 있다. 따라서, 이 경우 제어부(140)는 감지된 오브젝트에 따라 위험도를 설정된 범위에서 산출하고 이러한 위험도가 설정값 이상인 경우에는 출력변화모듈(135)이 가상 환경의 출력 상태를 변화시킬 수 있다. 이때 출력변화모듈(135)는 가상 환경이 출력되는 투명 디스플레이인 전면 유리의 투명도를 증가시키도록 출력하여 실제 환경이 함께 보이도록 할 수 있다.
한편, 제어부(140)는 구동제어모듈(141) 및 입출력제어모듈(142)을 포함하여 이루어진다. 우선 구동제어모듈(141)은 메인 ECU로 구성될 수 있는데 자율주행 차량(100)의 구동부(160)를 제어하게 된다. 이때, 구동제어모듈(141)은 파워 트레인 구동 제어 장치, 샤시 구동 제어 장치, 도어/윈도우 구동 제어 장치, 안전 장치 구동 제어 장치, 램프 구동 제어 장치 및 공조 구동 제어 장치를 포함할 수 있다. 파워 트레인 구동 제어 장치는 동력원 구동 제어 장치 및 변속기 구동 제어 장치를 포함할 수 있다. 샤시 구동 제어 장치는, 조향 구동 제어 장치, 브레이크 구동 제어 장치 및 서스펜션 구동 제어 장치를 포함할 수 있다. 한편, 안전 장치 구동 제어 장치는 안전 벨트 제어를 위한 안전 벨트 구동 제어 장치를 포함할 수 있다.
또한 구동제어모듈(141)는 적어도 하나의 전자적 제어 장치(예를 들면, 제어 ECU(Electronic Control Unit))를 포함한다. 특히 수신되는 신호에 기초하여, 차량 구동 장치를 제어할 수 있다. 예를 들면, 구동제어모듈(141)는 감지부(120)에서 수신되는 신호에 기초하여, 파워 트레인, 조향 장치 및 브레이크 장치를 제어할 수 있다.
입출력제어모듈(142)는 전술한 출력부(130)를 제어하는데 가상 환경과 감지부가 감지한 실제 환경과의 편차를 연산하게 된다. 예를들어, 가상 환경의 도로가 현재 주행중인 도로의 폭과 다른 경우에는 가상 환경의 도로를 현재 주행중인 도로의 폭과 일치시키게 된다. 또한, 입출력제어모듈(142)은 현재 주행 환경과 가상 환경의 방향이 다른 경우에는 방향을 일치시켜 출력부가 출력하도록 하여 가상 현실의 몰입도를 높이는 것이 바람직하다.
통신부(150)는 자율주행 차량(100) 외부에 위치하는 서버(200), 타 차량, 단말기 중 적어도 어느 하나와 신호를 교환할 수 있다. 특히, 통신부(150)는 주위 차량에 응급 상황의 표시를 확장시키기 위해 주위의 타 차량과 근거리 통신을 수행한다.
통신부(150)는 통신을 수행하기 위해 송신 안테나, 수신 안테나, 각종 통신 프로토콜이 구현 가능한 RF(Radio Frequency) 회로 및 RF 소자 중 적어도 어느 하나를 포함할 수 있다.
예를 들어, 통신 장치는 C-V2X(Cellular V2X) 기술을 기반으로 외부 디바이스와 신호를 교환할 수 있다. 또한, 통신부(150)는 IEEE 802.11p PHY/MAC 계층 기술과 IEEE 1609 Network/Transport 계층 기술 기반의 DSRC(Dedicated Short Range Communications) 기술 또는 WAVE(Wireless Access in Vehicular Environment) 표준을 기반으로 외부 디바이스와 신호를 교환할 수 있다.
이하, 본 발명의 작용을 예시한다. 도 6 내지 도 9는 본 발명의 일 실시예에 따른 가상 환경 출력 시스템의 작용을 예시하는 도면이다.
우선, 도 6을 참조하면 사용자는 출력하고 싶은 가상 환경을 선택한다. 이때 도시된 바와 같이 단말을 통해 맑은 하늘이 있는 경치를 선택하거나 가을 분위기, 눈덮힌 산길. 밤 풍경 등을 선택할 수 있다.
또한, 도 7을 참조하면, 전방의 실제 차량이 가상 환경에 함께 출력되고, 가상 환경에 더욱 어울리도록 원형의 도형으로 전환되어 출력될 수 있다.
또한, 도 8을 참조하면 전방의 위험도가 증가되는 것으로 판단되는 경우에는 가상 환경의 출력 상태 투명도를 증가시켜 실제 환경이 보이도록 하고 위험도가 더욱 커지는 경우에는 가상 환경의 출력을 모두 중단시켜 전방이 보이도록 할 수 있다.
도 9를 참조하면, 가상 환경이 로딩되는 경우에는 외부에 그 사실을 출력하여 현재 차량 주변의 차량에게 안전을 위해 알리는 것도 가능할 것이다.
이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.
또한, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.
1000: 가상 환경 출력 시스템
100: 자율주행 차량
110: 입력부
120: 감지부
130: 출력부
140: 제어부
150: 통신부
160: 구동부
200: 서버

Claims (5)

  1. 가상 환경이 저장된 저장부 또는 서버;
    가상 환경이 로딩되는 출력부; 및
    전방의 오브젝트를 감지하는 감지부;를 포함하고,
    상기 가상 환경은 차량의 이동에 따라 변화되어 출력되되 상기 감지부가 감지한 오브젝트는 가상 환경 상에 삽입되어 출력되는 것을 특징으로 하는 안정성을 확보하는 가상 환경 출력 시스템.
  2. 제1항에 있어서,
    상기 감지부가 감지한 오브젝트는 가상 환경 상에서 변화되어 출력되는 것을 특징으로 하는 안정성을 확보하는 가상 환경 출력 시스템.
  3. 제1항에 있어서,
    상기 감지부가 감지한 오브젝트는 차량 또는 보행자인 것을 특징으로 하는 안정성을 확보하는 가상 환경 출력 시스템.
  4. 제1항에 있어서,
    상기 가상 환경 출력 시스템은 감지된 오브젝트에 따라 위험도를 산출하고 상기 산출된 위험도에 따라 가상 환경을 변화시키는 것을 특징으로 하는 안전성을 확보하는 가상 환경 출력 시스템.
  5. 제4항에 있어서,
    가상 환경을 변화시키는 것을 가상 환경의 투명도를 조절하는 것을 특징으로 하는 가상 환경 출력 시스템.

KR1020220009669A 2022-01-24 2022-01-24 안전성를 확보하는 가상 환경 출력 시스템 KR20230114769A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220009669A KR20230114769A (ko) 2022-01-24 2022-01-24 안전성를 확보하는 가상 환경 출력 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220009669A KR20230114769A (ko) 2022-01-24 2022-01-24 안전성를 확보하는 가상 환경 출력 시스템

Publications (1)

Publication Number Publication Date
KR20230114769A true KR20230114769A (ko) 2023-08-02

Family

ID=87566686

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220009669A KR20230114769A (ko) 2022-01-24 2022-01-24 안전성를 확보하는 가상 환경 출력 시스템

Country Status (1)

Country Link
KR (1) KR20230114769A (ko)

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
한국등록특허 제10-2184598호(2020. 12. 3.), 자율주행차량의 운전자 응급상황발생판단에 기반한 주행예측 및 안전주행시스템{Driving Prediction and Safety Driving System Based on Judgment of Driver Emergency Situation of Autonomous Driving Vehicle}

Similar Documents

Publication Publication Date Title
KR20230114766A (ko) 자율주행 차량 시스템
KR20230033160A (ko) 자율주행 차량의 보복 운전 제어 시스템
KR20230114769A (ko) 안전성를 확보하는 가상 환경 출력 시스템
KR102568270B1 (ko) 자율주행 차량의 보행자 소통 시스템
KR102568294B1 (ko) 자율주행 차량의 긴급 경로 생성 시스템
KR20230114768A (ko) 자율주행 차량의 가상 환경 출력 시스템
KR102568288B1 (ko) 자율주행 차량 간 통신에 의한 교통 안전 시스템
KR102568277B1 (ko) 자율주행 차량의 구조 시스템
KR20230115353A (ko) 자율주행 멀티미디어 시스템
KR20230114778A (ko) 자율주행 차량의 주행 환경 공유 시스템
KR20230124824A (ko) 인터랙티브 자율 주행 시스템
KR102568283B1 (ko) 자율주행 차량의 보행자 커뮤니케이션 시스템
KR20230115352A (ko) 자율주행 차량의 오디오북 출력 시스템
KR20230114772A (ko) 자율주행 차량의 정보 출력 시스템
KR20230114773A (ko) 자율주행 차량의 정보 입력 시스템
KR20230033749A (ko) 자율주행 차량을 이용한 여행 안내 시스템
KR20230114779A (ko) 자율주행 차량의 차선 변경 시스템
KR20230126594A (ko) 음주 운전을 방지하는 자율주행 시스템
KR20230114774A (ko) 자율주행 차량의 콘텐츠 전환 시스템
KR20230114780A (ko) 응급 차량을 위한 자율주행 차량의 차선 변경 시스템
KR20230033144A (ko) 자율주행 차량의 사각지대 경고 시스템
KR20230033148A (ko) 상호 소통에 기반한 자율주행 차량의 주차 및 출차 시스템
KR20230033162A (ko) 자율주행 차량의 충돌 예측 시스템
KR20230114764A (ko) 자율주행 차량의 응급 교통 상황 제어 시스템
KR20230114765A (ko) 자율주행 차량의 안전 지원 시스템