KR20230033749A - Tour guide system using self-driving vehicles - Google Patents

Tour guide system using self-driving vehicles Download PDF

Info

Publication number
KR20230033749A
KR20230033749A KR1020210114488A KR20210114488A KR20230033749A KR 20230033749 A KR20230033749 A KR 20230033749A KR 1020210114488 A KR1020210114488 A KR 1020210114488A KR 20210114488 A KR20210114488 A KR 20210114488A KR 20230033749 A KR20230033749 A KR 20230033749A
Authority
KR
South Korea
Prior art keywords
specific object
autonomous vehicle
vehicle
information
output
Prior art date
Application number
KR1020210114488A
Other languages
Korean (ko)
Inventor
심규혁
허윤
이승훈
우경유
박수조
Original Assignee
한양대학교 에리카산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 에리카산학협력단 filed Critical 한양대학교 에리카산학협력단
Priority to KR1020210114488A priority Critical patent/KR20230033749A/en
Publication of KR20230033749A publication Critical patent/KR20230033749A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0013Planning or execution of driving tasks specially adapted for occupant comfort
    • B60W60/00139Planning or execution of driving tasks specially adapted for occupant comfort for sight-seeing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/22
    • B60K35/28
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2370/00Details of arrangements or adaptations of instruments specially adapted for vehicles, not covered by groups B60K35/00, B60K37/00
    • B60K2370/15Output devices or features thereof
    • B60K2370/152Displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2370/00Details of arrangements or adaptations of instruments specially adapted for vehicles, not covered by groups B60K35/00, B60K37/00
    • B60K2370/16Type of information
    • B60K2370/175Autonomous driving
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2370/00Details of arrangements or adaptations of instruments specially adapted for vehicles, not covered by groups B60K35/00, B60K37/00
    • B60K2370/16Type of information
    • B60K2370/177Augmented reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/50Magnetic or electromagnetic sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/52Radar, Lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Traffic Control Systems (AREA)

Abstract

Provided is a tour guidance system using an autonomous vehicle, wherein the autonomous vehicle guides a tour by recognizing a scenery or a feature of a travel destination and outputting travel information directly thereto. Accordingly, the tour guidance system of the autonomous vehicle according to one aspect of the present invention comprises: a server which stores location information of a specific target object and related travel information; and an output unit displaying the travel information of the specific target object by a way of augmented output when the autonomous vehicle is separated from the location information, and directly displaying the travel information on the specific target object by a way of photorealistic output when the autonomous vehicle approaches the location information.

Description

자율주행 차량을 이용한 여행 안내 시스템{Tour guide system using self-driving vehicles}Tour guide system using self-driving vehicles}

본 발명은 여행 안내 시스템에 대한 것으로서, 보다 상세하게는 자율주행 차량을 이용한 여행 안내 시스템에 대한 것이다. The present invention relates to a tour guidance system, and more particularly, to a tour guidance system using an autonomous vehicle.

자동차는 사용되는 원동기의 종류에 따라, 내연기관(internal combustion engine) 자동차, 외연기관(external combustion engine) 자동차, 가스터빈(gas turbine) 자동차 또는 전기자동차(electric vehicle) 등으로 분류될 수 있다.Vehicles may be classified into internal combustion engine vehicles, external combustion engine vehicles, gas turbine vehicles, electric vehicles, and the like, depending on the type of prime mover used.

자율주행 차량은 인간의 운전 없이 자동으로 주행할 수 있는 자동차이다. 자율주행 차량은는 레이더, LIDAR(light detection and ranging), GPS, 카메라로 주위의 환경을 인식하여 목적지를 지정하는 것만으로 자율적으로 주행한다. 이미 실용화되고 있는 자율주행 차량으로는로는 이스라엘 군에서 운용되는 미리 설정된 경로를 순찰하는 무인 차량과 국외 광산이나 건설 현장 등에서 운용되고 있는 덤프 트럭 등의 무인 운행 시스템 등이 있다.Autonomous vehicles are vehicles that can drive automatically without human intervention. Self-driving vehicles drive autonomously by designating a destination by recognizing the surrounding environment with radar, LIDAR (light detection and ranging), GPS, and camera. Examples of self-driving vehicles that are already in practical use include unmanned vehicles operated by the Israeli military that patrol preset routes and unmanned operation systems such as dump trucks operated at overseas mines and construction sites.

이러한 자율주행 차량의 첫 번째 핵심기술은 자율주행 차량 시스템과 Actual System이다. 실험실 내의 시뮬레이션뿐만 아니라 실제로 자율주행 차량 시스템을 구축하는 기술이며 구동장치인 가속기, 감속기 및 조향장치 등을 무인화 운행에 맞도록 구현하고, 자율주행 차량에 장착된 컴퓨터, 소프트웨어 그리고 하드웨어를 이용하여 제어를 가능하게 한다.The first core technology of these self-driving vehicles is the self-driving vehicle system and the actual system. It is a technology that builds autonomous vehicle systems in practice as well as simulations in the laboratory. Accelerators, decelerators, and steering devices, which are driving devices, are implemented to suit unmanned operation, and control is performed using computers, software, and hardware installed in autonomous vehicles. make it possible

두 번째 핵심기술은 비전, 센서를 이용하여 시각정보를 입력받고 처리하는 것이다. 무인화 운행을 위한 자율 주행의 기본이 되는 것으로, 영상정보를 받아들이고 이 영상 중에서 필요한 정보를 추출해내는 기술이다. 이것은 CCD(charge-coupled device) 카메라뿐만 아니라 초음파 센서 및 레인지 필더 등의 센서를 사용하여 거리와 주행에 필요한 정보를 융합하여 분석 및 처리를 통해 장애물 회피와 돌발상황에 대처할 수 있게 한다.The second key technology is to receive and process visual information using vision and sensors. It is the basis of autonomous driving for unmanned operation, and it is a technology that accepts image information and extracts necessary information from the image. This uses not only a CCD (charge-coupled device) camera, but also sensors such as ultrasonic sensors and range filters to fuse information necessary for distance and driving, allowing obstacle avoidance and unexpected situations to be dealt with through analysis and processing.

세 번째 핵심기술은 통합관제 시스템과 운행감시 고장진단체계 기술이다. 이 기술은 차량의 운행을 감시하고 수시로 바뀌는 상황에 따라 적절한 명령을 내리는 운행감시체계를 구축하고, 개별적 프로세서 및 센서에서 발생되는 여러 상황을 분석하여 시스템의 고장을 진단하여 오퍼레이터에 대한 적절한 정보를 제공하거나 경보를 알리는 기능을 수행할 수 있게 한다.The third core technology is the integrated control system and operation monitoring fault diagnosis system technology. This technology establishes an operation monitoring system that monitors vehicle operation and gives appropriate commands according to frequently changing situations, analyzes various situations generated by individual processors and sensors, diagnoses system failures, and provides appropriate information to the operator. or to perform the function of notifying an alarm.

네 번째 핵심기술은 지능제어 및 지능운행 장치이다. 이 기술은 무인운행기법으로 실제 차량모델을 이용한 수학적인 해석에 근거하여 제어명령을 생성하여 현재 자율주행 차량에 적용되고 있는 첫 번째 적용기술은 지능형 순향제어(ACC: Adaptive Cruise Control) 시스템이다. 지능형 순향제어는 레이더 가이드 기술에 기반을 두고 운전자가 페달을 조작하지 않아도 스스로 속도를 조절하여 앞차 또는 장애물과의 거리를 유지시켜주는 시스템이다. 운전자가 앞차와의 거리를 입력하면 자동차 전면에 부착된 장거리 레이더가 앞차의 위치를 탐지하여 일정속도를 유지하거나 감속, 가속하며 필요한 경우 완전히 정지하여 시야확보가 어려운 날씨에 유용하다.The fourth key technology is intelligent control and intelligent driving devices. This technology generates control commands based on mathematical analysis using actual vehicle models as an unmanned driving technique, and the first applied technology currently being applied to autonomous vehicles is the Adaptive Cruise Control (ACC) system. Intelligent forward control is a system based on radar guide technology that maintains the distance from the vehicle in front or obstacles by adjusting the speed on its own without the driver manipulating the pedals. When the driver inputs the distance to the vehicle in front, the long-range radar attached to the front of the vehicle detects the location of the vehicle in front, maintains a constant speed, decelerates or accelerates, and comes to a complete stop if necessary, which is useful in poor visibility weather.

다섯 번째 적용기술은 차선이탈방지 시스템이다. 이는 내부에 달린 카메라가 차선을 감지하여 의도하지 않은 이탈 상황을 운전자에게 알려주는 기술로 자율주행 차량에서는 도보와 중앙선을 구분하여 자동차가 차선을 따라 안전하게 주행할 수 있도록 해준다.The fifth applied technology is the lane departure prevention system. This is a technology in which a camera installed inside detects the lane and informs the driver of an unintentional deviation situation. In an autonomous vehicle, it distinguishes between walking and the center line so that the vehicle can safely drive along the lane.

여섯 번째 적용기술은 주차보조 시스템이다. 이는 운전자가 어시스트 버튼을 탐색한 수 후진기어를 넣고 브레이크 페달을 밟으면 자동차가 조향장치 조절하여 후진 일렬주차를 도와주는 시스템이다. 차량 장착형 센서뿐만 아니라 인프라를 기반으로 출발지에서 주차공간까지 차량을 자동으로 유도하여 주차 시 불필요하게 소모되는 시간과 에너지를 절약해주어 소요비용과 환경오염을 최소화해준다.The sixth applied technology is a parking assist system. When the driver searches for the assist button, puts the reverse gear in and presses the brake pedal, the car adjusts the steering to assist in parallel parking in reverse. It automatically guides the vehicle from the starting point to the parking space based on infrastructure as well as vehicle-mounted sensors to save unnecessary time and energy when parking, thereby minimizing cost and environmental pollution.

일곱 번째 적용기술은 자동주차 시스템이다. 이는 운전자가 주차장 앞에 차를 정지시킨 뒤 엔진을 끄고 내려서 리모콘 잠금 스위치를 2회 연속 누르면 자동차에 설치된 카메라가 차고의 반대편 벽에 미리 붙여놓은 반사경을 탐지해 적정한 접근 경로를 계산하여 스스로 주차를 하는 기술이다.The seventh applied technology is an automatic parking system. This is a technology in which the driver stops the car in front of the parking lot, turns off the engine, gets off, and presses the remote control lock switch twice in a row. am.

여덟 번째 적용 기술은 사각지대 정보 안내 시스템이다. 이는 자동차의 양측면에 장착된 센서가 사이드 미러로 보이지 않는 사각지대에 다른 차량이 있는지를 판단하여 운전자에게 경고를 해주는 것으로 복잡한 도로 상황에서 양측의 장애물 및 차량을 확인하여 차선을 변경하는 용도로 사용된다.The eighth applied technology is a blind spot information guidance system. Sensors mounted on both sides of the car determine if there is another vehicle in the blind spot that is not visible through the side mirror and warn the driver. .

자율주행의 가장 큰 장점은 주행속도와 교통 관리 자료가 일치하기 때문에 조절장치를 더욱 고르게 하여 반복정지를 피해 연료 효율에 도움을 준다는 것과 노인, 아동, 장애인 등 운전을 할 수 없는 이들도 이용할 수 있다는 것이다. 이외에도 장시간 운전으로 인한 피로를 해결해주고, 교통사고의 위험을 크게 줄일 수 있는 것과 도로의 교통 흐름이 빨라지고 교통 혼잡을 줄일 수 있다는 장점이 있다.The biggest advantage of autonomous driving is that driving speed and traffic management data match, so it helps fuel efficiency by avoiding repeated stops by adjusting the control device more evenly, and that it can be used by people who cannot drive, such as the elderly, children, and the disabled. will be. In addition, it has the advantage of solving fatigue caused by long-time driving, greatly reducing the risk of traffic accidents, speeding up traffic flow on the road and reducing traffic congestion.

나아가 자율주행 차량이 대중화되는 경우에는 사람이 수행하는 가이드 등 타인의 개입없이도 자율주행 차량을 이용하여 편안하게 여행을 즐길 수 있을 것이나. 그러나, 자율주행을 이용한 여행 등 자율주행의 부가적 사용자 경험에 대하여는 아직까지 논의가 활발하게 이루어지지 않는 실정이다. 따라서, 자율주행 차량을 이용하여 편리하게 여행 정보를 얻는 방법에 대하여는 구체적인 논의가 필요한 시점이라 할 것이다. Furthermore, if self-driving vehicles become popular, it will be possible to enjoy a comfortable trip using self-driving vehicles without the intervention of others, such as human guides. However, discussions on additional user experiences of autonomous driving, such as travel using autonomous driving, have not yet been actively conducted. Therefore, it is time to discuss in detail how to conveniently obtain travel information using an autonomous vehicle.

한국공개특허 제2021-0097237호(2021. 08. 09.), 발명의 명칭: 자율주행 차량의 여행 안내 시스템{TRAVEL INFORMATION SYSTEM FOR SELF DRIVING CARS}Korean Patent Publication No. 2021-0097237 (2021. 08. 09.), Title of Invention: Travel Information System for Self-Driving Vehicle {TRAVEL INFORMATION SYSTEM FOR SELF DRIVING CARS}

본 발명은 상기한 종래기술의 문제점을 해결하기 위한 것으로서, 본 발명의 목적은 자율주행 차량이 여행지의 경관이나 지물을 인식하고 여기에 직접 여행 정보를 출력하는 방법으로 여행을 가이드하는 자율주행 차량을 이용한 여행 안내 시스템을 제공함에 있다. The present invention is to solve the problems of the prior art, and an object of the present invention is to provide an autonomous vehicle that guides a tour by recognizing scenery or features of a travel destination and outputting travel information directly thereto. It is to provide a travel guidance system using the system.

본 발명의 일 측면에 따른 자율주행 차량의 여행 안내 시스템은 특정 대상물의 위치정보와 이와 관련된 여행정보가 저장된 서버 및 자율주행 차량이 상기 위치정보와 이격된 경우에는 증강출력의 방법으로 상기 특정 대상물의 여행정보를 표시하고, 자율주행 차량이 상기 위치정보에 근접되는 경우에는 실사출력의 방법으로 상기 특정 대상물에 여행정보를 직접 표시하는 출력부를 포함한다. A tour guidance system for an autonomous vehicle according to an aspect of the present invention provides a server for storing location information of a specific object and travel information related thereto, and an augmented output of the specific object when the autonomous vehicle is separated from the location information. and an output unit that displays travel information and directly displays the travel information on the specific object in a real-time output method when the self-driving vehicle approaches the location information.

이때, 상기 증강출력은 자율주행 차량의 전방 디스플레이에 상기 특정 대상물의 방향에 대응하는 위치에 표시할 수 있다. In this case, the augmented output may be displayed at a position corresponding to the direction of the specific object on the front display of the self-driving vehicle.

또한, 상기 자율주행 차량은 감지부를 더 포함하고, 상기 감지부는 GPS, 라이더 및 카메라를 포함하여 이루어지고, 상기 출력부가 상기 특정 대상물에 여행정보를 직접 표시하는 것은 GPS와 카메라가 상기 특정 대상물을 특정한 후 라이더에 의해 특정 대상물의 상대적 이동을 반영하여 이루어질 수 있다. In addition, the self-driving vehicle further includes a sensing unit, and the sensing unit includes a GPS, a lidar, and a camera, and the output unit directly displays travel information on the specific object by using the GPS and the camera to specify the specific object. Then, the relative movement of a specific object can be reflected by the rider.

또한, 상기 출력부는 상기 특정 대상물을 막는 다른 차량 또는 보행자가 감지되는 경우에 실사 출력을 중단할 수 있다. In addition, the output unit may stop actual image output when another vehicle or pedestrian blocking the specific object is detected.

또한, 상기 출력부는 상기 특정 대상물의 아웃라인을 특정하거나 특정 대상물의 내측에 텍스트 또는 이미지를 출력할 수 있다. In addition, the output unit may specify an outline of the specific object or output text or an image inside the specific object.

본 발명은 자율주행 차량이 여행지의 특정 대상물을 인식하고 원격으로 특정하여 보행자의 관심을 유도하고 특정 대상물에 인접하여서는 실시간으로 특정 대상물을 지정하면서 정보를 전달하여 여행 안내 효과를 극대화시킨다. According to the present invention, an autonomous vehicle recognizes a specific object of a travel destination, identifies it remotely, induces pedestrian interest, and delivers information while designating a specific object in real time adjacent to the specific object, thereby maximizing the travel guidance effect.

도 1은 본 발명의 일 실시예에 따른 자율주행 차량을 이용한 여행 안내 시스템의 구성도이다.
도 2는 도 1에서의 감지부를 더욱 상세히 도시한 구성도이다.
도 3은 도 1에서의 출력부를 더욱 상세히 도시한 구성도이다.
도 4는 도 1에서의 제어부를 더욱 상세히 도시한 구성도이다.
도 5 내지 도 7은 본 발명의 일 실시예에 따른 자율주행 차량의 보행자 광고 시스템의 작용을 설명하는 도면이다.
1 is a configuration diagram of a tour guidance system using an autonomous vehicle according to an embodiment of the present invention.
FIG. 2 is a configuration diagram showing the sensing unit in FIG. 1 in more detail.
FIG. 3 is a configuration diagram showing the output unit in FIG. 1 in more detail.
4 is a configuration diagram showing the control unit in FIG. 1 in more detail.
5 to 7 are diagrams illustrating an operation of a pedestrian advertisement system for an autonomous vehicle according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. Hereinafter, the embodiments disclosed in this specification will be described in detail with reference to the accompanying drawings, but the same or similar components are given the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted.

이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. The suffixes "module" and "unit" for components used in the following description are given or used together in consideration of ease of writing the specification, and do not have meanings or roles that are distinct from each other by themselves.

또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. In addition, in describing the embodiments disclosed in this specification, if it is determined that a detailed description of a related known technology may obscure the gist of the embodiment disclosed in this specification, the detailed description thereof will be omitted.

또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in this specification, the technical idea disclosed in this specification is not limited by the accompanying drawings, and all changes included in the spirit and technical scope of the present invention , it should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers, such as first and second, may be used to describe various components, but the components are not limited by the terms. These terms are only used for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. In this application, terms such as "comprise" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

이하, 본 발명의 일 실시예에 따른 자율주행 차량을 이용한 여행 안내 시스템(1000)을 설명한다. 도 1은 본 발명의 일 실시예에 따른 자율주행 차량을 이용한 여행 안내 시스템의 구성도이고, 도 2는 도 1에서의 감지부를 더욱 상세히 도시한 구성도이며, 도 3은 도 1에서의 출력부를 더욱 상세히 도시한 구성도이고, 도 4는 도 1에서의 제어부를 더욱 상세히 도시한 구성도이다. Hereinafter, a tour guidance system 1000 using an autonomous vehicle according to an embodiment of the present invention will be described. 1 is a configuration diagram of a tour guidance system using an autonomous vehicle according to an embodiment of the present invention, FIG. 2 is a configuration diagram showing the sensing unit in FIG. 1 in more detail, and FIG. 3 is an output unit in FIG. 1 It is a configuration diagram showing in more detail, and FIG. 4 is a configuration diagram showing the control unit in FIG. 1 in more detail.

도면을 참조하면 우선 본 발명의 일 실시예에 따른 자율주행 차량을 이용한 여행 안내 시스템(1000)은 자율주행 차량(100)과 여행 정보를 제공하거나 경로를 설정하는 서버(200)를 포함하여 이루어진다. 서버(200)는 경로서버와 여행정보서버가 별도로 구성될 수 있으며, 서버(200)에는 여행지에 있는 특정 대상물을 기준으로한 위치정보 및 이와 관련된 여행정보가 저장되어 있다. Referring to the drawings, first, a tour guidance system 1000 using an autonomous vehicle according to an embodiment of the present invention includes an autonomous vehicle 100 and a server 200 that provides travel information or sets a route. The server 200 may be separately composed of a route server and a travel information server, and the server 200 stores location information based on a specific object in a travel destination and related travel information.

이때 자율주행 차량(100)은 입력부(110), 감지부(120), 출력부(130), 제어부(140), 통신부(150) 및 구동부(160)로 이루어진다. In this case, the autonomous vehicle 100 includes an input unit 110, a sensing unit 120, an output unit 130, a control unit 140, a communication unit 150, and a driving unit 160.

입력부(110)는 운전을 위한 사용자 입력을 수신하는 장치이다. 메뉴얼 모드인 경우 자율주행 차량(100)의 입력부는 조향 입력 장치, 가속 입력 장치, 브레이크 입력 장치를 포함할 수 있다. 또한, 입력부(110)는 자율주행 차량의 여행 목적지를 입력하는 역할을 하고 입력된 목적지에 따라 서버(200)로부터 정보를 수신받아 여행 경로를 연속적으로 설정하게 된다. The input unit 110 is a device that receives a user input for driving. In the manual mode, the input unit of the autonomous vehicle 100 may include a steering input device, an acceleration input device, and a brake input device. In addition, the input unit 110 serves to input a travel destination of the autonomous vehicle, receives information from the server 200 according to the input destination, and continuously sets a travel route.

감지부(120)는 레이더(121) 및 라이다(122)를 포함하고, 카메라(123)를 더 포함하여 이루어질 수 있다. 본 실시예에서는 레이더(121), 라이다(122), 카메라(123) 및 GPS(124)를 이용하여 여행지의 특정 대상물인 오브젝트를 감지한다. The detector 120 may include a radar 121 and a lidar 122, and may further include a camera 123. In this embodiment, an object that is a specific target of a travel destination is detected using the radar 121, lidar 122, camera 123, and GPS 124.

우선, 레이더(121)는 전파를 이용하여 자율주행 차량(100) 외부의 오브젝트에 대한 정보를 생성할 수 있다. 레이더(121)는 전자파 송신부, 전자파 수신부 및 전자파 송신부 및 전자파 수신부와 전기적으로 연결되어, 수신되는 신호를 처리하고, 처리되는 신호에 기초하여 오브젝트에 대한 데이터를 생성하는 적어도 하나의 프로세서를 포함할 수 있다. First, the radar 121 may generate information about an object outside the self-driving vehicle 100 by using radio waves. The radar 121 may include an electromagnetic wave transmitter, an electromagnetic wave receiver, and at least one processor electrically connected to the electromagnetic wave transmitter and electromagnetic wave receiver, processing a received signal, and generating data about an object based on the processed signal. there is.

레이더(121)는 전파 발사 원리상 펄스 레이더(Pulse Radar) 방식 또는 연속파 레이더(Continuous Wave Radar) 방식으로 구현될 수 있다. 레이더(121)는 연속파 레이더 방식 중에서 신호 파형에 따라 FMCW(Frequency Modulated Continuous Wave)방식 또는 FSK(Frequency Shift Keyong) 방식으로 구현될 수 있다. 레이더(121)는 전자파를 매개로, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식에 기초하여 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다. 이때 레이더(121)는 차량의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 차량의 외부의 적절한 위치에 배치될 수 있다.The radar 121 may be implemented in a pulse radar method or a continuous wave radar method in terms of radio wave emission principles. The radar 121 may be implemented in a frequency modulated continuous wave (FMCW) method or a frequency shift keyong (FSK) method according to a signal waveform among continuous wave radar methods. The radar 121 detects an object based on a Time of Flight (TOF) method or a phase-shift method through electromagnetic waves, and measures the position of the detected object, the distance to the detected object, and the relative speed. can be detected. In this case, the radar 121 may be disposed at an appropriate location outside the vehicle to detect an object located in front, rear or side of the vehicle.

다음으로, 라이다(122)는 레이저 광을 이용하여 자율주행 차량(100) 외부의 특정 대상물을 포함하는 오브젝트에 대한 정보를 생성할 수 있다. 라이다(122)는 광 송신부(미도시), 광 수신부(미도시) 및 광 송신부 및 광 수신부와 전기적으로 연결되어, 수신되는 신호를 처리하고, 처리된 신호에 기초하여 오브젝트에 대한 데이터를 생성하는 적어도 하나의 프로세서를 포함할 수 있다. Next, the lidar 122 may generate information about an object including a specific target outside the self-driving vehicle 100 using laser light. The LIDAR 122 is electrically connected to the light transmitter (not shown), the light receiver (not shown), and the light transmitter and the light receiver, processes the received signal, and generates data for an object based on the processed signal. It may include at least one processor that

라이다(122)는 TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식으로 구현될 수 있다. 라이다(122)는 구동식 또는 비구동식으로 구현될 수 있는데, 구동식으로 구현되는 경우 라이다(122)는 모터에 의해 회전되며 자율주행 차량(100) 주변의 여행지의 특정 대상물인 오브젝트를 검출할 수 있다. 비구동식으로 구현되는 경우, 라이다(122)는 광 스티어링에 의해 차량을 기준으로 소정 범위 내에 위치하는 오브젝트를 검출할 수 있다. 자율주행 차량(100)은 복수의 비구동식 라이다를 포함할 수 있다. The lidar 122 may be implemented in a Time of Flight (TOF) method or a phase-shift method. The lidar 122 may be implemented as a driven or non-driven type. When implemented as a driven type, the lidar 122 is rotated by a motor and detects an object that is a specific object of a travel destination around the autonomous vehicle 100. can do. When implemented as a non-driving type, the lidar 122 may detect an object located within a predetermined range with respect to the vehicle by light steering. The autonomous vehicle 100 may include a plurality of non-driven lidars.

라이다(122)는 레이저 광 매개로 TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식에 기초하여 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다. 이때 라이다(122)는 차량의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 차량의 외부의 적절한 위치에 배치될 수 있다.The lidar 122 detects an object based on a time of flight (TOF) method or a phase-shift method using a laser light medium, and calculates the position of the detected object, the distance to the detected object, and the relative speed. can be detected. At this time, the lidar 122 may be disposed at an appropriate location outside the vehicle to detect an object located in the front, rear, or side of the vehicle.

한편, 카메라(123)는 영상을 이용하여 자율주행 차량(100) 외부의 특정 대상물인 오브젝트에 대한 정보를 생성할 수 있다. 카메라(123)는 적어도 하나의 렌즈, 적어도 하나의 이미지 센서 및 이미지 센서와 전기적으로 연결되어 수신되는 신호를 처리하고, 처리되는 신호에 기초하여 오브젝트에 대한 데이터를 생성하는 적어도 하나의 프로세서를 포함할 수 있다.Meanwhile, the camera 123 may generate information about an object that is a specific target outside the self-driving vehicle 100 by using an image. The camera 123 may include at least one lens, at least one image sensor, and at least one processor electrically connected to the image sensor to process a received signal and to generate object data based on the processed signal. can

카메라(123)는 모노 카메라, 스테레오 카메라, AVM(Around View Monitoring) 카메라 중 적어도 어느 하나일 수 있다. 카메라(123)는 다양한 영상 처리 알고리즘을 이용하여, 오브젝트의 위치 정보, 오브젝트와의 거리 정보 또는 오브젝트와의 상대 속도 정보를 획득할 수 있다.The camera 123 may be at least one of a mono camera, a stereo camera, and an AVM (Around View Monitoring) camera. The camera 123 may obtain position information of an object, distance information with respect to the object, or relative speed information with the object by using various image processing algorithms.

예를 들어, 카메라(123)는 획득된 영상에서 시간에 따른 오브젝트 크기의 변화를 기초로, 오브젝트와의 거리 정보 및 상대 속도 정보를 획득할 수 있다. 또한, 카메라(123)는, 핀홀(pin hole) 모델, 노면 프로파일링 등을 통해, 오브젝트와의 거리 정보 및 상대 속도 정보를 획득할 수 있다.For example, the camera 123 may obtain distance information and relative speed information with respect to the object based on a change in the size of the object over time in the obtained image. In addition, the camera 123 may obtain distance information and relative speed information with an object through a pinhole model, road profiling, and the like.

또한, 카메라(123)는 스테레오 카메라에서 획득된 스테레오 영상에서 디스패러티(disparity) 정보를 기초로 오브젝트와의 거리 정보 및 상대 속도 정보를 획득할 수 있다. 카메라(123)는 차량 외부를 촬영하기 위해 차량에서 FOV(field of view) 확보가 가능한 위치에 장착될 수 있다. In addition, the camera 123 may obtain distance information and relative speed information with respect to an object based on disparity information in a stereo image obtained from a stereo camera. The camera 123 may be mounted in a position where a field of view (FOV) can be secured in the vehicle in order to photograph the outside of the vehicle.

카메라(123)는 차량 전방의 영상을 획득하기 위해 차량의 실내에서 프런트 윈드 쉴드에 근접하게 배치될 수 있다. 나아가 카메라(123)는 프런트 범퍼 또는 라디에이터 그릴 주변에 배치될 수 있다. 카메라(123)는 차량 후방의 영상을 획득하기 위해 차량의 실내에서 리어 글라스에 근접하게 배치될 수 있다. 이때, 카메라(123)는 리어 범퍼, 트렁크 또는 테일 게이트 주변에 배치될 수 있다. 카메라(123)가 차량 측방의 영상을 획득하기 위해서는 차량의 실내에서 사이드 윈도우 중 적어도 어느 하나에 근접하게 배치될 수 있다. 또는 카메라(123)는 사이드 미러, 휀더 또는 도어 주변에 배치될 수 있다. The camera 123 may be disposed close to the front windshield inside the vehicle to obtain an image of the front of the vehicle. Furthermore, the camera 123 may be disposed around a front bumper or a radiator grill. The camera 123 may be disposed close to the rear glass inside the vehicle to obtain an image behind the vehicle. In this case, the camera 123 may be disposed around a rear bumper, a trunk, or a tailgate. The camera 123 may be disposed close to at least one of the side windows in the interior of the vehicle in order to acquire an image of the side of the vehicle. Alternatively, the camera 123 may be disposed around side mirrors, fenders, or doors.

또한, 감지부(120)는 자율주행 차량이 여행지의 특정 대상물과 어느 정도의 거리를 두고 있는지 감지해야 되므로 GPS(124)를 필수적으로 더 포함한다. GPS(124)는 자율주행 차량(100)의 위치 데이터를 생성하는데 일반적인 GPS(Global Positioning System) 및 DGPS(Differential Global Positioning System) 중 적어도 어느 하나를 포함할 수 있다. 이러한 GPS 및 DGPS 중 적어도 어느 하나에서 생성되는 신호에 기초하여 자율주행 차량(10)의 위치 데이터를 생성할 수 있다. In addition, since the sensor 120 needs to detect how far the autonomous vehicle is from a specific object in the travel destination, the GPS 124 is essentially further included. The GPS 124 may include at least one of a general Global Positioning System (GPS) and a Differential Global Positioning System (DGPS) to generate location data of the autonomous vehicle 100 . Location data of the self-driving vehicle 10 may be generated based on a signal generated by at least one of the GPS and DGPS.

이때, GPS(124)는 IMU(Inertial Measurement Unit) 및 감지부(120)의 카메라(123) 중 적어도 어느 하나에 기초하여 위치 데이터를 보정할 수 있다. 또한, GPS(124)는 GNSS(Global Navigation Satellite System)로 명명될 수 있다.In this case, the GPS 124 may correct the location data based on at least one of an Inertial Measurement Unit (IMU) and the camera 123 of the sensing unit 120 . Also, the GPS 124 may be referred to as a Global Navigation Satellite System (GNSS).

이와 같이 GPS(124)의 감지값에 따라 자율주행 차량이 특정 대상물의 위치정보와 이격되어 있는 경우와 특정 대상물과 근접되어 있는 것을 판단한다. 그런데 본 실시예에서는 후술하는 바와 같이 특정 대상물과 근접되어 있는 경우에는 증강 출력이 아닌 실사출력의 방법으로 특정 대상물 자체에 여행정보를 표시하게 된다. In this way, according to the detected value of the GPS 124, it is determined whether the self-driving vehicle is separated from the location information of a specific object or is close to the specific object. However, in this embodiment, as will be described later, when the object is in close proximity to the specific object, travel information is displayed on the specific object itself by way of actual image output rather than augmented output.

이때, 특정 대상물은 먼저 서버로부터 수신된 특정 대상물의 위치 정보를 사전에 입수하고, 차량의 이동에 따라 카메라로 특정 대상물이 촬상 가능해지면 특정 대상물이 특정되게 된다. 이후에 차량이 계속 이동하더라도 라이더에 의해 특정 대상물의 상대적인 이동이 감지되게 되고 후술하는 출력부는 이러한 상대적인 이동에 대응되도록 여행정보를 상대적으로 이동하여 출력하게 된다. In this case, the specific object is first obtained by obtaining the location information of the specific object received from the server in advance, and when the camera can capture the specific object according to the movement of the vehicle, the specific object is specified. Even if the vehicle continues to move thereafter, the relative movement of a specific object is sensed by the rider, and the output unit to be described later relatively moves and outputs travel information to correspond to this relative movement.

한편, 감지부(120)는 탑승자가 조향 작동을 수행하지 않더라도 음성 등으로 보호자 이외에 탑승객도 자율주행에 개입하기 위해 마이크(125)를 더 구비할 수 있다. 나아가 생체정보센서(126)은 탑승객의 심박, 협압, 뇌파 등을 센싱하여 위급상황에 대비하도록 할 뿐만 아니라 부가적으로 차량의 입출입 시 지문, 홍채 정보를 센싱하여 오류 탑승을 막는 기능도 별도로 수행할 수 있다. 이러한 생체정보센서(126)를 활용하여 자율주행 차량(100)은 탑승객이 탑승하거나 하차한 것을 감지할 수 있다. Meanwhile, the sensing unit 120 may further include a microphone 125 so that the occupant, in addition to the guardian, may intervene in autonomous driving by voice or the like even if the occupant does not perform a steering operation. Furthermore, the biometric information sensor 126 not only senses the heart rate, blood pressure, and brain waves of passengers to prepare for emergencies, but additionally performs a function to prevent erroneous boarding by sensing fingerprint and iris information when entering and exiting the vehicle. can Utilizing the biometric information sensor 126, the self-driving vehicle 100 can detect that a passenger has boarded or alighted.

한편, 출력부(130)는 평상시에 자율주행 차량(100)의 내부 또는 외부에 배치되어 주행 관련 상황을 표시한다. 나아가 차량의 외부에 형상, 모양 및 색체 중 어느 하나가 디스플레이되도록 하여 차량의 소유자 및 주위의 사람에게 예측 가능성을 제공하도록 할 수 있다. Meanwhile, the output unit 130 is normally disposed inside or outside the self-driving vehicle 100 to display a driving-related situation. Furthermore, any one of shape, shape, and color may be displayed on the outside of the vehicle to provide predictability to the owner of the vehicle and people around.

더욱 나아가 본 발명의 일 실시예에 따른 출력부(130)는 상기한 감지부(120)의 감지값에 따라 특정 대상물에 광고를 출력하도록 한다. 더욱 상세하게 출력부(130)는 자율주행 차량이 특정 대상물 위치정보와 이격된 경우에는 증강출력의 방법으로 상기 특정 대상물의 여행정보를 표시하고, 자율주행 차량이 상기 위치정보에 근접되는 경우에는 실사출력의 방법으로 상기 특정 대상물에 여행정보를 직접 표시하는 역할을 수행한다. Furthermore, the output unit 130 according to an embodiment of the present invention outputs an advertisement to a specific object according to the detection value of the detection unit 120. In more detail, the output unit 130 displays travel information of a specific object in an augmented output method when the self-driving vehicle is separated from the location information of a specific object, and when the autonomous vehicle approaches the location information, actual data is displayed. As an output method, it serves to directly display travel information on the specific object.

이를위해, 출력부(130)는 증강출력부(131), 지정출력부(132) 및 정보출력부(133)으로 이루어진다. To this end, the output unit 130 includes an augmented output unit 131, a designated output unit 132, and an information output unit 133.

증강출력부(131)는 상기한 바와 같이 자율주행 차량와 여행 정보의 객체인 특정 대상물의 거리가 원격인 경우에 원격 전방에 특정 대상물의 여행 정보를 출력하도록 한다. 이 경우에 특정 대상물이 보이지 않는 거리이므로 증강출력부(131)는 자율주행 차량의 전방 디스플레이(미도시)에 특정 대상물의 방향에 대응하는 위치에 특정 대상물의 위치와 정보를 표시하는 것이 바람직하다. 또한, 이 경우 전방 디스플레이는 전면 유리에 부착된 투명 디스플레이로 이루어지는 것이 바람직하다. As described above, the augmented output unit 131 outputs travel information of a specific object to the remote front when the distance between the self-driving vehicle and the specific object, which is an object of travel information, is remote. In this case, since the specific object is invisible, the augmented output unit 131 preferably displays the location and information of the specific object at a location corresponding to the direction of the specific object on the front display (not shown) of the autonomous vehicle. Also, in this case, the front display is preferably made of a transparent display attached to the front glass.

지정출력부(132)는 상기한 바와 같이 자율주행 차량와 여행 정보의 객체인 특정 대상물의 거리가 근접한 경우에 특정 대상물에 직접 여행 정보를 출력하도록 한다. 예를들어, 유명한 건물이 근접 위치하고 있을 때 그 건물의 아웃라인을 따른 레이저 출력에 의해 그 건물을 실시간으로 특정할 수 있다. As described above, the designation output unit 132 directly outputs travel information to a specific object when the distance between the self-driving vehicle and a specific object, which is an object of travel information, is close. For example, when a famous building is located nearby, the building can be identified in real time by laser output along the outline of the building.

나아가, 정보출력부(133)는 이 경우에 그 아웃라인의 내부에 텍스트 또는 이미지를 출력하여 특정 대상물의 정보를 출력할 수 있다. 이때의 정보는 관련 이미지 또는 간략한 텍스트를 예로 들 수 있다. Furthermore, in this case, the information output unit 133 may output information of a specific object by outputting text or an image inside the outline. The information at this time may include a related image or brief text.

한편, 지정출력부(132) 또는 정보출력부(133)는 레이저 발진의 형태로 특정 대상물에 직접 출력을 수행하기 때문에 다른 차량 또는 타인에게 방해가 될 수 있다. 따라서 전술한 감지부에 의해 출력 경로상 오브젝트인 타 차량 또는 보행자가 감지되는 경우에 지정출력부(132) 또는 정보출력부(133)는 출력을 중단하는 것이 바람직하다. On the other hand, since the designated output unit 132 or the information output unit 133 directly outputs to a specific object in the form of laser oscillation, it may interfere with other vehicles or others. Therefore, when another vehicle or pedestrian, which is an object on the output path, is detected by the above-described detection unit, it is preferable that the designation output unit 132 or the information output unit 133 stop outputting.

한편, 제어부(140)는 구동제어모듈(141) 및 입출력제어모듈(142)을 포함하여 이루어진다. 우선 구동제어모듈(141)은 메인 ECU로 구성될 수 있는데 자율주행 차량(100)의 구동부(160)를 제어하게 된다. 이때, 구동제어모듈(141)은 파워 트레인 구동 제어 장치, 샤시 구동 제어 장치, 도어/윈도우 구동 제어 장치, 안전 장치 구동 제어 장치, 램프 구동 제어 장치 및 공조 구동 제어 장치를 포함할 수 있다. 파워 트레인 구동 제어 장치는 동력원 구동 제어 장치 및 변속기 구동 제어 장치를 포함할 수 있다. 샤시 구동 제어 장치는, 조향 구동 제어 장치, 브레이크 구동 제어 장치 및 서스펜션 구동 제어 장치를 포함할 수 있다. 한편, 안전 장치 구동 제어 장치는 안전 벨트 제어를 위한 안전 벨트 구동 제어 장치를 포함할 수 있다.Meanwhile, the controller 140 includes a drive control module 141 and an input/output control module 142. First, the driving control module 141 may be configured as a main ECU and controls the driving unit 160 of the autonomous vehicle 100 . In this case, the drive control module 141 may include a power train drive control device, a chassis drive control device, a door/window drive control device, a safety device drive control device, a lamp drive control device, and an air conditioning drive control device. The power train driving control device may include a power source driving control device and a transmission driving control device. The chassis drive control device may include a steering drive control device, a brake drive control device, and a suspension drive control device. Meanwhile, the safety device drive control device may include a seat belt drive control device for controlling seat belts.

또한 구동제어모듈(141)는 적어도 하나의 전자적 제어 장치(예를 들면, 제어 ECU(Electronic Control Unit))를 포함한다. 특히 수신되는 신호에 기초하여, 차량 구동 장치를 제어할 수 있다. 예를 들면, 구동제어모듈(141)는 감지부(120)에서 수신되는 신호에 기초하여, 파워 트레인, 조향 장치 및 브레이크 장치를 제어할 수 있다. In addition, the drive control module 141 includes at least one electronic control device (eg, a control ECU (Electronic Control Unit)). In particular, the vehicle driving device may be controlled based on the received signal. For example, the driving control module 141 may control a power train, a steering device, and a brake device based on a signal received from the sensing unit 120 .

입출력제어모듈(142)는 전술한 출력부(130)를 제어하는데 특정 대상물과 원격으로 위치했는지 근접했는지에 따라 출력의 방법을 달리 제어한다. The input/output control module 142 controls the above-described output unit 130 differently depending on whether it is remotely located or close to a specific object.

한편, 통신부(150)는 자율주행 차량(100) 외부에 위치하는 디바이스와 신호를 교환할 수 있는데 인프라(예를 들면, 서버, 방송국), 타 차량, 단말기 중 적어도 어느 하나와 신호를 교환할 수 있다. 통신부(150)는 통신을 수행하기 위해 송신 안테나, 수신 안테나, 각종 통신 프로토콜이 구현 가능한 RF(Radio Frequency) 회로 및 RF 소자 중 적어도 어느 하나를 포함할 수 있다. Meanwhile, the communication unit 150 may exchange a signal with a device located outside the autonomous vehicle 100, and may exchange a signal with at least one of an infrastructure (eg, a server, a broadcasting station), another vehicle, and a terminal. there is. The communication unit 150 may include at least one of a transmission antenna, a reception antenna, a radio frequency (RF) circuit capable of implementing various communication protocols, and an RF element to perform communication.

예를 들어, 통신 장치는 C-V2X(Cellular V2X) 기술을 기반으로 외부 디바이스와 신호를 교환할 수 있다. 또한, 통신부(150)는 IEEE 802.11p PHY/MAC 계층 기술과 IEEE 1609 Network/Transport 계층 기술 기반의 DSRC(Dedicated Short Range Communications) 기술 또는 WAVE(Wireless Access in Vehicular Environment) 표준을 기반으로 외부 디바이스와 신호를 교환할 수 있다. For example, the communication device may exchange signals with an external device based on C-V2X (Cellular V2X) technology. In addition, the communication unit 150 transmits external devices and signals based on Dedicated Short Range Communications (DSRC) technology based on IEEE 802.11p PHY/MAC layer technology and IEEE 1609 Network/Transport layer technology or Wireless Access in Vehicular Environment (WAVE) standard. can be exchanged.

이하, 본 발명의 작용을 예시하여 설명한다. 도 5 내지 7은 본 발명의 일 실시예에 따른 자율주행 차량을 이용한 여행 안내 시스템의 작용을 예시하는 도면이다. Hereinafter, the operation of the present invention is exemplified and described. 5 to 7 are diagrams illustrating an operation of a tour guidance system using an autonomous vehicle according to an embodiment of the present invention.

우선, 도 5를 참조하면, 여행지에서 인상적인 교량이 지나가고 운동의 명소임을 설명하기 위해서 출력부가 증강출력의 방법으로 운동하는 사람을 보여주는 것을 예시하였다. First of all, referring to FIG. 5, in order to explain that an impressive bridge passes by in a travel destination and is an exercise attraction, the output unit shows a person exercising in an augmented output method.

또한, 도 6을 참조하면, 출력부가 직접 출력을 수행하다가 타차량의 진입을 감지하고 출력을 중단하는 것을 예시하였다. In addition, referring to FIG. 6 , the output unit detects the entry of another vehicle while performing direct output and stops the output.

또한, 도 7을 참조하면, 터널을 지나면서 터널의 정보에 대하여 터널의 한쪽 벽면에 여행 정보를 출력하는 것을 예시하였다. Also, referring to FIG. 7, it is exemplified that travel information is output on one wall of the tunnel with respect to tunnel information while passing through the tunnel.

이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.As such, those skilled in the art to which the present invention pertains will be able to understand that the present invention may be embodied in other specific forms without changing its technical spirit or essential features.

또한, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.In addition, the present specification and drawings disclose preferred embodiments of the present invention, and although specific terms are used, they are only used in a general sense to easily explain the technical content of the present invention and help understanding of the present invention. It is not intended to limit the scope of the invention. It is obvious to those skilled in the art that other modified examples based on the technical spirit of the present invention can be implemented in addition to the embodiments disclosed herein.

1000: 자율주행 차량을 이용한 여행 안내 시스템
100: 자율주행 차량
110: 입력부
120: 감지부
130: 출력부
140: 제어부
150: 통신부
160: 구동부
200: 서버
1000: Tour guidance system using autonomous vehicle
100: autonomous vehicle
110: input unit
120: sensing unit
130: output unit
140: control unit
150: communication department
160: driving unit
200: server

Claims (5)

자율주행 차량을 이용한 여행 안내 시스템에 있어서,
특정 대상물의 위치정보와 이와 관련된 여행정보가 저장된 서버; 및
자율주행 차량이 상기 위치정보와 이격된 경우에는 증강출력의 방법으로 상기 특정 대상물의 여행정보를 표시하고, 자율주행 차량이 상기 위치정보에 근접되는 경우에는 실사출력의 방법으로 상기 특정 대상물에 여행정보를 직접 표시하는 출력부;
를 포함하는 것을 특징으로 하는 자율주행 차량을 이용한 여행 안내 시스템.
In a tour guidance system using an autonomous vehicle,
A server that stores location information of a specific object and related travel information; and
When the self-driving vehicle is separated from the location information, the travel information of the specific object is displayed in an augmented output method, and when the autonomous vehicle approaches the location information, the travel information of the specific object is displayed in a real-time output method. an output unit that directly displays;
A tour guidance system using an autonomous vehicle, comprising:
제1항에 있어서,
상기 증강출력은 자율주행 차량의 전방 디스플레이에 상기 특정 대상물의 방향에 대응하는 위치에 표시하는 것을 특징으로 하는 자율주행 차량을 이용한 여행 안내 시스템.
According to claim 1,
The augmented output is displayed on a front display of the autonomous vehicle at a position corresponding to the direction of the specific object.
제1항에 있어서,
상기 자율주행 차량은 감지부를 더 포함하고,
상기 감지부는 GPS, 라이더 및 카메라를 포함하여 이루어지고,
상기 출력부가 상기 특정 대상물에 여행정보를 직접 표시하는 것은 GPS와 카메라가 상기 특정 대상물을 특정한 후 라이더에 의해 특정 대상물의 상대적 이동을 반영하여 이루어지는 것을 특징으로 하는 자율주행 차량을 이용한 여행 안내 시스템.
According to claim 1,
The self-driving vehicle further includes a sensing unit,
The sensing unit includes a GPS, a lidar and a camera,
The output unit directly displays travel information on the specific object by reflecting the relative movement of the specific object by the rider after the GPS and the camera specify the specific object. A tour guide system using an autonomous vehicle.
제1항에 있어서,
상기 출력부는 상기 특정 대상물을 막는 다른 차량 또는 보행자가 감지되는 경우에 실사 출력을 중단하는 것을 특징으로 하는 자율주행 차량을 이용한 여행 안내 시스템.
According to claim 1,
The tour guide system using an autonomous vehicle, characterized in that the output unit stops actual output when another vehicle or pedestrian blocking the specific object is detected.
제1항에 있어서,
상기 출력부는 상기 특정 대상물의 아웃라인을 특정하거나 특정 대상물의 내측에 텍스트 또는 이미지를 출력하는 것을 특징으로 하는 자율주행 차량을 이용한 여행 안내 시스템.
According to claim 1,
The tour guide system using an autonomous vehicle, characterized in that the output unit specifies an outline of the specific object or outputs text or an image inside the specific object.
KR1020210114488A 2021-08-30 2021-08-30 Tour guide system using self-driving vehicles KR20230033749A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210114488A KR20230033749A (en) 2021-08-30 2021-08-30 Tour guide system using self-driving vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210114488A KR20230033749A (en) 2021-08-30 2021-08-30 Tour guide system using self-driving vehicles

Publications (1)

Publication Number Publication Date
KR20230033749A true KR20230033749A (en) 2023-03-09

Family

ID=85511410

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210114488A KR20230033749A (en) 2021-08-30 2021-08-30 Tour guide system using self-driving vehicles

Country Status (1)

Country Link
KR (1) KR20230033749A (en)

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
한국공개특허 제2021-0097237호(2021. 08. 09.), 발명의 명칭: 자율주행 차량의 여행 안내 시스템{TRAVEL INFORMATION SYSTEM FOR SELF DRIVING CARS}

Similar Documents

Publication Publication Date Title
KR20230114766A (en) System for self driving cars
KR102568270B1 (en) Pedestrian communication system for self driving cars
KR20230033749A (en) Tour guide system using self-driving vehicles
KR102568288B1 (en) Traffic safety system by communication with self driving cars
KR102568294B1 (en) Emergency route generation system for self driving cars
KR102568283B1 (en) Pedestrian communication system for self driving cars
KR102568277B1 (en) Rescue system for self driving cars
KR102658910B1 (en) Driving practice system using autonomous vehicle
KR20230114772A (en) Information output system for self driving cars
KR20230114768A (en) Emergency route setting system for self driving cars
KR20230114773A (en) Information entry system for self driving cars
KR20230115353A (en) Autonomous Driving Multimedia System
KR20230033144A (en) Blind Spot Warning System FOR SELF DRIVING CARS
KR20230114769A (en) Emergency route setting system for self driving cars
KR20230114778A (en) Driving environment sharing system for autonomous vehicles
KR20230115352A (en) Emergency route setting system for self driving cars
KR20230033148A (en) Parking and exit system for self driving cars based on mutual communication
KR20230124824A (en) Interactive self driving system
KR20230114774A (en) CONTENTS linkage system for autonomous vehicles
KR20230033162A (en) Collision Prediction System for autonomous vehicles
KR20230033750A (en) Warning system for self driving cars
KR20230114779A (en) Lane change system for autonomous vehicles
KR20230114776A (en) GROUP DRIVING system for autonomous vehicles
KR20230114780A (en) Autonomous vehicle lane change system for emergency vehicle
KR20230126594A (en) Autonomous driving system to prevent drunk driving

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E601 Decision to refuse application