KR20220110346A - Interaction system between self driving car and others - Google Patents

Interaction system between self driving car and others Download PDF

Info

Publication number
KR20220110346A
KR20220110346A KR1020210012548A KR20210012548A KR20220110346A KR 20220110346 A KR20220110346 A KR 20220110346A KR 1020210012548 A KR1020210012548 A KR 1020210012548A KR 20210012548 A KR20210012548 A KR 20210012548A KR 20220110346 A KR20220110346 A KR 20220110346A
Authority
KR
South Korea
Prior art keywords
vehicle
command
autonomous
driving
person
Prior art date
Application number
KR1020210012548A
Other languages
Korean (ko)
Inventor
현승협
박다은
이수빈
송호원
박수조
Original Assignee
한양대학교 에리카산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 에리카산학협력단 filed Critical 한양대학교 에리카산학협력단
Priority to KR1020210012548A priority Critical patent/KR20220110346A/en
Publication of KR20220110346A publication Critical patent/KR20220110346A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • B60K2370/152
    • B60K2370/175
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/089Driver voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • G05D2201/0213

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to an interaction system between an autonomous vehicle and another person. According to the present invention, a command is sent to an autonomous driving vehicle of a user by the other person. When the command is lawful, the autonomous driving vehicle is temporarily operated to help convenience of the other person. Thus, a new and direct interaction is created between the autonomous driving vehicle and the other person, instead of the user. The interaction system between the autonomous vehicle and the other person according to one aspect of the present invention comprises: a sensing unit which allows the autonomous vehicle to obtain the command comprising the voice or the motion of the other person; and a control unit which processes the command and controls the autonomous vehicle to temporarily drive. The other person is not an authorized user of the autonomous vehicle, which recognizes the command.

Description

자율주행 차량과 타인 간의 인터랙션 시스템{INTERACTION SYSTEM BETWEEN SELF DRIVING CAR AND OTHERS}INTERACTION SYSTEM BETWEEN SELF DRIVING CAR AND OTHERS

본 발명은 특수한 상황에서 일방이 타방의 자율주행 차량에 명령하여 한시적으로 자율주행 차량이 이동하도록 하여 특수한 상황을 해소하도록 하는 자율주행 차량과 타인 간의 인터랙션 시스템에 대한 것이다. The present invention relates to an interaction system between an autonomous driving vehicle and another person in which one party commands the other autonomous driving vehicle to temporarily move the autonomous driving vehicle in a special situation to solve the special situation.

자동차는 사용되는 원동기의 종류에 따라, 내연기관(internal combustion engine) 자동차, 외연기관(external combustion engine) 자동차, 가스터빈(gas turbine) 자동차 또는 전기자동차(electric vehicle) 등으로 분류될 수 있다.An automobile may be classified into an internal combustion engine automobile, an external combustion engine automobile, a gas turbine automobile, an electric vehicle, or the like, according to a type of a prime mover used.

자율주행 차량은 인간의 운전 없이 자동으로 주행할 수 있는 자동차이다. 무인자동차는 레이더, LIDAR(light detection and ranging), GPS, 카메라로 주위의 환경을 인식하여 목적지를 지정하는 것만으로 자율적으로 주행한다. 이미 실용화되고 있는 무인자동차로는 이스라엘 군에서 운용되는 미리 설정된 경로를 순찰하는 무인 차량과 국외 광산이나 건설 현장 등에서 운용되고 있는 덤프 트럭 등의 무인 운행 시스템 등이 있다.An autonomous vehicle is a vehicle that can drive automatically without human driving. Autonomous vehicles drive autonomously by recognizing their surroundings with radar, light detection and ranging (LIDAR), GPS, and cameras and specifying a destination. Unmanned vehicles that have already been put into practical use include unmanned vehicles that patrol preset routes operated by the Israeli military, and unmanned operation systems such as dump trucks operated in overseas mines and construction sites.

이러한 자율주행 차량의 첫 번째 핵심기술은 무인자동차 시스템과 Actual System이다. 실험실 내의 시뮬레이션뿐만 아니라 실제로 무인자동차 시스템을 구축하는 기술이며 구동장치인 가속기, 감속기 및 조향장치 등을 무인화 운행에 맞도록 구현하고, 무인자동차에 장착된 컴퓨터, 소프트웨어 그리고 하드웨어를 이용하여 제어를 가능하게 한다.The first core technologies of these autonomous vehicles are the driverless vehicle system and the actual system. In addition to simulation in the laboratory, it is a technology that actually builds an unmanned vehicle system. It implements the accelerator, reducer, and steering device, which are driving devices, for unmanned operation, and enables control using the computer, software and hardware installed in the unmanned vehicle. do.

두 번째 핵심기술은 비전, 센서를 이용하여 시각정보를 입력받고 처리하는 것이다. 무인화 운행을 위한 자율 주행의 기본이 되는 것으로, 영상정보를 받아들이고 이 영상 중에서 필요한 정보를 추출해내는 기술이다. 이것은 CCD(charge-coupled device) 카메라뿐만 아니라 초음파 센서 및 레인지 필더 등의 센서를 사용하여 거리와 주행에 필요한 정보를 융합하여 분석 및 처리를 통해 장애물 회피와 돌발상황에 대처할 수 있게 한다.The second core technology is to receive and process visual information using vision and sensors. As the basis of autonomous driving for unmanned driving, it is a technology that accepts image information and extracts necessary information from this image. It uses CCD (charge-coupled device) cameras as well as ultrasonic sensors and range filters to fuse information necessary for distance and driving, so that it can avoid obstacles and cope with unexpected situations through analysis and processing.

세 번째 핵심기술은 통합관제 시스템과 운행감시 고장진단체계 기술이다. 이 기술은 차량의 운행을 감시하고 수시로 바뀌는 상황에 따라 적절한 명령을 내리는 운행감시체계를 구축하고, 개별적 프로세서 및 센서에서 발생되는 여러 상황을 분석하여 시스템의 고장을 진단하여 오퍼레이터에 대한 적절한 정보를 제공하거나 경보를 알리는 기능을 수행할 수 있게 한다.The third core technology is the integrated control system and operation monitoring fault diagnosis system technology. This technology establishes a driving monitoring system that monitors vehicle operation and gives appropriate commands according to changing situations, and provides appropriate information to the operator by diagnosing system failures by analyzing various situations occurring from individual processors and sensors. or to perform the function of notifying an alarm.

네 번째 핵심기술은 지능제어 및 지능운행 장치이다. 이 기술은 무인운행기법으로 실제 차량모델을 이용한 수학적인 해석에 근거하여 제어명령을 생성하여 현재 무인자동차에 적용되고 있는 첫 번째 적용기술은 지능형 순향제어(ACC: Adaptive Cruise Control) 시스템이다. 지능형 순향제어는 레이더 가이드 기술에 기반을 두고 운전자가 페달을 조작하지 않아도 스스로 속도를 조절하여 앞차 또는 장애물과의 거리를 유지시켜주는 시스템이다. 운전자가 앞차와의 거리를 입력하면 자동차 전면에 부착된 장거리 레이더가 앞차의 위치를 탐지하여 일정속도를 유지하거나 감속, 가속하며 필요한 경우 완전히 정지하여 시야확보가 어려운 날씨에 유용하다.The fourth core technology is intelligent control and intelligent operation devices. This technology is an unmanned driving technique that generates control commands based on mathematical analysis using real vehicle models. Intelligent Forward Control is a system that maintains the distance from the vehicle in front or obstacles by adjusting the speed by itself without the driver operating the pedals based on radar guide technology. When the driver inputs the distance to the vehicle in front, the long-range radar attached to the front of the vehicle detects the position of the vehicle in front, maintains a constant speed, decelerates, accelerates, and stops completely if necessary, which is useful in weather where visibility is difficult.

다섯 번째 적용기술은 차선이탈방지 시스템이다. 이는 내부에 달린 카메라가 차선을 감지하여 의도하지 않은 이탈 상황을 운전자에게 알려주는 기술로 무인자동차에서는 도보와 중앙선을 구분하여 자동차가 차선을 따라 안전하게 주행할 수 있도록 해준다.The fifth applied technology is the lane departure prevention system. This is a technology that notifies the driver of an unintentional departure situation by detecting a lane with a camera installed inside.

여섯 번째 적용기술은 주차보조 시스템이다. 이는 운전자가 어시스트 버튼을 탐색한 수 후진기어를 넣고 브레이크 페달을 밟으면 자동차가 조향장치 조절하여 후진 일렬주차를 도와주는 시스템이다. 차량 장착형 센서뿐만 아니라 인프라를 기반으로 출발지에서 주차공간까지 차량을 자동으로 유도하여 주차 시 불필요하게 소모되는 시간과 에너지를 절약해주어 소요비용과 환경오염을 최소화 해준다.The sixth application technology is the parking assist system. This is a system that helps the car park in reverse line by adjusting the steering system when the driver presses the brake pedal after searching for the assist button and inserts the reverse gear. Based on infrastructure as well as vehicle-mounted sensors, the vehicle is automatically guided from the departure point to the parking space, saving unnecessary time and energy when parking, thereby minimizing cost and environmental pollution.

일곱 번째 적용기술은 자동주차 시스템이다. 이는 운전자가 주차장 앞에 차를 정지시킨 뒤 엔진을 끄고 내려서 리모콘 잠금 스위치를 2회 연속 누르면 자동차에 설치된 카메라가 차고의 반대편 벽에 미리 붙여놓은 반사경을 탐지해 적정한 접근 경로를 계산하여 스스로 주차를 하는 기술이다.The seventh application technology is the automatic parking system. This is a technology in which the driver stops the car in front of the parking lot, turns off the engine, gets off, and presses the remote control lock switch twice in succession. to be.

여덟 번째 적용 기술은 사각지대 정보 안내 시스템이다. 이는 자동차의 양측면에 장착된 센서가 사이드 미러로 보이지 않는 사각지대에 다른 차량이 있는지를 판단하여 운전자에게 경고를 해주는 것으로 복잡한 도로 상황에서 양측의 장애물 및 차량을 확인하여 차선을 변경하는 용도로 사용된다.The eighth application technology is a blind spot information guidance system. It is used to change lanes by checking obstacles and vehicles on both sides in complex road conditions, as sensors installed on both sides of the car determine whether there are other vehicles in the blind spot that cannot be seen through the side mirrors and warn the driver. .

자율주행의 가장 큰 장점은 주행속도와 교통 관리 자료가 일치하기 때문에 조절장치를 더욱 고르게 하여 반복정지를 피해 연료 효율에 도움을 준다는 것과 노인, 아동, 장애인 등 운전을 할 수 없는 이들도 이용할 수 있다는 것이다. 이외에도 장시간 운전으로 인한 피로를 해결해주고, 교통사고의 위험을 크게 줄일 수 있는 것과 도로의 교통 흐름이 빨라지고 교통 혼잡을 줄일 수 있다는 장점이 있다.The biggest advantage of autonomous driving is that it helps fuel efficiency by avoiding repeated stops by making the control device more even because the driving speed and traffic management data match. will be. In addition, it has the advantages of solving fatigue caused by long-term driving, greatly reducing the risk of traffic accidents, speeding up road traffic flow, and reducing traffic congestion.

이러한 자율주행 차량에 따라 주차 문제도 용이하게 해결될 것으로 보이고 관련된 선행기술문헌도 활발하게 등장하는 추세이다. 그러나, 선행기술문헌에 기재된 것과 같이 자율주행 차량이 스스로 주차하는 부분에 연구 개발을 활발하게 진행되고 있으나, 주차 후 발생하는 문제점에 대한 것은 매우 인식이 낮은 실정이다. The parking problem is expected to be easily solved according to these autonomous vehicles, and related prior art literature is also actively appearing. However, as described in the prior art literature, although research and development are being actively carried out on the part where the autonomous vehicle parks itself, the awareness of the problem occurring after parking is very low.

한국등록특허 제10-2117821호(2020. 6. 2.), 지정주차 공간을 활용한 자율주행 차량의 주차 관리 방법{METHOD FOR PARKING MANAGEMENT OF AUTONOMOUS VEHICLE}Korean Patent No. 10-2117821 (2020. 6. 2.), parking management method of autonomous vehicle using designated parking space {METHOD FOR PARKING MANAGEMENT OF AUTONOMOUS VEHICLE}

본 발명은 상기한 종래기술의 문제점을 해결하기 위한 것으로서, 본 발명의 목적은 타인의 자율주행 차량에 명령하거나 타인이 본인의 자율주행 차량에 명령하여 한시적으로 명령을 수신한 차량이 이동되도록 하는 자율주행 차량과 타인 간의 인터랙션 시스템을 제공한다. The present invention is intended to solve the problems of the prior art, and an object of the present invention is to provide an autonomous driving vehicle that commands another person's self-driving vehicle or another person commands his/her own self-driving vehicle to temporarily move the vehicle receiving the command. It provides an interaction system between a driving vehicle and another person.

본 발명의 일 측면에 따른 자율주행 차량과 타인 간의 인터랙션 시스템은 자율주행 차량이 타인의 음성 또는 모션으로 이루어진 명령을 획득하는 감지부 및 상기 명령을 프로세싱하여 자율주행 차량을 한시적으로 구동하도록 제어하는 제어부를 포함하고, 상기 타인은 상기 명령을 인식하는 자율주행 차량의 승인된 이용자가 아니다. In an interaction system between an autonomous vehicle and another person according to an aspect of the present invention, a sensing unit for the autonomous vehicle to obtain a command made up of another person's voice or motion, and a controller for controlling the autonomous vehicle to temporarily drive the autonomous vehicle by processing the command wherein the other person is not an authorized user of the autonomous vehicle recognizing the command.

이때, 상기 자율주행 차량은 출력부를 더 포함하고, 상기 출력부는 상기 감지부가 타인을 인식한 경우 또는 타인의 명령을 획득한 경우에 인식 표시를 출력할 수 있다. In this case, the autonomous vehicle may further include an output unit, and the output unit may output a recognition display when the sensing unit recognizes another person or obtains a command from the other person.

또한, 상기 제어부는 상기 명령을 구성하는 음성 또는 모션이 자율주행 차량의 한시적 구동 명령인지 판단할 수 있다. Also, the controller may determine whether the voice or motion constituting the command is a temporary driving command of the autonomous vehicle.

또한, 상기 제어부는 상기 감지부가 명령을 감지한 경우에 상기 타인이 사용할 수 있는 자율주행 차량이 인접 배치되어 있는지 판단할 수 있다. Also, when the sensing unit detects a command, the control unit may determine whether an autonomous driving vehicle that can be used by the other person is disposed adjacently.

또한, 상기 제어부는 자율주행 차량의 한시적 구동을 판단하는 경우에 상기 자율주행 차량의 한시적 구동 목적지를 판단할 수 있다. Also, when determining the temporary driving of the autonomous driving vehicle, the controller may determine the temporary driving destination of the autonomous driving vehicle.

또한, 상기 제어부가 자율주행 차량의 한시적 구동을 판단하였지만 또 다른 자율주행 차량에 의해 구동이 블록되었다고 판단하는 경우에는 상기 또 다른 자율주행 차량에 구동 명령을 전송할 수 있다. In addition, when the controller determines that the autonomous driving vehicle is temporarily driven, but determines that the driving is blocked by another autonomous driving vehicle, a driving command may be transmitted to the other autonomous driving vehicle.

본 발명은 타인에 의해 본인 자율주행 차량에 명령이 전송되고 그 명령이 적법한 경우에 그 자율주행 차량을 한시적으로 구동시켜 타인의 편의를 돕게 되므로 본인이 아니라 본인의 자율주행 차량과 타인 간 새롭고 직접적인 상호작용을 도출시킨다. According to the present invention, when a command is transmitted to the self-driving vehicle by another person and the command is legal, the self-driving vehicle is temporarily operated to help the convenience of others. elicit action.

도 1은 본 발명의 일 실시예에 따른 자율주행 차량과 타인 간의 인터랙션 시스템의 구성도이다.
도 2는 도 1에서의 감지부를 더욱 상세히 도시한 구성도이다.
도 3은 도 1에서의 출력부를 더욱 상세히 도시한 구성도이다.
도 4는 도 1에서의 제어부를 더욱 상세히 도시한 구성도이다.
도 5 내지 도 8는 본 발명의 일 실시예에 따른 자율주행 차량과 타인 간의 인터랙션 시스템의 작용을 설명하는 도면이다.
1 is a block diagram of an interaction system between an autonomous vehicle and another person according to an embodiment of the present invention.
FIG. 2 is a configuration diagram illustrating the sensing unit of FIG. 1 in more detail.
FIG. 3 is a configuration diagram illustrating the output unit of FIG. 1 in more detail.
FIG. 4 is a configuration diagram illustrating the control unit in FIG. 1 in more detail.
5 to 8 are diagrams for explaining an operation of an interaction system between an autonomous vehicle and another person according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. Hereinafter, the embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numbers regardless of reference numerals, and redundant description thereof will be omitted.

이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. The suffixes "module" and "part" for components used in the following description are given or mixed in consideration of only the ease of writing the specification, and do not have distinct meanings or roles by themselves.

또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. In addition, in describing the embodiments disclosed in the present specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in the present specification, the detailed description thereof will be omitted.

또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in the present specification, and the technical spirit disclosed herein is not limited by the accompanying drawings, and all changes included in the spirit and scope of the present invention , should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers such as first, second, etc. may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being “connected” or “connected” to another component, it may be directly connected or connected to the other component, but it is understood that other components may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The singular expression includes the plural expression unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. In the present application, terms such as “comprises” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It is to be understood that this does not preclude the possibility of the presence or addition of numbers, steps, operations, components, parts, or combinations thereof.

이하, 본 발명의 일 실시예에 따른 자율주행 차량과 타인 간의 인터랙션 시스템을 설명한다. 도 1은 본 발명의 일 실시예에 따른 자율주행 차량과 타인 간의 인터랙션 시스템의 구성도이고, 도 2는 도 1에서의 감지부를 더욱 상세히 도시한 구성도이며, 도 3은 도 1에서의 출력부를 더욱 상세히 도시한 구성도이고, 도 4는 도 1에서의 제어부를 더욱 상세히 도시한 구성도이다. Hereinafter, an interaction system between an autonomous vehicle and another person according to an embodiment of the present invention will be described. 1 is a configuration diagram of an interaction system between an autonomous driving vehicle and another person according to an embodiment of the present invention, FIG. 2 is a configuration diagram illustrating a sensing unit in FIG. 1 in more detail, and FIG. 3 is an output unit in FIG. It is a configuration diagram showing in more detail, and FIG. 4 is a configuration diagram showing the control unit in FIG. 1 in more detail.

도면을 참조하면, 우선 본 발명의 일 실시예에 따른 자율주행 차량과 타인 간의 인터랙션 시스템(1000)은 자율주행 차량(100), 자율주행을 보조적으로 관리하는 서버(200) 및 자율주행 차량의 이용자 또는 소유자가 휴대하는 사용자단말(300)로 이루어진다. 이때 자율주행 차량(100)은 입력부(110), 감지부(120), 출력부(130), 제어부(140), 통신부(150) 및 구동부(160)로 이루어진다. Referring to the drawings, first, an interaction system 1000 between an autonomous driving vehicle and another person according to an embodiment of the present invention includes an autonomous driving vehicle 100 , a server 200 auxiliaryly managing autonomous driving, and a user of the autonomous driving vehicle. Alternatively, the user terminal 300 is carried by the owner. In this case, the autonomous vehicle 100 includes an input unit 110 , a sensing unit 120 , an output unit 130 , a control unit 140 , a communication unit 150 , and a driving unit 160 .

입력부(110)는 운전을 위한 사용자 입력을 수신하는 장치이다. 메뉴얼 모드인 경우 자율주행 차량(100)의 입력부(110)는 조향 입력 장치, 가속 입력 장치, 브레이크 입력 장치를 포함할 수 있다. 또한, 입력부(110)는 자율주행 차량의 목적지를 입력하는 역할을 하고 입력된 목적지에 따라 제어부(140)가 구동을 제어하거나 서버(200)로부터 정보를 수신받아 경로를 연속적으로 설정하게 된다. The input unit 110 is a device for receiving a user input for driving. In the manual mode, the input unit 110 of the autonomous vehicle 100 may include a steering input device, an acceleration input device, and a brake input device. In addition, the input unit 110 serves to input the destination of the autonomous vehicle, and the controller 140 controls the driving according to the input destination or receives information from the server 200 to continuously set a route.

감지부(120)는 레이더(121) 및 라이다(122)를 포함하고, 카메라(123)를 더 포함하여 이루어질 수 있다. 우선, 레이더(121)는 전파를 이용하여 자율주행 차량(100) 외부의 오브젝트(사람을 포함한다)에 대한 정보를 생성할 수 있다. 레이더(121)는 전자파 송신부, 전자파 수신부 및 전자파 송신부 및 전자파 수신부와 전기적으로 연결되어, 수신되는 신호를 처리하고, 처리되는 신호에 기초하여 오브젝트에 대한 데이터를 생성하는 적어도 하나의 프로세서를 포함할 수 있다. The sensing unit 120 may include a radar 121 and a lidar 122 , and may further include a camera 123 . First, the radar 121 may generate information on an object (including a person) outside the autonomous vehicle 100 using radio waves. The radar 121 may include at least one processor that is electrically connected to an electromagnetic wave transmitter, an electromagnetic wave receiver, and an electromagnetic wave transmitter and an electromagnetic wave receiver, processes a received signal, and generates data for an object based on the processed signal. have.

레이더(121)는 전파 발사 원리상 펄스 레이더(Pulse Radar) 방식 또는 연속파 레이더(Continuous Wave Radar) 방식으로 구현될 수 있다. 레이더(121)는 연속파 레이더 방식 중에서 신호 파형에 따라 FMCW(Frequency Modulated Continuous Wave)방식 또는 FSK(Frequency Shift Keyong) 방식으로 구현될 수 있다. 레이더(121)는 전자파를 매개로, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식에 기초하여 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다. 이때 레이더(121)는 차량의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 차량의 외부의 적절한 위치에 배치될 수 있다.The radar 121 may be implemented in a pulse radar method or a continuous wave radar method in view of a radio wave emission principle. The radar 121 may be implemented in a frequency modulated continuous wave (FMCW) method or a frequency shift keyong (FSK) method according to a signal waveform among continuous wave radar methods. The radar 121 detects an object based on a time of flight (TOF) method or a phase-shift method using an electromagnetic wave as a medium, and calculates the position of the detected object, the distance from the detected object, and the relative speed. can be detected. In this case, the radar 121 may be disposed at an appropriate location outside the vehicle in order to detect an object located in the front, rear, or side of the vehicle.

라이다(122)는 레이저 광을 이용하여 자율주행 차량(100) 외부의 오브젝트에 대한 정보를 생성할 수 있다. 라이다(122)는 광 송신부(미도시), 광 수신부(미도시) 및 광 송신부 및 광 수신부와 전기적으로 연결되어, 수신되는 신호를 처리하고, 처리된 신호에 기초하여 오브젝트에 대한 데이터를 생성하는 적어도 하나의 프로세서를 포함할 수 있다. The lidar 122 may generate information about an object outside the autonomous vehicle 100 by using laser light. The lidar 122 is electrically connected to the light transmitter (not shown), the light receiver (not shown), and the light transmitter and the light receiver, processes the received signal, and generates data for the object based on the processed signal. It may include at least one processor.

라이다(122)는 TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식으로 구현될 수 있다. 라이다(122)는 구동식 또는 비구동식으로 구현될 수 있는데, 구동식으로 구현되는 경우 라이다(122)는 모터에 의해 회전되며 자율주행 차량(100) 주변의 오브젝트를 검출할 수 있다. 비구동식으로 구현되는 경우, 라이다(122)는 광 스티어링에 의해 차량을 기준으로 소정 범위 내에 위치하는 오브젝트를 검출할 수 있다. 자율주행 차량(100)은 복수의 비구동식 라이다를 포함할 수 있다. 라이다(122)는 레이저 광 매개로 TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식에 기초하여 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다. 이때 라이다(122)는 차량의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 차량의 외부의 적절한 위치에 배치될 수 있다.The lidar 122 may be implemented in a time of flight (TOF) method or a phase-shift method. The lidar 122 may be implemented as a driving type or a non-driven type. When the lidar 122 is implemented as a driving type, the lidar 122 is rotated by a motor and may detect an object around the autonomous vehicle 100 . When implemented as a non-driven type, the lidar 122 may detect an object located within a predetermined range with respect to the vehicle by light steering. The autonomous vehicle 100 may include a plurality of non-driven lidar. The lidar 122 detects an object based on a time of flight (TOF) method or a phase-shift method using a laser light medium, and calculates a position of the detected object, a distance from the detected object, and a relative speed. can be detected. In this case, the lidar 122 may be disposed at an appropriate position outside the vehicle in order to detect an object located in the front, rear or side of the vehicle.

한편, 카메라(123)는 영상을 이용하여 자율주행 차량(100) 외부의 오브젝트에 대한 정보를 생성할 수 있다. 이때 카메라(123)는 차량 외부에 근접하는 타인에 대하여 촬상할 수 있다. 이때 타인은 카메라(123)가 장착된 자율주행 차량(100)의 승인된 이용자가 아니라 후술할 명령을 발하는 사람을 말한다. Meanwhile, the camera 123 may generate information about an object outside the autonomous vehicle 100 by using the image. In this case, the camera 123 may take an image of another person close to the outside of the vehicle. In this case, the other person is not an authorized user of the autonomous driving vehicle 100 equipped with the camera 123 but a person who issues a command to be described later.

카메라(123)는 적어도 하나의 렌즈, 적어도 하나의 이미지 센서 및 이미지 센서와 전기적으로 연결되어 수신되는 신호를 처리하고, 처리되는 신호에 기초하여 오브젝트에 대한 데이터를 생성하는 적어도 하나의 프로세서를 포함할 수 있다.The camera 123 may include at least one lens, at least one image sensor, and at least one processor that is electrically connected to the image sensor to process a received signal, and generate data about the object based on the processed signal. can

카메라(123)는 모노 카메라, 스테레오 카메라, AVM(Around View Monitoring) 카메라 중 적어도 어느 하나일 수 있다. 카메라(123)는 다양한 영상 처리 알고리즘을 이용하여, 타인을 포함하는 오브젝트의 위치 정보, 오브젝트와의 거리 정보, 오브젝트와의 상대 속도 정보, 오브젝트의 모션 정보를 획득할 수 있다. The camera 123 may be at least one of a mono camera, a stereo camera, and an Around View Monitoring (AVM) camera. The camera 123 may obtain position information of an object including others, distance information with respect to the object, relative speed information with the object, and motion information of the object by using various image processing algorithms.

예를 들어, 카메라(123)는 획득된 영상에서 시간에 따른 오브젝트 크기의 변화를 기초로, 오브젝트와의 거리 정보 및 상대 속도 정보를 획득할 수 있다. 또한, 카메라(123)는, 핀홀(pin hole) 모델, 노면 프로파일링 등을 통해, 오브젝트와의 거리 정보 및 상대 속도 정보를 획득할 수 있다.For example, the camera 123 may acquire distance information and relative velocity information from an object based on a change in the size of the object over time in the acquired image. Also, the camera 123 may acquire distance information and relative speed information with respect to an object through a pinhole model, road surface profiling, or the like.

또한, 카메라(123)는 스테레오 카메라에서 획득된 스테레오 영상에서 디스패러티(disparity) 정보를 기초로 오브젝트와의 거리 정보, 상대 속도 정보와 타인의 손짓이나 몸짓 등의 모션에 대한 기초 정보를 획득할 수 있다. 여기서 획득된 정보가 타인의 명령에 해당하는지 제어부(140)에서 판단하게 된다. In addition, the camera 123 may acquire basic information about motion, such as distance information, relative speed information, and other people's hand gestures or gestures, based on disparity information in the stereo image obtained from the stereo camera. have. Here, the controller 140 determines whether the obtained information corresponds to a command of another person.

카메라(123)는 차량 외부를 촬영하기 위해 차량에서 FOV(field of view) 확보가 가능한 위치에 장착될 수 있다. 카메라(123)는 차량 전방의 영상을 획득하기 위해 차량의 실내에서 프런트 윈드 쉴드에 근접하게 배치될 수 있다. 나아가 카메라(123)는 프런트 범퍼 또는 라디에이터 그릴 주변에 배치될 수 있다. 카메라(123)는 차량 후방의 영상을 획득하기 위해 차량의 실내에서 리어 글라스에 근접하게 배치될 수 있다. 이때, 카메라(123)는 리어 범퍼, 트렁크 또는 테일 게이트 주변에 배치될 수 있다. 카메라(123)가 차량 측방의 영상을 획득하기 위해서는 차량의 실내에서 사이드 윈도우 중 적어도 어느 하나에 근접하게 배치될 수 있다. 또는 카메라(123)는 사이드 미러, 휀더 또는 도어 주변에 배치될 수 있다. The camera 123 may be mounted at a position where a field of view (FOV) can be secured in the vehicle to photograph the outside of the vehicle. The camera 123 may be disposed adjacent to the front windshield in the interior of the vehicle to acquire an image of the front of the vehicle. Furthermore, the camera 123 may be disposed around the front bumper or radiator grill. The camera 123 may be disposed adjacent to the rear glass in the interior of the vehicle to acquire an image of the rear of the vehicle. In this case, the camera 123 may be disposed around the rear bumper, the trunk, or the tailgate. In order for the camera 123 to acquire an image of the side of the vehicle, it may be disposed adjacent to at least one of the side windows in the interior of the vehicle. Alternatively, the camera 123 may be disposed around a side mirror, a fender, or a door.

또한, 감지부(120)는 자율주행 차량의 위치 정보를 활용해야 되므로 GPS(124)를 필수적으로 더 포함한다. GPS(124)는 자율주행 차량(100)의 위치 데이터를 생성하는데 일반적인 GPS(Global Positioning System) 및 DGPS(Differential Global Positioning System) 중 적어도 어느 하나를 포함할 수 있다. 이러한 GPS 및 DGPS 중 적어도 어느 하나에서 생성되는 신호에 기초하여 자율주행 차량(100)의 위치 데이터를 생성할 수 있다. In addition, since the sensing unit 120 needs to utilize location information of the autonomous vehicle, it essentially further includes a GPS 124 . The GPS 124 may include at least one of a general global positioning system (GPS) and a differential global positioning system (DGPS) to generate location data of the autonomous vehicle 100 . Position data of the autonomous vehicle 100 may be generated based on a signal generated by at least one of the GPS and DGPS.

이때, GPS(124)는 IMU(Inertial Measurement Unit) 및 감지부(120)의 카메라(123) 중 적어도 어느 하나에 기초하여 위치 데이터를 보정할 수 있다. 또한, GPS(124)는 GNSS(Global Navigation Satellite System)로 명명될 수 있다.In this case, the GPS 124 may correct the location data based on at least one of an Inertial Measurement Unit (IMU) and the camera 123 of the sensing unit 120 . Also, the GPS 124 may be referred to as a Global Navigation Satellite System (GNSS).

한편, 감지부(120)는 탑승자가 조향 작동을 수행하지 않더라도 음성 등으로 보호자 이외에 탑승객도 자율주행에 개입하기 위해 마이크(125)를 더 구비할 수 있다. 또한, 본 실시예에 따른 마이크(125)는 차량 외부에 있는 타인의 음성을 정보를 획득한다. 이는 타인의 음성으로 이루어진 명령을 수집하기 위함이다. On the other hand, the sensing unit 120 may further include a microphone 125 in order for the passenger to intervene in the autonomous driving in addition to the guardian by voice or the like even if the passenger does not perform the steering operation. In addition, the microphone 125 according to the present embodiment acquires information on the voice of another person outside the vehicle. This is to collect commands made up of other people's voices.

나아가 생체정보센서(126)은 탑승객의 심박, 협압, 뇌파 등을 센싱하여 위급상황에 대비하도록 할 뿐만 아니라 부가적으로 차량의 입출입 시 지문, 홍채 정보를 센싱하여 오류 탑승을 막는 기능도 별도로 수행할 수 있다. 이러한 생체정보센서(126)를 활용하여 자율주행 차량(100)은 탑승객이 탑승하거나 하차한 것을 감지할 수 있다. Furthermore, the biometric information sensor 126 not only prepares for an emergency by sensing the passenger's heartbeat, pressure, brain waves, etc., but additionally senses fingerprint and iris information when entering and exiting the vehicle to prevent erroneous boarding. can By utilizing the biometric information sensor 126 , the autonomous vehicle 100 may detect that a passenger has boarded or alighted.

출력부(130)는 자율주행 차량(100)의 내부 또는 외부에 배치되어 주행 관련 상황을 표시하고 나아가 차량의 외부에 형상, 모양 및 색체 중 어느 하나가 디스플레이되도록 하여 차량의 소유자 및 주위의 타인에게 예측 가능성을 제공하도록 할 수 있다. The output unit 130 is disposed inside or outside the autonomous driving vehicle 100 to display a driving-related situation and further to display any one of a shape, a shape, and a color on the outside of the vehicle to provide information to the owner of the vehicle and others around the vehicle. It can provide predictability.

더욱 상세하게 본 실시예에 따른 출력부(130)는 타인인식출력모듈 (131), 이동방향표시모듈(132) 및 명령수신표시모듈(133)을 더 포함하여 이루어진다. In more detail, the output unit 130 according to the present embodiment further includes a stranger recognition output module 131 , a movement direction display module 132 and a command reception display module 133 .

타인인식출력모듈(131)은 타인을 감지했음을 그 타인이 차량 외부에서 확인가능하도록 특정 이미지 또는 텍스트를 출력할 수 있다. 예들 들어, 주차된 자율주행 차량에 그 차량과 관계없는 타인이 접근하는 경우에 타인이 볼 수 있도록 그러한 접근을 인지했다는 내용이나 접근되어 있는 것을 인지했다는 내용을 차량의 내부 또는 외부에 표시한다. 따라서, 타인은 자율주행 차량(100)이 이후 자신의 음성 또는 모션으로 이루어진 명령을 수신하는 것이 가능한 것으로 인지할 수 있다. The other person recognition output module 131 may output a specific image or text so that the other person can confirm from the outside of the vehicle that the other person has been detected. For example, if a parked self-driving vehicle is approached by someone unrelated to the vehicle, display on the inside or outside of the vehicle indicating that such access has been recognized or has been acknowledged for others to see. Accordingly, another person may recognize that it is possible for the autonomous vehicle 100 to receive a command made of their own voice or motion thereafter.

이에 타인은 자율주행 차량에게 음성 또는 모션을 이용해 명령을 내릴 수 있다. 그런데, 자율주행 차량이 명령을 획득했다는 것을 표시하기 위해 타인인식출력모듈(131)은 감지부(120)에 의해 타인의 명령을 획득한 경우에 그러한 내용을 역시 외부에 보이도록 출력한다. 이에 따라 타인은 자신과 관계없는 자율주행 차량 간에 상호작용이 원활하게 발생되었다는 것을 인지하게 된다.Therefore, other people can give commands to the autonomous vehicle using voice or motion. However, in order to indicate that the autonomous driving vehicle has obtained the command, the other person recognition output module 131 outputs such contents to be visible to the outside as well when the other person's command is obtained by the sensing unit 120 . Accordingly, the other person will recognize that the interaction between the autonomous vehicle unrelated to the self-driving vehicle has occurred smoothly.

이동방향출력모듈(132)은 타인의 명령이 획득된 후 제어부에서 명령의 정합성이 판단되는 경우에 이동할 방향을 표시하는 역할을 수행한다. 이때 이동될 방향은 전술한 타인인식출력모듈(131)과 동일하게 차량의 내부 또는 외부 디스플레이를 이용하여 수행하는 것이 바람직하다. 일례로, 구부러진 화살표의 형식으로 표시하여 이동 방향을 타인에게 알려 줄 수 있다. 나아가, 화살표에 숫자를 병기하여 대략적인 이동 거리도 알려 줄 수 있다. The movement direction output module 132 serves to display the movement direction when the control unit determines the consistency of the command after the command of another person is obtained. In this case, the direction to be moved is preferably performed using an internal or external display of the vehicle in the same manner as the above-described other recognition output module 131 . For example, it is possible to inform others of the direction of movement by displaying it in the form of a curved arrow. Furthermore, an approximate moving distance may also be indicated by writing a number on the arrow.

한편, 본 실시예에 따른 자율주행 차량과 타인 간의 인터랙션 시스템은 여러 차량이 이중 주차된 경우를 상정할 수 있다. 이때 타인의 자율주행 차량이 안쪽에 주차되고 다른 자율주행 차량이 바깥쪽에 주차되어 타인의 자율주행 차량이 빠져 나오지 못하는 경우에 타인은 바깥쪽의 자율주행 차량에 차를 빼라는 명령을 내리게 되는 것이다. 그런데, 바깥쪽의 자율주행 차량이 여러 대이고 서로 얽혀 있는 경우에는 복수개 차량이 이동되어야 가장 안쪽에 주차된 타인의 자율주행 차량(수동주행 차량의 경우도 마찬가지이다)이 빠져 나올 수 있게 된다. Meanwhile, the interaction system between the autonomous vehicle and another person according to the present embodiment may assume a case in which several vehicles are double parked. At this time, if someone else's self-driving vehicle is parked inside and another self-driving vehicle is parked outside, and the other person's self-driving vehicle cannot get out, the other person gives an order to the outside self-driving vehicle to remove the vehicle. However, when there are multiple autonomous vehicles outside and they are intertwined with each other, the plurality of vehicles must be moved so that another person's self-driving vehicle (the same is the case with a manual driving vehicle) parked in the innermost side can get out.

이 경우에는 타인이 최초 명령을 내린 자율주행 차량의 통신부(150)가 인접한 또 다른 자율주행 차량과 통신하게 되는데 명령수신표시모듈(133)은 이때의 또 다른 자율주행 차량에 구비되어 명령을 수신했다는 것을 외부에 표시하게 된다. 예를 들어, 명령을 최초 수신한 차량과 이웃한 2대의 차량 외부에 명령 수신을 받았음을 표시하는 출력이 이루어지게 된다. 이에 따라 타인은 1회의 명령으로 인접한 차량에 명령이 전달되는 것을 알 수 있게 되어 새로운 인터랙션이 가능해진다. In this case, the communication unit 150 of the autonomous driving vehicle, which has initially issued a command by another person, communicates with another autonomous driving vehicle adjacent to it. to be displayed externally. For example, an output indicating that the command has been received is output to the outside of the vehicle that initially received the command and two adjacent vehicles. Accordingly, another person can know that a command is transmitted to an adjacent vehicle with a single command, thereby enabling a new interaction.

한편, 제어부(140)는 구동제어모듈(141)과 입출력제어모듈(142), 명령판단모듈(143), 상황판단모듈(144) 및 위치판단모듈(145)를 포함하여 이루어진다. Meanwhile, the control unit 140 includes a drive control module 141 , an input/output control module 142 , a command determination module 143 , a situation determination module 144 , and a location determination module 145 .

우선 구동제어모듈(141)은 메인 ECU로 구성될 수 있는데 자율주행 차량(100)의 구동부(160)를 제어하게 된다. First, the driving control module 141 may be configured as a main ECU, and controls the driving unit 160 of the autonomous vehicle 100 .

이때, 구동제어모듈(141)은 파워 트레인 구동 제어 장치, 샤시 구동 제어 장치, 도어/윈도우 구동 제어 장치, 안전 장치 구동 제어 장치, 램프 구동 제어 장치 및 공조 구동 제어 장치를 포함할 수 있다. 파워 트레인 구동 제어 장치는 동력원 구동 제어 장치 및 변속기 구동 제어 장치를 포함할 수 있다. 샤시 구동 제어 장치는, 조향 구동 제어 장치, 브레이크 구동 제어 장치 및 서스펜션 구동 제어 장치를 포함할 수 있다. 한편, 안전 장치 구동 제어 장치는 안전 벨트 제어를 위한 안전 벨트 구동 제어 장치를 포함할 수 있다.In this case, the drive control module 141 may include a power train drive control device, a chassis drive control device, a door/window drive control device, a safety device drive control device, a lamp drive control device, and an air conditioning drive control device. The power train drive control device may include a power source drive control device and a transmission drive control device. The chassis drive control device may include a steering drive control device, a brake drive control device, and a suspension drive control device. Meanwhile, the safety device drive control device may include a safety belt drive control device for seat belt control.

또한 구동제어모듈(141)는 적어도 하나의 전자적 제어 장치(예를 들면, 제어 ECU(Electronic Control Unit))를 포함한다. 특히 수신되는 신호에 기초하여, 차량 구동 장치를 제어할 수 있다. 예를 들면, 구동제어모듈(141)는 감지부(120)에서 수신되는 신호에 기초하여, 파워 트레인, 조향 장치 및 브레이크 장치를 제어할 수 있다. In addition, the driving control module 141 includes at least one electronic control device (eg, a control ECU (Electronic Control Unit)). In particular, on the basis of the received signal, it is possible to control the vehicle drive unit. For example, the driving control module 141 may control a power train, a steering device, and a brake device based on a signal received from the sensing unit 120 .

입출력제어모듈(142)는 전술한 출력부(130)를 제어하는데 타인의 인식, 타인의 명령 획득, 이동방향 및 명령을 수신받은 후 이를 확인하는 표시를 출력하도록 제어한다. The input/output control module 142 controls the above-described output unit 130 to output the recognition of another person, the acquisition of the command of the other person, the direction of movement, and a display for confirming the command after receiving the command.

명령판단모듈(143)은 획득된 타인의 명령이 한시적인 차량의 구동 명령인지 파단하게 된다. 이때 타인의 명령이 음성으로 이루어진 경우에 차량 번호의 특정 여부와 차량의 이동과 관련된 단어가 포함되었는지 판단하여 명령이 내려졌는지 판단한다. The command determination module 143 determines whether the obtained command of another person is a temporary driving command of the vehicle. At this time, when the command of another person is made by voice, it is determined whether the command has been issued by determining whether the vehicle number is specified and whether a word related to the movement of the vehicle is included.

예를 들어,'12가1234 차량 빼주세요'라는 음성을 인식한 경우에는 본 차량이 특정되고 차량의 이동에 대한 명령이 수신되었음을 확인할 수 있게 된다. 마찬가지로 명령판단모듈(143)은 타인의 모션이 손의 끝이 차량을 가리키고 이후 손의 끝이 차량의 전방으로 지나가는 경우에도 차량의 이동에 대한 명령이 수신되었음을 확인할 수 있게 된다. 한편, 명령이 불명확한 경우에는 통신부를 구동하여 사용자단말과 연결하여 타인과 차량 이용자간 직접적인 소통도 가능함은 물론이다. For example, if a voice saying 'Please remove the vehicle from 12, 1234' is recognized, the present vehicle is specified and it can be confirmed that a command for moving the vehicle has been received. Similarly, the command determination module 143 can confirm that the command for moving the vehicle has been received even when the other person's motion indicates that the tip of the hand points to the vehicle and the tip of the hand passes in front of the vehicle. On the other hand, when the command is unclear, it is of course possible to directly communicate between another person and the vehicle user by driving the communication unit and connecting to the user terminal.

상황판단모듈(144)는 명령의 정합성을 판단한다. 즉, 차를 빼라는 명령을 인식한 경우에도 그 당위성은 존재하지 않는다. 따라서, 상황판단모듈(144)는 타인의 차량이 본 차량에 의해 막혀있는지의 여부를 확인하는 역할을 수행하다. 이때, 상황판단모듈(144)은 통신부를 제어하여 근거리 통신을 수행하여 타인의 차량이 인접하건나 근거리에 위치해 있는지를 판단한다. 바람직하게는 타인이 제공한 타인 차량의 ID가 근거리에서 검색되는지의 여부로 판단함이 바람직하지만 이에 제한되지 않음은 물론이다. The situation determination module 144 determines the consistency of the command. That is, even when the command to remove the car is recognized, the justification does not exist. Accordingly, the situation determination module 144 serves to check whether the vehicle of another person is blocked by the vehicle. At this time, the situation determination module 144 controls the communication unit to perform short-range communication to determine whether the vehicle of another person is adjacent or located in a short distance. Preferably, it is preferable to determine whether the ID of another vehicle provided by another person is searched in a short distance, but the present invention is not limited thereto.

이때, 상황판단모듈(144)이 타인 차량이 근거리에 위치한 것으로 판단되는 경우에는 최초 명령의 정합성이 확인된 것으로 판단하고 한시적인 이동의 준비를 완료하게 된다. At this time, when the situation determination module 144 determines that the vehicle of another person is located in a short distance, it is determined that the consistency of the initial command is confirmed, and temporary preparation for movement is completed.

나아가, 상황판단모듈(144)은 제어부가 자율주행 차량의 한시적 구동을 판단하였지만 또 다른 자율주행 차량에 의해 구동이 블록되었다고 판단하는 경우에는 상기 또 다른 자율주행 차량에 구동 명령을 전송하도록 통신부(150)를 제어할 수 있다. Furthermore, when the control unit determines that the autonomous driving vehicle is temporarily driven, but determines that the driving is blocked by another autonomous driving vehicle, the situation determination module 144 transmits a driving command to the other autonomous driving vehicle. ) can be controlled.

위치판단모듈(145)는 한시적인 구동의 경우에 한시적인 구동 목적지를 판단한다. 이때 한시적 구동 목적지는 단순히 전방 10m 이동하고 복귀하는 것일 수 있다. 그러나, 여러 차량이 얽혀 있는 경우에는 여러 가지 경우의 수를 도출하여 여러 대의 차량을 구동할 수 있다. 이에 따라 본 실시예에서의 제어부(140)는 원활한 제어를 위해 서버(200)에서 그 역할을 대신 수행할 수도 있다. The position determination module 145 determines a temporary driving destination in the case of temporary driving. In this case, the temporary driving destination may simply be to move 10m forward and return. However, when several vehicles are entangled, it is possible to drive several vehicles by deriving the number of various cases. Accordingly, the control unit 140 in the present embodiment may instead perform its role in the server 200 for smooth control.

이하, 본 발명의 작용을 예시한다. 도 5 내지 도 8는 본 발명의 일 실시예에 따른 자율주행 차량과 타인 간의 인터랙션 시스템의 작용을 설명하는 도면이다. Hereinafter, the operation of the present invention will be exemplified. 5 to 8 are diagrams for explaining an operation of an interaction system between an autonomous vehicle and another person according to an embodiment of the present invention.

우선, 도 5와 같이 위의 우측 두번째 차량이 타인의 차량이 경우에 도시된 타인은 자신의 차량을 뺄 수 없는 상황을 맞게 되었다. 이에 도 6과 같이 특정 차량(29너1234)를 호출하고 '나와줘'라는 명령을 전송하는 경우에 제어부는 명령을 확인하고 타인의 차량과 통신하여 근거리에 위치함을 판단한 후 명령이 적법한 것으로 인식하여 한시적 구동을 준비하게 된다. 이후 도 7과 같이 구동이 진행되는데 전술한 바와 같이 많은 차량이 얽혀 있는 경우에는 그러한 모든 차량에 구동 명령이 송신되어 타인 차량의 탈출을 도모하게 된다. 이후 도 8에 도시된 바와 같이 구동되었던 차량의 소유자나 이용자에게 그 사실을 전송하게 된다. First, as shown in FIG. 5 , when the second vehicle on the right is someone else's vehicle, the other person is not able to remove his/her own vehicle. Accordingly, when a specific vehicle (29 or 1234) is called as shown in FIG. 6 and a command to 'get out' is transmitted, the control unit confirms the command, communicates with another's vehicle, determines that it is located in a short distance, and recognizes that the command is legitimate. Prepare for temporary operation. Thereafter, driving is performed as shown in FIG. 7 , and as described above, when many vehicles are entangled, a driving command is transmitted to all such vehicles to facilitate the escape of other vehicles. Thereafter, as shown in FIG. 8 , the fact is transmitted to the owner or user of the driven vehicle.

이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.As such, those skilled in the art to which the present invention pertains will understand that the present invention may be embodied in other specific forms without changing the technical spirit or essential characteristics thereof.

또한, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.In addition, the present specification and drawings have been disclosed with respect to preferred embodiments of the present invention, and although specific terms are used, these are only used in a general sense to easily explain the technical content of the present invention and help the understanding of the present invention, It is not intended to limit the scope of the invention. It will be apparent to those of ordinary skill in the art to which the present invention pertains that other modifications based on the technical spirit of the present invention can be implemented in addition to the embodiments disclosed herein.

1000: 자율주행 차량과 타인 간의 인터랙션 시스템
100: 자율주행 차량
110: 입력부
120: 감지부
130: 출력부
140: 제어부
150: 통신부
160: 구동부
200: 서버
300: 사용자단말
1000: an interaction system between an autonomous vehicle and another person
100: autonomous vehicle
110: input unit
120: detection unit
130: output unit
140: control unit
150: communication department
160: driving unit
200: server
300: user terminal

Claims (6)

자율주행 차량과 타인 간의 인터랙션 시스템에 있어서,
상기 자율주행 차량은 타인의 음성 또는 모션으로 이루어진 명령을 획득하는 감지부; 및 상기 명령을 프로세싱하여 자율주행 차량을 한시적으로 구동하도록 제어하는 제어부;를 포함하고,
상기 타인은 상기 명령을 인식하는 자율주행 차량의 승인된 이용자가 아닌 것을 특징으로 하는 자율주행 차량과 타인 간의 인터랙션 시스템.
In an interaction system between an autonomous vehicle and another person,
The autonomous vehicle may include: a sensing unit configured to obtain a command composed of another person's voice or motion; and a control unit that processes the command to temporarily control the autonomous vehicle to be driven.
and the other person is not an authorized user of the autonomous vehicle recognizing the command.
제1항에 있어서,
상기 자율주행 차량은 출력부를 더 포함하고, 상기 출력부는 상기 감지부가 타인을 인식한 경우 또는 타인의 명령을 획득한 경우에 인식 표시를 출력하는 것을 특징으로 하는 자율주행 차량과 타인 간의 인터랙션 시스템.
According to claim 1,
The self-driving vehicle further includes an output unit, wherein the output unit outputs a recognition display when the sensing unit recognizes the other person or obtains a command from the other person.
제1항에 있어서,
상기 제어부는 상기 명령을 구성하는 음성 또는 모션이 자율주행 차량의 한시적 구동 명령인지 판단하는 것을 특징으로 하는 자율주행 차량과 타인 간의 인터랙션 시스템.
According to claim 1,
and the control unit determines whether the voice or motion constituting the command is a temporary driving command of the autonomous driving vehicle.
제1항에 있어서,
상기 제어부는 상기 감지부가 명령을 감지한 경우에 상기 타인이 사용할 수 있는 자율주행 차량이 인접 배치되어 있는지 판단하는 것을 특징으로 하는 자율주행 차량과 타인 간의 인터랙션 시스템.
According to claim 1,
and the control unit determines whether an autonomous driving vehicle that can be used by the other person is adjacently disposed when the sensing unit detects a command.
제1항에 있어서,
상기 제어부는 자율주행 차량의 한시적 구동을 판단하는 경우에 상기 자율주행 차량의 한시적 구동 목적지를 판단하는 것을 특징으로 하는 자율주행 차량과 타인 간의 인터랙션 시스템.
According to claim 1,
and the control unit determines a temporary driving destination of the autonomous driving vehicle when determining the temporary driving of the autonomous driving vehicle.
제1항에 있어서,
상기 제어부가 자율주행 차량의 한시적 구동을 판단하였지만 또 다른 자율주행 차량에 의해 구동이 블록되었다고 판단하는 경우에는 상기 또 다른 자율주행 차량에 구동 명령을 전송하는 것을 특징으로 하는 자율주행 차량과 타인 간의 인터랙션 시스템.
According to claim 1,
Interaction between an autonomous vehicle and another person, characterized in that the controller transmits a driving command to the other autonomous vehicle when it is determined that the autonomous driving vehicle is temporarily driven but the driving is blocked by another autonomous vehicle system.
KR1020210012548A 2021-01-28 2021-01-28 Interaction system between self driving car and others KR20220110346A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210012548A KR20220110346A (en) 2021-01-28 2021-01-28 Interaction system between self driving car and others

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210012548A KR20220110346A (en) 2021-01-28 2021-01-28 Interaction system between self driving car and others

Publications (1)

Publication Number Publication Date
KR20220110346A true KR20220110346A (en) 2022-08-08

Family

ID=82845374

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210012548A KR20220110346A (en) 2021-01-28 2021-01-28 Interaction system between self driving car and others

Country Status (1)

Country Link
KR (1) KR20220110346A (en)

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
한국등록특허 제10-2117821호(2020. 6. 2.), 지정주차 공간을 활용한 자율주행 차량의 주차 관리 방법{METHOD FOR PARKING MANAGEMENT OF AUTONOMOUS VEHICLE}

Similar Documents

Publication Publication Date Title
KR102658906B1 (en) Emergency control system for self driving cars
KR20220111749A (en) Tracking system for self driving cars
KR20220110346A (en) Interaction system between self driving car and others
KR102568277B1 (en) Rescue system for self driving cars
KR102568294B1 (en) Emergency route generation system for self driving cars
KR102568288B1 (en) Traffic safety system by communication with self driving cars
KR102382112B1 (en) Virtual space combinaiton system for self driving cars
KR102568283B1 (en) Pedestrian communication system for self driving cars
KR102568270B1 (en) Pedestrian communication system for self driving cars
KR20220115689A (en) Pedestrian safety system for self driving cars
KR20220115702A (en) Pedestrian communication system for self driving cars
KR20220115690A (en) Pedestrian safety system for self driving cars
KR20220115703A (en) Pedestrian alert system for self driving cars
KR20220102670A (en) Pedestrian alert system for self driving cars
KR20220112879A (en) Temporory driving control system for self driving cars
KR20220115695A (en) Accident prediction system for self driving cars
KR20220115696A (en) Pedestrian advertising system for self driving cars
KR20230114773A (en) Information entry system for self driving cars
KR20240107204A (en) Remote control system for autonomous vehicle
KR20230033144A (en) Blind Spot Warning System FOR SELF DRIVING CARS
KR20230033148A (en) Parking and exit system for self driving cars based on mutual communication
KR20220112871A (en) Dock driving method for self driving cars
KR20230114772A (en) Information output system for self driving cars
KR20230115352A (en) Emergency route setting system for self driving cars
KR20230115353A (en) Autonomous Driving Multimedia System

Legal Events

Date Code Title Description
E902 Notification of reason for refusal