KR102290376B1 - Occupant safety and convenience system using Control logic - Google Patents

Occupant safety and convenience system using Control logic Download PDF

Info

Publication number
KR102290376B1
KR102290376B1 KR1020190070164A KR20190070164A KR102290376B1 KR 102290376 B1 KR102290376 B1 KR 102290376B1 KR 1020190070164 A KR1020190070164 A KR 1020190070164A KR 20190070164 A KR20190070164 A KR 20190070164A KR 102290376 B1 KR102290376 B1 KR 102290376B1
Authority
KR
South Korea
Prior art keywords
information
bus
autonomous vehicle
control system
vehicle
Prior art date
Application number
KR1020190070164A
Other languages
Korean (ko)
Other versions
KR20200143753A (en
Inventor
김재희
김대현
최무룡
윤혁진
조봉관
Original Assignee
한국철도기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국철도기술연구원 filed Critical 한국철도기술연구원
Priority to KR1020190070164A priority Critical patent/KR102290376B1/en
Publication of KR20200143753A publication Critical patent/KR20200143753A/en
Application granted granted Critical
Publication of KR102290376B1 publication Critical patent/KR102290376B1/en

Links

Images

Classifications

    • G06Q50/40
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/30Transportation; Communications
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/006Alarm destination chosen according to type of event, e.g. in case of fire phone the fire service, in case of medical emergency phone the ambulance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2300/00Indexing codes relating to the type of vehicle
    • B60W2300/10Buses
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2200/00Type of vehicle
    • B60Y2200/10Road Vehicles
    • B60Y2200/14Trucks; Load vehicles, Busses
    • B60Y2200/143Busses

Abstract

본 발명은 관제 판단 로직을 이용한 승객 안전 및 편의 시스템에 관한 것이다. 본 발명의 일 양상인 판단 로직을 이용한 승객 안전 제어 방법은, 자율주행차량 내 비상상황이 발생하는 제 1 단계; 상기 자율주행차량이 관제시스템에 상기 발생한 비상상황을 전송하는 제 2 단계; 상기 관제시스템이 상기 발생한 emergency 상황을 상기 자율주행자량을 이용하여 확인하는 제 3 단계; 상기 관제시스템이 상기 자율주행차량으로부터 수집된 정보를 기초로 미리 저장한 비상상황 중 해당하는 비상상황을 추출하는 제 4 단계; 상기 관제시스템이 미리 저장한 사고대책 시나리오 중 상기 추출한 비상상황에 대응하는 시나리오를 적어도 하나 결정하는 제 5 단계; 상기 관제시스템이 상기 결정한 시나리오를 상기 자율주행차량으로 전송하는 제 6 단계; 상기 자율주행차량이 상기 수신한 시나리오에 따라 차량의 속도, 목적지 및 차량문 개폐 중 적어도 하나를 제어하는 제 7 단계; 상기 관제시스템이 미리 설정된 유관기관으로 상기 추출한 비상상황에 대한 정보를 전송하는 제 8 단계; 상기 자율주행차량이 상기 미리 설정된 유관기관으로부터 스케쥴링 정보를 수신하는 제 9 단계; 및 상기 자율주행차량이 상기 스케쥴링 정보에 따라 운행되는 제 10 단계;를 포함할 수 있다.The present invention relates to a passenger safety and convenience system using control decision logic. An aspect of the present invention provides a method for controlling passenger safety using a decision logic, comprising: a first step of generating an emergency in an autonomous vehicle; a second step of transmitting, by the autonomous vehicle, the emergency situation to a control system; a third step of confirming, by the control system, the emergency situation that has occurred using the autonomous vehicle; a fourth step of extracting, by the control system, a corresponding emergency situation from among emergency situations stored in advance based on information collected from the autonomous vehicle; a fifth step of determining at least one scenario corresponding to the extracted emergency situation among accident countermeasure scenarios stored in advance by the control system; a sixth step of transmitting, by the control system, the determined scenario to the autonomous vehicle; a seventh step of controlling, by the autonomous vehicle, at least one of a vehicle speed, a destination, and opening/closing of a vehicle door according to the received scenario; an eighth step of transmitting, by the control system, information on the extracted emergency situation to a preset related organization; a ninth step of receiving, by the autonomous vehicle, scheduling information from the preset related organization; and a tenth step of driving the autonomous vehicle according to the scheduling information.

Figure R1020190070164
Figure R1020190070164

Description

관제 판단 로직을 이용한 승객 안전 및 편의 시스템 {Occupant safety and convenience system using Control logic}Passenger safety and convenience system using control decision logic {Occupant safety and convenience system using Control logic}

본 발명은 관제 판단 로직을 이용한 승객 안전 및 편의 시스템에 관한 것이다.The present invention relates to a passenger safety and convenience system using control decision logic.

자율주행 대중교통 차량은 무인운전 혹은 자동운전으로 운행하고 있기 때문에 스마트 관제(SCC)와 유선망과 V2X 무선망을 통해 실시간 차량상태 정보를 SCC(Smart Control Center)로 전송하고, 제어정보를 차량으로 전송하고 있다.Since autonomous public transportation vehicles are operated by unmanned or automatic operation, real-time vehicle status information is transmitted to the SCC (Smart Control Center) through smart control (SCC), wired and V2X wireless networks, and control information is transmitted to the vehicle. are doing

자율주행 대중교통 등 차량 내 운전기사나 다른 운영자가 탑승하지 않은 상태에서, emergency 상황(예를 들어, 승객 중 치한이 있는 경우)이 발생한 경우, 현재는 주변 승객에 의한 목격 또는 본인의 경험으로 신고해야 하는 문제점이 있어 이에 대한 해결방안이 요구되고 있는 실정이다.If an emergency situation (for example, if there is a molestation among passengers) occurs while the driver or other operator in the vehicle is not on board, such as self-driving public transportation There are problems that need to be addressed, and solutions are required.

또한, 자율주행차량이 버스인 경우, 종래의 버스 안내 서비스들은 버스 노선과 버스 도착 안내에는 도움을 줄 수 있으나, 버스 내부의 혼잡도와 같은 상태정보 특히, 이전 버스 정류장에서의 잔여좌석정보를 확인할 수 없어서 사용자가 승차하고자 하는 버스에 대한 도착예정시간 정보만을 가지고 버스에 승차해야만 하므로, 노약자, 장애인, 임산부, 유아를 동반한 부모 등 몸이 불편하거나 힘든 상태에서 버스가 왔을 때 버스 내에 자리가 있는지 얼마나 사람이 타고 있는지 몰라서 불편하다는 문제점이 있었다.In addition, when the autonomous vehicle is a bus, conventional bus information services can help with bus routes and bus arrival information, but it is possible to check status information such as congestion inside the bus, in particular, information about remaining seats at the previous bus stop. Because users have to get on the bus only with information on the estimated arrival time of the bus they want to board, the elderly, the disabled, pregnant women, parents with infants, etc. There was a problem that it was inconvenient because I did not know if a person was riding.

따라서 이러한 문제점을 해소할 수 있는 시스템 및 방법에 대한 요구가 높아지고 있다.Accordingly, there is an increasing demand for a system and method capable of solving these problems.

(1) 대한민국 특허청 출원번호 제10-2016-0054121호(1) Korean Intellectual Property Office Application No. 10-2016-0054121 (2) 대한민국 특허청 등록번호 제10-1610544호(2) Korean Intellectual Property Office Registration No. 10-1610544

본 발명은 관제 판단 로직을 이용한 승객 안전 및 편의 시스템을 사용자에게 제공하고자 한다.An object of the present invention is to provide a passenger safety and convenience system using control decision logic to a user.

본 발명은 자율주행차량 실내 상황 정보를 관제로 전송하고, 관제 내 판단로직 시스템을 이용하여 승객 안전 정보를 전달함으로써, 자율주행차량 자체적으로 판단하기 힘든 상황에 대한 방안을 제공하여 시스템을 간소화하고, 차량 내 승객 안전 및 편의성을 도모하기 위한 시스템 및 방법을 제안하고자 한다.The present invention simplifies the system by transmitting the indoor situation information of the autonomous driving vehicle to the control system and delivering passenger safety information using the judgment logic system in the control, providing a method for situations in which the autonomous driving vehicle itself is difficult to determine, We would like to propose a system and method for promoting the safety and convenience of passengers in a vehicle.

구체적으로 본 발명에 따른 시스템에서는 고객의 모바일 기기를 이용하여, 모바일 기기내 미리 앱 설치를 한 후 버튼을 누르고, 모바일 기기를 통한 사진, 영상, 음성을 전송하도록 한 후 관제에서 emergency 신호에 의한 차량 정보(위치, 량) 확인 후 차량내 설치되어 있는 영상을 한번 더 확인하며, 수집된 emergency 자료를 바탕으로 음성/영상은 패턴인식 알고리즘을 이용하여 상황 분석 및 대응책을 제공하는 방법을 제공할 수 있다.Specifically, in the system according to the present invention, using the customer's mobile device, after installing the app in the mobile device in advance, press the button, and transmit the photo, video, and voice through the mobile device, and then the vehicle by the emergency signal in the control After confirming the information (location, amount), the video installed in the vehicle is checked once more, and the voice/video based on the collected emergency data can provide a method of analyzing the situation and providing a countermeasure using a pattern recognition algorithm. .

또한, 본 발명에 따른 시스템에서는 자율주행차량 내 emergency 버튼이 자리마다 설치되어 있고, 이를 이용한 신고방법을 제안할 수 있다.In addition, in the system according to the present invention, an emergency button in the autonomous vehicle is installed for each seat, and a reporting method using the emergency button can be proposed.

추가적으로 본 발명은 emergency 상황 이외에 대중교통을 이용하는 사용자의 편의성을 향상시킬 수 있는 버스 승차정보 제공 시스템 및 방법을 제공하고자 한다. Additionally, the present invention is to provide a bus ride information providing system and method that can improve the convenience of users using public transportation in addition to emergency situations.

구체적으로 본 발명에서는 버스 내부의 센서 및 카메라가 잔여좌석, 영상, 식별정보, 위치 정보 등을 센싱하고, 정류장에 제공하여 표시할 수 있고, 좌석의 종류를 구분하여 표시하는 시스템을 제안하고자 한다.Specifically, in the present invention, a sensor and a camera inside a bus can sense the remaining seats, images, identification information, location information, etc., and provide and display it at a stop.

즉, 본 발명에 따른 버스 승차정보 제공 시스템은, 버스의 잔여좌석정보 및 영상정보 중 적어도 하나를 포함하는 버스내부정보를 생성하는 차량 단말기, 상기 버스내부정보에 기초하여 버스승차정보를 생성하고, 상기 버스 승차정보를 노선상의 버스정류장에 제공하는 중앙 관제 서버 및 상기 버스정류장에 설치되어 노선별로 도착되는 적어도 하나의 상기 버스에 대한 버스 승차 정보를 표시하는 버스정류장 단말기를 제공하고자 한다.That is, the bus ride information providing system according to the present invention is a vehicle terminal that generates bus internal information including at least one of remaining seat information and image information of the bus, and generates bus riding information based on the bus internal information, An object of the present invention is to provide a central control server that provides the bus ride information to a bus stop on a route, and a bus stop terminal installed at the bus stop and displaying bus ride information for at least one bus arriving for each route.

한편, 본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.On the other hand, the technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned are clearly to those of ordinary skill in the art to which the present invention belongs from the description below. can be understood

상기의 기술적 과제를 달성하기 위한 본 발명의 일 양상인 판단 로직을 이용한 승객 안전 제어 방법은, 자율주행차량 내 비상상황이 발생하는 제 1 단계; 상기 자율주행차량이 관제시스템에 상기 발생한 비상상황을 전송하는 제 2 단계; 상기 관제시스템이 상기 발생한 emergency 상황을 상기 자율주행자량을 이용하여 확인하는 제 3 단계; 상기 관제시스템이 상기 자율주행차량으로부터 수집된 정보를 기초로 미리 저장한 비상상황 중 해당하는 비상상황을 추출하는 제 4 단계; 상기 관제시스템이 미리 저장한 사고대책 시나리오 중 상기 추출한 비상상황에 대응하는 시나리오를 적어도 하나 결정하는 제 5 단계; 상기 관제시스템이 상기 결정한 시나리오를 상기 자율주행차량으로 전송하는 제 6 단계; 상기 자율주행차량이 상기 수신한 시나리오에 따라 차량의 속도, 목적지 및 차량문 개폐 중 적어도 하나를 제어하는 제 7 단계; 상기 관제시스템이 미리 설정된 유관기관으로 상기 추출한 비상상황에 대한 정보를 전송하는 제 8 단계; 상기 자율주행차량이 상기 미리 설정된 유관기관으로부터 스케쥴링 정보를 수신하는 제 9 단계; 및 상기 자율주행차량이 상기 스케쥴링 정보에 따라 운행되는 제 10 단계;를 포함할 수 있다.In order to achieve the above technical problem, a method for controlling passenger safety using decision logic, which is an aspect of the present invention, includes: a first step in which an emergency situation occurs in an autonomous vehicle; a second step of transmitting, by the autonomous vehicle, the emergency situation to a control system; a third step of confirming, by the control system, the emergency situation that has occurred using the autonomous vehicle; a fourth step of extracting, by the control system, a corresponding emergency situation from among emergency situations stored in advance based on information collected from the autonomous vehicle; a fifth step of determining at least one scenario corresponding to the extracted emergency situation among accident countermeasure scenarios stored in advance by the control system; a sixth step of transmitting, by the control system, the determined scenario to the autonomous vehicle; a seventh step of controlling, by the autonomous vehicle, at least one of a vehicle speed, a destination, and opening/closing of a vehicle door according to the received scenario; an eighth step of transmitting, by the control system, information on the extracted emergency situation to a preset related organization; a ninth step of receiving, by the autonomous vehicle, scheduling information from the preset related organization; and a tenth step of driving the autonomous vehicle according to the scheduling information.

또한, 상기 제 1 단계 및 제 2 단계 사이에는, 상기 자율주행차량 내의 모바일 기기에서 상기 관제시스템과 연관된 어플리케이션을 실행하는 단계; 및 상기 모바일 기기를 통해 이미지, 영상, 텍스트 및 소리 중 적어도 하나를 획득하는 단계;를 더 포함하고, 상기 제 3 단계에서, 상기 이미지, 영상, 텍스트 및 소리 중 적어도 하나를 이용하여 상기 emergency 상황을 확인할 수 있다.In addition, between the first step and the second step, the step of executing an application associated with the control system on a mobile device in the autonomous vehicle; and acquiring at least one of an image, video, text and sound through the mobile device; further comprising, in the third step, the emergency situation using at least one of the image, video, text and sound can be checked

또한, 상기 제 1 단계 및 제 2 단계 사이에는, 상기 자율주행차량 내의 적어도 하나의 emergency 버튼이 푸쉬 되는 단계;를 더 포함하고, 상기 제 3 단계에서, 상기 푸쉬된 적어도 하나의 emergency 버튼을 기초로 상기 emergency 상황을 확인할 수 있다.In addition, between the first step and the second step, the step of pushing at least one emergency button in the autonomous vehicle; further comprising, in the third step, based on the pushed at least one emergency button You can check the emergency situation.

또한, 상기 자율 주행 차량 내의 차량 단말기가 버스 내부의 상태정보를 촬영한 영상정보를 수집하고, 좌석의 사용여부를 감지하여 잔여좌석정보를 파악하는 제 11 단계; 중앙 관제 서버가 수신되는 상기 영상정보와 잔여좌석정보에 상기 버스의 도착정보를 포함하여 버스 승차정보를 생성하고, 상기 버스 승차정보를 노선상의 버스정류장에 전송하는 제 12단계; 및 버스정류장 단말기가 노선별로 도착되는 적어도 하나의 버스에 대한 상기영상정보, 잔여좌석정보, 도착정보 중 적어도 하나를 표시하는 제 13 단계;를 더 포함할 수 있다.In addition, the eleventh step of collecting image information obtained by photographing the state information of the inside of the bus by the vehicle terminal in the autonomous vehicle, and detecting whether or not seats are used to determine remaining seat information; a twelfth step of generating, by a central control server, bus arrival information including the arrival information of the bus in the received image information and remaining seat information, and transmitting the bus ride information to a bus stop on a route; and a thirteenth step of displaying, by the bus stop terminal, at least one of the image information, remaining seat information, and arrival information for at least one bus arriving for each route.

또한, 상기 제 13 단계는, 버스 인식부가 무선 리더기를 통해 버스정류장에 도착하는 상기 버스의 고유식별정보를 획득하는 단계; 터치스크린부가 터치패널을 이용한 입출력수단으로 노선별 버스의 상기 승차정보를 시각적으로 표시하는 단계; 스피커부가 상기 승차정보를 청각적으로 출력하는 단계; 및 중앙 처리부가 사용자의 요구에 따라 관심버스 또는 관심목적지에 대한 승차정보를 상기 중앙 관제 서버로 요청하고, 그에 따라 수신되는 상기 승차정보를 제공하는 단계;를 더 포함할 수 있다.In addition, the thirteenth step may include: obtaining, by a bus recognition unit, unique identification information of the bus arriving at the bus stop through a wireless reader; Visually displaying the boarding information of the bus for each route by a touch screen unit using input/output means using a touch panel; aurally outputting the riding information by a speaker unit; and a central processing unit requesting, by a central processing unit, riding information for a bus of interest or a destination of interest to the central control server according to a user's request, and providing the received riding information accordingly; may further include.

또한, 상기 터치스크린부는, 버스정류장에 순차적으로 도착예정인 복수의 관심버스에 대한 각각 버스도착 소요시간, 버스 위치정보, 잔여 좌석정보 및 상기 버스의 내부 영상정보 중 적어도 하나를 선택적으로 표시하되, 상기 잔여좌석정보는 좌석의 위치 및 용도를 구분하여 표시할 수 있다.In addition, the touch screen unit selectively displays at least one of bus arrival time, bus location information, remaining seat information, and internal image information of the bus for a plurality of buses of interest scheduled to arrive sequentially at the bus stop. The remaining seat information can be displayed by classifying the position and use of the seat.

본 발명은 관제 판단 로직을 이용한 승객 안전 및 편의 시스템을 사용자에게 제공할 수 있다.The present invention can provide a user with a passenger safety and convenience system using control decision logic.

본 발명은 자율주행차량 실내 상황 정보를 관제로 전송하고, 관제 내 판단 로직 시스템을 이용하여 승객 안전 정보를 전달함으로써, 자율주행차량 자체적으로 판단하기 힘든 상황에 대한 방안을 제공하여 시스템을 간소화하고, 차량 내 승객 안전 및 편의성을 도모하기 위한 시스템 및 방법을 제공할 수 있다.The present invention simplifies the system by transmitting the indoor situation information of the autonomous driving vehicle to the control system and delivering passenger safety information using the judgment logic system in the control, providing a method for a situation that is difficult to determine by the autonomous driving vehicle itself, It is possible to provide a system and method for promoting passenger safety and convenience in a vehicle.

또한, 본 발명에 따른 시스템에서는 고객의 모바일 기기를 이용하여, 모바일 기기내 미리 앱 설치를 한 후 버튼을 누르고, 모바일 기기를 통한 사진, 영상, 음성을 전송하도록 한 후 관제에서 emergency 신호에 의한 차량 정보(위치, 량) 확인 후 차량내 설치되어 있는 영상을 한번 더 확인하며, 수집된 emergency 자료를 바탕으로 음성/영상은 패턴인식 알고리즘을 이용하여 상황 분석 및 대응책을 제공할 수 있다.In addition, in the system according to the present invention, using the customer's mobile device, after installing the app in advance in the mobile device, press the button, and transmit the photo, video, and voice through the mobile device, and then the vehicle by the emergency signal in the control After confirming the information (location, amount), the image installed in the vehicle is checked once more, and the voice/video based on the collected emergency data can provide situation analysis and countermeasures using a pattern recognition algorithm.

또한, 본 발명의 구성에 따라 자율주행 대중교통 등 차량 내 운전기사나 다른 운영자가 탑승하지 않은 상태에서, emergency 상황(예를 들어, 승객 중 치한이 있는 경우)이 발생한 경우, 현재는 주변 승객에 의한 목격 또는 본인의 경험으로 신고해야 하는 현재의 문제점 해소가 가능하다.In addition, according to the configuration of the present invention, when an emergency situation (for example, if there is a mole among passengers) occurs in a state in which a driver or other operator in a vehicle such as self-driving public transportation is not on board, when an emergency situation occurs, the current It is possible to solve the current problem that needs to be reported by witnessing or personal experience.

또한, 사용자가 도착예정인 버스에 대한 내부상황정보를 미리 확인할 수 있고, 사용자의 선택적인 버스 이용이 가능하여 사용자의 편의성을 향상시킬 수 있다.In addition, the user can check the internal situation information of the scheduled arrival bus in advance, and the user can selectively use the bus, thereby improving the user's convenience.

다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be able

도 1은 본 발명이 제안하는 관제 판단 로직을 이용한 승객 안전 및 편의 시스템의 구성요소를 설명하기 위한 블록 구성도이다.
도 2는 종래의 시스템과 본 발명이 제안하는 관제 판단 로직을 이용한 승객 안전 및 편의 시스템을 비교하기 위한 도면이다.
도 3은 본 발명이 제안하는 관제 판단 로직을 이용한 승객 안전 및 편의 제공 방법을 설명하는 순서도이다.
도 4는 본 발명과 관련하여, 비상 상황 정보를 승객의 단말을 통해 획득하고 관제로 보고하는 과정을 설명하는 순서도이다.
도 5는 본 발명과 관련하여, 비상 상황 정보를 비상버튼 푸쉬를 통해 확인하고 관제로 보고하는 과정을 설명하는 순서도이다.
도 6은 본 발명의 실시 예에 따른 자율주행차량 승차정보 제공 시스템을 개략적으로 나타낸 네트워크 구성도이다.
도 7은 본 발명의 실시 예에 따른 자율주행차량 정류장 단말기의 구성을 개략적으로 나타낸 블록도이다.
도 8은 본 발명의 실시 예에 따른 자율주행차량 정류장 단말기에서 표시하는 특정 관심버스에 대한 승차정보를 나타낸다.
도 9는 본 발명의 실시 예에 따른 관심 자율주행차량의 잔여좌석 세부정보를 나타낸 평면도이다.
도 10은 본 발명의 실시 예에 따른 자율주행차량 승차정보 제공 방법을 나타낸 흐름도이다.
도 11은 본 발명의 실시 예에 따른 자율주행차량 정류장 단말기가 사용자의 요청에 의해 자율주행차량 승차정보 제공 방법을 나타낸 흐름도이다.
1 is a block diagram for explaining the components of a passenger safety and convenience system using the control decision logic proposed by the present invention.
2 is a view for comparing the passenger safety and convenience system using the control decision logic proposed by the present invention and the conventional system.
3 is a flowchart illustrating a method for providing passenger safety and convenience using the control decision logic proposed by the present invention.
4 is a flowchart illustrating a process of acquiring emergency situation information through a passenger terminal and reporting it to control in relation to the present invention.
5 is a flowchart illustrating a process of confirming emergency situation information through an emergency button push and reporting it to control in relation to the present invention.
6 is a network configuration diagram schematically illustrating a system for providing ride information for an autonomous driving vehicle according to an embodiment of the present invention.
7 is a block diagram schematically illustrating the configuration of an autonomous vehicle stop terminal according to an embodiment of the present invention.
8 shows boarding information for a specific bus of interest displayed by the autonomous vehicle stop terminal according to an embodiment of the present invention.
9 is a plan view illustrating details of remaining seats of an autonomous vehicle of interest according to an embodiment of the present invention.
10 is a flowchart illustrating a method for providing ride information for an autonomous vehicle according to an embodiment of the present invention.
11 is a flowchart illustrating a method for an autonomous driving vehicle stop terminal to provide information on an autonomous driving vehicle at the request of a user according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 의도는 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해될 수 있다.Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and described in detail. This is not intended to limit the present invention to specific embodiments, it can be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention.

본 발명을 설명함에 있어서 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지 않을 수 있다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.In describing the present invention, terms such as first, second, etc. may be used to describe various components, but the components may not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component.

어떤 구성요소가 다른 구성요소에 연결되어 있다거나 접속되어 있다고 언급되는 경우는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해될 수 있다. 반면에, 어떤 구성요소가 다른 구성요소에 직접 연결되어 있다거나 직접 접속되어 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해될 수 있다.When a component is referred to as being connected or connected to another component, it may be directly connected or connected to the other component, but it can be understood that other components may exist in between. . On the other hand, when it is mentioned that a certain element is directly connected to or directly connected to another element, it may be understood that the other element does not exist in the middle.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.The terms used herein are used only to describe specific embodiments, and are not intended to limit the present invention. The singular expression may include the plural expression unless the context clearly dictates otherwise.

본 명세서에서, 포함하다 또는 구비하다 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것으로서, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해될 수 있다.In this specification, the terms include or include are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, and includes one or more other features or numbers, It may be understood that the existence or addition of steps, operations, components, parts or combinations thereof is not precluded in advance.

또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 본 명세서에서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석될 수 있으며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않을 수 있다.In addition, unless otherwise defined, all terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. . Terms such as those defined in a commonly used dictionary may be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present specification, it is interpreted in an ideal or excessively formal meaning. it may not be

자율주행차량은 운전자가 핸들과 가속페달, 브레이크 등을 조작하지 않아도 정밀한 지도, 위성항법시스템(GPS) 등 차량의 각종 센서로 상황을 파악해 스스로 목적지까지 찾아가는 차량을 말한다. A self-driving vehicle refers to a vehicle that detects the situation with various sensors of the vehicle, such as a precise map and a global positioning system (GPS), and finds a destination by itself without the driver operating the steering wheel, accelerator pedal, or brake.

자율주행 시장은 2020년부터 본격적인 성장세에 진입할 것으로 전망되고 있다. The autonomous driving market is expected to enter full-fledged growth from 2020.

시장조사업체 네비건트리서치에 따르면 세계 자율주행차 시장은 2020년 전체 자동차 시장의 2%인 2000억달러를 차지한 뒤 2035년까지 1조2000억달러에 달할 것으로 추정된다.According to market research firm Navigant Research, the global autonomous vehicle market is expected to reach $1.2 trillion by 2035 after accounting for $200 billion, or 2% of the total car market in 2020.

자율주행 대중교통 차량은 무인운전 혹은 자동운전으로 운행하고 있기 때문에 스마트 관제(SCC)와 유선망과 V2X 무선망을 통해 실시간 차량상태 정보를 SCC(Smart Control Center)로 전송하고, 제어정보를 차량으로 전송하고 있다.Since autonomous public transportation vehicles are operated by unmanned or automatic operation, real-time vehicle status information is transmitted to the SCC (Smart Control Center) through smart control (SCC), wired and V2X wireless networks, and control information is transmitted to the vehicle. are doing

자율주행 대중교통 등 차량 내 운전기사나 다른 운영자가 탑승하지 않은 상태에서, emergency 상황(예를 들어, 승객 중 치한이 있는 경우)이 발생한 경우, 현재는 주변 승객에 의한 목격 또는 본인의 경험으로 신고해야 하는 문제점이 있어 이에 대한 해결방안이 요구되고 있는 실정이다.If an emergency situation (for example, if there is a molestation among passengers) occurs while the driver or other operator in the vehicle is not on board, such as self-driving public transportation There are problems that need to be addressed, and solutions are required.

또한, 자율주행차량이 버스인 경우, 종래의 버스 안내 서비스들은 버스 노선과 버스 도착 안내에는 도움을 줄 수 있으나, 버스 내부의 혼잡도와 같은 상태정보 특히, 이전 버스 정류장에서의 잔여좌석정보를 확인할 수 없어서 사용자가 승차하고자 하는 버스에 대한 도착예정시간 정보만을 가지고 버스에 승차해야만 하므로, 노약자, 장애인, 임산부, 유아를 동반한 부모 등 몸이 불편하거나 힘든 상태에서 버스가 왔을 때 버스 내에 자리가 있는지 얼마나 사람이 타고 있는지 몰라서 불편하다는 문제점이 있었다.In addition, when the autonomous vehicle is a bus, conventional bus information services can help with bus routes and bus arrival information, but it is possible to check status information such as congestion inside the bus, in particular, information about remaining seats at the previous bus stop. Because users have to get on the bus only with information on the estimated arrival time of the bus they want to board, the elderly, the disabled, pregnant women, parents with infants, etc. There was a problem that it was inconvenient because I did not know if a person was riding.

따라서 본 명세서에서는 상기 문제점들을 해소하기 위해, 관제 판단 로직을 이용한 승객 안전 및 편의 시스템을 사용자에게 제공하고자 한다.Therefore, in the present specification, in order to solve the above problems, it is an object of the present specification to provide a passenger safety and convenience system using a control decision logic to a user.

즉, 본 발명은 자율주행차량 실내 상황 정보를 관제로 전송하고, 관제 내 판단로직 시스템을 이용하여 승객 안전 정보를 전달함으로써, 자율주행차량 자체적으로 판단하기 힘든 상황에 대한 방안을 제공하여 시스템을 간소화하고, 차량 내 승객 안전 및 편의성을 도모하기 위한 시스템 및 방법을 제안하고자 한다.That is, the present invention simplifies the system by transmitting the indoor situation information of the autonomous driving vehicle to the control system and delivering passenger safety information using the judgment logic system in the control, thereby providing a method for a situation in which the autonomous driving vehicle itself is difficult to determine. and to propose a system and method for promoting the safety and convenience of passengers in the vehicle.

구체적으로 본 발명에 따른 시스템에서는 고객의 모바일 기기를 이용하여, 모바일 기기내 미리 앱 설치를 한 후 버튼을 누르고, 모바일 기기를 통한 사진, 영상, 음성을 전송하도록 한 후 관제에서 emergency 신호에 의한 차량 정보(위치, 량) 확인 후 차량내 설치되어 있는 영상을 한번 더 확인하며, 수집된 emergency 자료를 바탕으로 음성/영상은 패턴인식 알고리즘을 이용하여 상황 분석 및 대응책을 제공하는 방법을 제공할 수 있다.Specifically, in the system according to the present invention, using the customer's mobile device, after installing the app in the mobile device in advance, press the button, and transmit the photo, video, and voice through the mobile device, and then the vehicle by the emergency signal in the control After confirming the information (location, amount), the video installed in the vehicle is checked once more, and the voice/video based on the collected emergency data can provide a method of analyzing the situation and providing a countermeasure using a pattern recognition algorithm. .

또한, 본 발명에 따른 시스템에서는 자율주행차량 내 emergency 버튼이 자리마다 설치되어 있고, 이를 이용한 신고방법을 제안할 수 있다.In addition, in the system according to the present invention, an emergency button in the autonomous vehicle is installed for each seat, and a reporting method using the emergency button can be proposed.

추가적으로 본 발명은 emergency 상황 이외에 대중교통을 이용하는 사용자의 편의성을 향상시킬 수 있는 버스 승차정보 제공 시스템 및 방법을 제공하고자 한다. Additionally, the present invention is to provide a bus ride information providing system and method that can improve the convenience of users using public transportation in addition to emergency situations.

구체적으로 본 발명에서는 버스 내부의 센서 및 카메라가 잔여좌석, 영상, 식별정보, 위치 정보 등을 센싱하고, 정류장에 제공하여 표시할 수 있고, 좌석의 종류를 구분하여 표시하는 시스템을 제안하고자 한다.Specifically, in the present invention, a sensor and a camera inside a bus can sense the remaining seats, images, identification information, location information, etc., and provide and display it at a stop.

즉, 본 발명에 따른 버스 승차정보 제공 시스템은, 버스의 잔여좌석정보 및 영상정보 중 적어도 하나를 포함하는 버스내부정보를 생성하는 차량 단말기, 상기 버스내부정보에 기초하여 버스승차정보를 생성하고, 상기 버스 승차정보를 노선상의 버스정류장에 제공하는 중앙 관제 서버 및 상기 버스정류장에 설치되어 노선별로 도착되는 적어도 하나의 상기 버스에 대한 버스 승차 정보를 표시하는 버스정류장 단말기를 제공하고자 한다.That is, the bus ride information providing system according to the present invention is a vehicle terminal that generates bus internal information including at least one of remaining seat information and image information of the bus, and generates bus riding information based on the bus internal information, An object of the present invention is to provide a central control server that provides the bus ride information to a bus stop on a route, and a bus stop terminal installed at the bus stop and displaying bus ride information for at least one bus arriving for each route.

제 1 실시예first embodiment

도 1은 본 발명이 제안하는 관제 판단 로직을 이용한 승객 안전 및 편의 시스템의 구성요소를 설명하기 위한 블록 구성도이다.1 is a block diagram for explaining the components of a passenger safety and convenience system using the control decision logic proposed by the present invention.

도 1을 참조하면, 본 발명이 제안하는 관제 판단 로직을 이용한 승객 안전 및 편의 시스템은 스마트 관제 시스템(1), 안전 관련 기관(2) 및 인프라(3)를 포함할 수 있다.Referring to FIG. 1 , the passenger safety and convenience system using the control decision logic proposed by the present invention may include a smart control system 1 , a safety-related institution 2 , and an infrastructure 3 .

여기서 안전 관련 기관(2)은 경찰서 소방서 등을 포함할 수 있다.Here, the safety-related organization 2 may include a police station, a fire department, and the like.

또한, 인프라(3)는 자율주행차량(100)의 운행, 유지 보수 등과 관련된 시설들을 모두 포함할 수 있다.In addition, the infrastructure 3 may include all facilities related to operation and maintenance of the autonomous vehicle 100 .

또한, 스마트 관제 시스템(1), 안전 관련 기관(2) 및 인프라(3)는 근거리 통신 또는 원거리 통신을 통해 상호 통신을 수행할 수 있다.In addition, the smart control system 1, the safety-related organization 2, and the infrastructure 3 may communicate with each other through short-distance communication or long-distance communication.

여기서 근거리 통신은, ANT, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra-Wideband), ZigBee 기술을 포함할 수 있다.Here, the short-range communication may include ANT, Bluetooth, Radio Frequency Identification (RFID), infrared data association (IrDA), Ultra-Wideband (UWB), and ZigBee technologies.

또한, 원거리 통신은 CDMA(code division multiple access), FDMA(frequency division multiple access), TDMA(time division multiple access), OFDMA(orthogonal frequency division multiple access), SC-FDMA(single carrier frequency division multiple access)을 포함할 수 있다.In addition, long-distance communication is CDMA (code division multiple access), FDMA (frequency division multiple access), TDMA (time division multiple access), OFDMA (orthogonal frequency division multiple access), SC-FDMA (single carrier frequency division multiple access) may include

도 1을 참조하여, 본 발명이 제안하는 스마트 관제 시스템(1)의 구성에 대해 구체적으로 설명한다.With reference to FIG. 1, the configuration of the smart control system 1 proposed by the present invention will be described in detail.

도 1은 본 발명과 관련하여, 스마트 관제 시스템의 블록구성도를 도시한 것이다.1 shows a block diagram of a smart control system in relation to the present invention.

본 발명에 따른 스마트 관제 시스템(1100)는 무선 통신부(1110), A/V(Audio/Video) 입력부(1120), 사용자 입력부(1130), 센싱부(1140), 출력부(1150), 메모리(1160), 인터페이스부(1170), 제어부(1180), 전원공급부(1190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 스마트 관제 시스템(1100)가 구현될 수도 있다.The smart control system 1100 according to the present invention includes a wireless communication unit 1110, an A/V (Audio/Video) input unit 1120, a user input unit 1130, a sensing unit 1140, an output unit 1150, a memory ( 1160 ), an interface unit 1170 , a control unit 1180 , a power supply unit 1190 , and the like. Since the components shown in FIG. 1 are not essential, the smart control system 1100 having more or fewer components may be implemented.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in turn.

무선 통신부(1110)는 스마트 관제 시스템(1100)과 무선 통신 시스템 사이 또는 스마트 관제 시스템(1100)와 스마트 관제 시스템(1100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(1110)는 이동통신 모듈(1112), 무선 인터넷 모듈(1113), 근거리 통신 모듈(1114) 및 위치정보 모듈(1115) 등을 포함할 수 있다.The wireless communication unit 1110 may include one or more modules that enable wireless communication between the smart control system 1100 and the wireless communication system or between the smart control system 1100 and the network in which the smart control system 1100 is located. . For example, the wireless communication unit 1110 may include a mobile communication module 1112 , a wireless Internet module 1113 , a short-range communication module 1114 , and a location information module 1115 .

이동통신 모듈(1112)은, 이동 통신망 상에서 기지국, 외부의 스마트 관제 시스템(1100), 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication module 1112 transmits/receives wireless signals to and from at least one of a base station, an external smart control system 1100, and a server on a mobile communication network. The wireless signal may include various types of data according to transmission/reception of a voice call signal, a video call signal, or a text/multimedia message.

무선 인터넷 모듈(1113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 스마트 관제 시스템(1100)에 내장되거나 외장될 수 있다.The wireless Internet module 1113 refers to a module for wireless Internet access, and may be built-in or external to the smart control system 1100 .

상기 무선 인터넷의 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다.As the wireless Internet technology, WLAN (Wireless LAN) (Wi-Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), etc. may be used.

근거리 통신 모듈(1114)은 근거리 통신을 위한 모듈을 말한다. 상기 근거리 통신(short range communication)의 기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The short-range communication module 1114 refers to a module for short-range communication. As the short-range communication technology, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and the like may be used.

위치 정보 모듈(1115)은 스마트 관제 시스템(1100)의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈이 있다. 현재 기술에 의하면, 상기 GPS모듈(1115)은 3개 이상의 위성으로부터 떨어진 거리 정보와 정확한 시간 정보를 산출한 다음 상기 산출된 정보에 삼각법을 적용함으로써, 위도, 경도, 및 고도에 따른 3차원의 현 위치 정보를 정확히 산출할 수 있다. 현재, 3개의 위성을 이용하여 위치 및 시간 정보를 산출하고, 또 다른 1개의 위성을 이용하여 상기 산출된 위치 및 시간 정보의 오차를 수정하는 방법이 널리 사용되고 있다. 또한, GPS 모듈(1115)은 현 위치를 실시간으로 계속 산출함으로써 속도 정보를 산출할 수 있다. The location information module 1115 is a module for acquiring the location of the smart control system 1100 , and a representative example thereof is a Global Position System (GPS) module. According to the current technology, the GPS module 1115 calculates distance information and accurate time information from three or more satellites, and then applies trigonometry to the calculated information, thereby generating a three-dimensional current according to latitude, longitude, and altitude. Location information can be accurately calculated. Currently, a method of calculating position and time information using three satellites and correcting errors in the calculated position and time information using another one satellite is widely used. Also, the GPS module 1115 may calculate speed information by continuously calculating the current location in real time.

도 1을 참조하면, A/V(Audio/Video) 입력부(1120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(1121)와 마이크(1122) 등이 포함될 수 있다. 카메라(1121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(1151)에 표시될 수 있다.Referring to FIG. 1 , an A/V (Audio/Video) input unit 1120 is for inputting an audio signal or a video signal, and may include a camera 1121 , a microphone 1122 , and the like. The camera 1121 processes an image frame such as a still image or a moving image obtained by an image sensor in a video call mode or a photographing mode. The processed image frame may be displayed on the display unit 1151 .

카메라(1121)에서 처리된 화상 프레임은 메모리(1160)에 저장되거나 무선 통신부(1110)를 통하여 외부로 전송될 수 있다. The image frame processed by the camera 1121 may be stored in the memory 1160 or transmitted to the outside through the wireless communication unit 1110 .

이때, 카메라(1121)는 사용 환경에 따라 2개 이상이 구비될 수도 있다.In this case, two or more cameras 1121 may be provided according to the use environment.

일 예로, 상기 카메라(1121)는 스마트 관제 시스템(1100)의 디스플레이부(1151)가 구비된 반대면에 3D 영상 촬영을 위한 제1 및 제2 카메라(1121a, 1121b)가 구비될 수 있고, 상기 스마트 관제 시스템(1100)의 디스플레이부(1151)가 구비된 면의 일부 영역에 사용자의 셀프 촬영을 위한 제3 카메라(1121c)가 구비될 수 있다.For example, the camera 1121 may be provided with first and second cameras 1121a and 1121b for capturing 3D images on the opposite surface of the smart control system 1100 on which the display unit 1151 is provided, and the A third camera 1121c for taking a self-portrait of the user may be provided in a portion of the surface on which the display unit 1151 of the smart control system 1100 is provided.

이때, 제1 카메라(1121a)는 3D 영상의 소스 영상인 좌안 영상 촬영을 위한 것이고, 제2 카메라(1121b)는 우안 영상 촬영을 위한 것이 될 수 있다.In this case, the first camera 1121a may be for capturing a left eye image, which is a source image of a 3D image, and the second camera 1121b may be for capturing a right eye image.

또한, 본 발명에 적용되는 카메라(1121)는 주차면의 한 측면을 촬영하는 단방향 카메라와 전방위를 모두 촬영하는 전방위 카메라를 포함할 수 있다.In addition, the camera 1121 applied to the present invention may include a unidirectional camera for photographing one side of the parking surface and an omnidirectional camera for photographing all directions.

마이크(1122)는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(1122)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 1122 receives an external sound signal by a microphone in a recording mode, a voice recognition mode, and the like, and processes it as electrical voice data. The processed voice data may be converted into a form that can be transmitted to the mobile communication base station through the mobile communication module 112 in the call mode and output. Various noise removal algorithms for removing noise generated in the process of receiving an external sound signal may be implemented in the microphone 1122 .

사용자 입력부(1130)는 사용자가 스마트 관제 시스템(1100)의 동작 제어를 위한 입력 데이터를 발생시킨다. The user input unit 1130 generates input data for the user to control the operation of the smart control system 1100 .

사용자 입력부(1130)는 본 발명에 따라 표시되는 컨텐트들 중 두 개 이상의 컨텐트를 지정하는 신호를 사용자로부터 수신할 수 있다. 그리고, 두 개 이상의 컨텐트를 지정하는 신호는, 터치입력을 통하여 수신되거나, 하드키 및 소프트 키입력을 통하여 수신될 수 있다. The user input unit 1130 may receive, from the user, a signal for designating two or more contents among contents displayed according to the present invention. In addition, a signal for designating two or more contents may be received through a touch input or may be received through a hard key and a soft key input.

사용자 입력부(1130)는 상기 하나 또는 둘 이상의 컨텐트들을 선택하는 입력을 사용자로부터 수신할 수 있다. 또한, 사용자로부터 스마트 관제 시스템(1100)가 수행할 수 있는 기능과 관련된 아이콘을 생성하는 입력을 수신할 수 있다.The user input unit 1130 may receive an input for selecting the one or more contents from the user. In addition, an input for generating an icon related to a function that the smart control system 1100 can perform may be received from a user.

상기와 같은, 사용자 입력부(1130)는 방향키, 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. As described above, the user input unit 1130 may include a direction key, a key pad, a dome switch, a touch pad (static pressure/capacitance), a jog wheel, a jog switch, and the like.

센싱부(140)는 스마트 관제 시스템(1100)의 개폐 상태, 스마트 관제 시스템(1100)의 위치, 사용자 접촉 유무, 스마트 관제 시스템(1100)의 방위, 스마트 관제 시스템(1100)의 가속/감속 등과 같이 스마트 관제 시스템(1100)의 현 상태를 감지하여 스마트 관제 시스템(1100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 또한, 배터리(1190)의 전원 공급 여부, 인터페이스부(1170)의 외부 기기 결합 여부 등을 센싱할 수도 있다. 한편, 상기 센싱부(1140)는 근접 센서(1141)를 포함할 수 있다. 상기 근접 센서(141)에 대해서는 나중에 터치스크린과 관련되어 후술된다.The sensing unit 140 includes the opening/closing state of the smart control system 1100, the location of the smart control system 1100, the presence or absence of user contact, the orientation of the smart control system 1100, acceleration/deceleration of the smart control system 1100, etc. A sensing signal for controlling the operation of the smart control system 1100 is generated by detecting the current state of the smart control system 1100 . In addition, it is also possible to sense whether power is supplied to the battery 1190 , whether the interface unit 1170 is coupled to an external device, and the like. Meanwhile, the sensing unit 1140 may include a proximity sensor 1141 . The proximity sensor 141 will be described later in relation to the touch screen.

출력부(1150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(1151), 음향 출력 모듈(1152) 등이 포함될 수 있다.The output unit 1150 is for generating an output related to sight, hearing, or touch, and this may include a display unit 1151 , a sound output module 1152 , and the like.

디스플레이부(1151)는 스마트 관제 시스템(1100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 스마트 관제 시스템(1100)가 또는 촬영 모드인 경우에는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다. The display unit 1151 displays (outputs) information processed by the smart control system 1100 . For example, a user interface (UI) or a graphic user interface (GUI) is displayed. When the smart control system 1100 is in or shooting mode, it displays the captured and/or received image, UI, or GUI.

또한, 본 발명에 따른 디스플레이부(1151)는 2D 및 3D 표시 모드를 지원한다.Also, the display unit 1151 according to the present invention supports 2D and 3D display modes.

즉, 본 발명에 따른 디스플레이부(1151)는 일반적인 디스플레이 장치(1151a)에 스위치 액정(1151b)을 조합하는 구성을 가질 수 있다. 그리고, 스위치 액정(1151b)을 이용하여 광학 시차 장벽(50)을 작동시켜 광의 진행 방향을 제어하여 좌우의 눈에 각기 다른 광이 도달하도록 분리할 수 있다. 때문에 우안용 영상과 좌안용 영상이 조합된 영상이 디스플레이 장치(1151a)에 표시되는 경우 사용자의 입장에서는 각각의 눈에 대응한 화상이 보여 마치 입체로 표시된 것처럼 느끼게 된다.That is, the display unit 1151 according to the present invention may have a configuration in which the switch liquid crystal 1151b is combined with a general display device 1151a. In addition, the optical parallax barrier 50 is operated using the switch liquid crystal 1151b to control the propagation direction of the light, so that different lights can be separated to reach the left and right eyes. For this reason, when the image in which the image for the right eye and the image for the left eye are combined is displayed on the display device 1151a, from the user's point of view, images corresponding to each eye are shown and feel as if displayed in three dimensions.

즉, 디스플레이부(1151)는 제어부(1180)의 제어에 따라, 2D 표시 모드인 상태에서는 상기 스위치 액정(1151b) 및 광학 시차 장벽(50)을 구동시키지 않고, 상기 디스플레이 장치(1151a)만을 구동시켜 일반적인 2D 표시 동작을 수행한다.That is, under the control of the controller 1180, the display unit 1151 drives only the display device 1151a without driving the switch liquid crystal 1151b and the optical parallax barrier 50 in the 2D display mode. Perform normal 2D display operations.

또한, 디스플레이부(1151)는 제어부(1180)의 제어에 따라, 3D 표시 모드인 상태에서는 상기 스위치 액정(1151b)과, 광학 시차 장벽(50) 및 디스플레이 장치(1151a)를 구동시켜 상기 디스플레이 장치(1151a)만을 구동시켜 3D 표시 동작을 수행한다.In addition, under the control of the controller 1180, the display unit 1151 drives the switch liquid crystal 1151b, the optical parallax barrier 50, and the display device 1151a in the 3D display mode to drive the display device ( 1151a) is driven to perform a 3D display operation.

한편, 상기와 같은 디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. Meanwhile, the display unit 151 as described above includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED). , a flexible display, and a three-dimensional display (3D display) may include at least one.

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(1151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 스마트 관제 시스템(1100) 바디의 디스플레이부(1151)가 차지하는 영역을 통해 스마트 관제 시스템(1100) 바디의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be of a transparent type or a light-transmitting type so that the outside can be viewed through them. This may be referred to as a transparent display, and a typical example of the transparent display is a TOLED (Transparant OLED). The rear structure of the display unit 1151 may also be configured as a light-transmitting structure. With this structure, the user can see an object located at the rear of the body of the smart control system 1100 through the area occupied by the display unit 1151 of the body of the smart control system 1100 .

스마트 관제 시스템(1100)의 구현 형태에 따라 디스플레이부(1151)이 2개 이상 존재할 수 있다. 예를 들어, 스마트 관제 시스템(1100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다. Two or more display units 1151 may exist according to an implementation form of the smart control system 1100 . For example, in the smart control system 1100 , a plurality of display units may be spaced apart or disposed integrally on one surface, or may be respectively disposed on different surfaces.

디스플레이부(1151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(1151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.When the display unit 1151 and the sensor for sensing a touch operation (hereinafter, referred to as a 'touch sensor') form a layered structure (hereinafter referred to as a 'touch screen'), the display unit 1151 may be used in addition to the output device. It can also be used as an input device. The touch sensor may have the form of, for example, a touch film, a touch sheet, a touch pad, or the like.

터치 센서는 디스플레이부(1151)의 특정 부위에 가해진 압력 또는 디스플레이부(1151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. The touch sensor may be configured to convert a change in pressure applied to a specific portion of the display unit 1151 or a change in capacitance generated at a specific portion of the display unit 1151 into an electrical input signal. The touch sensor may be configured to detect not only the touched position and area, but also the pressure at the time of the touch.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기(미도시)로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(1180)로 전송한다. 이로써, 제어부(1180)는 디스플레이부(1151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.When there is a touch input to the touch sensor, a signal(s) corresponding thereto is sent to a touch controller (not shown). The touch controller processes the signal(s) and then transmits corresponding data to the controller 1180 . Accordingly, the controller 1180 can know which area of the display unit 1151 has been touched, and the like.

상기 근접 센서(1141)는 상기 터치스크린에 의해 감싸지는 스마트 관제 시스템(1100)의 내부 영역 또는 상기 터치 스크린의 근처에 배치될 수 있다. 상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다. The proximity sensor 1141 may be disposed in an inner region of the smart control system 1100 covered by the touch screen or near the touch screen. The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object existing in the vicinity without mechanical contact using the force of an electromagnetic field or infrared rays. Proximity sensors have a longer lifespan than contact sensors and their utility is also high.

상기 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치스크린이 정전식인 경우에는 상기 포인터의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.Examples of the proximity sensor include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive type proximity sensor, a magnetic type proximity sensor, and an infrared proximity sensor. When the touch screen is of a capacitive type, it is configured to detect the proximity of the pointer by a change in an electric field according to the proximity of the pointer. In this case, the touch screen (touch sensor) may be classified as a proximity sensor.

이하에서는 설명의 편의를 위해, 상기 터치스크린 상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치스크린 상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치스크린 상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치될 때 상기 포인터가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다.Hereinafter, for convenience of description, the act of bringing the pointer closer to the touch screen without making contact so that the pointer is recognized as being positioned on the touch screen is referred to as “proximity touch”, and the touch The act of actually touching the pointer on the screen is called "contact touch". The position at which a proximity touch is performed by the pointer on the touch screen means a position at which the pointer vertically corresponds to the touch screen when the pointer is touched in proximity.

상기 근접센서는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다. The proximity sensor detects a proximity touch and a proximity touch pattern (eg, proximity touch distance, proximity touch direction, proximity touch speed, proximity touch time, proximity touch position, proximity touch movement state, etc.). Information corresponding to the sensed proximity touch operation and the proximity touch pattern may be output on the touch screen.

음향 출력 모듈(1152)은 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(1110)로부터 수신되거나 메모리(1160)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(1152)은 스마트 관제 시스템(1100)에서 수행되는 기능과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(1152)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The sound output module 1152 may output audio data received from the wireless communication unit 1110 or stored in the memory 1160 in a recording mode, a voice recognition mode, and a broadcast reception mode. The sound output module 1152 also outputs a sound signal related to a function performed in the smart control system 1100 . The sound output module 1152 may include a receiver, a speaker, a buzzer, and the like.

메모리(1160)는 제어부(1180)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입/출력되는 데이터들의 임시 저장을 위한 기능을 수행할 수도 있다. 상기 모리(1160)에는 상기 데이터들 각각에 대한 사용 빈도도 함께 저장될 수 있다. 또한, 상기 메모리부(1160)에는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory 1160 may store a program for processing and control of the controller 1180 , and may perform a function for temporarily storing input/output data. The frequency of use of each of the data may also be stored in the memory 1160 . In addition, the memory unit 1160 may store data related to vibrations and sounds of various patterns output when a touch input on the touch screen is input.

또한, 메모리(1160)는 본 발명에 따라, 3D 또는 2D 웹페이지를 표시하는 웹브라우저가 저장된다. In addition, the memory 1160 stores a web browser displaying a 3D or 2D web page according to the present invention.

상기와 같은 메모리(1160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 스마트 관제 시스템(1100)는 인터넷(internet)상에서 상기 메모리(1160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The memory 1160 as described above may include a flash memory type, a hard disk type, a multimedia card micro type, and a card type memory (eg, SD or XD memory, etc.). ), Random Access Memory (RAM), Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM), Magnetic It may include at least one type of storage medium among a memory, a magnetic disk, and an optical disk. The smart control system 1100 may operate in relation to a web storage that performs a storage function of the memory 1160 on the Internet.

인터페이스부(1170)는 스마트 관제 시스템(1100)에 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(1170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 스마트 관제 시스템(1100) 내부의 각 구성 요소에 전달하거나, 스마트 관제 시스템(1100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다. The interface unit 1170 serves as a passage with all external devices connected to the smart control system 1100 . The interface unit 1170 receives data from an external device, receives power and transmits it to each component inside the smart control system 1100, or transmits data inside the smart control system 1100 to an external device. For example, wired/wireless headset ports, external charger ports, wired/wireless data ports, memory card ports, ports for connecting devices equipped with identification modules, audio input/output (I/O) ports, A video I/O (Input/Output) port, an earphone port, etc. may be included in the interface unit 170 .

식별 모듈은 스마트 관제 시스템(1100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(User Identify Module, UIM), 가입자 인증 모듈(Subscriber Identify Module, SIM), 범용 사용자 인증 모듈(Universal Subscriber Identity Module, USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 포트를 통하여 스마트 관제 시스템(1100)와 연결될 수 있다.The identification module is a chip storing various information for authenticating the right to use the smart control system 1100, and includes a User Identify Module (UIM), a Subscriber Identify Module (SIM), and a general-purpose user authentication module. (Universal Subscriber Identity Module, USIM) and the like. A device equipped with an identification module (hereinafter, 'identification device') may be manufactured in the form of a smart card. Therefore, the identification device may be connected to the smart control system 1100 through the port.

상기 인터페이스부는 스마트 관제 시스템(1100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 스마트 관제 시스템(1100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 스마트 관제 시스템(1100)로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 스마트 관제 시스템(1100)가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수도 있다.When the smart control system 1100 is connected to an external cradle, the interface unit becomes a passage through which power from the cradle is supplied to the smart control system 1100, or various command signals input from the cradle by the user. It may be a passage through which the smart control system 1100 is transmitted. Various command signals or the power input from the cradle may be operated as signals for recognizing that the smart control system 1100 is correctly mounted on the cradle.

제어부(controller)(1180)는 통상적으로 스마트 관제 시스템(1100)의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 제어부(1180)는 멀티 미디어 재생을 위한 멀티미디어 모듈(1181)을 구비할 수도 있다. 멀티미디어 모듈(1181)은 제어부(1180) 내에 구현될 수도 있고, 제어부(1180)와 별도로 구현될 수도 있다.The controller 1180 typically controls the overall operation of the smart control system 1100 . For example, it performs related control and processing for voice calls, data communications, video calls, and the like. The controller 1180 may include a multimedia module 1181 for playing multimedia. The multimedia module 1181 may be implemented within the controller 1180 or may be implemented separately from the controller 1180 .

상기 제어부(1180)는 상기 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. The controller 1180 may perform a pattern recognition process capable of recognizing a handwriting input or a drawing input performed on the touch screen as characters and images, respectively.

한편, 제어부(1180)는 상기 디스플레이부(1151)가 유기 발광 다이오드(organic light-emitting diode, OLED) 또는 TOLED(Transparant OLED)로 구비될 경우, 본 발명에 따라, 카메라(121)를 통해 입력된 프리뷰 영상이 상기 유기 발광 다이오드(organic light-emitting diode, OLED) 또는 TOLED(Transparant OLED)의 화면 상에 풀업 표시된 상태에서, 사용자에 조작에 따라 상기 프리뷰 영상의 크기가 조절되면, 상기 화면 상에서 상기 크기가 조절된 프리뷰 영상이 표시된 제1 영역을 제외한 나머지 제2 영역 내의 화소들의 구동을 오프시킴으로써, 전원 공급부(1190)에서 상기 디스플레이부(151)로 공급되는 전원의 소모량을 줄일 수 있다.On the other hand, when the display unit 1151 is provided with an organic light-emitting diode (OLED) or a transparent OLED (TOLED), the controller 1180 controls the input through the camera 121 according to the present invention. When the size of the preview image is adjusted according to a user's manipulation while the preview image is pull-up displayed on the screen of the organic light-emitting diode (OLED) or the transparent OLED (TOLED), the size of the preview image is displayed on the screen By turning off driving of pixels in the remaining second area except for the first area in which the preview image is displayed, the consumption of power supplied from the power supply unit 1190 to the display unit 151 may be reduced.

전원 공급부(1190)는 제어부(1180)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 1190 receives external power and internal power under the control of the control unit 1180 to supply power required for operation of each component.

여기에 설명되는 다양한 실시례는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.Various embodiments described herein may be implemented in a computer-readable recording medium using, for example, software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시례는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시례들이 제어부(1180) 자체로 구현될 수 있다.According to the hardware implementation, the embodiments described herein are ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and other electrical units for performing functions. The described embodiments may be implemented by the controller 1180 itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시례들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(1160)에 저장되고, 제어부(1180)에 의해 실행될 수 있다.According to the software implementation, embodiments such as the procedures and functions described in this specification may be implemented as separate software modules. Each of the software modules may perform one or more functions and operations described herein. The software code may be implemented as a software application written in a suitable programming language. The software code may be stored in the memory 1160 and executed by the controller 1180 .

전술한 본 발명이 제안하는 시스템의 구성을 기초로 본 발명이 제안하는 관제 판단 로직을 이용한 승객 안전 및 편의 제공 방법에 대해 도면을 참조하여 구체적으로 설명한다.A method for providing passenger safety and convenience using the control decision logic proposed by the present invention based on the configuration of the system proposed by the present invention will be described in detail with reference to the drawings.

도 2는 종래의 시스템과 본 발명이 제안하는 관제 판단 로직을 이용한 승객 안전 및 편의 시스템을 비교하기 위한 도면이다.2 is a view for comparing the passenger safety and convenience system using the control decision logic proposed by the present invention and the conventional system.

도 2의 (a)를 참조하면, 기존의 관제 시스템의 일례가 도시된다.Referring to Figure 2 (a), an example of the existing control system is shown.

일반적인 버스 차량으로 운전기사 또는 다른 운영자가 탑승하여 있어 불쾌지수가 높고, 안정성 및 편의성이 떨어진다.As a general bus vehicle, the driver or other operator is on board, so the discomfort index is high, and the stability and convenience are poor.

도 2의 (b)를 참조하면, 본 발명에 따른 자율주행차량(100)이 적용된 것으로, 차량 내 운전기사나 다른 운영자가 탑승하지 않고, 차량 실내 상황 정보를 관제로 전송하여 관제내 판단로직 시스템을 이용한 승객 안전 정보 전달이 가능하다.Referring to (b) of FIG. 2 , the autonomous driving vehicle 100 according to the present invention is applied, and without a driver or other operator in the vehicle, the vehicle interior situation information is transmitted to the control system, and the in-control decision logic system It is possible to transmit passenger safety information using

또한, 차량 자체 시스템으로 판단하기 힘든 상황에 대한 관제 시스템 이용 차량내 시스템 간소화 차량내 승객 안전 및 편의 정보에 대한 판단시스템으로 활용될 수 있다.In addition, it can be used as a judgment system for passenger safety and convenience information in the vehicle, which is a simplified in-vehicle system using a control system for a situation that is difficult to judge with the vehicle's own system.

도 2의 (b)의 경우, 불쾌지수가 낮아지면서 안정성과 편의성을 높일 수 있다는 효과도 보장된다.In the case of (b) of FIG. 2 , the effect of increasing stability and convenience while lowering the discomfort index is also guaranteed.

한편, 도 3은 본 발명이 제안하는 관제 판단 로직을 이용한 승객 안전 및 편의 제공 방법을 설명하는 순서도이다.Meanwhile, FIG. 3 is a flowchart illustrating a method of providing passenger safety and convenience using the control decision logic proposed by the present invention.

도 3을 참조하면, 가장 먼저 자율주행차량(100) 내 비상상황이 발생하는 단계(S1)가 발생할 수 있다.Referring to FIG. 3 , the first step ( S1 ) in which an emergency situation occurs in the autonomous vehicle 100 may occur.

이때, 자율주행차량(100)은 관제시스템(1)으로 상기 발생한 비상상황을 전송하게 된다(S2).At this time, the autonomous vehicle 100 transmits the generated emergency situation to the control system 1 (S2).

이후, 관제시스템(1)은 상기 발생한 emergency 상황을 자율주행자량(100)을 이용하여 확인한다(S3).Thereafter, the control system 1 confirms the generated emergency situation using the autonomous vehicle 100 (S3).

또한, 관제시스템(1)은 상기 자율주행차량(100)으로부터 수집된 정보를 기초로 미리 저장한 비상상황 중 해당하는 비상상황을 추출한다(S4).In addition, the control system 1 extracts a corresponding emergency situation from the emergency situations stored in advance based on the information collected from the autonomous vehicle 100 (S4).

이후, 관제시스템(1)은 미리 저장한 사고대책 시나리오 중 상기 추출한 비상상황에 대응하는 시나리오를 적어도 하나 결정(S5)하게 된다.Thereafter, the control system 1 determines at least one scenario corresponding to the extracted emergency situation among the accident countermeasure scenarios stored in advance ( S5 ).

또한, 관제시스템(1)은 상기 결정한 시나리오를 상기 자율주행차량(100)으로 전송(S6)하고, 자율주행차량(100)은 수신한 시나리오에 따라 차량의 속도, 목적지 및 차량문 개폐 중 적어도 하나를 제어하게 된다(S7).In addition, the control system 1 transmits (S6) the determined scenario to the autonomous vehicle 100, and the autonomous vehicle 100 controls at least one of vehicle speed, destination, and vehicle door opening and closing according to the received scenario. control (S7).

S7 단계 이후, 관제시스템(1)이 미리 설정된 유관기관(2, 3)으로 상기 추출한 비상상황에 대한 정보를 전송(S8)하고, 자율주행차량(100)은 미리 설정된 유관기관(2, 3)으로부터 스케쥴링 정보를 수신한다(S9).After step S7, the control system 1 transmits the information on the extracted emergency situation to the pre-set related organizations 2 and 3 (S8), and the autonomous vehicle 100 transmits the preset related organizations 2 and 3 Receives scheduling information from (S9).

이후, 자율주행차량(100)은 스케쥴링 정보에 따라 일정 지점에 차량(100)을 정지하게 되고(S10), 스케쥴링 정보에 따라 추가적인 운행을 수행하게 된다(S11).Thereafter, the autonomous vehicle 100 stops the vehicle 100 at a predetermined point according to the scheduling information (S10), and performs additional operation according to the scheduling information (S11).

본 발명의 적용과 관련하여, 특정 예를 들어 설명한다.In connection with the application of the present invention, a specific example will be described.

특정 예는 승객 중 치한의 등장 또는 emergency 상황 발생의 경우인 것으로 가정한다.A specific example is assumed to be the case of the appearance of a mole or an emergency situation among passengers.

옆 승객에 의한 목격 또는 본의 경험으로 신고해야 하는 상황에서 관제시스템에 해당 사실을 알릴 수 있다.You can notify the control system in a situation where you need to report it as a witness by the next passenger or your own experience.

여기서 관제 시스템에 해당 사실을 알리는 제 1 방법으로, 승객의 모바일 기기를 이용. 모바일 기기내 미리 앱 설치를 한 후 버튼 누르는 방법이 이용될 수 있다.Here, as the first method of notifying the control system of this fact, the passenger's mobile device is used. A method of pressing a button after installing an app in advance in a mobile device may be used.

도 4는 본 발명과 관련하여, 비상 상황 정보를 승객의 단말을 통해 획득하고 관제로 보고하는 과정을 설명하는 순서도이다.4 is a flowchart illustrating a process of acquiring emergency situation information through a passenger terminal and reporting it to control in relation to the present invention.

도 4를 참조하면, 가장 먼저, 승객이 모바일 기기를 이용하여 어플리케이션을 설치하는 단계(S12)가 진행된다.Referring to FIG. 4 , first, a step ( S12 ) in which a passenger installs an application using a mobile device is performed.

이후, 설치된 어플리케이션을 실행하고, 모바일 기기를 통한 사진, 영상, 음성 등을 획득하는 단계(S13)가 진행된다.After that, a step (S13) of executing the installed application and acquiring a picture, an image, an audio, etc. through a mobile device is performed.

또한, 획득된 정보를 관제(1)로 전송하는 단계(S2) 및 관제(1)에서 수신한 정보 및 자율주행차량 내 설치되어 있는 기기로부터 획득된 정보를 함께 이용하여 비상상황인지 여부를 결정하는 단계(S3)가 진행된다.In addition, the step (S2) of transmitting the acquired information to the control (1) and the information received in the control (1) and the information acquired from the device installed in the autonomous vehicle are used together to determine whether it is an emergency situation. Step S3 proceeds.

또한, 관제 시스템(1)에 해당 사실을 알리는 제 2 방법으로, 차량내 emergency 버튼이 자리마다 설치되어 있고, 이를 이용한 신고 방법이 이용될 수 있다.In addition, as a second method of notifying the control system 1 of the fact, an emergency button in the vehicle is installed for each seat, and a reporting method using this may be used.

도 5는 본 발명과 관련하여, 비상 상황 정보를 비상버튼 푸쉬를 통해 확인하고 관제로 보고하는 과정을 설명하는 순서도이다.5 is a flowchart illustrating a process of confirming emergency situation information through an emergency button push and reporting it to control in relation to the present invention.

도 5를 참조하면, 가장 먼저, 자율주행 차량 내 emergency 버튼이 자리마다 설치되는 단계(S14)가 진행된다.Referring to FIG. 5 , first, the step (S14) in which an emergency button in the autonomous vehicle is installed for each seat proceeds.

이후, 비상상황 발생시 승객이 버튼을 푸쉬하여 비상상황을 관제에 신고하는 단계(S15)가 진행되고, 관제(1)에서 신고 정보 및 승객으로부터 수신한 승객 모바일의 음성, 영상, 사진 등의 정보를 이용하여 비상상황인지 여부를 결정하게 된다(S3).Thereafter, when an emergency situation occurs, the passenger pushes the button to report the emergency situation to the control (S15), and information such as the report information and the passenger's mobile voice, video, and photo received from the passenger in the control (1) is transmitted. It is determined whether or not it is an emergency situation by using it (S3).

이후, 관제(1)에서 해당 사실을 확인하는데, emergency 신호에 의한 차량 정보(위치, 량) 확인 후 차량내 설치되어 있는 영상을 확인하거나 승객의 모바일 데이터가 관제로 전송(음성, 영상, 사진)된 경우 이를 분석하여 확인하는 방법이 적용될 수 있다.After that, the control (1) confirms the fact, and after checking the vehicle information (location, amount) by the emergency signal, the image installed in the vehicle is checked or the passenger's mobile data is transmitted to the control (voice, video, photo) If it is, a method of analyzing it and confirming it can be applied.

또한, 수집된 emergency 자료를 바탕으로 음성/영상은 패턴인식 알고리즘을 이용하여 상황을 분석하고, 자동화 분석을 통한 결과를 통해 미리 정해진 사고대책 시나리오 수개를 자동으로 도출할 수 있다.In addition, based on the collected emergency data, the voice/video analyzes the situation using a pattern recognition algorithm, and a number of predetermined accident countermeasure scenarios can be automatically derived through the results through automated analysis.

또한, 자동으로 도출된 상황 및 시나리오, 분석 결과를 관제 담당자에게 전송하고, 관제 담당자의 confirm을 받게 되며, 유관기관(2, 3)과의 협업이 필요한 경우 자동으로 유관기관(경찰서, 소방서 등)에 연결할 수 있다.In addition, the automatically derived situation, scenario, and analysis result are transmitted to the control person in charge, and confirmation from the control person is received. can be connected to

또한, 비상상황시 차량의 속도, 목적지 및 차량문 개폐는 관제의 통제를 받도록 하고, emergency confirm 후엔 대상 차량에 대한 영상 감시가 진행되며, 유관기관(2, 3) 담당자와 스케줄되어 최단 거리의 임의의 정지지점에 차량을 세우도록 할 수 있다.In addition, in an emergency situation, the vehicle speed, destination, and opening and closing of the vehicle door are controlled by the control system, and after the emergency confirmation, video monitoring of the target vehicle is performed, scheduled with the person in charge of the relevant organizations (2, 3), The vehicle can be stopped at the stopping point.

이때, 자율주행차량(100)의 문은 닫혀 있고, 문제 해결을 위한 인력이 왔을 때, 문이 열리고 문제를 해결하도록 유도한다.At this time, the door of the autonomous vehicle 100 is closed, and when a manpower to solve the problem comes, the door opens and induces the problem to be solved.

단, 화재 시에는 상기 상황에서도 문이 열리고, 대피 상황을 알릴 수 있다.However, in the event of a fire, the door is opened even in the above situation, and the evacuation situation can be notified.

따라서 전술한 본 발명의 구성이 적용되는 경우, 본 발명은 자율주행차량 실내 상황 정보를 관제로 전송하고, 관제 내 판단 로직 시스템을 이용하여 승객 안전 정보를 전달함으로써, 자율주행차량 자체적으로 판단하기 힘든 상황에 대한 방안을 제공하여 시스템을 간소화하고, 차량 내 승객 안전 및 편의성을 도모하기 위한 시스템 및 방법을 제공할 수 있다.Therefore, when the configuration of the present invention described above is applied, the present invention transmits the indoor situation information of the autonomous driving vehicle to the control system and transmits the passenger safety information using the judgment logic system in the control, so that it is difficult to determine the autonomous vehicle itself. It is possible to provide a system and method for simplifying the system by providing a solution to the situation, and promoting passenger safety and convenience in the vehicle.

또한, 본 발명에 따른 시스템에서는 고객의 모바일 기기를 이용하여, 모바일 기기내 미리 앱 설치를 한 후 버튼을 누르고, 모바일 기기를 통한 사진, 영상, 음성을 전송하도록 한 후 관제에서 emergency 신호에 의한 차량 정보(위치, 량) 확인 후 차량내 설치되어 있는 영상을 한번 더 확인하며, 수집된 emergency 자료를 바탕으로 음성/영상은 패턴인식 알고리즘을 이용하여 상황 분석 및 대응책을 제공할 수 있다.In addition, in the system according to the present invention, using the customer's mobile device, after installing the app in advance in the mobile device, press the button, and transmit the photo, video, and voice through the mobile device, and then the vehicle by the emergency signal in the control After confirming the information (location, amount), the image installed in the vehicle is checked once more, and the voice/video based on the collected emergency data can provide situation analysis and countermeasures using a pattern recognition algorithm.

또한, 본 발명의 구성에 따라 자율주행 대중교통 등 차량 내 운전기사나 다른 운영자가 탑승하지 않은 상태에서, emergency 상황(예를 들어, 승객 중 치한이 있는 경우)이 발생한 경우, 현재는 주변 승객에 의한 목격 또는 본인의 경험으로 신고해야 하는 현재의 문제점 해소가 가능하다.In addition, according to the configuration of the present invention, when an emergency situation (for example, if there is a mole among passengers) occurs in a state in which a driver or other operator in a vehicle such as self-driving public transportation is not on board, when an emergency situation occurs, the current It is possible to solve the current problem that needs to be reported by witnessing or personal experience.

제 2 실시예second embodiment

본 발명의 일측면에 따른 버스 승차정보 제공 시스템은, 버스의 잔여좌석정보 및 영상정보 중 적어도 하나를 포함하는 버스내부정보를 생성하는 차량 단말기, 상기 버스내부정보에 기초하여 버스승차정보를 생성하고, 상기 버스 승차정보를 노선상의 버스정류장에 제공하는 중 앙 관제 서버 및 상기 버스정류장에 설치되어 노선별로 도착되는 적어도 하나의 상기 버스에 대한 버스 승차 정보를 표시하는 버스정류장 단말기를 포함할 수 있다.A system for providing bus ride information according to an aspect of the present invention includes a vehicle terminal that generates bus internal information including at least one of remaining seat information and image information of a bus, and generates bus riding information based on the bus internal information, , a central control server that provides the bus ride information to a bus stop on a route, and a bus stop terminal installed at the bus stop and displaying bus boarding information for at least one bus arriving for each route.

또한, 상기 버스내부정보는 상기 버스의 고유식별정보, 위치정보, 잔여좌석정보 및 버스내부의 영상정보 중 하나 이상을 포함하며, 상기 버스승차정보는 상기 버스가 사용자가 있는 버스정류장에 도착하기까지 예상되는 소요시간인 버스도착 소요시간, 상기 버스정류장에 도착하기 위해 거치는 버스정류장 수를 더 포함할 수 있다.In addition, the bus internal information includes at least one of unique identification information of the bus, location information, remaining seat information, and image information inside the bus, and the bus boarding information is provided until the bus arrives at the bus stop where the user is located. It may further include a required time required for bus arrival, which is an expected required time, and the number of bus stops passed to arrive at the bus stop.

또한, 상기 차량 단말기는, 상기 버스의 좌석에 각각 설치되어 탑승자가 착석한 상태를 감지하는 착석 감지부, 상기 버스 내부의 상태정보를 촬영하여 영상정보를 생성하는 카메라부, 상기 착석 감지부에서 수집되는 착석감지정보를 카운트하여 잔여좌석정보를 생성하고, 상기 버스의 잔여좌석정보, 영상정보, 고유식별정보 및 위치정보 중 하나 이상을 포함하는 상기 버스내부정보를 생성하는 수집정보 처리부 및 상기 버스내부정보를 무선 중계기를 통해 상기 중앙 관제 서버에 전송하는 무선 통신부를 포함할 수 있다.In addition, the vehicle terminal includes a seat detection unit installed on each seat of the bus to detect a seated state of a occupant, a camera unit generating image information by photographing state information inside the bus, and the seated detection unit collected from A collection information processing unit that generates remaining seat information by counting the seated detection information, and generates the bus internal information including at least one of remaining seat information, image information, unique identification information, and location information of the bus, and the bus interior It may include a wireless communication unit for transmitting information to the central control server through a wireless repeater.

본 명세서에서는 설명의 편의를 위해 자율주행차량이(100)이 버스인 것으로 가정하나 본 발명의 자율주행차량(100) 내용이 버스에 국한되는 것은 아니다.In this specification, for convenience of explanation, it is assumed that the autonomous vehicle 100 is a bus, but the content of the autonomous vehicle 100 of the present invention is not limited to the bus.

또한, 상기 수집정보 처리부는, 상기 착석 감지부의 좌석 설치위치와 식별정보를 토대로 좌석의 위치 및 용도(일반/노약자석)가 구분되는 상기 잔여좌석정보를 생성할 수 있다.In addition, the collection information processing unit, based on the seat installation position and identification information of the seat detection unit may generate the remaining seat information in which the position and use of the seat (general / elderly seat) is distinguished.

또한, 상기 중앙 관제 서버는 상기 버스의 고유식별정보에 기초하여 수신되는 상기 버스내부정보를 분석하는 수집부, 상기 버스내부정보에 포함된 버스의 위치정보와 상기 버스의 노선정보를 이용하여, 상기 버스정류장 수 및 상기 버스도착 소요시간을 산출하는 버스 위치 추적부 및 상기 버스내부정보, 상기 버스정류장 수 및 상기 버스도착 소요시간을 이용하여 상기 버스 승차정보를 생성하는 제어부를 포함할 수 있다.In addition, the central control server uses a collection unit that analyzes the internal bus information received based on the unique identification information of the bus, the location information of the bus included in the bus internal information and the route information of the bus, It may include a bus location tracking unit for calculating the number of bus stops and the time required to arrive at the bus, and a control unit for generating the bus ride information using the bus internal information, the number of bus stops, and the time required to arrive at the bus.

또한, 상기 버스 위치 추적부는 상기 버스도착 소요시간은 상기 버스에 앞서 운행한 적어도 하나의 동일 노선 버스가 정류장별로 이동한 통계 시간을 기초로 산출할 수 있다.In addition, the bus location tracking unit may calculate the time required for the arrival of the bus based on a statistical time in which at least one bus of the same route operated prior to the bus travels for each stop.

도 6은 본 발명의 실시 예에 따른 자율주행차량 승차정보 제공 시스템을 개략적으로 나타낸 네트워크 구성도이다.6 is a network configuration diagram schematically illustrating a system for providing ride information for an autonomous driving vehicle according to an embodiment of the present invention.

도 6을 참조하면, 버스 승차정보 제공 시스템은 차량 단말기(100), 무선 중계기(200), 중앙 관제 서버(300) 및 버스정류장 단말기(400)를 포함한다.Referring to FIG. 6 , the bus ride information providing system includes a vehicle terminal 100 , a wireless repeater 200 , a central control server 300 , and a bus stop terminal 400 .

차량 단말기(100)는 버스에 구비되어 실시간으로 파악되는 버스내부정보를 무선통신수단을 통해 무선 중계기(200)로 전송한다. 여기서, 상기 버스내부정보는 해당 버스의 잔여좌석정보와 상기 버스의 내부에서 촬영된 영상정보 등을 포함한다.The vehicle terminal 100 transmits the bus internal information provided in the bus and grasped in real time to the wireless repeater 200 through a wireless communication means. Here, the bus internal information includes remaining seat information of the corresponding bus and image information captured inside the bus.

무선 중계기(200)는 차량 단말기(100)에서 수신되는 버스내부정보를 중앙 관제 서버(300)로 전달하고, 중앙 관제 서버(300)에서 수신되는 승차정보를 버스정류장 단말기(400)로 전달한다.The wireless repeater 200 transmits the bus internal information received from the vehicle terminal 100 to the central control server 300 , and transfers the boarding information received from the central control server 300 to the bus stop terminal 400 .

중앙 관제 서버(300)는 노선 별로 운행되는 버스들의 운행에 따른 전체적인 [0028] 정보를 중앙에서 관리하는 시스템이다. 특히 본 발명의 실시 예에 따른 중앙 관제 서버(300)는 버스의 차량 단말기(100)로부터 실시간 또는 지정된 시간별로 버스내부정보를 수신하고, 상기 버스내부정보, 정류장 수 및 버스도착 소요시간을 추가하여 버스 승차정보를 생성하고 상기 버스가 도착 예정인 버스정류장 단말기(400)에 제공한다.The central control server 300 is a system that centrally manages overall information according to the operation of buses operated for each route. In particular, the central control server 300 according to an embodiment of the present invention receives the bus internal information from the vehicle terminal 100 of the bus in real time or for each designated time, and adds the bus internal information, the number of stops, and the time required to arrive at the bus. Bus ride information is generated and provided to the bus stop terminal 400 where the bus is scheduled to arrive.

여기서, 정류장 수는 당해버스의 노선에서, 당해버스의 위치에서 사용자가 대기하는 소정의 버스정류장까지에 존재하는 정류장의 수이다.Here, the number of stops is the number of stops existing on the route of the bus from the position of the bus to a predetermined bus stop where the user waits.

여기서, 버스도착 소요시간은 사용자가 대기하는 소정의 버스정류장에 당해 버스가 도착하기까지 소용되는 시간일 수 있다.Here, the time required for bus arrival may be a time required for the bus to arrive at a predetermined bus stop waiting for the user.

버스정류장 단말기(400)는 버스정류장에 고정 설치되어 노선별로 도착되는 적어도 하나의 버스에 대한 버스 승차정보를 중앙 관제 서버(300)로부터 수신하고, 그에 따른 버스승차정보에 포함된 정보 중 하나 이상을 표시함으로써 사용자가 버스 승차시 참고할 수 있도록 한다.The bus stop terminal 400 is fixedly installed at the bus stop and receives bus ride information for at least one bus arriving by route from the central control server 300, and receives one or more of the information included in the bus ride information accordingly. By displaying it, the user can refer to it when boarding the bus.

도 7은 본 발명의 실시 예에 따른 자율주행차량 정류장 단말기의 구성을 개략적으로 나타낸 블록도이다.7 is a block diagram schematically illustrating the configuration of an autonomous vehicle stop terminal according to an embodiment of the present invention.

도 7을 참조하면, 본 발명의 실시 예에 따른 버스정류장 단말기(400)는 통신 모듈(410), 버스 인식부(420), 터치스크린부(430), 스피커부(440) 및 중앙 처리부(450)를 포함한다.Referring to FIG. 7 , the bus stop terminal 400 according to an embodiment of the present invention includes a communication module 410 , a bus recognition unit 420 , a touch screen unit 430 , a speaker unit 440 , and a central processing unit 450 . ) is included.

통신 모듈(410)은 외부 장치, 예를 들면 무선 중계기와의 무선통신을 수행한다.The communication module 410 performs wireless communication with an external device, for example, a wireless repeater.

버스 인식부(420)는 버스의 차량단말기(100)에 있는 RF 태그를 인식하는 리더기를 포함하여 정류장에 도착하는 버스의 고유식별정보를 획득한다.The bus recognition unit 420 includes a reader for recognizing the RF tag in the vehicle terminal 100 of the bus to obtain unique identification information of the bus arriving at the stop.

터치스크린부(430)는 터치패널을 이용한 버스정류장 단말기(400)의 입출력수단으로, 중앙 관제 서버(330)로부터 수신된 버스승차정보를 이용하여 노선별 버스의 버스도착 소요시간과 버스내부정보를 시각적으로 표시한다. 특히, 터치스크린부(430)는 사용자의 특정 관심버스에 대한 정보를 입력 받고, 상기 요청에 상응하는 정보를 시각적으로 표출할 수 있다.The touch screen unit 430 is an input/output means of the bus stop terminal 400 using a touch panel, and uses the bus boarding information received from the central control server 330 to display the bus arrival time and bus internal information for each route. display visually. In particular, the touch screen unit 430 may receive information on the user's specific interest bus, and visually display information corresponding to the request.

도 8은 본 발명의 실시 예에 따른 자율주행차량 정류장 단말기에서 표시하는 특정 관심버스에 대한 승차정보를 나타낸다.8 shows boarding information for a specific bus of interest displayed by the autonomous vehicle stop terminal according to an embodiment of the present invention.

도 8을 참조하면, 본 발명의 실시 예에 따른 버스정류장 단말기(400)의 현위치에서 사용자의 관심버스들(11,12)에 대한 버스위치, 도착예정시간, 잔여좌석정보 및 영상정보 등의 승차정보를 보여준다. 이 때, 관심버스인 제1 버스(11) 및 제2 버스(12)는 같은 번호(동일도선)의 차량이거나 번호는 다르나 사용자의 관심목적지를 경유하는 차량일 수 있다.Referring to FIG. 8 , in the current location of the bus stop terminal 400 according to an embodiment of the present invention, the bus location, expected arrival time, remaining seat information, image information, etc. for the buses 11 and 12 of interest of the user are displayed. Shows ride information. At this time, the first bus 11 and the second bus 12, which are buses of interest, may be vehicles of the same number (same conductor) or vehicles having different numbers but passing through the user's destination of interest.

즉, 버스정류장 단말기(400)의 터치스크린부(430)는 사용자의 관심버스를 현위치 도착예상 순서에 따라 복수로 보여줌으로써 사용자가 승차정보를 바탕으로 선택적인 버스 승차를 할 수 있도록 하는 이점이 있다.That is, the touch screen unit 430 of the bus stop terminal 400 shows a plurality of buses of interest to the user according to the expected arrival order of the current location, thereby allowing the user to selectively board the bus based on the boarding information. have.

도 9는 본 발명의 실시 예에 따른 관심 자율주행차량의 잔여좌석 세부정보를 나타낸 평면도이다.9 is a plan view illustrating details of remaining seats of an autonomous vehicle of interest according to an embodiment of the present invention.

도 9를 참조하면, 본 발명의 실시 예에 따른 터치스크린부(430)에서 상기 도 8의 제2 버스(12)의 잔여 좌석정보를 선택했을 때 확인할 수 있는 잔여좌석의 세부정보를 보여준다. 즉, 총11석의 잔여좌석에서 일반석이 7개이고, 노약자석이 4개인 정보와 사용중인 좌석은 유색으로 빈좌석은 무색으로 표시함으로써 한눈에 빈 좌석의 배치정보를 확인할 수 있다. 또한, 일반석은 실선으로 표시하고 노약자석은 점선으로 표시하여 좌석의 용도를 구분할 수 있다.Referring to FIG. 9 , detailed information of the remaining seats that can be checked when the remaining seat information of the second bus 12 of FIG. 8 is selected on the touch screen unit 430 according to an embodiment of the present invention is shown. That is, out of the remaining 11 seats, there are 7 general seats and 4 elderly seats, and the seats in use are colored and empty seats are colorless. In addition, economy seats are indicated by a solid line and the elderly seat is indicated by a dotted line to distinguish the use of the seat.

나아가, 도면에서는 생략되었으나 영상정보를 선택하는 경우 해당 버스의 내부 촬영 영상을 표시하여, 잔여좌석 유무뿐 아니라 버스내의 혼잡도를 시각적으로 보여줄 수도 있다.Furthermore, although omitted from the drawings, when image information is selected, an image taken inside the corresponding bus may be displayed to visually show not only the remaining seats but also the degree of congestion in the bus.

이상에서 설명한 본 발명의 실시 예에 따르면, 버스정류장 단말기(400)의 입출력수단이 터치스크린부(터치패널)으로 구성되는 것으로 설명하였으나 이에 한정되지 않는다. 즉, 터치스크린부(430)는 LCD와 같은 디스플레이장치와 별도로 복수의 입력버튼을 포함하는 조작부를 포함하는 형태로 구성될 수도 있다.According to the embodiment of the present invention described above, it has been described that the input/output means of the bus stop terminal 400 is composed of a touch screen unit (touch panel), but is not limited thereto. That is, the touch screen unit 430 may be configured to include a manipulation unit including a plurality of input buttons separately from a display device such as an LCD.

도 10은 본 발명의 실시 예에 따른 자율주행차량 승차정보 제공 방법을 나타낸 흐름도이다.10 is a flowchart illustrating a method for providing ride information for an autonomous vehicle according to an embodiment of the present invention.

도 10을 참조하면, 본 발명의 실시 예에 따른 버스 승차정보 제공 시스템의 차량 단말기(100)는 버스내부에 설치된 카메라를 통해 버스 내부의 상태정보를 촬영한 영상정보를 수집하고, 착석 감지부(110)로부터 좌석의 사용여부를 감지하여 잔여좌석정보를 파악한다(S101).Referring to FIG. 10 , the vehicle terminal 100 of the bus ride information providing system according to an embodiment of the present invention collects image information obtained by photographing state information inside the bus through a camera installed inside the bus, and includes a seat detection unit ( 110) detects the use of the seat to determine the remaining seat information (S101).

차량 단말기(100)는 파악되는 잔여좌석의 수가 변동되는 경우 또는 미리 설정되는 보고주기에 따라 상기 영상 정보와 잔여좌석정보를 포함하는 버스내부정보를 생성하여(S102, S103), 중앙 관제 서버(300)로 전송한다(S104). 이 때, 전송되는 버스내부정보에는 버스의 고유식별정보와 위치정보가 더 포함되며 도면에서는 생략되었으나 무선 중계기(200)를 통해 정지 및 이동 중에도 중앙관제서버(300)로 전송할 수 있다.The vehicle terminal 100 generates bus internal information including the image information and the remaining seat information according to a preset reporting period when the number of recognized remaining seats is changed (S102, S103), and the central control server 300 ) to (S104). At this time, the transmitted bus internal information further includes unique identification information and location information of the bus, and although omitted from the drawing, it can be transmitted to the central control server 300 even during a stop or movement through the wireless repeater 200 .

중앙 관제 서버(300)는 운행중인 버스의 위치정보와 노선정보를 토대로 앞서 운행된 동일노선 버스의 이동 통계시간에 기초하여 상기 버스가 순차적으로 정차해야 할 버스 정류장의 수와 정차 버스정류소별 버스도착 소요시간을 산출한다(S105).The central control server 300 determines the number of bus stops to be sequentially stopped and the bus arrival at each bus stop based on the movement statistics time of the previously operated bus on the same route based on the location information and route information of the bus in operation. The required time is calculated (S105).

그리고, 중앙 관제 서버(300)는 차량 단말기(100)에서 수신되는 버스내부정보를 분석하여 버스의 고유식별정보에 기초한 잔여좌석정보 및 영상정보를 업데이트한다(S106).Then, the central control server 300 analyzes the bus internal information received from the vehicle terminal 100 and updates the remaining seat information and image information based on the unique identification information of the bus (S106).

그런 다음, 중앙 관제 서버(300)는 사용자가 있는 버스정류장에 도착되는 예상 소요시간인 버스정류장별 버스 도착 소요시간과 잔여좌석정보, 영상정보, 및 버스 위치정보를 포함하는 버스 승차정보를 생성하고(S107), 생성되는 버스 승차정보를 해당 버스가 도착 예정인 버스정류장 단말기(400)로 전송한다(S108).Then, the central control server 300 generates bus ride information including the estimated time required to arrive at the bus stop where the user is, the bus arrival time for each bus stop, remaining seat information, image information, and bus location information, and (S107), the generated bus ride information is transmitted to the bus stop terminal 400 to which the bus is scheduled to arrive (S108).

버스정류장 단말기(400)는 중앙 관제 서버(300)에서 수신되는 버스 승차정보를 업데이트하고(S109), 도착예정인 노선별 버스의 위치, 버스도착 소요시간, 잔여좌석정보 및 영상정보를 포함하는 버스 승차정보를 디스플레이 한다(S110). 또한, 버스정류장 단말기(400)는 상기 디스플레이되는 버스 승차정보 중 적어도 하나를 음성으로 출력하여 안내한다.The bus stop terminal 400 updates the bus ride information received from the central control server 300 (S109), and the bus ride including the location of the bus for each scheduled arrival route, the bus arrival time, remaining seat information and image information. Information is displayed (S110). In addition, the bus stop terminal 400 guides by outputting at least one of the displayed bus ride information by voice.

한편, 도 11은 본 발명의 실시 예에 따른 자율주행차량 정류장 단말기가 사용자의 요청에 의해 자율주행차량 승차정보 제공 방법을 나타낸 흐름도이다.Meanwhile, FIG. 11 is a flowchart illustrating a method for an autonomous driving vehicle stop terminal to provide ride information for an autonomous driving vehicle at the request of a user according to an embodiment of the present invention.

도 11을 참조하면, 본 발명의 실시 예에 따른 버스정류장 단말기(400)는 터치스크린부(430)와 같은 사용자 입력수단과 사용자 기반 그래픽 유저 인터페이스(GUI)를 포함하므로 사용자의 요구에 따라 특정 버스/노선에 대한 세부적인 버스 승차정보를 제공할 수 있다.Referring to FIG. 11 , since the bus stop terminal 400 according to an embodiment of the present invention includes a user input means such as a touch screen unit 430 and a user-based graphic user interface (GUI), a specific bus according to the user's request /Can provide detailed bus ride information for the route.

먼저, 버스정류장 단말기(400)는 사용자의 관심버스 또는 목적지를 선택하고(S201), 선택한 관심버스/목적지에 따른 버스 승차정보를 요청한다(S202). 여기서, 관심버스는 동일번호의 차량이거나 동일한 목적지를 운행하는 번호가 다른 차량일 수 있다.First, the bus stop terminal 400 selects a bus or destination of interest of the user (S201), and requests bus ride information according to the selected bus/destination of interest (S202). Here, the bus of interest may be a vehicle of the same number or a vehicle of a different number operating the same destination.

중앙 관제 서버(300)는 버스정류장 단말기(400)로부터 버스 승차정보 요청을 수신하면, 요청한 버스정류장에 도착예정인 적어도 하나의 상기 관심버스에 대한 사용자가 있는 버스정류장에 도착하기까지의 예상 소요시간인 버스도착 소요시간을 산출한다(S203). 여기에, 중앙 관제 서버(300)는 상기 관심버스의 잔여좌석정보 및 영상정보를 업데이트하고(S204), 상기 관심버스에 대한 버스 승차정보를 생성한다(S205).When the central control server 300 receives a request for bus ride information from the bus stop terminal 400, the estimated time required to arrive at the bus stop where the user for at least one of the bus of interest scheduled to arrive at the requested bus stop is The bus arrival time is calculated (S203). Here, the central control server 300 updates the remaining seat information and image information of the bus of interest (S204), and generates bus ride information for the bus of interest (S205).

여기서, 중앙 관제 서버(300)는 도8 에서는 생략되었으나 도 7의 S101 내지 S104 단계를 통해 상기 관심버스의 차량 단말기(100)로부터 수신하여 저장된 버스내부정보를 조회하는 단계를 더 포함할 수 있다.Here, the central control server 300 is omitted in FIG. 8, but may further include the step of inquiring stored internal bus information received from the vehicle terminal 100 of the bus of interest through steps S101 to S104 of FIG.

중앙 관제 서버(300)는 생성된 상기 관심버스에 대한 버스 승차정보를 버스정류장 단말기(400)로 전송한다(S206). 상기 전송되는 버스 승차정보는 상기 도 5와 같이 복수의 관심 버스에 대한정보이다.The central control server 300 transmits the generated bus ride information for the bus of interest to the bus stop terminal 400 (S206). The transmitted bus ride information is information on a plurality of buses of interest as shown in FIG. 5 .

버스정류장 단말기(400)는 상기 관심버스에 대한 버스 승차정보를 업데이트하고(S207), 복수의 관심버스에 대한 승차정보를 디스플레이한다(S208). 이 때, 버스정류장 단말기(400)는 현위치에서 사용자의 관심버스들(11,12)에 대한 버스위치, 버스도착 소요시간, 잔여좌석정보 및 영상정보 등을 표시할 수 있다.The bus stop terminal 400 updates the bus ride information for the bus of interest (S207), and displays the boarding information for a plurality of buses of interest (S208). At this time, the bus stop terminal 400 may display the bus location for the bus 11 and 12 of interest of the user at the current location, the time required to arrive at the bus, remaining seat information, image information, and the like.

그리고, 버스정류장 단말기(400)는 사용자로부터 잔여좌석정보 또는 영상정보에 대한 세부 요청이 입력되면(S209), 잔여좌석 세부정보를 표시하거나 또는 버스내 영상정보를 제공한다(S210).Then, when the bus stop terminal 400 receives a detailed request for residual seat information or image information from the user (S209), it displays detailed residual seat information or provides image information in the bus (S210).

따라서, 본 발명의 실시 예에 따르면 사용자가 1분 후에 도착 예정인 제1 버스(11)에는 좌석이 없으나 4분 후에 도착되는 제2 버스(12)에는 여유의 잔여좌석이 있음을 미리 확인할 수 있어 제2 버스(12)의 이용을 선택할 수 있을 것이다.Therefore, according to an embodiment of the present invention, the user can confirm in advance that there are spare seats in the second bus 12 that arrives 4 minutes later, although there are no seats in the first bus 11 that the user is scheduled to arrive after 1 minute. 2 You may choose to use the bus 12 .

이와 같이 본 발명의 실시 예에 따르면, 버스정류장 단말기(400)가 사용자의 관심버스의 위치와 도착예상 시간뿐 아니라 잔여좌석정보 및 내부영상을 제공함으로써 사용자가 도착예정인 버스에 대한 내부상황정보를 미리 확인할 수 있는 효과가 있다.As described above, according to an embodiment of the present invention, the bus stop terminal 400 provides not only the location and expected arrival time of the bus of interest to the user, but also the remaining seat information and the internal image, thereby providing the user with the internal situation information about the scheduled arrival of the bus in advance. It has a verifiable effect.

또한, 버스정류장 단말기(400)가 유저 그래픽 인터페이스를 이용한 중앙 관제 서버(300)와의 양방향 통신을 통해 복수의 관심버스에 대한 실시간 승차정보를 제공함으로써 사용자의 선택적인 버스 이용이 가능하여 사용자의 편의성이 향상되는 효과를 기대할 수 있다.In addition, the bus stop terminal 400 provides real-time boarding information for a plurality of buses of interest through two-way communication with the central control server 300 using a user graphic interface, so that the user can selectively use the bus, thereby increasing user convenience. An improved effect can be expected.

전술한 본 발명의 기술적 특징이 적용되는 경우, 자율주행 대중교통 등 차량 내 운전기사나 다른 운영자가 탑승하지 않은 상태에서, emergency 상황(예를 들어, 승객 중 치한이 있는 경우)이 발생한 경우, 현재는 주변 승객에 의한 목격 또는 본인의 경험으로 신고해야 하는 현재의 문제점 해소가 가능하다.When the above-described technical features of the present invention are applied, when an emergency situation (eg, if there is a mole among passengers) occurs in a state in which a driver or other operator in a vehicle such as autonomous driving public transportation is not boarded, the present It is possible to solve the current problem that must be reported by sightings by nearby passengers or by one's own experience.

또한, 사용자가 도착예정인 버스에 대한 내부상황정보를 미리 확인할 수 있고, 사용자의 선택적인 버스 이용이 가능하여 사용자의 편의성을 향상시킬 수 있다.In addition, the user can check the internal situation information of the scheduled arrival bus in advance, and the user can selectively use the bus, thereby improving the user's convenience.

한편, 상술한 본 발명의 실시예들은 다양한 수단을 통해 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. Meanwhile, the above-described embodiments of the present invention may be implemented through various means. For example, embodiments of the present invention may be implemented by hardware, firmware, software, or a combination thereof.

하드웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 프로세서, 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.In the case of implementation by hardware, the method according to embodiments of the present invention may include one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), and Programmable Logic Devices (PLDs). , FPGAs (Field Programmable Gate Arrays), processors, controllers, microcontrollers, microprocessors, and the like.

펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차 또는 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리 유닛은 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.In the case of implementation by firmware or software, the method according to the embodiments of the present invention may be implemented in the form of a module, procedure, or function that performs the functions or operations described above. The software code may be stored in the memory unit and driven by the processor. The memory unit may be located inside or outside the processor, and may transmit and receive data to and from the processor by various known means.

상술한 바와 같이 개시된 본 발명의 바람직한 실시예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다. 따라서, 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최대한 광의의 범위를 부여하려는 것이다.The detailed description of the preferred embodiments of the present invention disclosed as described above is provided to enable any person skilled in the art to make and practice the present invention. Although the above has been described with reference to preferred embodiments of the present invention, it will be understood by those skilled in the art that various modifications and changes can be made to the present invention without departing from the scope of the present invention. For example, those skilled in the art can use each configuration described in the above-described embodiments in a way in combination with each other. Accordingly, the present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein.

본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최대한 광의의 범위를 부여하려는 것이다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.The present invention may be embodied in other specific forms without departing from the spirit and essential characteristics of the present invention. Accordingly, the above detailed description should not be construed as restrictive in all respects but as exemplary. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the present invention are included in the scope of the present invention. The present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein. In addition, claims that are not explicitly cited in the claims may be combined to form an embodiment, or may be included as new claims by amendment after filing.

Claims (6)

자율주행차량 내 비상상황이 발생하는 제 1 단계;
상기 자율주행차량이 관제시스템에 상기 발생한 비상상황을 전송하는 제 2 단계;
상기 관제시스템이 상기 발생한 emergency 상황을 상기 자율주행자량을 이용하여 확인하는 제 3 단계;
상기 관제시스템이 상기 자율주행차량으로부터 수집된 정보를 기초로 미리 저장한 비상상황 중 해당하는 비상상황을 추출하는 제 4 단계;
상기 관제시스템이 미리 저장한 사고대책 시나리오 중 상기 추출한 비상상황에 대응하는 시나리오를 적어도 하나 결정하는 제 5 단계;
상기 관제시스템이 상기 결정한 시나리오를 상기 자율주행차량으로 전송하는 제 6 단계;
상기 자율주행차량이 수신한 시나리오에 따라 차량의 속도, 목적지 및 차량문 개폐 중 적어도 하나를 제어하는 제 7 단계;
상기 관제시스템이 미리 설정된 유관기관으로 상기 추출한 비상상황에 대한 정보를 전송하는 제 8 단계;
상기 자율주행차량이 상기 미리 설정된 유관기관으로부터 스케쥴링 정보를 수신하는 제 9 단계; 및
상기 자율주행차량이 상기 스케쥴링 정보에 따라 운행되는 제 10 단계;를 포함하되,

상기 제 1 단계 및 제 2 단계 사이에는,
상기 자율주행차량 내의 모바일 기기에서 상기 관제시스템과 연관된 어플리케이션을 실행하는 단계; 및
상기 모바일 기기를 통해 이미지, 영상, 텍스트 및 소리 중 적어도 하나를 획득하는 단계;를 더 포함하고,
상기 제 3 단계에서,
상기 이미지, 영상, 텍스트 및 소리 중 적어도 하나를 이용하여 상기 emergency 상황을 확인하며,

상기 제 1 단계 및 제 2 단계 사이에는,
상기 자율주행차량 내의 적어도 하나의 emergency 버튼이 푸쉬 되는 단계;를 더 포함하고,
상기 제 3 단계에서,
상기 푸쉬된 적어도 하나의 emergency 버튼을 기초로 상기 emergency 상황을 확인하며,

상기 자율 주행 차량은 버스이고,
차량 단말기가 상기 버스 내부의 상태정보를 촬영한 영상정보를 수집하고, 좌석의 사용여부를 감지하여 잔여좌석정보를 파악하는 제 11 단계;
상기 관제시스템이 수신되는 상기 영상정보와 잔여좌석정보에 상기 버스의 도착정보를 포함하여 버스 승차정보를 생성하고, 상기 버스 승차정보를 노선상의 버스정류장에 전송하는 제 12단계; 및
버스정류장 단말기가 노선별로 도착되는 적어도 하나의 버스에 대한 상기영상정보, 잔여좌석정보, 도착정보 중 적어도 하나를 표시하는 제 13 단계;를 더 포함하며,

상기 제 13 단계는,
버스 인식부가 무선 리더기를 통해 버스정류장에 도착하는 상기 버스의 고유식별정보를 획득하는 단계;
터치스크린부가 터치패널을 이용한 입출력수단으로 노선별 버스의 상기 승차정보를 시각적으로 표시하는 단계;
스피커부가 상기 승차정보를 청각적으로 출력하는 단계; 및
중앙 처리부가 사용자의 요구에 따라 관심버스 또는 관심목적지에 대한 승차정보를 중앙 관제 서버로 요청하고, 그에 따라 수신되는 상기 승차정보를 제공하는 단계;를 더 포함하고,

상기 터치스크린부는,
상기 버스정류장에 순차적으로 도착예정인 복수의 관심버스에 대한 각각 버스도착 소요시간, 버스 위치정보, 잔여 좌석정보 및 상기 버스의 내부 영상정보 중 적어도 하나를 선택적으로 표시하되,
상기 잔여좌석정보는 좌석의 위치 및 용도를 구분하여 표시하는 것을 특징으로 하는 판단 로직을 이용한 승객 안전 제어 방법.
A first step in which an emergency situation occurs in the autonomous vehicle;
a second step of transmitting, by the autonomous vehicle, the emergency situation to a control system;
a third step of confirming, by the control system, the emergency situation that has occurred using the autonomous vehicle;
a fourth step of extracting, by the control system, a corresponding emergency situation from among emergency situations stored in advance based on information collected from the autonomous vehicle;
a fifth step of determining at least one scenario corresponding to the extracted emergency situation among accident countermeasure scenarios stored in advance by the control system;
a sixth step of transmitting, by the control system, the determined scenario to the autonomous vehicle;
a seventh step of controlling at least one of a speed of a vehicle, a destination, and opening/closing of a vehicle door according to the scenario received by the autonomous vehicle;
an eighth step of transmitting, by the control system, information on the extracted emergency situation to a preset related organization;
a ninth step of receiving, by the autonomous vehicle, scheduling information from the preset related organization; and
A tenth step of driving the autonomous vehicle according to the scheduling information;

Between the first and second steps,
executing an application related to the control system on a mobile device in the autonomous vehicle; and
Obtaining at least one of an image, video, text and sound through the mobile device; further comprising,
In the third step,
Check the emergency situation using at least one of the image, video, text and sound,

Between the first and second steps,
The step of pushing at least one emergency button in the autonomous vehicle; further comprising,
In the third step,
Check the emergency situation based on the pushed at least one emergency button,

The autonomous vehicle is a bus,
an eleventh step of collecting, by a vehicle terminal, image information obtained by photographing the state information of the inside of the bus, and detecting whether or not seats are in use to determine remaining seat information;
a twelfth step of generating, by the control system, bus arrival information including the arrival information of the bus in the received image information and remaining seat information, and transmitting the bus ride information to a bus stop on a route; and
A bus stop terminal displaying at least one of the image information, remaining seat information, and arrival information for at least one bus arriving for each route; a thirteenth step further comprising;

The thirteenth step is
obtaining, by a bus recognition unit, unique identification information of the bus arriving at the bus stop through a wireless reader;
Visually displaying the boarding information of the bus for each route by a touch screen unit using input/output means using a touch panel;
aurally outputting the riding information by a speaker unit; and
Further comprising; requesting, by the central processing unit, riding information on the bus of interest or the destination of interest to the central control server according to the user's request, and providing the received riding information accordingly;

The touch screen unit,
Selectively displaying at least one of bus arrival time, bus location information, remaining seat information, and internal image information of the bus for a plurality of buses of interest scheduled to arrive sequentially at the bus stop,
The passenger safety control method using a decision logic, characterized in that the remaining seat information is displayed by classifying the position and use of the seat.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020190070164A 2019-06-13 2019-06-13 Occupant safety and convenience system using Control logic KR102290376B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190070164A KR102290376B1 (en) 2019-06-13 2019-06-13 Occupant safety and convenience system using Control logic

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190070164A KR102290376B1 (en) 2019-06-13 2019-06-13 Occupant safety and convenience system using Control logic

Publications (2)

Publication Number Publication Date
KR20200143753A KR20200143753A (en) 2020-12-28
KR102290376B1 true KR102290376B1 (en) 2021-08-20

Family

ID=74087117

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190070164A KR102290376B1 (en) 2019-06-13 2019-06-13 Occupant safety and convenience system using Control logic

Country Status (1)

Country Link
KR (1) KR102290376B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101478080B1 (en) * 2013-12-19 2014-12-31 현대로템 주식회사 Fire suppression system and method of unattended railway vehicles

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100991407B1 (en) * 2008-02-25 2010-11-02 한국철도기술연구원 Automatic control system of the electric railway based ground control
KR101159230B1 (en) * 2010-11-26 2012-06-25 삼성중공업 주식회사 System and method for providing bus board information
KR101652588B1 (en) 2014-11-05 2016-08-30 주식회사 로엔엔터테인먼트 System for calculating artist rankings and method for calculating artist rankings using the same
KR101610544B1 (en) 2014-11-21 2016-04-07 현대자동차주식회사 System and method for autonomous driving of vehicle
KR101950755B1 (en) * 2017-06-16 2019-02-21 주식회사 리텍 System for Public Place Security And Method for Driving The Same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101478080B1 (en) * 2013-12-19 2014-12-31 현대로템 주식회사 Fire suppression system and method of unattended railway vehicles

Also Published As

Publication number Publication date
KR20200143753A (en) 2020-12-28

Similar Documents

Publication Publication Date Title
KR102325049B1 (en) Electronic device for transmitting communication signal associated with pedestrian safety and method for operating thereof
US10431069B2 (en) Apparatus, method and mobile terminal for providing object loss prevention service in vehicle
KR101586706B1 (en) Method for managing car parking using car stopper with geomagnetic wireless sensor
US9487172B2 (en) Image display device and method thereof
US8933795B2 (en) Video display apparatus and method
US20110053552A1 (en) Providing routing to a mobile terminal
US11222214B2 (en) Autonomous taxi
KR102411171B1 (en) Display devide and method for operating thereof
KR101878811B1 (en) V2x communication system for generating real-time map and method for controlling the same
KR20140096705A (en) Apparatus and method for informing getting on and off bus
US11499839B2 (en) Driving assistance device, control method, and non-transitory computer-readable medium storing program
KR101711797B1 (en) Automatic parking system for autonomous vehicle and method for controlling thereof
US11221627B2 (en) Directed interaction of customers with autonomous vehicles
KR20160114486A (en) Mobile terminal and method for controlling the same
CN112584317A (en) Haptic guidance and navigation of mobile entry points
CN106202193A (en) The method of road image acquisition of information, Apparatus and system
KR101828400B1 (en) Portable v2x terminal and method for controlling the same
US20220258773A1 (en) Autonomous Vehicle Rider Authentication, Boarding, And Drop Off Confirmation
KR20100101986A (en) Telematics terminal, metohd for voice recognition and computer recordable medium
KR102290376B1 (en) Occupant safety and convenience system using Control logic
KR101602256B1 (en) Vehicle control apparatus and method thereof
KR101667699B1 (en) Navigation terminal and method for guiding movement thereof
US20210117646A1 (en) Information processing apparatus, non-transitory computer-readable medium, and control method
KR101603488B1 (en) Express bus terminal using confirmation of location in car
KR101892498B1 (en) Vehicle interface device, vehicle and mobile terminal link system

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant