KR102531722B1 - Method and apparatus for providing a parking location using vehicle's terminal - Google Patents

Method and apparatus for providing a parking location using vehicle's terminal Download PDF

Info

Publication number
KR102531722B1
KR102531722B1 KR1020200110595A KR20200110595A KR102531722B1 KR 102531722 B1 KR102531722 B1 KR 102531722B1 KR 1020200110595 A KR1020200110595 A KR 1020200110595A KR 20200110595 A KR20200110595 A KR 20200110595A KR 102531722 B1 KR102531722 B1 KR 102531722B1
Authority
KR
South Korea
Prior art keywords
parking
information
vehicle
parking location
terminal
Prior art date
Application number
KR1020200110595A
Other languages
Korean (ko)
Other versions
KR20220028941A (en
Inventor
박지용
Original Assignee
주식회사 디에이치오토웨어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 디에이치오토웨어 filed Critical 주식회사 디에이치오토웨어
Priority to KR1020200110595A priority Critical patent/KR102531722B1/en
Publication of KR20220028941A publication Critical patent/KR20220028941A/en
Application granted granted Critical
Publication of KR102531722B1 publication Critical patent/KR102531722B1/en

Links

Images

Classifications

    • G06Q50/40
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/30Transportation; Communications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/14Receivers specially adapted for specific applications
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • G07C5/0866Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/145Traffic control systems for road vehicles indicating individual free spaces in parking areas where the indication depends on the parking areas
    • G08G1/146Traffic control systems for road vehicles indicating individual free spaces in parking areas where the indication depends on the parking areas where the parking area is a limited parking space, e.g. parking garage, restricted space
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/145Traffic control systems for road vehicles indicating individual free spaces in parking areas where the indication depends on the parking areas
    • G08G1/148Management of a network of parking areas
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72457User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to geographic location
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services

Abstract

일 실시 예에 따른 차량 단말을 이용한 주차위치안내 서비스 방법은 차량의 주차 시, 차량 단말의 GPS 수신기로부터 제1 주차위치 정보를 획득하고, 차량의 주차 시, 차량 단말과 연동되어 차량에 구비된 적어도 하나의 카메라로부터 주차구역에 표시된 식별정보를 촬영하고, 촬영된 식별정보로부터 제2 주차위치 정보를 추출하고, 획득된 제1 주차위치 정보 및 추출된 제2 주차위치 정보를 기초로 차량이 주차된 주차정보를 판단한다.A parking location guidance service method using a vehicle terminal according to an embodiment includes obtaining first parking location information from a GPS receiver of the vehicle terminal when the vehicle is parked, and interlocking with the vehicle terminal when parking the vehicle. Photographing the identification information displayed in the parking area from one camera, extracting the second parking location information from the photographed identification information, and based on the obtained first parking location information and the extracted second parking location information, the vehicle is parked. Determine parking information.

Figure R1020200110595
Figure R1020200110595

Description

차량 단말을 이용한 주차위치안내 서비스 방법 및 장치{Method and apparatus for providing a parking location using vehicle's terminal}Method and apparatus for providing a parking location using vehicle terminal

실시 예들은 차량 단말을 이용한 주차위치안내 서비스 방법 및 장치에 관한 것이다.Embodiments relate to a parking location guidance service method and apparatus using a vehicle terminal.

종래의 주차관제시스템은 대부분 번호판 촬영 및 인식, 주차장 진입시간, 주차시간 및 정산 등의 자동화에 주안점을 두고 있어 주차관리원이나 키오스크를 통한 한정된 범위에서만 한정된 주차 차량정보를 확인할 수 있고, 주차위치 확인 및 모바일 뱅킹에 의한 빠른 정산 등은 미흡한 실정이다.Most of the conventional parking control systems are focused on automation of license plate shooting and recognition, parking lot entry time, parking time and settlement, etc. Rapid settlement by mobile banking is insufficient.

선행기술 1은 주차장에 설치되어 있는 QR코드를 스마트폰을 이용하여 촬영하고, 스마트폰의 주차관리 애플리케이션을 이용하여 차량의 위치확인, 차량상태 등을 실시간으로 확인할 수 있는 주차관제시스템을 개시하고 있다. 하지만, 이 경우, 운전자가 주차를 한 후에 직접 스마트폰으로 QR코드를 촬영해야만 하는 번거로움이 여전히 존재한다.Prior Art 1 discloses a parking control system capable of photographing a QR code installed in a parking lot using a smartphone and checking the location of a vehicle, vehicle status, etc. in real time using a parking management application of a smartphone. . However, in this case, the inconvenience of having to take a QR code with a smartphone directly after the driver parks still exists.

[선행기술문헌번호][Prior art document number]

선행기술 1: 한국공개특허 제2017-0000111호Prior Art 1: Korean Patent Publication No. 2017-0000111

선행기술 2: 한국공개특허 제2020-0009301호Prior Art 2: Korean Patent Publication No. 2020-0009301

실시 예들은 차량 단말을 이용한 주차위치안내 서비스 방법 및 장치를 제공하는 것이다. 또한, 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다. 해결하려는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.Embodiments are to provide a parking location guidance service method and apparatus using a vehicle terminal. In addition, it is to provide a computer-readable recording medium recording a program for executing the method on a computer. The technical problem to be solved is not limited to the technical problems described above, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 일 실시 예에 따른 차량 단말을 이용한 주차위치안내 서비스 방법에 있어서, 차량의 주차 시, 상기 차량 단말의 GPS 수신기로부터 제1 주차위치 정보를 획득하는 단계; 상기 차량의 주차 시, 상기 차량 단말과 연동되어 상기 차량에 구비된 적어도 하나의 카메라로부터 주차구역에 표시된 식별정보를 촬영하는 단계; 상기 촬영된 식별정보로부터 제2 주차위치 정보를 추출하는 단계; 및 상기 획득된 제1 주차위치 정보 및 상기 추출된 제2 주차위치 정보를 기초로 상기 차량이 주차된 주차정보를 판단한다.As a technical means for achieving the above-described technical problem, in the parking location guidance service method using a vehicle terminal according to an embodiment, obtaining first parking location information from a GPS receiver of the vehicle terminal when the vehicle is parked. ; When the vehicle is parked, photographing identification information displayed in a parking area from at least one camera provided in the vehicle in conjunction with the vehicle terminal; Extracting second parking location information from the photographed identification information; and determining parking information in which the vehicle is parked based on the obtained first parking location information and the extracted second parking location information.

상기 차량 단말을 이용한 주차위치안내 서비스 방법은 상기 판단된 주차정보를 통신 네트워크를 통해 사용자 단말에 전송하는 단계를 더 포함하는 것을 특징으로 한다.The parking location guidance service method using the vehicle terminal may further include transmitting the determined parking information to a user terminal through a communication network.

상기 촬영 단계는, 상기 차량의 주차 시, 상기 적어도 하나의 카메라로부터 촬영된 복수의 영상 프레임들로부터 상기 각각의 영상 프레임에 포함된 식별정보를 인식하는 단계; 및 상기 인식된 식별정보로부터 주차위치에 상응하는 텍스트인 상기 제2 주차위치 정보를 추출하는 단계를 더 포함한다.The photographing step may include recognizing identification information included in each image frame from a plurality of image frames photographed by the at least one camera when the vehicle is parked; And extracting the second parking location information, which is text corresponding to a parking location, from the recognized identification information.

상기 차량 단말은, 블랙박스인 것을 특징으로 한다.The vehicle terminal is characterized in that it is a black box.

상기 차량 단말을 이용한 주차위치안내 서비스 방법은 상기 사용자 단말에서 소정의 애플리케이션이 실행된 경우, 상기 주차정보에 상응하는 위치표시가 지도상에 표시되는 것을 특징으로 한다.The parking location guidance service method using the vehicle terminal is characterized in that, when a predetermined application is executed in the user terminal, a location display corresponding to the parking information is displayed on a map.

상기 주차정보는, 상기 차량의 주차 시, 상기 적어도 하나의 카메라로부터 촬영된 주차구역에 상응하는 영상정보를 포함하고, 상기 지도상에 상기 영상정보가 표시되는 것을 특징으로 한다.The parking information may include image information corresponding to a parking area captured by the at least one camera when the vehicle is parked, and the image information may be displayed on the map.

상기 차량 단말을 이용한 주차위치안내 서비스 방법은 상기 사용자 단말에서 소정의 애플리케이션이 실행된 경우, 상기 사용자 단말에 상기 주차정보에 상응하는 주차건물, 주차위치, 주차시간 및 주차 요금 중 적어도 하나를 포함하는 텍스트 정보가 표시되는 것을 특징으로 한다.The parking location guidance service method using the vehicle terminal includes at least one of a parking building, a parking location, a parking time, and a parking fee corresponding to the parking information in the user terminal when a predetermined application is executed in the user terminal. Characterized in that text information is displayed.

상술한 다른 기술적 과제를 달성하기 위한 기술적 수단으로서, 다른 실시 예에 따른 차량 단말을 이용한 주차위치안내 서비스 장치에 있어서, GPS 수신기 및 통신 네트워크를 포함하는 차량 단말; 상기 차량 단말과 연동되어 차량에 구비된 적어도 하나의 카메라; 및 프로세서를 포함하고,As a technical means for achieving the above-described other technical problem, in the parking location guidance service apparatus using a vehicle terminal according to another embodiment, the vehicle terminal including a GPS receiver and a communication network; at least one camera provided in a vehicle in conjunction with the vehicle terminal; and a processor;

상기 프로세서는, 차량의 주차 시, 상기 GPS 수신기로부터 제1 주차위치 정보를 획득하고, 상기 차량의 주차 시, 상기 적어도 하나의 카메라로부터 주차구역에 표시된 식별정보를 촬영하고, 상기 촬영된 식별정보로부터 제2 주차위치 정보를 추출하고, 상기 획득된 제1 주차위치 정보 및 상기 추출된 제2 주차위치 정보를 기초로 상기 차량이 주차된 주차정보를 판단한다.The processor obtains first parking location information from the GPS receiver when the vehicle is parked, and captures identification information displayed in a parking area from the at least one camera when the vehicle is parked. Second parking location information is extracted, and parking information in which the vehicle is parked is determined based on the obtained first parking location information and the extracted second parking location information.

상기 프로세서는, 상기 판단된 주차정보를 상기 통신 네트워크를 통해 사용자 단말에 전송하는 것을 특징으로 한다.The processor is characterized in that for transmitting the determined parking information to the user terminal through the communication network.

상기 프로세서는, 상기 차량의 주차 시, 상기 적어도 하나의 카메라로부터 촬영된 복수의 영상 프레임들로부터 상기 각각의 영상 프레임에 포함된 식별정보를 인식하고, 상기 인식된 식별정보로부터 주차위치에 상응하는 텍스트인 상기 제2 주차위치 정보를 추출하는 것을 특징으로 한다.When the vehicle is parked, the processor recognizes identification information included in each image frame from a plurality of image frames photographed by the at least one camera, and text corresponding to the parking position from the recognized identification information. Characterized in that the second parking location information is extracted.

상기 차량 단말은, 블랙박스인 것을 특징으로 한다.The vehicle terminal is characterized in that it is a black box.

상기 차량 단말을 이용한 주차위치안내 서비스 장치는 상기 사용자 단말에서 소정의 애플리케이션이 실행된 경우, 상기 주차정보에 상응하는 위치표시가 지도상에 표시되는 것을 특징으로 한다.The parking location guidance service device using the vehicle terminal is characterized in that, when a predetermined application is executed in the user terminal, a location display corresponding to the parking information is displayed on a map.

상기 주차정보는, 상기 차량의 주차 시, 상기 적어도 하나의 카메라로부터 촬영된 주차구역에 상응하는 영상정보를 포함하고, 상기 지도상에 상기 영상정보가 표시되는 것을 특징으로 한다.The parking information may include image information corresponding to a parking area captured by the at least one camera when the vehicle is parked, and the image information may be displayed on the map.

상기 차량 단말을 이용한 주차위치안내 서비스 장치는 상기 사용자 단말에서 소정의 애플리케이션이 실행된 경우, 상기 사용자 단말에 상기 주차정보에 상응하는 주차건물, 주차위치, 주차시간 및 주차 요금 중 적어도 하나를 포함하는 텍스트 정보가 표시되는 것을 특징으로 한다.When a predetermined application is executed in the user terminal, the parking location information service device using the vehicle terminal includes at least one of a parking building, a parking location, a parking time, and a parking fee corresponding to the parking information in the user terminal. Characterized in that text information is displayed.

상술한 또 다른 기술적 과제를 달성하기 위한 기술적 수단으로서, 또 다른 실시 예에 따른 차량 단말을 이용한 주차위치안내 서비스 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체를 포함한다.As a technical means for achieving another technical problem described above, it includes a recording medium recording a program for executing a parking location guidance service method using a vehicle terminal according to another embodiment in a computer.

도 1은 차량의 내부 블록 도이다.
도 2는 도 1에 도시된 차량 운전 보조 시스템(ADAS)의 블록 도이다.
도 3은 일 실시 예에 따른 차량 단말을 이용한 주차위치안내 서비스 장치(300)의 개략 도이다.
도 4 내지 6은 일 실시 예에 따른 차량 단말을 이용한 주차위치안내 서비스 방법을 설명하기 위한 예시 도들이다.
도 7은 도 3에 도시된 사용자 단말(350)의 개략 도이다.
도 8 및 9는 다른 실시 예에 따른 차량 단말을 이용한 주차위치안내 서비스 방법을 설명하기 위한 예시 도들이다.
도 10은 또 다른 실시 예에 따른 차량 단말을 이용한 주차위치안내 서비스 방법을 설명하기 위한 흐름 도이다.
1 is a block diagram of the interior of a vehicle;
FIG. 2 is a block diagram of the vehicle driving assistance system (ADAS) shown in FIG. 1;
3 is a schematic diagram of a parking location guidance service apparatus 300 using a vehicle terminal according to an embodiment.
4 to 6 are exemplary diagrams for explaining a parking location guidance service method using a vehicle terminal according to an embodiment.
FIG. 7 is a schematic diagram of the user terminal 350 shown in FIG. 3 .
8 and 9 are exemplary diagrams for explaining a parking location guidance service method using a vehicle terminal according to another embodiment.
10 is a flowchart illustrating a parking location guidance service method using a vehicle terminal according to another embodiment.

본 명세서에서 다양한 곳에 등장하는 "일부 실시 예에서" 또는 "일 실시 예에서" 등의 어구는 반드시 모두 동일한 실시 예를 가리키는 것은 아니다.The appearances of phrases such as “in some embodiments” or “in one embodiment” in various places in this specification are not necessarily all referring to the same embodiment.

본 개시의 일부 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들의 일부 또는 전부는, 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 개시의 기능 블록들은 하나 이상의 마이크로프로세서들에 의해 구현되거나, 소정의 기능을 위한 회로 구성들에 의해 구현될 수 있다. 또한, 예를 들어, 본 개시의 기능 블록들은 다양한 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능 블록들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 개시는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “메커니즘”, “요소”, “수단” 및 “구성” 등과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다.Some embodiments of the present disclosure may be represented as functional block structures and various processing steps. Some or all of these functional blocks may be implemented as a varying number of hardware and/or software components that perform specific functions. For example, functional blocks of the present disclosure may be implemented by one or more microprocessors or circuit configurations for a predetermined function. Also, for example, the functional blocks of this disclosure may be implemented in various programming or scripting languages. Functional blocks may be implemented as an algorithm running on one or more processors. In addition, the present disclosure may employ prior art for electronic environment setting, signal processing, and/or data processing. Terms such as “mechanism”, “element”, “means” and “composition” may be used broadly and are not limited to mechanical and physical components.

또한, 도면에 도시된 구성 요소들 간의 연결 선 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것일 뿐이다. 실제 장치에서는 대체 가능하거나 추가된 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들에 의해 구성 요소들 간의 연결이 나타내어질 수 있다. In addition, connecting lines or connecting members between components shown in the drawings are only examples of functional connections and/or physical or circuit connections. In an actual device, connections between components may be represented by various functional connections, physical connections, or circuit connections that can be replaced or added.

이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다.Hereinafter, the present disclosure will be described in detail with reference to the accompanying drawings.

도 1은 일 실시 예에 따른 차량의 내부 블록도이다. 1 is an internal block diagram of a vehicle according to an exemplary embodiment.

도 1을 참조하면, 차량(100)은, 통신부(110), 입력부(120), 센싱부(125) 메모리(130), 출력부(140), 차량 구동부(150), 차량 운전 보조 시스템(ADAS, 160), 제어부(170), 인터페이스부(180) 및 전원 공급부(190)를 포함할 수 있다.Referring to FIG. 1 , a vehicle 100 includes a communication unit 110, an input unit 120, a sensing unit 125, a memory 130, an output unit 140, a vehicle driving unit 150, and a vehicle driving assistance system (ADAS). , 160), a control unit 170, an interface unit 180, and a power supply unit 190.

통신부(110)는, 근거리 통신 모듈, 위치 정보 모듈, 광통신 모듈 및 V2X 통신 모듈을 포함할 수 있다.The communication unit 110 may include a short-range communication module, a location information module, an optical communication module, and a V2X communication module.

입력부(120)는, 운전 조작 수단, 카메라, 마이크로폰 및 사용자 입력부를 포함할 수 있다.The input unit 120 may include a driving control unit, a camera, a microphone, and a user input unit.

운전 조작 수단은, 차량(100) 운전을 위한 사용자 입력을 수신한다. 운전 조작 수단은 조향 입력 수단, 쉬프트 입력 수단, 가속 입력 수단, 브레이크 입력 수단을 포함할 수 있다.The driving control unit receives a user input for driving the vehicle 100 . The driving control unit may include a steering input unit, a shift input unit, an acceleration input unit, and a brake input unit.

가속 입력 수단은, 사용자로부터 차량(100)의 가속을 위한 입력을 수신한다. 브레이크 입력 수단은, 사용자로부터 차량(100)의 감속을 위한 입력을 수신한다.The acceleration input unit receives an input for acceleration of the vehicle 100 from a user. The brake input unit receives an input for decelerating the vehicle 100 from a user.

카메라는, 이미지 센서와 영상 처리 모듈을 포함할 수 있다. 카메라는 이미지 센서(예를 들면, CMOS 또는 CCD)에 의해 얻어지는 정지영상 또는 동영상을 처리할 수 있다. 영상 처리 모듈은 이미지 센서를 통해 획득된 정지영상 또는 동영상을 가공하여, 필요한 정보를 추출하고, 추출된 정보를 제어부(170)에 전달할 수 있다.The camera may include an image sensor and an image processing module. The camera may process still images or moving images obtained by an image sensor (eg, CMOS or CCD). The image processing module may process a still image or video obtained through an image sensor, extract necessary information, and deliver the extracted information to the controller 170 .

한편, 차량(100)은 차량 전방 영상을 촬영하는 전방 카메라, 차량 주변 영상을 촬영하는 어라운드 뷰 카메라 및 차량 후방 영상을 촬영하는 후방카메라를 포함할 수 있다. 각각의 카메라는 렌즈, 이미지 센서 및 프로세서를 포함할 수 있다. 프로세서는, 촬영되는 영상을 컴퓨터 처리하여, 데이터 또는 정보를 생성하고, 생성된 데이터 또는 정보를 제어부(170)에 전달할 수 있다. 카메라에 포함되는 프로세서는, 제어부(170)의 제어를 받을 수 있다. 실시 예에서, 카메라는 집합건물의 주차구역 또는 주차구역 주위, 예를 들면 주차구역의 바닥 또는 기둥에 부착된 QR코드를 촬영한다.Meanwhile, the vehicle 100 may include a front camera for capturing an image in front of the vehicle, an around view camera for capturing an image around the vehicle, and a rear camera for capturing an image behind the vehicle. Each camera may include a lens, an image sensor and a processor. The processor may computer-process the photographed image to generate data or information, and transmit the generated data or information to the controller 170 . A processor included in the camera may be controlled by the controller 170 . In an embodiment, the camera captures a QR code attached to the parking area of the collective building or around the parking area, for example, the floor or pillar of the parking area.

카메라는 스테레오 카메라를 포함할 수 있다. 이 경우, 카메라의 프로세서는, 스테레오 영상에서 검출된 디스페리티(disparity) 차이를 이용하여, 오브젝트와의 거리, 영상에서 검출된 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.The camera may include a stereo camera. In this case, the processor of the camera may use a disparity difference detected in the stereo image to detect a distance to the object, a relative speed to the object detected in the image, and a distance between a plurality of objects.

카메라는 TOF(Time of Flight) 카메라를 포함할 수 있다. 이 경우, 카메라는, 광원(예를 들면, 적외선 또는 레이저) 및 수신부를 포함할 수 있다. 이 경우, 카메라의 프로세서는, 광원에서 발신되는 적외선 또는 레이저가 오브젝트에 반사되어 수신될 때까지의 시간(TOF)에 기초하여 오브젝트와의 거리, 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.The camera may include a Time of Flight (TOF) camera. In this case, the camera may include a light source (eg, infrared or laser) and a receiver. In this case, the processor of the camera detects the distance to the object, the relative speed to the object, and the distance between the plurality of objects based on the time (TOF) until infrared rays or lasers emitted from the light source are reflected and received by the object. can do.

한편, 후방 카메라는, 후방 번호판 또는 트렁크 또는 테일 게이트 스위치 부근에 배치될 수 있으나, 후방 카메라가 배치되는 위치는 이에 제한되지 않는다.Meanwhile, the rearview camera may be disposed near the rear license plate or trunk or tailgate switch, but the rearview camera is not limited thereto.

복수의 카메라에서 촬영된 각각의 이미지는, 카메라의 프로세서에 전달되고, 프로세서는 상기 각각의 이미지를 합성하여, 차량 주변 영상을 생성할 수 있다. 이때, 차량 주변 영상은 탑뷰 이미지 또는 버드 아이 이미지로 디스플레이부를 통해 표시될 수 있다.Each image captured by the plurality of cameras is transmitted to a processor of the camera, and the processor may synthesize the respective images to generate an image around the vehicle. In this case, the image around the vehicle may be displayed through the display unit as a top view image or a bird's eye image.

센싱부(125)는, 차량(100)의 각종 상황을 센싱한다. 이를 위해, 센싱부(125)는, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 조도 센서, 레이더, 라이더 등을 포함할 수 있다.The sensing unit 125 senses various conditions of the vehicle 100 . To this end, the sensing unit 125 includes a collision sensor, a wheel sensor, a speed sensor, an inclination sensor, a weight sensor, a heading sensor, a yaw sensor, and a gyro sensor. , position module, vehicle forward/backward sensor, battery sensor, fuel sensor, tire sensor, steering sensor by steering wheel rotation, vehicle internal temperature sensor, vehicle internal humidity sensor, ultrasonic sensor, illuminance sensor, radar, lidar, etc. can include

이에 의해, 센싱부(125)는, 차량 충돌 정보, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도, 차량 외부 조도 등에 대한 센싱 신호를 획득할 수 있다.Accordingly, the sensing unit 125 provides vehicle collision information, vehicle direction information, vehicle location information (GPS information), vehicle angle information, vehicle speed information, vehicle acceleration information, vehicle tilt information, vehicle forward/backward information, and battery information. , Fuel information, tire information, vehicle lamp information, vehicle internal temperature information, vehicle internal humidity information, steering wheel rotation angle, vehicle external illuminance, and the like.

메모리(130)는, 제어부(170)와 전기적으로 연결된다. 메모리(130)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(130)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있다. 메모리(130)는 제어부(170)의 처리 또는 제어를 위한 프로그램 등, 차량(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.The memory 130 is electrically connected to the controller 170 . The memory 130 may store basic data for the unit, control data for controlling the operation of the unit, and input/output data. The memory 130 may be a variety of storage devices such as ROM, RAM, EPROM, flash drive, hard drive, etc. in terms of hardware. The memory 130 may store various data for overall operation of the vehicle 100, such as a program for processing or control by the control unit 170.

출력부(140)는, 제어부(170)에서 처리된 정보를 출력하기 위한 것으로, 디스플레이부, 음향 출력부 및 햅틱 출력부를 포함할 수 있다.The output unit 140 is for outputting information processed by the controller 170 and may include a display unit, a sound output unit, and a haptic output unit.

디스플레이부는 제어부(170)에서 처리되는 정보를 표시할 수 있다. 예를 들면, 디스플레이부는 차량 관련 정보를 표시할 수 있다. 여기서, 차량 관련 정보는, 현재 차량의 상태를 알려주는 차량 상태 정보 또는 차량의 운행과 관련되는 차량 운행 정보를 포함할 수 있다. 예를 들어, 디스플레이부는 현재 차량의 속도(또는 속력), 주변차량의 속도(또는 속력) 및 현재 차량과 주변차량 간의 거리 정보를 표시할 수 있다.The display unit may display information processed by the controller 170 . For example, the display unit may display vehicle-related information. Here, the vehicle-related information may include vehicle condition information indicating a current state of the vehicle or vehicle driving information related to driving of the vehicle. For example, the display unit may display information about the speed (or speed) of the current vehicle, the speed (or speed) of nearby vehicles, and the distance between the current vehicle and nearby vehicles.

한편, 디스플레이부는 운전자가 운전을 함과 동시에 차량 상태 정보 또는 차량 운행 정보를 확인할 수 있도록 클러스터(cluster)를 포함할 수 있다. 클러스터는 대시보드 위에 위치할 수 있다. 이 경우, 운전자는, 시선을 차량 전방에 유지한 채로 클러스터에 표시되는 정보를 확인할 수 있다.Meanwhile, the display unit may include a cluster so that the driver can check vehicle state information or vehicle driving information while driving. Clusters can be located above the dashboard. In this case, the driver can check the information displayed on the cluster while keeping his/her gaze in front of the vehicle.

음향 출력부는 제어부(170)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 음향 출력부는 스피커 등을 구비할 수 있다.The sound output unit converts the electrical signal from the control unit 170 into an audio signal and outputs it. To this end, the sound output unit may include a speaker or the like.

차량 구동부(150)는, 차량 각종 장치의 동작을 제어할 수 있다. 차량 구동부(150)는 동력원 구동부, 조향 구동부, 브레이크 구동부, 램프 구동부, 공조 구동부, 윈도우 구동부, 에어백 구동부, 썬루프 구동부 및 서스펜션 구동부를 포함할 수 있다.The vehicle driving unit 150 may control the operation of various vehicle devices. The vehicle driving unit 150 may include a power source driving unit, a steering driving unit, a brake driving unit, a lamp driving unit, an air conditioning driving unit, a window driving unit, an airbag driving unit, a sunroof driving unit, and a suspension driving unit.

동력원 구동부는, 차량(100) 내의 동력원에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 화석 연료 기반의 엔진(미도시)이 동력원인 경우, 동력원 구동부는, 엔진에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 엔진의 출력 토크 등을 제어할 수 있다. 동력원 구동부가 엔진인 경우, 제어부(170)의 제어에 따라, 엔진 출력 토크를 제한하여 차량의 속도를 제한할 수 있다.The power source driver may perform electronic control of the power source in the vehicle 100 . For example, when a fossil fuel-based engine (not shown) is the power source, the power source driver may perform electronic control of the engine. This makes it possible to control the output torque of the engine and the like. When the power source driver is an engine, the speed of the vehicle may be limited by limiting engine output torque according to the control of the control unit 170 .

브레이크 구동부는, 차량(100) 내의 브레이크 장치(brake apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 바퀴에 배치되는 브레이크의 동작을 제어하여, 차량(100)의 속도를 줄일 수 있다. 다른 예로, 좌측 바퀴와 우측 바퀴에 각각 배치되는 브레이크의 동작을 달리하여, 차량(100)의 진행 방향을 좌측, 또는 우측으로 조정할 수 있다.The brake driver may perform electronic control of a brake apparatus (not shown) in the vehicle 100 . For example, the speed of the vehicle 100 may be reduced by controlling the operation of brakes disposed on wheels. As another example, the driving direction of the vehicle 100 may be adjusted to the left or right by differentiating the operation of the brakes respectively disposed on the left and right wheels.

램프 구동부는, 차량 내, 외부에 배치되는 램프의 턴 온/턴 오프를 제어할 수 있다. 또한, 램프의 빛의 세기, 방향 등을 제어할 수 있다. 예를 들면, 방향 지시 램프, 브레이크 램프 등의 대한 제어를 수행할 수 있다.The lamp driving unit may control turning on/off of lamps disposed inside or outside the vehicle. In addition, the intensity and direction of the light of the lamp can be controlled. For example, control of direction indicator lamps and brake lamps may be performed.

제어부(170)는, 차량(100) 내의 각 유닛의 전반적인 동작을 제어할 수 있다. 제어부(170)는 ECU(Electronic Contol Unit)로 명명될 수 있다. 상술한 사고 유무 판단 장치는 제어부(170)에 의해 구동될 수 있다.The controller 170 may control overall operations of each unit in the vehicle 100 . The controller 170 may be referred to as an Electronic Control Unit (ECU). The aforementioned accident determination device may be driven by the controller 170 .

제어부(170)는, 하드웨어적으로, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.The control unit 170, in terms of hardware, includes application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), processors ( It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and electrical units for performing other functions.

일 실시 예에서 제어부(170)는 카메라를 통해 촬영된 식별 코드로부터 식별 이미지를 추출하고, 추출된 식별 이미지를 인식가능한 경우, 촬영된 식별 코드에 상응하는 정보를 추출하고, 추출된 정보를 통신 네트워크를 통해 사용자 단말에 전송한다. 여기서, 추출된 정보는 차량이 주차된 주차구역에 대한 위치정보, 집합건물에 대한 안내정보, 주차결제정보, 또는 집합건물내에서의 예약 및 결제정보 등을 포함할 수 있다.In one embodiment, the controller 170 extracts an identification image from an identification code photographed by a camera, and when the extracted identification image is recognizable, extracts information corresponding to the photographed identification code, and transmits the extracted information to a communication network. transmitted to the user terminal through Here, the extracted information may include location information about the parking area where the vehicle is parked, guide information about the collective building, parking payment information, or reservation and payment information in the collective building.

인터페이스부(180)는, 차량(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행할 수 있다. 예를 들면, 인터페이스부(180)는 이동 단말기(미도시)와 연결 가능한 포트를 구비할 수 있고, 상기 포트를 통해, 이동 단말기(미도시)와 연결할 수 있다. 이 경우, 인터페이스부(180)는 이동 단말기와 데이터를 교환할 수 있다.The interface unit 180 may serve as a passage for various types of external devices connected to the vehicle 100 . For example, the interface unit 180 may have a port connectable to a mobile terminal (not shown), and may be connected to a mobile terminal (not shown) through the port. In this case, the interface unit 180 can exchange data with the mobile terminal.

전원 공급부(190)는, 제어부(170)의 제어에 따라, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원 공급부(190)는, 차량 내부의 배터리(미도시) 등으로부터 전원을 공급받을 수 있다.The power supply unit 190 may supply power required for operation of each component according to the control of the control unit 170 . In particular, the power supply unit 190 may receive power from a battery (not shown) inside the vehicle.

도 2는 도 1에 도시된 차량 운전 보조 시스템(ADAS)의 블록 도이다.FIG. 2 is a block diagram of the vehicle driving assistance system (ADAS) shown in FIG. 1;

ADAS(200)는, 편의, 안전 제공을 위해 운전자를 보조 하는 차량 운전 보조 시스템이다.The ADAS 200 is a vehicle driving assistance system that assists a driver in order to provide convenience and safety.

ADAS(200)는, 자동 비상 제동 모듈(이하, AEB: Autonomous Emergency Braking)(210), 전방 충돌 회피 모듈 (이하, FCW: Foward Collision Warning)(211), 차선 이탈 경고 모듈 (이하, LDW: Lane Departure Warning)(212), 차선 유지 보조 모듈 (이하, LKA: Lane Keeping Assist)(213), 속도 지원 시스템 모듈 (이하, SAS: Speed Assist System)(214), 교통 신호 검출 모듈 (TSR: Traffic Sign Recognition)(215), 적응형 상향등 제어 모듈 (이하, HBA: High Beam Assist)(216), 사각 지대 감시 모듈 (이하, BSD: Blind Spot Detection)(217), 자동 비상 조향 모듈 (이하, AES: Autonomous Emergency Steering)(218), 커브 속도 경고 시스템 모듈 (이하, CSWS: Curve Speed Warning System)(219), 적응 순향 제어 모듈 (이하, ACC: Adaptive Cruise Control)(220), 스마트 주차 시스템 모듈 (이하, SPAS: Smart Parking Assist System)(221), 교통 정체 지원 모듈 (이하, TJA: Traffic Jam Assist)(222) 및 어라운드 뷰 모니터 모듈 (이하, AVM: Around View Monitor)(223)을 포함할 수 있다.The ADAS 200 includes an automatic emergency braking module (hereinafter referred to as AEB: Autonomous Emergency Braking) 210, a forward collision avoidance module (hereinafter referred to as FCW: Forward Collision Warning) 211, a lane departure warning module (hereinafter referred to as LDW: Lane Departure Warning) (212), Lane Keeping Assist (LKA) (213), Speed Assist System (SAS) (214), Traffic Sign Detection Module (TSR) Recognition) (215), adaptive high beam control module (hereinafter, HBA: High Beam Assist) (216), blind spot monitoring module (hereinafter, BSD: Blind Spot Detection) (217), automatic emergency steering module (hereinafter, AES: Autonomous Emergency Steering (218), Curve Speed Warning System (CSWS) (219), Adaptive Cruise Control (ACC) (220), Smart Parking System (220) , SPAS: Smart Parking Assist System (SPAS) 221, a traffic congestion support module (hereinafter referred to as TJA: Traffic Jam Assist) 222, and an around view monitor module (hereinafter referred to as AVM: Around View Monitor) 223 may be included. .

상기 각각의 ADAS 모듈(210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223)들은 차량 운전 보조 기능 제어를 위한 프로세서를 포함할 수 있다.Each of the ADAS modules 210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, and 223 may include a processor for controlling vehicle driving assistance functions.

상기 각각의 ADAS 모듈(210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223)에 포함되는 프로세서는, 제어부(270)의 제어를 받을 수 있다.A processor included in each of the ADAS modules 210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223 may be controlled by the controller 270. .

상기 각각의 ADAS 모듈(210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223) 프로세서는, 하드웨어적으로, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.Each of the ADAS modules (210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223) processors, in terms of hardware, ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays), processors, controllers, micro-controllers, microprocessors microprocessors) and electrical units for performing other functions.

AEB(210)는, 검출된 오브젝트와의 충돌을 방지하기 위해, 자동 제동을 제어하는 모듈이다. FCW(211)는, 차량 전방 오브젝트와의 충돌을 방지하기 위해, 경고가 출력되도록 제어하는 모듈이다. LDW(212)는, 주행 중 차선 이탈 방지를 위해, 경고가 출력되도록 제어하는 모듈이다. LKA(213)는, 주행 중 주행 차선 유지하도록 제어하는 모듈이다. SAS(214)는, 설정된 속도 이하로 주행하도록 제어하는 모듈이다. TSR(215)은, 주행 중 교통 신호를 감지하여 감지된 교통 신호를 기초로 정보를 제공하는 모듈이다. HBA(216)는, 주행 상황에 따라 상향등의 조사 범위 또는 조사량을 제어하는 모듈이다. BSD(217)는, 주행 중, 운전자 시야 밖의 오브젝트를 검출하고, 검출 정보를 제공하는 모듈이다. AES(218)는, 비상시 조향을 자동으로 수행하는 모듈이다. CSWS(219)는, 커브 주행시 기 설정 속도 이상으로 주행하는 경우 경로를 출력하도록 제어하는 모듈이다. ACC(220)는, 선행 차량을 추종하여 주행하도록 제어하는 모듈이다. SPAS(221)는, 주차 공간을 검출하고, 주차 공간에 주차하도록 제어하는 모듈이다. TJA(222)는, 교통 정체시 자동 운행하도록 제어하는 모듈이다. AVM(223)은, 차량 주변 영상을 제공하고, 차량 주변을 모니터링하도록 제어하는 모듈이다. The AEB 210 is a module that controls automatic braking in order to prevent a collision with a detected object. The FCW 211 is a module that controls a warning to be output in order to prevent a collision with an object in front of the vehicle. The LDW 212 is a module that controls a warning to be output to prevent lane departure while driving. The LKA 213 is a module that controls to maintain a driving lane while driving. The SAS 214 is a module that controls driving at a set speed or less. The TSR 215 is a module that detects a traffic signal while driving and provides information based on the detected traffic signal. The HBA 216 is a module that controls the irradiation range or amount of high beam light according to driving conditions. The BSD 217 is a module that detects an object outside the driver's visual field while driving and provides detection information. AES (218) is a module that automatically performs steering in an emergency. The CSWS 219 is a module that controls to output a route when driving at a preset speed or higher during curve driving. The ACC 220 is a module that controls the driving vehicle to follow the preceding vehicle. The SPAS 221 is a module that detects a parking space and controls to park in the parking space. The TJA 222 is a module that controls automatic operation in case of traffic congestion. The AVM 223 is a module that provides an image around the vehicle and controls to monitor the surroundings of the vehicle.

ADAS(200)는, 입력부(230) 또는 센싱부(235)에서 획득한 데이터를 기초로, 각각의 차량 운전 보조 기능을 수행하기 위한 제어 신호를 출력부(250) 또는 차량 구동부(260)에 제공할 수 있다. ADAS(200)는, 상기 제어 신호를, 출력부(250) 또는 차량 구동부(260)에 차량 내부 네트워크 통신(예를 들면, CAN)을 통해, 직접 출력할 수 있다. 또는, ADAS(200)는, 상기 제어 신호를, 제어부(270)를 거쳐, 출력부(250) 또는 차량 구동부(260)에 출력할 수 있다.The ADAS 200 provides a control signal for performing each vehicle driving assistance function to the output unit 250 or the vehicle driving unit 260 based on the data acquired by the input unit 230 or the sensing unit 235. can do. The ADAS 200 may directly output the control signal to the output unit 250 or the vehicle driving unit 260 through in-vehicle network communication (eg, CAN). Alternatively, the ADAS 200 may output the control signal to the output unit 250 or the vehicle driving unit 260 via the control unit 270 .

도 3은 일 실시 예에 따른 차량 단말을 이용한 주차위치안내 서비스 장치(300)의 개략 도이다.3 is a schematic diagram of a parking location guidance service apparatus 300 using a vehicle terminal according to an embodiment.

도 3을 참조하면, 주차위치안내 서비스 장치(300), 통신네트워크(340) 및 사용자 단말(350)이 도시되어 있다. 주차위치안내 서비스 장치(300)는 차량의 주차 시, GPS 수신기로부터 제1 주차위치 정보를 획득하고, 차량의 주차 시, 적어도 하나의 카메라로부터 주차구역에 표시된 식별정보를 촬영하고, 촬영된 식별정보로부터 제2 주차위치 정보를 추출하고, 획득된 제1 주차위치 정보 및 추출된 제2 주차위치 정보를 기초로 차량이 주차된 주차정보를 판단한다. 주차위치안내 서비스 장치(300)는 도 1 및 2를 참조하여 설명한 ADAS일 수 있으나, 그 명칭에 한정되지 않고, 블랙박스, 내비게이션 장치, IVI 기기, 텔레매틱스 단말기일 수 있다. Referring to FIG. 3 , a parking location guidance service device 300 , a communication network 340 and a user terminal 350 are shown. The parking location guidance service device 300 obtains first parking location information from a GPS receiver when the vehicle is parked, and photographs identification information displayed in a parking area from at least one camera when parking the vehicle, and captures the captured identification information. Second parking location information is extracted from, and parking information in which the vehicle is parked is determined based on the obtained first parking location information and the extracted second parking location information. The parking location guidance service device 300 may be the ADAS described with reference to FIGS. 1 and 2, but is not limited to its name, and may be a black box, a navigation device, an IVI device, or a telematics terminal.

주차위치안내 서비스 장치(300)는 GPS(305), 촬영부(310), 프로세서(320) 및 통신부(330)를 포함한다.The parking location guidance service device 300 includes a GPS 305, a photographing unit 310, a processor 320 and a communication unit 330.

GPS(305)는 복수의 위성으로부터 현재 차량의 위치 정보, 예를 들며 위도 및 경도데이터를 수신한다. GPS는 INS, GNSS 방식 등을 포함한다. GNSS는 위성으로부터 위치 신호를 입력받아 현재의 내 위치를 판단하는 방식이고, INS는 차량의 가속도를 모니터링하여 가속도로부터 속도 및 거리를 적분하는 방식을 이용할 수 있다.The GPS 305 receives current vehicle location information, for example latitude and longitude data, from a plurality of satellites. GPS includes INS, GNSS schemes, and the like. GNSS is a method of determining my current location by receiving position signals from satellites, and INS may use a method of monitoring vehicle acceleration and integrating speed and distance from the acceleration.

각각은 장단점이 있는데 GNSS는 고층 건물 밀집지역, 지하, 터널 등에서 GPS 수신 감도가 떨어지거나 건물에 반사된 신호가 잘못 입력되면 현재의 내 위치나 이동 방향이 엉뚱하게 틀어지는 문제가 있고, INS는 가속도 적분 방식으로 거리를 계산하다 보니 적분상수 C로 인해 오차가 누적되는 문제가 있다. Each has pros and cons. GNSS has problems with GPS reception sensitivity falling in high-rise building areas, basements, tunnels, etc., or when signals reflected from buildings are incorrectly input, my current location or direction of movement is wrongly twisted, and INS is an acceleration integration method Calculating the distance with , there is a problem that errors accumulate due to the integral constant C.

실시 예에서는, GNSS와 INS 데이터를 종합하여 차량의 위치를 파악할 수 있으며, 추가로, 영상 데이터를 추가해서 차량의 위치를 더욱더 정확하게 보정할 수 있다. 카메라는 정확히 캘리브레이션이 되어있기 때문에 본넷부터 카메라까지의 길이, 차량 바닥으로부터의 높이가 고정되어있고 전방을 촬영하는 각도 또한 고정되어 있기 때문에 영상에서 특징점 하나를 선정한다면 내 차부터 특징점까지의 거리를 산출할 수 있다. 즉, 차량이 특징점에 가까워질수록 각각의 프레임에서 특징점은 계속 아래로 내려가게 된다. 예를 들면, 차량이 현재 고속도로를 달리고 있을 때, 전방 영상으로부터 특징점, 예를 들면 도로의 노면 표지판, 도로의 특정상태 등을 인식하고 해당 특징점이 각 프레임별로 얼만큼 아래로 이동하는지 파악하여 차량의 이동 거리를 산출하는 방식이다. 즉, 영상 인식 데이터를 INS, GNSS를 종합하여 사용함으로써, 차량의 실제 이동 거리를 더욱더 정밀하게 보정할 수도 있다.In the embodiment, the location of the vehicle can be determined by combining GNSS and INS data, and the location of the vehicle can be more accurately corrected by adding image data. Since the camera is accurately calibrated, the length from the bonnet to the camera, the height from the vehicle floor are fixed, and the angle for shooting the front is also fixed. can do. That is, as the vehicle gets closer to the feature point, the feature point continues to go down in each frame. For example, when a vehicle is currently running on a highway, it recognizes a feature point, for example, a road sign on the road, a specific condition of the road, etc. A way to calculate the distance traveled. That is, the actual moving distance of the vehicle may be more precisely corrected by using image recognition data in combination with INS and GNSS.

촬영부(310)는 차량 내의 적어도 하나의 카메라를 포함하고, 차량이 주차구역에 진입, 주차하는 과정의 차량 주위를 촬영한다. 여기서, 카메라는 차량의 전방 또는 후방, 또는 좌우측면에 구비될 수 있다.The photographing unit 310 includes at least one camera inside the vehicle, and photographs the surroundings of the vehicle while the vehicle enters and parks in the parking area. Here, the camera may be provided on the front or rear, or left and right sides of the vehicle.

프로세서(320)는 차량의 주차 시, GPS(305)로부터 제1 주차위치 정보를 획득하고, 차량의 주차 시, 촬영부(310)로부터 주차구역에 표시된 식별정보를 촬영하고, 촬영된 식별정보로부터 제2 주차위치 정보를 추출한다. 여기서, 제1 주차위치 정보는 GPS(305)로부터 수신된 위도 및 경도 데이터에 기초한 현재 위치일 수 있고, 제2 주차위치 정보는 카메라가 촬영된 주차구역에 대한 정보로서, "B3 D22" 등과 같은 주차구역 정보일 수 있다.When the vehicle is parked, the processor 320 obtains first parking location information from the GPS 305, and when the vehicle is parked, the photographing unit 310 photographs the identification information displayed in the parking area, and from the photographed identification information. Second parking location information is extracted. Here, the first parking location information may be a current location based on the latitude and longitude data received from the GPS 305, and the second parking location information is information about a parking area where a camera is photographed, such as "B3 D22". It may be parking area information.

프로세서(320)는 제1 주차위치 정보 및 추출된 제2 주차위치 정보를 기초로 차량이 주차된 주차정보를 판단한다. 예를 들면 실내 또는 지하에서는 GPS 수신이 불가능하거나 정확도가 떨어지므로, 제2 주차위치 정보에 가중치를 둘 수 있고, 반대로, 실외 또는 주차구역 식별정보가 잘 표시되어 있지 않은 곳, 또는 카메라를 통한 촬영된 영상이 존재하지 않는 경우에는 제1 주차위치 정보에 가중치를 둘 수 있다. 프로세서(320)는 2개의 주차위치 정보를 기초로, 보다 정확한 현재 주차위치를 판단한다.The processor 320 determines parking information in which the vehicle is parked based on the first parking location information and the extracted second parking location information. For example, since GPS reception is impossible or less accurate indoors or underground, weight can be placed on the second parking location information. If the image does not exist, a weight may be placed on the first parking location information. The processor 320 determines a more accurate current parking location based on the two pieces of parking location information.

프로세서(320)는 촬영부(310)로부터 촬영된 복수의 영상 프레임들로부터 각각의 영상 프레임에 포함된 식별정보를 인식하고, 인식된 식별정보로부터 주차위치에 상응하는 텍스트인 제2 주차위치 정보를 추출한다. 도 4a 내지 4d에 도시된 것과 같이, 넓은 실외 또는 복잡한 실내 주차장에 주차하는 경우, 촬영부(310)는 주차하는 과정에서, 도 4e 및 4f와 같이 전방 도는 후방 카메라를 통해 복수 개의 영상 프레임들을 획득한다. 도 5a 및 도 5b에 도시된 것처럼, 촬영된 복수 개의 영상 프레임들 중 어느 한 프레임(500)에 주차구역정보, 즉 식별정보(510)를 인식한다. 예를 들면 도 5a에 도시된 영상은 DVRS 또는 빌트인 캠으로 촬영된 영상이고, 도 5b에 도시된 영상은 블랙박스로 촬영된 영상이다.The processor 320 recognizes identification information included in each image frame from a plurality of image frames photographed by the photographing unit 310, and second parking location information, which is text corresponding to the parking location, from the recognized identification information. extract As shown in FIGS. 4A to 4D, when parking in a wide outdoor or complex indoor parking lot, the photographing unit 310 obtains a plurality of image frames through a front or rear camera as shown in FIGS. 4E and 4F during the parking process. do. As shown in FIGS. 5A and 5B , parking area information, that is, identification information 510 is recognized in any one frame 500 among a plurality of captured image frames. For example, the image shown in FIG. 5A is an image captured by a DVRS or a built-in cam, and the image shown in FIG. 5B is an image captured by a black box.

예를 들면, 차량이 목적지에 도착하여 시동이 꺼지게 되면 차량 내부의 전자 장치, 예를 들면 ECU, AVN 또는 기타 차량 전자장치는 주차가 완료되기까지의 영상 중 주차 구역이 표기되었다고 예상되는 부분의 프레임을 추출할 수도 있다.For example, when the vehicle arrives at its destination and the engine is turned off, the electronic device inside the vehicle, such as the ECU, AVN, or other vehicle electronic devices, displays the frame of the part where the parking area is expected to be marked among the images until parking is completed. can also be extracted.

도 6a에 도시된 것과 같이, 인식된 식별정보(510)를 주차구역을 나타내는 텍스트 정보만을 추출한다. 도 6b에 도시된 것처럼, 현재 주차된 주차장이 지하 3층임을 나타내는 정보(511)와 주차위치를 나타내는 정보(512)를 추출한다. 제2 주차위치 정보, 즉 지하 3층, F09임을 확인한다. As shown in FIG. 6A, only text information indicating a parking area is extracted from the recognized identification information 510. As shown in FIG. 6B, information 511 indicating that the currently parked parking lot is on the 3rd basement level and information 512 indicating the parking location are extracted. It is confirmed that the second parking location information, that is, the 3rd basement floor, is F09.

또한, 현재 촬영된 영상의 카메라의 위치에 따라 확인된 주차위치정보를 보정하거나 변경할 수 있다. 예를 들면 주차된 상태에서, 전방카메라로 촬영된 영상이 B3, F09인 경우, 현재 차량의 주차위치는 B3, F09로부터 추정하여, B3, E09라고 판단할 수도 있다. In addition, the checked parking location information may be corrected or changed according to the location of the camera of the currently captured image. For example, in a parked state, when the images captured by the front camera are B3 and F09, the current parking position of the vehicle may be estimated from B3 and F09 and determined to be B3 and E09.

또한, 프로세서(320)는 판단된 주차정보를 통신 네트워크(340)를 통해 사용자 단말(350)에 전송할 수 있다. 사용자 단말은 차량의 운전자가 소유한 휴대 단말 또는 스마트 폰일 수 있으며, 도 7을 참조하여 후술한다. Also, the processor 320 may transmit the determined parking information to the user terminal 350 through the communication network 340 . The user terminal may be a portable terminal or a smart phone owned by the driver of the vehicle, which will be described later with reference to FIG. 7 .

실시 예에 따른 주차위치안내 서비스 장치는 넓고 복잡한 곳에 차량을 주차했을 때 사용자가 따로 신경을 쓰지 않아도 차량이 자체적으로 자신의 위치를 파악하여 사용자의 휴대폰이나 웨어러블 기기에 알림을 주어, 이후 사용자는 용이하게 자신의 현재 차량의 위치를 확인할 수 있다.In the parking location guidance service device according to the embodiment, when the vehicle is parked in a wide and complicated place, the vehicle recognizes its own location and notifies the user's mobile phone or wearable device without the user's attention, so that the user can easily You can check the current location of your vehicle.

도 7은 도 3에 도시된 사용자 단말(350)의 개략 도이다.FIG. 7 is a schematic diagram of the user terminal 350 shown in FIG. 3 .

도 7을 참고하면, 사용자 단말은 제어부(700), 통신부(710) 및 출력부(740)를 포함할 수 있다. 그러나 도시된 구성요소 모두가 필수구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 사용자 단말이 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 사용자 단말은 구현될 수 있다.Referring to FIG. 7 , the user terminal may include a control unit 700 , a communication unit 710 and an output unit 740 . However, not all illustrated components are essential components. A user terminal may be implemented with more components than the illustrated components, or a user terminal may be implemented with fewer components.

예를 들어 일 실시 예에 따른 사용자 단말은, 제어부(700), 통신부(710) 및 출력부(730) 이외에 사용자 입력부(740), 센싱부(750), A/V 입력부(760) 및 메모리(770)를 더 포함할 수도 있다. For example, a user terminal according to an embodiment includes a user input unit 740, a sensing unit 750, an A/V input unit 760, and a memory ( 770) may be further included.

이하 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the above components are examined in turn.

제어부(700)는 통상적으로 사용자 단말의 전반적인 동작을 제어한다. 예를 들어, 제어부(700)는, 메모리(770)에 저장된 프로그램들을 실행함으로써, 통신부(710), 출력부(730), 사용자 입력부(740), 센싱부(750), A/V 입력부(760) 및 메모리(770) 등을 전반적으로 제어할 수 있다. The control unit 700 typically controls the overall operation of the user terminal. For example, the control unit 700 executes programs stored in the memory 770, thereby enabling the communication unit 710, the output unit 730, the user input unit 740, the sensing unit 750, and the A/V input unit 760. ) and the memory 770, etc. can be overall controlled.

통신부(710)는 사용자 단말과 서버(미도시)간에 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신부(710)는, 근거리 통신부(711), 이동 통신부(712) 및 방송 수신부(713)를 포함할 수 있다. The communication unit 710 may include one or more components that allow communication between a user terminal and a server (not shown). For example, the communication unit 710 may include a short-distance communication unit 711, a mobile communication unit 712, and a broadcast reception unit 713.

근거리 통신부(short-range wireless communication unit)(721)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. 이동 통신부(712)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. 방송 수신부(713)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 사용자 단말이 방송 수신부(713)를 포함하지 않을 수도 있다. The short-range wireless communication unit 721 includes a Bluetooth communication unit, a Bluetooth Low Energy (BLE) communication unit, a Near Field Communication unit, a WLAN (Wi-Fi) communication unit, a Zigbee communication unit, and an infrared ( It may include an infrared data association (IrDA) communication unit, a Wi-Fi Direct (WFD) communication unit, an ultra wideband (UWB) communication unit, an Ant+ communication unit, etc., but is not limited thereto. The mobile communication unit 712 transmits and receives a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network. Here, the radio signal may include a voice call signal, a video call signal, or various types of data according to text/multimedia message transmission/reception. The broadcast receiver 713 receives a broadcast signal and/or broadcast-related information from the outside through a broadcast channel. Broadcast channels may include satellite channels and terrestrial channels. Depending on the implementation example, the user terminal may not include the broadcast receiving unit 713.

출력부(730)는 스트레스 지표와 관련된 정보를 디스플레이한다. The output unit 730 displays information related to the stress indicator.

출력부(730)는 오디오 신호 또는 비디오 신호 또는 진동 신호의 출력을 위한 것으로, 이에는 디스플레이부(731), 음향 출력부(732) 및 진동 모터(733) 등이 포함될 수 있다. 디스플레이부(731)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 포함될 수 있으나 이에 한정되는 것은 아니다.The output unit 730 is for outputting an audio signal, video signal, or vibration signal, and may include a display unit 731, a sound output unit 732, a vibration motor 733, and the like. The display unit 731 includes a key pad, a dome switch, a touch pad (contact capacitance method, pressure resistive film method, infrared sensing method, surface ultrasonic conduction method, integral tension measurement method, A piezo effect method, etc.), a jog wheel, a jog switch, etc. may be included, but are not limited thereto.

한편, 디스플레이부(731)는 터치패드가 레이어 구조를 이루어 터치 스크린으로 구성될 수 있다. 디스플레이부(731)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 그리고 사용자 단말의 구현 형태에 따라 사용자 단말은 디스플레이부(731)를 2개 이상 포함할 수도 있다. Meanwhile, the display unit 731 may be configured as a touch screen by forming a layer structure of a touch pad. The display unit 731 includes a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, a 3D display ( 3D display) and at least one of electrophoretic display. Also, depending on the implementation form of the user terminal, the user terminal may include two or more display units 731 .

음향 출력부(732)는 통신부(710)로부터 수신되거나 메모리(770)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(731)는 사용자 단말에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(732)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The audio output unit 732 outputs audio data received from the communication unit 710 or stored in the memory 770 . In addition, the sound output unit 731 outputs sound signals related to functions performed by the user terminal (eg, call signal reception sound, message reception sound, and notification sound). The sound output unit 732 may include a speaker, a buzzer, and the like.

진동 모터(733)는 진동 신호를 출력할 수 있다. 예를 들어, 진동 모터(733)는 오디오 데이터 또는 비디오 데이터(예컨대, 호신호 수신음, 메시지 수신음 등)의 출력에 대응하는 진동 신호를 출력할 수 있다. 또한, 진동 모터(733)는 터치스크린에 터치가 입력되는 경우 진동 신호를 출력할 수도 있다.The vibration motor 733 may output a vibration signal. For example, the vibration motor 733 may output a vibration signal corresponding to an output of audio data or video data (eg, call signal reception sound, message reception sound, etc.). Also, the vibration motor 733 may output a vibration signal when a touch is input to the touch screen.

사용자 입력부(740)는, 사용자가 사용자 단말(110)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력부(740)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.The user input unit 740 means a means through which a user inputs data for controlling the user terminal 110 . For example, the user input unit 740 includes a key pad, a dome switch, a touch pad (contact capacitance method, pressure resistive film method, infrared sensing method, surface ultrasonic conduction method, integral type tension measuring method, piezo effect method, etc.), a jog wheel, a jog switch, and the like, but are not limited thereto.

센싱부(750)는, 사용자 단말의 상태 또는 사용자 단말 주변의 상태를 감지하고, 감지된 정보를 제어부(700)로 전달할 수 있다. The sensing unit 750 may detect a state of the user terminal or a state around the user terminal, and transmit the sensed information to the control unit 700 .

한편, 센싱부(750)는, 지자기 센서(Magnetic sensor)(751), 가속도 센서(Acceleration sensor)(752), 온/습도 센서(753), 적외선 센서(754), 자이로스코프 센서(755), 위치 센서(예컨대, GPS)(756), 기압 센서(757), 근접 센서(758), 및 RGB 센서(illuminance sensor)(759) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.Meanwhile, the sensing unit 750 includes a magnetic sensor 751, an acceleration sensor 752, a temperature/humidity sensor 753, an infrared sensor 754, a gyroscope sensor 755, It may include at least one of a location sensor (eg, GPS) 756, an air pressure sensor 757, a proximity sensor 758, and an RGB sensor (illuminance sensor) 759, but is not limited thereto. Since a person skilled in the art can intuitively infer the function of each sensor from its name, a detailed description thereof will be omitted.

A/V(Audio/Video) 입력부(760)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(761)와 마이크로폰(762) 등이 포함될 수 있다. 카메라(761)는 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 제어부(700) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다. An audio/video (A/V) input unit 760 is for inputting an audio signal or a video signal, and may include a camera 761 and a microphone 762. The camera 761 may obtain an image frame such as a still image or a moving image through an image sensor in a video call mode or a photographing mode. An image captured through the image sensor may be processed through the controller 700 or a separate image processing unit (not shown).

카메라(761)에서 처리된 화상 프레임은 메모리(770)에 저장되거나 통신부(710)를 통하여 외부로 전송될 수 있다. 카메라(761)는 사용자 단말의 구성에 따라 2개 이상이 구비될 수도 있다. An image frame processed by the camera 761 may be stored in the memory 770 or transmitted to the outside through the communication unit 710 . Two or more cameras 761 may be provided according to the configuration of the user terminal.

마이크로폰(762)은, 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(762)은 외부 디바이스 또는 화자로부터 음향 신호를 수신할 수 있다. 마이크로폰(762)은 외부의 음향 신호를 입력받는 과정에서 발생 되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다. The microphone 762 receives external sound signals and processes them into electrical voice data. For example, the microphone 762 may receive a sound signal from an external device or a speaker. The microphone 762 may use various noise cancellation algorithms to remove noise generated in the process of receiving an external sound signal.

메모리(770)는, 제어부(700)의 처리 및 제어를 위한 프로그램을 저장할 수도 있고, 입/출력되는 데이터들을 저장할 수도 있다. The memory 770 may store programs for processing and control of the control unit 700 or may store input/output data.

메모리(770)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 디바이스(100)는 인터넷(internet)상에서 메모리(170)의 저장 기능을 수행하는 웹 스토리지(web storage) 또는 클라우드 서버를 운영할 수도 있다.The memory 770 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg SD or XD memory, etc.), RAM (RAM, Random Access Memory) SRAM (Static Random Access Memory), ROM (Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), magnetic memory, magnetic disk , an optical disk, and at least one type of storage medium. In addition, the device 100 may operate a web storage or cloud server that performs a storage function of the memory 170 on the Internet.

메모리(770)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈(771), 터치 스크린 모듈(772), 알림 모듈(773) 등으로 분류될 수 있다. Programs stored in the memory 770 may be classified into a plurality of modules according to their functions, such as a UI module 771, a touch screen module 772, and a notification module 773. .

UI 모듈(771)은, 애플리케이션별로 사용자 단말과 연동되는 특화된 UI, GUI 등을 제공할 수 있다. 터치 스크린 모듈(772)은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 제어부(700)로 전달할 수 있다. 본 발명의 일 실시예에 따른 터치 스크린 모듈(772)은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈(772)은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.The UI module 771 may provide a specialized UI, GUI, and the like for each application to work with a user terminal. The touch screen module 772 may detect a user's touch gesture on the touch screen and transmit information about the touch gesture to the controller 700 . The touch screen module 772 according to an embodiment of the present invention may recognize and analyze a touch code. The touch screen module 772 may be configured as separate hardware including a controller.

터치스크린의 터치 또는 근접 터치를 감지하기 위해 터치스크린의 내부 또는 근처에 다양한 센서가 구비될 수 있다. 터치스크린의 터치를 감지하기 위한 센서의 일례로 촉각 센서가 있다. 촉각 센서는 사람이 느끼는 정도로 또는 그 이상으로 특정 물체의 접촉을 감지하는 센서를 말한다. 촉각 센서는 접촉면의 거칠기, 접촉 물체의 단단함, 접촉 지점의 온도 등의 다양한 정보를 감지할 수 있다.Various sensors may be provided inside or near the touch screen to detect a touch or a proximity touch of the touch screen. There is a tactile sensor as an example of a sensor for detecting a touch of a touch screen. A tactile sensor refers to a sensor that detects a contact with a specific object to a degree or more than a human can feel. The tactile sensor may detect various information such as the roughness of a contact surface, the hardness of a contact object, and the temperature of a contact point.

또한, 터치스크린의 터치를 감지하기 위한 센서의 일례로 근접 센서가 있다.In addition, there is a proximity sensor as an example of a sensor for sensing a touch of a touch screen.

근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 사용자의 터치 제스처에는 탭, 터치&홀드, 더블 탭, 드래그, 패닝, 플릭, 드래그 앤드 드롭, 스와이프 등이 있을 수 있다.A proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object existing nearby without mechanical contact by using the force of an electromagnetic field or infrared rays. Examples of the proximity sensor include a transmissive photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, an infrared proximity sensor, and the like. The user's touch gestures may include tap, touch & hold, double tap, drag, panning, flick, drag and drop, and swipe.

알림 모듈(773)은 사용자 단말의 이벤트 발생을 알리기 위한 신호를 발생할 수 있다. 사용자 단말에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 일정 알림 등이 있다. 또한, 사용자 단말에서 발생되는 이벤트의 예로는 디스플레이부(731)에서 수신한 사용자 입력에 기초하여 발생되는 햅틱 신호에 기초하여, 사용자 입력이 수신됨을 알리는 신호를 발생시킬 수 있다. The notification module 773 may generate a signal for notifying occurrence of an event in a user terminal. Examples of events generated in the user terminal include call signal reception, message reception, key signal input, schedule notification, and the like. In addition, as an example of an event generated in the user terminal, a signal notifying that a user input is received may be generated based on a haptic signal generated based on a user input received by the display unit 731 .

알림 모듈(773)은 디스플레이부(731)를 통해 비디오 신호 형태로 알림 신호를 출력할 수도 있고, 음향 출력부(732)를 통해 오디오 신호 형태로 알림 신호를 출력할 수도 있고, 진동 모터(733)를 통해 진동 신호 형태로 알림 신호를 출력할 수도 있다. The notification module 773 may output a notification signal in the form of a video signal through the display unit 731, output a notification signal in the form of an audio signal through the sound output unit 732, and may output a notification signal in the form of a vibration motor 733. A notification signal may be output in the form of a vibration signal through

도 8 및 9는 다른 실시 예에 따른 차량 단말을 이용한 주차위치안내 서비스 방법을 설명하기 위한 예시 도들이다.8 and 9 are exemplary diagrams for explaining a parking location guidance service method using a vehicle terminal according to another embodiment.

주차위치안내 서비스 장치(300)가 주차시 확인된 차량의 주차위치를 도 7에 도시된 사용자 단말에 전송하면, 도 8a 및 8b에 도시된 것처럼, 현재 주차된 차량의 위치를 안내 메시지로 출력한다. 여기서, 현재 차량의 주차위치 뿐만 아니라, 주차건물, 주차시간, 주차 요금 등의 정보를 더 표시할 수 있다. 또한, 현재 차량의 상태, 예를 들면 창문열림, 문열림 등의 정보를 더 표시할 수도 있다.When the parking location information service device 300 transmits the parking location of the vehicle confirmed during parking to the user terminal shown in FIG. 7, as shown in FIGS. 8A and 8B, it outputs the location of the currently parked vehicle as a guide message. . Here, information such as a parking building, a parking time, and a parking fee may be further displayed as well as the current parking location of the vehicle. In addition, information such as the current state of the vehicle, for example, a window open or a door open, may be further displayed.

주차위치안내 서비스 장치(300)가 주차시 확인된 차량의 주차위치를 도 7에 도시된 사용자 단말에 전송하면, 도 9a 및 9b에 도시된 것처럼, 지도 애플리케이션 등과 연동하여, 지도상에 현재 주차위치를 표시하거나, 현재 주차된 차량의 영상 또는 차량의 블랙박스로 촬영된 주위 영상을 지도 상에 함께 표시할 수도 있다.When the parking location guidance service device 300 transmits the parking location of the vehicle confirmed during parking to the user terminal shown in FIG. 7, as shown in FIGS. 9A and 9B, in conjunction with a map application, etc., the current parking location is displayed on the map. may be displayed, or an image of a currently parked vehicle or a surrounding image captured by a black box of the vehicle may be displayed together on a map.

실시 예에서, 놀이 공원과 같이 야외에 대형으로 구성된 주차장 등에서 영상으로 주차 구역을 확인하기 어렵다면, GPS 수신 상태가 양호한 지역이라면 시동이 꺼진 이후 차량의 GPS 데이터를 사용자 핸드폰으로 전송하고, 차후에 사용자가 차량의 주차 위치를 찾을 때 MAP과 연동하여 차량이 주차된 위치를 지도에 정밀하게 표시해 줄 수 있다.In an embodiment, if it is difficult to check a parking area with an image in a large outdoor parking lot such as an amusement park, if the GPS reception is in a good area, the vehicle's GPS data is transmitted to the user's mobile phone after the engine is turned off, and the user later When finding the parking location of a vehicle, it can be linked with MAP to precisely display the location where the vehicle is parked on the map.

도 10은 또 다른 실시 예에 따른 차량 단말을 이용한 주차위치안내 서비스 방법을 설명하기 위한 흐름 도이다. 10 is a flowchart illustrating a parking location guidance service method using a vehicle terminal according to another embodiment.

도 10을 참조하면, 단계 1000에서, 차량의 주차 시, 차량 단말의 GPS 수신기로부터 제1 주차위치 정보를 획득한다. 단계 1002에서, 차량의 주차 시,  차량 단말과 연동되어 차량에 구비된 적어도 하나의 카메라로부터 주차구역에 표시된 식별정보를 촬영한다. 단계 1004에서, 촬영된 식별정보로부터 제2 주차위치 정보를 추출한다. 단계 1006에서, 획득된 제1 주차위치 정보 및 추출된 제2 주차위치 정보를 기초로 차량이 주차된 주차정보를 판단한다.Referring to FIG. 10 , in step 1000, when the vehicle is parked, first parking location information is acquired from the GPS receiver of the vehicle terminal. In step 1002, when the vehicle is parked, identification information displayed in the parking area is photographed from at least one camera provided in the vehicle in conjunction with the vehicle terminal. In step 1004, second parking location information is extracted from the photographed identification information. In step 1006, parking information where the vehicle is parked is determined based on the obtained first parking location information and the extracted second parking location information.

실시 예에서, 판단된 주차정보를 사용자 단말에 전송하여, 다양한 주차위치안내 서비스를 제공할 수 있다. In an embodiment, by transmitting the determined parking information to the user terminal, it is possible to provide various parking location guidance services.

실시 예에서, 주차시에 블랙박스로 영상촬영을 해도 주차했던 방식과 각도에 따라 주변 차량의 넘버가 녹화되지 않을 수 있다. 이때 녹화되지 않은 곳에 있던 옆 차량이 문콕을 한다거나 충격 후 도주해도 주차장 내 따로 CCTV가 있지 않는 이상 검거하기가 어렵지만, 자신의 차량이 정확히 어디에 주차되어있는지까지 확인할 수 있으며 주변 차량이 충격 후 도주했을 때 해당 차량을 더욱 명확하게 분석할 수 있다.In an embodiment, even if an image is taken with a black box during parking, the number of a nearby vehicle may not be recorded depending on the parking method and angle. At this time, even if the vehicle next to you in an unrecorded place crashes or escapes after impact, it is difficult to arrest unless there is a separate CCTV in the parking lot. The vehicle can be analyzed more clearly.

실시 예에서, 대형야외공원 또는 큰 행사장의 경우 야외 주차장이 매우 커 주차 위치를 기억한다 해도 차후에 주차 위치를 실제로 찾는데 어려움이 많다. 따라서 사용자 단말의 애플리케이션을 통해, 시동이 종료된 시점부터 몇 분간, 예를 들면 10분, 15분 등 핸드폰 GPS데이터로부터 사용자가 도보 등으로 이동한 경로를 기록으로 남겨 차후에 사용자가 차량을 찾을 때 차량이 주차된 위치까지 이동할 도보 경로를 안내할 수도 있다.In an embodiment, in the case of a large outdoor park or a large event, the outdoor parking lot is very large, so even if the parking location is memorized, it is difficult to actually find the parking location later. Therefore, through the application of the user terminal, a record of the route the user has traveled on foot from the GPS data of the mobile phone for several minutes, for example, 10 minutes, 15 minutes, etc. You can also direct a walking route to get to this parked location.

본 실시 예들은 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비 분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비 분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈과 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.The present embodiments may be implemented in the form of a recording medium including instructions executable by a computer, such as program modules executed by a computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. Also, computer readable media may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes computer readable instructions, data structures, other data in a modulated data signal such as program modules, or other transport mechanism, and includes any information delivery media.

또한, 본 명세서에서, "부"는 프로세서 또는 회로와 같은 하드웨어 구성(hardware component), 및/또는 프로세서와 같은 하드웨어 구성에 의해 실행되는 소프트웨어 구성(software component)일 수 있다.Also, in this specification, “unit” may be a hardware component such as a processor or a circuit, and/or a software component executed by the hardware component such as a processor.

전술한 본 명세서의 설명은 예시를 위한 것이며, 본 명세서의 내용이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of this specification is for illustrative purposes, and those skilled in the art to which the content of this specification pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. There will be. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 실시 예의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 포함되는 것으로 해석되어야 한다.The scope of the present embodiment is indicated by the claims to be described later rather than the detailed description, and should be construed to include all changes or modifications derived from the meaning and scope of the claims and equivalent concepts thereof.

Claims (15)

차량 단말을 이용한 주차위치안내 서비스 방법에 있어서,
차량의 주차 시, 상기 차량 단말의 GPS 수신기로부터 제1 주차위치 정보를 획득하는 단계;
상기 차량의 주차 시, 상기 차량 단말과 연동되어 상기 차량에 구비된 적어도 하나의 카메라로부터 주차구역에 표시된 제1 식별정보를 촬영하는 단계;
상기 촬영된 제1 식별정보로부터 제2 주차위치 정보를 추출하는 단계;
상기 획득된 제1 주차위치 정보 및 상기 추출된 제2 주차위치 정보를 기초로 상기 차량이 주차된 주차정보를 판단하는 단계; 및
상기 판단된 주차정보를 통신 네트워크를 통해 사용자 단말에 전송하는 단계를 포함하고,
상기 촬영된 제1 식별정보로부터 상기 제2 주차위치 정보를 추출하지 못한 경우, 상기 적어도 하나의 카메라로부터 촬영된 복수의 영상 프레임들로부터 상기 각각의 영상 프레임에 포함된 제2 식별정보를 인식하고, 상기 인식된 제2 식별정보로부터 주차위치에 상응하는 텍스트인 상기 제2 주차위치 정보를 추출하고,
상기 판단하는 단계는,
상기 차량의 주차 환경에 따라 상기 제1 주차 위치 정보 및 상기 제2 주차 위치 정보에 가중치를 다르게 설정하고, 상기 차량이 주차된 주차정보를 판단하는 것을 특징으로 하는 차량 단말을 이용한 주차위치안내 서비스 방법.
In the parking location guidance service method using a vehicle terminal,
Obtaining first parking location information from a GPS receiver of the vehicle terminal when the vehicle is parked;
When the vehicle is parked, photographing first identification information displayed in a parking area from at least one camera provided in the vehicle in conjunction with the vehicle terminal;
Extracting second parking location information from the photographed first identification information;
determining parking information in which the vehicle is parked based on the obtained first parking location information and the extracted second parking location information; and
Transmitting the determined parking information to a user terminal through a communication network,
When the second parking location information is not extracted from the captured first identification information, recognizing second identification information included in each image frame from a plurality of image frames photographed by the at least one camera, Extracting the second parking location information, which is text corresponding to a parking location, from the recognized second identification information;
The step of judging is
A parking location guidance service method using a vehicle terminal, characterized in that setting different weights to the first parking location information and the second parking location information according to the parking environment of the vehicle and determining parking information in which the vehicle is parked. .
삭제delete 삭제delete 제 1 항에 있어서,
상기 차량 단말은,
블랙박스인 것을 특징으로 하는 차량 단말을 이용한 주차위치안내 서비스 방법.
According to claim 1,
The vehicle terminal,
A parking location guidance service method using a vehicle terminal, characterized in that it is a black box.
제 1 항에 있어서,
상기 사용자 단말에서 소정의 애플리케이션이 실행된 경우, 상기 주차정보에 상응하는 위치표시가 지도상에 표시되는 것을 특징으로 하는 차량 단말을 이용한 주차위치안내 서비스 방법.
According to claim 1,
When a predetermined application is executed in the user terminal, a parking location guidance service method using a vehicle terminal, characterized in that a location display corresponding to the parking information is displayed on a map.
제 5 항에 있어서,
상기 주차정보는,
상기 차량의 주차 시, 상기 적어도 하나의 카메라로부터 촬영된 주차구역에 상응하는 영상정보를 포함하고,
상기 지도상에 상기 영상정보가 표시되는 것을 특징으로 하는 차량 단말을 이용한 주차위치안내 서비스 방법.
According to claim 5,
The parking information,
When the vehicle is parked, including image information corresponding to a parking area photographed by the at least one camera,
Parking location guidance service method using a vehicle terminal, characterized in that the image information is displayed on the map.
제 1 항에 있어서,
상기 사용자 단말에서 소정의 애플리케이션이 실행된 경우, 상기 사용자 단말에 상기 주차정보에 상응하는 주차건물, 주차위치, 주차시간 및 주차 요금 중 적어도 하나를 포함하는 텍스트 정보가 표시되는 것을 특징으로 하는 차량 단말을 이용한 주차위치안내 서비스 방법.
According to claim 1,
When a predetermined application is executed in the user terminal, text information including at least one of a parking building corresponding to the parking information, a parking location, a parking time, and a parking fee is displayed on the user terminal. Parking location information service method using .
제 1 항, 제 4 항 내지 제 7 항 중 어느 한 항에 따른 차량 단말을 이용한 주차위치안내 서비스 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체. A recording medium recording a program for executing the parking location guidance service method using the vehicle terminal according to any one of claims 1 and 4 to 7 in a computer. GPS 수신기 및 통신 네트워크를 포함하는 차량 단말;
상기 차량 단말과 연동되어 차량에 구비된 적어도 하나의 카메라; 및
프로세서를 포함하고,
상기 프로세서는,
차량의 주차 시, 상기 GPS 수신기로부터 제1 주차위치 정보를 획득하고, 상기 차량의 주차 시, 상기 적어도 하나의 카메라로부터 주차구역에 표시된 식별정보를 촬영하고, 상기 촬영된 제1 식별정보로부터 제2 주차위치 정보를 추출하고, 상기 획득된 제1 주차위치 정보 및 상기 추출된 제2 주차위치 정보를 기초로 상기 차량이 주차된 주차정보를 판단하고, 상기 판단된 주차정보를 상기 통신 네트워크를 통해 사용자 단말에 전송하고,
상기 촬영된 제1 식별정보로부터 상기 제2 주차위치 정보를 추출하지 못한 경우, 상기 적어도 하나의 카메라로부터 촬영된 복수의 영상 프레임들로부터 상기 각각의 영상 프레임에 포함된 제2 식별정보를 인식하고, 상기 인식된 제2 식별정보로부터 주차위치에 상응하는 텍스트인 상기 제2 주차위치 정보를 추출하고,
상기 차량의 주차 환경에 따라 상기 제1 주차 위치 정보 및 상기 제2 주차 위치 정보에 가중치를 다르게 설정하고, 상기 차량이 주차된 주차정보를 판단하는 것을 특징으로 하는 차량 단말을 이용한 주차위치안내 서비스 장치.
A vehicle terminal including a GPS receiver and a communication network;
at least one camera provided in a vehicle in conjunction with the vehicle terminal; and
contains a processor;
the processor,
When the vehicle is parked, first parking location information is acquired from the GPS receiver, and when the vehicle is parked, identification information displayed in a parking area is photographed from the at least one camera, and second information is obtained from the photographed first identification information. Extract parking location information, determine parking information in which the vehicle is parked based on the obtained first parking location information and the extracted second parking location information, and transmit the determined parking information to the user through the communication network. send to the terminal,
When the second parking location information is not extracted from the captured first identification information, recognizing second identification information included in each image frame from a plurality of image frames photographed by the at least one camera, Extracting the second parking location information, which is text corresponding to a parking location, from the recognized second identification information;
A parking location guidance service device using a vehicle terminal, characterized in that setting different weights to the first parking location information and the second parking location information according to the parking environment of the vehicle and determining parking information in which the vehicle is parked. .
삭제delete 삭제delete 제 9 항에 있어서,
상기 차량 단말은,
블랙박스인 것을 특징으로 하는 차량 단말을 이용한 주차위치안내 서비스 장치.
According to claim 9,
The vehicle terminal,
Parking location guidance service device using a vehicle terminal, characterized in that the black box.
제 9 항에 있어서,
상기 사용자 단말에서 소정의 애플리케이션이 실행된 경우, 상기 주차정보에 상응하는 위치표시가 지도상에 표시되는 것을 특징으로 하는 차량 단말을 이용한 주차위치안내 서비스 장치.
According to claim 9,
When a predetermined application is executed in the user terminal, a parking location guidance service device using a vehicle terminal, characterized in that a location display corresponding to the parking information is displayed on a map.
제 13 항에 있어서,
상기 주차정보는,
상기 차량의 주차 시, 상기 적어도 하나의 카메라로부터 촬영된 주차구역에 상응하는 영상정보를 포함하고, 상기 지도상에 상기 영상정보가 표시되는 것을 특징으로 하는 차량 단말을 이용한 주차위치안내 서비스 장치.
According to claim 13,
The parking information,
Parking location guidance service device using a vehicle terminal, characterized in that when the vehicle is parked, the image information corresponding to the parking area captured by the at least one camera is included and the image information is displayed on the map.
제 9 항에 있어서,
상기 사용자 단말에서 소정의 애플리케이션이 실행된 경우, 상기 사용자 단말에 상기 주차정보에 상응하는 주차건물, 주차위치, 주차시간 및 주차 요금 중 적어도 하나를 포함하는 텍스트 정보가 표시되는 것을 특징으로 하는 차량 단말을 이용한 주차위치안내 서비스 장치.

According to claim 9,
When a predetermined application is executed in the user terminal, text information including at least one of a parking building corresponding to the parking information, a parking location, a parking time, and a parking fee is displayed on the user terminal. Parking location guidance service device using.

KR1020200110595A 2020-08-31 2020-08-31 Method and apparatus for providing a parking location using vehicle's terminal KR102531722B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200110595A KR102531722B1 (en) 2020-08-31 2020-08-31 Method and apparatus for providing a parking location using vehicle's terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200110595A KR102531722B1 (en) 2020-08-31 2020-08-31 Method and apparatus for providing a parking location using vehicle's terminal

Publications (2)

Publication Number Publication Date
KR20220028941A KR20220028941A (en) 2022-03-08
KR102531722B1 true KR102531722B1 (en) 2023-05-12

Family

ID=80813033

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200110595A KR102531722B1 (en) 2020-08-31 2020-08-31 Method and apparatus for providing a parking location using vehicle's terminal

Country Status (1)

Country Link
KR (1) KR102531722B1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101474793B1 (en) * 2013-06-04 2014-12-24 이정우 System and method for storing parking location
KR20150011102A (en) * 2013-07-22 2015-01-30 현대모비스 주식회사 Parking position identifying method and apparatus thereof
KR101493353B1 (en) * 2014-12-31 2015-02-23 연세대학교 산학협력단 Parking Area Guidance System and Method
KR101844311B1 (en) * 2016-05-24 2018-04-02 동명대학교산학협력단 Parking Position Transmission Device

Also Published As

Publication number Publication date
KR20220028941A (en) 2022-03-08

Similar Documents

Publication Publication Date Title
US11619998B2 (en) Communication between autonomous vehicle and external observers
US20210122364A1 (en) Vehicle collision avoidance apparatus and method
US9747800B2 (en) Vehicle recognition notification apparatus and vehicle recognition notification system
US10924679B2 (en) Display device for vehicle and control method thereof
US10078966B2 (en) Warning method outside vehicle, driver assistance apparatus for executing method thereof and vehicle having the same
KR20170099188A (en) Driver Assistance Apparatus and Vehicle Having The Same
CN109643497A (en) The safety enhanced by augmented reality and shared data
US20210110184A1 (en) Apparatus and method for monitoring object in vehicle
CN112486160A (en) Vehicle remote indication system
KR102035135B1 (en) vehicle accident information providing system
JPWO2019181284A1 (en) Information processing equipment, mobile devices, and methods, and programs
JP2020095481A (en) Control device of vehicle and automatic driving system
WO2022138123A1 (en) Available parking space identification device, available parking space identification method, and program
CN113167592A (en) Information processing apparatus, information processing method, and information processing program
CN112534487A (en) Information processing apparatus, moving object, information processing method, and program
CN111094097A (en) Method and system for providing remote assistance for a vehicle
KR102433345B1 (en) Method and apparatus for providing information using vehicle's camera
KR20180080939A (en) Driving assistance apparatus and vehicle having the same
KR102531722B1 (en) Method and apparatus for providing a parking location using vehicle's terminal
KR102089955B1 (en) Robot for vehicle mounted on the vehcile and method for controlling the robot for vehicle
WO2020129656A1 (en) Information processing device, information processing method, and program
CN114207685A (en) Autonomous vehicle interaction system
EP4102323B1 (en) Vehicle remote control device, vehicle remote control system, vehicle remote control method, and vehicle remote control program
KR102563339B1 (en) Apparatus and method for detecting object of vehicle
US11458841B2 (en) Display control apparatus, display control method, and computer-readable storage medium storing program

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant