KR20210147410A - Method and apparatus for providing information using vehicle's camera - Google Patents

Method and apparatus for providing information using vehicle's camera Download PDF

Info

Publication number
KR20210147410A
KR20210147410A KR1020200064615A KR20200064615A KR20210147410A KR 20210147410 A KR20210147410 A KR 20210147410A KR 1020200064615 A KR1020200064615 A KR 1020200064615A KR 20200064615 A KR20200064615 A KR 20200064615A KR 20210147410 A KR20210147410 A KR 20210147410A
Authority
KR
South Korea
Prior art keywords
information
vehicle
camera
providing service
user terminal
Prior art date
Application number
KR1020200064615A
Other languages
Korean (ko)
Other versions
KR102433345B1 (en
Inventor
박창대
Original Assignee
주식회사대성엘텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사대성엘텍 filed Critical 주식회사대성엘텍
Priority to KR1020200064615A priority Critical patent/KR102433345B1/en
Publication of KR20210147410A publication Critical patent/KR20210147410A/en
Application granted granted Critical
Publication of KR102433345B1 publication Critical patent/KR102433345B1/en

Links

Images

Classifications

    • G06Q50/40
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/30Transportation; Communications
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/145Traffic control systems for road vehicles indicating individual free spaces in parking areas where the indication depends on the parking areas
    • G08G1/146Traffic control systems for road vehicles indicating individual free spaces in parking areas where the indication depends on the parking areas where the parking area is a limited parking space, e.g. parking garage, restricted space
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/42Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q2240/00Transportation facility access, e.g. fares, tolls or parking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Tourism & Hospitality (AREA)
  • Electromagnetism (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Transportation (AREA)
  • Operations Research (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Traffic Control Systems (AREA)

Abstract

According to an embodiment, an information providing service method using a vehicle camera photographs an identification code installed in a parking area of a collective building by at least one camera in a vehicle, extracts an identification image from the photographed identification code, extracts information corresponding to the photographed identification code If the extracted identification image is recognizable, and transmits the extracted information to a user terminal through a communication network.

Description

차량 카메라를 이용한 정보 제공 서비스 방법 및 장치{Method and apparatus for providing information using vehicle's camera}Information providing service method and apparatus using a vehicle camera

실시 예들은 차량 카메라를 이용한 정보 제공 서비스 방법 및 장치에 관한 것이다.Embodiments relate to an information providing service method and apparatus using a vehicle camera.

종래의 주차관제시스템은 대부분 번호판 촬영 및 인식, 주차장 진입시간, 주차시간 및 정산 등의 자동화에 주안점을 두고 있어 주차관리원이나 키오스크를 통한 한정된 범위에서만 한정된 주차 차량정보를 확인할 수 있고, 주차위치 확인 및 모바일 뱅킹에 의한 빠른 정산 등은 미흡한 실정이다.Most of the conventional parking control systems focus on automation of license plate shooting and recognition, parking lot entry time, parking time, and settlement, etc., so that parking vehicle information can be checked only in a limited range through a parking manager or kiosk, and parking location confirmation and Fast settlement by mobile banking is insufficient.

선행기술 1은 주차장에 설치되어 있는 QR코드를 스마트폰을 이용하여 촬영하고, 스마트폰의 주차관리 어플리케이션을 이용하여 차량의 위치확인, 차량상태 등을 실시간으로 확인할 수 있는 주차관제시스템을 개시하고 있다. 하지만, 이 경우, 운전자가 주차를 한 후에 직접 스마트 폰으로 QR코드를 촬영해야만 하는 번거로움이 여전히 존재한다.Prior art 1 discloses a parking control system that can take a QR code installed in a parking lot using a smartphone and check the location of the vehicle and the vehicle status in real time using the parking management application of the smartphone. . However, in this case, the inconvenience of having to photograph the QR code with a smart phone directly after the driver parks the car still exists.

[선행기술문헌번호][Prior art literature number]

선행기술 1: 한국공개특허 제2017-0000111호Prior art 1: Korea Patent Publication No. 2017-0000111

선행기술 2: 한국공개특허 제2020-0009301호Prior art 2: Korean Patent Publication No. 2020-0009301

실시 예들은 차량 카메라를 이용한 정보 제공 서비스 방법 및 장치를 제공하는 것이다. 또한, 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다. 해결하려는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.Embodiments provide an information providing service method and apparatus using a vehicle camera. Another object of the present invention is to provide a computer-readable recording medium in which a program for executing the method in a computer is recorded. The technical problem to be solved is not limited to the technical problems as described above, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 일 실시 예에 따른 차량 카메라를 이용한 정보 제공 서비스 방법은 차량 내의 적어도 하나의 카메라에 의해 집합건물의 주차구역에 구비된 식별코드를 촬영하는 단계; 상기 촬영된 식별 코드로부터 식별 이미지를 추출하고, 상기 추출된 식별 이미지를 인식가능한 경우, 상기 촬영된 식별 코드에 상응하는 정보를 추출하는 단계; 및 상기 추출된 정보를 통신 네트워크를 통해 사용자 단말에 전송하는 단계를 포함한다.As a technical means for achieving the above-described technical problem, the information providing service method using a vehicle camera according to an embodiment includes: photographing an identification code provided in a parking area of an assembly building by at least one camera in the vehicle; extracting an identification image from the photographed identification code, and when the extracted identification image is recognizable, extracting information corresponding to the photographed identification code; and transmitting the extracted information to a user terminal through a communication network.

상기 추출 단계는, 상기 추출된 식별 이미지의 크기 및 각도를 변환한 변환 식별 이미지를 생성하는 단계를 더 포함하고, 상기 변환 식별 이미지로부터 상기 식별 코드에 상응하는 정보를 추출하는 것을 특징으로 한다.The extracting step further comprises generating a converted identification image obtained by converting the size and angle of the extracted identification image, and extracting information corresponding to the identification code from the converted identification image.

상기 정보 제공 서비스 방법은 상기 변환 식별 이미지를 인식하지 못한 경우, 상기 주차구역에 진입하는 동안 촬영된 상기 주차구역 주위에 설치된 적어도 하나 이상의 다른 식별코드에 상응하는 다른 식별 이미지를 검색하는 단계; 및 상기 검색된 다른 식별 이미지를 상기 통신 네트워크를 통해 상기 사용자 단말에 전송하는 단계를 포함하고,If the information providing service method does not recognize the converted identification image, searching for another identification image corresponding to at least one other identification code installed around the parking area photographed while entering the parking area; and transmitting the retrieved other identification image to the user terminal through the communication network,

상기 사용자 단말에 설치된 애플리케이션을 통해 입력된 사용자 정보가 인증된 경우, 상기 사용자 단말에서, 상기 전송된 다른 식별 이미지를 기초로 정보 제공 서비스가 실행되는 것을 특징으로 한다.When user information input through an application installed in the user terminal is authenticated, the information providing service is executed in the user terminal based on the other transmitted identification image.

상기 추출된 정보는, 상기 차량이 주차된 주차구역에 대한 위치정보, 상기 집합건물에 대한 안내정보, 주차결제정보 및 상기 집합건물내에서의 예약 및 결제정보 중 적어도 하나를 포함하는 것을 특징으로 한다.The extracted information is characterized in that it includes at least one of location information for a parking area in which the vehicle is parked, guide information for the assembly building, parking payment information, and reservation and payment information within the assembly building. .

상기 카메라는, 상기 차량 내에 구비된 전방 카메라 및 후방 카메라를 포함하는 포함하고, 상기 식별코드는 상기 주차구역의 바닥에 구비된 QR코드이고,The camera includes a front camera and a rear camera provided in the vehicle, wherein the identification code is a QR code provided on the floor of the parking area,

상기 촬영 단계는, 상기 차량이 상기 주차구역에 후진으로 진입하면서 상기 후방 카메라로 상기 QR코드를 촬영하는 것을 특징으로 한다.The photographing step is characterized in that the QR code is photographed with the rear camera while the vehicle enters the parking area in reverse.

상기 정보 제공 서비스 방법은 상기 사용자 단말에 설치된 애플리케이션을 통해, 상기 추출된 정보를 기초로, 상기 차량이 주차된 위치, 주차시간 및 주차요금을 표시하고, 상기 사용자 단말을 통해 입력된 결제 정보를 기초로 상기 주차요금에 대한 결제를 이루어지는 것을 특징으로 한다.The information providing service method displays a location where the vehicle is parked, a parking time and a parking fee, based on the extracted information, through an application installed in the user terminal, and based on the payment information input through the user terminal It is characterized in that the payment for the parking fee is made.

다른 실시 예에 따른 차량 카메라를 이용한 정보 제공 서비스 장치는 차량 내의 적어도 하나의 카메라에 의해 집합건물의 주차구역에 구비된 식별코드를 촬영하는 촬영부; 및 상기 촬영된 식별 코드로부터 식별 이미지를 추출하고, 상기 추출된 식별 이미지를 인식가능한 경우, 상기 촬영된 식별 코드에 상응하는 정보를 추출하고,상기 추출된 정보를 통신 네트워크를 통해 사용자 단말에 전송하는 제어부를 포함한다.An information providing service apparatus using a vehicle camera according to another embodiment includes: a photographing unit for photographing an identification code provided in a parking area of an assembly building by at least one camera in the vehicle; and extracting an identification image from the photographed identification code, and when the extracted identification image is recognizable, extracting information corresponding to the photographed identification code, and transmitting the extracted information to a user terminal through a communication network includes a control unit.

상기 제어부는, 상기 추출된 식별 이미지의 크기 및 각도를 변환한 변환 식별 이미지를 생성하고, 상기 변환 식별 이미지로부터 상기 식별 코드에 상응하는 정보를 추출하는 것을 특징으로 한다.The controller generates a converted identification image obtained by converting the size and angle of the extracted identification image, and extracts information corresponding to the identification code from the converted identification image.

상기 정보 제공 서비스 장치는, 상기 차량 내에 탑재되고, 상기 사용자 단말과 근거리 통신 네트워크를 통해 접속된 것을 특징으로 한다.The information providing service apparatus is mounted in the vehicle and is connected to the user terminal through a short-range communication network.

또 다른 실시 예에 따른 정보 제공 서비스 장치는 적어도 하나 이상의 카메라; 통신부; 및 프로세서를 포함하고,An information providing service apparatus according to another embodiment includes at least one camera; communication department; and a processor;

상기 프로세서는, 상기 적어도 하나의 카메라를 통해 집합건물의 주차구역에 구비된 식별코드를 촬영하고, 상기 촬영된 식별 코드로부터 식별 이미지를 추출하고, 상기 추출된 식별 이미지를 인식가능한 경우, 상기 촬영된 식별 코드에 상응하는 정보를 추출하고, 상기 추출된 정보를 상기 통신부를 통해 사용자 단말에 전송하는 것을 특징으로 한다.The processor captures the identification code provided in the parking area of the collective building through the at least one camera, extracts an identification image from the photographed identification code, and when the extracted identification image is recognizable, the photographed Extracting information corresponding to the identification code, and transmitting the extracted information to the user terminal through the communication unit.

또 다른 실시 예에 따른 상기 정보 제공 서비스 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체를 포함한다. It includes a recording medium in which a program for executing the information providing service method according to another embodiment in a computer is recorded.

도 1은 차량의 내부 블록 도이다.
도 2는 도 1에 도시된 차량 운전 보조 시스템(ADAS)의 블록 도이다.
도 3은 일 실시 예에 따른 차량 카메라를 이용한 정보 제공 서비스 시스템의 개략 도 이다.
도 4 내지 6은 일 실시 예에 따른 차량 카메라를 이용한 정보 제공 서비스의 예시 도들이다.
도 7은 도 3에 도시된 사용자 단말의 개략 도이다.
도 8은 다른 실시 예에 따른 차량 카메라를 이용한 정보 제공 서비스 방법을 설명하기 위한 흐름 도이다.
1 is an internal block diagram of a vehicle;
FIG. 2 is a block diagram of the vehicle driving assistance system (ADAS) shown in FIG. 1 .
3 is a schematic diagram of an information providing service system using a vehicle camera according to an embodiment.
4 to 6 are exemplary views of an information providing service using a vehicle camera according to an embodiment.
7 is a schematic diagram of the user terminal shown in FIG.
8 is a flowchart illustrating an information providing service method using a vehicle camera according to another exemplary embodiment.

본 명세서에서 다양한 곳에 등장하는 "일부 실시 예에서" 또는 "일 실시 예에서" 등의 어구는 반드시 모두 동일한 실시 예를 가리키는 것은 아니다.Phrases such as “in some embodiments” or “in one embodiment” appearing in various places in this specification are not necessarily all referring to the same embodiment.

본 개시의 일부 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들의 일부 또는 전부는, 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 개시의 기능 블록들은 하나 이상의 마이크로프로세서들에 의해 구현되거나, 소정의 기능을 위한 회로 구성들에 의해 구현될 수 있다. 또한, 예를 들어, 본 개시의 기능 블록들은 다양한 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능 블록들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 개시는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “메커니즘”, “요소”, “수단” 및 “구성” 등과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다.Some embodiments of the present disclosure may be represented by functional block configurations and various processing steps. Some or all of these functional blocks may be implemented in various numbers of hardware and/or software configurations that perform specific functions. For example, the functional blocks of the present disclosure may be implemented by one or more microprocessors, or by circuit configurations for a given function. Also, for example, the functional blocks of the present disclosure may be implemented in various programming or scripting languages. The functional blocks may be implemented as an algorithm running on one or more processors. In addition, the present disclosure may employ prior art for electronic configuration, signal processing, and/or data processing, and the like. Terms such as “mechanism”, “element”, “means” and “configuration” may be used broadly and are not limited to mechanical and physical components.

또한, 도면에 도시된 구성 요소들 간의 연결 선 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것일 뿐이다. 실제 장치에서는 대체 가능하거나 추가된 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들에 의해 구성 요소들 간의 연결이 나타내어질 수 있다. In addition, the connecting lines or connecting members between the components shown in the drawings only exemplify functional connections and/or physical or circuit connections. In an actual device, a connection between components may be represented by various functional connections, physical connections, or circuit connections that are replaceable or added.

이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다.Hereinafter, the present disclosure will be described in detail with reference to the accompanying drawings.

도 1은 일 실시 예에 따른 차량의 내부 블록도이다. 1 is an internal block diagram of a vehicle according to an exemplary embodiment.

도 1을 참조하면, 차량(100)은, 통신부(110), 입력부(120), 센싱부(125) 메모리(130), 출력부(140), 차량 구동부(150), 차량 운전 보조 시스템(ADAS, 160), 제어부(170), 인터페이스부(180) 및 전원 공급부(190)를 포함할 수 있다.Referring to FIG. 1 , a vehicle 100 includes a communication unit 110 , an input unit 120 , a sensing unit 125 , a memory 130 , an output unit 140 , a vehicle driving unit 150 , and a vehicle driving assistance system (ADAS). , 160 ), a control unit 170 , an interface unit 180 , and a power supply unit 190 .

통신부(110)는, 근거리 통신 모듈, 위치 정보 모듈, 광통신 모듈 및 V2X 통신 모듈을 포함할 수 있다.The communication unit 110 may include a short-range communication module, a location information module, an optical communication module, and a V2X communication module.

입력부(120)는, 운전 조작 수단, 카메라, 마이크로폰 및 사용자 입력부를 포함할 수 있다.The input unit 120 may include a driving operation means, a camera, a microphone, and a user input unit.

운전 조작 수단은, 차량(100) 운전을 위한 사용자 입력을 수신한다. 운전 조작 수단은 조향 입력 수단, 쉬프트 입력 수단, 가속 입력 수단, 브레이크 입력 수단을 포함할 수 있다.The driving operation means receives a user input for driving the vehicle 100 . The driving operation means may include a steering input means, a shift input means, an acceleration input means, and a brake input means.

가속 입력 수단은, 사용자로부터 차량(100)의 가속을 위한 입력을 수신한다. 브레이크 입력 수단은, 사용자로부터 차량(100)의 감속을 위한 입력을 수신한다.The acceleration input means receives an input for acceleration of the vehicle 100 from a user. The brake input means receives an input for decelerating the vehicle 100 from a user.

카메라는, 이미지 센서와 영상 처리 모듈을 포함할 수 있다. 카메라는 이미지 센서(예를 들면, CMOS 또는 CCD)에 의해 얻어지는 정지영상 또는 동영상을 처리할 수 있다. 영상 처리 모듈은 이미지 센서를 통해 획득된 정지영상 또는 동영상을 가공하여, 필요한 정보를 추출하고, 추출된 정보를 제어부(170)에 전달할 수 있다.The camera may include an image sensor and an image processing module. The camera may process still images or moving images obtained by an image sensor (eg, CMOS or CCD). The image processing module may process a still image or a moving image obtained through an image sensor, extract necessary information, and transmit the extracted information to the controller 170 .

한편, 차량(100)은 차량 전방 영상을 촬영하는 전방 카메라, 차량 주변 영상을 촬영하는 어라운드 뷰 카메라 및 차량 후방 영상을 촬영하는 후방카메라를 포함할 수 있다. 각각의 카메라는 렌즈, 이미지 센서 및 프로세서를 포함할 수 있다. 프로세서는, 촬영되는 영상을 컴퓨터 처리하여, 데이터 또는 정보를 생성하고, 생성된 데이터 또는 정보를 제어부(170)에 전달할 수 있다. 카메라에 포함되는 프로세서는, 제어부(170)의 제어를 받을 수 있다. 실시 예에서, 카메라는 집합건물의 주차구역 또는 주차구역 주위, 예를 들면 주차구역의 바닥 또는 기둥에 부착된 QR코드를 촬영한다.Meanwhile, the vehicle 100 may include a front camera for photographing an image of the front of the vehicle, an around-view camera for photographing an image around the vehicle, and a rear camera for photographing an image of the rear of the vehicle. Each camera may include a lens, an image sensor and a processor. The processor may computer-process the captured image to generate data or information, and transmit the generated data or information to the controller 170 . The processor included in the camera may be controlled by the controller 170 . In an embodiment, the camera captures a QR code affixed to a parking area or around a parking area of an aggregation building, for example on a floor or pole of a parking area.

카메라는 스테레오 카메라를 포함할 수 있다. 이 경우, 카메라의 프로세서는, 스테레오 영상에서 검출된 디스페리티(disparity) 차이를 이용하여, 오브젝트와의 거리, 영상에서 검출된 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.The camera may include a stereo camera. In this case, the processor of the camera may detect a distance to an object, a relative speed to an object detected in the image, and a distance between a plurality of objects by using a disparity difference detected in the stereo image.

카메라는 TOF(Time of Flight) 카메라를 포함할 수 있다. 이 경우, 카메라는, 광원(예를 들면, 적외선 또는 레이저) 및 수신부를 포함할 수 있다. 이 경우, 카메라의 프로세서는, 광원에서 발신되는 적외선 또는 레이저가 오브젝트에 반사되어 수신될 때까지의 시간(TOF)에 기초하여 오브젝트와의 거리, 오브젝트와의 상대 속도, 복수의 오브젝트 간의 거리를 검출할 수 있다.The camera may include a Time of Flight (TOF) camera. In this case, the camera may include a light source (eg, infrared or laser) and a receiver. In this case, the processor of the camera detects the distance to the object, the relative speed to the object, and the distance between the plurality of objects based on the time (TOF) until the infrared or laser emitted from the light source is reflected by the object and received. can do.

한편, 후방 카메라는, 후방 번호판 또는 트렁크 또는 테일 게이트 스위치 부근에 배치될 수 있으나, 후방 카메라가 배치되는 위치는 이에 제한되지 않는다.Meanwhile, the rear camera may be disposed in the vicinity of the rear license plate or the trunk or tailgate switch, but the position where the rear camera is disposed is not limited thereto.

복수의 카메라에서 촬영된 각각의 이미지는, 카메라의 프로세서에 전달되고, 프로세서는 상기 각각의 이미지를 합성하여, 차량 주변 영상을 생성할 수 있다. 이때, 차량 주변 영상은 탑뷰 이미지 또는 버드 아이 이미지로 디스플레이부를 통해 표시될 수 있다.Each image captured by the plurality of cameras may be transmitted to a processor of the camera, and the processor may synthesize the respective images to generate an image around the vehicle. In this case, the image around the vehicle may be displayed through the display unit as a top view image or a bird's eye image.

센싱부(125)는, 차량(100)의 각종 상황을 센싱한다. 이를 위해, 센싱부(125)는, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 조도 센서, 레이더, 라이더 등을 포함할 수 있다.The sensing unit 125 senses various situations of the vehicle 100 . To this end, the sensing unit 125 includes a collision sensor, a wheel sensor, a speed sensor, an inclination sensor, a weight sensor, a heading sensor, a yaw sensor, and a gyro sensor. , position module, vehicle forward/reverse sensor, battery sensor, fuel sensor, tire sensor, steering sensor by steering wheel rotation, vehicle interior temperature sensor, vehicle interior humidity sensor, ultrasonic sensor, illuminance sensor, radar, lidar, etc. may include

이에 의해, 센싱부(125)는, 차량 충돌 정보, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도, 차량 외부 조도 등에 대한 센싱 신호를 획득할 수 있다.Accordingly, the sensing unit 125 may include vehicle collision information, vehicle direction information, vehicle location information (GPS information), vehicle angle information, vehicle speed information, vehicle acceleration information, vehicle inclination information, vehicle forward/reverse information, and battery information. , fuel information, tire information, vehicle lamp information, vehicle internal temperature information, vehicle internal humidity information, steering wheel rotation angle, and sensing signals for external illumination of the vehicle may be acquired.

메모리(130)는, 제어부(170)와 전기적으로 연결된다. 메모리(130)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(130)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있다. 메모리(130)는 제어부(170)의 처리 또는 제어를 위한 프로그램 등, 차량(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.The memory 130 is electrically connected to the control unit 170 . The memory 130 may store basic data for the unit, control data for operation control of the unit, and input/output data. The memory 130 may be various storage devices such as ROM, RAM, EPROM, flash drive, hard drive, etc. in terms of hardware. The memory 130 may store various data for the overall operation of the vehicle 100 , such as a program for processing or controlling the controller 170 .

출력부(140)는, 제어부(170)에서 처리된 정보를 출력하기 위한 것으로, 디스플레이부, 음향 출력부 및 햅틱 출력부를 포함할 수 있다.The output unit 140 is for outputting information processed by the control unit 170 , and may include a display unit, a sound output unit, and a haptic output unit.

디스플레이부는 제어부(170)에서 처리되는 정보를 표시할 수 있다. 예를 들면, 디스플레이부는 차량 관련 정보를 표시할 수 있다. 여기서, 차량 관련 정보는, 현재 차량의 상태를 알려주는 차량 상태 정보 또는 차량의 운행과 관련되는 차량 운행 정보를 포함할 수 있다. 예를 들어, 디스플레이부는 현재 차량의 속도(또는 속력), 주변차량의 속도(또는 속력) 및 현재 차량과 주변차량 간의 거리 정보를 표시할 수 있다.The display unit may display information processed by the control unit 170 . For example, the display unit may display vehicle-related information. Here, the vehicle-related information may include vehicle state information indicating the current state of the vehicle or vehicle operation information related to the operation of the vehicle. For example, the display unit may display the current speed (or speed) of the vehicle, the speed (or speed) of the surrounding vehicle, and distance information between the current vehicle and the surrounding vehicle.

한편, 디스플레이부는 운전자가 운전을 함과 동시에 차량 상태 정보 또는 차량 운행 정보를 확인할 수 있도록 클러스터(cluster)를 포함할 수 있다. 클러스터는 대시보드 위에 위치할 수 있다. 이 경우, 운전자는, 시선을 차량 전방에 유지한 채로 클러스터에 표시되는 정보를 확인할 수 있다.Meanwhile, the display unit may include a cluster so that the driver can check vehicle state information or vehicle operation information while driving. The cluster may be located above the dashboard. In this case, the driver may check the information displayed on the cluster while maintaining the gaze in front of the vehicle.

음향 출력부는 제어부(170)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 음향 출력부는 스피커 등을 구비할 수 있다.The sound output unit converts the electrical signal from the controller 170 into an audio signal and outputs the converted signal. To this end, the sound output unit may include a speaker or the like.

차량 구동부(150)는, 차량 각종 장치의 동작을 제어할 수 있다. 차량 구동부(150)는 동력원 구동부, 조향 구동부, 브레이크 구동부, 램프 구동부, 공조 구동부, 윈도우 구동부, 에어백 구동부, 썬루프 구동부 및 서스펜션 구동부를 포함할 수 있다.The vehicle driving unit 150 may control operations of various devices of the vehicle. The vehicle driving unit 150 may include a power source driving unit, a steering driving unit, a brake driving unit, a lamp driving unit, an air conditioning driving unit, a window driving unit, an airbag driving unit, a sunroof driving unit, and a suspension driving unit.

동력원 구동부는, 차량(100) 내의 동력원에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 화석 연료 기반의 엔진(미도시)이 동력원인 경우, 동력원 구동부는, 엔진에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 엔진의 출력 토크 등을 제어할 수 있다. 동력원 구동부가 엔진인 경우, 제어부(170)의 제어에 따라, 엔진 출력 토크를 제한하여 차량의 속도를 제한할 수 있다.The power source driving unit may perform electronic control of the power source in the vehicle 100 . For example, when a fossil fuel-based engine (not shown) is the power source, the power source driving unit may electronically control the engine. Thereby, the output torque of an engine, etc. can be controlled. When the power source driving unit is the engine, the speed of the vehicle may be limited by limiting the engine output torque under the control of the controller 170 .

브레이크 구동부는, 차량(100) 내의 브레이크 장치(brake apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 바퀴에 배치되는 브레이크의 동작을 제어하여, 차량(100)의 속도를 줄일 수 있다. 다른 예로, 좌측 바퀴와 우측 바퀴에 각각 배치되는 브레이크의 동작을 달리하여, 차량(100)의 진행 방향을 좌측, 또는 우측으로 조정할 수 있다.The brake driving unit may electronically control a brake apparatus (not shown) in the vehicle 100 . For example, the speed of the vehicle 100 may be reduced by controlling the operation of a brake disposed on the wheel. As another example, the moving direction of the vehicle 100 may be adjusted to the left or right by changing the operation of the brakes respectively disposed on the left wheel and the right wheel.

램프 구동부는, 차량 내, 외부에 배치되는 램프의 턴 온/턴 오프를 제어할 수 있다. 또한, 램프의 빛의 세기, 방향 등을 제어할 수 있다. 예를 들면, 방향 지시 램프, 브레이크 램프 등의 대한 제어를 수행할 수 있다.The lamp driver may control turning on/off of a lamp disposed inside or outside the vehicle. In addition, it is possible to control the intensity and direction of the light of the lamp. For example, control of a direction indicator lamp, a brake lamp, and the like may be performed.

제어부(170)는, 차량(100) 내의 각 유닛의 전반적인 동작을 제어할 수 있다. 제어부(170)는 ECU(Electronic Contol Unit)로 명명될 수 있다. 상술한 사고 유무 판단 장치는 제어부(170)에 의해 구동될 수 있다.The controller 170 may control the overall operation of each unit in the vehicle 100 . The control unit 170 may be referred to as an Electronic Control Unit (ECU). The above-described accident determination apparatus may be driven by the control unit 170 .

제어부(170)는, 하드웨어적으로, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.The control unit 170, in hardware, ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays), processors ( processors), controllers, micro-controllers, microprocessors, and other electrical units for performing other functions may be implemented using at least one.

일 실시 예에서 제어부(170)는 카메라를 통해 촬영된 식별 코드로부터 식별 이미지를 추출하고, 추출된 식별 이미지를 인식가능한 경우, 촬영된 식별 코드에 상응하는 정보를 추출하고, 추출된 정보를 통신 네트워크를 통해 사용자 단말에 전송한다. 여기서, 추출된 정보는 차량이 주차된 주차구역에 대한 위치정보, 집합건물에 대한 안내정보, 주차결제정보, 또는 집합건물내에서의 예약 및 결제정보 등을 포함할 수 있다.In one embodiment, the controller 170 extracts an identification image from the identification code photographed through the camera, and when the extracted identification image is recognizable, extracts information corresponding to the photographed identification code, and transmits the extracted information to the communication network transmitted to the user terminal through Here, the extracted information may include location information for a parking area in which the vehicle is parked, guide information for an assembly building, parking payment information, or reservation and payment information within the assembly building.

인터페이스부(180)는, 차량(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행할 수 있다. 예를 들면, 인터페이스부(180)는 이동 단말기(미도시)와 연결 가능한 포트를 구비할 수 있고, 상기 포트를 통해, 이동 단말기(미도시)와 연결할 수 있다. 이 경우, 인터페이스부(180)는 이동 단말기와 데이터를 교환할 수 있다.The interface unit 180 may serve as a passage with various types of external devices connected to the vehicle 100 . For example, the interface unit 180 may have a port connectable to a mobile terminal (not shown), and may connect to a mobile terminal (not shown) through the port. In this case, the interface unit 180 may exchange data with the mobile terminal.

전원 공급부(190)는, 제어부(170)의 제어에 따라, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원 공급부(190)는, 차량 내부의 배터리(미도시) 등으로부터 전원을 공급받을 수 있다.The power supply unit 190 may supply power required for the operation of each component under the control of the control unit 170 . In particular, the power supply unit 190 may receive power from a battery (not shown) inside the vehicle.

도 2는 도 1에 도시된 차량 운전 보조 시스템(ADAS)의 블록 도이다.FIG. 2 is a block diagram of the vehicle driving assistance system (ADAS) shown in FIG. 1 .

ADAS(200)는, 편의, 안전 제공을 위해 운전자를 보조 하는 차량 운전 보조 시스템이다.The ADAS 200 is a vehicle driving assistance system that assists the driver to provide convenience and safety.

ADAS(200)는, 자동 비상 제동 모듈(이하, AEB: Autonomous Emergency Braking)(210), 전방 충돌 회피 모듈 (이하, FCW: Foward Collision Warning)(211), 차선 이탈 경고 모듈 (이하, LDW: Lane Departure Warning)(212), 차선 유지 보조 모듈 (이하, LKA: Lane Keeping Assist)(213), 속도 지원 시스템 모듈 (이하, SAS: Speed Assist System)(214), 교통 신호 검출 모듈 (TSR: Traffic Sign Recognition)(215), 적응형 상향등 제어 모듈 (이하, HBA: High Beam Assist)(216), 사각 지대 감시 모듈 (이하, BSD: Blind Spot Detection)(217), 자동 비상 조향 모듈 (이하, AES: Autonomous Emergency Steering)(218), 커브 속도 경고 시스템 모듈 (이하, CSWS: Curve Speed Warning System)(219), 적응 순향 제어 모듈 (이하, ACC: Adaptive Cruise Control)(220), 스마트 주차 시스템 모듈 (이하, SPAS: Smart Parking Assist System)(221), 교통 정체 지원 모듈 (이하, TJA: Traffic Jam Assist)(222) 및 어라운드 뷰 모니터 모듈 (이하, AVM: Around View Monitor)(223)을 포함할 수 있다.The ADAS 200 includes an automatic emergency braking module (hereinafter, AEB: Autonomous Emergency Braking) 210, a forward collision avoidance module (hereinafter, FCW: Forward Collision Warning) 211, a lane departure warning module (hereinafter, LDW: Lane). Departure Warning) (212), Lane Keeping Assist Module (LKA: Lane Keeping Assist) (213), Speed Assist System Module (SAS: Speed Assist System) (214), Traffic Signal Detection Module (TSR: Traffic Sign) Recognition) (215), adaptive high beam control module (hereafter, HBA: High Beam Assist) (216), blind spot monitoring module (hereafter, BSD: Blind Spot Detection) (217), automatic emergency steering module (hereafter, AES: Autonomous Emergency Steering) (218), Curve Speed Warning System Module (hereinafter, CSWS: Curve Speed Warning System) (219), Adaptive Cruise Control Module (hereinafter, ACC: Adaptive Cruise Control) (220), Smart Parking System Module (hereafter) , SPAS: Smart Parking Assist System) 221 , a traffic jam assist module (hereinafter, TJA: Traffic Jam Assist) 222 , and an around view monitor module (hereinafter, AVM: Around View Monitor) 223 . .

상기 각각의 ADAS 모듈(210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223)들은 차량 운전 보조 기능 제어를 위한 프로세서를 포함할 수 있다.Each of the ADAS modules 210 , 211 , 212 , 213 , 214 , 215 , 216 , 217 , 218 , 219 , 220 , 221 , 222 , 223 may include a processor for controlling a vehicle driving assistance function.

상기 각각의 ADAS 모듈(210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223)에 포함되는 프로세서는, 제어부(270)의 제어를 받을 수 있다.A processor included in each of the ADAS modules 210 , 211 , 212 , 213 , 214 , 215 , 216 , 217 , 218 , 219 , 220 , 221 , 222 , 223 may be controlled by the controller 270 . .

상기 각각의 ADAS 모듈(210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223) 프로세서는, 하드웨어적으로, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.Each of the ADAS modules 210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223 processor is, in hardware, ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays), processors, controllers, micro-controllers, microprocessors ( microprocessors) and may be implemented using at least one of electrical units for performing other functions.

AEB(210)는, 검출된 오브젝트와의 충돌을 방지하기 위해, 자동 제동을 제어하는 모듈이다. FCW(211)는, 차량 전방 오브젝트와의 충돌을 방지하기 위해, 경고가 출력되도록 제어하는 모듈이다. LDW(212)는, 주행 중 차선 이탈 방지를 위해, 경고가 출력되도록 제어하는 모듈이다. LKA(213)는, 주행 중 주행 차선 유지하도록 제어하는 모듈이다. SAS(214)는, 설정된 속도 이하로 주행하도록 제어하는 모듈이다. TSR(215)은, 주행 중 교통 신호를 감지하여 감지된 교통 신호를 기초로 정보를 제공하는 모듈이다. HBA(216)는, 주행 상황에 따라 상향등의 조사 범위 또는 조사량을 제어하는 모듈이다. BSD(217)는, 주행 중, 운전자 시야 밖의 오브젝트를 검출하고, 검출 정보를 제공하는 모듈이다. AES(218)는, 비상시 조향을 자동으로 수행하는 모듈이다. CSWS(219)는, 커브 주행시 기 설정 속도 이상으로 주행하는 경우 경로를 출력하도록 제어하는 모듈이다. ACC(220)는, 선행 차량을 추종하여 주행하도록 제어하는 모듈이다. SPAS(221)는, 주차 공간을 검출하고, 주차 공간에 주차하도록 제어하는 모듈이다. TJA(222)는, 교통 정체시 자동 운행하도록 제어하는 모듈이다. AVM(223)은, 차량 주변 영상을 제공하고, 차량 주변을 모니터링하도록 제어하는 모듈이다. The AEB 210 is a module for controlling automatic braking in order to prevent a collision with a detected object. The FCW 211 is a module that controls to output a warning in order to prevent a collision with an object in front of the vehicle. The LDW 212 is a module that controls to output a warning to prevent lane departure while driving. The LKA 213 is a module that controls to maintain a driving lane while driving. The SAS 214 is a module that controls the vehicle to travel at a set speed or less. The TSR 215 is a module that detects a traffic signal while driving and provides information based on the detected traffic signal. The HBA 216 is a module that controls the irradiation range or irradiation amount of the high beam according to the driving situation. The BSD 217 is a module that detects an object outside the driver's field of view while driving and provides detection information. The AES 218 is a module that automatically performs steering in an emergency. The CSWS 219 is a module that controls to output a route when driving at a speed higher than a preset speed during curve driving. The ACC 220 is a module that controls to follow and drive a preceding vehicle. The SPAS 221 is a module that detects a parking space and controls to park in the parking space. The TJA 222 is a module that controls to automatically operate in case of traffic jam. The AVM 223 is a module that provides an image around the vehicle and controls to monitor the surroundings of the vehicle.

ADAS(200)는, 입력부(230) 또는 센싱부(235)에서 획득한 데이터를 기초로, 각각의 차량 운전 보조 기능을 수행하기 위한 제어 신호를 출력부(250) 또는 차량 구동부(260)에 제공할 수 있다. ADAS(200)는, 상기 제어 신호를, 출력부(250) 또는 차량 구동부(260)에 차량 내부 네트워크 통신(예를 들면, CAN)을 통해, 직접 출력할 수 있다. 또는, ADAS(200)는, 상기 제어 신호를, 제어부(270)를 거쳐, 출력부(250) 또는 차량 구동부(260)에 출력할 수 있다.The ADAS 200 provides a control signal for performing each vehicle driving assistance function to the output unit 250 or the vehicle driving unit 260 based on the data obtained from the input unit 230 or the sensing unit 235 . can do. The ADAS 200 may directly output the control signal to the output unit 250 or the vehicle driving unit 260 through in-vehicle network communication (eg, CAN). Alternatively, the ADAS 200 may output the control signal to the output unit 250 or the vehicle driving unit 260 via the control unit 270 .

도 3은 일 실시 예에 따른 차량 카메라를 이용한 정보 제공 서비스 시스템의 개략 도 이다.3 is a schematic diagram of an information providing service system using a vehicle camera according to an embodiment.

도 3을 참조하면, 차량 카메라를 이용한 정보 제공 서비스 장치(300), 통신 네트워크(340) 및 사용자 단말(350)을 포함한다. 정보 제공 서비스 장치(300)는 도 1 및 2를 참조하여 설명한 ADAS일 수 있으나, 그 명칭에 한정되지 않고, 블랙박스, 내비게이션 장치, IVI 기기, 텔레매틱스 단말기일 수 있다. Referring to FIG. 3 , it includes an information providing service device 300 using a vehicle camera, a communication network 340 , and a user terminal 350 . The information providing service device 300 may be the ADAS described with reference to FIGS. 1 and 2 , but is not limited thereto, and may be a black box, a navigation device, an IVI device, or a telematics terminal.

정보 제공 서비스 장치(300)는 촬영부(310), 프로세서(320) 및 통신부(330)를 포함한다.The information providing service apparatus 300 includes a photographing unit 310 , a processor 320 , and a communication unit 330 .

촬영부(310)는 차량 내의 적어도 하나의 카메라에 의해 집합건물의 주차구역에 구비된 식별코드를 촬영한다. 여기서, 카메라는 전방 또는 후방 카메라일 수 있다. 집합건물은 아파트, 백화점, 쇼핑몰 등 지하 수개 층에 수백 내지 수천대의 차량을 주차할 수 있는 건물을 의미한다. 식별코드는 QR 코드일 수 있다. QR코드(Quick Response code)는 흑백 격자무늬 패턴으로 정보를 나타내는 매트릭스 형식의 바코드(bar code)로서, 기존의 바코드는 기본적으로 가로배열로서 최대 20여 자의 숫자정보만 넣을 수 있는 1차원적 구성이지만, QR코드는 가로, 세로를 활용하여 숫자는 최대 7,089자, 문자는 최대 4,296자, 한자도 최대 1,817자 정도를 기록할 수 있는 2차원적 구성이다. QR코드에는 긴 문장의 인터넷 주소(URL)나 사진 및 동영상 정보, 지도 정보, 명함 정보 등을 모두 담을 수 있다. 최근에는 QR코드가 기업의 중요한 홍보, 마케팅 수단으로 통용되면서 온/오프라인을 걸쳐 폭넓게 활용되고 있다.The photographing unit 310 photographs the identification code provided in the parking area of the assembly building by at least one camera in the vehicle. Here, the camera may be a front or rear camera. A collective building refers to a building that can park hundreds or thousands of vehicles on several underground floors, such as apartments, department stores, and shopping malls. The identification code may be a QR code. A QR code (Quick Response code) is a matrix-type bar code that displays information in a black and white grid pattern. , QR code is a two-dimensional configuration that can record up to 7,089 numbers, 4,296 characters, and 1,817 Chinese characters by using horizontal and vertical characters. A QR code can contain a long sentence Internet address (URL), photo and video information, map information, business card information, etc. Recently, QR codes have been widely used both online and offline as they are commonly used as an important promotional and marketing tool for companies.

집합건물의 주차장을 통해 제공하는 QR코드를 통해, QR코드를 인식하면 연동된 휴대폰 또는 미리 설정된 휴대전화의 APP에 현재 주차된 위치가 표시되고 주차시간 및 주차요금, 무료주차 잔여시간 등이 APP상에서 확인 가능하며 주차요금 정산 또한 APP으로 결제 서비스를 제공할 수 있다. 또한, 검색 또는 즐겨찾기로 해당 주차장의 현재 잔여 주차석을 확인할 수 있다. 또한, 아파트의 경우, 단수 , 절전, 엘리베이터 점검 등의 공지부터 행사일정등의 공지 정보를 제공할 수도 있다. 대형할인매장의 경우, 할인품목 전단, 사용가능한 쿠폰, 매장위치 찾기 등의 기능을 추가할 수 있다. 영화관의 경우, 스낵 및 음료 예약 구매 및 사용가능 쿠폰 제공 서비스를 포함할 수 있다. 숙박업소의 경우, 무인결제시스템으로 현재 숙박가능 숙소 확인 및 결제, 사용가능 쿠폰을 제공할 수 있으며, 스마트 폰으로 스마트키를 제공하여 키오스크 또는 인포메이션에서의 입소절차 없이 사용가능하도록 구현할 수도 있다.If the QR code is recognized through the QR code provided through the parking lot of the collective building, the currently parked location is displayed on the APP of the linked mobile phone or preset mobile phone, and the parking time, parking fee, and remaining time for free parking are displayed on the APP. It can be checked, and parking fee settlement can also be provided through the APP. In addition, you can check the remaining parking spaces in the corresponding parking lot by searching or favorites. In addition, in the case of an apartment, it is also possible to provide notice information such as event schedules, etc. In the case of large discount stores, functions such as flyers for discount items, available coupons, and store location search can be added. In the case of a movie theater, a service for pre-purchasing snacks and drinks and providing usable coupons may be included. In the case of lodging establishments, the unmanned payment system can provide confirmation, payment, and usable coupons for currently available accommodations, and a smart key can be provided with a smart phone so that it can be used without an admission procedure at a kiosk or information.

프로세서(320)는 촬영된 식별 코드로부터 식별 이미지를 추출하고, 추출된 식별 이미지를 인식가능한 경우, 촬영된 식별 코드에 상응하는 정보를 추출하고,상기 추출된 정보를 통신 네트워크(340)를 통해 사용자 단말(350)에 전송한다. 또한, 프로세서(320)는 추출된 식별 이미지의 크기 및 각도를 변환한 변환 식별 이미지를 생성하고, 변환 식별 이미지로부터 식별 코드에 상응하는 정보를 추출할 수도 있다. 도 4a 및 4b에 도시된 것처럼, 차량(400)이 주차구역(26번 위치)에 후진으로 주차하면서 주차구역의 바닥에 위치한 QR 코드(410)를 촬영하게 된다. 여기서, 도 5에 도시된 것처럼, 차량의 운전자가 후진 변속하는 경우, 자동으로 후방카메라가 후방 구역을 촬영하게 되고, 바닥에 구비된 QR코드(510)를 자동으로 촬영하게 된다. 이 경우, 도 6에 도시된 것처럼, 바닥에 위치된 QR코드를 촬영하는 경우, 비스듬하게 찌그러진 형태의 QR 코드 영상(610)이 촬영되게 되고, QR 코드를 식별하기가 어려울 수 있다. 이 경우, 프로세서(320)에서, 영상 변환 알고리즘, 예를 들면 어파인 변환을 통해 픽셀 값은 그대로 두고, 영상의 크기와 각도 변환을 통해 찌그러진 QR 코드 영상(610)을 정사각형 형태의 QR 코드 영상(620)으로 변환처리함으로써, QR 코드 인식률을 높일 수 있다.The processor 320 extracts the identification image from the photographed identification code, and when the extracted identification image is recognizable, extracts information corresponding to the photographed identification code, and transmits the extracted information to the user through the communication network 340 It is transmitted to the terminal 350 . In addition, the processor 320 may generate a converted identification image obtained by converting the size and angle of the extracted identification image, and extract information corresponding to the identification code from the converted identification image. As shown in Figures 4a and 4b, while the vehicle 400 is parked in reverse in the parking area (position 26), the QR code 410 located on the floor of the parking area is photographed. Here, as shown in FIG. 5 , when the driver of the vehicle shifts backward, the rear camera automatically takes a picture of the rear area, and the QR code 510 provided on the floor is automatically taken. In this case, as shown in FIG. 6 , when photographing a QR code located on the floor, an obliquely distorted QR code image 610 is photographed, and it may be difficult to identify the QR code. In this case, in the processor 320, the image conversion algorithm, for example, the pixel value through an affine conversion, and the QR code image 610 distorted through the size and angle conversion of the image through the square-shaped QR code image ( 620), it is possible to increase the QR code recognition rate.

여기서, 촬영된 식별 코드를 장치(300)의 프로세서(320)에서 변환하는 것으로 설명하였지만, 촬영된 식별코드에 상응하는 식별이미지를 사용자 단말(350)에 전송하고, 사용자 단말(350)에서 식별이미지의 크기 및 각도를 변환할 수도 있다.Here, although it has been described as converting the photographed identification code in the processor 320 of the device 300, an identification image corresponding to the photographed identification code is transmitted to the user terminal 350, and the identification image in the user terminal 350 It is also possible to transform the size and angle of .

또한, 프로세서(320)는 변환 식별 이미지를 인식하지 못한 경우, 주차구역에 진입하는 동안 촬영된 주차구역 주위에 설치된 적어도 하나 이상의 다른 식별코드에 상응하는 다른 식별 이미지를 검색하고, 검색된 다른 식별 이미지를 통신 네트워크(340)를 통해 사용자 단말(350)에 전송할 수 있다. 예를 들면, 주차구역의 바닥에 QR 코드가 배치되지 않거나, 촬영하기 어려운 경우, 또는 변환하여도 식별 가능하지 못한 경우에는, 주차장의 주차구역에 진입하면서 자동으로 촬영되어 있는 다른 식별코드가 있는지를 검색하여 정보로서 이용할 수도 있다. In addition, when the processor 320 does not recognize the converted identification image, it searches for another identification image corresponding to at least one other identification code installed around the parking area photographed while entering the parking area, and retrieves the other identification image. may be transmitted to the user terminal 350 through the communication network 340 . For example, if the QR code is not placed on the floor of the parking area, is difficult to photograph, or cannot be identified even after conversion, check whether there is another identification code that is automatically photographed while entering the parking area of the parking lot. It can also be searched and used as information.

또한, 사용자 단말(350)에 설치된 애플리케이션을 통해 입력된 사용자 정보가 인증된 경우, 사용자 단말(350)에서, 전송된 다른 식별 이미지를 기초로 정보 제공 서비스가 실행될 수 있다. In addition, when user information input through an application installed in the user terminal 350 is authenticated, the information providing service may be executed in the user terminal 350 based on another transmitted identification image.

통신부(330)는 통신 네트워크(340)를 통해 사용자 단말(350)과 데이터를 송수신한다. 통신 네트워크(340)는 차량 내 운전자가 소지한 사용자 단말(350)과 근거리 통신, 예를 들면 블루투스, 지그비, NFC 등일 수 있으나, 이에 한정되지 않는다.The communication unit 330 transmits and receives data to and from the user terminal 350 through the communication network 340 . The communication network 340 may be short-range communication with the user terminal 350 carried by the driver in the vehicle, for example, Bluetooth, ZigBee, NFC, etc., but is not limited thereto.

사용자 단말(350)은 장치(300)로부터 추출 정보를 수신받아, 해당 애플리케이션을 실행하여, 추출 정보를 이용하여 주차관련정보, 예를 들면 주차위치 등을 확인할 수 있으며, 주차요금 등을 결제할 수도 있다. The user terminal 350 receives the extracted information from the device 300, executes the application, and uses the extracted information to check parking-related information, for example, a parking location, etc., and may pay a parking fee. have.

도 7은 도 3에 도시된 사용자 단말의 개략 도이다.7 is a schematic diagram of the user terminal shown in FIG.

도 7을 참고하면, 사용자 단말은 제어부(700), 통신부(710) 및 출력부(740)를 포함할 수 있다. 그러나 도시된 구성요소 모두가 필수구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 사용자 단말이 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 사용자 단말은 구현될 수 있다.Referring to FIG. 7 , the user terminal may include a control unit 700 , a communication unit 710 , and an output unit 740 . However, not all illustrated components are essential components. The user terminal may be implemented by more elements than the illustrated elements, and the user terminal may be implemented by fewer elements than that.

예를 들어 일 실시 예에 따른 사용자 단말은, 제어부(700), 통신부(710) 및 출력부(730) 이외에 사용자 입력부(740), 센싱부(750), A/V 입력부(760) 및 메모리(770)를 더 포함할 수도 있다. For example, the user terminal according to an embodiment includes a user input unit 740 , a sensing unit 750 , an A/V input unit 760 and a memory ( ) in addition to the control unit 700 , the communication unit 710 and the output unit 730 . 770) may be further included.

이하 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the above components will be described in turn.

제어부(700)는 통상적으로 사용자 단말의 전반적인 동작을 제어한다. 예를 들어, 제어부(700)는, 메모리(770)에 저장된 프로그램들을 실행함으로써, 통신부(710), 출력부(730), 사용자 입력부(740), 센싱부(750), A/V 입력부(760) 및 메모리(770) 등을 전반적으로 제어할 수 있다. The controller 700 generally controls the overall operation of the user terminal. For example, the control unit 700 executes programs stored in the memory 770 , and thus the communication unit 710 , the output unit 730 , the user input unit 740 , the sensing unit 750 , and the A/V input unit 760 . ) and the memory 770 can be controlled in general.

제어부(700)는, 카메라 센서 및 내장 플래시를 통해 피검사자에 대한 복수의 영상들을 획득하면서, 획득된 복수의 영상들 각각에 시간 정보를 기록하고, 복수의 영상들로부터 맥파 신호를 추출하고, 기록된 시간 정보를 이용하여 추출된 맥파 신호를 보정하고, 보정된 맥파 신호로부터 심박변이도를 계산하고, 계산된 심박변이도를 이용하여 스트레스 지표를 측정할 수 있다.The controller 700, while acquiring a plurality of images of the subject through a camera sensor and a built-in flash, records time information in each of the plurality of acquired images, extracts a pulse wave signal from the plurality of images, and records the The extracted pulse wave signal may be corrected using the time information, a heart rate variability may be calculated from the corrected pulse wave signal, and a stress index may be measured using the calculated heart rate variability.

실시 예에서는, 사용자 단말 자체의 프로세서에서 스트레스 지표를 측정하는 것으로 설명하였지만, 이에 한정되지 않고, 사용자 단말에서는 손가락 영상만을 획득하고, 영상 데이터를 외부 서버(미도시)에 전송하여 스트레스 지표를 계산할 수도 있음은 물론이다.In the embodiment, it has been described that the stress index is measured by the processor of the user terminal itself, but the present invention is not limited thereto, and the user terminal acquires only a finger image and transmits the image data to an external server (not shown) to calculate the stress index. of course there is

통신부(710)는 사용자 단말과 서버(미도시)간에 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신부(710)는, 근거리 통신부(711), 이동 통신부(712) 및 방송 수신부(713)를 포함할 수 있다. The communication unit 710 may include one or more components that allow communication between a user terminal and a server (not shown). For example, the communication unit 710 may include a short-range communication unit 711 , a mobile communication unit 712 , and a broadcast receiving unit 713 .

근거리 통신부(short-range wireless communication unit)(721)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. 이동 통신부(712)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. 방송 수신부(713)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 구현 예에 따라서 사용자 단말이 방송 수신부(713)를 포함하지 않을 수도 있다. Short-range wireless communication unit 721, Bluetooth communication unit, BLE (Bluetooth Low Energy) communication unit, short-range wireless communication unit (Near Field Communication unit), WLAN (Wi-Fi) communication unit, Zigbee (Zigbee) communication unit, infrared ( It may include an IrDA, infrared Data Association) communication unit, a Wi-Fi Direct (WFD) communication unit, an ultra wideband (UWB) communication unit, an Ant+ communication unit, and the like, but is not limited thereto. The mobile communication unit 712 transmits/receives wireless signals to and from at least one of a base station, an external terminal, and a server on a mobile communication network. Here, the wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call signal, or a text/multimedia message. The broadcast receiving unit 713 receives a broadcast signal and/or broadcast-related information from the outside through a broadcast channel. The broadcast channel may include a satellite channel and a terrestrial channel. According to an implementation example, the user terminal may not include the broadcast receiver 713 .

출력부(730)는 스트레스 지표와 관련된 정보를 디스플레이한다. The output unit 730 displays information related to the stress index.

출력부(730)는 오디오 신호 또는 비디오 신호 또는 진동 신호의 출력을 위한 것으로, 이에는 디스플레이부(731), 음향 출력부(732) 및 진동 모터(733) 등이 포함될 수 있다. 디스플레이부(731)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 포함될 수 있으나 이에 한정되는 것은 아니다.The output unit 730 is for outputting an audio signal, a video signal, or a vibration signal, and may include a display unit 731 , a sound output unit 732 , a vibration motor 733 , and the like. The display unit 731 includes a key pad, a dome switch, a touch pad (contact capacitive method, pressure resistance film method, infrared sensing method, surface ultrasonic conduction method, integral tension measurement method, piezo effect method, etc.), a jog wheel, a jog switch, etc. may be included, but is not limited thereto.

한편, 디스플레이부(731)는 터치패드가 레이어 구조를 이루어 터치 스크린으로 구성될 수 있다. 디스플레이부(731)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 그리고 사용자 단말의 구현 형태에 따라 사용자 단말은 디스플레이부(731)를 2개 이상 포함할 수도 있다. Meanwhile, the display unit 731 may be configured as a touch screen by forming a layer structure of a touch pad. The display unit 731 includes a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, a three-dimensional display ( 3D display) and electrophoretic display (electrophoretic display) may include at least one. In addition, depending on the implementation form of the user terminal, the user terminal may include two or more display units 731 .

음향 출력부(732)는 통신부(710)로부터 수신되거나 메모리(770)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(731)는 사용자 단말에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(732)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The sound output unit 732 outputs audio data received from the communication unit 710 or stored in the memory 770 . Also, the sound output unit 731 outputs a sound signal related to a function (eg, a call signal reception sound, a message reception sound, and a notification sound) performed in the user terminal. The sound output unit 732 may include a speaker, a buzzer, and the like.

진동 모터(733)는 진동 신호를 출력할 수 있다. 예를 들어, 진동 모터(733)는 오디오 데이터 또는 비디오 데이터(예컨대, 호신호 수신음, 메시지 수신음 등)의 출력에 대응하는 진동 신호를 출력할 수 있다. 또한, 진동 모터(733)는 터치스크린에 터치가 입력되는 경우 진동 신호를 출력할 수도 있다.The vibration motor 733 may output a vibration signal. For example, the vibration motor 733 may output a vibration signal corresponding to the output of audio data or video data (eg, a call signal reception sound, a message reception sound, etc.). Also, the vibration motor 733 may output a vibration signal when a touch is input to the touch screen.

사용자 입력부(740)는, 사용자가 사용자 단말(110)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력부(740)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다.The user input unit 740 means a means for a user to input data for controlling the user terminal 110 . For example, the user input unit 740 includes a keypad, a dome switch, and a touch pad (contact capacitive method, pressure resistance film method, infrared sensing method, surface ultrasonic conduction method, integral type). There may be a tension measurement method, a piezo effect method, etc.), a jog wheel, a jog switch, and the like, but is not limited thereto.

센싱부(750)는, 사용자 단말의 상태 또는 사용자 단말 주변의 상태를 감지하고, 감지된 정보를 제어부(700)로 전달할 수 있다. The sensing unit 750 may detect a state of the user terminal or a state around the user terminal, and transmit the sensed information to the controller 700 .

한편, 센싱부(750)는, 지자기 센서(Magnetic sensor)(751), 가속도 센서(Acceleration sensor)(752), 온/습도 센서(753), 적외선 센서(754), 자이로스코프 센서(755), 위치 센서(예컨대, GPS)(756), 기압 센서(757), 근접 센서(758), 및 RGB 센서(illuminance sensor)(759) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.Meanwhile, the sensing unit 750 includes a magnetic sensor 751, an acceleration sensor 752, a temperature/humidity sensor 753, an infrared sensor 754, a gyroscope sensor 755, It may include at least one of a location sensor (eg, GPS) 756 , a barometric pressure sensor 757 , a proximity sensor 758 , and an illuminance sensor 759 , but is not limited thereto. Since a function of each sensor can be intuitively inferred from the name of a person skilled in the art, a detailed description thereof will be omitted.

A/V(Audio/Video) 입력부(760)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(761)와 마이크로폰(762) 등이 포함될 수 있다. 카메라(761)는 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 제어부(700) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다. The A/V (Audio/Video) input unit 760 is for inputting an audio signal or a video signal, and may include a camera 761 , a microphone 762 , and the like. The camera 761 may obtain an image frame such as a still image or a moving picture through an image sensor in a video call mode or a shooting mode. The image captured through the image sensor may be processed through the controller 700 or a separate image processing unit (not shown).

카메라(761)에서 처리된 화상 프레임은 메모리(770)에 저장되거나 통신부(710)를 통하여 외부로 전송될 수 있다. 카메라(761)는 사용자 단말의 구성에 따라 2개 이상이 구비될 수도 있다. 실시 예에 따른 카메라(761)는 도 6에 도시된 것처럼, 후면에 구비되어 있을 수 있다.The image frame processed by the camera 761 may be stored in the memory 770 or transmitted to the outside through the communication unit 710 . Two or more cameras 761 may be provided according to the configuration of the user terminal. The camera 761 according to the embodiment may be provided on the rear side as shown in FIG. 6 .

마이크로폰(762)은, 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(762)은 외부 디바이스 또는 화자로부터 음향 신호를 수신할 수 있다. 마이크로폰(762)은 외부의 음향 신호를 입력받는 과정에서 발생 되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다. The microphone 762 receives an external sound signal and processes it as electrical voice data. For example, the microphone 762 may receive an acoustic signal from an external device or a speaker. The microphone 762 may use various noise removal algorithms to remove noise generated in the process of receiving an external sound signal.

메모리(770)는, 제어부(700)의 처리 및 제어를 위한 프로그램을 저장할 수도 있고, 입/출력되는 데이터들을 저장할 수도 있다. The memory 770 may store a program for processing and control of the controller 700 or may store input/output data.

메모리(770)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 디바이스(100)는 인터넷(internet)상에서 메모리(170)의 저장 기능을 수행하는 웹 스토리지(web storage) 또는 클라우드 서버를 운영할 수도 있다.The memory 770 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg, SD or XD memory), and a RAM. (RAM, Random Access Memory) SRAM (Static Random Access Memory), ROM (Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory), magnetic memory, magnetic disk , may include at least one type of storage medium among optical disks. In addition, the device 100 may operate a web storage or a cloud server that performs a storage function of the memory 170 on the Internet.

메모리(770)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈(771), 터치 스크린 모듈(772), 알림 모듈(773) 등으로 분류될 수 있다. Programs stored in the memory 770 may be classified into a plurality of modules according to their functions, for example, may be classified into a UI module 771 , a touch screen module 772 , a notification module 773 , and the like. .

UI 모듈(771)은, 애플리케이션별로 사용자 단말과 연동되는 특화된 UI, GUI 등을 제공할 수 있다. 터치 스크린 모듈(772)은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 제어부(700)로 전달할 수 있다. 본 발명의 일 실시예에 따른 터치 스크린 모듈(772)은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈(772)은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.The UI module 771 may provide a specialized UI, GUI, and the like that is interlocked with the user terminal for each application. The touch screen module 772 may detect a touch gesture on the user's touch screen and transmit information about the touch gesture to the controller 700 . The touch screen module 772 according to an embodiment of the present invention may recognize and analyze a touch code. The touch screen module 772 may be configured as separate hardware including a controller.

터치스크린의 터치 또는 근접 터치를 감지하기 위해 터치스크린의 내부 또는 근처에 다양한 센서가 구비될 수 있다. 터치스크린의 터치를 감지하기 위한 센서의 일례로 촉각 센서가 있다. 촉각 센서는 사람이 느끼는 정도로 또는 그 이상으로 특정 물체의 접촉을 감지하는 센서를 말한다. 촉각 센서는 접촉면의 거칠기, 접촉 물체의 단단함, 접촉 지점의 온도 등의 다양한 정보를 감지할 수 있다.Various sensors may be provided inside or near the touch screen to detect a touch or a proximity touch of the touch screen. A tactile sensor is an example of a sensor for detecting a touch of a touch screen. A tactile sensor refers to a sensor that senses a touch of a specific object to the extent or higher than that felt by a human. The tactile sensor may sense various information such as the roughness of the contact surface, the hardness of the contact object, and the temperature of the contact point.

또한, 터치스크린의 터치를 감지하기 위한 센서의 일례로 근접 센서가 있다.In addition, as an example of a sensor for detecting a touch of a touch screen, there is a proximity sensor.

근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 사용자의 터치 제스처에는 탭, 터치&홀드, 더블 탭, 드래그, 패닝, 플릭, 드래그 앤드 드롭, 스와이프 등이 있을 수 있다.The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object existing in the vicinity without mechanical contact using the force of an electromagnetic field or infrared rays. Examples of the proximity sensor include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive type proximity sensor, a magnetic type proximity sensor, and an infrared proximity sensor. The user's touch gesture may include tap, touch & hold, double tap, drag, pan, flick, drag and drop, swipe, and the like.

알림 모듈(773)은 사용자 단말의 이벤트 발생을 알리기 위한 신호를 발생할 수 있다. 사용자 단말에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 일정 알림 등이 있다. 또한, 사용자 단말에서 발생되는 이벤트의 예로는 디스플레이부(731)에서 수신한 사용자 입력에 기초하여 발생되는 햅틱 신호에 기초하여, 사용자 입력이 수신됨을 알리는 신호를 발생시킬 수 있다. The notification module 773 may generate a signal for notifying the occurrence of an event in the user terminal. Examples of events occurring in the user terminal include call signal reception, message reception, key signal input, schedule notification, and the like. In addition, as an example of an event occurring in the user terminal, a signal indicating that a user input is received may be generated based on a haptic signal generated based on a user input received from the display unit 731 .

알림 모듈(773)은 디스플레이부(731)를 통해 비디오 신호 형태로 알림 신호를 출력할 수도 있고, 음향 출력부(732)를 통해 오디오 신호 형태로 알림 신호를 출력할 수도 있고, 진동 모터(733)를 통해 진동 신호 형태로 알림 신호를 출력할 수도 있다. The notification module 773 may output a notification signal in the form of a video signal through the display unit 731 , may output a notification signal in the form of an audio signal through the sound output unit 732 , and the vibration motor 733 . It is also possible to output a notification signal in the form of a vibration signal through

도 8은 다른 실시 예에 따른 차량 카메라를 이용한 정보 제공 서비스 방법을 설명하기 위한 흐름 도이다. 8 is a flowchart illustrating an information providing service method using a vehicle camera according to another exemplary embodiment.

도 8을 참조하면, 단계 800에서, 차량 내의 적어도 하나의 카메라에 의해 집합건물의 주차구역에 구비된 식별코드를 촬영한다. 단계 802에서, 촬영된 식별 코드로부터 식별 이미지를 추출하고, 단계 804에서, 추출된 식별 이미지를 인식한다. 단계 806에서, 촬영된 식별 코드에 상응하는 정보 추출하고, 단계 808에서, 추출된 정보를 사용자 단말에 전송한다. 실시 예에서는, 사용자 단말을 통해서 추출된 정보, 예를 들면 차량이 주차된 주차구역에 대한 위치정보, 집합건물에 대한 안내정보, 주차결제정보 또는 상기 집합건물내에서의 예약 및 결제정보를 이용하는 것으로 설명하였지만, 이에 한정되지 않고, 차량 내의 멀티미디어 기기에서도 이용할 수 있음은 물론이다. 또한, 사용자 단말의 애플리케이션 실행을 통해 추출된 정보를 활용하여 사용자에게 다양한 정보를 제공할 수 있다.Referring to FIG. 8 , in step 800, the identification code provided in the parking area of the assembly building is photographed by at least one camera in the vehicle. In step 802, an identification image is extracted from the captured identification code, and in step 804, the extracted identification image is recognized. In step 806, information corresponding to the captured identification code is extracted, and in step 808, the extracted information is transmitted to the user terminal. In an embodiment, the information extracted through the user terminal, for example, location information about the parking area where the vehicle is parked, guide information about the assembly building, parking payment information, or reservation and payment information in the assembly building is used. Although described, of course, the present invention is not limited thereto and may be used in a multimedia device in a vehicle. In addition, various information can be provided to the user by utilizing the information extracted through the execution of the application of the user terminal.

본 실시 예들은 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비 분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비 분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈과 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.The present embodiments may also be implemented in the form of a recording medium including instructions executable by a computer, such as a program module executed by a computer. Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, computer-readable media may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes computer readable instructions, data structures, other data in modulated data signals, such as program modules, or other transport mechanisms, and includes any information delivery media.

또한, 본 명세서에서, "부"는 프로세서 또는 회로와 같은 하드웨어 구성(hardware component), 및/또는 프로세서와 같은 하드웨어 구성에 의해 실행되는 소프트웨어 구성(software component)일 수 있다.Also, in this specification, "unit" may be a hardware component such as a processor or circuit, and/or a software component executed by a hardware component such as a processor.

전술한 본 명세서의 설명은 예시를 위한 것이며, 본 명세서의 내용이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present specification is for illustration, and those of ordinary skill in the art to which the content of this specification belongs can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. There will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a dispersed form, and likewise components described as distributed may be implemented in a combined form.

본 실시 예의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 포함되는 것으로 해석되어야 한다.The scope of the present embodiment is indicated by the claims to be described later rather than the detailed description, and it should be construed to include all changes or modifications derived from the meaning and scope of the claims and their equivalents.

Claims (11)

차량 카메라를 이용한 정보 제공 서비스 방법에 있어서,
차량 내의 적어도 하나의 카메라에 의해 집합건물의 주차구역에 구비된 식별코드를 촬영하는 단계;
상기 촬영된 식별 코드로부터 식별 이미지를 추출하고, 상기 추출된 식별 이미지를 인식가능한 경우, 상기 촬영된 식별 코드에 상응하는 정보를 추출하는 단계; 및
상기 추출된 정보를 통신 네트워크를 통해 사용자 단말에 전송하는 단계를 포함하는 정보 제공 서비스 방법.
In the information providing service method using a vehicle camera,
photographing the identification code provided in the parking area of the collective building by at least one camera in the vehicle;
extracting an identification image from the photographed identification code, and when the extracted identification image is recognizable, extracting information corresponding to the photographed identification code; and
and transmitting the extracted information to a user terminal through a communication network.
제 1 항에 있어서,
상기 추출 단계는,
상기 추출된 식별 이미지의 크기 및 각도를 변환한 변환 식별 이미지를 생성하는 단계를 더 포함하고,
상기 변환 식별 이미지로부터 상기 식별 코드에 상응하는 정보를 추출하는 것을 특징으로 하는 정보 제공 서비스 방법.
The method of claim 1,
The extraction step is
Further comprising the step of generating a converted identification image by converting the size and angle of the extracted identification image,
Information providing service method, characterized in that extracting information corresponding to the identification code from the converted identification image.
제 2 항에 있어서,
상기 변환 식별 이미지를 인식하지 못한 경우, 상기 주차구역에 진입하는 동안 촬영된 상기 주차구역 주위에 설치된 적어도 하나 이상의 다른 식별코드에 상응하는 다른 식별 이미지를 검색하는 단계; 및
상기 검색된 다른 식별 이미지를 상기 통신 네트워크를 통해 상기 사용자 단말에 전송하는 단계를 포함하고,
상기 사용자 단말에 설치된 애플리케이션을 통해 입력된 사용자 정보가 인증된 경우, 상기 사용자 단말에서, 상기 전송된 다른 식별 이미지를 기초로 정보 제공 서비스가 실행되는 것을 특징으로 하는 정보 제공 서비스 방법.
3. The method of claim 2,
If the converted identification image is not recognized, searching for another identification image corresponding to at least one other identification code installed around the parking area photographed while entering the parking area; and
Transmitting the retrieved other identification image to the user terminal through the communication network,
When the user information input through the application installed in the user terminal is authenticated, the information providing service method, characterized in that the information providing service is executed based on the other transmitted identification image in the user terminal.
제 1 항에 있어서,
상기 추출된 정보는,
상기 차량이 주차된 주차구역에 대한 위치정보, 상기 집합건물에 대한 안내정보, 주차결제정보 및 상기 집합건물내에서의 예약 및 결제정보 중 적어도 하나를 포함하는 것을 특징으로 하는 정보 제공 서비스 방법.
The method of claim 1,
The extracted information is
An information providing service method, characterized in that it includes at least one of location information on a parking area in which the vehicle is parked, guide information for the assembly building, parking payment information, and reservation and payment information in the assembly building.
제 1 항에 있어서,
상기 카메라는,
상기 차량 내에 구비된 전방 카메라 및 후방 카메라를 포함하는 포함하고,
상기 식별코드는 상기 주차구역의 바닥에 구비된 QR코드이고,
상기 촬영 단계는,
상기 차량이 상기 주차구역에 후진으로 진입하면서 상기 후방 카메라로 상기 QR코드를 촬영하는 것을 특징으로 하는 정보 제공 서비스 방법.
The method of claim 1,
The camera is
Including a front camera and a rear camera provided in the vehicle,
The identification code is a QR code provided on the floor of the parking area,
The filming step is
While the vehicle enters the parking area in reverse, the information providing service method, characterized in that for photographing the QR code with the rear camera.
제 1 항에 있어서,
상기 사용자 단말에 설치된 애플리케이션을 통해, 상기 추출된 정보를 기초로, 상기 차량이 주차된 위치, 주차시간 및 주차요금을 표시하고,
상기 사용자 단말을 통해 입력된 결제 정보를 기초로 상기 주차요금에 대한 결제를 이루어지는 것을 특징으로 하는 정보 제공 서비스 방법.
The method of claim 1,
Through the application installed in the user terminal, on the basis of the extracted information, to display the location, parking time and parking fee of the vehicle,
An information providing service method, characterized in that the payment for the parking fee is made based on the payment information input through the user terminal.
제 1 항 내지 제 6 항 중 어느 한 항에 따른 정보 제공 서비스 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체.A recording medium recording a program for executing the information providing service method according to any one of claims 1 to 6 on a computer. 차량 카메라를 이용한 정보 제공 서비스 장치에 있어서,
차량 내의 적어도 하나의 카메라에 의해 집합건물의 주차구역에 구비된 식별코드를 촬영하는 촬영부; 및
상기 촬영된 식별 코드로부터 식별 이미지를 추출하고, 상기 추출된 식별 이미지를 인식가능한 경우, 상기 촬영된 식별 코드에 상응하는 정보를 추출하고,상기 추출된 정보를 통신 네트워크를 통해 사용자 단말에 전송하는 제어부를 포함하는 정보 제공 서비스 장치.
In the information providing service device using a vehicle camera,
a photographing unit for photographing the identification code provided in the parking area of the collective building by at least one camera in the vehicle; and
A control unit that extracts an identification image from the photographed identification code, and when the extracted identification image is recognizable, extracts information corresponding to the photographed identification code, and transmits the extracted information to a user terminal through a communication network An information providing service device comprising a.
제 8 항에 있어서,
상기 제어부는,
상기 추출된 식별 이미지의 크기 및 각도를 변환한 변환 식별 이미지를 생성하고, 상기 변환 식별 이미지로부터 상기 식별 코드에 상응하는 정보를 추출하는 것을 특징으로 하는 정보 제공 서비스 장치.
9. The method of claim 8,
The control unit is
An information providing service apparatus, characterized in that generating a converted identification image obtained by converting the size and angle of the extracted identification image, and extracting information corresponding to the identification code from the converted identification image.
제 8 항에 있어서,
상기 정보 제공 서비스 장치는,
상기 차량 내에 탑재되고, 상기 사용자 단말과 근거리 통신 네트워크를 통해 접속된 것을 특징으로 하는 정보 제공 서비스 장치.
9. The method of claim 8,
The information providing service device,
The information providing service device, characterized in that it is mounted in the vehicle and is connected to the user terminal through a short-distance communication network.
적어도 하나 이상의 카메라;
통신부; 및
프로세서를 포함하고,
상기 프로세서는,
상기 적어도 하나의 카메라를 통해 집합건물의 주차구역에 구비된 식별코드를 촬영하고,
상기 촬영된 식별 코드로부터 식별 이미지를 추출하고, 상기 추출된 식별 이미지를 인식가능한 경우, 상기 촬영된 식별 코드에 상응하는 정보를 추출하고, 상기 추출된 정보를 상기 통신부를 통해 사용자 단말에 전송하는 것을 특징으로 하는 정보 제공 서비스 장치.
at least one camera;
communication department; and
including a processor;
The processor is
The identification code provided in the parking area of the collective building is photographed through the at least one camera,
Extracting an identification image from the photographed identification code, extracting information corresponding to the photographed identification code when the extracted identification image is recognizable, and transmitting the extracted information to a user terminal through the communication unit An information providing service device, which is characterized.
KR1020200064615A 2020-05-28 2020-05-28 Method and apparatus for providing information using vehicle's camera KR102433345B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200064615A KR102433345B1 (en) 2020-05-28 2020-05-28 Method and apparatus for providing information using vehicle's camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200064615A KR102433345B1 (en) 2020-05-28 2020-05-28 Method and apparatus for providing information using vehicle's camera

Publications (2)

Publication Number Publication Date
KR20210147410A true KR20210147410A (en) 2021-12-07
KR102433345B1 KR102433345B1 (en) 2022-08-18

Family

ID=78868233

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200064615A KR102433345B1 (en) 2020-05-28 2020-05-28 Method and apparatus for providing information using vehicle's camera

Country Status (1)

Country Link
KR (1) KR102433345B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114999157A (en) * 2022-05-27 2022-09-02 宁波均联智行科技股份有限公司 Parking fee automatic payment method and vehicle-mounted machine system
WO2023234591A1 (en) * 2022-06-02 2023-12-07 라이트비전 주식회사 Artificial intelligence parking system using qr code

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140089999A (en) * 2013-01-08 2014-07-16 연세대학교 산학협력단 Parking Area Guidance System and Method
JP2015006833A (en) * 2013-06-25 2015-01-15 日産自動車株式会社 Self vehicle position measuring system
KR20170000111A (en) * 2015-06-23 2017-01-02 (주)모가씨앤디 Parking management system based with solution using place

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140089999A (en) * 2013-01-08 2014-07-16 연세대학교 산학협력단 Parking Area Guidance System and Method
JP2015006833A (en) * 2013-06-25 2015-01-15 日産自動車株式会社 Self vehicle position measuring system
KR20170000111A (en) * 2015-06-23 2017-01-02 (주)모가씨앤디 Parking management system based with solution using place

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114999157A (en) * 2022-05-27 2022-09-02 宁波均联智行科技股份有限公司 Parking fee automatic payment method and vehicle-mounted machine system
WO2023234591A1 (en) * 2022-06-02 2023-12-07 라이트비전 주식회사 Artificial intelligence parking system using qr code

Also Published As

Publication number Publication date
KR102433345B1 (en) 2022-08-18

Similar Documents

Publication Publication Date Title
JP6881444B2 (en) Systems and methods for transmitting information to vehicles, vehicles, and non-transient computer-readable storage media
US11475119B2 (en) Recognizing assigned passengers for autonomous vehicles
US10088676B2 (en) Enhanced safety through augmented reality and shared data
EP3211616A2 (en) Driver assistance apparatus
US10553113B2 (en) Method and system for vehicle location
US20180144622A1 (en) Parking Notification Systems And Methods For Identifying Locations Of Vehicles
US11900672B2 (en) Integrated internal and external camera system in vehicles
WO2018037950A1 (en) Vehicle state control device and method, and vehicle
KR20190122606A (en) Apparatus and method for monitoring object in vehicle
JP2020166541A (en) Accident responsibility identifying method, operation assisting method, accident responsibility identifying device, and computer program
KR102433345B1 (en) Method and apparatus for providing information using vehicle's camera
KR102094405B1 (en) Method and apparatus for determining an accident using an image
KR102531722B1 (en) Method and apparatus for providing a parking location using vehicle's terminal
US11914914B2 (en) Vehicle interface control
US20230041498A1 (en) Driver Assistance Systems And Methods For Deployment In A Drive-Through Lane
US20230154242A1 (en) Autonomous vehicle, control system for remotely controlling the same, and method thereof
KR20230168061A (en) Method and apparatus for automatically setting driver profile of vehicle using short-distance communication
CN115214629A (en) Automatic parking method, device, storage medium, vehicle and chip
CN117962750A (en) Method and apparatus for providing travel information of autonomous vehicle
CN111347975A (en) Driving support device, vehicle, information providing device, driving support system, and driving support method
KR20170018699A (en) Accident information collecting apparatus and control method for the same

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right