WO2017018744A1 - 무인 스마트카를 이용한 공익서비스 시스템 및 방법 - Google Patents

무인 스마트카를 이용한 공익서비스 시스템 및 방법 Download PDF

Info

Publication number
WO2017018744A1
WO2017018744A1 PCT/KR2016/008054 KR2016008054W WO2017018744A1 WO 2017018744 A1 WO2017018744 A1 WO 2017018744A1 KR 2016008054 W KR2016008054 W KR 2016008054W WO 2017018744 A1 WO2017018744 A1 WO 2017018744A1
Authority
WO
WIPO (PCT)
Prior art keywords
smart car
information
unmanned smart
public
unmanned
Prior art date
Application number
PCT/KR2016/008054
Other languages
English (en)
French (fr)
Inventor
김상철
Original Assignee
주식회사 한글과컴퓨터
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 한글과컴퓨터 filed Critical 주식회사 한글과컴퓨터
Priority to US15/748,654 priority Critical patent/US10796132B2/en
Publication of WO2017018744A1 publication Critical patent/WO2017018744A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • G07C5/0866Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station

Definitions

  • the present invention relates to an unmanned smart car, and more particularly to a public service system and method using an unmanned smart car that can perform public service services using an unmanned smart car.
  • driverless cars are recently driving or parking automatically by using front and rear cameras, front-side radar sensors, and GPS.
  • the present invention is to solve the problems of the prior art as described above, the present invention is so that the unmanned smart car can use the image information that can be obtained while driving or stopping to find missing persons or obtain image data at various accident sites
  • the purpose is to provide a public service system and method using an unmanned smart car.
  • the public service system using the unmanned smart car of the present invention automatically drives to a destination when a destination is set without a human driving operation, and the image inputted by the mounted camera is accompanied by location information and time information. Recognizes the face by referring to previously stored face information from the input or stored image and wirelessly transmits the face information detected as the same person to a preset outside, or at a time and position requested from a preset outside of the input or stored image data.
  • Unmanned smart car for wirelessly transmitting the corresponding video data to the air (air); And manage the unmanned smart car, and transmit missing face or suspect or wanted face information to the unmanned smart car, and if the same face information is received from the unmanned smart car, the corresponding face information is missing, suspect or wanted.
  • An unmanned smart car management server which transmits to at least one of a public institution server or a missing person information server, and requests the video information to the unmanned smart car when image information of an event site including time and location is requested from the public institution server; Characterized in that comprises a.
  • the unmanned smart car is a black box unit for recording and storing the image around the unmanned smart car, a face recognition processing unit for recognizing the face of the person in the image captured by the camera, and a communication unit for communicating with the unmanned smart car management server And a video output unit for outputting various images and finding missing persons, suspects and wanted persons, an unmanned driver for driving the unmanned smart car unattended, and a controller for controlling the unmanned smart car. It features.
  • the black box unit may include a first camera unit for capturing images of the inside and outside of the vehicle, a first memory unit storing the image and audio data photographed through the first camera unit, and a person from an external image photographed through the first camera unit. Characterized in that it comprises a person extraction unit for extracting information.
  • the face recognition processor may include a second camera unit for capturing an image of the outside of the vehicle, a face recognition unit for recognizing a face of a person from a person extracted from a black box unit or an image taken from the second camera unit, and converting the data into facial information; Facial information of one of the missing, suspect, and arrogant from one of the unmanned smart car management server, the public institution server, and the missing information server is updated and is updated at a set interval, and the facial recognition recognized by the facial recognition unit. And a face comparator for comparing face data stored in the second memory unit with one or more of the missing, suspect, and wanted.
  • the image output unit is characterized in that the display of the missing or suspect, the wanted person's face and missing name, guardian name and contact information, or to display the contact information for reporting the wanted or suspect.
  • the unmanned smart car management server is a public service smart car DB that stores the unmanned smart car information registered in the public service among the unmanned smart car, public institution server and one of the missing information server and the communication unit for communicating through the communication network
  • a facial DB storing facial information transmitted and received to and from an unmanned smart car, a public institution server, and a missing person information server, and public institution information including a police station and a fire station, and information of a group seeking missing persons.
  • Public agency DB that stores contact information of police box, fire department of police station and phone number information of group looking for missing persons
  • unmanned smart car video DB that stores images transmitted from unmanned smart cars by date and location by unmanned smart car, It characterized in that it comprises a control unit for controlling the unmanned smart car management server.
  • the unmanned smart car management server if the video information of the incident site is requested, for the unmanned smart car agreeing to the collection of the date and location information by referring to the location and time information selectively characterized in that the video information do.
  • the unmanned smart car management server for managing the public interest unmanned smart car, the facial information is downloaded from the public institution server and missing persons information server to the face DB, periodically updated, and transmitting the face information to the public interest unmanned smart car;
  • the public interest unmanned smart car photographs an image using a camera unit of the unmanned smart car and stores the photographed image together with time information and location information; Extracting a person from the captured image, the face recognition unit recognizes a face from the extracted person, and the face comparison unit compares the recognized face with face information stored in the memory unit; And when the surrounding image is requested through the public institution server or the unmanned smart car management server, extracts the image data corresponding to the date and time, and extracts the extracted image data from the requested public institution server or the unmanned smart vehicle.
  • the public interest unmanned smart car recognizes one or more faces among missing persons, suspects, and wanted persons in an image taken using its own black box camera or a separate camera among unmanned smart cars that do not require human driving, If it is requested by a legitimate request, characterized in that the unmanned smart car set to transmit.
  • the video output unit outputs the contact information of the guardian of the missing person together with the matching information if the missing person, and outputs the police box and police station information around the unmanned smart car if the suspect.
  • the unmanned smart car user when the unmanned smart car user is requested to track facial recognition targets (objects) from the unmanned smart car user, the unmanned smart car is automatically tracked while driving the object, and the location and image information is one of the unmanned smart car management server, public institution server, and missing information server
  • the method may further include transmitting the above.
  • the present invention has the following effects.
  • facial recognition using a black box camera or a separate camera mounted on an unmanned smart car can help find missing persons, suspects and wanted persons.
  • the image around the accident site can be automatically transmitted when requested from the outside such as the police department or the fire department to use the image data at various accident sites for the public benefit.
  • FIG. 1 is a block diagram illustrating a public service system using an unmanned smart according to the present invention.
  • FIG. 2 is a block diagram illustrating in detail the unmanned smart car management server shown in FIG.
  • FIG. 3 is a flowchart illustrating a public service method using an unmanned smart car according to the present invention.
  • FIG. 1 is a block diagram illustrating a public service system using an unmanned smart car according to the present invention.
  • unmanned smart car 100 unmanned smart car management server 200, public institution server 300 and missing persons information server 400 It is composed.
  • the unmanned smart car 100 automatically drives to the destination when a destination is set without a human driving operation, and stores the image inputted by a camera mounted on the unmanned smart car 100 together with the location information and the date information.
  • one or more of an unattended smart car management server 200, a public institution server 300, and a missing person information server 400 receive information related to the face.
  • the unmanned smart car 100 is a black box 110, face recognition processing unit 120, communication unit 130, image output unit 140, driverless driving unit 150, encryption unit 160 and the control unit 170 It is composed of
  • the black box 110 photographs and stores the image around the unmanned smart car 100.
  • the black box unit 110 stores an image and an audio in and out of the vehicle at the time of driving and stopping the vehicle, and a configuration for extracting a person according to the present invention is added.
  • the black box unit 110 according to the present invention includes a first camera unit 111, a first memory unit 112, and a person extracting unit 113.
  • the first camera unit 111 of the black box unit 110 takes an image inside and outside the vehicle.
  • the first memory unit 112 stores the image and audio data photographed through the first camera unit 111.
  • the person extracting unit 113 extracts person information from an external image photographed through the first camera unit 111.
  • a method of extracting such person information a method such as a person extraction through facial recognition or a motion detection may be extracted from a smart phone.
  • the motion detection method is capable of realizing intelligent features such as motion detection, tracking, classification, recognition, synthesis, and behavioral analysis as the recent image technology is developed, and the image tracking is composed of a series of computation modules.
  • 'S modules perform the functions of object (person, object) positioning, object recognition and object tracking.
  • a tracking algorithm based on an Active Shape Model (ASM) models an object shape and then iteratively adapts to possible combinations of motion information, and coarse-coordinates of the shape combined with a Kalman filter.
  • ASM Active Shape Model
  • To-fine estimation provides more robust tracking results, including feature-based objects such as a feature-based shape tracking technique called non-prior tranining active feature model (NPTAFM) to reduce the computational burden.
  • NPTAFM non-prior tranining active feature model
  • Modeling techniques can track objects using a significantly reduced number of feature points compared to traditional shape-based modeling techniques that take full shapes.
  • the face recognition processing unit 120 includes a second camera unit 121, a face recognition unit 122, a second memory unit 123, and a face comparison unit 124.
  • the second camera unit 121 captures an image of the outside of the vehicle.
  • the face recognition unit 122 recognizes the face of the person from the person extracted by the person extracting unit 113 of the black box unit 110 or the image captured by the second camera unit 121 and converts the face into data.
  • the second memory unit 123 stores face information such as missing persons, suspects, and wanted persons from one of the unmanned smart car management server 200, the public institution server 300, and the missing information server 400, and is updated at a set cycle. do.
  • the face comparison unit 124 compares face recognition data recognized by the face recognition unit 122 with face information stored in the second memory unit 123 to detect missing persons, suspects, and wanted persons.
  • the face recognition processing unit 120 is for photographing the side of the pedestrian mainly walks when the black box 110 is said to photograph the front and back surfaces of the driving in general.
  • the black box unit 110 photographs all the front, rear, left, and right surfaces of the vehicle, the second camera unit 121 may not be necessary.
  • the communication unit 130 wirelessly communicates with one or more of the unmanned smart car management server 200, the public institution server 300, and the missing person information server 400 outside the unmanned smart car 100.
  • the image output unit 140 outputs various images and displays corresponding information when missing persons, suspects, and wanted persons are found. At this time, the user of the unmanned smart car 100 can follow up by displaying the missing and suspected person, the wanted person's face and missing person's name, guardian's name and contact information, or contact information for reporting the wanted person or suspect. Report, etc.).
  • the unmanned driver 150 is for unmanned driving of the unmanned smart car 100, the unmanned driver 150 may be composed of a location information receiver 151, traffic information receiver 152, automatic driving control unit 153. Can be.
  • the location information receiver 151 receives current location information of the vehicle. For example, it receives GPS information.
  • the traffic information receiver 152 receives traffic information to the destination when the unmanned smart car 100 operates.
  • the autonomous driving control unit 153 receives the position of the current vehicle according to the location information receiving unit 151 and causes the unmanned smart car 100 to automatically drive to the destination, and the steering device, the brake, the accelerator, and the transformer of the vehicle. Control devices such as missions.
  • the encryption unit 160 decrypts the received facial information, or encrypts the facial information to be transmitted to the outside or the image information of the scene of the incident and transmits it.
  • the controller 170 controls the unmanned smart car 100, and receives facial information from the outside through the communication unit 130, or when the same face is recognized by the face recognition processor 120, the controller 170 receives the face information from the outside. Control to transmit.
  • identification information set in advance for identifying the request information is stored. This is preferably set in advance between the unmanned smart car 100 and the unmanned smart car management server 200, public institution server 300 and missing person information server 400.
  • the unmanned smart car management server 200 manages the unmanned smart car 100, transmits missing face or suspect or wanted face information to the unmanned smart car 100, the same face information is received from the unmanned smart car 100 When the facial information is missing, whether the suspect, or wanted by the public agency server 300 or missing person information server 400 according to the transmission. In addition, when the video information of the event site including the time and location is requested from the public institution server 300, the unmanned smart car 100 requests an image together with predetermined identification information set as an unmanned smart car subscribed to public service.
  • the unmanned smart car management server 200 may cause a problem such as invasion of personal privacy in order to target all unmanned smart cars, so that the unmanned smart car management server 200 is requested from the public institution server 300 for the unmanned smart car subscribed to the public service.
  • Video information including time and location can be requested.
  • all subscribed smart cars may be requested for a target, or for an unmanned smart car that has agreed to collect date and location information, may be selectively requested with reference to the corresponding location and time information.
  • the public institution server 300 may be a police agency, a fire station server, or the like.
  • the National police Agency server requests the unattended smart car management server 200, including the region and time information, the image of the area where the missing or suspected, wanted, crime (hit, robbery, thief, etc.) occurred .
  • the fire department server if the cause of the ignition such as fire is uncertain, it requests the unmanned smart car management server 200 including the region and time information of the region.
  • the missing person information server 400 is a server that stores missing person information for finding missing persons.
  • the missing person information may include face information, name information, age information, missing person-related contact information, missing color, missing place information, and the like. .
  • the missing person information server 400 transmits the missing person's face picture to the unmanned smart car management server 200.
  • FIG. 2 is a block diagram illustrating in detail the unmanned smart car management server shown in FIG.
  • Unmanned smart car management server 200 as shown in Figure 2, the communication unit 210, unmanned smart car DB 220, public service service smart car DB 230, face DB 240, public institution DB 250 , The unmanned smart car image DB 260 and the control unit 270.
  • the communication unit 210 communicates with the unmanned smart car 100, the public institution server 300 and the missing person information server 400 through the communication network 500.
  • the communication network 500 is a wired or wireless communication network.
  • the unmanned smart car DB 220 stores user information (name, contact information, etc.), vehicle information (vehicle model name, model year, etc.) of the unmanned smart car 100.
  • the public service service smart car DB 230 stores driverless smart car information registered in the public service service among the unmanned smart car 100.
  • the unmanned smart car information registered in the public service service includes not only user information (name, contact information, etc.) and vehicle information (vehicle model name, year, etc.) but also the first memory of the black box unit 110 or the face recognition unit 120.
  • each unmanned smart car 100 and preset individual identification information for recognizing whether the corresponding request information is legitimate request information are stored.
  • the driving information of the vehicle registered in the public service that is, the movement route information for each hour is stored. Such time-based movement route information is used to request an image of an event site later.
  • the facial DB 240 stores facial information transmitted and received with the unmanned smart car 100, the public institution server 300, and the missing person information server 400.
  • the missing person it is preferable that the missing person's name, the guardian's name and contact information are stored together.
  • the public institution DB 250 stores public institution information such as the National police Agency and the fire department, and information of a group seeking missing persons. Such public institution information may be contact information of police boxes, police stations, fire stations around unmanned smart cars. Telephone number information for groups seeking missing persons may also be included.
  • the unmanned smart car image DB 260 stores the image transmitted from the unmanned smart car 100 by the unmanned smart car 100 and by date and location. Such images are stored for a set period of time depending on the size of the database.
  • the controller 270 controls the unmanned smart car management server 200.
  • FIG. 3 is a flowchart illustrating a public service method using an unmanned smart car according to the present invention.
  • the public interest unmanned smart car is registered (S100).
  • the public interest unmanned smart car recognizes the face of a missing person, suspect, or wanted person in an image captured using his own black box camera 111 or a separate second camera 121 among unmanned smart cars that do not require driving operation of a person.
  • it is an unmanned smart car set to transmit incident scene images when requested by a legitimate request.
  • the unmanned smart car management server 200 for managing the public interest smart car downloads the face information from the public institution server 300 and the missing person information server 400 to the face DB 240, and periodically updates (S110). Meanwhile, the unmanned smart car management server 200 transmits facial information to the public interest unmanned smart car. Accordingly, the public interest unmanned smart car stores the facial information in the second memory unit 124.
  • the public interest unmanned smart car photographs an image using the first and second camera units 111 and 121 of the unmanned smart car and stores the captured image (S120). At this time, time information and location information are stored together in the captured image.
  • the person extracting unit 113 of the unmanned smart car for public interest extracts a person from the photographed image
  • the face recognition unit 122 recognizes the face from the extracted person
  • the face comparison unit 124 recognizes the face. Is compared with facial information stored in the second memory unit 123.
  • controller 160 of the public interest unmanned smart car determines whether an event has occurred (S130).
  • the surrounding image request through the public institution server 300 or the unmanned smart car management server 200 extracts the image data corresponding to the date and time (S140).
  • This may be a current image according to a current position of the unmanned smart car 100 or a past image referring to a driving record of the unmanned smart car in the public service service smart car DB 230 of the unmanned smart car management server 200.
  • image data corresponding to the date and time requested from the public institution server 300 in the unmanned smart car image DB 260 of the unmanned smart car management server 200 is not requested as a public interest unmanned smart car.
  • the unmanned smart car 100 wirelessly transmits the extracted image data to the public institution server 300 or the unmanned smart car management server 200 which is the called party (S150).
  • the facial recognition processing unit 120 outputs the facial recognition information to the image output unit 140 (S160).
  • the missing person's guardian information name, contact information, etc.
  • the suspect is able to output information such as police box, police box around the unmanned smart car.
  • the user can directly follow-up.
  • you are a suspect or a wanted person you can report it to the police. If you are a missing person, you can try to talk to them, especially if you are an elderly person with dementia or a child.
  • the facial recognition information and date time and location information is transmitted to the unmanned smart car management server 200, public institution server 300 and missing person information server 400.
  • the unmanned smart car 100 automatically tracks the object when the face recognition target (object) tracking is requested from the unmanned smart car user, and tracks the location and image information of the unmanned smart car management server 200 and the public institution server. 300 and the missing information server 400 is transmitted (S190). Such tracking is performed until the tracking end command is input (S200).
  • the present invention is used to search for missing persons, suspects and wanted persons by using a black box camera or a separate camera mounted on an unmanned smart car, or use a black box camera or a separate camera mounted on an unmanned smart car.
  • image data from various accident sites can be used for accident processing.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Medical Informatics (AREA)
  • Game Theory and Decision Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Alarm Systems (AREA)
  • Tourism & Hospitality (AREA)
  • Marketing (AREA)
  • Development Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Human Resources & Organizations (AREA)
  • Educational Administration (AREA)
  • Economics (AREA)

Abstract

본 발명은 무인 스마트카를 이용한 공익서비스를 수행할 수 있는 무인 스마트카를 이용한 공익서비스 시스템 및 방법에 관한 것이다. 이와 같은 본 발명은 사람의 운전 조작이 필요없이 목적지가 설정되면 자동으로 목적지까지 운전하고, 장착된 카메라로 입력되는 영상을 위치정보 및 시간정보와 함께 저장하며, 입력 또는 저장된 영상에서 미리 저장된 안면 정보를 참조하여 안면을 인식하여 동일인으로 검출된 안면정보를 미리 설정된 외부로 무선전송하거나, 입력 또는 저장된 영상 데이터 중 미리 설정된 외부로부터 요청되는 시간과 위치에 해당하는 영상 데이터를 미리 설정된 외부로 무선전송하는 무인 스마트카; 및 상기 무인 스마트카를 관리하며, 실종자 안면이나 용의자나 수배자 안면 정보를 상기 무인 스마트카로 전송하고, 상기 무인 스마트카로부터 동일 안면 정보가 수신되면 해당 안면 정보를 실종자인지, 용의자인지, 수배자인지에 따라 필요한 공공기관 서버 또는 실종자정보 서버 중 하나 이상으로 전송하며, 상기 공공기관 서버로부터 시간과 위치를 포함하는 사건현장의 영상정보가 요청된 경우 상기 무인 스마트카로 상기 영상정보를 요청하는 무인 스마트카 관리 서버;를 포함하여 이루어지는 것을 특징으로 하는 무인 스마트카를 이용한 공익서비스 시스템을 제공한다.

Description

무인 스마트카를 이용한 공익서비스 시스템 및 방법
본 발명은 무인 스마트카에 관한 것으로, 더욱 상세하게는 무인 스마트카를 이용한 공익서비스를 수행할 수 있는 무인 스마트카를 이용한 공익서비스 시스템 및 방법에 관한 것이다.
최근 영상처리관련 기술과 센서 및 하드웨어 성능 등이 급속도로 발달함에 따라 무인자동차에 관한 연구가 경쟁적으로 진행되고 있다.
실제로, GPS를 이용한 네비게이션은 운전초보자를 위한 길안내 서비스로 벌써 대중화가 되어가고 있으며, GPS도 그 데이터의 정밀도가 점차 향상되고 있으며, 에러범위도 작아 신뢰도가 높아지고 있다.
이러한 추세로, 최근 무인자동차는 전후방을 관찰하는 카메라, 전방-측방 레이더 센서, GPS 등을 활용하여 자동으로 운전 혹은 주차까지 해주고 있다.
이러한 무인자동차는 피할 수 없는 추세에 있으므로 이에 대한 연구가 다양한 방향으로 진행되고 있으나 아직까지는 주로 차량의 무인운전에 관한 방향으로만 연구가 되고 있는 실정이다.
본 발명은 상기와 같은 종래 기술의 문제점을 해결하기 위한 것으로, 본 발명은 무인 스마트카가 주행 중 또는 정지 중 획득할 수 있는 영상 정보를 실종자 찾기나 각종 사고 현장에서의 영상 데이터를 획득하는데 이용할 수 있도록 한 무인 스마트카를 이용한 공익서비스 시스템 및 방법을 제공하는데 그 목적이 있다.
상기한 목적을 달성하기 위하여 본 발명 무인 스마트카를 이용한 공익서비스 시스템은 사람의 운전 조작이 필요없이 목적지가 설정되면 자동으로 목적지까지 운전하고, 장착된 카메라로 입력되는 영상을 위치정보 및 시간정보와 함께 저장하며, 입력 또는 저장된 영상에서 미리 저장된 안면 정보를 참조하여 안면을 인식하여 동일인으로 검출된 안면정보를 미리 설정된 외부로 무선전송하거나, 입력 또는 저장된 영상 데이터 중 미리 설정된 외부로부터 요청되는 시간과 위치에 해당하는 영상 데이터를 공중(air)으로 무선전송하는 무인 스마트카; 및 상기 무인 스마트카를 관리하며, 실종자 안면이나 용의자나 수배자 안면 정보를 상기 무인 스마트카로 전송하고, 상기 무인 스마트카로부터 동일 안면 정보가 수신되면 해당 안면 정보를 실종자인지, 용의자인지, 수배자인지에 따라 필요한 공공기관 서버 또는 실종자정보 서버 중 하나 이상으로 전송하며, 상기 공공기관 서버로부터 시간과 위치를 포함하는 사건현장의 영상정보가 요청된 경우 상기 무인 스마트카로 상기 영상정보를 요청하는 무인 스마트카 관리 서버;를 포함하여 이루어지는 것을 특징으로 한다.
여기서, 무인 스마트카는 무인 스마트카 주변의 영상을 촬영하여 저장하는 블랙박스부와, 카메라를 통해 촬영된 영상에서 인물의 안면을 인식하는 안면인식 처리부와, 상기 무인 스마트카 관리서버와 통신하는 통신부와, 각종 영상을 출력하며, 실종자, 용의자, 수배자를 찾은 경우 해당 정보를 표시하는 영상출력부와, 상기 무인 스마트카를 무인 운전하는 무인 운전부와, 상기 무인 스마트카를 제어하는 제어부를 포함하여 구성됨을 특징으로 한다.
그리고 블랙박스부는, 차량 내외부 영상을 촬영하는 제1카메라부와, 상기 제1카메라부를 통해 촬영되는 영상과 음성 데이터를 저장하는 제1메모리부와, 상기 제1카메라부를 통해 촬영되는 외부 영상에서 인물정보를 추출하는 인물추출부를 포함하여 구성됨을 특징으로 한다.
한편 안면인식 처리부는 차량 외부의 영상을 촬영하는 제2카메라부와, 블랙박스부에서 추출한 인물 또는 상기 제2카메라부에서 촬영한 영상에서 인물의 안면을 인식하여 안면정보로 데이터화하는 안면인식부와, 무인스마트카 관리서버, 공공기관 서버 및 실종자 정보 서버 중 하나로부터의 실종자, 용의자, 수배자 중 하나의 안면정보가 저장되며, 설정된 주기로 갱신되는 제2메모리부와, 안면인식부에서 인식한 안면인식 데이터와 상기 제2메모리부에 저장된 안면정보를 비교하여 실종자, 용의자 및 수배자 중 하나 이상의 안면정보를 검출하는 안면비교부를 포함하여 이루어지는 것을 특징으로 한다.
또한 영상출력부는 실종자나 용의자, 수배자의 안면과 실종자 이름, 보호자 이름 및 연락처를 디스플레이하거나, 수배자나 용의자를 신고하기 위한 연락처 정보를 표시하는 것을 특징으로 한다.
한편 무인 스마트카 관리서버는, 무인 스마트카, 공공기관 서버 및 실종자정보 서버 중 하나와 통신망을 통해 통신하는 통신부와, 무인 스마트카 중 공익 서비스에 등록된 무인 스마트카 정보가 저장되는 공익 스마트카 DB와, 무인 스마트카, 공공기관 서버 및 실종자정보 서버와 송수신하는 안면정보를 저장하는 안면 DB와,경찰청, 소방서를 포함하는 공공기관 정보와 실종자를 찾는 단체의 정보를 저장하되, 상기 무인 스마트카 주변의 파출소, 경찰서, 소방서의 연락처 정보 및 실종자를 찾는 단체의 전화번호 정보가 저장되는 공공기관 DB와, 무인 스마트카로부터 전송된 영상을 무인 스마트카별 날짜와 위치별로 저장하는 무인 스마트카 영상 DB와, 무인 스마트카 관리 서버를 제어하는 제어부를 포함하여 구성됨을 특징으로 한다.
또한 무인 스마트카 관리서버는 상기 사건현장의 영상정보가 요청된 경우 상기 날짜와 위치정보를 수집에 동의한 무인 스마트카에 대하여는 해당 위치와 시간 정보를 참조하여 선택적으로 영상정보를 요청하는 것을 특징으로 한다.
그리고 상기한 목적을 달성하기 위하여 본 발명 무인 스마트카를 이용한 공익서비스 방법은 공익 무인 스마트카를 등록하는 단계; 상기 공익 무인 스마트카를 관리하는 무인 스마트카 관리서버는 공공기관 서버와 실종자 정보 서버로부터 안면정보를 안면 DB에 다운로드 받고, 주기적으로 갱신하며, 상기 안면 정보를 상기 공익 무인 스마트카로 전송하는 단계; 상기 공익 무인 스마트카는 상기 무인 스마트카의 카메라부를 이용하여 영상을 촬영하고, 촬영된 영상을 시간정보 및 위치정보가 함께 저장하는 단계; 상기 공익 무인 스마트카의 인물추출부는 촬영된 영상에서 인물을 추출하고, 안면 인식부에서는 추출된 인물에서 안면을 인식하며, 안면비교부는 인식된 안면을 메모리부에 저장된 안면 정보와 비교하는 단계; 및 상기 공공기관 서버 또는 무인 스마트카 관리서버를 통한 주변영상이 요청된 경우, 해당 날짜와 시간에 해당하는 영상 데이터를 추출하고, 상기 추출된 영상 데이터를 요청된 착신측인 공공기관 서버 또는 무인 스마트카 관리서버로 무선 전송하고, 상기 무인 스마트카의 카메라부를 통해 촬영된 영상에서의 안면인식 결과 동일인을 검출한 경우, 안면인식정보와 날짜 시간 및 위치정보를 무인 스마트카 관리서버, 공공기관 서버 및 실종자 정보 서버 중 하나 이상으로 전송하는 단계;를 포함하여 이루어지는 것을 특징으로 한다.
여기서 공익 무인 스마트카는, 사람의 운전 조작이 필요없는 무인 스마트카 중 자신의 블랙박스 카메라 또는 별도의 카메라를 이용하여 촬영된 영상에서 실종자나 용의자, 수배자 중 하나 이상의 안면을 인식하거나, 사건 현장 영상을 정당한 요청에 의해 요청된 경우 전송하기로 설정한 무인 스마트카인 것을 특징으로 한다.
그리고 영상출력부는, 실종자라면 일치 정보와 함께 실종자의 보호자의 연락처 정보가 함께 출력하고, 용의자라면 상기 무인 스마트카 주변의 파출소, 경찰서 정보가 함께 출력하는 것을 특징으로 한다.
또한 무인스마트카는 무인 스마트카 이용자로부터 안면인식 대상(객체)추적이 요청되면 해당 객체를 자동으로 운전하면서 추적하고, 위치 및 영상 정보를 무인 스마트카 관리서버, 공공기관 서버 및 실종자 정보 서버 중 하나 이상으로 전송하는 단계를 더 포함하여 이루어지는 것을 특징으로 한다.
본 발명은 다음과 같은 효과가 있다.
첫째, 무인 스마트카에 장착된 블랙박스 카메라나 별도의 카메라를 이용하여 안면 인식을 하도록 함으로써 실종자, 용의자 및 수배자를 찾는데 도움을 줄 수 있다.
둘째, 무인 스마트카에 장착된 블랙박스 카메라나 별도의 카메라를 이용하여 사고현장 주변 영상을 경찰청이나 소방서 등 외부에서 요청 시 자동으로 전송함으로써 각종 사고 현장에서의 영상 데이터를 공공의 이익을 위해 사용할 수 있다.
도 1은 본 발명에 따른 무인 스마트를 이용한 공익서비스 시스템을 설명하기 위한 블록 구성도이다.
도 2는 도 1에 나타낸 무인 스마트카 관리서버를 상세히 설명하기 위한 블록 구성도이다.
도 3은 본 발명에 따른 무인 스마트카를 이용한 공익 서비스 방법을 설명하기 위한 흐름도이다.
본 발명의 바람직한 실시 예를 첨부된 도면에 의하여 상세히 설명하면 다음과 같다.
아울러, 본 발명에서 사용되는 용어는 가능한 한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며 이 경우는 해당되는 발명의 설명부분에서 상세히 그 의미를 기재하였으므로, 단순한 용어의 명칭이 아닌 용어가 가지는 의미로서 본 발명을 파악하여야 함을 밝혀두고자 한다. 또한 실시예를 설명함에 있어서 본 발명이 속하는 기술 분야에 익히 알려져 있고, 본 발명과 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 발명의 요지를 흐리지 않고 더욱 명확히 전달하기 위함이다.
도 1은 본 발명에 따른 무인 스마트카를 이용한 공익서비스 시스템을 설명하기 위한 블록 구성도이다.
본 발명에 따른 무인 스마트카를 이용한 공익 서비스 시스템은, 도 1에 나타낸 바와 같이, 무인 스마트카(100), 무인 스마트카 관리서버(200), 공공기관 서버(300) 및 실종자정보 서버(400)로 구성된다.
여기서, 무인 스마트카(100)는 사람의 운전 조작이 필요없이 목적지가 설정되면 자동으로 목적지까지 운전하고, 무인 스마트카(100)에 장착된 카메라로 입력되는 영상을 위치정보 및 날짜정보와 함께 저장하며, 입력 또는 저장된 영상에서 안면을 인식하여 실종자 또는 용의자, 수배자인 경우 해당 안면과 관련된 정보를 무인 스마트카 관리서버(200), 공공기관 서버(300) 및 실종자정보 서버(400) 중 하나 이상의 착신측으로 무선 전송하며, 저장된 영상 데이터 중 무인 스마트카 관리서버(200)나 공공기관 서버(300)로부터 요청된 영상 데이터에 대하여 요청된 착신측으로 무선전송한다.
이러한 무인 스마트카(100)는 블랙박스부(110), 안면인식 처리부(120), 통신부(130), 영상출력부(140), 무인운전부(150), 암호화부(160) 및 제어부(170)로 구성된다.
여기서 블랙박스부(110)는 무인 스마트카(100) 주변의 영상을 촬영하여 저장한다. 일반적으로 블랙박스부(110)는 차량의 운행 및 주정차시에 차량 내외부의 영상 및 음성을 저장하는데, 본 발명에 따른 인물을 추출하기 위한 구성이 추가된다. 본 발명에 따른 블랙박스부(110)는 제1카메라부(111), 제1메모리부(112) 및 인물추출부(113)로 구성된다.
블랙박스부(110)의 제1카메라부(111)는 차량 내외부 영상을 촬영한다.
제1메모리부(112)는 제1카메라부(111)를 통해 촬영되는 영상과 음성 데이터를 저장한다.
인물추출부(113)는 제1카메라부(111)를 통해 촬영되는 외부 영상에서 인물정보를 추출한다. 이러한 인물정보를 추출하는 방법으로는 스마트폰 등에서 안면인식 등을 통한 인물추출이나 움직임 검출을 통한 방법 등을 이용하여 추출할 수 있다. 여기서 움직임 검출을 통한 방법은 최근 영상 기술이 발전함에 따라 움직임 검출, 추적, 분류, 인식, 종합 및 행동 분석과 같은 지능적인 특성의 구현이 가능하고, 영상 추적은 일련의 연산 모듈로 구성되며, 각각의 모듈은 객체(인물, 사물) 측위, 객체 인식 및 객체 추적의 기능을 수행한다. 예를 들어 능동 형상 모델(Active Shape Model : ASM) 기반의 추적 알고리즘은 객체 형상을 모델링한 후에 반복적으로 가능한 움직임 정보 조합과의 적합화를 수행하고, 칼만 필터와 결합한 형상의 대략-미세(coarse-to-fine) 추정은 보다 강인한 추적 결과를 제공하는데, 연산 부담을 줄이기 위해 비사전 훈련 능동 특징 모델(non-prior tranining active feature model : NPTAFM) 이라는 특징 기반 형상 추적 기법이 제시되는 등, 특징 기반 객체 모델링 기법은 전체 형상을 취하는 기존의 형상 기반 모델링 기법에 비해 상당히 감소된 개수의 특징점을 사용하여 객체를 추적할 수 있다.
그리고 안면인식 처리부(120)는 제2카메라부(121), 안면인식부(122), 제2메모리부(123) 및 안면비교부(124)로 구성된다.
여기서 제2카메라부(121)는 차량 외부의 영상을 촬영한다.
안면인식부(122)는 블랙박스부(110)의 인물추출부(113)에서 추출한 인물 또는 제2카메라부(121)에서 촬영한 영상에서 인물의 안면을 인식하여 안면정보로 데이터화한다.
제2메모리부(123)는 무인스마트카 관리서버(200), 공공기관 서버(300) 및 실종자 정보 서버(400) 중 하나로부터의 실종자, 용의자, 수배자 등의 안면정보가 저장되며, 설정된 주기로 갱신된다.
안면비교부(124)는 안면인식부(122)에서 인식한 안면인식 데이터와 제2메모리부(123)에 저장된 안면정보를 비교하여 실종자, 용의자 및 수배자 등을 검출한다.
여기서 안면인식 처리부(120)는 블랙박스부(110)가 일반적으로 주행 중인 전후면을 촬영한다고 했을 경우 보행자가 주로 다니는 인도측을 촬영하기 위한 것이다. 물론 블랙박스부(110)가 차량의 전후좌우면을 모두 촬영하는 경우에는 제2카메라부(121)는 불필요할 수도 있다.
통신부(130)는 무인 스마트카(100) 외부의 무인 스마트카 관리서버(200), 공공기관 서버(300) 및 실종자정보 서버(400) 중 하나 이상과 무선통신한다.
영상 출력부(140)는 각종 영상을 출력하며, 실종자, 용의자, 수배자를 찾은 경우 해당 정보를 표시한다. 이때, 실종자나 용의자, 수배자의 안면과 실종자 이름, 보호자 이름 및 연락처 등을 디스플레이하거나, 수배자나 용의자를 신고하기 위한 연락처 정보 등을 표시하도록 하여 무인 스마트카(100) 이용자가 후속조치(실종자 만남, 신고 등)을 수행할 수 있도록 한다.
무인 운전부(150)는 무인 스마트카(100)의 무인 운전을 위한 것으로, 무인운전부(150)는 위치정보 수신부(151), 교통정보 수신부(152), 자동운전 제어부(153)로 구성될 수 있다.
여기서 위치정보 수신부(151)는 차량의 현재 위치정보를 수신한다. 예를 들면, GPS 정보를 수신한다.
교통정보 수신부(152)는 무인 스마트카(100) 운행 시 도착지까지의 교통정보를 수신한다.
자동운전 제어부(153)는 위치정보 수신부(151)에 따라 현재차량의 위치를 수신하고, 목적지까지 무인 스마트카(100)가 자동으로 운전하도록 하는 것으로, 차량의 조향장치, 브레이크, 가속장치 및 트랜스 미션과 같은 장치를 제어한다.
암호화부(160)는 수신된 안면정보를 복호화하거나, 외부로 전송할 안면정보 또는 사건 현장의 영상정보를 암호화하여 전송한다.
제어부(170)는 무인 스마트카(100)를 제어하며, 외부로부터 통신부(130)를 통해 안면정보를 수신하거나, 안면인식 처리부(120)에서 동일 안면이 인식되면 이를 통신부(130)를 통해 외부로 송신하도록 제어한다. 또한, 정당한 요청에 대하여만 요청 정보를 송신하기 위하여 요청정보를 식별하기 위해 미리 설정한 식별정보가 저장된다. 이는 무인 스마트카(100)와 무인 스마트카 관리서버(200), 공공기관 서버(300) 및 실종자 정보 서버(400)간 미리 설정하는 것이 바람직하다.
무인 스마트카 관리서버(200)는 무인 스마트카(100)를 관리하며, 실종자 안면이나 용의자나 수배자 안면 정보를 무인 스마트카(100)로 전송하고, 무인 스마트카(100)로부터 동일 안면 정보가 수신되면 해당 안면 정보를 실종자인지, 용의자인지, 수배자인지에 따라 필요한 공공기관 서버(300) 또는 실종자정보 서버(400)로 전송한다. 또한, 공공기관 서버(300)로부터 시간과 위치를 포함하는 사건현장의 영상정보가 요청된 경우 무인 스마트카(100) 중 공익 서비스에 가입한 무인 스마트카로 미리 설정된 식별정보와 함께 영상을 요청한다. 이를 위하여 무인 스마트카 관리서버(200)는 모든 무인 스마트카를 대상으로 하기에는 현실적으로 개인 사생활 침해 등의 문제가 발생될 수 있으므로, 공익 서비스에 가입한 무인 스마트카를 대상으로 공공기관 서버(300)로부터 요청된 시간과 위치를 포함하는 영상 정보를 요청할 수 있다. 이때, 가입된 모든 스마트카를 대상으로 요청할 수도 있고, 날짜와 위치정보를 수집에 동의한 무인 스마트카에 대하여는 해당 위치와 시간 정보를 참조하여 선택적으로 요청할 수도 있다.
여기서 공공기관 서버(300)는 경찰청, 소방서 서버 등일 수 있다. 이러한 공공기관 서버(300) 중 경찰청 서버는 실종자나 용의자, 수배자, 범죄(뺑소니, 강도, 도둑 등)가 발생한 지역의 영상을 지역과 시간 정보를 포함하여 무인 스마트카 관리서버(200)로 요청한다. 그리고 소방서 서버의 경우에는 화재 등의 발화원인 등이 불확실한 경우 해당 지역의 영상을 지역과 시간 정보를 포함하여 무인 스마트카 관리서버(200)로 요청한다.
실종자정보 서버(400)는 실종자를 찾기 위한 실종자의 정보를 저장하고 있는 서버로써, 실종자 정보로는 안면정보, 이름정보, 나이정보, 실종자 관련 연락처 정보, 실종 시 옷색깔, 실종장소 정보 등일 수 있다. 실종자정보 서버(400)에서는 실종자의 얼굴 사진을 무인 스마트카 관리서버(200)로 전송한다.
도 2는 도 1에 나타낸 무인 스마트카 관리서버를 상세히 설명하기 위한 블록 구성도이다.
무인 스마트카 관리서버(200)는 도 2에 나타낸 바와 같이, 통신부(210), 무인 스마트카 DB(220), 공익 서비스 스마트카 DB(230), 안면 DB(240), 공공기관 DB(250), 무인 스마트카 영상 DB(260) 및 제어부(270)로 구성된다.
여기서 통신부(210)는 무인 스마트카(100), 공공기관 서버(300) 및 실종자정보 서버(400)와 통신망(500)을 통해 통신한다. 여기서 통신망(500)은 유무선 통신망이다.
무인 스마트카 DB(220)는 무인 스마트카(100)의 사용자 정보(이름, 연락처 등), 차량정보(차량 모델명, 연식 등) 등이 저장된다.
공익 서비스 스마트카 DB(230)는 무인 스마트카(100) 중 공익 서비스에 등록된 무인 스마트카 정보가 저장된다. 여기서, 공익 서비스에 등록된 무인 스마트카 정보로는 사용자 정보(이름, 연락처 등), 차량정보(차량 모델명, 연식 등)뿐만 아니라 블랙박스부(110)나 안면인식부(120)의 제1메모리부(110)에 저장된 영상 데이터가 무인 스마트카(100)로 요청되면 해당 요청정보가 정당한 요청 정보인지를 인식하기 위한 각각의 무인 스마트카(100)와 미리 설정된 개별적인 식별정보가 저장된다. 또한, 공익서비스에 등록된 차량의 주행 정보, 즉 시간별 이동경로 정보가 저장된다. 이와 같은 시간별 이동경로 정보는 추후 사건현장의 영상을 요청하는데 이용된다.
안면 DB(240)는 무인 스마트카(100), 공공기관 서버(300) 및 실종자정보 서버(400)와 송수신하는 안면정보를 저장한다. 또한 실종자의 경우에는 실종자의 성함, 보호자의 성함 연락처 정보 등이 함께 저장되는 것이 바람직하다.
공공기관 DB(250)는 경찰청, 소방서 등의 공공기관 정보와 실종자를 찾는 단체의 정보를 저장한다. 이러한 공공기관 정보로는 무인 스마트카 주변의 파출소, 경찰서, 소방서의 연락처 정보 등이 될 수 있다. 실종자를 찾는 단체의 전화번호 정보 역시 포함될 수 있다.
무인 스마트카 영상 DB(260)는 무인 스마트카(100)로부터 전송된 영상을 무인 스마트카(100)별 및 날짜와 위치별로 저장한다. 이와 같은 영상은 데이터베이스의 크기에 따라 설정된 기간 동안 저장된다. 이는 일반적으로 무인 스마트카의 블랙박스부(110)에 내장된 제1메모리부(112)나, 안면인식 처리부(120)의 제2메모리부(123)에 내장된 제2메모리부(124)의 메모리 사이즈가 선입선출방식으로 지워지도록 되어 있으므로 무인 스마트카의 메모리 사이즈에 따라 무인 스마트카에서 전송된 영상을 일정기간 백업하는 것이다.
제어부(270)는 무인 스마트카 관리 서버(200)를 제어한다.
도 3은 본 발명에 따른 무인 스마트카를 이용한 공익 서비스 방법을 설명하기 위한 흐름도이다.
본 발명에 따른 무인 스마트카를 이용한 공익 서비스 방법은 도 3에 나타낸 바와 같이, 공익 무인 스마트카를 등록한다(S100). 여기서 공익 무인 스마트카란 사람의 운전 조작이 필요없는 무인 스마트카 중 자신의 블랙박스 카메라(111) 또는 별도의 제2카메라(121)를 이용하여 촬영된 영상에서 실종자나 용의자, 수배자의 안면을 인식하거나, 사건 현장 영상을 정당한 요청에 의해 요청된 경우 전송하기로 설정한 무인 스마트카이다.
그러면 공익 스마트카를 관리하는 무인 스마트카 관리서버(200)는 공공기관 서버(300) 및 실종자 정보 서버(400)로부터 안면정보를 안면 DB(240)에 다운로드 받고, 주기적으로 갱신한다(S110). 한편 무인 스마트카 관리서버(200)는 안면 정보를 공익 무인 스마트카로 전송한다. 그에 따라 공익 무인 스마트카는 해당 안면정보를 제2메모리부(124)에 저장한다.
이어 공익 무인 스마트카는 무인 스마트카의 제1, 제2카메라부(111, 121)를 이용하여 영상을 촬영하고, 촬영된 영상을 저장한다(S120). 이때, 해당 촬영된 영상에는 시간정보와 위치정보가 함께 저장된다. 이러한 촬영 시 공익 무인 스마트카의 인물추출부(113)는 촬영된 영상에서 인물을 추출하고, 안면 인식부(122)에서는 추출된 인물에서 안면을 인식하며, 안면비교부(124)는 인식된 안면을 제2메모리부(123)에 저장된 안면 정보와 비교한다.
한편 공익 무인 스마트카의 제어부(160)는 이벤트가 발생하였는지를 판단한다(S130).
이러한 이벤트는 공공기관 서버(300) 또는 무인 스마트카 관리서버(200)를 통한 주변영상 요청과, 무인 스마트카(100)의 제1, 제2 카메라부(111, 121)를 통해 촬영된 영상에서의 안면인식 결과 동일인을 검출한 경우이다.
우선, 공공기관 서버(300) 또는 무인 스마트카 관리서버(200)를 통한 주변영상 요청이라면 해당 날짜와 시간에 해당하는 영상 데이터를 추출한다(S140). 이는 무인 스마트카(100)의 현재 위치에 따른 현재 영상 또는 무인스마트카 관리서버(200)의 공익서비스 스마트카 DB(230)에 무인 스마트카의 주행기록을 참조한 과거 영상일 수 있다. 물론, 무인스마트카 관리서버(200)의 무인 스마트카 영상 DB(260)에 공공기관 서버(300)로부터 요청된 날짜와 시간에 해당하는 영상 데이터가 있다면 공익 무인 스마트카로는 요청되지 않는다.
한편 무인 스마트카(100)는 추출된 영상 데이터를 요청된 착신측인 공공기관 서버(300) 또는 무인 스마트카 관리서버(200)로 무선 전송한다(S150).
한편 이벤트가 안면인식 처리부(120)로부터의 안면인식이라면 안면인식정보를 영상출력부(140)에 출력한다(S160). 이때, 실종자라면 일치 정보와 함께 실종자의 보호자 정보(이름, 연락처 등)이 함께 출력된다. 또한 용의자라면 무인 스마트카 주변의 파출소, 경찰서 등의 정보가 함께 출력되도록 할 수 있다.
그에 따라 무인 스마트카에 이용자가 있다면 이용자가 직접 후속조취를 취할수 있다. 특히 용의자나 수배자의 경우라면 경찰 등에 신고를 할 수 있고, 실종자의 경우 대화를 시도하면서 특히 치매노인이나 아동의 경우에는 보호자에게 연락할 수도 있다.
또한 안면인식정보와 날짜 시간 및 위치정보를 무인 스마트카 관리서버(200), 공공기관 서버(300) 및 실종자 정보 서버(400)로 전송한다.
한편 무인스마트카(100)는 무인 스마트카 이용자로부터 안면인식 대상(객체)추적이 요청되면 해당 객체를 자동으로 운전하면서 추적하고, 위치 및 영상 정보를 무인 스마트카 관리서버(200), 공공기관 서버(300) 및 실종자 정보 서버(400)로 전송한다(S190). 이와 같은 추적은 추적 종료 명령이 입력될 때까지 수행된다(S200).
본 발명을 첨부된 도면과 함께 설명하였으나, 이는 본 발명의 요지를 포함하는 다양한 실시 형태 중의 하나의 실시예에 불과하며, 당업계에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 하는 데에 그 목적이 있는 것으로, 본 발명은 상기 설명된 실시예에만 국한되는 것이 아님은 명확하다. 따라서, 본 발명의 보호범위는 하기의 청구범위에 의해 해석되어야 하며, 본 발명의 요지를 벗어나지 않는 범위 내에서의 변경, 치환, 대체 등에 의해 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함될 것이다. 또한, 도면의 일부 구성은 구성을 보다 명확하게 설명하기 위한 것으로 실제보다 과장되거나 축소되어 제공된 것임을 명확히 한다.
본 발명은 무인 스마트카에 장착된 블랙박스 카메라나 별도의 카메라를 이용하여 안면 인식을 하도록 함으로써 실종자, 용의자 및 수배자를 수색에 이용되거나, 무인 스마트카에 장착된 블랙박스 카메라나 별도의 카메라를 이용하여 사고현장 주변 영상을 경찰청이나 소방서 등 외부에서 요청 시 자동으로 전송함으로써 각종 사고 현장에서의 영상 데이터를 사고처리에 이용할 수 있다.

Claims (11)

  1. 목적지가 설정되면 자동으로 목적지까지 운전하고, 장착된 카메라로 입력되는 영상을 위치정보 및 시간정보와 함께 저장하며, 입력 또는 저장된 영상에서 미리 저장된 안면 정보를 참조하여 안면을 인식하여 동일인으로 검출된 안면정보를 미리 설정된 외부로 무선전송하거나, 입력 또는 저장된 영상 데이터 중 미리 설정된 외부로부터 요청되는 시간과 위치에 해당하는 영상 데이터를 미리 정해진 서버로 무선전송하는 무인 스마트카; 및
    상기 무인 스마트카를 관리하며, 실종자 안면이나 용의자나 수배자 안면 정보를 상기 무인 스마트카로 전송하고, 상기 무인 스마트카로부터 동일 안면 정보가 수신되면 해당 안면 정보를 실종자인지, 용의자인지, 수배자인지에 따라 필요한 공공기관 서버 또는 실종자정보 서버 중 하나 이상으로 전송하며, 상기 공공기관 서버로부터 시간과 위치를 포함하는 사건현장의 영상정보가 요청된 경우 상기 무인 스마트카로 상기 영상정보를 요청하는 무인 스마트카 관리 서버;를 포함하여 이루어지는 것을 특징으로 하는 무인 스마트카를 이용한 공익서비스 시스템.
  2. 제1항에 있어서,
    상기 무인 스마트카는
    상기 무인 스마트카 주변의 영상을 촬영하여 저장하는 블랙박스부와,
    상기 카메라를 통해 촬영된 영상에서 인물의 안면을 인식하는 안면인식 처리부와,
    상기 무인 스마트카 관리서버와 통신하는 통신부와,
    각종 영상을 출력하며, 실종자, 용의자, 수배자를 찾은 경우 해당 정보를 표시하는 영상출력부와,
    상기 무인 스마트카를 무인 운전하는 무인 운전부와,
    상기 무인 스마트카를 제어하는 제어부를 포함하여 구성됨을 특징으로 하는 무인 스마트카를 이용한 공익서비스 시스템.
  3. 제2항에 있어서,
    상기 블랙박스부는,
    차량 내외부 영상을 촬영하는 제1카메라부와,
    상기 제1카메라부를 통해 촬영되는 영상과 음성 데이터를 저장하는 제1메모리부와,
    상기 제1카메라부를 통해 촬영되는 외부 영상에서 인물정보를 추출하는 인물추출부를 포함하여 구성됨을 특징으로 하는 무인 스마트카를 이용한 공익서비스 시스템.
  4. 제3항에 있어서,
    상기 안면인식 처리부는 차량 외부의 영상을 촬영하는 제2카메라부와,
    상기 블랙박스부에서 추출한 인물 또는 상기 제2카메라부에서 촬영한 영상에서 인물의 안면을 인식하여 안면정보로 데이터화하는 안면인식부와,
    상기 무인스마트카 관리서버, 공공기관 서버 및 실종자 정보 서버 중 하나로부터의 실종자, 용의자, 수배자 중 하나의 안면정보가 저장되며, 설정된 주기로 갱신되는 제2메모리부와,
    상기 안면인식부에서 인식한 안면인식 데이터와 상기 제2메모리부에 저장된 안면정보를 비교하여 실종자, 용의자 및 수배자 중 하나 이상의 안면정보를 검출하는 안면비교부를 포함하여 이루어지는 것을 특징으로 하는 무인 스마트카를 이용한 공익서비스 시스템.
  5. 제2항에 있어서,
    상기 영상출력부는 실종자나 용의자, 수배자의 안면과 실종자 이름, 보호자 이름 및 연락처를 디스플레이하거나, 수배자나 용의자를 신고하기 위한 연락처 정보를 표시하는 것을 특징으로 하는 무인 스마트카를 이용한 공익서비스 시스템.
  6. 제1항에 있어서,
    상기 무인 스마트카 관리서버는,
    상기 무인 스마트카, 공공기관 서버 및 실종자정보 서버 중 하나와 통신망을 통해 통신하는 통신부와,
    상기 무인 스마트카 중 공익 서비스에 등록된 무인 스마트카 정보가 저장되는 공익 스마트카 DB와,
    상기 무인 스마트카, 공공기관 서버 및 실종자정보 서버와 송수신하는 안면정보를 저장하는 안면 DB와,
    경찰청, 소방서를 포함하는 공공기관 정보와 실종자를 찾는 단체의 정보를 저장하되, 상기 무인 스마트카 주변의 파출소, 경찰서, 소방서의 연락처 정보 및 실종자를 찾는 단체의 전화번호 정보가 저장되는 공공기관 DB와,
    상기 무인 스마트카로부터 전송된 영상을 무인 스마트카별 날짜와 위치별로 저장하는 무인 스마트카 영상 DB와,
    상기 무인 스마트카 관리 서버를 제어하는 제어부를 포함하여 구성됨을 특징으로 하는 무인 스마트카를 이용한 공익서비스 시스템.
  7. 제1항에 있어서,
    상기 무인 스마트카 관리서버는 상기 사건현장의 영상정보가 요청된 경우 상기 시간정보와 상기 위치정보를 수집에 동의한 무인 스마트카에 대하여는 해당 위치정보와 시간정보를 참조하여 선택적으로 영상정보를 요청하는 것을 특징으로 하는 무인 스마트카를 이용한 공익서비스 시스템.
  8. 공익 무인 스마트카를 등록하는 단계;
    상기 공익 무인 스마트카를 관리하는 무인 스마트카 관리서버는 공공기관 서버와 실종자 정보 서버로부터 안면정보를 안면 DB에 다운로드 받고, 주기적으로 갱신하며, 상기 안면 정보를 상기 등록된 공익 무인 스마트카로 전송하는 단계;
    상기 공익 무인 스마트카는 상기 무인 스마트카의 카메라부를 이용하여 영상을 촬영하고, 촬영된 영상을 시간정보 및 위치정보가 함께 저장하는 단계;
    상기 공익 무인 스마트카의 인물추출부는 촬영된 영상에서 인물을 추출하고, 안면 인식부에서는 추출된 인물에서 안면을 인식하며, 안면비교부는 인식된 안면을 메모리부에 저장된 안면 정보와 비교하는 단계; 및
    상기 공공기관 서버 또는 무인 스마트카 관리서버를 통한 주변영상이 상기 공익 무인 스마트카로 요청된 경우, 해당 날짜와 시간에 해당하는 영상 데이터를 추출하고, 상기 추출된 영상 데이터를 상기 공공기관 서버 또는 무인 스마트카 관리서버로 무선 전송하고, 상기 무인 스마트카의 카메라부를 통해 촬영된 영상에서의 안면인식 결과 동일인을 검출한 경우, 안면인식정보와 날짜 시간 및 위치정보를 상기 무인 스마트카 관리서버, 공공기관 서버 및 실종자 정보 서버 중 하나 이상으로 전송하는 단계;를 포함하여 이루어지는 것을 특징으로 하는 무인 스마트카를 이용한 공익서비스 방법.
  9. 제8항에 있어서,
    상기 공익 무인 스마트카는,
    무인 스마트카 중 자신의 블랙박스 카메라 또는 별도의 카메라를 이용하여 촬영된 영상에서 실종자나 용의자, 수배자 중 하나 이상의 안면을 인식하거나, 사건 현장 영상을 정당한 요청에 의해 요청된 경우 전송하기로 설정한 무인 스마트카인 것을 특징으로 하는 무인 스마트카를 이용한 공익서비스 방법.
  10. 제8항에 있어서,
    상기 이벤트는 상기 비교하는 단계에서의 비교결과를 상기 무인스마트카의 영상 출력부를 통해 출력하는 단계를 더 포함하며,
    상기 영상 출려부를 통해 출력하는 단계는
    실종자라면 일치 정보와 함께 실종자의 보호자의 연락처 정보가 함께 출력하고, 용의자라면 상기 무인 스마트카 주변의 파출소, 경찰서 정보가 함께 출력하는 것을 특징으로 하는 무인 스마트카를 이용한 공익서비스 방법.
  11. 제8항에 있어서,
    상기 무인스마트카는 무인 스마트카 이용자로부터 안면인식 대상(객체)추적이 요청되면 해당 객체를 자동으로 운전하면서 추적하고, 위치 및 영상 정보를 무인 스마트카 관리서버, 공공기관 서버 및 실종자 정보 서버 중 하나 이상으로 전송하는 단계를 더 포함하여 이루어지는 것을 특징으로 하는 무인 스마트카를 이용한 공익서비스 방법.
PCT/KR2016/008054 2015-07-30 2016-07-22 무인 스마트카를 이용한 공익서비스 시스템 및 방법 WO2017018744A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/748,654 US10796132B2 (en) 2015-07-30 2016-07-22 Public service system and method using autonomous smart car

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020150108296A KR101709521B1 (ko) 2015-07-30 2015-07-30 무인 스마트카를 이용한 공익서비스 시스템 및 방법
KR10-2015-0108296 2015-07-30

Publications (1)

Publication Number Publication Date
WO2017018744A1 true WO2017018744A1 (ko) 2017-02-02

Family

ID=57885230

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/008054 WO2017018744A1 (ko) 2015-07-30 2016-07-22 무인 스마트카를 이용한 공익서비스 시스템 및 방법

Country Status (3)

Country Link
US (1) US10796132B2 (ko)
KR (1) KR101709521B1 (ko)
WO (1) WO2017018744A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109788244A (zh) * 2017-11-13 2019-05-21 丰田自动车株式会社 救援系统、救援方法及其所使用的服务器
CN110064145A (zh) * 2019-03-25 2019-07-30 哈尔滨工程大学 一种防火隔离设备的自动关闭系统和方法
WO2019169104A1 (en) * 2018-02-28 2019-09-06 Walmart Apollo, Llc System and method for privacy protection of sensitive information from autonomous vehicle sensors

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107437308B (zh) * 2017-08-02 2022-01-18 京东方科技集团股份有限公司 共享物品的管理系统和方法、共享物品以及共享服务器
US10395457B2 (en) * 2017-08-10 2019-08-27 GM Global Technology Operations LLC User recognition system and methods for autonomous vehicles
US11132532B1 (en) 2018-05-10 2021-09-28 Ism Connect, Llc System and method for facial recognition accuracy
US11544965B1 (en) 2018-05-10 2023-01-03 Wicket, Llc System and method for access control using a plurality of images
US11010597B1 (en) * 2018-05-10 2021-05-18 Ism Connect, Llc Entry prevention of persons of interest from venues and events using facial recognition
US12020505B1 (en) 2018-05-10 2024-06-25 Wicket, Llc System and method for facial recognition accuracy
US10741087B1 (en) * 2018-08-13 2020-08-11 Alarm.Com Incorporated Drone digital locker builder
KR102209857B1 (ko) * 2019-01-09 2021-01-29 주식회사 바이오큐브 순찰차량용 얼굴인식 시스템
US11163820B1 (en) * 2019-03-25 2021-11-02 Gm Cruise Holdings Llc Object search service employing an autonomous vehicle fleet
KR20210080993A (ko) * 2019-12-23 2021-07-01 엘지전자 주식회사 전자 장치 및 그의 동작 방법
US11494865B2 (en) * 2020-04-21 2022-11-08 Micron Technology, Inc. Passenger screening
US11091166B1 (en) 2020-04-21 2021-08-17 Micron Technology, Inc. Driver screening
US11151390B1 (en) 2020-05-21 2021-10-19 Ism Connect, Llc Self-correcting face detection pipeline-based method and apparatus for censusing a crowd

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000330636A (ja) * 1999-05-21 2000-11-30 Komatsu Ltd 車両の無人走行システム
KR100559379B1 (ko) * 2003-02-15 2006-03-10 최용건 선행차량 영상추적을 통한 차량의 조향각데이터 생성장치및 방법
KR20080042782A (ko) * 2008-04-24 2008-05-15 정성욱 무인 앞차 추적 시스템을 이용한 영업방법
KR101263894B1 (ko) * 2013-01-21 2013-05-15 대영유비텍 주식회사 수배차량의 추적장치 및 그 방법
KR20130106640A (ko) * 2012-03-20 2013-09-30 (주) 세인 차량용 블랙박스의 영상인식을 이용한 수배자 및 실종자 추적 장치 및 그 방법

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101091274B1 (ko) 2005-01-19 2011-12-07 현대자동차주식회사 텔레매틱스를 이용한 무인 운전 시스템 및 그 제어 방법
US7961906B2 (en) * 2007-01-03 2011-06-14 Science Applications International Corporation Human detection with imaging sensors
US8624727B2 (en) * 2008-01-28 2014-01-07 Saigh And Son, Llc Personal safety mobile notification system
US8566023B2 (en) * 2009-03-31 2013-10-22 Scott A. Riggins Missing child reporting, tracking and recovery method and system
US8861842B2 (en) * 2010-02-05 2014-10-14 Sri International Method and apparatus for real-time pedestrian detection for urban driving
IL219362A (en) * 2012-04-23 2017-04-30 Verint Systems Ltd A system and method for predicting threatened points of interest
US9950708B1 (en) * 2012-11-02 2018-04-24 Waymo Llc Adaptation of autonomous driving behaviour based on occupant presence and position
US20140263615A1 (en) * 2013-03-16 2014-09-18 Brian DeAngelo Money bill authentication and theft prevention system
WO2014172322A1 (en) * 2013-04-15 2014-10-23 Flextronics Ap, Llc Vehicle intruder alert detection and indication
US9495602B2 (en) * 2013-10-23 2016-11-15 Toyota Motor Engineering & Manufacturing North America, Inc. Image and map-based detection of vehicles at intersections
KR20150081838A (ko) * 2014-01-07 2015-07-15 한국전자통신연구원 수배차량 검색 장치 및 그 방법
US9792434B1 (en) * 2014-01-17 2017-10-17 Knightscope, Inc. Systems and methods for security data analysis and display
US9205805B2 (en) * 2014-02-14 2015-12-08 International Business Machines Corporation Limitations on the use of an autonomous vehicle
WO2015151862A1 (ja) * 2014-04-01 2015-10-08 みこらった株式会社 自動車及び自動車用プログラム
JPWO2015166811A1 (ja) * 2014-04-30 2017-04-20 みこらった株式会社 自動運転車及び自動運転車用プログラム
US9934689B2 (en) * 2014-12-17 2018-04-03 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle operation at blind intersections
US10021254B2 (en) * 2015-01-22 2018-07-10 Verizon Patent And Licensing Inc. Autonomous vehicle cameras used for near real-time imaging
US10365646B1 (en) * 2015-01-27 2019-07-30 United Services Automobile Association (Usaa) Systems and methods for unmanned vehicle management
US9493157B2 (en) * 2015-01-29 2016-11-15 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle operation in obstructed occupant view and sensor detection environments
US9649979B2 (en) * 2015-01-29 2017-05-16 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle operation in view-obstructed environments
US20180139485A1 (en) * 2015-04-22 2018-05-17 Mohammed Tauqeer Ansari Camera System for Car Security
KR101639804B1 (ko) * 2015-05-15 2016-07-25 주식회사 한글과컴퓨터 구급이 가능한 무인 스마트카 및 그의 운용 방법
JP6237725B2 (ja) * 2015-07-27 2017-11-29 トヨタ自動車株式会社 乗員情報取得装置及び車両制御システム
JP6011833B1 (ja) * 2015-09-14 2016-10-19 パナソニックIpマネジメント株式会社 ウェアラブルカメラシステム及び人物報知方法
US9958870B1 (en) * 2015-09-29 2018-05-01 Amazon Technologies, Inc. Environmental condition identification assistance for autonomous vehicles
CN105243838B (zh) * 2015-11-09 2018-05-04 北京奇虎科技有限公司 车辆行驶安全监控方法和装置、系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000330636A (ja) * 1999-05-21 2000-11-30 Komatsu Ltd 車両の無人走行システム
KR100559379B1 (ko) * 2003-02-15 2006-03-10 최용건 선행차량 영상추적을 통한 차량의 조향각데이터 생성장치및 방법
KR20080042782A (ko) * 2008-04-24 2008-05-15 정성욱 무인 앞차 추적 시스템을 이용한 영업방법
KR20130106640A (ko) * 2012-03-20 2013-09-30 (주) 세인 차량용 블랙박스의 영상인식을 이용한 수배자 및 실종자 추적 장치 및 그 방법
KR101263894B1 (ko) * 2013-01-21 2013-05-15 대영유비텍 주식회사 수배차량의 추적장치 및 그 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109788244A (zh) * 2017-11-13 2019-05-21 丰田自动车株式会社 救援系统、救援方法及其所使用的服务器
WO2019169104A1 (en) * 2018-02-28 2019-09-06 Walmart Apollo, Llc System and method for privacy protection of sensitive information from autonomous vehicle sensors
CN110064145A (zh) * 2019-03-25 2019-07-30 哈尔滨工程大学 一种防火隔离设备的自动关闭系统和方法
CN110064145B (zh) * 2019-03-25 2021-04-27 哈尔滨工程大学 一种防火隔离设备的自动关闭系统和方法

Also Published As

Publication number Publication date
US20190005310A1 (en) 2019-01-03
US10796132B2 (en) 2020-10-06
KR101709521B1 (ko) 2017-03-09
KR20170015720A (ko) 2017-02-09

Similar Documents

Publication Publication Date Title
WO2017018744A1 (ko) 무인 스마트카를 이용한 공익서비스 시스템 및 방법
JP7024396B2 (ja) 人物探索システム
WO2019011122A1 (zh) 自行车警用监督管理及智能城市管理的行驶记录系统
JP7047374B2 (ja) 情報収集システム
WO2020149576A1 (ko) 인공지능 기반 차량 검색 시스템
WO2007063970A1 (ja) 監視カメラシステム及び顔画像追跡記録方法
KR101492473B1 (ko) 사용자 기반 상황 인지형 씨씨티비 통합관제시스템
CN103914980A (zh) 摄像装置及影像撷取方法
KR100906203B1 (ko) 지리정보시스템를 이용한 차량 추적 시스템
CN107948258A (zh) 一种基于智慧校园的访客识别系统
CN112041862A (zh) 用于通过自主车辆进行乘客识别的方法和车辆系统
KR20110088012A (ko) 차량의 사고 영상 데이터 수집 장치
KR20130131574A (ko) 주차 차량 감시 시스템 및 방법
CN106097246A (zh) 一种行车记录图像处理方法及系统
KR102480424B1 (ko) 지역 감시기능을 갖는 퍼스널 모빌리티
KR20150020473A (ko) 주차 관리 시스템 및 방법
KR100877930B1 (ko) 과속감지시스템을 이용한 수배차량 검색 방법
WO2019083073A1 (ko) 교통정보 제공 방법, 장치 및 그러한 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램
KR20030034770A (ko) 주행차량 인식 시스템
CN114999222B (zh) 异常举动通知装置、通知系统、通知方法以及记录介质
WO2015050413A1 (ko) 차량용 블랙박스의 영상데이터와 gis 연동 서비스 방법
KR20200056656A (ko) 액션 캠 모듈을 이용한 사람 및 사물 인식 시스템
CN108566535A (zh) 智能移动相机以及智能移动监控系统
KR20200063294A (ko) 차량용 블랙박스 영상의 자동 수집이 가능한 객체추적 시스템 및 방법
CN114220275B (zh) 一种无人值守智慧停车管理系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16830777

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16830777

Country of ref document: EP

Kind code of ref document: A1