KR20210090040A - Online annotation system for obtaining specific image data and method thereof - Google Patents
Online annotation system for obtaining specific image data and method thereof Download PDFInfo
- Publication number
- KR20210090040A KR20210090040A KR1020200003353A KR20200003353A KR20210090040A KR 20210090040 A KR20210090040 A KR 20210090040A KR 1020200003353 A KR1020200003353 A KR 1020200003353A KR 20200003353 A KR20200003353 A KR 20200003353A KR 20210090040 A KR20210090040 A KR 20210090040A
- Authority
- KR
- South Korea
- Prior art keywords
- data
- image data
- information
- specific
- vehicle
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 28
- 238000000605 extraction Methods 0.000 claims description 23
- 238000013480 data collection Methods 0.000 claims description 17
- 238000013075 data extraction Methods 0.000 claims description 14
- 230000001360 synchronised effect Effects 0.000 claims description 6
- 238000011161 development Methods 0.000 abstract description 5
- 238000012795 verification Methods 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 3
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N Silicium dioxide Chemical compound O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000001454 recorded image Methods 0.000 description 2
- 241000289581 Macropus sp. Species 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/08—Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
- G07C5/0841—Registering performance data
- G07C5/085—Registering performance data using electronic data carriers
- G07C5/0866—Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
-
- G06K9/00791—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/008—Registering or indicating the working of vehicles communicating information to a remotely located station
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
본 발명은 특정 영상 데이터 획득을 위한 Online Annotation 시스템 및 방법에 관한 것으로, 보다 상세하게는 차량에서 영상 데이터 취득 시 Online으로 필요한 특정 정보를 Annotation하여 효율적인 특정 데이터를 확보할 수 있도록 하는 특정 영상 데이터 획득을 위한 Online Annotation 시스템 및 방법에 관한 것이다.The present invention relates to an online annotation system and method for acquiring specific image data, and more particularly, to obtain specific image data that enables efficient specific data acquisition by annotating specific information required online when acquiring image data from a vehicle. It relates to an Online Annotation system and method for
차량 주변에 주의를 기울여야 하는 요소가 많은 상황에서 운전자는 서행을 하게 마련이다. 특히 좁은 골목길이나 교차로에서 좌 또는 우 방향으로 회전하는 경우, 운전자의 시야가 충분히 확보되지 않은 영역에서 접근하는 물체가 차량과 충돌할 가능성에 대한 우려로 운전자는 항상 긴장하게 된다.In situations where there are many factors that require attention around the vehicle, the driver tends to slow down. Especially when turning left or right in a narrow alley or intersection, drivers are always nervous about the possibility that an object approaching from an area where the driver's view is not sufficiently secured may collide with the vehicle.
한편, 영상 데이터 Annotation은 Ground Truth를 만드는 작업으로 Machine Learning 기반 영상인식 알고리즘 개발 및 검증을 위해 필수적이다.On the other hand, image data annotation is essential for developing and verifying machine learning-based image recognition algorithms as a task to create ground truth.
기존 방법은 차량에서 영상 데이터를 수집 후 Offline으로 영상을 Annotation을 하여 Ground Truth를 생성하고, 생성된 데이터는 영상 Application 개발 및 검증에 이용된다.The existing method generates ground truth by annotating the image offline after collecting image data from the vehicle, and the generated data is used for image application development and verification.
최근 Auto Annotation 방법도 있지만 미리 학습된 인식 가능 정보만 이용 가능하다.There is a recent Auto Annotation method, but only pre-learned recognizable information is available.
Offline Annotation의 경우는 모든 영상 데이터의 review가 필요하기 때문에 많은 시간이 소요되며, Auto Annotation의 경우 인식 가능 범위에 없는 객체 및 특정 데이터 수집이 어려웠고, 인식시스템 성능에 의존적이며 오인식이 발생할 경우 수정 작업이 필요한 문제가 있었다.In the case of Offline Annotation, it takes a lot of time because it requires review of all image data. In the case of Auto Annotation, it is difficult to collect objects and specific data that are not within the recognizable range, and it is dependent on the performance of the recognition system. There was a necessary problem.
본 발명의 실시예는 차량에서 영상 데이터 취득 시 Online으로 필요한 특정 정보를 Annotation하여 효율적인 특정 데이터를 확보할 수 있도록 하는 것으로, 사용자가 직접 눈으로 보고 실시간 Annotation을 하기 때문에 신뢰도가 높고, 원하는 Type의 데이터를 취득할 수 있고, 자주 나타나지 않는 희귀한 특정 객체 및 환경을 수집하는데 유용하며, 기록된 전체 영상을 이용하는 기존 Offline Annotation과 대비하여 Online Annotation을 통해 추출된 짧은 영상 및 CAN 정보만 이용하여 Annotation 인력과 시간 및 비용이 감소하고, 특정 케이스에 대한 빠른 데이터 확보로 빠른 개발 및 검증이 가능한 특정 영상 데이터 획득을 위한 Online Annotation 시스템 및 방법을 제공하고자 한다.An embodiment of the present invention enables efficient specific data to be secured by annotating specific information required online when acquiring image data from a vehicle, and since the user directly sees and performs real-time annotation, the reliability is high and data of the desired type In contrast to the existing Offline Annotation that uses the entire recorded image, it is useful for collecting rare specific objects and environments that can acquire We aim to provide an online annotation system and method for acquiring specific image data that can reduce time and cost and enable rapid development and verification by securing fast data for a specific case.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.
본 발명의 일 실시예에 따른 특정 영상 데이터 획득을 위한 Online Annotation 시스템은 차량 주행 시 카메라에 의해 촬영된 영상데이터를 통하여 사용자가 설정한 특정 타입의 물체를 인식하면, 상기 특정 타입의 물체 정보를 선택 입력받아 개인식별항목에 이벤트 발생여부와 이에 따른 특정 타입의 물체 정보를 저장하는 이벤트생성부, 상기 카메라를 통하여 촬영된 영상데이터, 상기 차량의 운행정보데이터 및 이벤트 발생 정보가 포함된 상기 개인식별항목을 저장하는 데이터수집부 및 상기 데이터수집부에 상기 영상데이터, 상기 차량의 운행정보데이터 및 상기 개인식별항목이 저장되면, 상기 영상데이터로부터 이벤트 발생 정보가 포함된 일정 부분의 프레임을 추출하여 저장하는 데이터추출부를 포함할 수 있다.The online annotation system for acquiring specific image data according to an embodiment of the present invention selects the specific type of object information when recognizing a specific type of object set by a user through image data captured by a camera while driving a vehicle The personal identification item including the event generation unit that receives input and stores the occurrence of an event and the specific type of object information in the personal identification item, image data captured through the camera, driving information data of the vehicle, and event occurrence information When the image data, the vehicle driving information data, and the personal identification item are stored in the data collection unit and the data collection unit for storing It may include a data extraction unit.
일 실시예에 있어서, 상기 이벤트생성부는 취득하고자 하는 특정 데이터 정보를 사전에 설정받는 것으로, 상기 특정 데이터 정보가 저장될 개인식별항목을 설정받고, 상기 특정 데이터 종류의 타입을 설정받을 수 있다.In an embodiment, the event generator may receive specific data information to be acquired in advance, set a personal identification item in which the specific data information is to be stored, and set a type of the specific data type.
일 실시예에 있어서, 상기 데이터수집부는, 상기 영상데이터, 상기 차량의 운행정보데이터 및 상기 개인식별항목을 동기화하여 저장할 수 있다.In an embodiment, the data collection unit may synchronize and store the image data, the driving information data of the vehicle, and the personal identification item.
일 실시예에 있어서, 상기 데이터추출부는, 이벤트 발생 이전과 이벤트 발생 이후 사이의 상기 차량 이동거리를 사전에 설정받고, 상기 차량의 속도 정보와 초당 프레임 정보를 이용하여 프레임 추출의 시작 지점과 프레임 추출의 끝 지점을 계산할 수 있다.In one embodiment, the data extraction unit receives the vehicle movement distance between before and after the occurrence of the event is set in advance, and extracts the frame extraction start point and frame using the vehicle speed information and the frame information per second can be computed at the end point of
일 실시예에 있어서, 상기 데이터추출부는, 상기 프레임 추출의 시작 지점과 상기 프레임 추출의 끝 지점 사이의 구간 영상, 상기 구간 영상에서의 상기 차량의 운행정보데이터 및 상기 구간 영상에서의 상기 개인식별항목을 동기화하여 저장할 수 있다.In one embodiment, the data extraction unit, the section image between the start point of the frame extraction and the end point of the frame extraction, the driving information data of the vehicle in the section image, and the personal identification item in the section image can be synchronized and saved.
본 발명의 다른 일 실시예에 따른 특정 영상 데이터 획득을 위한 Online Annotation 방법은 차량 주행 시 카메라에 의해 촬영된 영상데이터를 통하여 사용자가 설정한 특정 타입의 물체를 인식하면, 이벤트생성부에서 상기 특정 타입의 물체 정보를 선택 입력받아 개인식별항목에 이벤트 발생여부와 이에 따른 특정 타입의 물체 정보를 저장하는 제1단계, 상기 카메라를 통하여 촬영된 영상데이터, 상기 차량의 운행정보데이터 및 이벤트 발생 정보가 포함된 상기 개인식별항목을 데이터수집부에 저장하는 제2단계 및 상기 데이터수집부에 상기 영상데이터, 상기 차량의 운행정보데이터 및 상기 개인식별항목이 저장되면, 데이터추출부에서 상기 영상데이터로부터 이벤트 발생 정보가 포함된 일정 부분의 프레임을 추출하여 저장하는 제3단계를 포함할 수 있다.In the online annotation method for acquiring specific image data according to another embodiment of the present invention, when a specific type of object set by a user is recognized through image data captured by a camera while driving a vehicle, the event generating unit generates the specific type The first step of selecting and inputting the object information of the personal identification item and storing the specific type of object information according to the occurrence of an event in the personal identification item, including image data captured through the camera, driving information data of the vehicle, and event occurrence information In the second step of storing the personal identification item in the data collection unit, and when the image data, the vehicle driving information data, and the personal identification item are stored in the data collection unit, an event is generated from the image data in the data extraction unit A third step of extracting and storing a frame of a predetermined portion including information may be included.
일 실시예에 있어서, 상기 제1단계는, 취득하고자 하는 특정 데이터 정보를 사전에 설정받는 단계를 포함하는 것으로, 상기 특정 데이터 정보가 저장될 개인식별항목을 설정받는 단계, 상기 특정 데이터 종류의 타입을 설정받는 단계를 포함할 수 있다.In one embodiment, the first step comprises the step of receiving the specific data information to be acquired in advance, the step of receiving the setting of a personal identification item in which the specific data information is to be stored, the type of the specific data type It may include the step of receiving the setting.
일 실시예에 있어서, 상기 제2단계는, 상기 영상데이터, 상기 차량의 운행정보데이터 및 상기 개인식별항목을 동기화하여 저장하는 단계를 포함할 수 있다.In an embodiment, the second step may include synchronizing and storing the image data, the driving information data of the vehicle, and the personal identification item.
일 실시예에 있어서, 상기 제3단계는, 이벤트 발생 이전과 이벤트 발생 이후 사이의 상기 차량 이동거리를 사전에 설정받는 단계, 상기 차량의 속도 정보와 초당 프레임 정보를 이용하여 프레임 추출의 시작 지점과 프레임 추출의 끝 지점을 계산하는 단계를 포함할 수 있다.In one embodiment, the third step comprises the steps of receiving the vehicle movement distance between before and after the event occurrence in advance, the starting point of frame extraction using the vehicle speed information and frame per second information and It may include calculating an end point of frame extraction.
일 실시예에 있어서, 상기 제3단계는, 상기 프레임 추출의 시작 지점과 상기 프레임 추출의 끝 지점 사이의 구간 영상, 상기 구간 영상에서의 상기 차량의 운행정보데이터 및 상기 구간 영상에서의 상기 개인식별항목을 동기화하여 저장하는 단계를 포함할 수 있다.In one embodiment, in the third step, a section image between the start point of the frame extraction and the end point of the frame extraction, the vehicle driving information data in the section image, and the personal identification in the section image It may include synchronizing and storing the item.
본 기술은 차량에서 영상 데이터 취득 시 Online으로 필요한 특정 정보를 Annotation하여 효율적인 특정 데이터를 확보할 수 있도록 하는 것으로, 사용자가 직접 눈으로 보고 실시간 Annotation을 하기 때문에 신뢰도가 높고, 원하는 Type의 데이터를 취득할 수 있고, 자주 나타나지 않는 희귀한 특정 객체 및 환경을 수집하는데 유용하며, 기록된 전체 영상을 이용하는 기존 Offline Annotation과 대비하여 Online Annotation을 통해 추출된 짧은 영상 및 CAN 정보만 이용하여 Annotation 인력과 시간 및 비용이 감소하고, 특정 케이스에 대한 빠른 데이터 확보로 빠른 개발 및 검증이 가능한 효과가 있다.This technology makes it possible to secure specific data efficiently by annotating specific information required online when acquiring image data from a vehicle. Because the user directly sees and performs real-time annotation, the reliability is high and it is possible to acquire the desired type of data. It is useful for collecting rare specific objects and environments that can and do not appear frequently. Annotation manpower, time, and cost using only short images and CAN information extracted through Online Annotation compared to the existing Offline Annotation using the entire recorded image. This has the effect of enabling rapid development and verification by rapidly securing data for a specific case.
이 외에, 본 문서를 통하여 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.In addition, various effects identified directly or indirectly through this document may be provided.
도 1은 본 발명의 일 실시예에 따른 특정 영상 데이터 획득을 위한 Online Annotation 시스템을 나타내는 블록도이다.
도 2는 본 발명의 일 실시예에 따른 특정 영상 데이터 획득을 위한 Online Annotation 시스템에서 특정 데이터 설정을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 특정 영상 데이터 획득을 위한 Online Annotation 시스템에서 이벤트 영상의 저장을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 특정 영상 데이터 획득을 위한 Online Annotation 방법을 설명하기 위한 순서도이다.1 is a block diagram illustrating an online annotation system for acquiring specific image data according to an embodiment of the present invention.
2 is a diagram for explaining specific data setting in an online annotation system for acquiring specific image data according to an embodiment of the present invention.
3 is a diagram for explaining storage of an event image in an online annotation system for acquiring specific image data according to an embodiment of the present invention.
4 is a flowchart illustrating an online annotation method for acquiring specific image data according to an embodiment of the present invention.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통하여 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail with reference to exemplary drawings. In adding reference numerals to the components of each drawing, it should be noted that the same components are given the same reference numerals as much as possible even though they are indicated on different drawings. In addition, in describing the embodiment of the present invention, if it is determined that a detailed description of a related known configuration or function interferes with the understanding of the embodiment of the present invention, the detailed description thereof will be omitted.
본 발명의 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In describing the components of the embodiment of the present invention, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the component from other components, and the essence, order, or order of the component is not limited by the term. In addition, unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having meanings consistent with the meanings in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not
이하, 도 1 내지 도 3을 참조하여, 본 발명의 실시예들을 구체적으로 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to FIGS. 1 to 3 .
도 1은 본 발명의 일 실시예에 따른 특정 영상 데이터 획득을 위한 Online Annotation 시스템을 나타내는 블록도이고, 도 2는 본 발명의 일 실시예에 따른 특정 영상 데이터 획득을 위한 Online Annotation 시스템에서 특정 데이터 설정을 설명하기 위한 도면이고, 도 3은 본 발명의 일 실시예에 따른 특정 영상 데이터 획득을 위한 Online Annotation 시스템에서 이벤트 영상의 저장을 설명하기 위한 도면이다.1 is a block diagram illustrating an Online Annotation system for acquiring specific image data according to an embodiment of the present invention, and FIG. 2 is a specific data setting in the Online Annotation system for acquiring specific image data according to an embodiment of the present invention , and FIG. 3 is a diagram for explaining storage of an event image in the Online Annotation system for acquiring specific image data according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 특정 영상 데이터 획득을 위한 Online Annotation 시스템은, 차량의 주행 상황에서 특정 정보를 Annotation하여 특정 영상 데이터를 획득하는 것으로, 이벤트생성부(100), 데이터수집부(300) 및 데이터추출부(500)를 포함하여 구성할 수 있다.Referring to FIG. 1 , the online annotation system for acquiring specific image data according to an embodiment of the present invention acquires specific image data by annotating specific information in a driving situation of a vehicle, an
이벤트생성부(100)는 차량에서 실시간으로 동작하는 것으로, 차량 주행 시 카메라에 의해 촬영된 영상데이터를 통하여 사용자가 설정한 특정 타입의 물체를 인식하면, 상기 특정 타입의 물체 정보를 선택 입력받아 개인식별항목에 이벤트 발생여부와 이에 따른 특정 타입의 물체 정보를 저장할 수 있다.The
이벤트생성부(100)는 취득하고자 하는 특정 데이터 정보를 사전에 설정하는 것으로, 특정 데이터 정보가 저장될 개인식별항목을 설정하고, 특정 데이터 종류의 타입을 설정할 수 있다.The
예를 들어, 도 2를 참조하면, 사용자(차량 운전자)는 취득하고자 하는 특정 데이터 정보를 사전에 설정할 수 있는 것으로, 정보가 저장될 개인식별항목(CAN ID)을 설정하고, 타입설정부(130)에 특정 데이터 종류인 타입(Type)을 복수로 설정할 수 있다.For example, referring to FIG. 2 , a user (a vehicle driver) can set specific data information to be acquired in advance, sets a personal identification item (CAN ID) in which the information is to be stored, and sets the type setting unit 130 ), which is a specific data type, can be set to a plurality of types.
특정 데이터 종류로써, 타입 1은 표지판, 타입 2는 트렉터, 타입 3은 캥거루, 타입 4는 고라니, 타입 N은 훼손된 표지판 등으로 미리 설정할 수 있다.As a specific data type,
이렇게 함으로써, 자주 나타나지 않는 희귀한 객체, 특정한 객체 및 특정한 환경 데이터를 수집하는데 유용할 수 있다.By doing so, it can be useful to collect rare objects, certain objects, and certain environmental data that do not appear often.
이벤트생성부(100)를 통하여 취득하고자 하는 특정 데이터 정보가 설정되면, Online Annotation 으로써 차량 주행 시 사용자가 설정한 이벤트 생성 옵션 기반으로 해당 타입의 종류가 나타나서 촬영되면, 미리 설정된 해당 타입을 마우스 클릭이나 단축키로 입력하여 개인식별항목(110)에 이벤트 발생여부와 특정 데이터 타입을 저장할 수 있다.When specific data information to be acquired is set through the
데이터수집부(300)는 차량에서 실시간으로 동작하는 것으로, 카메라를 통하여 촬영된 영상데이터, C(Chassis) CAN 통신으로 전달된 차량의 운행정보데이터 및 이벤트 발생 정보가 포함된 개인식별항목(110)을 저장할 수 있다. 이때, 데이터수집부(300)는 영상데이터, 차량의 운행정보데이터 및 개인식별항목(110)을 동기화하여 저장할 수 있다.The
데이터추출부(500)는 데이터수집부(300)에 영상데이터, 차량의 운행정보데이터 및 개인식별항목(110)이 저장되면 동작하는 것으로, 영상데이터로부터 이벤트 발생 정보가 포함된 일정 부분의 프레임을 추출하여 저장할 수 있다.The
데이터추출부(500)는 개인식별항목(110)을 검색하여, 이벤트가 발생하였는지 체크하고, 발생하였다면 해당 프레임 위치기반 영상 및 차량의 운행정보데이터를 크롭(Crop)하여 타입 별로 저장할 수 있다.The
도 3을 참조하여, 데이터추출부(500)는 영상데이터 프레임(511), 차량운행데이터 프레임(521), 개인식별항목이 포함된 개인설정데이터 프레임(531)이 동기화된 상태에서, T 프레임에서 이벤트가 발생하였다면, 이벤트 발생 시점인 'T'프레임을 기준으로 이벤트 발생 이전의 프레임인 'T-A'와 이벤트 발생 이후의 프레임인 'T+B' 사이의 프레임을 크롭하고, 크롭된 영상데이터 프레임(513), 크롭된 차량운행데이터 프레임(523) 및 크롭된 개인설정데이터 프레임(533)을 동기화하여 저장할 수 있다.Referring to FIG. 3 , the
상술한 데이터 크롭 방법은, 먼저, 이벤트 발생 프레임을 기준으로 이벤트 발생 프레임 이전과 이벤트 발생 프레임 이후 사이에 해당하는 구간에서의 차량 이동거리를 사전에 설정하고, 차량의 속도 정보와 초당 프레임(fps; frame per second) 정보를 이용하여 프레임 추출의 시작 지점과 프레임 추출의 끝 지점을 계산할 수 있다.In the above-described data cropping method, first, based on the event occurrence frame, the vehicle movement distance is set in advance in a section between before the event occurrence frame and after the event occurrence frame, and the vehicle speed information and frames per second (fps; frame per second) information can be used to calculate the start point of frame extraction and the end point of frame extraction.
프레임 추출의 시작 지점을 'A'로 설정하고, 프레임 추출의 끝 지점을 'B'로 설정하면, 'A'지점의 프레임 수 및 'B'지점의 프레임 수는 각각 [수학식 1]을 통하여 계산할 수 있다.If the start point of frame extraction is set to 'A' and the end point of frame extraction is set to 'B', the number of frames at point 'A' and the number of frames at point 'B' are respectively through [Equation 1] can be calculated
[수학식 1][Equation 1]
프레임 수 = fps * (차량이동거리 / 차량속도)Frame rate = fps * (vehicle travel distance / vehicle speed)
이어서, 데이터추출부(500)는 이벤트 발생 프레임 'T'를 기준으로 'T-A'에서 'T+B' 구간의 영상데이터 프레임(513), 'T-A'에서 'T+B' 구간의 차량운행데이터 프레임(523), 'T-A'에서 'T+B' 구간의 개인식별항목 프레임(533)을 동기화하여 데이터베이스에 저장할 수 있다.Next, the
이때, 'T-A'에서 'T+B' 구간의 영상데이터 프레임(513), 'T-A'에서 'T+B' 구간의 차량운행데이터 프레임(523), 'T-A'에서 'T+B' 구간의 개인식별항목 프레임(533)은 타입 별로 각각 저장될 수 있다.At this time, the image data frame 513 from 'T-A' to 'T+B', the vehicle operation data frame 523 from 'T-A' to 'T+B', and 'T-A' to ' The personal identification item frame 533 of the T+B' section may be stored for each type.
예를 들어, 타입 1인 데이터에 대하여 'T-A'에서 'T+B' 구간의 영상데이터 프레임(513), 'T-A'에서 'T+B' 구간의 차량운행데이터 프레임(523), 'T-A'에서 'T+B' 구간의 개인식별항목 프레임(533)이 별도로 저장될 수 있고, 타입 2인 데이터에 대하여 'T-A'에서 'T+B' 구간의 영상데이터 프레임(513), 'T-A'에서 'T+B' 구간의 차량운행데이터 프레임(523), 'T-A'에서 'T+B' 구간의 개인식별항목 프레임(533)이 별도로 저장될 수 있고, 타입 N인 데이터에 대하여 'T-A'에서 'T+B' 구간의 영상데이터 프레임(513), 'T-A'에서 'T+B' 구간의 차량운행데이터 프레임(523), 'T-A'에서 'T+B' 구간의 개인식별항목 프레임(533)이 별도로 저장될 수 있다.For example, with respect to
이하, 도 5를 참조하여 본 발명의 다른 일 실시예에 따른 특정 영상 데이터 획득을 위한 Online Annotation 방법을 구체적으로 설명하기로 한다. 도 4는 본 발명의 일 실시예에 따른 특정 영상 데이터 획득을 위한 Online Annotation 방법을 설명하기 위한 순서도이다.Hereinafter, an online annotation method for acquiring specific image data according to another embodiment of the present invention will be described in detail with reference to FIG. 5 . 4 is a flowchart illustrating an online annotation method for acquiring specific image data according to an embodiment of the present invention.
이하에서는 도 1의 특정 영상 데이터 획득을 위한 Online Annotation 시스템이 도 4의 프로세스를 수행하는 것을 가정한다.Hereinafter, it is assumed that the online annotation system for acquiring specific image data of FIG. 1 performs the process of FIG. 4 .
먼저, 취득하고자 하는 특정 데이터 정보를 사전에 설정하는 단계를 포함하는 것으로, 특정 데이터 정보가 저장될 개인식별항목을 설정하고, 특정 데이터 종류의 타입을 설정할 수 있다(S110).First, it includes the step of setting specific data information to be acquired in advance, and it is possible to set a personal identification item in which specific data information is to be stored, and set a specific data type type (S110).
이어서, 차량 주행 시 카메라에 의해 촬영된 영상데이터를 통하여 사용자가 설정한 특정 타입의 물체를 인식하면(S120), 차량 운행정보를 입력받고(S130), 이벤트생성부(100)에서 특정 타입의 물체 정보를 선택 입력받고(S140), 개인식별항목(110)에 이벤트 발생여부와 이에 따른 특정 타입의 물체 정보를 저장할 수 있다(S150).Next, when a specific type of object set by the user is recognized through image data captured by the camera while driving the vehicle (S120), vehicle operation information is received (S130), and the
이어서, 카메라를 통하여 촬영된 영상데이터, 차량의 운행정보데이터 및 이벤트 발생 정보가 포함된 개인식별항목(110)을 동기화하여 데이터수집부(300)에 저장할 수 있다(S160).Subsequently, the
이어서, 데이터수집부(300)에 영상데이터, 차량의 운행정보데이터 및 개인식별항목이 저장되면, 데이터추출부(500)에서 영상데이터로부터 이벤트 발생 정보가 포함된 일정 부분의 프레임을 추출하여(S170), 데이터베이스에 저장할 수 있는 것으로(S180), 이벤트 발생 이전과 이벤트 발생 이후 사이의 차량 이동거리를 사전에 설정하고, 차량의 속도 정보와 초당 프레임 정보를 이용하여 프레임 추출의 시작 지점과 프레임 추출의 끝 지점을 계산할 수 있다.Then, when the image data, vehicle driving information data, and personal identification items are stored in the
이어서, 프레임 추출의 시작 지점과 프레임 추출의 끝 지점 사이의 구간 영상, 구간 영상에서의 차량의 운행정보데이터 및 구간 영상에서의 개인식별항목을 동기화하여 저장할 수 있다.Subsequently, it is possible to synchronize and store the section image between the start point of frame extraction and the end point of frame extraction, vehicle driving information data in the section image, and personal identification items in the section image.
이상에서 설명한 바와 같은 특정 영상 데이터 획득을 위한 Online Annotation 시스템 및 방법에 따르면, 차량에서 영상 데이터 취득 시 Online으로 필요한 특정 정보를 Annotation 하여 효율적인 특정 데이터를 확보할 수 있도록 하는 것으로, 사용자가 직접 눈으로 보고 실시간 Annotation을 하기 때문에 신뢰도가 높고, 원하는 타입의 데이터를 취득할 수 있고, 자주 나타나지 않는 희귀한 특정 객체 및 환경을 수집하는데 유용하며, 기록된 전체 영상을 이용하는 기존 Offline Annotation과 대비하여 Online Annotation을 통해 추출된 짧은 영상 및 CAN 정보만 이용하여 Annotation 인력과 시간 및 비용이 감소하고, 특정 케이스에 대한 빠른 데이터 확보로 빠른 개발 및 검증이 가능한 효과가 있다.According to the Online Annotation system and method for acquiring specific image data as described above, when acquiring image data from a vehicle, it is possible to secure specific data efficiently by annotating specific information required online. Because real-time annotation is performed, the reliability is high, desired type of data can be acquired, and it is useful for collecting rare specific objects and environments that do not appear frequently. Annotation manpower, time, and cost are reduced by using only extracted short images and CAN information, and rapid development and verification are possible by securing fast data for a specific case.
한편, 본 발명에 따른 단계 S110 내지 단계 S180에 따른 특정 영상 데이터 획득을 위한 Online Annotation 방법을 프로그램화하여 컴퓨터가 읽을 수 있도록 기록매체에 저장시킬 수도 있다.Meanwhile, the online annotation method for obtaining specific image data according to steps S110 to S180 according to the present invention may be programmed and stored in a computer-readable recording medium.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. The above description is merely illustrative of the technical spirit of the present invention, and various modifications and variations will be possible without departing from the essential characteristics of the present invention by those skilled in the art to which the present invention pertains.
따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.
100: 이벤트생성부 300: 데이터수집부
500: 데이터추출부100: event generation unit 300: data collection unit
500: data extraction unit
Claims (11)
상기 카메라를 통하여 촬영된 영상데이터, 상기 차량의 운행정보데이터 및 이벤트 발생 정보가 포함된 상기 개인식별항목을 저장하는 데이터수집부; 및
상기 데이터수집부에 상기 영상데이터, 상기 차량의 운행정보데이터 및 상기 개인식별항목이 저장되면, 상기 영상데이터로부터 이벤트 발생 정보가 포함된 일정 부분의 프레임을 추출하여 저장하는 데이터추출부
를 포함하는 것을 특징으로 하는 특정 영상 데이터 획득을 위한 Online Annotation 시스템.When a specific type of object set by the user is recognized through the image data captured by the camera while the vehicle is driving, the specific type of object information is selected and input, and whether an event has occurred and the specific type of object information is displayed in the personal identification item. an event generator to store;
a data collection unit for storing the personal identification item including image data captured by the camera, driving information data of the vehicle, and event occurrence information; and
When the image data, the vehicle driving information data, and the personal identification item are stored in the data collection unit, a data extraction unit for extracting and storing a frame of a certain portion including event occurrence information from the image data
Online Annotation system for acquiring specific image data, characterized in that it comprises a.
상기 이벤트생성부는,
취득하고자 하는 특정 데이터 정보를 사전에 설정받는 것으로, 상기 특정 데이터 정보가 저장될 개인식별항목을 설정받고, 상기 특정 데이터 종류의 타입을 설정받는 것을 특징으로 하는 특정 영상 데이터 획득을 위한 Online Annotation 시스템.The method according to claim 1,
The event generating unit,
Online Annotation system for acquiring specific image data, characterized in that receiving specific data information to be acquired in advance, receiving a personal identification item in which the specific data information is to be stored, and receiving a type of specific data type.
상기 데이터수집부는,
상기 영상데이터, 상기 차량의 운행정보데이터 및 상기 개인식별항목을 동기화하여 저장하는 것을 특징으로 하는 특정 영상 데이터 획득을 위한 Online Annotation 시스템.The method according to claim 1,
The data collection unit,
Online Annotation system for acquiring specific image data, characterized in that the image data, the driving information data of the vehicle, and the personal identification item are synchronized and stored.
상기 데이터추출부는,
이벤트 발생 이전과 이벤트 발생 이후 사이의 상기 차량 이동거리를 사전에 설정받고, 상기 차량의 속도 정보와 초당 프레임 정보를 이용하여 프레임 추출의 시작 지점과 프레임 추출의 끝 지점을 계산하는 것을 특징으로 하는 특정 영상 데이터 획득을 위한 Online Annotation 시스템.The method according to claim 1,
The data extraction unit,
Specific characterized in that the vehicle movement distance between before and after the event is set in advance, and a start point of frame extraction and an end point of frame extraction are calculated using the vehicle speed information and frame per second information. Online Annotation system for image data acquisition.
상기 데이터추출부는,
상기 프레임 추출의 시작 지점과 상기 프레임 추출의 끝 지점 사이의 구간 영상, 상기 구간 영상에서의 상기 차량의 운행정보데이터 및 상기 구간 영상에서의 상기 개인식별항목을 동기화하여 저장하는 것을 특징으로 하는 특정 영상 데이터 획득을 위한 Online Annotation 시스템.5. The method according to claim 4,
The data extraction unit,
A specific image characterized in that the segment image between the start point of the frame extraction and the end point of the frame extraction, the driving information data of the vehicle in the segment image, and the personal identification item in the segment image are synchronized and stored Online Annotation System for Data Acquisition.
상기 카메라를 통하여 촬영된 영상데이터, 상기 차량의 운행정보데이터 및 이벤트 발생 정보가 포함된 상기 개인식별항목을 데이터수집부에 저장하는 제2단계; 및
상기 데이터수집부에 상기 영상데이터, 상기 차량의 운행정보데이터 및 상기 개인식별항목이 저장되면, 데이터추출부에서 상기 영상데이터로부터 이벤트 발생 정보가 포함된 일정 부분의 프레임을 추출하여 저장하는 제3단계
를 포함하는 것을 특징으로 하는 특정 영상 데이터 획득을 위한 Online Annotation 방법.When a specific type of object set by the user is recognized through the image data captured by the camera while driving the vehicle, the event generator selects and receives information about the specific type of object, and determines whether an event occurs in the personal identification item and the specific type accordingly A first step of storing the object information of the;
a second step of storing the personal identification item including image data captured by the camera, driving information data of the vehicle, and event occurrence information in a data collection unit; and
When the image data, the driving information data of the vehicle, and the personal identification item are stored in the data collection unit, a third step of extracting and storing a frame of a certain portion including the event occurrence information from the image data in the data extraction unit
Online Annotation method for acquiring specific image data, characterized in that it comprises a.
상기 제1단계는,
취득하고자 하는 특정 데이터 정보를 사전에 설정받는 단계를 포함하는 것으로, 상기 특정 데이터 정보가 저장될 개인식별항목을 설정받는 단계, 상기 특정 데이터 종류의 타입을 설정받는 단계를 포함하는 것을 특징으로 하는 특정 영상 데이터 획득을 위한 Online Annotation 방법.7. The method of claim 6,
The first step is
Specific data information to be acquired includes the step of receiving in advance setting, the step of receiving a personal identification item to be stored in the specific data information is stored, the step of receiving a setting of the type of the specific data type, characterized in that it comprises the steps of: Online Annotation method for image data acquisition.
상기 제2단계는,
상기 영상데이터, 상기 차량의 운행정보데이터 및 상기 개인식별항목을 동기화하여 저장하는 단계를 포함하는 것을 특징으로 하는 특정 영상 데이터 획득을 위한 Online Annotation 방법.7. The method of claim 6,
The second step is
Online Annotation method for acquiring specific image data, comprising the step of synchronizing and storing the image data, the driving information data of the vehicle, and the personal identification item.
상기 제3단계는,
이벤트 발생 이전과 이벤트 발생 이후 사이의 상기 차량 이동거리를 사전에 설정받는 단계, 상기 차량의 속도 정보와 초당 프레임 정보를 이용하여 프레임 추출의 시작 지점과 프레임 추출의 끝 지점을 계산하는 단계를 포함하는 것을 특징으로 하는 특정 영상 데이터 획득을 위한 Online Annotation 방법.7. The method of claim 6,
The third step is
Receiving the vehicle movement distance between before the event occurrence and after the event occurrence is set in advance, and calculating a start point of frame extraction and an end point of frame extraction using the vehicle speed information and frame per second information Online Annotation method for acquiring specific image data, characterized in that.
상기 제3단계는,
상기 프레임 추출의 시작 지점과 상기 프레임 추출의 끝 지점 사이의 구간 영상, 상기 구간 영상에서의 상기 차량의 운행정보데이터 및 상기 구간 영상에서의 상기 개인식별항목을 동기화하여 저장하는 단계를 포함하는 것을 특징으로 하는 특정 영상 데이터 획득을 위한 Online Annotation 방법.10. The method of claim 9,
The third step is
and synchronizing and storing the section image between the start point of the frame extraction and the end point of the frame extraction, the driving information data of the vehicle in the section image, and the personal identification item in the section image. Online Annotation method for acquiring specific image data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200003353A KR102693852B1 (en) | 2020-01-09 | 2020-01-09 | Online annotation system for obtaining specific image data and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200003353A KR102693852B1 (en) | 2020-01-09 | 2020-01-09 | Online annotation system for obtaining specific image data and method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210090040A true KR20210090040A (en) | 2021-07-19 |
KR102693852B1 KR102693852B1 (en) | 2024-08-12 |
Family
ID=77125941
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200003353A KR102693852B1 (en) | 2020-01-09 | 2020-01-09 | Online annotation system for obtaining specific image data and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102693852B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114267096A (en) * | 2021-12-03 | 2022-04-01 | 联通智网科技股份有限公司 | Driving record data processing method and device and storage medium |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150056381A (en) * | 2013-11-15 | 2015-05-26 | 삼성테크윈 주식회사 | Appratus and method for processing image |
KR20150138981A (en) * | 2014-05-30 | 2015-12-11 | 현대엠엔소프트 주식회사 | Car black box and the control method thereof |
KR20170012063A (en) * | 2015-07-22 | 2017-02-02 | 도요타지도샤가부시키가이샤 | On-board recording system |
KR102002225B1 (en) | 2017-11-23 | 2019-07-19 | 재단법인 다차원 스마트 아이티 융합시스템 연구단 | License plate recognition method and system |
KR20190121610A (en) * | 2018-04-18 | 2019-10-28 | 엔쓰리엔 주식회사 | Vehicle-related data collecting apparatus and method |
-
2020
- 2020-01-09 KR KR1020200003353A patent/KR102693852B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150056381A (en) * | 2013-11-15 | 2015-05-26 | 삼성테크윈 주식회사 | Appratus and method for processing image |
KR20150138981A (en) * | 2014-05-30 | 2015-12-11 | 현대엠엔소프트 주식회사 | Car black box and the control method thereof |
KR20170012063A (en) * | 2015-07-22 | 2017-02-02 | 도요타지도샤가부시키가이샤 | On-board recording system |
KR102002225B1 (en) | 2017-11-23 | 2019-07-19 | 재단법인 다차원 스마트 아이티 융합시스템 연구단 | License plate recognition method and system |
KR20190121610A (en) * | 2018-04-18 | 2019-10-28 | 엔쓰리엔 주식회사 | Vehicle-related data collecting apparatus and method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114267096A (en) * | 2021-12-03 | 2022-04-01 | 联通智网科技股份有限公司 | Driving record data processing method and device and storage medium |
Also Published As
Publication number | Publication date |
---|---|
KR102693852B1 (en) | 2024-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108733819B (en) | Personnel archive establishing method and device | |
CN106991395B (en) | Information processing method and device and electronic equipment | |
CN111401205B (en) | Action recognition method and device, electronic equipment and computer readable storage medium | |
CN111046235B (en) | Method, system, equipment and medium for searching acoustic image archive based on face recognition | |
EP3229171A1 (en) | Method and device for determining identity identifier of human face in human face image, and terminal | |
US11527000B2 (en) | System and method for re-identifying target object based on location information of CCTV and movement information of object | |
US11321966B2 (en) | Method and apparatus for human behavior recognition, and storage medium | |
JP5662670B2 (en) | Image processing apparatus, image processing method, and program | |
CN113302907B (en) | Shooting method, shooting device, shooting equipment and computer readable storage medium | |
US20160239712A1 (en) | Information processing system | |
US20220301317A1 (en) | Method and device for constructing object motion trajectory, and computer storage medium | |
US9323989B2 (en) | Tracking device | |
CN112800922B (en) | Face recognition method and device, electronic equipment and storage medium | |
US20200293760A1 (en) | Multi-modal identity recognition | |
US9064172B2 (en) | System and method for object detection | |
KR20210090040A (en) | Online annotation system for obtaining specific image data and method thereof | |
KR20210114309A (en) | Apparatus and method for tracking pedestrians in multiple cctv environment | |
EP3570207B1 (en) | Video cookies | |
CN110008810B (en) | Method, device, equipment and machine-readable storage medium for face image acquisition | |
CN111783725A (en) | Face recognition method, face recognition device and storage medium | |
CN111860559A (en) | Image processing method, image processing device, electronic equipment and storage medium | |
JP4773998B2 (en) | Surveillance camera system, moving image search device, face image database update device, and operation control method thereof | |
CN113507571B (en) | Video anti-clipping method, device, equipment and readable storage medium | |
CN111177449B (en) | Multi-dimensional information integration method based on picture and related equipment | |
CN115391596A (en) | Video archive generation method and device and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |