KR102144707B1 - Method for generating annotation and image based on touch of mobile device to learn artificial intelligence and apparatus therefor - Google Patents

Method for generating annotation and image based on touch of mobile device to learn artificial intelligence and apparatus therefor Download PDF

Info

Publication number
KR102144707B1
KR102144707B1 KR1020180122974A KR20180122974A KR102144707B1 KR 102144707 B1 KR102144707 B1 KR 102144707B1 KR 1020180122974 A KR1020180122974 A KR 1020180122974A KR 20180122974 A KR20180122974 A KR 20180122974A KR 102144707 B1 KR102144707 B1 KR 102144707B1
Authority
KR
South Korea
Prior art keywords
annotation
image
target area
mobile device
generating
Prior art date
Application number
KR1020180122974A
Other languages
Korean (ko)
Other versions
KR20200042629A (en
Inventor
최진욱
김상훈
김희원
Original Assignee
주식회사 키센스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 키센스 filed Critical 주식회사 키센스
Priority to KR1020180122974A priority Critical patent/KR102144707B1/en
Publication of KR20200042629A publication Critical patent/KR20200042629A/en
Application granted granted Critical
Publication of KR102144707B1 publication Critical patent/KR102144707B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Telephone Function (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

인공지능 학습을 위한 모바일 기기의 터치 기반 어노테이션과 이미지 생성 방법 및 그 장치가 개시된다. 본 발명의 일 실시예에 따른 어노테이션과 이미지 생성 방법은 모바일 기기의 터치 기반 어노테이션과 이미지 생성 방법에 있어서, 상기 모바일 기기에서 이미지를 획득하는 단계; 상기 획득된 이미지에서 대상 영역을 설정하는 단계; 및 상기 설정된 대상 영역에 대한 어노테이션(annotation)을 생성하는 단계를 포함하며, 나아가, 본 발명의 일 실시예에 따른 어노테이션과 이미지 생성 방법은 상기 생성된 어노테이션에 기초하여 상기 대상 영역에 대응하는 어노테이션된 이미지를 생성하는 단계를 더 포함할 수 있다.Disclosed are a method and apparatus for generating touch-based annotations and images in a mobile device for artificial intelligence learning. An annotation and image generation method according to an embodiment of the present invention is a touch-based annotation and image generation method of a mobile device, the method comprising: acquiring an image from the mobile device; Setting a target area in the acquired image; And generating an annotation for the set target area, and further, an annotation and an image generation method according to an embodiment of the present invention include annotated corresponding to the target area based on the generated annotation. It may further include generating an image.

Description

인공지능 학습을 위한 모바일 기기의 터치 기반 어노테이션과 이미지 생성 방법 및 그 장치 {METHOD FOR GENERATING ANNOTATION AND IMAGE BASED ON TOUCH OF MOBILE DEVICE TO LEARN ARTIFICIAL INTELLIGENCE AND APPARATUS THEREFOR}Touch-based annotation and image generation method and device of mobile device for artificial intelligence learning {METHOD FOR GENERATING ANNOTATION AND IMAGE BASED ON TOUCH OF MOBILE DEVICE TO LEARN ARTIFICIAL INTELLIGENCE AND APPARATUS THEREFOR}

본 발명은 인공지능 학습을 위하여 어노테이션(annotation)과 이미지를 생성하는 기술에 관한 것으로, 보다 구체적으로는 스마트폰과 같은 모바일 기기의 터치에 기반하여 인공지능 학습을 위한 어노테이션과 이미지를 생성할 수 있는 어노테이션과 이미지 생성 방법 및 그 장치에 관한 것이다.The present invention relates to a technology for generating annotations and images for artificial intelligence learning. More specifically, annotations and images for artificial intelligence learning can be generated based on a touch of a mobile device such as a smartphone. It relates to an annotation and image generation method and apparatus thereof.

근래에 들어 딥 러닝은 얼굴 인식, 전신 인식, 자세 인식, 음성 인식, 객체 인식, 데이터 마이닝 등 다양한 인식에 적용되고 있다. 특히, 영상으로부터 특정 객체를 인식하는 객체 인식과 딥 러닝 학습 네트워크를 접목시키는 연구는 다양한 방식으로 활발히 이루어지고 있다.In recent years, deep learning has been applied to various recognitions such as face recognition, full body recognition, posture recognition, speech recognition, object recognition, and data mining. In particular, researches on combining deep learning learning networks with object recognition that recognize specific objects from images are being actively conducted in various ways.

인공 지능을 학습 하기 위해서는 어노테이션(annotation) 작업을 수행하고, 어노테이션된 이미지를 이용하여 학습을 진행하는데, 종래 어노테이션을 생성하는 과정은 컴퓨터를 이용하여 학습에 사용되는 이미지를 로딩하고, 로딩된 이미지에서 마우스 등으로 블록을 지정하여 지정된 블록에 대한 어노테이션을 생성한다.In order to learn artificial intelligence, annotation is performed and learning is performed using annotated images. In the conventional process of creating an annotation, an image used for learning is loaded using a computer, and By designating a block with a mouse, etc., annotation for the designated block is created.

하지만, 종래 기술은 어노테이션을 생성하기 위한 해당 사용자가 모든 이미지들 각각에 대한 어노테이션 작업을 수행하기 때문에 시간과 비용이 많이 들고, 데이터를 수집하기에도 어려운 문제점이 있다.However, in the prior art, since a corresponding user for generating an annotation performs an annotation operation on each of all images, it is time-consuming and expensive, and it is difficult to collect data.

따라서, 인공 지능 학습을 위해 필요로 하는 이미지에 대한 어노테이션과 어노테이션된 이미지를 용이하게 생성하고 수집할 수 있는 방법의 필요성이 대두된다.Therefore, there is a need for a method capable of easily generating and collecting annotations and annotated images for images required for artificial intelligence learning.

본 발명의 실시예들은, 스마트폰과 같은 모바일 기기의 터치에 기반하여 인공지능 학습을 위한 어노테이션과 이미지를 생성할 수 있는 어노테이션과 이미지 생성 방법 및 그 장치를 제공한다.Embodiments of the present invention provide an annotation and image generation method and apparatus capable of generating annotations and images for artificial intelligence learning based on a touch of a mobile device such as a smart phone.

구체적으로, 본 발명의 실시예들은, 모바일 기기에서 획득된 이미지에서 특정 오브젝트에 대한 대상 영역을 설정함으로써, 대상 영역에 대한 어노테이션과 대상 영역에 대응하는 어노테이션된 이미지를 생성하고, 이렇게 생성된 어노테이션과 어노테이션된 이미지 및 획득된 이미지를 미리 설정된 서버로 전송할 수 있는 어노테이션과 이미지 생성 방법 및 그 장치를 제공한다.Specifically, embodiments of the present invention generate an annotation for the target area and an annotated image corresponding to the target area by setting a target area for a specific object in an image acquired from a mobile device, and the generated annotation and It provides an annotation and an image generating method and apparatus for transmitting an annotated image and an acquired image to a preset server.

본 발명의 일 실시예에 따른 어노테이션과 이미지 생성 방법은 모바일 기기의 터치 기반 어노테이션과 이미지 생성 방법에 있어서, 상기 모바일 기기에서 이미지를 획득하는 단계; 상기 획득된 이미지에서 대상 영역을 설정하는 단계; 및 상기 설정된 대상 영역에 대한 어노테이션(annotation)을 생성하는 단계를 포함한다.An annotation and image generation method according to an embodiment of the present invention is a touch-based annotation and image generation method of a mobile device, the method comprising: acquiring an image from the mobile device; Setting a target area in the acquired image; And generating an annotation for the set target region.

나아가, 본 발명의 일 실시예에 따른 어노테이션과 이미지 생성 방법은 상기 생성된 어노테이션에 기초하여 상기 대상 영역에 대응하는 어노테이션된 이미지를 생성하는 단계를 더 포함할 수 있다.Furthermore, the annotation and image generation method according to an embodiment of the present invention may further include generating an annotated image corresponding to the target area based on the generated annotation.

상기 대상 영역을 설정하는 단계는 상기 모바일 기기의 화면 상에 표시되는 상기 이미지 상에서 사용자의 터치 입력을 통해 상기 대상 영역을 설정할 수 있다.In the setting of the target area, the target area may be set through a user's touch input on the image displayed on the screen of the mobile device.

상기 대상 영역을 설정하는 단계는 상기 이미지 상에 포함된 자동차, 자동차 번호판, 자동차 번호판의 문자, 얼굴, 미리 설정된 오브젝트 중 적어도 하나를 상기 대상 영역으로 설정할 수 있다.In the setting of the target area, at least one of a vehicle, a license plate, a character, a face, and a preset object included in the image may be set as the target area.

상기 어노테이션을 생성하는 단계는 상기 대상 영역에 대한 좌표 값을 정보화함으로써, 상기 대상 영역에 대한 어노테이션을 생성할 수 있다.In the step of generating the annotation, an annotation for the target region may be generated by converting the coordinate value of the target region into information.

더 나아가, 본 발명의 일 실시예에 따른 어노테이션과 이미지 생성 방법은 상기 생성된 어노테이션과 어노테이션된 이미지 및 상기 획득된 이미지를 미리 설정된 서버로 전송하는 단계를 더 포함할 수 있다.Furthermore, the annotation and image generation method according to an embodiment of the present invention may further include transmitting the generated annotation, the annotated image, and the obtained image to a preset server.

본 발명의 일 실시예에 따른 어노테이션과 이미지 생성 장치는 모바일 기기의 터치 기반 어노테이션과 이미지 생성 장치에 있어서, 상기 모바일 기기에서 이미지를 획득하는 획득부; 상기 획득된 이미지에서 대상 영역을 설정하는 설정부; 및 상기 설정된 대상 영역에 대한 어노테이션(annotation)을 생성하는 생성부를 포함한다. An apparatus for generating an annotation and an image according to an embodiment of the present invention is an apparatus for generating a touch-based annotation and an image of a mobile device, comprising: an acquisition unit for obtaining an image from the mobile device; A setting unit for setting a target area in the acquired image; And a generator generating an annotation for the set target area.

상기 생성부는 상기 생성된 어노테이션에 기초하여 상기 대상 영역에 대응하는 어노테이션된 이미지를 생성할 수 있다.The generator may generate an annotated image corresponding to the target area based on the generated annotation.

상기 설정부는 상기 모바일 기기의 화면 상에 표시되는 상기 이미지 상에서 사용자의 터치 입력을 통해 상기 대상 영역을 설정할 수 있다.The setting unit may set the target area through a user's touch input on the image displayed on the screen of the mobile device.

상기 설정부는 상기 이미지 상에 포함된 자동차, 자동차 번호판, 자동차 번호판의 문자, 얼굴, 미리 설정된 오브젝트 중 적어도 하나를 상기 대상 영역으로 설정할 수 있다.The setting unit may set at least one of a car, a license plate, a character, a face, and a preset object included in the image as the target area.

상기 생성부는 상기 대상 영역에 대한 좌표 값을 정보화함으로써, 상기 대상 영역에 대한 어노테이션을 생성할 수 있다.The generation unit may generate an annotation for the target region by converting the coordinate value of the target region into information.

나아가, 본 발명의 일 실시예에 따른 어노테이션과 이미지 생성 장치는 상기 생성된 어노테이션과 어노테이션된 이미지 및 상기 획득된 이미지를 미리 설정된 서버로 전송하는 송신부를 더 포함할 수 있다.Furthermore, the apparatus for generating annotations and images according to an embodiment of the present invention may further include a transmitter for transmitting the generated annotations and the annotated image and the acquired image to a preset server.

본 발명의 실시예들에 따르면, 모바일 기기에서 획득된 이미지에서 특정 오브젝트에 대한 대상 영역을 설정함으로써, 대상 영역에 대한 어노테이션과 대상 영역에 대응하는 어노테이션된 이미지를 생성하고, 이렇게 생성된 어노테이션과 어노테이션된 이미지 및 획득된 이미지(또는 원본 이미지)를 미리 설정된 서버로 전송할 수 있다.According to embodiments of the present invention, by setting a target area for a specific object from an image obtained from a mobile device, an annotation for the target area and an annotated image corresponding to the target area are generated, and the generated annotations and annotations The obtained image and the acquired image (or original image) may be transmitted to a preset server.

즉, 본 발명의 실시예들에 따르면, 모바일 기기를 사용하는 사용자들 각각에 의해 이미지의 어노테이션이 수행되고, 이러한 어노테이션된 이미지를 사용자들 각각으로부터 수신할 수 있기 때문에 인공 지능 학습에 필요로 하는 데이터의 수집이 용이하고, 어노테이션을 수행하는데 필요로 하는 시간과 비용 소모를 줄일 수 있다.That is, according to the embodiments of the present invention, since an image is annotated by each user using a mobile device, and such annotated image can be received from each of the users, data required for artificial intelligence learning It is easy to collect and reduce the time and cost required to perform annotations.

도 1은 본 발명을 설명하기 위한 일 실시예의 시스템을 나타낸 것이다.
도 2는 본 발명의 일 실시예에 따른 어노테이션과 이미지 생성 방법에 대한 동작 흐름도를 나타낸 것이다.
도 3은 본 발명에서 대상 영역을 설정하는 과정을 설명하기 위한 일 예시도를 나타낸 것이다.
도 4는 본 발명의 일 실시예에 따른 어노테이션과 이미지 생성 장치에 대한 구성을 나타낸 것이다.
1 shows a system of an embodiment for explaining the present invention.
2 is a flowchart illustrating an annotation and an image generation method according to an embodiment of the present invention.
3 shows an exemplary diagram for explaining a process of setting a target area in the present invention.
4 is a block diagram illustrating an apparatus for generating an annotation and an image according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형 태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in a variety of different forms, only the present embodiments are intended to complete the disclosure of the present invention, and common knowledge in the art to which the present invention pertains. It is provided to completely inform the scope of the invention to those who have, and the invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며, 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상 의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.The terms used in the present specification are for describing the embodiments, and are not intended to limit the present invention. In this specification, the singular form also includes the plural form unless otherwise specified in the phrase. As used in the specification, "comprises" and/or "comprising" refers to the recited component, step, operation and/or element, of one or more other elements, steps, operations, and/or elements. It does not exclude presence or addition.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사 전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used with meanings that can be commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in advance that are generally used are not interpreted ideally or excessively unless explicitly defined specifically.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예들을 보다 상세하게 설명하고자 한다. 도면 상의 동일한 구성요소에 대해서는 동일한 참조 부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, exemplary embodiments of the present invention will be described in more detail with reference to the accompanying drawings. The same reference numerals are used for the same components in the drawings, and duplicate descriptions for the same components are omitted.

본 발명의 실시예들은, 모바일 기기를 사용하는 사용자들 각각에 의해 이미지에 포함된 대상 영역에 대한 어노테이션이 수행되고, 대상 영역에 대응하는 어노테이션된 이미지를 생성함으로써, 모바일 기기 사용자들로부터 인공 지능 학습에 필요로 하는 어노테이션된 이미지를 용이하게 수집하는 것을 그 요지로 한다.In the embodiments of the present invention, by performing an annotation on a target area included in an image by each of the users using a mobile device, and generating an annotated image corresponding to the target area, artificial intelligence learning from mobile device users Its gist is to easily collect the annotated images required by the user.

여기서, 본 발명은 대상 영역을 설정하는데 있어서, 모바일 기기의 터치 스크린 상에서의 사용자 입력을 통해 설정할 수도 있고, 미리 설정된 오브젝트에 대한 인식을 통해 자동으로 대상 영역을 설정한 후 사용자의 확인을 통해 최종 대상 영역이 설정될 수도 있다. 대상 영역은 이미지에 포함된 자동차, 자동차 번호판, 자동차 번호판의 문자, 얼굴, 특정 물건 등을 포함할 수 있으며, 대상 영역을 자동으로 설정하는 경우에는 이러한 대상 영역에 대한 정보를 미리 설정하여야 하고, 대상 영역의 설정은 사용자 또는 해당 기술을 제공하는 사업자에 의해 이루어질 수 있다.In the present invention, in setting the target area, the target area may be set through a user input on the touch screen of the mobile device, or the target area is automatically set through recognition of a preset object, and then the final target area is confirmed by the user. The area may be set. The target area may include automobiles, license plates, letters, faces, and specific objects included in the image. When the target area is automatically set, information on the target area must be set in advance. The region can be set by a user or a provider providing the technology.

본 발명에서 대상 영역을 어노테이션한다는 것은 대상 영역에 대한 좌표 값을 정보화한다는 것을 의미할 수 있다.In the present invention, annotating the target area may mean that coordinate values for the target area are information.

도 1은 본 발명을 설명하기 위한 일 실시예의 시스템을 나타낸 것이다.1 shows a system of an embodiment for explaining the present invention.

도 1에 도시된 바와 같이, 시스템은 복수의 모바일 기기들(100)과 서버(200)를 포함한다.As shown in FIG. 1, the system includes a plurality of mobile devices 100 and a server 200.

모바일 기기들(100) 각각은 유무선 인터넷을 통해 서버에 접속하여 모바일 기기들(100) 각각에 의해 생성된 대상 영역에 대한 어노테이션과 어노테이션된 이미지 나아가 원본 이미지 즉, 모바일 기기에서 촬영되거나 획득된 이미지를 서버(200)로 제공할 수 있는 단말기로, 네트워크 접속을 수행할 수 있는 모든 종류의 단말기를 포함할 수 있다. Each of the mobile devices 100 accesses the server through wired or wireless Internet, and displays an annotation and an annotated image for a target area generated by each of the mobile devices 100 as well as an original image, that is, an image photographed or acquired by the mobile device. As a terminal that can be provided to the server 200, all types of terminals capable of performing network access can be included.

예를 들어, 모바일 기기(100)는 터치 입력을 통해 대상 영역의 설정이 가능한 노트북, 휴대 단말기, 스마트폰 등을 포함하는 네트워크에 접속하여 본 발명의 기술을 수행할 수 있는 사용자 기기를 모두 포함할 수 있다.For example, the mobile device 100 includes all user devices capable of performing the technology of the present invention by accessing a network including a laptop, portable terminal, and smart phone capable of setting a target area through a touch input. I can.

모바일 기기(100)는 카메라 등에 의해 획득된 대상 오브젝트 예를 들어, 자동차, 자동차 번호판, 자동차 번호판의 문자, 사람 얼굴, 특정 물건 등을 촬영한 이미지를 모바일 기기의 화면에 표시하고, 모바일 기기의 터치 스크린 상에서 사용의 터치 입력 예를 들어, 대상 영역을 문지르거나 대상 영역을 포함하는 도형을 그리는 행동을 통해 이미지로부터 대상 영역을 설정함으로써, 설정된 대상 영역에 대한 어노테이션을 생성하며, 생성된 어노테이션에 기초하여 대상 영역에 대응하는 어노테이션된 이미지를 생성할 수 있다.The mobile device 100 displays an image of a target object acquired by a camera, for example, a car, a license plate, a character on a license plate, a person's face, or a specific object on the screen of the mobile device, and touches the mobile device. Touch input of use on the screen, for example, by setting the target area from the image through the action of rubbing the target area or drawing a figure including the target area, thereby generating an annotation for the set target area, based on the generated annotation. An annotated image corresponding to the target area can be created.

여기서, 모바일 기기(100)는 대상 영역의 설정을 통해 대상 영역 즉, 어노테이션하고자 하는 오브젝트를 포함하는 대상 영역의 좌표 값을 정보화함으로써, 대상 영역을 어노테이션할 수 있다.Here, the mobile device 100 may annotate the target region by converting the coordinate value of the target region, that is, the target region including the object to be annotated, into information through the setting of the target region.

나아가, 모바일 기기(100)는 이미지가 획득되면 획득된 이미지로부터 미리 설정된 특정 오브젝트 예를 들어, 자동차 또는 자동차 번호판에 대응하는 대상 영역 예를 들어, 사각형 영역을 자동으로 설정하고, 자동으로 설정된 대상 영역을 사용자에게 제공함으로써, 사용자 확인을 통해 대상 영역을 자동으로 설정할 수도 있다. 물론, 모바일 기기(100)는 이미지에 설정된 오브젝트가 복수인 경우 위치에 따른 우선 순위에 기초하여 대상 영역을 자동으로 설정할 수도 있다. 예를 들어, 모바일 기기는 복수의 오브젝트들이 이미지에 포함된 경우 이미지의 중앙 부분에 가까운 오브젝트를 대상 영역의 오브젝트로 설정한 후 대상 영역을 설정할 수도 있고, 오브젝트들의 선명도를 기준으로 선명도가 가장 좋은 오브젝트를 대상 영역으로 자동 설정할 수도 있다. 대상 영역을 자동으로 설정하는 경우에는 반드시 사용자의 확인을 통해 어노테이션이 수행되어야 한다.Furthermore, when the image is acquired, the mobile device 100 automatically sets a target area corresponding to a specific object, for example, a car or a license plate, corresponding to a vehicle license plate, and a target area that is automatically set from the acquired image. By providing to the user, the target area may be automatically set through user confirmation. Of course, when there are a plurality of objects set in the image, the mobile device 100 may automatically set the target area based on the priority according to the location. For example, when a plurality of objects are included in an image, a mobile device may set an object close to the center of the image as an object of the target area and then set the target area, or the object with the best sharpness based on the sharpness of the objects. Can also be automatically set as the target area. In the case of automatically setting the target area, the annotation must be performed through user confirmation.

본 발명에서 모바일 기기(100)는 대상 영역의 어노테이션과 어노테이션된 이미지를 생성하여 이를 서버로 제공하는 것으로 설명하였지만, 이에 한정하지 않으며 인공 지능 학습을 위해 필요로 하는 모든 종류의 데이터를 서버로 제공할 수도 있다. 예를 들어, 모바일 기기(100)는 촬영된 이미지에 대한 위치 정보, 촬영 시간 정보, 대상 오브젝트가 자동차인 경우 사용자 입력을 통해 자동차에 대한 정보를 서버로 제공할 수도 있다.In the present invention, the mobile device 100 has been described as generating an annotation and an annotated image of a target area and providing it to a server, but the present invention is not limited thereto, and all kinds of data required for artificial intelligence learning can be provided to the server. May be. For example, the mobile device 100 may provide location information, photographing time information, and information about the vehicle to the server through a user input when the target object is a vehicle.

나아가, 모바일 기기(100)는 본 발명을 수행하기 위한 어플리케이션이 설치되고, 해당 어플리케이션에 의해 실행된 카메라를 통해 촬영된 이미지를 획득할 수도 있으며, 해당 어플리케이션에서 해당 기기의 저장 수단에 미리 저장된 이미지를 로딩함으로써, 이미지를 획득할 수도 있다.Further, the mobile device 100 may obtain an image captured through a camera executed by the application in which an application for carrying out the present invention is installed and executed by the application, and the image stored in advance in the storage means of the device in the application By loading, you can also acquire an image.

네트워크는 모바일 기기들(100)와 서버(200)를 연결하는 통신망으로 네트워크가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 인터넷은 PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.A network is a communication network that connects the mobile devices 100 and the server 200, and not only a communication method using a communication network (for example, a mobile communication network, wired Internet, wireless Internet, broadcasting network), but also between devices. Near field communication may also be included. For example, the Internet is a personal area network (PAN), a local area network (LAN), a campus area network (CAN), a metropolitan area network (MAN), a wide area network (WAN), a broadband network (BBN), and the Internet. It may include any one or more of the networks. In addition, the network may include any one or more of a network topology including a bus network, a star network, a ring network, a mesh network, a star-bus network, a tree, or a hierarchical network, but is not limited thereto. .

서버(200)는 인공 지능 학습을 수행하기 위한 서버로, 모바일 기기들(100) 각각으로부터 전송되는 대상 영역에 대한 어노테이션과 대상 영역에 대응하는 어노테이션된 이미지를 수신하고, 이렇게 수신된 어노테이션과 어노테이션된 이미지를 데이터로 수집하여 수집된 데이터로 인공 지능을 학습한다.The server 200 is a server for performing artificial intelligence learning, and receives an annotation for a target region transmitted from each of the mobile devices 100 and an annotated image corresponding to the target region, and receives the received annotation and annotated image. Collect images as data and learn artificial intelligence from the collected data.

여기서, 서버(200)는 필요에 따라 모바일 기기들(100) 각각으로부터 어노테이션된 이미지 뿐만 아니라 해당 이미지를 촬영한 위치 정보 나아가 대상 영역에 포함된 오브젝트에 대한 정보를 추가적으로 수신할 수도 있다. 물론, 서버(200)는 상술한 데이터만을 모바일 기기로부터 수신하는 것으로 한정하지 않으며, 인공 지능 학습을 수행하는데 있어서 필요로 하는 모든 정보를 수신할 수 있다.Here, the server 200 may additionally receive not only the annotated image from each of the mobile devices 100, but also location information at which the corresponding image is captured, as well as information on an object included in the target area, as necessary. Of course, the server 200 is not limited to receiving only the above-described data from a mobile device, and may receive all information required for performing artificial intelligence learning.

또한, 서버(200)는 수집된 데이터를 이용하여 인공 지능 학습을 위한 데이터베이스화시킬 수 있으며, 이렇게 데이터베이스화된 데이터를 이용하여 인공 지능을 학습시킬 수 있다.In addition, the server 200 can convert the collected data into a database for artificial intelligence learning, and can learn artificial intelligence by using the data in the database.

나아가, 서버(200)는 모바일 기기들(100) 각각으로부터 수집된 데이터를 이용한 인공 지능 학습을 통해 다양한 서비스를 제공할 수도 있다.Furthermore, the server 200 may provide various services through artificial intelligence learning using data collected from each of the mobile devices 100.

이러한 본 발명에 대해 도 2 내지 도 4를 참조하여 상세히 설명하면 다음과 같다.The present invention will be described in detail with reference to FIGS. 2 to 4 as follows.

도 2는 본 발명의 일 실시예에 따른 어노테이션과 이미지 생성 방법에 대한 동작 흐름도를 나타낸 것으로, 모바일 기기 각각에서 수행되는 동작 흐름도를 나타낸 것이다.FIG. 2 is a flowchart illustrating an annotation and an image generation method according to an embodiment of the present invention, and illustrates an operation flowchart performed in each mobile device.

도 2를 참조하면, 본 발명의 일 실시예에 따른 어노테이션과 이미지 생성 방법은 모바일 기기에 구비된 카메라를 이용하여 어노테이션하고자 하는 대상 오브젝트를 포함하는 이미지를 촬영함으로써, 이미지를 획득한다(S210).Referring to FIG. 2, in the annotation and image generation method according to an embodiment of the present invention, an image is acquired by photographing an image including a target object to be annotated using a camera provided in a mobile device (S210).

물론, 단계 S210은 카메라를 이용한 촬영에 의해서만 이미지를 획득하는 것으로 한정되지 않으며, 단계 S210에서 획득되는 이미지는 타인에 의해 촬영되어 타인으로부터 전송 받은 대상 오브젝트를 포함하는 이미지, 사용자의 모바일 기기에 미리 저장된 대상 오브젝트를 포함하는 이미지 등 본 발명에서 인공 지능 학습을 위해 사용할 수 있는 모든 종류의 이미지를 포함할 수 있다.Of course, step S210 is not limited to obtaining an image only by photographing using a camera, and the image obtained in step S210 is an image including a target object that is photographed by another person and transmitted from another person, and is stored in advance in the user's mobile device. It may include all kinds of images that can be used for artificial intelligence learning in the present invention, such as an image including a target object.

단계 S210에 의해 대상 오브젝트를 포함하는 이미지가 획득되면, 획득된 이미지가 모바일 기기의 화면 상에 표시되고, 표시된 이미지 상에서 사용자 입력 예를 들어, 터치 입력을 통해 어노테이션하고자 하는 대상 영역을 설정함으로써, 대상 영역에 대한 어노테이션 작업을 수행하여 어노테이션을 생성한다(S220, S230).When the image including the target object is acquired in step S210, the acquired image is displayed on the screen of the mobile device, and the target area to be annotated through a user input, for example, a touch input, is set on the displayed image. An annotation is generated by performing an annotation operation on the region (S220, S230).

여기서, 단계 S220은 이미지 상에서 터치 스크린을 문지르는 행동에 기초하여 대상 영역을 자동 설정할 수 있으며, 예를 들어, 대각선으로 터치를 입력하면, 대각선 영역을 포함하는 직사각형을 대상 영역으로 설정할 수도 있다. 즉, 단계 S220은 사용자의 터치 입력을 통해 대상 영역을 설정할 수 있는 모든 방법을 이용하여 대상 영역을 설정할 수 있으며, 설정된 대상 영역은 사용자의 입력을 통해 수정 또는 추가될 수 있다.Here, in step S220, the target area may be automatically set based on the action of rubbing the touch screen on the image. For example, when a touch is input diagonally, a rectangle including the diagonal area may be set as the target area. That is, in step S220, the target area may be set using any method capable of setting the target area through a user's touch input, and the set target area may be modified or added through a user's input.

예를 들어, 도 3에 도시된 바와 같이 단계 S210에 의해 획득된 이미지가 자동차를 포함하는 이미지(310)이고, 해당 이미지(310)가 모바일 기기(300)의 화면 상에 표시되면 사용자의 터치 입력을 통해 자동차에 대한 대상 영역(320)을 설정할 수 있으며, 이렇게 대상 영역(320)이 설정되면 설정된 대상 영역에 대한 어노테이션을 수행 또는 생성한다.For example, as shown in FIG. 3, when the image acquired in step S210 is an image 310 including a car, and the image 310 is displayed on the screen of the mobile device 300, the user's touch input The target area 320 for the vehicle can be set through the method. When the target area 320 is set in this way, an annotation on the set target area is performed or generated.

여기서, 대상 영역에 대한 어노테이션은 대상 영역의 좌표 값 예컨대, 대상 영역에 대한 X축의 최소 값과 최대 값, Y축의 최소 값과 최대 값을 정보화함으로써, 대상 영역을 어노테이션할 수 있다.Here, the annotation for the target area may annotate the target area by converting coordinate values of the target area, for example, the minimum and maximum values of the X-axis and the minimum and maximum values of the Y-axis for the target area.

이 때, 대상 영역에 대한 좌표 값은 어노테이션 파일로 저장될 수 있다.In this case, the coordinate value for the target area may be stored as an annotation file.

단계 S230에 의해 대상 영역에 대한 어노테이션이 수행되면, 대상 영역에 대한 어노테이션에 기초하여 대상 영역에 대응하는 어노테이션 이미지를 생성한다(S240).When the annotation on the target area is performed in step S230, an annotation image corresponding to the target area is generated based on the annotation on the target area (S240).

여기서, 단계 S240은 어노테이션에 의한 대상 영역의 좌표 값 정보를 이용하여 대상 영역을 잘라(crop)내고, 좌표 값 정보에 대응하는 대상 영역의 이미지를 어노테이션된 이미지로 생성할 수 있다. 즉, 어노테이션된 이미지는 인공 지능을 학습하기 위한 학습 이미지로 생성된다.Here, in step S240, the target area may be cropped using coordinate value information of the target area by annotation, and an image of the target area corresponding to the coordinate value information may be generated as an annotated image. That is, the annotated image is created as a training image for learning artificial intelligence.

상술한 과정을 통해 어노테이션과 어노테이션된 이미지가 생성되면, 생성된 좌표 값 정보에 대응하는 어노테이션 정보와 대상 영역에 대응하는 어노테이션된 이미지 및 원본 이미지 즉, 단계 S210에서 획득된 이미지를 미리 설정된 서버 즉, 인공 지능을 학습하기 위한 데이터를 수집하는 서버로 전송한다(S250).When the annotation and the annotated image are generated through the above-described process, the annotation information corresponding to the generated coordinate value information, the annotated image corresponding to the target area, and the original image, that is, the image obtained in step S210, are preset to the server, that is, Data for learning artificial intelligence is transmitted to a server that collects (S250).

여기서, 본 발명의 모바일 기기는 어노테이션된 이미지를 서버로 전송할 수도 있지만, 이에 한정하지 않으며 대상 영역의 정보 예를 들어, 자동차 번호판인 경우 사용자가 파악한 자동차 번호 또는 모바일 기기의 어플리케이션에서 파악한 자동차 번호 및 이미지의 상세 정보와 촬영 위치에 대한 정보를 서버로 제공할 수도 있다.Here, the mobile device of the present invention may transmit the annotated image to the server, but is not limited thereto, and information on the target area, for example, a car license plate, the car number identified by the user or the car number and image identified by the application of the mobile device. It is also possible to provide the server with detailed information and information about the shooting location.

상술한 바와 같이, 본 발명은 인공 지능을 학습하는 서버에서 모바일 기기들 각각으로부터 인공 지능 학습을 수행하기 위해 필요로 하는 어노테이션 정보와 어노테이션된 이미지를 수집할 수 있기 때문에 인공 지능 학습을 위한 데이터의 수집이 용이하고, 모바일 기기 사용자 각각에 의해 어노테이션이 수행되기 때문에 종래 어노테이션을 수행하는데 필요로 하는 시간과 비용을 줄일 수 있다.As described above, the present invention collects data for artificial intelligence learning because the server for learning artificial intelligence can collect annotation information and annotated images required to perform artificial intelligence learning from each of mobile devices. This is easy, and since the annotation is performed by each user of the mobile device, it is possible to reduce the time and cost required to perform the conventional annotation.

즉, 본 발명은 모바일 기기를 사용하는 특정 다수의 일반 사용자들이 인공 지능 학습에 필요한 이미지의 어노테이션을 수행하기 때문에 어노테이션에 필요한 비용과 시간을 줄일 수 있으며, 데이터 수집이 용이하기 때문에 인공 지능 학습을 빠르게 수행할 수 있다.In other words, the present invention can reduce the cost and time required for annotation because a number of specific general users using mobile devices perform annotation of images required for artificial intelligence learning, and because data collection is easy, artificial intelligence learning can be accelerated. Can be done.

나아가, 본 발명에 따른 방법은 동일한 대상 오브젝트에 대한 어노테이션이 이미 수행되고, 어노테이션된 이미지 및 원본 이미지를 서버로 이미 전송한 상태에서 대상 오브젝트에 대한 어노테이션을 수행하는 경우 이에 대한 알림을 사용자에게 제공하고, 제공된 알림을 통한 사용자의 판단을 통해 어노테이션과 어노테이션된 이미지 생성 및 전송에 대한 과정의 수행 여부를 결정할 수도 있다.Further, the method according to the present invention provides a notification to the user when the annotation is performed on the target object while the annotation on the same target object is already performed, and the annotated image and the original image are already transmitted to the server. , It is also possible to determine whether to perform a process for generating and transmitting annotations and annotated images through the user's judgment through the provided notification.

이 때, 동일한 대상 오브젝트에 대한 어노테이션 및 이미지 생성 과정은 일정 횟수 이상 수행되지 않도록 설정할 수 있으며, 이러한 설정 횟수는 본 발명의 기술을 제공하는 사업자 또는 개인에 의해 설정될 수도 있고, 해당 어플리케이션의 설정 항목을 통해 설정될 수도 있다.At this time, the annotation and image generation process for the same target object may be set not to be performed more than a certain number of times, and the number of settings may be set by a business operator or an individual providing the technology of the present invention, or the setting item of the application It can also be set through.

도 4는 본 발명의 일 실시예에 따른 어노테이션과 이미지 생성 장치에 대한 구성을 나타낸 것으로, 상기 도 2 내지 도 3의 방법을 수행하는 장치에 대한 구성을 나타낸 것이다.4 is a diagram illustrating a configuration of an apparatus for generating an annotation and an image according to an embodiment of the present invention, and illustrates a configuration of an apparatus for performing the method of FIGS. 2 to 3.

도 4를 참조하면, 본 발명의 일 실시예에 따른 어노테이션과 이미지 생성 장치(400)는 획득부(410), 설정부(420), 생성부(430) 및 송신부(440)를 포함한다.Referring to FIG. 4, an apparatus 400 for generating an annotation and an image according to an embodiment of the present invention includes an acquisition unit 410, a setting unit 420, a generation unit 430, and a transmission unit 440.

획득부(410)는 모바일 기기에 구비된 카메라를 이용하여 어노테이션하고자 하는 대상 오브젝트를 포함하는 이미지를 촬영함으로써, 이미지를 획득한다.The acquisition unit 410 acquires an image by photographing an image including a target object to be annotated using a camera provided in the mobile device.

여기서, 획득부(410)는 카메라를 이용한 촬영에 의해서만 이미지를 획득하는 것으로 한정되지 않으며, 타인에 의해 촬영되어 타인으로부터 전송 받은 대상 오브젝트를 포함하는 이미지, 사용자의 모바일 기기에 미리 저장된 대상 오브젝트를 포함하는 이미지 중 적어도 하나를 획득할 수도 있다.Here, the acquisition unit 410 is not limited to acquiring an image only by photographing using a camera, and includes an image including a target object captured by another person and transmitted from another person, and a target object previously stored in the user's mobile device. It is also possible to obtain at least one of the images to be performed.

설정부(420)는 획득된 이미지가 모바일 기기의 화면 상에 표시되고, 표시된 이미지 상에서 사용자 입력 예를 들어, 터치 입력되면, 터치 입력에 기초하여 어노테이션하고자 하는 대상 영역을 설정한다.When the acquired image is displayed on the screen of the mobile device and a user input, for example, a touch input is input on the displayed image, the setting unit 420 sets a target area to be annotated based on the touch input.

여기서, 설정부(420)는 이미지 상에서 터치 스크린을 문지르는 행동에 기초하여 대상 영역을 자동 설정할 수 있으며, 예를 들어, 대각선으로 터치를 입력하면 대각선 영역을 포함하는 직사각형을 대상 영역으로 설정할 수도 있다.Here, the setting unit 420 may automatically set the target area based on the action of rubbing the touch screen on the image. For example, when a touch is input diagonally, a rectangle including the diagonal area may be set as the target area.

나아가, 설정부(420)는 사용자의 입력에 기초하여 대상 영역을 수정 또는 추가할 수 있으며, 이러한 수정 또는 추가에 의한 대상 영역을 업데이트할 수도 있다.Furthermore, the setting unit 420 may modify or add the target area based on the user's input, and may update the target area by such modification or addition.

생성부(430)는 설정된 대상 영역에 대한 어노테이션을 생성하고, 생성된 어노테이션에 기초하여 대상 영역에 대응하는 어노테이션된 이미지를 생성한다.The generation unit 430 generates an annotation for the set target region, and generates an annotated image corresponding to the target region based on the generated annotation.

여기서, 생성부(430)는 어노테이션은 대상 영역의 좌표 값 예컨대, 대상 영역에 대한 X축의 최소 값과 최대 값, Y축의 최소 값과 최대 값을 정보화함으로써, 대상 영역을 어노테이션을 생성할 수 있으며, 대상 영역에 대한 좌표 값을 어노테이션 파일로 저장할 수 있다.Here, the generation unit 430 may generate the annotation on the target region by informationizing the coordinate values of the target region, for example, the minimum and maximum values of the X-axis and the minimum and maximum values of the Y-axis for the target region, Coordinate values for the target area can be saved as annotation files.

이 때, 생성부(430)는 어노테이션에 의한 대상 영역의 좌표 값 정보를 이용하여 대상 영역을 잘라내고, 좌표 값 정보에 대응하는 대상 영역의 이미지를 어노테이션된 이미지로 생성할 수 있다In this case, the generation unit 430 may cut the target area using the coordinate value information of the target area by annotation, and generate an image of the target area corresponding to the coordinate value information as an annotated image.

송신부(440)는 생성된 좌표 값 정보에 대응하는 어노테이션 정보와 대상 영역에 대응하는 어노테이션된 이미지 및 획득부(410)에 의해 획득된 이미지 즉, 원본 이미지를 미리 설정된 서버 예컨대, 인공 지능을 학습하기 위한 데이터를 수집하는 서버로 전송한다.The transmission unit 440 learns the annotation information corresponding to the generated coordinate value information, the annotated image corresponding to the target area, and the image acquired by the acquisition unit 410, that is, the original image. It sends the data to the server that collects it.

비록, 도 4의 장치에서 그 설명이 생략되었더라도, 도 4를 구성하는 각 구성 수단은 도 1 내지 도 3에서 설명한 모든 내용을 포함할 수 있으며, 이는 이 기술 분야에 종사하는 당업자에게 있어서 자명하다.Although the description of the device of FIG. 4 is omitted, each component constituting FIG. 4 may include all the contents described in FIGS. 1 to 3, which will be apparent to those skilled in the art.

이상에서 설명된 시스템 또는 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 시스템, 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The system or device described above may be implemented as a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the systems, devices, and components described in the embodiments are, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA). ), a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions, such as one or more general purpose computers or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of software. For the convenience of understanding, although it is sometimes described that one processing device is used, one of ordinary skill in the art, the processing device is a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing unit to behave as desired or processed independently or collectively. You can command the device. Software and/or data may be interpreted by a processing device or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodyed in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

실시예들에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiments may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of the program instructions include not only machine language codes such as those produced by a compiler but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operation of the embodiment, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by the limited embodiments and drawings, various modifications and variations are possible from the above description by those of ordinary skill in the art. For example, the described techniques are performed in an order different from the described method, and/or components such as a system, structure, device, circuit, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and claims and equivalents fall within the scope of the claims to be described later.

Claims (12)

모바일 기기의 터치 기반 어노테이션과 이미지 생성 방법에 있어서,
상기 모바일 기기에서 이미지를 획득하는 단계;
상기 획득된 이미지에서 대상 영역을 설정하는 단계; 및
상기 설정된 대상 영역에 대한 어노테이션(annotation)을 생성하는 단계
를 포함하고,
상기 생성된 어노테이션에 기초하여 상기 대상 영역에 대응하는 어노테이션된 이미지를 생성하는 단계; 및
상기 생성된 어노테이션과 어노테이션된 이미지 및 상기 획득된 이미지를 미리 설정된 서버로 전송하는 단계
를 더 포함하며,
상기 대상 영역을 설정하는 단계는
상기 획득된 이미지에 복수의 미리 설정된 오브젝트들을 포함하는 경우 상기 오브젝트들 중 선명도가 가장 좋은 오브젝트를 상기 대상 영역으로 자동 설정하고,
상기 어노테이션을 생성하는 단계는
동일한 오브젝트에 대한 어노테이션이 이미 수행되고, 상기 어노테이션된 이미지와 상기 획득된 이미지를 상기 서버로 이미 전송한 상태에서 상기 동일한 오브젝트에 대한 어노테이션을 다시 수행하는 경우 이에 대한 알림을 사용자에게 제공하고, 상기 사용자의 입력에 기초하여 어노테이션의 생성 여부를 결정하며,
상기 어노테이션을 생성하는 단계는
상기 동일한 오브젝트에 대하여 미리 설정된 일정 횟수 이상 어노테이션이 생성되는 것을 제한하는 어노테이션과 이미지 생성 방법.
In the touch-based annotation and image generation method of a mobile device,
Obtaining an image from the mobile device;
Setting a target area in the acquired image; And
Generating an annotation for the set target area
Including,
Generating an annotated image corresponding to the target region based on the generated annotation; And
Transmitting the generated annotation, the annotated image, and the acquired image to a preset server
It further includes,
The step of setting the target area
When a plurality of preset objects are included in the acquired image, an object having the best sharpness among the objects is automatically set as the target area,
The step of generating the annotation
When annotation on the same object is already performed and the annotation on the same object is performed again while the annotated image and the acquired image are already transmitted to the server, a notification is provided to the user, and the user Determines whether to generate annotations based on the input of
The step of generating the annotation
An annotation and image generation method for limiting generation of annotations more than a predetermined number of times for the same object.
삭제delete 제1항에 있어서,
상기 대상 영역을 설정하는 단계는
상기 모바일 기기의 화면 상에 표시되는 상기 이미지 상에서 상기 사용자의 터치 입력을 통해 상기 대상 영역을 설정하는 것을 특징으로 하는 어노테이션과 이미지 생성 방법.
The method of claim 1,
The step of setting the target area
An annotation and image generation method, wherein the target area is set on the image displayed on the screen of the mobile device through the user's touch input.
제1항에 있어서,
상기 대상 영역을 설정하는 단계는
상기 이미지 상에 포함된 자동차, 자동차 번호판, 자동차 번호판의 문자, 얼굴 중 적어도 하나를 상기 대상 영역으로 설정하는 것을 특징으로 하는 어노테이션과 이미지 생성 방법.
The method of claim 1,
The step of setting the target area
An annotation and image generating method, characterized in that at least one of a vehicle, a license plate, a character of a license plate, and a face included in the image is set as the target area.
제1항에 있어서,
상기 어노테이션을 생성하는 단계는
상기 대상 영역에 대한 좌표 값을 정보화함으로써, 상기 대상 영역에 대한 어노테이션을 생성하는 것을 특징으로 하는 어노테이션과 이미지 생성 방법.
The method of claim 1,
The step of generating the annotation
An annotation and image generation method, characterized in that by converting the coordinate value of the target region into information, an annotation for the target region is generated.
삭제delete 모바일 기기의 터치 기반 어노테이션과 이미지 생성 장치에 있어서,
상기 모바일 기기에서 이미지를 획득하는 획득부;
상기 획득된 이미지에서 대상 영역을 설정하는 설정부; 및
상기 설정된 대상 영역에 대한 어노테이션(annotation)을 생성하는 생성부
를 포함하고,
상기 생성부는
상기 생성된 어노테이션에 기초하여 상기 대상 영역에 대응하는 어노테이션된 이미지를 생성하며,
상기 생성된 어노테이션과 어노테이션된 이미지 및 상기 획득된 이미지를 미리 설정된 서버로 전송하는 송신부
를 더 포함하고,
상기 설정부는
상기 획득된 이미지에 복수의 미리 설정된 오브젝트들을 포함하는 경우 상기 오브젝트들 중 선명도가 가장 좋은 오브젝트를 상기 대상 영역으로 자동 설정하고,
상기 생성부는
동일한 오브젝트에 대한 어노테이션이 이미 수행되고, 상기 어노테이션된 이미지와 상기 획득된 이미지를 상기 서버로 이미 전송한 상태에서 상기 동일한 오브젝트에 대한 어노테이션을 다시 수행하는 경우 이에 대한 알림을 사용자에게 제공하고, 상기 사용자의 입력에 기초하여 어노테이션의 생성 여부를 결정하며,
상기 생성부는
상기 동일한 오브젝트에 대하여 미리 설정된 일정 횟수 이상 어노테이션이 생성되는 것을 제한하는 어노테이션과 이미지 생성 장치.
In a mobile device touch-based annotation and image generating device,
An acquisition unit acquiring an image from the mobile device;
A setting unit for setting a target area in the acquired image; And
Generation unit that generates an annotation for the set target area
Including,
The generation unit
Generating an annotated image corresponding to the target region based on the generated annotation,
A transmitter that transmits the generated annotation, the annotated image, and the acquired image to a preset server
Including more,
The setting unit
When a plurality of preset objects are included in the acquired image, an object having the best sharpness among the objects is automatically set as the target area,
The generation unit
If annotation on the same object has already been performed, and the annotated image and the acquired image are already transmitted to the server and the annotation on the same object is again performed, a notification is provided to the user, and the user Decide whether to generate annotations based on the input of
The generation unit
An annotation and image generating device for limiting generation of annotations more than a predetermined number of times for the same object.
삭제delete 제7항에 있어서,
상기 설정부는
상기 모바일 기기의 화면 상에 표시되는 상기 이미지 상에서 상기 사용자의 터치 입력을 통해 상기 대상 영역을 설정하는 것을 특징으로 하는 어노테이션과 이미지 생성 장치.
The method of claim 7,
The setting unit
An annotation and image generating device, characterized in that the target area is set on the image displayed on the screen of the mobile device through the user's touch input.
제7항에 있어서,
상기 설정부는
상기 이미지 상에 포함된 자동차, 자동차 번호판, 자동차 번호판의 문자, 얼굴 중 적어도 하나를 상기 대상 영역으로 설정하는 것을 특징으로 하는 어노테이션과 이미지 생성 장치.
The method of claim 7,
The setting unit
An annotation and image generating device, characterized in that at least one of a vehicle, a license plate, a character of the license plate, and a face included in the image is set as the target area.
제7항에 있어서,
상기 생성부는
상기 대상 영역에 대한 좌표 값을 정보화함으로써, 상기 대상 영역에 대한 어노테이션을 생성하는 것을 특징으로 하는 어노테이션과 이미지 생성 장치.
The method of claim 7,
The generation unit
An annotation and image generating apparatus, characterized in that by converting the coordinate value of the target region into information, an annotation for the target region is generated.
삭제delete
KR1020180122974A 2018-10-16 2018-10-16 Method for generating annotation and image based on touch of mobile device to learn artificial intelligence and apparatus therefor KR102144707B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180122974A KR102144707B1 (en) 2018-10-16 2018-10-16 Method for generating annotation and image based on touch of mobile device to learn artificial intelligence and apparatus therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180122974A KR102144707B1 (en) 2018-10-16 2018-10-16 Method for generating annotation and image based on touch of mobile device to learn artificial intelligence and apparatus therefor

Publications (2)

Publication Number Publication Date
KR20200042629A KR20200042629A (en) 2020-04-24
KR102144707B1 true KR102144707B1 (en) 2020-08-14

Family

ID=70466137

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180122974A KR102144707B1 (en) 2018-10-16 2018-10-16 Method for generating annotation and image based on touch of mobile device to learn artificial intelligence and apparatus therefor

Country Status (1)

Country Link
KR (1) KR102144707B1 (en)

Families Citing this family (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113591888A (en) * 2020-04-30 2021-11-02 上海禾赛科技有限公司 Point cloud data labeling network system and method for laser radar
CN111696181A (en) * 2020-05-06 2020-09-22 广东康云科技有限公司 Method, device and storage medium for generating super meta model and virtual dummy
KR20220001759A (en) 2020-06-30 2022-01-06 (주)뉴로파 Artificial intelligence system for creating image using internet
KR102310585B1 (en) 2021-02-10 2021-10-13 주식회사 인피닉 Annotation method of assigning object simply, and computer program recorded on record-medium for executing method thereof
KR102310595B1 (en) 2021-02-10 2021-10-13 주식회사 인피닉 Annotation method of setting object properties using proposed information, and computer program recorded on record-medium for executing method thereof
KR102343036B1 (en) 2021-02-10 2021-12-24 주식회사 인피닉 Annotation method capable of providing working guides, and computer program recorded on record-medium for executing method thereof
KR102310587B1 (en) * 2021-02-10 2021-10-13 주식회사 인피닉 Method of generating skeleton data for consecutive images, and computer program recorded on record-medium for executing method thereof
KR102310588B1 (en) * 2021-02-10 2021-10-13 주식회사 인피닉 Method of generating skeleton data for artificial intelligence learning, and computer program recorded on record-medium for executing method thereof
KR102310592B1 (en) 2021-02-10 2021-10-13 주식회사 인피닉 Annotation method capable of guiding change of working regulation, and computer program recorded on record-medium for executing method thereof
KR102310597B1 (en) 2021-03-19 2021-10-13 주식회사 인피닉 Method for providing of question and answer, and computer program recorded on record-medium for executing method therefor
KR102343038B1 (en) 2021-03-19 2021-12-24 주식회사 인피닉 Method for disposing workers, and computer program recorded on record-medium for executing method therefor
KR102310589B1 (en) 2021-03-19 2021-10-13 주식회사 인피닉 Method for inspecting of annotation product using scripts, and computer program recorded on record-medium for executing method therefor
KR102310594B1 (en) 2021-03-19 2021-10-13 주식회사 인피닉 Method for predicting cost of works, and computer program recorded on record-medium for executing method therefor
KR102310591B1 (en) 2021-03-19 2021-10-13 주식회사 인피닉 Method for controlling annotation work, and computer program recorded on record-medium for executing method therefor
KR102356909B1 (en) 2021-05-13 2022-02-08 주식회사 인피닉 Annotation method of assigning object and setting object properties for learning data of artificial intelligence, and computer program recorded on record-medium for executing method thereof
KR102343045B1 (en) 2021-05-13 2021-12-24 주식회사 인피닉 Method for predicting and managing of works, and computer program recorded on record-medium for executing method therefor
KR102343044B1 (en) 2021-05-13 2021-12-27 주식회사 인피닉 Method for controlling annotation work and question, and computer program recorded on record-medium for executing method therefor
KR102343043B1 (en) 2021-05-13 2021-12-24 주식회사 인피닉 Annotation method capable of change of working condition simultaneously, and computer program recorded on record-medium for executing method thereof
KR102313947B1 (en) 2021-05-14 2021-10-18 주식회사 인피닉 Assignment and inspection method of tracking identifier, and computer program recorded on record-medium for executing method thereof
KR102356914B1 (en) 2021-05-14 2022-02-08 주식회사 인피닉 Method for automatically creation of metadata, and computer program recorded on record-medium for executing method therefor
KR102310609B1 (en) * 2021-05-14 2021-10-13 주식회사 인피닉 Method for preprocessing 2D image using 3D data, and computer program recorded on record-medium for executing method therefor
KR102310596B1 (en) 2021-05-14 2021-10-13 주식회사 인피닉 creation and inspection method of metadata to consecutive images, and computer program recorded on record-medium for executing method thereof
KR102310598B1 (en) 2021-05-14 2021-10-13 주식회사 인피닉 Method of creating data for machine learning using metadata, and computer program recorded on record-medium for executing method thereof
KR102378892B1 (en) 2021-06-17 2022-03-28 주식회사 인피닉 Batch processing method of 3D points group, and computer program recorded on record-medium for executing method thereof
KR102356907B1 (en) 2021-06-17 2022-02-08 주식회사 인피닉 method to input metadata for AI machine learning, and computer program recorded on record-medium for executing method therefor
KR102310600B1 (en) 2021-06-17 2021-10-13 주식회사 인피닉 Method of extracting data for machine learning based on bigdata, and computer program recorded on record-medium for executing method thereof
KR102313942B1 (en) 2021-06-17 2021-10-18 주식회사 인피닉 annotation method including object tracking data, and computer program recorded on record-medium for executing method thereof
KR102343048B1 (en) 2021-06-17 2021-12-24 주식회사 인피닉 Preprocessing method of 3D points group, and computer program recorded on record-medium for executing method thereof
KR102310612B1 (en) * 2021-06-17 2021-10-13 주식회사 인피닉 Method for predicting object of 2D image using object information of point group of a lidar, and computer program recorded on record-medium for executing method therefor
KR102343047B1 (en) 2021-06-17 2021-12-24 주식회사 인피닉 Preprocessing method of 2D images, and computer program recorded on record-medium for executing method thereof
KR102310607B1 (en) 2021-06-17 2021-10-12 주식회사 인피닉 Distributed processing method for annotations, and computer program recorded on record-medium for executing method therefor
KR102343049B1 (en) 2021-06-17 2021-12-24 주식회사 인피닉 creation method of metadata of image for learning of artificial Intelligence, and computer program recorded on record-medium for executing method thereof
KR102343055B1 (en) 2021-07-08 2021-12-24 주식회사 인피닉 Load balancing method for annotation using local device, and computer program recorded on record-medium for executing method therefor
KR102310608B1 (en) 2021-07-08 2021-10-13 주식회사 인피닉 Method for processing data of machine learning for automatic driving based on radar and lidar, and computer program recorded on record-medium for executing method therefor
KR102313922B1 (en) 2021-07-08 2021-10-18 주식회사 인피닉 A method of increasing quality for data of connected 3D points group, and computer program recorded on record-medium for executing method thereof
KR102310601B1 (en) 2021-07-08 2021-10-13 주식회사 인피닉 Control method of multiple sensors for data collection, and computer program recorded on record-medium for executing method thereof
KR102378890B1 (en) 2021-07-08 2022-03-28 주식회사 인피닉 A method of reducing data load of images for annotation, and computer program recorded on record-medium for executing method thereof
KR102343056B1 (en) 2021-07-08 2021-12-24 주식회사 인피닉 A method of reducing data load of images for annotation, and computer program recorded on record-medium for executing method thereof
KR102343062B1 (en) 2021-08-05 2021-12-27 주식회사 인피닉 Control method for sensors with height difference, and computer program recorded on record-medium for executing method therefor
KR102343061B1 (en) 2021-08-05 2021-12-24 주식회사 인피닉 Method for de-identifying personal information, and computer program recorded on record-medium for executing method therefor
KR102343059B1 (en) 2021-08-05 2021-12-27 주식회사 인피닉 Data collecting system for artificial intelligence machine learning, and device therefor
KR102356910B1 (en) 2021-08-05 2022-02-08 주식회사 인피닉 Method for preemptively detecting object, and computer program recorded on record-medium for executing method therefor
KR102395406B1 (en) 2021-09-29 2022-05-10 주식회사 인피닉 Data synthesis method for machine learning, and computer program recorded on record-medium for executing method therefor
KR102403166B1 (en) 2021-09-29 2022-05-30 주식회사 인피닉 Data augmentation method for machine learning, and computer program recorded on record-medium for executing method therefor
KR20230053275A (en) 2021-10-14 2023-04-21 주식회사 인피닉 Method of designating an object area and detecting an object, and a computer program recorded on a recording medium to execute the same
KR20230053276A (en) 2021-10-14 2023-04-21 주식회사 인피닉 A global cloud system providing regional independence
KR20230053281A (en) 2021-10-14 2023-04-21 주식회사 인피닉 Method of providing a meta data curation guide through image analysis and a computer program recorded on a recording medium for executing the method
KR20230053278A (en) 2021-10-14 2023-04-21 주식회사 인피닉 Raw data purification method for artificial intelligence learning according to importance evaluation and a computer program recorded on a recording medium to execute the same
KR20230053273A (en) 2021-10-14 2023-04-21 주식회사 인피닉 The method of designating an object area using a central point and detecting an object, and a computer program recorded on a recording medium to execute the method
KR20230053279A (en) 2021-10-14 2023-04-21 주식회사 인피닉 Method for providing a meta data curation guide based on sensor information and a computer program recorded on a recording medium for executing the same
KR20230053277A (en) 2021-10-14 2023-04-21 주식회사 인피닉 A method for de-identifying personal information that improves the degradation of artificial intelligence learning effects and a computer program recorded on a recording medium to execute the method.
KR20230053263A (en) 2021-10-14 2023-04-21 주식회사 인피닉 Method of providing annotation review feedback and a computer program recorded on a recording medium to execute the method
KR20230053280A (en) 2021-10-14 2023-04-21 주식회사 인피닉 A data purification method of a collection device and a computer program recorded on a recording medium to execute the same
KR20230053274A (en) 2021-10-14 2023-04-21 주식회사 인피닉 A method of designating an object through an additional or subtraction operation of a detected area and a computer program recorded on a recording medium to execute the same
KR102389998B1 (en) * 2021-12-21 2022-04-27 주식회사 인피닉 De-identification processing method and a computer program recorded on a recording medium to execute the same
KR102419219B1 (en) 2021-12-21 2022-07-08 주식회사 인피닉 A security management system for annotation work, a security management method, and a computer program recorded on a recording medium for executing the same
KR102485099B1 (en) 2021-12-21 2023-01-05 주식회사 인피닉 Method for data purification using meta data, and computer program recorded on record-medium for executing method therefor
KR102430398B1 (en) 2021-12-21 2022-08-09 주식회사 인피닉 Annotation method through point designation and a computer program recorded on a recording medium to execute it
KR102433002B1 (en) 2021-12-21 2022-08-18 주식회사 인피닉 Annotation method through multiple binding box selection and a computer program recorded on a recording medium to execute the same
KR102410752B1 (en) 2021-12-21 2022-06-22 주식회사 인피닉 Method for image recognition and processing through classification model creation, and computer program recorded on record-medium for executing method therefor
KR102395393B1 (en) 2021-12-21 2022-05-10 주식회사 인피닉 Method for providing guide through sensing environment analysis, and computer program recorded on record-medium for executing method therefor
KR102439429B1 (en) 2021-12-21 2022-09-05 주식회사 인피닉 Annotation method for easy object extraction and a computer program recorded on a recording medium to execute the annotation method
KR102403174B1 (en) 2021-12-21 2022-05-30 주식회사 인피닉 Method for data purification according to importance, and computer program recorded on record-medium for executing method therefor
KR102403169B1 (en) 2021-12-21 2022-05-30 주식회사 인피닉 Method for providing guide through image analysis, and computer program recorded on record-medium for executing method therefor
KR102454538B1 (en) 2022-02-15 2022-10-14 주식회사 인피닉 Method for behavior estimation using artificial intelligence, and computer program recorded on record-medium for executing method therefor
KR102449322B1 (en) 2022-02-15 2022-10-04 주식회사 인피닉 Method for feedback on working with annotations, and computer program recorded on record-medium for executing method therefor
KR102480062B1 (en) 2022-02-15 2022-12-23 주식회사 인피닉 Method for generate training data through 3D object recognition and synthesizing into virtual space, and computer program recorded on record-medium for executing method therefor
KR102599196B1 (en) 2022-11-30 2023-11-08 주식회사 인피닉 Method for estimate job cost of work on generating training data, and computer program recorded on record-medium for executing method thereof
KR102546195B1 (en) 2022-11-30 2023-06-23 주식회사 인피닉 Method for learning data classification based on collection environment, and computer program recorded on record-medium for executing method thereof
KR102546193B1 (en) 2022-11-30 2023-06-22 주식회사 인피닉 Method for learning data classification using color information, and computer program recorded on record-medium for executing method thereof
KR102546198B1 (en) 2022-11-30 2023-06-22 주식회사 인피닉 Method for learning data classification based physical factor, and computer program recorded on record-medium for executing method thereof
KR102531917B1 (en) 2022-11-30 2023-05-16 주식회사 인피닉 Method for annotation using boundary transplant, and computer program recorded on record-medium for executing method thereof
CN116778488A (en) * 2023-08-21 2023-09-19 中移(苏州)软件技术有限公司 Image processing method, device, terminal equipment, server and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013161295A (en) 2012-02-06 2013-08-19 Canon Inc Label addition device, label addition method, and program
US20170083792A1 (en) * 2015-09-22 2017-03-23 Xerox Corporation Similarity-based detection of prominent objects using deep cnn pooling layers as features
JP2018026104A (en) * 2016-08-04 2018-02-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Annotation method, annotation system, and program
KR101917843B1 (en) 2018-07-02 2018-11-13 (주)이든크루 Method and apparatus for automatic generation of application UI(user interface)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101993241B1 (en) * 2012-08-06 2019-06-26 삼성전자주식회사 Method and system for tagging and searching additional information about image, apparatus and computer readable recording medium thereof
KR20170059331A (en) * 2015-11-20 2017-05-30 주식회사 티슈 Image extraction and sharing system using application program, and the method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013161295A (en) 2012-02-06 2013-08-19 Canon Inc Label addition device, label addition method, and program
US20170083792A1 (en) * 2015-09-22 2017-03-23 Xerox Corporation Similarity-based detection of prominent objects using deep cnn pooling layers as features
JP2018026104A (en) * 2016-08-04 2018-02-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Annotation method, annotation system, and program
KR101917843B1 (en) 2018-07-02 2018-11-13 (주)이든크루 Method and apparatus for automatic generation of application UI(user interface)

Also Published As

Publication number Publication date
KR20200042629A (en) 2020-04-24

Similar Documents

Publication Publication Date Title
KR102144707B1 (en) Method for generating annotation and image based on touch of mobile device to learn artificial intelligence and apparatus therefor
JP6656376B2 (en) Face authentication method, apparatus and computer storage medium
JP2019091418A (en) Method and device for controlling page
CN106157344B (en) Verification picture generation method and device
JP6419201B2 (en) Method and apparatus for video playback
CN103729120A (en) Method for generating thumbnail image and electronic device thereof
JP2009093208A (en) Image forming system, information processor, management device, image forming device, data processing method, storage medium and program
CN110298240B (en) Automobile user identification method, device, system and storage medium
US9747385B2 (en) Compression of cascading style sheet files
US20170277526A1 (en) Software categorization method and electronic device
CN109033393B (en) Sticker processing method, device, storage medium and electronic equipment
JP2020127194A (en) Computer system and program
CN114612986A (en) Detection method, detection device, electronic equipment and storage medium
JP6620232B2 (en) Technology for attaching media captured by a mobile computing device to an electronic document
JP5523208B2 (en) Server apparatus, control method thereof, and program
WO2019226381A1 (en) Sensor fusion for generating queries
CN109510943A (en) Method and apparatus for shooting image
CN111290751B (en) Special effect generation method, device, system, equipment and storage medium
JP6347636B2 (en) Image processing system, data management method, and program
WO2023275782A1 (en) Systems and methods for locating devices
US11836640B2 (en) Artificial intelligence modules for computation tasks
KR102243798B1 (en) Information service providing method using bigdata of images collecting by touch of mobile device and system therefor
US20190394154A1 (en) Methods, systems, devices, and non-transitory computer readable record media for filtering images using keywords
US10564601B2 (en) Method and system for image processing and data transmission in network-based multi-camera environment
CN111783725A (en) Face recognition method, face recognition device and storage medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant