KR102498781B1 - Method for generating scene graph of objects in images and electronic device using the same - Google Patents

Method for generating scene graph of objects in images and electronic device using the same Download PDF

Info

Publication number
KR102498781B1
KR102498781B1 KR1020210005972A KR20210005972A KR102498781B1 KR 102498781 B1 KR102498781 B1 KR 102498781B1 KR 1020210005972 A KR1020210005972 A KR 1020210005972A KR 20210005972 A KR20210005972 A KR 20210005972A KR 102498781 B1 KR102498781 B1 KR 102498781B1
Authority
KR
South Korea
Prior art keywords
data
area
satellite image
identified
relationship
Prior art date
Application number
KR1020210005972A
Other languages
Korean (ko)
Other versions
KR20220103407A (en
Inventor
김창익
정승준
고지은
Original Assignee
국방과학연구소
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소, 한국과학기술원 filed Critical 국방과학연구소
Priority to KR1020210005972A priority Critical patent/KR102498781B1/en
Publication of KR20220103407A publication Critical patent/KR20220103407A/en
Application granted granted Critical
Publication of KR102498781B1 publication Critical patent/KR102498781B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/206Drawing of charts or graphs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Abstract

본 발명의 다양한 실시예에 따른 전자 장치의 인터페이스에서 장면 그래프를 생성하는 방법은, 제1위성 영상을 수신하는 단계, 상기 수신된 제1위성 영상에서 적어도 하나의 객체를 식별하는 단계, 식별된 적어도 하나의 객체에 대응하는 주석 데이터 생성하는 단계, 생성된 주석 데이터를 기초로 하여 식별된 적어도 하나의 객체 간 관계 데이터를 결정하는 단계, 및 상기 주석 데이터 및 상기 관계 데이터를 포함하는 제2위성 영상을 제1영역에 제공하는 단계를 포함할 수 있다.A method for generating a scene graph in an interface of an electronic device according to various embodiments of the present disclosure includes receiving a first satellite image, identifying at least one object in the received first satellite image, and identifying at least one object in the received first satellite image. Generating annotation data corresponding to one object, determining relationship data between at least one identified object based on the generated annotation data, and obtaining a second satellite image including the annotation data and the relationship data A step of providing the first region may be included.

Description

영상 내 객체에 대한 장면 그래프를 생성하는 방법 및 이를 이용한 전자 장치{METHOD FOR GENERATING SCENE GRAPH OF OBJECTS IN IMAGES AND ELECTRONIC DEVICE USING THE SAME}A method for generating a scene graph for an object in an image and an electronic device using the same

본 발명의 다양한 실시예는 위성 영상 내 객체에 대한 주석 데이터 및 관계 데이터를 생성하는 방법 및 이를 이용한 전자 장치에 관한 것이다. 자세하게는, 항공 및 위성 영상에 대한 장면 그래프 주석 생성에 대한 사용자 인터페이스 및 시스템에 관한 것이다.Various embodiments of the present invention relate to a method for generating annotation data and relation data for an object in a satellite image and an electronic device using the same. In particular, it relates to a user interface and system for creating scene graph annotations for aerial and satellite imagery.

위성 영상 및 항공 영상을 대상으로 하는 장면 그래프 데이터는 대상 영역 내의 객체 간 관계의 변화를 활용해 객체로 삼는 그룹의 동향을 파악할 수 있다. 위성 영상은 영상 내 존재하는 객체의 수가 다수이며 개별 객체 마다 고유의 ID를 부여하고, ID 간 관계를 데이터화 하는 것은 일반 영상 보다 많은 시간과 데이터가 소모될 수 있다. 따라서, 위성 영상에서 추출하는 객체에 관한 데이터를 간소화하여 효율적으로 시간 및 데이터를 축소할 수 있는 기술이 필요하다.Scene graph data targeting satellite imagery and aerial imagery can identify the trend of a group that is used as an object by utilizing changes in the relationship between objects within the target area. In satellite imagery, the number of objects present in the image is large, and a unique ID is assigned to each individual object, and converting the relationship between IDs into data can consume more time and data than general images. Therefore, there is a need for a technique capable of efficiently reducing time and data by simplifying object data extracted from satellite images.

본 발명의 실시예는 상술한 문제점을 해결하기 위하여 제안된 것으로 위성 영상 내 포함되어 있는 다수의 객체들에 대한 데이터 소모를 줄이면서 장면 그래프를 생성하는 방법 및 이를 이용하는 전자 장치에 관한 것이다. 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 이하의 실시예들로부터 또 다른 기술적 과제들이 유추될 수 있다.Embodiments of the present invention are proposed to solve the above problems and relate to a method for generating a scene graph while reducing data consumption for a plurality of objects included in a satellite image and an electronic device using the same. The technical problem to be achieved by the present embodiment is not limited to the technical problems described above, and other technical problems can be inferred from the following embodiments.

본 발명의 다양한 실시예에 따른 전자 장치의 인터페이스에서 장면 그래프를 생성하는 방법은, 제1위성 영상을 수신하는 단계, 상기 수신된 제1위성 영상에서 적어도 하나의 객체를 식별하는 단계, 식별된 적어도 하나의 객체에 대응하는 주석 데이터 생성하는 단계, 생성된 주석 데이터를 기초로 하여 식별된 적어도 하나의 객체 간 관계 데이터를 결정하는 단계, 및 상기 주석 데이터 및 상기 관계 데이터를 포함하는 제2위성 영상을 제1영역에 제공하는 단계를 포함할 수 있다.A method for generating a scene graph in an interface of an electronic device according to various embodiments of the present disclosure includes receiving a first satellite image, identifying at least one object in the received first satellite image, and identifying at least one object in the received first satellite image. Generating annotation data corresponding to one object, determining relationship data between at least one identified object based on the generated annotation data, and obtaining a second satellite image including the annotation data and the relationship data A step of providing the first region may be included.

본 발명의 다양한 실시예에 따른 장면 그래프를 생성하는 방법을 제공하는 전자 장치에 있어서, 메모리, 통신부, 및 제어부를 포함하고, 상기 제어부는 상기 통신부를 통해 제1위성 영상을 수신하고, 상기 수신된 제1위성 영상에서 적어도 하나의 객체를 식별하고, 상기 식별된 적어도 하나의 객체에 주석 데이터를 생성하고, 상기 생성된 주석 데이터를 기초로 하여 식별된 적어도 하나의 객체 간 관계 데이터를 결정하고, 상기 주석 데이터 및 상기 관계 데이터를 포함하는 제2위성 영상을 제1영역에 제공할 수 있다.An electronic device providing a method for generating a scene graph according to various embodiments of the present disclosure includes a memory, a communication unit, and a control unit, wherein the control unit receives a first satellite image through the communication unit and receives the received satellite image. Identifying at least one object in the first satellite image, generating annotation data for the identified at least one object, determining relationship data between the identified at least one object based on the generated annotation data, and A second satellite image including the annotation data and the relation data may be provided to the first area.

본 발명의 실시예에 따르면, 아래와 같은 효과가 하나 혹은 그 이상 존재할 수 있다. 영상 내의 일정 영역을 선택하여 선택된 영역 내의 객체를 식별하기 위한 바운딩 박스(bounding box)가 회전이 가능하면, 식별하고자 하는 객체가 포함되지 않은 영역을 제외하고 선택이 가능하여 객체 검출 및 식별에 데이터 소모가 줄어들 수 있다. 또한, 사용자가 회전이 가능한 바운딩 박스를 활용할 수 있는 편리한 인터페이스를 통해 객체를 식별하기 위한 선택 영역을 최소화할 수 있다. 따라서, 영상 내의 객체를 식별하고 주석 데이터 및 객체 간 관계 데이터를 제공하는 프로세스를 효과적으로 간소화할 수 있어 필요한 시간과 데이터 소모량이 줄어들 수 있으므로 다수의 객체에 대해 적응적으로 대응할 수 있다. According to an embodiment of the present invention, one or more of the following effects may exist. If a bounding box for identifying an object in the selected area by selecting a certain area in the image can be rotated, it is possible to select an area that does not contain the object to be identified, consuming data for object detection and identification. can be reduced In addition, a selection area for identifying an object can be minimized through a convenient interface in which a user can utilize a rotatable bounding box. Accordingly, it is possible to effectively simplify the process of identifying objects in an image and providing annotation data and relational data between objects, thereby reducing required time and data consumption, and thus adaptively responding to multiple objects.

실시예의 효과들은 이상에서 설시한 효과들로 제한되지 않으며, 설시되지 않은 다른 효과들은 청구범위의 기재로부터 당해 기술 분야의 통상의 기술자에게 명확하게 이해될 수 있다.The effects of the embodiments are not limited to the effects described above, and other effects not described can be clearly understood by those skilled in the art from the description of the claims.

도 1은 본 발명의 다양한 실시예에 따른 전자 장치의 내부 구성요소에 관한 블록도이다.
도 2는 본 발명의 다양한 실시예에 따른 장면 그래프 생성 방법의 개략적인 흐름도이다.
도 3은 본 발명의 다양한 실시예에 따른 장면 그래프 생성 방법의 위성 영상 내 객체 식별에 관한 흐름도이다.
도 4a는 내지 도4d는 도 3의 단계 별 진행과 관련된 예시도이다.
도 5는 본 발명의 다양한 실시예에 따른 장면 그래프 생성 방법의 관계 데이터 결정에 관한 흐름도이다.
도 6a 내지 도 6e는 도 5의 단계 별 진행과 관련된 예시도이다.
도 7a 내지 도 7c는 다양한 실시예에 따른 장면 그래프 생성 방법의 인터페이스 상의 제1영역 및 제2영역에 관한 예시도이다.
1 is a block diagram of internal components of an electronic device according to various embodiments of the present disclosure.
2 is a schematic flowchart of a method for generating a scene graph according to various embodiments of the present invention.
3 is a flowchart illustrating object identification in a satellite image of a method for generating a scene graph according to various embodiments of the present disclosure.
4A to 4D are exemplary diagrams related to the step-by-step process of FIG. 3 .
5 is a flowchart illustrating relationship data determination in a method for generating a scene graph according to various embodiments of the present disclosure.
6A to 6E are exemplary diagrams related to the step-by-step process of FIG. 5 .
7A to 7C are exemplary diagrams of a first area and a second area on an interface of a method for generating a scene graph according to various embodiments.

실시 예들에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the embodiments have been selected as general terms that are currently widely used as much as possible while considering the functions in the present disclosure, but they may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technologies, and the like. In addition, in a specific case, there are also terms arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the corresponding description. Therefore, terms used in the present disclosure should be defined based on the meaning of the term and the general content of the present disclosure, not simply the name of the term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 “~부”, “~모듈” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.In the entire specification, when a part is said to "include" a certain component, it means that it may further include other components, not excluding other components unless otherwise stated. In addition, terms such as “~unit” and “~module” described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software.

명세서 전체에서 기재된 “a, b, 및 c 중 적어도 하나”의 표현은, ‘a 단독’, ‘b 단독’, ‘c 단독’, ‘a 및 b’, ‘a 및 c’, ‘b 및 c’, 또는 ‘a,b,c 모두’를 포괄할 수 있다.The expression of “at least one of a, b, and c” described throughout the specification means 'a alone', 'b alone', 'c alone', 'a and b', 'a and c', 'b and c' ', or 'all of a, b, and c'.

이하에서 언급되는 "단말"은 네트워크를 통해 서버나 타 단말에 접속할 수 있는 컴퓨터나 휴대용 단말로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop) 등을 포함하고, 휴대용 단말은 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, IMT(International Mobile Telecommunication), CDMA(Code Division Multiple Access), W-CDMA(W-Code Division Multiple Access), LTE(Long Term Evolution) 등의 통신 기반 단말, 스마트폰, 태블릿 PC 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.A “terminal” referred to below may be implemented as a computer or portable terminal capable of accessing a server or other terminals through a network. Here, the computer includes, for example, a laptop, desktop, laptop, etc. equipped with a web browser, and the portable terminal is, for example, a wireless communication device that ensures portability and mobility. , IMT (International Mobile Telecommunication), CDMA (Code Division Multiple Access), W-CDMA (W-Code Division Multiple Access), LTE (Long Term Evolution), etc. It may include a handheld-based wireless communication device.

아래에서는 첨부한 도면을 참고하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.Hereinafter, with reference to the accompanying drawings, embodiments of the present disclosure will be described in detail so that those skilled in the art can easily carry out the present disclosure. However, the present disclosure may be implemented in many different forms and is not limited to the embodiments described herein.

이하에서는 도면을 참조하여 본 개시의 실시 예들을 상세히 설명한다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings.

도 1은 본 발명의 다양한 실시예에 따른 전자 장치의 내부 구성요소에 관한 블록도이다.1 is a block diagram of internal components of an electronic device according to various embodiments of the present disclosure.

도 1을 참조하면, 전자 장치(100)의 내부 구성요소는 도시된 구성요소들만으로 한정되지 않는다. 전자 장치(100)는 제어부(110), 통신부(120), 및 메모리(130) 중 적어도 하나를 포함할 수 있다. 전자 장치(100)는 컴퓨터, 서버, 스마트 폰 등을 포함할 수 있으며, 서버 및 컴퓨터로 구성된 본 명세서의 장면 그래프 생성 방법을 수행하는 시스템을 포함할 수 있다.Referring to FIG. 1 , internal components of the electronic device 100 are not limited to the illustrated components. The electronic device 100 may include at least one of a control unit 110 , a communication unit 120 , and a memory 130 . The electronic device 100 may include a computer, a server, a smart phone, and the like, and may include a system configured of a server and a computer to perform the scene graph generation method of the present specification.

제어부(110)는, 본 개시의 다양한 실시예에 따른 장면 그래프 생성 방법을 수행하기 위한 일련의 단계들을 처리할 수 있다. 제어부(110)는 전자 장치(100)의 다른 구성요소들을 제어할 수 있다. 본 명세서에서 설명되는 제어부(110)는 뉴럴 네트워크를 통해 반복적인 학습이 수행될 수 있으며, 중앙 처리 장치(CPU) 또는 신경망 처리 장치(NPU)를 포함할 수 있다. 본 명세서의 제어부(110)는 위성 영상에 포함될 수 있는 특정한 객체, 객체의 명칭, 객체 간 관계 등에 대한 데이터들의 축적된 저장 및 적용을 통해 객체 간 주석 데이터 및 관계 데이터를 생성하여 장면 그래프를 제공할 수 있다.The controller 110 may process a series of steps for performing a method for generating a scene graph according to various embodiments of the present disclosure. The controller 110 may control other elements of the electronic device 100 . The control unit 110 described herein may perform repetitive learning through a neural network, and may include a central processing unit (CPU) or a neural network processing unit (NPU). The controller 110 of the present specification provides a scene graph by generating annotation data and relationship data between objects through accumulated storage and application of data on a specific object, name of the object, relationship between objects, etc. that may be included in a satellite image. can

제어부(110)는 통신부(120)를 통해 제1위성 영상을 수신할 수 있다. 제어부(110)는 수신된 제1위성 영상에 포함된 객체를 식별할 수 있다. 예를 들어, 제1위성 영상에 선박과 선박을 구성하는 헬리패드, 조정석, 선두, 갑판 크레인, 또는 화물 선적 공간 등의 객체가 포함될 수 있다. 제어부(110)는 제1위성 영상에서 사용자에 의해 선택되는 일정 영역 내에 포함된 객체를 식별할 수 있다. 제어부(110)를 통해 영상 내 객체를 식별하는 것은 뉴럴 네트워크를 통해 반복적으로 학습된 데이터가 축적되어 자동적으로 식별하는 것이거나 이와 같은 자동적인 식별을 위해 최초에는 선택되는 일정 영역 내에 포함된 객체에 주석 데이터를 사용자가 입력하여 식별하는 것일 수 있다. 제어부(110)가 영상 내 객체를 식별하는 것은 사용자에 의해 선택되는 일정 영역의 모서리 좌표(예: (x1, y1), (x2, y2), (x3, y3), (x4, y4))에 포함되는 영역에 포함될 수 있는 객체의 목록 중 식별하는 것일 수 있다. 예를 들어, 제어부(110)는 뉴럴 네트워크에 의해 학습된 데이터가 존재하지 않는 경우 일정 영역이 선택되면 위성 영상에 포함될 수 있는 객체의 명칭에 대한 목록을 사용자에게 제공하여 선택할 수 있도록 설정될 수 있다. 다른 예를 들어, 제어부(110)는, 뉴럴 네트워크에 의해 복수의 사용자들의 반복적인 선택으로 인한 데이터들이 학습되어 존재하는 경우, 위성 영상에서 일정 영역이 선택되면 일정 영역에 포함되어 있는 적어도 하나 이상의 객체를 자동적으로 식별할 수 있다. 사용자들의 수동 입력이 반복적으로 축적되어 저장되면, 제어부(110)는 자동적으로 위성 영상의 선택된 일정 영역에 포함되어 있는 객체를 식별할 수 있다.The controller 110 may receive the first satellite image through the communication unit 120 . The controller 110 may identify an object included in the received first satellite image. For example, objects such as a ship and a helipad constituting the ship, a cockpit, a head, a deck crane, or a cargo loading space may be included in the first satellite image. The controller 110 may identify an object included in a certain area selected by the user in the first satellite image. Identifying an object in an image through the controller 110 is to automatically identify an object by repeatedly accumulating data learned through a neural network, or to annotate an object included in a certain area initially selected for such automatic identification. Data may be input and identified by the user. The control unit 110 identifies an object in the image based on the corner coordinates (eg, (x1, y1), (x2, y2), (x3, y3), (x4, y4)) of a certain area selected by the user. It may be to identify from a list of objects that can be included in the included area. For example, if data learned by the neural network does not exist and a certain area is selected, the controller 110 may provide a list of names of objects that may be included in a satellite image to the user so that the user can select the object. . For another example, the controller 110 may, if there are data learned from repeated selections of a plurality of users by a neural network, if a certain area is selected from a satellite image, at least one or more objects included in the certain area can be automatically identified. When user's manual input is repeatedly accumulated and stored, the controller 110 can automatically identify an object included in a selected region of the satellite image.

제어부(110)는 식별된 적어도 하나의 객체에 주석 데이터를 생성할 수 있다. 예를 들어, 제어부(110)는 뉴럴 네트워크의 반복적 학습을 위한 트레이닝 데이터들을 통해 축적된 데이터를 기초로 하여 식별된 객체에 대한 주석 데이터를 자동적으로 생성할 수 있다. 제어부(110)는 제1위성 영상에서 선택되는 일정 영역 내 포함된 객체를 '갑판 크레인'으로 식별하여 '갑판 크레인(deck crane)'의 주석 데이터를 생성할 수 있다. 다른 예를 들어, 제어부(110)는 뉴럴 네트워크의 반복적 학습을 위해 제공되는 데이터를 제공하기 위해 식별된 객체에 대한 주석 데이터를 수동적으로 생성할 수 있다. 제어부(110)는 제1위성 영상에서 선택되는 일정 영역 내 포함된 객체를 '갑판 크레인'으로 식별하여 사용자에게 '선박'에 포함될 수 있는 객체들의 명칭을 나열하여 제공하고, 사용자는 식별된 객체인 '갑판 크레인'에 해당하는 주석 데이터를 수동적으로 입력할 수 있다. 사용자들의 수동 입력이 반복적으로 축적되어 저장되면, 제어부(110)는 자동적으로 위성 영상의 선택된 일정 영역에 포함되어 있는 객체에 대한 주석 데이터를 생성할 수 있다.The controller 110 may generate annotation data for at least one identified object. For example, the controller 110 may automatically generate annotation data for the identified object based on data accumulated through training data for repetitive learning of the neural network. The controller 110 may identify an object included in a certain area selected from the first satellite image as a 'deck crane' and generate annotation data of 'deck crane'. For another example, the controller 110 may manually generate annotation data for the identified object in order to provide data provided for repetitive learning of the neural network. The control unit 110 identifies an object included in a certain area selected from the first satellite image as a 'deck crane', lists and provides names of objects that may be included in the 'ship' to the user, and the user identifies the identified object. Annotation data corresponding to 'deck crane' can be entered manually. When user's manual inputs are repeatedly accumulated and stored, the controller 110 can automatically generate annotation data for an object included in a selected area of a satellite image.

제어부(110)는 생성된 주석 데이터를 기초로 하여 식별된 객체들 간 관계 데이터를 결정할 수 있다. 제어부(110)는 뉴럴 네트워크의 반복적 학습을 위한 트레이닝 데이터들을 통해 축적된 데이터를 기초로 하여 주석 데이터가 생성된 복수의 객체 간(예: 두 객체 간) 관계 데이터를 자동적으로 결정할 수 있다. 제어부(110)는 제1위성 영상에서 선택되는 일정 영역 내에 주석 데이터가 생성된 객체 간 관계 데이터를 결정할 수 있다. 예를 들어, 제어부(110)는 '갑판 크레인'(예: 제1객체)이 포함된 일정 영역을 선택한 후 클릭 앤 드래그(click and drag) 입력을 획득하여, '갑판 크레인'을 시점(starting point)으로 하여 '화물 선적 공간'(예: 제2객체)을 종점(end point)으로 하는 입력에 따라 '갑판 크레인' 및 '화물 선적 공간' 간 관계 데이터를 결정할 수 있다. 여기서, 제어부(110)는 '갑판 크레인'은 '화물 선적 공간'의 '위(on)'에 있는 관계 데이터를 결정할 수 있고, 반복적으로, '제1객체'를 주어(subject)로 하여 '제2객체'를 목적어(object)로 하는 관계 데이터를 결정할 수 있다. 다른 예를 들어, 제어부(110)는 뉴럴 네트워크의 반복적 학습을 위해 제공되는 데이터를 제공하기 위해 선택되는 일정 영역 내에 주석 데이터가 생성된 객체 간 관계 데이터를 수동적으로 생성할 수 있다. 제어부(110)는 '갑판 크레인'이 포함된 일정 영역에 대한 선택 후 클릭 앤 드래그 입력을 획득하여, '갑판 크레인'을 시점으로 하여 '화물 선적 공간'을 종점으로 하는 입력에 따라 '갑판 크레인' 및 '화물 선적 공간' 간 관계 데이터를 수동적으로 결정할 수 있다. 여기서, 제어부(110)는 클릭 앤 드래그 입력의 획득에 따라 사용자에게 각주 데이터가 생성된 객체들 간 '위치 관계'에 관련된 데이터를 포함될 수 있는 용어들을 나열하여 제공하고, 사용자는 '갑판 크레인' 및 '화물 선적 공간' 간의 '위치 관계'에 해당하는 관계 데이터를 수동적으로 선택할 수 있다. 사용자들의 수동 입력이 반복적으로 축적되어 저장되면, 제어부(110)는 자동적으로 위성 영상 내 주석 데이터가 생성된 객체 간 관계 데이터를 생성할 수 있다.The controller 110 may determine relationship data between the identified objects based on the generated annotation data. The controller 110 may automatically determine relation data between a plurality of objects (eg, between two objects) for which annotation data is generated based on data accumulated through training data for repetitive learning of the neural network. The controller 110 may determine relation data between objects in which annotation data is created within a certain region selected from the first satellite image. For example, the control unit 110 selects a certain area including the 'deck crane' (eg, the first object), obtains a click and drag input, and selects the 'deck crane' as a starting point. ), it is possible to determine relational data between the 'deck crane' and the 'cargo loading space' according to the input of the 'cargo loading space' (eg, the second object) as the end point. Here, the control unit 110 may determine the relationship data that the 'deck crane' is 'on' of the 'cargo shipping space', and repeatedly set the 'first object' as the subject to the 'first object'. It is possible to determine relational data using '2 objects' as an object. For another example, the controller 110 may manually generate relational data between objects in which annotation data is created within a selected area to provide data provided for iterative learning of the neural network. The control unit 110 obtains a click and drag input after selecting a certain area including the 'deck crane', and sets the 'deck crane' as the starting point to the 'cargo loading space' as the end point. and 'cargo shipping space' may be manually determined. Here, the control unit 110 lists and provides terms that may include data related to 'positional relationship' between objects for which footnote data is created to the user according to the acquisition of the click-and-drag input, and the user lists 'deck crane' and Relational data corresponding to the 'positional relationship' between 'cargo shipping spaces' can be selected manually. When manual inputs of users are repeatedly accumulated and stored, the controller 110 may automatically generate relation data between objects in which annotation data is generated in a satellite image.

본 명세서에서 관계 데이터는 제1관계 데이터, 제2관계 데이터, 또는 인디케이터(indicator)를 포함할 수 있다. 제1관계 데이터는 제1객체를 시점으로 하여 제1객체와는 다른 제2객체를 종점으로 하는 관계 데이터로, 주어-목적어 관계를 의미할 수 있다. 예를 들어, '헬리 패드'로부터 '선박'으로의 클릭 앤 드래그 입력이 획득되면, '헬리 패드'는 '선박'의 '위'에 있다는 정보가 관계 데이터로 결정될 수 있다. 다른 예를 들어, '조정석'으로부터 '선박'으로의 클릭 앤 드래그 입력이 획득되면, '조정석'은 '선박'의 '위'에 있다는 정보가 관계 데이터로 결정될 수 있다. 제2관계 데이터는 제1객체를 시점으로 하여 제1객체를 종점으로 하는 관계 데이터로, 회귀를 의미할 수 있으며 제1객체에 대한 정보를 포함할 수 있다. 예를 들어, '뱃머리'로부터 '뱃머리'로의 클릭 앤 드래그 입력이 획득되면, '뱃머리'에 대한 정보로써 '모양은, 사각형'이라는 정보가 관계 데이터로 결정될 수 있다. 다른 예를 들어, '선박'으로부터 '선박'으로의 클릭 앤 드래그 입력이 획득되면, '선박'에 대한 정보로써 '색상은, 회색'이라는 정보가 관계 데이터로 결정될 수 있다. 인디케이터는 제1객체에서 제1객체로의 화살표, 제1객체에서 제2객체로의 화살표를 포함할 수 있다.In this specification, relationship data may include first relationship data, second relationship data, or an indicator. The first relationship data is relationship data having a first object as a start point and a second object different from the first object as an end point, and may mean a subject-object relationship. For example, when a click and drag input from a 'helipad' to a 'ship' is acquired, information that the 'helipad' is 'above' the 'ship' may be determined as relational data. For another example, when a click-and-drag input from the 'cockpit' to the 'ship' is obtained, information that the 'cockpit' is 'above' the 'ship' may be determined as relational data. The second relational data is relational data with the first object as a start point and the first object as an end point, and may mean regression and may include information about the first object. For example, when a click-and-drag input from 'bow' to 'bow' is acquired, information about 'shape is rectangle' as information about the 'bow' may be determined as relational data. For another example, when a click-and-drag input from 'ship' to 'ship' is acquired, information about 'color is gray' as information about 'ship' may be determined as relational data. The indicator may include an arrow from the first object to the first object and an arrow from the first object to the second object.

통신부(120)는 전자 장치(100)의 메모리(130)에 저장된 정보 또는 제어부(110)에 의해 처리된 정보를 다른 장치로 송신하거나, 다른 장치로부터 전자 장치(100)로 정보를 수신하는 기능을 수행할 수 있다. 예를 들어, 전자 장치(100)는 통신부(110)를 통해 제1위성 영상을 수신할 수 있다. 다른 예를 들어, 전자 장치(100)는 통신부(110)를 통해 제2위성 영상 및 제2위성 영상과 관련된 데이터들을 백업 서버나 다른 전자 장치로 송신할 수 있다.The communication unit 120 transmits information stored in the memory 130 of the electronic device 100 or information processed by the control unit 110 to another device, or functions to receive information from another device to the electronic device 100. can be done For example, the electronic device 100 may receive the first satellite image through the communication unit 110 . For another example, the electronic device 100 may transmit the second satellite image and data related to the second satellite image to a backup server or another electronic device through the communication unit 110 .

메모리(130)는 전자 장치(100)의 소정의 저장 공간에 구현된 데이터 구조로서, 데이터의 저장, 검색, 삭제, 편집, 또는 추가 등의 기능이 자유롭게 수행될 수 잇다. 예를 들어, 메모리(130)는 데이터의 저장, 검색, 삭제, 편집, 또는 추가 등의 기능을 처리하기 위한 필드 또는 구성요소들을 포함할 수 있다. 메모리(130)는 전자 장치(100)가 정보 제공 방법을 수행하는데 관련된 데이터를 저장할 수 있다. 예를 들어, 메모리(130)는 제어부(110)의 실행 동작을 위한 명령어들 또는 데이터들을 저장할 수 있다.The memory 130 is a data structure implemented in a predetermined storage space of the electronic device 100, and functions such as storing, searching, deleting, editing, or adding data can be freely performed. For example, the memory 130 may include fields or components for processing functions such as data storage, search, deletion, editing, or addition. The memory 130 may store data related to the electronic device 100 performing an information providing method. For example, the memory 130 may store instructions or data for an execution operation of the control unit 110 .

도 2는 본 발명의 다양한 실시예에 따른 장면 그래프 생성 방법의 개략적인 흐름도이다.2 is a schematic flowchart of a method for generating a scene graph according to various embodiments of the present invention.

장면 그래프 생성 방법은 단계 S210에서, 제1위성 영상을 수신할 수 있다. 제1위성 영상은 특정 장소에 대한 위성 영상을 포함할 수 있으며, 특정 물체에 대한 위성 영상을 포함할 수도 있다.In the method of generating a scene graph, in step S210, a first satellite image may be received. The first satellite image may include a satellite image of a specific place or a satellite image of a specific object.

장면 그래프 생성 방법은 단계 S220에서, 제1위성 영상에 포함된 적어도 하나의 객체를 식별할 수 있다. 제1위성 영상에는 복수의 객체, 예를 들어, 선박1, 선박2, 다리, 또는 항구 등의 객체가 포함되어 있을 수 있다. 장면 그래프 생성 방법은 제1위성 영상에 포함된 객체들을 크기가 큰 범위를 상위 개념으로 하여 해당 객체에 포함된 구성요소들을 작은 범위로 하는 하위 개념으로 분류하여 식별할 수 있다.In the method for generating a scene graph, at step S220, at least one object included in the first satellite image may be identified. The first satellite image may include a plurality of objects, such as ship 1, ship 2, a bridge, or a port. In the scene graph generation method, objects included in the first satellite image may be identified by classifying objects included in the first satellite image into sub-concepts including a range having a large size as an upper concept and components included in the corresponding object as a lower range.

장면 그래프 생성 방법은 단계 S230에서, 제1위성 영상에서 식별된 객체에 대응하는 주석 데이터를 생성할 수 있다. 장면 그래프 생성 방법에서 제공되는 인터페이스 상에서, 예를 들어, 사용자가 제1위성 영상의 일부 영역을 선택하는 입력이 획득되면 선택된 영역에 존재하는 식별된 객체에 대응하는 주석 데이터를 생성할 수 있다. 장면 그래프 생성 방법에 따르면, 회전 가능한 바운딩 박스(rotatable bounding box)로 선택되는 일정 영역의 좌표를 획득하여 해당 좌표에 존재하는 식별된 객체에 대응하는 주석 데이터를 생성할 수 있다.In the method of generating a scene graph, in step S230, annotation data corresponding to the object identified in the first satellite image may be generated. On the interface provided in the scene graph generation method, for example, when a user input for selecting a partial region of the first satellite image is obtained, annotation data corresponding to an identified object existing in the selected region may be generated. According to the scene graph generation method, coordinates of a certain area selected as a rotatable bounding box may be obtained, and annotation data corresponding to an identified object existing at the corresponding coordinates may be generated.

장면 그래프 생성 방법은 단계 S240에서 주석 데이터를 기초로 하여 관계 데이터를 결정할 수 있다. 예를 들어, 주석 데이터가 생성된 두 객체 간 관계를 주어-목적어 관계로 설명하는 관계 데이터를 결정할 수 있다.In the method of generating a scene graph, relationship data may be determined based on the annotation data in step S240. For example, it is possible to determine relationship data describing a relationship between two objects for which annotation data is created as a subject-object relationship.

장면 그래프 생성 방법은 단계 S250에서 주석 데이터 및 관계 데이터를 포함하는 제2위성 영상을 제1위성 영상에 오버레이(overlay)하여 제공할 수 있다. 제2위성 영상은 제1위성 영상에 포함된 객체들의 주석 데이터를 포함하고, 주석 데이터가 생성된 객체들 간 관계 데이터를 포함할 수 있다. 제1위성 영상에 오버레이하여 제공되는 제2위성 영상은 제1위성 영상에 포개어져 제공된다고 설명될 수 있으며, 사용자에게 제공되는 인터페이스에서 제1영역에 제공될 수 있다. 제1위성 영상이 제2위성 영상으로 변경되어 제공되는 것일 수 있고, 제2위성 영상이 제1위성 영상을 포함하는 것을 의미할 수도 있다.In the method of generating a scene graph, a second satellite image including annotation data and relation data may be overlaid on the first satellite image and provided in step S250. The second satellite image may include annotation data of objects included in the first satellite image, and may include relationship data between objects for which the annotation data is generated. The second satellite image provided overlaid on the first satellite image can be explained as being provided superimposed on the first satellite image, and can be provided in the first area in an interface provided to the user. The first satellite image may be changed to the second satellite image and provided, or the second satellite image may include the first satellite image.

도 3은 본 발명의 다양한 실시예에 따른 장면 그래프 생성 방법의 위성 영상 내 객체 식별에 관한 흐름도이다.3 is a flowchart illustrating object identification in a satellite image of a method for generating a scene graph according to various embodiments of the present disclosure.

도 3은 도 2의 장면 그래프 생성 방법의 S220에 대한 상세한 흐름도일 수 있다.FIG. 3 may be a detailed flowchart of S220 of the method for generating a scene graph of FIG. 2 .

다양한 실시예에 따른 장면 그래프 생성 방법은 단계 S221에서 제1위성 영상의 일부 영역에 대한 사용자의 입력을 획득할 수 있다. 사용자의 입력은 클릭 앤 드래그일 수 있으며, S221에서는 커서를 클릭한 뒤 드래그 하는 입력을 획득하여 모서리(예: 변)를 제1위성 영상의 일부 영역에 드로잉하도록 할 수 있다. 사용자는 제1위성 영상 내의 (x1, y1)에서 (x2, y2)로 모서리를 드로잉할 수 있다. 단계 S221에서 사용자의 클릭 앤 드래그의 입력은 (x2, y2)에서 모서리의 드로잉을 마치기 위해 종료되고, 사용자는 (x2, y2)의 지점을 종점으로 하여 클릭을 취소(예: 마우스 버튼의 클릭을 중단)할 수 있다.In the method for generating a scene graph according to various embodiments, a user's input for a partial region of the first satellite image may be obtained in step S221. The user's input may be click and drag, and in S221, an input of clicking and dragging the cursor may be acquired to draw a corner (eg, side) on a partial area of the first satellite image. The user may draw a corner from (x1, y1) to (x2, y2) in the first satellite image. In step S221, the user's click-and-drag input ends to finish drawing the corner at (x2, y2), and the user cancels the click (e.g., clicking the mouse button) with the point at (x2, y2) as the end point. can be stopped).

단계 S222에서, 사용자가 드로잉한 모서리의 길이가 0을 넘지 않는 경우라면 다시 시작 단계로 돌아가 S221을 수행할 수 있다. 장면 그래프 생성 방법은 단계 S222에서 드로잉한 모서리의 길이가 0을 넘는 경우 단계 S223으로 진행할 수 있다.In step S222, if the length of the corner drawn by the user does not exceed 0, it is possible to return to the starting step and perform step S221. The method for generating a scene graph may proceed to step S223 when the length of the corner drawn in step S222 exceeds zero.

단계 S223에서, 장면 그래프 생성 방법은 단계 S221에서의 종점인 (x2, y2)에서의 클릭의 취소에 대응하여 커서를 움직이는 이동의 입력이 획득되면, (x1, y1) 및 (x2, y2)를 한 모서리로 하면서 상기 모서리에 직교하는 방향으로의 확장 또는 축소가 일어나 바운딩 박스가 드로잉되게 할 수 있다. 드로잉된 바운딩 박스는 드로잉 이후 회전이 가능할 수 있으며, (x1, y1) 및 (x2, y2)로 드로잉되는 모서리가 제1위성 영상에서 x축과 수평이 아닌 경우에는 커서의 이동으로 회전이 된 바운딩 박스의 형태로 드로잉될 수 있다. 단계 S223의 바운딩 박스 드로잉은 도 4a 내지 도 4d에서 상세히 설명된다.In step S223, the method for generating a scene graph generates (x1, y1) and (x2, y2) when an input of moving the cursor corresponding to the cancellation of the click at (x2, y2), which is the end point in step S221, is obtained. The bounding box can be drawn as one corner and expansion or contraction in a direction orthogonal to the corner occurs. The drawn bounding box may be rotated after drawing, and if the corners drawn at (x1, y1) and (x2, y2) are not horizontal to the x-axis in the first satellite image, the bounding rotated by moving the cursor It can be drawn in the form of a box. The bounding box drawing of step S223 is described in detail in FIGS. 4A to 4D.

단계 S224에서, 장면 그래프 생성 방법은 바운딩 박스 내 객체를 식별할 수 있다. 예를 들어, 제1위성 영상의 적어도 일부의 영역을 선택하는 바운딩 박스 내에 선박이 있는 경우, 선박이 객체로 식별될 수 있다. 선박이 객체로 식별된 경우, 선박을 구성하는 객체들도 선박을 상위 개념으로 하여 하위 개념으로 함께 식별될 수 있다. 선박을 구성하는 하위 개념의 객체는 헬리패드, 조정석, 선두, 갑판 크레인, 또는 화물 선적 공간 등이 포함될 수 있다. 본 명세서에서 제1위성 영상에 포함되는 객체들은 예시에 불과할 뿐이며 제한이 되지 않는다.In step S224, the scene graph generating method may identify an object within the bounding box. For example, when there is a ship within a bounding box that selects at least a portion of the first satellite image, the ship may be identified as an object. When the ship is identified as an object, objects constituting the ship may also be identified together as a lower concept with the ship as a higher concept. Sub-concept objects constituting a ship may include a helipad, a cockpit, a head, a deck crane, or a cargo loading space. In this specification, the objects included in the first satellite image are only examples and are not limited thereto.

도 4a는 내지 도4d는 도 3의 단계 별 진행과 관련된 예시도이다.4A to 4D are exemplary diagrams related to the step-by-step process of FIG. 3 .

구체적으로, 도 4a 및 도4b는 도 3의 단계 S221 및 단계 S222에 대응될 수 있으며, 도 4c는 도 3의 단계 S223에 대응되고, 도 4d는 도3의 단계 S224에 대응되는 예시도이다.Specifically, FIGS. 4A and 4B may correspond to steps S221 and S222 of FIG. 3 , FIG. 4C may correspond to step S223 of FIG. 3 , and FIG. 4D may correspond to step S224 of FIG. 3 .

도 4a를 참조하면, 장면 그래프 생성 방법이 구현되는 인터페이스 상의 제1영역에 제공되는 제1위성 영상이 도시된다. 사용자는 제1위성 영상의 일부 영역을 커서를 통한 입력으로 선택할 수 있다. 커서를 통한 입력은 일 예에 해당하며 터치 입력 등이 가능할 수 있고 방식에 제한이 있는 것은 아니다. 도 4a는 사용자가 제1위성 영상의 일부 영역을 선택하기 위한 시점으로 (x1, y1)에 커서의 끝 부분이 위치하고 있는 예시이다. 도 4a에서 도 4b로 진행되는 과정에서 사용자는 (x1, y1)을 클릭하여 바운딩 박스를 드로잉하기 위한 시점으로 삼을 수 있다.Referring to FIG. 4A , a first satellite image provided to a first area on an interface where a scene graph generation method is implemented is shown. The user may select a part of the first satellite image by inputting the cursor. Input through a cursor is an example, and touch input may be possible, and the method is not limited. 4A is an example in which the end of the cursor is positioned at (x1, y1) as a point of time for the user to select a partial area of the first satellite image. In the process from FIG. 4A to FIG. 4B , the user may click (x1, y1) as a viewpoint for drawing the bounding box.

도 4b를 참조하면, 사용자가 (x1, y1)을 시점으로 하여 (x2, y2)를 종점으로 하는 드로잉한 모서리(410)가 도시된다. 사용자는 (x1, y1)을 클릭한 상태를 유지하고 커서를 드래그하여 (x2, y2)에서 클릭한 마우스 버튼에서 손을 뗄 수 있다. 본 명세서에서는 마우스 버튼에서 손을 떼는 것을 클릭의 취소로 혼용하여 설명될 수 있다. 사용자의 클릭 앤 드래그의 입력은 (x2, y2)에서 모서리의 드로잉을 마치기 위해 종료되고, 사용자는 (x2, y2)의 지점을 종점으로 하여 클릭을 취소(예: 마우스 버튼의 클릭을 중단)할 수 있다.Referring to FIG. 4B , a corner 410 drawn by a user with (x1, y1) as a start point and (x2, y2) as an end point is shown. The user can release the mouse button clicked at (x2, y2) by holding down the click on (x1, y1) and dragging the cursor. In this specification, releasing a mouse button may be described as a combination of canceling a click. The user's click-and-drag input ends at (x2, y2) to finish drawing the corner, and the user takes the point at (x2, y2) as the end point to cancel the click (eg, stop clicking the mouse button). can

도 4c를 참조하면, 사용자는 도 4b에 도시된 종점인 (x2, y2)에서의 클릭의 취소 후 커서를 움직여, (x1, y1) 및 (x2, y2)를 한 모서리(410)로 하면서 상기 모서리에 직교하는 방향으로의 확장 또는 축소가 일어나 바운딩 박스(420)가 드로잉되게 할 수 있다. 드로잉된 바운딩 박스는 드로잉 이후 회전이 가능할 수 있으며, (x1, y1) 및 (x2, y2)로 드로잉되는 모서리가 제1위성 영상에서 x축과 수평이 아닌 경우에는 커서의 이동으로 회전이 된 바운딩 박스의 형태로 드로잉될 수 있다. 바운딩 박스(420)의 네 꼭지점은 (x1, y1), (x2, y2), (x3, y3), 및 (x4, y4)에 대응될 수 있다.Referring to FIG. 4C, the user moves the cursor after canceling the click at (x2, y2), which is the end point shown in FIG. Expansion or contraction in a direction perpendicular to the corner may cause the bounding box 420 to be drawn. The drawn bounding box may be rotated after drawing, and if the corners drawn at (x1, y1) and (x2, y2) are not horizontal to the x-axis in the first satellite image, the bounding rotated by moving the cursor It can be drawn in the form of a box. Four vertices of the bounding box 420 may correspond to (x1, y1), (x2, y2), (x3, y3), and (x4, y4).

도 4d를 참조하면, 사용자는 장면 그래프 생성 방법의 인터페이스에서 제공되는 주석 데이터를 선택할 수 있다. 예를 들어, 사용자는 도 4a 내지 도 4c를 통해 드로잉한 바운딩 박스(420) 내의 객체가 '조정석'으로 판단되면 객체의 명칭 선택 창(430)에서 '조정석'(command post)로 주석 데이터를 선택할 수 있다. 사용자의 주석 데이터 선택은 뉴럴 네트워크의 트레이닝을 위한 데이터 축적의 과정에 해당할 수 있다. 뉴럴 네트워크는 다수의 사용자들의 주석 데이터 선택에 대한 결과를 저장하여 사용자에게 객체의 명칭 선택 창(430)을 제공하지 않고도 자동적으로 바운딩 박스(420) 내의 객체를 식별할 수 있다.Referring to FIG. 4D , a user may select annotation data provided from an interface of a scene graph generation method. For example, when the object in the bounding box 420 drawn through FIGS. 4A to 4C is determined to be a 'cockpit', the user selects annotation data as 'cockpit' (command post) in the name selection window 430 of the object. can The user's selection of annotation data may correspond to a process of accumulating data for neural network training. The neural network may automatically identify an object within the bounding box 420 without providing the object name selection window 430 to the user by storing results of selection of annotation data by a plurality of users.

도 4a 내지 도 4d를 참조하면, 수신한 위성 영상에서 사용자가 원하는 영역에 포함된 객체를 식별하기 위해 설정되는 영역은 바운딩 박스가 회전이 가능하다면 데이터의 소모량을 줄일 수 있다. 예를 들어, 위성 영상은 화면에 표시되는 영역을 기준으로 포함된 객체들이 x축에 평행하게 위치하고 있지 않을 수 있다. 도 4a 내지 도 4d에서의 '선박'의 경우에도 x축을 기준으로 대각선으로 위치하고 있는 위성 영상이 도시된다. '선박'을 포함하는 객체를 식별하기 위해 회전이 불가능한 바운딩 박스를 이용하여 일정 영역을 선택하게 되면, 식별하고자 하는 객체가 포함되지 않은 잉여 영역이 함께 선택될 수 있다. 이에 따라 잉여 영역과 함께 선택된 영역은 불필요한 데이터까지 포함하여 용량이 커지게 될 수 있다. 위성 영상 또는 항공 영상과 같이 용량이 큰 영상에 대한 연산 처리는 데이터의 용량이 큰 경우 처리가 지연될 수 있다. 이와 같은 연산 처리의 지연 및 전체 프로세스의 작업의 효율화를 위해 회전이 가능한 바운딩 박스를 이용하여 객체를 식별하게 되면, 사용자가 식별하고자 하는 객체가 포함된 일정 영역만을 선택할 수 있게 되어 잉여 영역을 포함하지 않게 되어 연산 처리의 시간이 단축되고 전체 프로세스의 효율성이 높아질 수 있다.Referring to FIGS. 4A to 4D , if a bounding box can be rotated in a region set to identify an object included in a region desired by a user in a received satellite image, consumption of data can be reduced. For example, in the satellite image, objects included in the area displayed on the screen may not be positioned parallel to the x-axis. Even in the case of 'ship' in FIGS. 4A to 4D , satellite images positioned diagonally with respect to the x-axis are shown. When a certain area is selected using a bounding box that cannot be rotated to identify an object including a 'ship', an extra area that does not include an object to be identified may be selected together. Accordingly, the selected area together with the redundant area may have a larger capacity including unnecessary data. Operation processing for large-capacity images such as satellite images or aerial images may be delayed when the data volume is large. When an object is identified using a rotatable bounding box to delay such calculation processing and to increase the efficiency of the entire process, the user can select only a certain area that includes the object to be identified, not including the redundant area. As a result, the time of calculation processing can be shortened and the efficiency of the entire process can be increased.

도 5는 본 발명의 다양한 실시예에 따른 장면 그래프 생성 방법의 관계 데이터 결정에 관한 흐름도이다.5 is a flowchart illustrating relationship data determination in a method for generating a scene graph according to various embodiments of the present disclosure.

도 5는, 도 2의 단계 S240에 대한 상세한 흐름도일 수 있다.5 may be a detailed flowchart of step S240 of FIG. 2 .

다양한 실시예에 따른 장면 그래프 생성 방법은, 단계 S241에서, 바운딩 박스로 일정 영역을 선택하는 입력을 획득할 수 있다. 바운딩 박스가 드로잉된 것으로 입력을 획득하면, 단계 S242에서, 바운딩 박스 내의 식별된 객체 수가 0개 보다 많은지 확인할 수 있다. 만약, 단계 S242에서 드로잉된 바운딩 박스 내의 식별된 객체 수가 0보다 같거나 작은 경우에는 다시 단계 S241로 돌아가 진행할 수 있다.In the method for generating a scene graph according to various embodiments, in step S241, an input for selecting a certain region as a bounding box may be obtained. If an input is obtained indicating that the bounding box is drawn, in step S242, it may be checked whether the number of identified objects in the bounding box is greater than zero. If the number of objects identified in the bounding box drawn in step S242 is equal to or less than 0, the process may return to step S241 again.

장면 그래프 생성 방법은, 드로잉된 바운딩 박스 내의 객체 수가 1개 이상인 경우 단계 S243으로 진행할 수 있다. 단계 S243에서, 바운딩 박스 내의 객체 중 어느 한 객체가 제1객체로 식별될 수 있다. 단계 S243에서 제1객체로 식별되는 것은 바운딩 박스에서 가장 많은 영역을 차지하고 있는 객체일 수 있고, 바운딩 박스 내의 복수의 객체 중 제1객체로 식별되는 알고리즘은 개발자에 의하여 변경될 수 있다.The method for generating a scene graph may proceed to step S243 when the number of objects in the drawn bounding box is one or more. In step S243, any one of the objects in the bounding box may be identified as the first object. The object identified as the first object in step S243 may be an object occupying the largest area in the bounding box, and an algorithm identified as the first object among a plurality of objects in the bounding box may be changed by a developer.

단계 S244에서, 장면 그래프 생성 방법은 제1객체로부터 클릭 앤 드래그 입력을 획득할 수 있다. 단계 S244에서의 클릭 앤 드래그 입력은 도 4b에서 설명되는 단계 S221의 클릭 앤 드래그 입력과 다른 마우스 버튼을 활용하여 이루어질 수 있으며 이에 제한되는 것은 아니다.In step S244, the method for generating a scene graph may obtain a click and drag input from the first object. The click-and-drag input in step S244 may be performed using a mouse button different from the click-and-drag input in step S221 described in FIG. 4B, but is not limited thereto.

단계 S245에서, 장면 그래프 생성 방법은 드래그한 영역 내의 객체 수가 0개 보다 많은지 확인할 수 있다. 만약, 단계 S245에서 드래그한 영역 내의 객체 수가 0보다 같거나 작은 경우에는 다시 단계 S244로 돌아가 진행할 수 있다.In step S245, the method for generating a scene graph may check whether the number of objects in the dragged area is greater than zero. If the number of objects in the area dragged in step S245 is equal to or smaller than 0, the process may be returned to step S244.

장면 그래프 생성 방법은, 단계 S245에서 드래그한 영역 내의 객체 수가 1개 이상인 경우 단계 S246으로 진행할 수 있다. 단계 S246에서, 드래그한 영역 내의 객체 중 어느 한 객체가 제2객체로 식별될 수 있다. 단계 S246에서 제2객체로 식별되는 것은 드래그한 영역에서 가장 많은 영역을 차지하고 있는 객체일 수 있고, 드래그한 영역 내의 복수의 객체 중 제2객체로 식별되는 알고리즘은 개발자에 의해 변경될 수 있다.The method for generating a scene graph may proceed to step S246 when the number of objects in the area dragged in step S245 is one or more. In step S246, any one of the objects in the dragged area may be identified as the second object. The object identified as the second object in step S246 may be an object occupying the largest area in the dragged area, and an algorithm identified as the second object among a plurality of objects in the dragged area may be changed by a developer.

단계 S247에서, 장면 그래프 생성 방법은 제1객체와 제2객체가 동일한 객체인지 확인할 수 있다. 만약 단계 S247에서 제1객체와 제2객체가 동일한 객체로 확인되는 경우에는 단계 S248로 진행할 수 있고, 동일하지 않은 객체로 확인되는 경우에는 단계 S249로 진행할 수 있다.In step S247, the method for generating a scene graph may check whether the first object and the second object are the same object. If it is determined in step S247 that the first object and the second object are the same object, step S248 may be performed, and if they are not identical, step S249 may be performed.

단계 S248에서, 장면 그래프 생성 방법은 제2관계 데이터를 결정할 수 있다. 제2관계 데이터는 제1객체를 시점으로 하여 제1객체를 종점으로 하는 관계 데이터로, 회귀를 의미할 수 있으며 제1객체에 대한 정보를 포함할 수 있다. 예를 들어, '뱃머리'로부터 '뱃머리'로의 클릭 앤 드래그 입력이 획득되면, '뱃머리'에 대한 정보로써 '모양은, 사각형'이라는 정보가 관계 데이터로 결정될 수 있다. 다른 예를 들어, '선박'으로부터 '선박'으로의 클릭 앤 드래그 입력이 획득되면, '선박'에 대한 정보로써 '색상은, 회색'이라는 정보가 관계 데이터로 결정될 수 있다.In step S248, the scene graph generating method may determine second relationship data. The second relational data is relational data with the first object as a start point and the first object as an end point, and may mean regression and may include information about the first object. For example, when a click-and-drag input from 'bow' to 'bow' is acquired, information about 'shape is rectangle' as information about the 'bow' may be determined as relational data. For another example, when a click-and-drag input from 'ship' to 'ship' is acquired, information about 'color is gray' as information about 'ship' may be determined as relational data.

단계 S249에서, 장면 그래프 생성 방법은 제1관계 데이터를 결정할 수 있다. 제1관계 데이터는 제1객체를 시점으로 하여 제1객체와는 다른 제2객체를 종점으로 하는 관계 데이터로, 주어-목적어 관계를 의미할 수 있다. 예를 들어, '헬리 패드'로부터 '선박'으로의 클릭 앤 드래그 입력이 획득되면, '헬리 패드'는 '선박'의 '위'에 있다는 정보가 관계 데이터로 결정될 수 있다. 다른 예를 들어, '조정석'으로부터 '선박'으로의 클릭 앤 드래그 입력이 획득되면, '조정석'은 '선박'의 '위'에 있다는 정보가 관계 데이터로 결정될 수 있다.In step S249, the scene graph generating method may determine first relationship data. The first relationship data is relationship data having a first object as a start point and a second object different from the first object as an end point, and may mean a subject-object relationship. For example, when a click and drag input from a 'helipad' to a 'ship' is acquired, information that the 'helipad' is 'above' the 'ship' may be determined as relational data. For another example, when a click-and-drag input from the 'cockpit' to the 'ship' is obtained, information that the 'cockpit' is 'above' the 'ship' may be determined as relational data.

단계 S244에서, 장면 그래프 생성 방법은 드래그한 영역에 대하여 제1객체의 중심점으로부터 제2개체의 중심점으로 인디케이터를 표시할 수 있다. 예를 들어, 인디케이터는 제1객체에서 제1객체로의 화살표, 제1객체에서 제2객체로의 화살표를 포함할 수 있다.In step S244, the scene graph generation method may display an indicator from the center point of the first object to the center point of the second object in the dragged area. For example, the indicator may include an arrow pointing from the first object to the first object and an arrow pointing from the first object to the second object.

도 6a 내지 도 6e는 도 5의 단계 별 진행과 관련된 예시도이다.6A to 6E are exemplary diagrams related to the step-by-step process of FIG. 5 .

자세하게, 도 6a는 장면 그래프 생성 방법에서 제공되는 인터페이스 상의 제1영역(610) 및 제1영역을 제외한 제2영역에 대한 예시이다. 도 6b는 도 5의 단계 S241 내지 단계 S243에 대응될 수 있으며, 도 6c는 도 5의 단계 S244 내지 단계 S246에 대응될 수 있고, 도 6d 및 도 6e는 도 5의 단계 S247 내지 단계 S249에 대응될 수 있는 예시도이다. 도 6a 내지 도 6e의 설명은, 제1위성 영상 중 제1영역에 제공되는 부분의 객체에 대한 주석 데이터가 생성되어 있음을 전제로 한다. 또한, 도 6a 내지 도 7c에서의 좌표는 (x1, y1), (x2, y2), (x3, y3), 및 (x4, y4)의 네 개의 꼭지점에 대한 것이며 전부 도시되어 있지 않다.In detail, FIG. 6A is an example of the first area 610 on the interface provided in the scene graph generation method and the second area excluding the first area. 6B may correspond to steps S241 to S243 of FIG. 5, FIG. 6C may correspond to steps S244 to S246 of FIG. 5, and FIGS. 6D and 6E may correspond to steps S247 to S249 of FIG. This is an example of what could be. The description of FIGS. 6A to 6E is based on the premise that annotation data for an object of a portion provided in a first region of the first satellite image is generated. In addition, the coordinates in FIGS. 6A to 7C are for four vertices of (x1, y1), (x2, y2), (x3, y3), and (x4, y4), and are not shown at all.

도 6a에서 제1영역(610)을 제외한 영역을 제2영역으로 지칭할 수 있으며, 제2영역에는 주석 데이터(620) 및 관계 데이터(630)가 제공될 수 있다. 주석 데이터(620)는 일종의 테이블 형태로 저장될 수 있으며, 넘버링은 주석 데이터(620)가 생성된 순서일 수 있고 개별 넘버에 대응하는 것은 식별된 객체(621)의 명칭일 수 있다. 식별된 객체(621)는 바운딩 박스의 형태로 식별되어 4개의 꼭지점을 가지고, 식별된 객체의 좌표(622)는 개별 명칭에 대해 저장될 수 있다. 식별된 객체(621)의 명칭은 제1위성 영상에 따라 달라질 수 있으며, 식별된 객체의 좌표(622)도 마찬가지로 달라질 수 있다. 이는 영상의 이동에 관계된 것일 수도 있다. 영상의 이동은 위성 영상을 캡처하는 시간에 따라 객체가 이동하여 발생하는 것일 수 있고, 사용자가 제1영역(610)에 제공되는 제1위성 영상의 영역 이외의 다른 영역을 살펴보고자 하는 경우 제1위성 영상의 다른 영역으로의 이동으로 발생하는 것일 수도 있다.In FIG. 6A , an area other than the first area 610 may be referred to as a second area, and annotation data 620 and relation data 630 may be provided in the second area. Annotation data 620 may be stored in a kind of table form, numbering may be an order in which annotation data 620 is generated, and a name of an identified object 621 may correspond to an individual number. The identified object 621 is identified in the form of a bounding box and has four vertices, and the coordinates 622 of the identified object may be stored for each name. The name of the identified object 621 may vary according to the first satellite image, and the coordinates 622 of the identified object may similarly vary. This may be related to the movement of the image. The movement of the image may be caused by the movement of the object according to the capture time of the satellite image, and when the user wants to look at an area other than the area of the first satellite image provided in the first area 610, the first area 610 may be moved. It may be caused by movement of the satellite image to another area.

도 6b에서, 제1영역(610)의 일정 영역에 대한 바운딩 박스 드로잉으로 인한 선택 입력으로 제1객체가 식별될 수 있다. 제1영역(610)에서 식별된 제1객체는 제2영역에서 주석 데이터(620)에 '4, 갑판 크레인, 좌표'로 제공될 수 있다. 제2영역의 주석 데이터(620)에는 제1영역(610)의 제1객체로 식별된 객체에 대해 하이라이트될 수 있다.In FIG. 6B , the first object may be identified by a selection input resulting from drawing a bounding box for a certain area of the first area 610 . The first object identified in the first area 610 may be provided as '4, deck crane, coordinates' in the annotation data 620 in the second area. In the annotation data 620 of the second area, an object identified as the first object of the first area 610 may be highlighted.

도 6c에서, 제1영역(610)의 제1객체로부터 클릭 앤 드래그로 종점까지 드로잉된 바운딩 박스의 영역(예: 드래그한 영역)에 제2객체가 식별될 수 있다. 제1영역(610)에서 식별된 제2객체는 제2영역에서 주석 데이터(620)에 '6, 화물 선적 공간, 좌표'로 제공될 수 있다. 제2영역의 주석 데이터(620)에는 제1영역(610)의 제2객체로 식별된 객체에 대해 하이라이트될 수 있다.In FIG. 6C , a second object may be identified in an area of the bounding box drawn from the first object of the first area 610 to the end point by clicking and dragging (eg, the dragged area). The second object identified in the first area 610 may be provided as '6, cargo shipping space, coordinates' in the annotation data 620 in the second area. In the annotation data 620 of the second area, an object identified as the second object of the first area 610 may be highlighted.

도 6d에서, 제1영역(610)의 적어도 일부에 객체의 명칭 선택 창(640)이 제공될 수 있다. 도 6d의 명칭 선택 창(640)은 도 4d의 명칭 선택 창(430)과 동일하지 않다. 도 6d의 명칭 선택 창(640)은 제1객체 및 제2객체 간 관계 데이터를 설명하는 명칭을 선택하는 것이고, 도 4d의 명칭 선택 창(430)은 식별된 객체에 대한 명칭을 선택하는 것이다. 사용자는 명칭 선택 창(640)에서 제1객체 및 제2객체 간 관계를 설명하는 명칭을 선택할 수 있다. 도 6d의 명칭 선택 창(640)에서 제공되는 목록은 일 예에 불과하며 제한되지 않는다.In FIG. 6D , an object name selection window 640 may be provided on at least a part of the first region 610 . The name selection window 640 of FIG. 6D is not the same as the name selection window 430 of FIG. 4D. The name selection window 640 of FIG. 6D selects a name describing the relationship data between the first object and the second object, and the name selection window 430 of FIG. 4D selects a name for the identified object. The user may select a name describing the relationship between the first object and the second object in the name selection window 640 . The list provided in the name selection window 640 of FIG. 6D is only an example and is not limited thereto.

도 6d에서 선택된 관계 데이터는 도 6e에서 관계 데이터(630)에 저장되어 제공될 수 있다. 예를 들어, 관계 데이터(630)는 넘버링된 관계들(631)을 포함하며 주어-목적어 관계로 제1객체 및 제2객체의 관계를 제공할 수 있다. 도 6e에서 제공되는 제1객체 및 제2객체의 관계 데이터는, '4가 6위에 있다'는 관계를 설명할 수 있다.The relationship data selected in FIG. 6D may be stored and provided in the relationship data 630 in FIG. 6E. For example, the relationship data 630 includes numbered relationships 631 and may provide a relationship between a first object and a second object in a subject-object relationship. The relation data of the first object and the second object provided in FIG. 6E may explain a relation '4 is in 6th place'.

본 발명의 다양한 실시예에 따르면, 도 6a 내지 도 6e의 과정은 뉴럴 네트워크의 트레이닝을 통해 제1위성 영상의 수신에 대응하여 자동적으로 수행될 수 있다. 다른 예를 들어, 도 6a 내지 도 6c까지의 과정은 사용자에 의해 수동적으로 수행되고 나머지 과정은 자동적으로 수행될 수도 있다.According to various embodiments of the present invention, the processes of FIGS. 6A to 6E may be automatically performed in response to reception of the first satellite image through neural network training. For another example, the processes of FIGS. 6A to 6C may be manually performed by a user and the remaining processes may be automatically performed.

도 7a 내지 도 7c는 다양한 실시예에 따른 장면 그래프 생성 방법의 인터페이스 상의 제1영역 및 제2영역에 관한 예시도이다.7A to 7C are exemplary diagrams of a first area and a second area on an interface of a method for generating a scene graph according to various embodiments.

도 7a는 장면 그래프 생성 방법에서 제공되는 인터페이스 상의 제1영역(710) 및 제1영역을 제외한 제2영역에 대한 예시이다. 사용자가 제1영역(710)에서 표시된 영역에 커서를 위치시키면, 표시된 영역에서 식별된 객체에 대한 데이터가 제2영역에 제공될 수 있다. 예를 들어, 제2영역에는 주석 데이터(720) 및 관계 데이터(730)이 제공될 수 있다. 도 7a에서는 제1영역(710)에서 커서가 위치한 영역의 식별된 객체가 제2영역의 주석 데이터(720) 중 대응하는 데이터에 하이라이트되어 제공될 수 있다. 제2영역에의 주석 데이터(720)는 도 6e의 주석 데이터(621)에 대응될 수 있고, 식별된 객체(721)의 명칭은 도 6e의 식별된 객체(621)의 명칭에 대응될 수 있으며, 식별된 객체의 좌표(722)는 도 6e의 식별된 객체의 좌표(622)에 대응될 수 있고, 관계 데이터(730) 및 넘버링된 관계들(731)은 도 6e의 관계 데이터(630) 및 넘버링된 관계들(631)에 대응될 수 있다.7A is an example of the first area 710 on the interface provided in the scene graph generation method and the second area excluding the first area. When a user places a cursor on an area displayed in the first area 710, data on an object identified in the displayed area may be provided to a second area. For example, annotation data 720 and relation data 730 may be provided in the second area. In FIG. 7A , the object identified in the area where the cursor is located in the first area 710 may be highlighted and provided to corresponding data among the annotation data 720 in the second area. The annotation data 720 in the second area may correspond to the annotation data 621 of FIG. 6E, and the name of the identified object 721 may correspond to the name of the identified object 621 of FIG. 6E. , the coordinates 722 of the identified object may correspond to the coordinates 622 of the identified object in FIG. 6E, and the relationship data 730 and numbered relationships 731 correspond to the relationship data 630 and It may correspond to numbered relationships 631 .

도 7a 내지 도 7b를 참조하면, 주석 데이터(720) 및 관계 데이터(730)는 장면 그래프 생성 방법에서 제공하는 인터페이스 상에서 제1위성 영상의 일부분이 제공되는 제1영역(710)과 겹치지 않는 제2영역에 제공될 수 있다. 제1영역(710)에서 식별된 적어도 하나의 객체 중 제1객체를 선택하거나 제1객체가 식별되는 좌표로 형성되는 바운딩 박스의 영역 내에 커서가 위치하면, 이에 대응하여 제2영역에서 선택되거나 커서가 위치한 영역의 객체에 대한 주석 데이터(720)를 하이라이트하여 제공할 수 있다. 예를 들어, 도 7a에서 제1객체에 마우스 커서를 위치시키면 제2영역에서 제1객체에 대한 주석 데이터(720)인 '1, 별 모양 헬리패드, 좌표'가 하이라이트될 수 있다. 제2영역에서 생성된 적어도 하나의 주석 데이터(720) 중 하나를 선택하는 입력에 따라 제1영역(710)에서 선택된 주석 데이터에 대한 객체를 하이라이트하여 제공할 수 있다. 예를 들어, 도 7b에서 '2, 별 모양 헬리 패드, 좌표'를 선택하면 제1영역(710)에서 선택한 객체에 대응하는 객체를 하이라이트하여 제공할 수 있다.Referring to FIGS. 7A and 7B , the annotation data 720 and the relationship data 730 do not overlap with the first region 710 provided with a part of the first satellite image on the interface provided by the scene graph generation method. area can be provided. When a first object is selected from among the at least one object identified in the first area 710 or the cursor is located in the area of the bounding box formed by the coordinates in which the first object is identified, it is selected in the second area or the cursor is correspondingly selected. Annotation data 720 for an object in an area where is located may be highlighted and provided. For example, in FIG. 7A , when the mouse cursor is placed on the first object, '1, star-shaped helipad, coordinates', which is the annotation data 720 for the first object, can be highlighted in the second area. An object for the annotation data selected in the first area 710 may be highlighted and provided according to an input for selecting one of the at least one piece of annotation data 720 generated in the second area. For example, if '2, star-shaped helipad, coordinates' is selected in FIG. 7B , an object corresponding to the object selected in the first area 710 may be highlighted and provided.

다양한 실시예에 따른 장면 그래프 생성 방법은, 제2영역에서 결정된 관계 데이터(730) 중 하나를 선택하는 입력에 따라 제1영역(710)에서 선택된 관계 데이터에 대응하는 객체들 및 인디케이터를 하이라이트하여 제공할 수 있다. 예를 들어, 도 7c에서 사용자가 마우스 커서를 '0, 4, on, 6'에 위치시켜 선택하면 제1영역(710)에서 선택한 관계 데이터(730)에 대응하는 객체들(예: 4 및 6) 및 객체들을 잇는 인디케이터(예: 4에서 6으로의 화살표)(711)를 하이라이트하여 제공할 수 있다.In the scene graph generation method according to various embodiments, objects and indicators corresponding to the relation data selected in the first area 710 are highlighted and provided according to an input for selecting one of the relation data 730 determined in the second area. can do. For example, in FIG. 7C , when the user places the mouse cursor on '0, 4, on, 6' and selects them, objects (eg, 4 and 6) corresponding to the selected relationship data 730 in the first area 710 are displayed. ) and an indicator (eg, an arrow from 4 to 6) 711 connecting objects may be highlighted and provided.

본 발명의 다양한 실시예에 따른 전자 장치의 인터페이스에서 장면 그래프를 생성하는 방법은, 제1위성 영상을 수신하는 단계, 상기 수신된 제1위성 영상에서 적어도 하나의 객체를 식별하는 단계, 식별된 적어도 하나의 객체에 대응하는 주석 데이터 생성하는 단계, 생성된 주석 데이터를 기초로 하여 식별된 적어도 하나의 객체 간 관계 데이터를 결정하는 단계, 및 상기 주석 데이터 및 상기 관계 데이터를 포함하는 제2위성 영상을 제1영역에 제공하는 단계를 포함할 수 있다.A method for generating a scene graph in an interface of an electronic device according to various embodiments of the present disclosure includes receiving a first satellite image, identifying at least one object in the received first satellite image, and identifying at least one object in the received first satellite image. Generating annotation data corresponding to one object, determining relationship data between at least one identified object based on the generated annotation data, and obtaining a second satellite image including the annotation data and the relationship data A step of providing the first region may be included.

본 발명의 다양한 실시예에 따른 전자 장치의 인터페이스에서 장면 그래프를 생성하는 방법의 상기 식별하는 단계는 회전이 가능한 바운딩 박스(rotatable bounding box)를 이용하여 지정한 영역에서 상기 적어도 하나의 객체를 식별하는 단계를 포함하고, 상기 지정한 영역은 상기 제1위성 영상의 적어도 일부 영역일 수 있다.The identifying step of the method for generating a scene graph in an interface of an electronic device according to various embodiments of the present disclosure includes identifying the at least one object in a designated area using a rotatable bounding box. Including, the designated area may be at least a partial area of the first satellite image.

본 발명의 다양한 실시예에 따른 전자 장치의 인터페이스에서 장면 그래프를 생성하는 방법의 상기 생성하는 단계는 상기 식별된 적어도 하나의 객체 중 하나를 선택하는 입력에 대응하여 선택 가능한 복수의 주석 데이터 중 하나를 선택하여 생성하는 단계를 포함할 수 있다.The generating step of the method for generating a scene graph in an interface of an electronic device according to various embodiments of the present disclosure includes selecting one of a plurality of annotation data selectable in response to an input for selecting one of the identified at least one object. It may include the step of selecting and generating.

본 발명의 다양한 실시예에 따른 전자 장치의 인터페이스에서 장면 그래프를 생성하는 방법의 상기 결정하는 단계는 상기 식별된 적어도 하나의 객체 중 제1객체로부터 제2객체로의 입력에 대응하여 선택 가능한 복수의 관계 데이터 중 하나를 선택하여 결정하는 단계를 포함하고, 상기 제1객체로부터 제2객체로의 입력은 상기 제1객체를 시점으로 하여 상기 제2객체를 종점으로 하는 클릭 앤 드래그 입력을 포함할 수 있다.The determining step of the method for generating a scene graph in an interface of an electronic device according to various embodiments of the present disclosure may include a plurality of selectable objects corresponding to an input from a first object to a second object among the identified at least one object. Selecting and determining one of the relational data, and the input from the first object to the second object may include a click-and-drag input with the first object as a starting point and the second object as an end point. there is.

본 발명의 다양한 실시예에 따른 전자 장치의 인터페이스에서 장면 그래프를 생성하는 방법의 상기 주석 데이터는 상기 식별된 적어도 하나의 객체의 명칭에 대한 데이터를 포함하고, 상기 관계 데이터는 상기 식별된 적어도 하나의 객체 간 위치 관계를 나타내는 데이터를 포함할 수 있다.In the method for generating a scene graph in an interface of an electronic device according to various embodiments of the present disclosure, the annotation data includes data on the name of the identified at least one object, and the relationship data includes the identified at least one object. It may include data representing the positional relationship between objects.

본 발명의 다양한 실시예에 따른 전자 장치의 인터페이스에서 장면 그래프를 생성하는 방법의 상기 제공하는 단계는 상기 식별된 적어도 하나의 객체에 관한 입력에 대응하여 상기 제1위성 영상에 상기 제2위성 영상을 오버레이하여 제공하는 단계를 포함할 수 있다.In the providing of the method for generating a scene graph in an interface of an electronic device according to various embodiments of the present disclosure, the second satellite image is converted to the first satellite image in response to an input on the identified at least one object. Overlaying and providing may be included.

본 발명의 다양한 실시예에 따른 전자 장치의 인터페이스에서 장면 그래프를 생성하는 방법의 상기 제공하는 단계는 상기 주석 데이터 및 상기 관계 데이터를 저장하여 상기 인터페이스 상에서 상기 제1위성 영상이 제공되는 제1영역과 겹치지 않는 제2영역에 제공하는 단계를 포함할 수 있다.In the providing step of the method for generating a scene graph in an interface of an electronic device according to various embodiments of the present disclosure, the annotation data and the relationship data are stored and the first region and the first satellite image are provided on the interface. A step of providing a non-overlapping second area may be included.

본 발명의 다양한 실시예에 따른 전자 장치의 인터페이스에서 장면 그래프를 생성하는 방법의 상기 제공하는 단계는 상기 제1영역에서 상기 식별된 적어도 하나의 객체 중 하나를 선택하는 입력에 대응하여 상기 제2영역에서 상기 선택된 객체에 대한 주석 데이터를 하이라이트하여 제공하고, 상기 제2영역에서 상기 생성된 적어도 하나의 주석 데이터 중 하나를 선택하는 입력에 대응하여 상기 제1영역에서 상기 선택된 주석 데이터에 대한 객체를 하이라이트하여 제공할 수 있다.The providing of the method for generating a scene graph in an interface of an electronic device according to various embodiments of the present disclosure may include the second area in response to an input for selecting one of the one or more identified objects in the first area. Annotation data for the selected object is highlighted and provided, and an object for the selected annotation data is highlighted in the first area in response to an input for selecting one of the at least one generated annotation data in the second area. can be provided.

본 발명의 다양한 실시예에 따른 전자 장치의 인터페이스에서 장면 그래프를 생성하는 방법의 상기 제공하는 단계는 상기 제2영역에서 상기 결정된 적어도 하나의 관계 데이터 중 하나를 선택하는 입력에 대응하여 상기 제1영역에서 상기 선택된 관계 데이터에 대응하는 객체들 및 인디케이터를 하이라이트하여 제공할 수 있다.The providing of the method for generating a scene graph in an interface of an electronic device according to various embodiments of the present disclosure may include the first area in response to an input for selecting one of the determined at least one relationship data in the second area. In , objects and indicators corresponding to the selected relationship data may be highlighted and provided.

본 발명의 다양한 실시예에 따른 장면 그래프를 생성하는 방법을 제공하는 전자 장치에 있어서, 통신부 및 제어부를 포함하고, 상기 제어부는 상기 통신부를 통해 제1위성 영상을 수신하고, 상기 수신된 제1위성 영상에서 적어도 하나의 객체를 식별하고, 상기 식별된 적어도 하나의 객체에 주석 데이터를 생성하고, 상기 생성된 주석 데이터를 기초로 하여 식별된 적어도 하나의 객체 간 관계 데이터를 결정하고, 상기 주석 데이터 및 상기 관계 데이터를 포함하는 제2위성 영상을 제1영역에 제공할 수 있다.An electronic device providing a method for generating a scene graph according to various embodiments of the present disclosure, including a communication unit and a control unit, wherein the control unit receives a first satellite image through the communication unit, and displays the received first satellite image. Identifying at least one object in the image, generating annotation data for the identified at least one object, determining relationship data between the at least one identified object based on the generated annotation data, and determining the annotation data and A second satellite image including the relation data may be provided to the first area.

본 발명의 다양한 실시예에 따른 비일시적 컴퓨터 판독 가능 저장 매체는, 컴퓨터 판독 가능 명령어들을 저장하도록 구성되는 매체를 포함하고, 상기 컴퓨터 판독 가능 명령어들은 프로세서에 의해 실행되는 경우 상기 프로세서가: 제1위성 영상을 수신하는 단계, 상기 수신된 제1위성 영상에서 적어도 하나의 객체를 식별하는 단계, 식별된 적어도 하나의 객체에 대응하는 주석 데이터 생성하는 단계, 생성된 주석 데이터를 기초로 하여 식별된 적어도 하나의 객체 간 관계 데이터를 결정하는 단계, 및 상기 주석 데이터 및 상기 관계 데이터를 포함하는 제2위성 영상을 제1영역에 제공하는 단계를 포함하는 장면 그래프 생성 방법을 수행하도록 할 수 있다.A non-transitory computer-readable storage medium according to various embodiments of the present invention includes a medium configured to store computer-readable instructions, wherein the computer-readable instructions, when executed by a processor, cause the processor to: Receiving an image, identifying at least one object from the received first satellite image, generating annotation data corresponding to the identified at least one object, and identifying at least one object based on the generated annotation data. A method for generating a scene graph may be performed, which includes determining relationship data between objects of and providing a second satellite image including the annotation data and the relationship data to a first region.

전술한 실시 예들에 따른 전자 장치 또는 단말은, 프로세서, 프로그램 데이터를 저장하고 실행하는 메모리, 디스크 드라이브와 같은 영구 저장부(permanent storage), 외부 장치와 통신하는 통신 포트, 터치 패널, 키(key), 버튼 등과 같은 사용자 인터페이스 장치 등을 포함할 수 있다. 소프트웨어 모듈 또는 알고리즘으로 구현되는 방법들은 상기 프로세서상에서 실행 가능한 컴퓨터가 읽을 수 있는 코드들 또는 프로그램 명령들로서 컴퓨터가 읽을 수 있는 기록 매체 상에 저장될 수 있다. 여기서 컴퓨터가 읽을 수 있는 기록 매체로 마그네틱 저장 매체(예컨대, ROM(read-only memory), RAM(random-Access memory), 플로피 디스크, 하드 디스크 등) 및 광학적 판독 매체(예컨대, 시디롬(CD-ROM), 디브이디(DVD: Digital Versatile Disc)) 등이 있다. 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템들에 분산되어, 분산 방식으로 컴퓨터가 판독 가능한 코드가 저장되고 실행될 수 있다. 매체는 컴퓨터에 의해 판독가능하며, 메모리에 저장되고, 프로세서에서 실행될 수 있다. An electronic device or terminal according to the above-described embodiments includes a processor, a memory for storing and executing program data, a permanent storage unit such as a disk drive, a communication port for communicating with an external device, a touch panel, and a key. , user interface devices such as buttons, and the like. Methods implemented as software modules or algorithms may be stored on a computer-readable recording medium as computer-readable codes or program instructions executable on the processor. Here, the computer-readable recording medium includes magnetic storage media (e.g., read-only memory (ROM), random-access memory (RAM), floppy disk, hard disk, etc.) and optical reading media (e.g., CD-ROM) ), and DVD (Digital Versatile Disc). A computer-readable recording medium may be distributed among computer systems connected through a network, and computer-readable codes may be stored and executed in a distributed manner. The medium may be readable by a computer, stored in a memory, and executed by a processor.

본 실시 예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 실시 예는 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩 업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 실시 예는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단”, “구성”과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.This embodiment can be presented as functional block structures and various processing steps. These functional blocks may be implemented with any number of hardware or/and software components that perform specific functions. For example, an embodiment is an integrated circuit configuration such as memory, processing, logic, look-up table, etc., which can execute various functions by control of one or more microprocessors or other control devices. can employ them. Similar to components that can be implemented as software programming or software elements, the present embodiments include data structures, processes, routines, or various algorithms implemented as combinations of other programming constructs, such as C, C++, Java ( It can be implemented in a programming or scripting language such as Java), assembler, or the like. Functional aspects may be implemented in an algorithm running on one or more processors. In addition, this embodiment may employ conventional techniques for electronic environment setting, signal processing, and/or data processing. Terms such as “mechanism”, “element”, “means” and “composition” may be used broadly and are not limited to mechanical and physical components. The term may include a meaning of a series of software routines in association with a processor or the like.

전술한 실시예들은 일 예시일 뿐 후술하는 청구항들의 범위 내에서 다른 실시예들이 구현될 수 있다.The foregoing embodiments are merely examples and other embodiments may be implemented within the scope of the claims described below.

Claims (11)

전자 장치의 인터페이스에서 장면 그래프를 생성하는 방법에 있어서,
제1위성 영상을 수신하는 단계;
상기 수신된 제1위성 영상에서 적어도 하나의 객체를 식별하는 단계;
식별된 적어도 하나의 객체에 대응하는 주석 데이터 생성하는 단계;
생성된 주석 데이터를 기초로 하여 식별된 적어도 하나의 객체 간 관계 데이터를 결정하는 단계; 및
상기 주석 데이터 및 상기 관계 데이터를 포함하는 제2위성 영상을 제1영역에 제공하는 단계를 포함하고,
상기 결정하는 단계는
상기 식별된 적어도 하나의 객체 중 제1객체로부터 제2객체로의 입력에 대응하여 선택 가능한 복수의 관계 데이터 중 하나를 선택하여 결정하는 단계를 포함하고,
상기 제1객체로부터 제2객체로의 입력은 상기 제1객체를 시점으로 하여 상기 제2객체를 종점으로 하는 클릭 앤 드래그 입력을 포함하고,
상기 복수의 관계 데이터 중 하나를 선택하여 결정하는 단계는
상기 제1객체 및 상기 제2객체가 동일한 객체인지 확인하는 단계; 및
상기 제1객체 및 상기 제2객체가 동일하지 않은 경우 상기 제1객체 및 상기 제2객체 간 관계에 대한 제1관계 데이터를 결정하고, 상기 제1객체 및 상기 제2객체가 동일한 경우 상기 제1객체에 대한 정보를 포함하는 제2관계 데이터를 결정하는 단계를 포함하는, 장면 그래프 생성 방법.
A method for generating a scene graph in an interface of an electronic device,
receiving a first satellite image;
identifying at least one object from the received first satellite image;
generating annotation data corresponding to at least one identified object;
determining relation data between the identified at least one object based on the created annotation data; and
Providing a second satellite image including the annotation data and the relationship data to a first area;
The determining step is
Selecting and determining one of a plurality of selectable relational data corresponding to an input from a first object to a second object among the identified at least one object,
The input from the first object to the second object includes a click and drag input with the first object as a starting point and the second object as an end point;
The step of selecting and determining one of the plurality of relationship data
checking whether the first object and the second object are the same object; and
When the first object and the second object are not identical, first relation data for a relationship between the first object and the second object is determined, and when the first object and the second object are identical, the first relation data is determined. A method of generating a scene graph comprising determining second relationship data including information about an object.
제1항에 있어서,
상기 식별하는 단계는
회전이 가능한 바운딩 박스(rotatable bounding box)를 이용하여 지정한 영역에서 상기 적어도 하나의 객체를 식별하는 단계를 포함하고,
상기 지정한 영역은 상기 제1위성 영상의 적어도 일부 영역인, 장면 그래프 생성 방법.
According to claim 1,
The step of identifying
Identifying the at least one object in a designated area using a rotatable bounding box,
The designated area is at least a partial area of the first satellite image, the scene graph generating method.
제1항에 있어서,
상기 생성하는 단계는
상기 식별된 적어도 하나의 객체 중 하나를 선택하는 입력에 대응하여 선택 가능한 복수의 주석 데이터 중 하나를 선택하여 생성하는 단계를 포함하는, 장면 그래프 생성 방법.
According to claim 1,
The generating step is
In response to an input for selecting one of the at least one identified object, selecting and generating one of a plurality of selectable annotation data.
삭제delete 제1항에 있어서,
상기 주석 데이터는 상기 식별된 적어도 하나의 객체의 명칭에 대한 데이터를 포함하고,
상기 관계 데이터는 상기 식별된 적어도 하나의 객체 간 위치 관계를 나타내는 데이터를 포함하는, 장면 그래프 생성 방법.
According to claim 1,
the annotation data includes data on the name of the identified at least one object;
Wherein the relationship data includes data representing a positional relationship between the identified at least one object.
제1항에 있어서,
상기 제공하는 단계는
상기 식별된 적어도 하나의 객체에 관한 입력에 대응하여 상기 제1위성 영상에 상기 제2위성 영상을 오버레이하여 제공하는 단계를 포함하는, 장면 그래프 생성 방법.
According to claim 1,
The steps provided above are
and overlaying the second satellite image on the first satellite image in response to an input of the at least one identified object and providing the overlay.
제1항에 있어서,
상기 제공하는 단계는
상기 주석 데이터 및 상기 관계 데이터를 저장하여 상기 인터페이스 상에서 상기 제1위성 영상이 제공되는 제1영역과 겹치지 않는 제2영역에 제공하는 단계를 포함하는, 장면 그래프 생성 방법.
According to claim 1,
The steps provided above are
and storing the annotation data and the relationship data and providing them to a second area that does not overlap with a first area provided with the first satellite image on the interface.
제7항에 있어서,
상기 제공하는 단계는
상기 제1영역에서 상기 식별된 적어도 하나의 객체 중 하나를 선택하는 입력에 대응하여 상기 제2영역에서 상기 선택된 객체에 대한 주석 데이터를 하이라이트하여 제공하고,
상기 제2영역에서 상기 생성된 적어도 하나의 주석 데이터 중 하나를 선택하는 입력에 대응하여 상기 제1영역에서 상기 선택된 주석 데이터에 대한 객체를 하이라이트하여 제공하는, 장면 그래프 생성 방법.
According to claim 7,
The steps provided above are
Highlighting and providing annotation data for the selected object in the second area in response to an input for selecting one of the at least one object identified in the first area;
In response to an input for selecting one of the at least one generated annotation data in the second area, highlighting and providing an object for the selected annotation data in the first area.
제7항에 있어서,
상기 제공하는 단계는
상기 제2영역에서 상기 결정된 적어도 하나의 관계 데이터 중 하나를 선택하는 입력에 대응하여 상기 제1영역에서 상기 선택된 관계 데이터에 대응하는 객체들 및 인디케이터를 하이라이트하여 제공하는, 장면 그래프 생성 방법.
According to claim 7,
The steps provided above are
In response to an input for selecting one of the determined at least one relationship data in the second area, objects and indicators corresponding to the selected relationship data in the first area are highlighted and provided.
장면 그래프를 생성하는 방법을 제공하는 전자 장치에 있어서,
통신부; 및
제어부를 포함하고,
상기 제어부는
상기 통신부를 통해 제1위성 영상을 수신하고,
상기 수신된 제1위성 영상에서 적어도 하나의 객체를 식별하고,
상기 식별된 적어도 하나의 객체에 주석 데이터를 생성하고,
상기 생성된 주석 데이터를 기초로 하여 식별된 적어도 하나의 객체 간 관계 데이터를 결정하고,
상기 주석 데이터 및 상기 관계 데이터를 포함하는 제2위성 영상을 제1영역에 제공하고,
상기 제어부는
상기 식별된 적어도 하나의 객체 중 제1객체로부터 제2객체로의 입력에 대응하여 선택 가능한 복수의 관계 데이터 중 하나를 선택하여 결정하고,
상기 제1객체로부터 제2객체로의 입력은 상기 제1객체를 시점으로 하여 상기 제2객체를 종점으로 하는 클릭 앤 드래그 입력을 포함하고,
상기 제어부는
상기 제1객체 및 상기 제2객체가 동일한 객체인지 확인하고,
상기 제1객체 및 상기 제2객체가 동일하지 않은 경우 상기 제1객체 및 상기 제2객체 간 관계에 대한 제1관계 데이터를 결정하고, 상기 제1객체 및 상기 제2객체가 동일한 경우 상기 제1객체에 대한 정보를 포함하는 제2관계 데이터를 결정하는, 전자 장치.
An electronic device providing a method for generating a scene graph,
communications department; and
including a control unit;
The control unit
Receiving a first satellite image through the communication unit;
Identifying at least one object in the received first satellite image;
generating annotation data to the at least one object identified above;
determining relationship data between the identified at least one object based on the generated annotation data;
providing a second satellite image including the annotation data and the relation data to a first region;
The control unit
Selecting and determining one of a plurality of selectable relational data corresponding to an input from a first object to a second object among the identified at least one object;
The input from the first object to the second object includes a click and drag input with the first object as a starting point and the second object as an end point;
The control unit
Check whether the first object and the second object are the same object;
When the first object and the second object are not identical, first relation data for a relationship between the first object and the second object is determined, and when the first object and the second object are identical, the first relation data is determined. An electronic device that determines second relationship data including information about an object.
비일시적 컴퓨터 판독 가능 저장 매체로서,
컴퓨터 판독 가능 명령어들을 저장하도록 구성되는 매체를 포함하고,
상기 컴퓨터 판독 가능 명령어들은 프로세서에 의해 실행되는 경우 상기 프로세서가:
제1위성 영상을 수신하는 단계;
상기 수신된 제1위성 영상에서 적어도 하나의 객체를 식별하는 단계;
식별된 적어도 하나의 객체에 대응하는 주석 데이터 생성하는 단계;
생성된 주석 데이터를 기초로 하여 식별된 적어도 하나의 객체 간 관계 데이터를 결정하는 단계; 및
상기 주석 데이터 및 상기 관계 데이터를 포함하는 제2위성 영상을 제1영역에 제공하는 단계를 포함하고
상기 결정하는 단계는
상기 식별된 적어도 하나의 객체 중 제1객체로부터 제2객체로의 입력에 대응하여 선택 가능한 복수의 관계 데이터 중 하나를 선택하여 결정하는 단계를 포함하고,
상기 제1객체로부터 제2객체로의 입력은 상기 제1객체를 시점으로 하여 상기 제2객체를 종점으로 하는 클릭 앤 드래그 입력을 포함하고,
상기 복수의 관계 데이터 중 하나를 선택하여 결정하는 단계는
상기 제1객체 및 상기 제2객체가 동일한 객체인지 확인하는 단계; 및
상기 제1객체 및 상기 제2객체가 동일하지 않은 경우 상기 제1객체 및 상기 제2객체 간 관계에 대한 제1관계 데이터를 결정하고, 상기 제1객체 및 상기 제2객체가 동일한 경우 상기 제1객체에 대한 정보를 포함하는 제2관계 데이터를 결정하는 단계를 포함하는 장면 그래프 생성 방법을 수행하도록 하는, 비일시적 컴퓨터 판독 가능 저장 매체.
As a non-transitory computer-readable storage medium,
a medium configured to store computer readable instructions;
The computer readable instructions, when executed by a processor, cause the processor to:
receiving a first satellite image;
identifying at least one object from the received first satellite image;
generating annotation data corresponding to at least one identified object;
determining relation data between the identified at least one object based on the created annotation data; and
providing a second satellite image including the annotation data and the relationship data to a first region;
The determining step is
Selecting and determining one of a plurality of selectable relational data corresponding to an input from a first object to a second object among the identified at least one object,
The input from the first object to the second object includes a click and drag input with the first object as a starting point and the second object as an end point;
The step of selecting and determining one of the plurality of relationship data
checking whether the first object and the second object are the same object; and
When the first object and the second object are not identical, first relation data for a relationship between the first object and the second object is determined, and when the first object and the second object are identical, the first relation data is determined. A non-transitory computer-readable storage medium for performing a scene graph generation method comprising determining second relationship data including information about an object.
KR1020210005972A 2021-01-15 2021-01-15 Method for generating scene graph of objects in images and electronic device using the same KR102498781B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210005972A KR102498781B1 (en) 2021-01-15 2021-01-15 Method for generating scene graph of objects in images and electronic device using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210005972A KR102498781B1 (en) 2021-01-15 2021-01-15 Method for generating scene graph of objects in images and electronic device using the same

Publications (2)

Publication Number Publication Date
KR20220103407A KR20220103407A (en) 2022-07-22
KR102498781B1 true KR102498781B1 (en) 2023-02-13

Family

ID=82605944

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210005972A KR102498781B1 (en) 2021-01-15 2021-01-15 Method for generating scene graph of objects in images and electronic device using the same

Country Status (1)

Country Link
KR (1) KR102498781B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120294537A1 (en) * 2008-05-02 2012-11-22 Eyeic, Inc. System for using image alignment to map objects across disparate images
US20180373980A1 (en) * 2017-06-27 2018-12-27 drive.ai Inc. Method for training and refining an artificial intelligence

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130140339A (en) * 2012-06-14 2013-12-24 에이알비전 (주) An implementation of multi-platform authoring system for augmented reality contents

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120294537A1 (en) * 2008-05-02 2012-11-22 Eyeic, Inc. System for using image alignment to map objects across disparate images
US20180373980A1 (en) * 2017-06-27 2018-12-27 drive.ai Inc. Method for training and refining an artificial intelligence

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
강해용 외 3인 "장면 그래프 생성을 위한 물체간의 관계 표현", 2019년 대한전자공학회 추계학술대회 논문집 (2019)*
신동협, 김인철, "3차원 가상 실내 환경을 위한 심층 신경망 기반의 장면 그래프 생성", KIPS Trans. Softw. and Data Eng. Vol.8, No.5(2019)*

Also Published As

Publication number Publication date
KR20220103407A (en) 2022-07-22

Similar Documents

Publication Publication Date Title
US10817739B2 (en) Content-aware selection
JP4759743B2 (en) Object display processing device, object display processing method, and object display processing program
US20120110453A1 (en) Display of Image Search Results
CN106874817A (en) Two-dimensional code identification method, equipment and mobile terminal
US10778617B2 (en) Electronic device and method of transferring data in an application to another application
US8949858B2 (en) Augmenting user interface elements with information
US9588678B2 (en) Method of operating electronic handwriting and electronic device for supporting the same
CN107797750A (en) A kind of screen content identifying processing method, apparatus, terminal and medium
KR20210095126A (en) Context-Based Recommendation Techniques for Designing Robotic Process Automation
CN112596845A (en) Page switching method, device, server and storage medium
CN107220377B (en) Search method, electronic device, and computer storage medium
US10996849B2 (en) Electronic device, control method, and medium for allocating contents to touch screen edge software keys
KR102498781B1 (en) Method for generating scene graph of objects in images and electronic device using the same
CN115701299A (en) Combined local and server context menu
US20190058756A1 (en) Method, Terminal, and System for Sending Office Document
CN115033153B (en) Application program recommendation method and electronic device
CN105094362A (en) Method and device for Chinese input
CN107077272B (en) Hit testing to determine enabling direct manipulation in response to user action
EP3612921A1 (en) Enhanced inking capabilities for content creation applications
US20220187958A1 (en) Automated on-screen windows arrangements
CN111984809A (en) Image searching method and related device
US20130139085A1 (en) Operation Support Computer Program, Operation Support Computer System
CN108092875B (en) Expression providing method, medium, device and computing equipment
US20200272688A1 (en) Information processing apparatus and non-transitory computer readable medium
CN113190340B (en) Task switching method and computing device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant