KR20230105546A - Image scanning method, apparatus and system for 3d image modeling - Google Patents

Image scanning method, apparatus and system for 3d image modeling Download PDF

Info

Publication number
KR20230105546A
KR20230105546A KR1020220001068A KR20220001068A KR20230105546A KR 20230105546 A KR20230105546 A KR 20230105546A KR 1020220001068 A KR1020220001068 A KR 1020220001068A KR 20220001068 A KR20220001068 A KR 20220001068A KR 20230105546 A KR20230105546 A KR 20230105546A
Authority
KR
South Korea
Prior art keywords
image
boundary
boundary line
coordinate system
data
Prior art date
Application number
KR1020220001068A
Other languages
Korean (ko)
Inventor
강국주
Original Assignee
주식회사 위즈팜
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 위즈팜 filed Critical 주식회사 위즈팜
Priority to KR1020220001068A priority Critical patent/KR20230105546A/en
Publication of KR20230105546A publication Critical patent/KR20230105546A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10008Still image; Photographic image from scanner, fax or copier
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

3D 영상 모델링을 위한 이미지 스캐닝 방법에 있어서, 3D 좌표계 중 제 1 위치에서 관측되는 3D 컨텐츠의 2D 이미지를 나타내는 제 1 이미지와, 상기 3D 좌표계 중 제 2 위치에서 관측되는 상기 3D 컨텐츠의 2D 이미지를 나타내는 제 2 이미지를 획득하는 단계; 상기 제 1 이미지에서 상기 3D 컨텐츠의 일 경계를 나타내는 제 1 경계선을 검출하는 단계; 상기 제 2 이미지에서 상기 일 경계를 나타내는 제 2 경계선을 검출하는 단계; 및 상기 제 1 경계선과 상기 제 2 경계선을 이용하여 상기 3D 좌표계에서 상기 일 경계를 3D로 표현하는 제 3 경계선을 결정하는 단계를 포함하는 3D 영상 모델링을 위한 이미지 스캐닝 방법을 포함한다.
일실시예에 따른 장치는 하드웨어와 결합되어 상술한 방법들 중 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램에 의해 제어될 수 있다.
An image scanning method for 3D image modeling, comprising: a first image representing a 2D image of 3D content observed at a first position in a 3D coordinate system and a 2D image of the 3D content observed at a second position in the 3D coordinate system acquiring a second image; detecting a first boundary line indicating one boundary of the 3D content in the first image; detecting a second boundary line representing the one boundary in the second image; and determining a third boundary line representing the one boundary in 3D in the 3D coordinate system using the first boundary line and the second boundary line.
An apparatus according to an embodiment may be combined with hardware and controlled by a computer program stored in a medium to execute any one of the methods described above.

Figure pat00001
Figure pat00001

Description

3D 영상 모델링을 위한 이미지 스캐닝 방법, 장치 및 시스템{IMAGE SCANNING METHOD, APPARATUS AND SYSTEM FOR 3D IMAGE MODELING}Image scanning method, apparatus and system for 3D image modeling {IMAGE SCANNING METHOD, APPARATUS AND SYSTEM FOR 3D IMAGE MODELING}

아래 실시예들은 3D 영상 모델링을 위한 이미지 스캐닝 방법, 장치 및 시스템에 관한 것이다.The embodiments below relate to an image scanning method, apparatus, and system for 3D image modeling.

인공지능(AI)은 인간의 학습능력, 추론능력 및 지각능력 등의 일부 또는 전부를 컴퓨터 프로그램을 이용하여 인공적으로 구현하는 기술을 의미한다. 인공지능(AI)과 관련하여, 기계 학습(machine learning)은 다수의 파라미터로 구성된 모델을 이용하여 주어진 데이터로 파라미터를 최적화하는 학습을 의미한다. 이와 같은, 기계 학습은 학습용 데이터의 형태에서 따라, 지도 학습(supervised learning), 비지도 학습(unsupervised learning) 및강화 학습(reinforcement learning)으로 구분된다.Artificial intelligence (AI) refers to a technology that artificially implements some or all of human learning abilities, reasoning abilities, and perception abilities using computer programs. In relation to artificial intelligence (AI), machine learning refers to learning to optimize parameters with given data using a model composed of multiple parameters. Such machine learning is classified into supervised learning, unsupervised learning, and reinforcement learning according to the form of learning data.

일반적으로, 인공지능(AI) 학습용 데이터의 설계는 데이터 구조의 설계, 데이터의 수집, 데이터의 정제, 데이터의 가공, 데이터의 확장 및 데이터의 검증 단계로 진행된다. 각각의 단계에서 대하여 보다 구체적으로 설명하면, 데이터 구조의 설계는 온톨로지(ontology) 정의, 분류 체계의 정의 등을 통해 이루어진다. 데이터의 수집은 직접 촬영, 웹 크롤링(web crawling) 또는 협회/전문 단체 등을 통해 데이터를 수집하여 이루어진다. 데이터 정제는 수집된 데이터 내에서 중복 데이터를 제거하고, 개인 정보 등을 비식별화하여 이루어진다. 데이터의 가공은 어노테이션(annotation)을 수행하고, 메타데이터(metadata)를 입력하여 이루어진다. 데이터의 확장은 온톨로지 매핑(mapping)을 수행하고, 필요에 따라 온톨로지를 보완하거나 확장하여 이루어진다. 그리고, 데이터의 검증은 다양한 검증 도구를 활용하여 설정된 목표 품질에 따른 유효성을 검증하여 이루어진다.In general, designing data for artificial intelligence (AI) learning proceeds in the steps of data structure design, data collection, data refinement, data processing, data expansion, and data verification. To describe each step in more detail, data structure design is performed through ontology definition, classification system definition, and the like. Data collection is performed by collecting data through direct filming, web crawling, or associations/professional organizations. Data purification is performed by removing redundant data from collected data and de-identifying personal information. Data processing is performed by performing annotation and inputting metadata. Data extension is performed by performing ontology mapping and supplementing or extending the ontology as needed. In addition, data verification is performed by verifying validity according to the set target quality using various verification tools.

아래 실시예들은 3D 영상 모델링을 위한 이미지 스캐닝 방법, 장치 및 시스템을 제공하기 위한 것이다.The following embodiments are intended to provide an image scanning method, apparatus, and system for 3D image modeling.

3D 영상 모델링을 위한 이미지 스캐닝 방법에 있어서, 3D 좌표계 중 제 1 위치에서 관측되는 3D 컨텐츠의 2D 이미지를 나타내는 제 1 이미지와, 상기 3D 좌표계 중 제 2 위치에서 관측되는 상기 3D 컨텐츠의 2D 이미지를 나타내는 제 2 이미지를 획득하는 단계; 상기 제 1 이미지에서 상기 3D 컨텐츠의 일 경계를 나타내는 제 1 경계선을 검출하는 단계; 상기 제 2 이미지에서 상기 일 경계를 나타내는 제 2 경계선을 검출하는 단계; 및 상기 제 1 경계선과 상기 제 2 경계선을 이용하여 상기 3D 좌표계에서 상기 일 경계를 3D로 표현하는 제 3 경계선을 결정하는 단계를 포함하는 3D 영상 모델링을 위한 이미지 스캐닝 방법을 포함한다.An image scanning method for 3D image modeling, comprising: a first image representing a 2D image of 3D content observed at a first position in a 3D coordinate system and a 2D image of the 3D content observed at a second position in the 3D coordinate system acquiring a second image; detecting a first boundary line indicating one boundary of the 3D content in the first image; detecting a second boundary line representing the one boundary in the second image; and determining a third boundary line representing the one boundary in 3D in the 3D coordinate system using the first boundary line and the second boundary line.

일실시예에 따른 장치는 하드웨어와 결합되어 상술한 방법들 중 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램에 의해 제어될 수 있다.An apparatus according to an embodiment may be combined with hardware and controlled by a computer program stored in a medium to execute any one of the methods described above.

아래 실시예들은 3D 영상 모델링을 위한 이미지 스캐닝 방법, 장치 및 시스템을 효율적으로 제공하는 효과가 있다.The following embodiments have an effect of efficiently providing an image scanning method, apparatus, and system for 3D image modeling.

도 1은 본 발명의 실시예에 3D 영상 모델링을 위한 이미지 스캐닝 방법을 나타낸 순서도이다.
도 2는 본 발명의 일 실시 예에 따른 대상 객체와 대상 객체를 둘러싼 복수의 카메라의 위치 관계를 나타내는 개념도이다.
도 3은 일실시예에 따른 장치의 구성의 예시도이다.
1 is a flowchart illustrating an image scanning method for 3D image modeling according to an embodiment of the present invention.
2 is a conceptual diagram illustrating a positional relationship between a target object and a plurality of cameras surrounding the target object according to an embodiment of the present invention.
3 is an exemplary diagram of a configuration of a device according to an embodiment.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예 들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, since various changes can be made to the embodiments, the scope of rights of the patent application is not limited or limited by these embodiments. It should be understood that all changes, equivalents or substitutes to the embodiments are included within the scope of rights.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only, and may be modified and implemented in various forms. Therefore, the embodiments are not limited to the specific disclosed form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical spirit.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various components, such terms should only be construed for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.It should be understood that when an element is referred to as being “connected” to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in the examples are used only for descriptive purposes and should not be construed as limiting. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the art to which the embodiment belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present application, they should not be interpreted in an ideal or excessively formal meaning. don't

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same reference numerals are given to the same components regardless of reference numerals, and overlapping descriptions thereof will be omitted. In describing the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description will be omitted.

실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다. The embodiments may be implemented in various types of products such as personal computers, laptop computers, tablet computers, smart phones, televisions, smart home appliances, intelligent vehicles, kiosks, and wearable devices.

도 1은 본 발명의 실시예에 3D 영상 모델링을 위한 이미지 스캐닝 방법을 나타낸 순서도이다.1 is a flowchart illustrating an image scanning method for 3D image modeling according to an embodiment of the present invention.

도 2는 본 발명의 일 실시 예에 따른 대상 객체와 대상 객체를 둘러싼 복수의 카메라의 위치 관계를 나타내는 개념도이다.2 is a conceptual diagram illustrating a positional relationship between a target object and a plurality of cameras surrounding the target object according to an embodiment of the present invention.

이하, 도 2 및 도 3을 참조하여 일 실시 예에 따른 3D 영상 모델링을 위한 이미지 스캐닝 방법을 수행하여 대상 객체의 3D 컨텐츠를 생성하는 방법을 설명한다.Hereinafter, a method of generating 3D content of a target object by performing an image scanning method for 3D image modeling according to an embodiment will be described with reference to FIGS. 2 and 3 .

먼저, 영상 처리 장치는 대상 객체의 제 1 이미지와 제 2 이미지를 획득할 수 있다(S110). 제 1 이미지는 3D 좌표계 상의 제 1 위치에서 보여지는 상기 대상 객체의 이미지일 수 있다. 예를들어, 3D 좌표계가 현실 공간인 경우, 제 1 이미지는 3D 좌표계 중 어느 한 위치에 위치한 제 1 카메라(321)로 상기 대상 객체를 촬영하여 생성한 2D 이미지일 수 있다. 예를들어, 3D 좌표계가 가상의 3D 공간인 경우, 제 1 이미지는 3D 좌표계 중 어느 한 위치에 위치한 가상의 제 1 카메라로 상기 대상 객체를 촬영하여 생성한 2D 이미지일 수 있다. 마찬가지로, 제 2 이미지는 3D 좌표계 상의 제 2 위치에서 보여지는 상기 대상 객체의 이미지일 수 있다. 예를들어, 제 2 이미지는 3D 좌표계 중 어느 한 위치에 위치한 제 2 카메라로 상기 대상 객체를 촬영하여 생성한 2D 이미지일 수 있다.First, the image processing device may obtain a first image and a second image of the target object (S110). The first image may be an image of the target object viewed at a first position on a 3D coordinate system. For example, when the 3D coordinate system is a real space, the first image may be a 2D image generated by photographing the target object with the first camera 321 located at any one position in the 3D coordinate system. For example, when the 3D coordinate system is a virtual 3D space, the first image may be a 2D image generated by photographing the target object with a virtual first camera located at any one position in the 3D coordinate system. Similarly, the second image may be an image of the target object viewed at a second location on a 3D coordinate system. For example, the second image may be a 2D image generated by photographing the target object with a second camera located at any one position in a 3D coordinate system.

일 실시 예에서, 제 1 위치와 제 2 위치는 서로 다른 위치이며, 이에 따라 제 1 이미지와 제 2 이미지에서 표현되는 객체의 이미지는 서로 다를 수 있다. In an embodiment, the first location and the second location are different from each other, and accordingly, images of objects expressed in the first image and the second image may be different from each other.

다음으로, 영상 처리 장치는 제 1 및 제 2 이미지에서 대상 객체의 경계선을 검출할 수 있다(S120). 일 실시 예에 따른 영상 처리 장치는 객체 인식 알고리즘을 사용하여 이미지에서 객체를 인식할 수 있다. 나아가 경계 식별 알고리즘을 사용하여 인식된 객체의 경계를 식별함으로써 이미지에서 나타나는 대상 객체의 경계선을 검출할 수도 있다.Next, the image processing device may detect the boundary of the target object in the first and second images (S120). An image processing device according to an embodiment may recognize an object in an image using an object recognition algorithm. Furthermore, the boundary of the target object appearing in the image may be detected by identifying the boundary of the recognized object using a boundary identification algorithm.

한편, 일 실시 예에 따른 영상 처리 장치는 사용자 입력에 기반하여 이미지에서 대상 객체의 경계선을 검출할 수도 있다. 이를 위하여, 일 실시 예에 따른 영상 처리 장치는 제 1 이미지를 사용자 단말의 디스플레이부에 표시할 수 있다. 이에 따라, 사용자는 디스플레이부에 표현된 제 1 이미지를 확인할 수 있다. 일 실시 예에서, 사용자는 제 1 경계선을 제 1 이미지 상에 생성하기 위한 사용자 입력을 영상 처리 장치에 입력할 수 있다. 이에 따라 영상 처리 장치는 제 1 이미지 상에 생성되는 제 1 경계선을 나타내는 데이터를 획득할 수 있다. 예를들어, 디스플레이부에 선분을 표현하게 하는 사용자 입력에 따라 영상 처리 장치는 제 1 경계선을 나타내는 데이터를 획득할 수 있다.Meanwhile, the image processing device according to an embodiment may detect a boundary line of a target object in an image based on a user input. To this end, the image processing device according to an embodiment may display the first image on the display unit of the user terminal. Accordingly, the user can check the first image displayed on the display unit. In an embodiment, a user may input a user input for generating a first boundary line on the first image to the image processing device. Accordingly, the image processing device may obtain data indicating a first boundary line generated on the first image. For example, the image processing device may obtain data representing the first boundary line according to a user input for displaying a line segment on the display unit.

도 3은 일실시예에 따른 장치의 구성의 예시도이다.3 is an exemplary diagram of a configuration of a device according to an embodiment.

프로세서(302)는 장치(301)의 동작을 제어하여 이하 설명하는 영상 처리 방법을 수행하기 위하여 장치(301)의 각 구성을 제어할 수 있다.The processor 302 may control each component of the device 301 to perform an image processing method described below by controlling the operation of the device 301 .

일 실시 예에서, 프로세서(301)는 3D 좌표계 상에서의 제 1 위치에서 보여지는 3D 컨텐츠의 이미지를 나타내는 제 1 이미지와, 3D 좌표계 상에서의 제 2 위치에서 보여지는 3D 컨텐츠의 이미지를 나타내는 제 2 이미지를 획득할 수 있다. 프로세서(110)는 제 1 이미지에서 상기 3D 컨텐츠의 일 경계를 나타내는 제 1 경계선을 검출하고, 제 2 이미지에서 일 경계를 나타내는 제 2 경계선을 검출하며, 제 1 경계선과 제 2 경계선을 이용하여 3D 좌표계에서 일 경계를 표현하는 제 3 경계선을 결정할 수 있다. 여기서, 제 3 경계선은 3D 좌표계에서 표현되는 가상의 선일 수 있다.In an embodiment, the processor 301 may generate a first image representing an image of 3D content viewed at a first location on a 3D coordinate system and a second image representing an image of 3D content viewed at a second location on the 3D coordinate system. can be obtained. The processor 110 detects a first boundary representing one boundary of the 3D content in a first image, detects a second boundary representing one boundary in a second image, and uses the first boundary and the second boundary to create a 3D image. A third boundary line representing one boundary in the coordinate system may be determined. Here, the third boundary line may be a virtual line expressed in a 3D coordinate system.

다른 일 실시 예에서 프로세서(301)는 3D 컨텐츠에 포함된 대상 객체를 식별하고, 대상 객체가 표현된 제 1 이미지와 제 2 이미지를 획득할 수 있다. 프로세서(301)는 제 1 이미지와 제 2 이미지에서 상기 대상 객체의 경계선을 검출하며, 검출된 경계선을 이용하여 3D 좌표계에서의 가상의 경계선을 결정할 수 있다.In another embodiment, the processor 301 may identify a target object included in the 3D content and obtain a first image and a second image in which the target object is expressed. The processor 301 may detect a boundary of the target object in the first image and the second image, and determine a virtual boundary in the 3D coordinate system using the detected boundary.

메모리(303)는 영상 처리 장치의 동작을 위한 프로그램 데이터와 임시 데이터를 저장할 수 있다. 나아가 메모리(303)는 영상 처리 방법을 수행하기 위한 3D 컨텐츠 데이터, 일 위치에서 생성된 3D 컨텐츠의 2D 이미지 데이터 등을 포함할 수 있다. 여기서 2D 이미지 데이터는 부가 정보로써 2D 이미지가 생성된 3D 좌표계에서의 위치 정보(e.g. x축, y축 및 z축의 좌표로 표현되는 위치 정보), 2D 이미지를 생성하기 위한 카메라 정보(e.g. 화각, 해상도, 컬러 포멧, 카메라 화각이 향하는 방향 정보 등)등을 포함할 수 있다.The memory 303 may store program data and temporary data for operation of the image processing device. Furthermore, the memory 303 may include 3D content data for performing an image processing method, 2D image data of 3D content generated at one location, and the like. Here, the 2D image data is additional information, such as positional information in the 3D coordinate system where the 2D image was created (e.g. positional information represented by x-axis, y-axis, and z-axis coordinates), camera information for generating the 2D image (e.g. angle of view, resolution , color format, direction information of the camera view angle, etc.).

프로세서(302)는 프로그램을 실행하고, 장치(301)를 제어할 수 있다. 프로세서(302)에 의하여 실행되는 프로그램의 코드는 메모리(303)에 저장될 수 있다. 장치(301)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 데이터를 교환할 수 있다.The processor 302 may execute a program and control the device 301 . Codes of programs executed by the processor 302 may be stored in the memory 303 . The device 301 may be connected to an external device (eg, a personal computer or network) through an input/output device (not shown) and exchange data.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), programmable logic units (PLUs), microprocessors, or any other device capable of executing and responding to instructions. A processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드 뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. The device can be commanded. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited drawings, those skilled in the art can apply various technical modifications and variations based on the above. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.

Claims (3)

3D 영상 모델링을 위한 이미지 스캐닝 방법에 있어서,
3D 좌표계 중 제 1 위치에서 관측되는 3D 컨텐츠의 2D 이미지를 나타내는 제 1 이미지와, 상기 3D 좌표계 중 제 2 위치에서 관측되는 상기 3D 컨텐츠의 2D 이미지를 나타내는 제 2 이미지를 획득하는 단계;
상기 제 1 이미지에서 상기 3D 컨텐츠의 일 경계를 나타내는 제 1 경계선을 검출하는 단계;
상기 제 2 이미지에서 상기 일 경계를 나타내는 제 2 경계선을 검출하는 단계; 및
상기 제 1 경계선과 상기 제 2 경계선을 이용하여 상기 3D 좌표계에서 상기 일 경계를 3D로 표현하는 제 3 경계선을 결정하는 단계를 포함하는 3D 영상 모델링을 위한 이미지 스캐닝 방법.
In the image scanning method for 3D image modeling,
Obtaining a first image representing a 2D image of 3D content observed at a first position in the 3D coordinate system and a second image representing a 2D image of the 3D content observed at a second position in the 3D coordinate system;
detecting a first boundary line indicating one boundary of the 3D content in the first image;
detecting a second boundary line representing the one boundary in the second image; and
and determining a third boundary representing the one boundary in 3D in the 3D coordinate system using the first boundary and the second boundary.
제1항에 있어서,
상기 제 3 경계선을 결정하는 단계는,
상기 제 1 위치에서 상기 3D 컨텐츠가 관측되는 방향으로 상기 제 1 경계선을 투사함으로써 제 1 투사면을 생성하는 단계;
상기 제 2 위치에서 상기 3D 컨텐츠가 관측되는 방향으로 상기 제 2 경계선을 투사함으로써 제 2 투사면을 생성하는 단계; 및
상기 제 1 투사면과 상기 제 2 투사면의 교차에 기반하여 상기 제 3 경계선을 결정하는 단계를 포함하는 3D 영상 모델링을 위한 이미지 스캐닝 방법.
According to claim 1,
Determining the third boundary line,
generating a first projection surface by projecting the first boundary line in a direction in which the 3D content is viewed from the first location;
generating a second projection surface by projecting the second boundary line in a direction in which the 3D content is viewed from the second location; and
and determining the third boundary line based on an intersection of the first projection surface and the second projection surface.
제 1항에 있어서,
상기 제 1 경계선을 검출하는 단계는,
상기 제 1 이미지를 사용자 단말에 디스플레이하는 단계;
사용자 입력에 기반하여 상기 제 1 경계선을 제 1 이미지상에 표현하는 단계; 및
상기 제 1 경계선의 표현에 따라 상기 제 1 경계선을 검출하는 단계를 포함하는 3D 영상 모델링을 위한 이미지 스캐닝 방법.
According to claim 1,
The step of detecting the first boundary line,
displaying the first image on a user terminal;
expressing the first boundary line on a first image based on a user input; and
An image scanning method for 3D image modeling comprising the step of detecting the first boundary line according to the expression of the first boundary line.
KR1020220001068A 2022-01-04 2022-01-04 Image scanning method, apparatus and system for 3d image modeling KR20230105546A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220001068A KR20230105546A (en) 2022-01-04 2022-01-04 Image scanning method, apparatus and system for 3d image modeling

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220001068A KR20230105546A (en) 2022-01-04 2022-01-04 Image scanning method, apparatus and system for 3d image modeling

Publications (1)

Publication Number Publication Date
KR20230105546A true KR20230105546A (en) 2023-07-11

Family

ID=87159973

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220001068A KR20230105546A (en) 2022-01-04 2022-01-04 Image scanning method, apparatus and system for 3d image modeling

Country Status (1)

Country Link
KR (1) KR20230105546A (en)

Similar Documents

Publication Publication Date Title
US10572072B2 (en) Depth-based touch detection
KR20200042629A (en) Method for generating annotation and image based on touch of mobile device to learn artificial intelligence and apparatus therefor
CN108875133A (en) Determine architectural composition
KR102476016B1 (en) Apparatus and method for determining position of eyes
WO2017084319A1 (en) Gesture recognition method and virtual reality display output device
US10162737B2 (en) Emulating a user performing spatial gestures
CN111273772B (en) Augmented reality interaction method and device based on slam mapping method
US10600202B2 (en) Information processing device and method, and program
KR101817440B1 (en) The 3d model-based object recognition techniques and systems with a multi-camera
Li et al. Global co-occurrence feature learning and active coordinate system conversion for skeleton-based action recognition
US10304258B2 (en) Human feedback in 3D model fitting
JP6815743B2 (en) Image processing equipment and its methods, programs
KR102324804B1 (en) Monitoring system by generating context information of object in image data
KR20230105546A (en) Image scanning method, apparatus and system for 3d image modeling
KR101436695B1 (en) Apparatus and method for detecting finger using depth image
KR20170052144A (en) Rendering method and apparatus of target fluid
JP6204781B2 (en) Information processing method, information processing apparatus, and computer program
Zhou et al. A lightweight neural network for loop closure detection in indoor visual slam
KR20210091033A (en) Electronic device for estimating object information and generating virtual object and method for operating the same
Huang et al. ImGeo-VoteNet: image and geometry co-supported VoteNet for RGB-D object detection
WO2022181252A1 (en) Joint detection device, training model generation device, joint detection method, training model generation method, and computer-readable recording medium
Shiratori et al. Detection of pointing position by omnidirectional camera
KR102339625B1 (en) Apparatus and method for updating space map
KR20230105456A (en) A method, apparatus and system for providing a template for realizing a 3d object image
JP2019125128A (en) Information processing device, control method and program