KR20230080999A - Device For Reading Frame And Its Method - Google Patents
Device For Reading Frame And Its Method Download PDFInfo
- Publication number
- KR20230080999A KR20230080999A KR1020210168645A KR20210168645A KR20230080999A KR 20230080999 A KR20230080999 A KR 20230080999A KR 1020210168645 A KR1020210168645 A KR 1020210168645A KR 20210168645 A KR20210168645 A KR 20210168645A KR 20230080999 A KR20230080999 A KR 20230080999A
- Authority
- KR
- South Korea
- Prior art keywords
- frame
- virtual
- interest
- image
- region
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 37
- 238000007689 inspection Methods 0.000 claims description 45
- 239000000463 material Substances 0.000 claims description 37
- 238000004891 communication Methods 0.000 claims description 26
- 238000013473 artificial intelligence Methods 0.000 claims description 23
- 238000012937 correction Methods 0.000 claims description 14
- 230000000694 effects Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 16
- 230000000875 corresponding effect Effects 0.000 description 15
- 239000000284 extract Substances 0.000 description 8
- 239000011521 glass Substances 0.000 description 7
- 230000008901 benefit Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 239000003086 colorant Substances 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/022—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by means of tv-camera scanning
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/028—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring lateral position of a boundary of the object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/28—Measuring arrangements characterised by the use of optical techniques for measuring areas
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
본 발명은, 적어도 하나의 프레임을 포함하는 이미지를 획득하여 이미지를 관심영역으로 구분함으로써 하나 또는 복수의 프레임을 검침하는 효과를 제공할 수 있고, 다양한 형상의 프레임에 대응하는 효과를 제공한다.The present invention obtains an image including at least one frame and divides the image into a region of interest, thereby providing an effect of inspecting one or a plurality of frames and providing effects corresponding to frames of various shapes.
Description
본 발명은 프레임 검침 장치 및 그 방법에 관한 것으로, 보다 상세하게는 복수의 프레임을 포함하는 이미지로부터 프레임에 결합되는 자재의 사이즈를 결정하기 위한 프레임 검침 장치 및 그 방법에 관한 것이다.The present invention relates to a frame inspection apparatus and method, and more particularly, to a frame inspection apparatus and method for determining the size of a material coupled to a frame from an image including a plurality of frames.
인공지능이라는 용어가 1970년대에 처음 등장하였지만 데이터의 양적 증가, 첨단 알고리즘, 컴퓨팅 파워와 스토리지가 개선된 오늘날 인공지능은 매우 활발히 연구되고 있는 분야이다. 이와 같은 인공지능은 현재 국방, 의료, 헬스케어, 교육, 게임, 보안 등 다양한 분야에서 활용되고 있다.Although the term artificial intelligence first appeared in the 1970s, it is a field that is being studied very actively today as the amount of data increases, advanced algorithms, and computing power and storage have improved. Such artificial intelligence is currently being used in various fields such as defense, medical care, healthcare, education, games, and security.
한편, 이미지를 이용하여 이미지 상의 객체의 길이, 크기 등을 측정하고자 하는 시도가 다양한 분야에서 나타나고 있다. 종래에는 옥외 간판을 이미지를 이용하여 면적 등을 측정하려는 방법이 존재하고 있다.On the other hand, attempts to measure the length, size, etc. of an object on an image by using an image are appearing in various fields. Conventionally, there is a method of measuring an area of an outdoor signboard using an image.
그러나, 실제로 외부에서 옥외 간판을 촬영할 때, 목적하는 옥외 간판 단독으로 촬영되는 경우보다 인접한 간판들도 함께 촬영되는 경우가 많으므로 목적하는 간판을 특정하기 위해 촬영 후 수작업이 필요하다는 문제점이 있다. 또한, 옥외 간판이 다른 형태를 가진 경우 측정이 곤란한 문제가 있었다.However, when an outdoor signboard is actually photographed from the outside, there is a problem in that manual work is required after photographing to specify the target signboard because adjacent signboards are often photographed together rather than when the target outdoor signage is photographed alone. In addition, there is a problem in that measurement is difficult when the outdoor sign has a different shape.
이에 따라, 오늘날 인공지능을 이용한 객체의 특징을 추출하는 방법 등이 지속적으로 연구되고 있다.Accordingly, a method of extracting features of an object using artificial intelligence is being continuously studied.
상술한 문제점을 해결하기 위해 본 발명은 이미지를 적어도 하나의 관심영역으로 구분하고, 각 관심영역마다 추출한 특징점을 연결하여 생성된 가상도형의 사이즈를 측정하는 프레임 검침 장치 및 그 방법을 제공하는 것을 목적으로 한다.In order to solve the above problems, an object of the present invention is to provide a frame inspection device and method for measuring the size of a virtual figure generated by dividing an image into at least one region of interest and connecting feature points extracted for each region of interest. to be
상술한 목적을 달성하기 위해 본 발명의 실시예에 따른 프레임 검침 방법은, 메모리에 저장되거나 프로세서에 의해 수행되는, 프레임 검침 방법에 있어서, 적어도 하나의 프레임을 포함하는 이미지를 획득하는 단계; 상기 이미지를 각 프레임 별로 분석하기 위한 적어도 하나의 관심영역으로 구분하는 단계; 각 관심영역 별로 상기 각 관심영역에서 복수의 특징점을 추출하는 단계; 및 상기 복수의 특징점을 연결한 가상의 선을 이용하여 생성된 가상도형을 획득하는 단계;를 포함할 수 있다.In order to achieve the above object, a frame inspection method according to an embodiment of the present invention, stored in a memory or performed by a processor, includes the steps of acquiring an image including at least one frame; dividing the image into at least one region of interest to be analyzed for each frame; extracting a plurality of feature points from each region of interest for each region of interest; and obtaining a virtual figure created using a virtual line connecting the plurality of feature points.
또한, 상기 관심영역으로 구분하는 단계는, 상기 이미지에서 상기 적어도 하나의 프레임에 해당하는 기준 색의 정보를 추출하는 단계; 상기 기준 색을 이용하여 상기 각 프레임의 복수의 모서리를 추출하는 단계; 및 상기 복수의 모서리에 의해 형성된 폐쇄영역을 하나씩 포함하는 상기 적어도 하나의 관심영역을 구분하는 단계를 포함할 수 있다.The dividing into the ROI may include extracting reference color information corresponding to the at least one frame from the image; extracting a plurality of edges of each frame using the reference color; and dividing the at least one ROI including one closed region formed by the plurality of corners.
또한, 상기 복수의 특징점을 추출하는 단계는, 상기 각 관심영역 내에 있는 상기 각 프레임의 꼭짓점을 상기 복수의 특징점으로 추출할 수 있다.In addition, in the extracting of the plurality of feature points, vertices of each frame within each region of interest may be extracted as the plurality of feature points.
또한, 상기 관심영역으로 구분하는 단계는, 상기 이미지에서 상기 적어도 하나의 프레임에 해당하는 기준 색의 정보를 추출하는 단계; 및 상기 기준 색을 이용하여 상기 각 프레임에 연결된 복수의 지지점을 추출하는 단계; 및 상기 각 프레임에만 연결된 복수의 지지점을 포함하는 상기 복수의 관심영역을 구분하는 단계를 포함할 수 있다.The dividing into the ROI may include extracting reference color information corresponding to the at least one frame from the image; and extracting a plurality of support points connected to each frame using the reference color. and dividing the plurality of regions of interest including a plurality of supporting points connected only to the respective frames.
또한, 상기 복수의 특징점을 추출하는 단계는, 상기 각 관심영역 내에 있는 상기 복수의 지지점을 상기 복수의 특징점으로 추출할 수 있다.In addition, in the step of extracting the plurality of feature points, the plurality of support points within each region of interest may be extracted as the plurality of feature points.
또한, 상기 가상의 선은 상기 복수의 특징점에서, 제1특징점으로부터 제2특징점 및 제1특징점으로부터 제3특징점을 연결한 선들의 집합일 수 있다.Also, the virtual line may be a set of lines connecting the first feature point to the second feature point and the first feature point to the third feature point among the plurality of feature points.
또한, 상기 관심영역으로 구분하는 단계는, 제1인공지능모델을 이용하는 것을 특징으로 할 수 있다.In addition, the step of classifying into the region of interest may be characterized in that a first artificial intelligence model is used.
또한, 프레임 검침 방법은, 상기 가상도형을 기준으로 상기 각 프레임에 결합될 자재의 사이즈를 결정하는 단계;를 더 포함할 수 있다.The frame inspection method may further include determining a size of a material to be combined with each frame based on the virtual figure.
또한, 상기 이미지는 사이즈의 절대 수치를 알고 있는 레퍼런스 객체를 포함하며, 상기 가상도형을 획득하는 단계는, 상기 가상도형과 상기 레퍼런스 객체의 상대적인 비율을 고려하여, 상기 가상도형의 사이즈를 측정할 수 있다.In addition, the image includes a reference object whose absolute size is known, and in the obtaining of the virtual figure, the size of the virtual figure may be measured in consideration of a relative ratio between the virtual figure and the reference object. there is.
한편, 본 발명의 실시예에 따른 프레임 검침 장치는 메모리 및 프로세서를 포함하는 프레임 검침 장치에 있어서, 상기 메모리에 의해 저장되거나, 상기 프로세서에 의해 수행되는 알고리즘은, 적어도 하나의 프레임을 포함하는 이미지를 획득하고, 상기 이미지를 각 프레임 별로 분석하기 위한 복수의 관심영역으로 구분하고, 각 관심영역 별로 상기 각 관심영역에서 복수의 특징점을 추출하고, 상기 복수의 특징점을 연결한 가상의 선을 이용하여 생성된 가상도형을 획득하는 것을 포함할 수 있다.Meanwhile, in the frame inspection apparatus including a memory and a processor, an algorithm stored in the memory or executed by the processor may generate an image including at least one frame. acquisition, divides the image into a plurality of regions of interest to be analyzed for each frame, extracts a plurality of feature points from each region of interest for each region of interest, and generates them using a virtual line connecting the plurality of feature points It may include obtaining a virtual figure.
또한, 프레임 검침 장치는 촬영수단을 더 포함하고, 상기 촬영수단은, 상기 적어도 하나의 프레임을 촬영하여 상기 이미지를 획득할 수 있다.The frame inspection device may further include a photographing means, and the photographing means may acquire the image by photographing the at least one frame.
또한, 프레임 검침 장치는 출력부를 더 포함하고, 상기 출력부는, 획득한 상기 가상도형을 포함하는 정보를 제공할 수 있다.In addition, the frame inspection apparatus may further include an output unit, and the output unit may provide information including the acquired virtual figure.
또한, 프레임 검침 장치는 통신부를 더 포함하고, 상기 통신부는, 상기 이미지를 외부장치부터 획득하고, 상기 가상도형을 포함하는 정보를 외부장치에 제공할 수 있다.The frame inspection apparatus may further include a communication unit, and the communication unit may acquire the image from an external device and provide information including the virtual figure to the external device.
또한, 프레임 검침 장치는 입력부를 더 포함하고, 상기 입력부는, 상기 가상도형을 기준으로 상기 각 프레임에 결합될 자재의 사이즈를 결정하기 위해, 상기 가상도형과 상기 각 프레임에 결합될 자재의 사이즈 차이에 해당하는 보정값을 입력할 수 있다.The frame inspection apparatus further includes an input unit, wherein the input unit determines a size difference between the virtual figure and the material to be coupled to each frame to determine the size of the material to be coupled to each frame based on the virtual figure. You can enter the correction value corresponding to .
본 발명에 따른 프레임 검침 장치 및 그 방법은, 적어도 하나의 프레임을 포함하는 이미지를 획득하여 이미지를 관심영역으로 구분함으로써 하나 또는 복수의 프레임을 검침하는 효과를 제공할 수 있고, 다양한 형상의 프레임에 대응하는 효과를 제공할 수 있다.An apparatus and method for inspecting a frame according to the present invention acquires an image including at least one frame and divides the image into a region of interest, thereby providing an effect of inspecting one or a plurality of frames. A corresponding effect can be provided.
도 1은 프레임 검침 방법을 나타낸 순서도이다.
도 2는 본 발명의 실시예에 따른 복수의 프레임을 포함하는 이미지를 나타낸 도면이다.
도 3은 본 발명의 실시예에 따른 복수의 프레임을 포함하는 이미지를 나타낸 도면이다.
도 4는 본 발명의 실시예에 따른 관심영역으로 구분하는 단계를 나타낸 순서도이다.
도 5는 본 발명의 실시예에 따른 복수의 관심영역을 나타낸 도면이다.
도 6은 본 발명의 실시예에 따른 관심영역으로 구분하는 단계를 나타낸 순서도이다.
도 7은 본 발명의 실시예에 따른 복수의 관심영역을 나타낸 도면이다.
도 8은 본 발명의 실시예에 따른 복수의 특징점을 나타낸 도면이다.
도 9는 본 발명의 실시예에 따른 가상도형의 사이즈를 나타낸 도면이다.
도 10는 프레임 검침 장치 및 그 방법을 이용하여 설치된 자재를 나타낸 도면이다.
도 11은 프레임 검침 장치를 나타낸 블록도이다.1 is a flowchart illustrating a frame inspection method.
2 is a diagram illustrating an image including a plurality of frames according to an embodiment of the present invention.
3 is a diagram illustrating an image including a plurality of frames according to an embodiment of the present invention.
4 is a flowchart illustrating a step of classifying a region of interest according to an embodiment of the present invention.
5 is a diagram illustrating a plurality of regions of interest according to an embodiment of the present invention.
6 is a flowchart illustrating a step of classifying a region of interest according to an embodiment of the present invention.
7 is a diagram illustrating a plurality of regions of interest according to an embodiment of the present invention.
8 is a diagram showing a plurality of feature points according to an embodiment of the present invention.
9 is a diagram showing the size of a virtual figure according to an embodiment of the present invention.
10 is a view showing a frame inspection device and materials installed using the method.
11 is a block diagram illustrating a frame inspection device.
이하에서 본 발명의 실시예에 따른 프레임 검침 장치 및 그 방법을 설명한다.Hereinafter, a frame inspection apparatus and method according to an embodiment of the present invention will be described.
통상의 기술자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만, 발명의 원리를 구현하고 발명의 개념과 범위에 포함된 다양한 장치를 개발할 수 있다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시예들은 원칙적으로, 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이처럼 특별히 열거된 실시예 및 상태에 제한적이지 않은 것으로 이해되어야 한다.A person skilled in the art can develop various devices that embody the principles of the invention and fall within the concept and scope of the invention, even though not explicitly described or shown herein. In addition, all conditional terms and examples listed in this specification are, in principle, expressly intended only for the purpose of making the concept of the invention understood, and should be understood as not being limited to such specifically listed examples and conditions.
상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 발명의 상세한 설명을 통하여 더욱 분명해질 것이며, 그에 따라 발명이 속하는 기술 분야에서 통상의 기술자가 발명의 기술적 사상을 쉽게 실시할 수 있을 것이다.The above objects, features and advantages will become more apparent through the following detailed description of the invention in conjunction with the accompanying drawings, and accordingly, those skilled in the art to which the invention belongs will be able to easily implement the technical idea of the invention.
본 명세서에서 기술하는 실시예들은 본 발명의 이상적인 예시도인 단면도 및/또는 사시도들을 참고하여 설명될 것이다. 이러한 도면들에 도시된 막 및 영역들의 두께 등은 기술적 내용의 효과적인 설명을 위해 과장된 것이다. 제조 기술 및/또는 허용 오차 등에 의해 예시도의 형태가 변형될 수 있다. 따라서, 본 발명의 실시예들은 도시된 특정 형태로 제한되는 것이 아니라 제조 공정에 따라 생성되는 형태의 변화도 포함하는 것이다.Embodiments described in this specification will be described with reference to sectional views and/or perspective views, which are ideal exemplary views of the present invention. Films and thicknesses of regions shown in these drawings are exaggerated for effective description of technical content. The shape of the illustrative drawings may be modified due to manufacturing techniques and/or tolerances. Therefore, embodiments of the present invention are not limited to the specific shapes shown, but also include changes in shapes generated according to manufacturing processes.
다양한 실시예들을 설명하면서, 동일한 기능을 수행하는 구성요소에 대해서는 실시예가 다르더라도 편의상 동일한 명칭 및 동일한 참조번호를 부여하기로 한다. 나아가, 이미 다른 실시예에서 설명된 구성 및 작동에 대해서는 편의상 생략하기로 한다.While describing various embodiments, the same names and the same reference numbers will be given to components performing the same functions even if the embodiments are different. Furthermore, configurations and operations already described in other embodiments will be omitted for convenience.
도 10은 프레임 검침 장치를 나타낸 블록도이다.10 is a block diagram illustrating a frame inspection device.
먼저, 프레임 검침 방법에 사용되는 프레임 검침 장치(이하 “전자 장치”)의 구성에 대하여 설명한다.First, the configuration of a frame inspection device (hereinafter referred to as “electronic device”) used in the frame inspection method will be described.
본 발명의 실시예로서, 전자 장치(1000)는, 단말기, 디바이스, 전자기기 등으로 호칭될 수 있다. 전자 장치(1000)는, 스마트폰, 태블릿 PC, PC, 스마트 TV, 휴대폰, PDA(personal digital assistant), 랩톱, 미디어 플레이어, 마이크로 서버, GPS(global positioning system) 장치, 전자책 단말기, 디지털방송용 단말기, 네비게이션, 키오스크, MP3 플레이어, 디지털 카메라, 가전기기 및 기타 컴퓨팅 장치일 수 있으나, 이에 한정되는 것은 아니다. 또한, 전자 장치(1000)는 디스플레이 기능 및 데이터 프로세싱 기능을 구비한 시계, 안경, 헤어 밴드 및 반지 등의 웨어러블 디바이스일 수 있다. 그러나, 이에 한정되지 않으며, 전자 장치(1000)는 데이터를 처리하고, 처리된 데이터를 제공할 수 있는 모든 종류의 기기를 포함할 수 있다.As an embodiment of the present invention, the
예를 들어, 도 10에 도시된 바와 같이, 일 실시예에 따른 전자 장치(1000)는, 메모리(1100), 출력부(1200), 프로세서(1300), 통신부(1500), 및 촬영수단(1600)를 포함할 수도 있다. 도시된 구성 요소 모두가 전자 장치(1000)의 필수 구성 요소인 것은 아니며, 보다 많은 구성 요소에 의해 전자 장치(1000)가 구현될 수도 있고, 보다 적은 구성 요소에 의해 전자 장치(1000)가 구현될 수도 있다.For example, as shown in FIG. 10 , an
메모리(1100)는, 프로세서(1300)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 전자 장치(1000)로 입력되는 정보 또는 전자 장치(1000)로부터 출력되는 정보를 저장할 수도 있다.The
메모리(1100)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The
출력부(1200)는, 오디오 신호 또는 비디오 신호 또는 진동 신호를 출력할 수 있으며, 출력부(1200)는 디스플레이부, 음향 출력부를 포함할 수 있다.The
디스플레이부는 전자 장치(1000)에서 처리되는 정보를 표시 출력한다. 구체적으로, 디스플레이부는 카메라에서 촬영된 이미지를 출력할 수 있다. 디스플레이부는, 사용자의 입력에 대한 응답으로, 응답에 관련된 동작을 실행하기 위한 사용자 인터페이스를 디스플레이할 수 있다.The display unit displays and outputs information processed by the
음향 출력부는 통신부(1500)로부터 수신되거나 메모리(1100)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부는 전자 장치(1000)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다.The audio output unit outputs audio data received from the
프로세서(1300)는, 통상적으로 전자 장치(1000)의 전반적인 동작을 제어한다. 예를 들어, 프로세서(1300)는, 메모리(1100)에 저장된 프로그램들을 실행함으로써, 출력부(1200), 통신부(1500), 촬영수단(1600) 등을 전반적으로 제어할 수 있다.The
통신부(1500)는, 전자 장치(1000)가 다른 장치(미도시) 및 서버(미도시)와 통신을 하게 하는 하나 이상의 구성요소를 포함할 수 있다. 다른 장치(미도시)는 전자 장치(1000)와 같은 컴퓨팅 장치이거나, 센싱 장치일 수 있으나, 이에 한정되는 것은 아니다. 예를 들어, 통신부(1500)는 근거리 통신부(미도시), 이동 통신부(미도시)를 포함할 수 있다.The
근거리 통신부(short-range wireless communication unit)(1510)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. The short-range wireless communication unit 1510 includes a Bluetooth communication unit, a Bluetooth Low Energy (BLE) communication unit, a Near Field Communication unit, a WLAN (Wi-Fi) communication unit, a Zigbee communication unit, and an infrared ( It may include an infrared data association (IrDA) communication unit, a Wi-Fi Direct (WFD) communication unit, an ultra wideband (UWB) communication unit, an Ant+ communication unit, etc., but is not limited thereto.
이동 통신부는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.The mobile communication unit transmits and receives radio signals with at least one of a base station, an external terminal, and a server on a mobile communication network. Here, the radio signal may include a voice call signal, a video call signal, or various types of data according to text/multimedia message transmission/reception.
촬영수단(1600)는 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡처된 이미지는 프로세서(1300) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다. 단, 촬영수단(1600)은 다양한 종류의 이미지 획득 장치를 포함할 수 있으며, 종류에 한정되지 않는다.The photographing
다음으로, 본 발명의 실시예에 따른 프레임 검침 방법에 대하여 살펴본다.Next, a frame inspection method according to an embodiment of the present invention will be described.
도 1은 프레임 검침 방법을 나타낸 순서도이다. 도 2는 본 발명의 실시예에 따른 복수의 프레임(100)을 포함하는 이미지(10)를 나타낸 도면이다. 도 3은 본 발명의 실시예에 따른 복수의 프레임(100)을 포함하는 이미지(10)를 나타낸 도면이다.1 is a flowchart illustrating a frame inspection method. 2 is a diagram illustrating an
도 1을 참조하면, 본 발명의 실시예에 따른 프레임 검침 방법은, 전자 장치(1000)에 의해 수행될 수 있으며, 메모리(1100)에 저장되거나 프로세서(1300)에 의해 수행되는, 프레임 검침 방법에 있어서, 적어도 하나의 프레임(100)을 포함하는 이미지(10)를 획득하는 단계(S100); 상기 이미지(10)를 각 프레임(100) 별로 분석하기 위한 적어도 하나의 관심영역(200)으로 구분하는 단계(S200); 각 관심영역(200) 별로 상기 각 관심영역(200)에서 복수의 특징점(300)을 추출하는 단계(S300); 및 상기 복수의 특징점(300)을 연결한 가상의 선을 이용하여 생성된 가상도형(400)을 획득하는 단계(S400);를 포함할 수 있다.Referring to FIG. 1 , a frame inspection method according to an embodiment of the present invention may be performed by an
먼저, 적어도 하나의 프레임(100)을 포함하는 이미지(10)를 획득하는 단계(S100)가 수행될 수 있다.First, obtaining an
도 2 및 도 3을 참조하면, 프레임(100)은 자재(500)가 안착, 결합, 연결 또는 적용될 수 있는 틀을 의미한다. 프레임(100)은 반드시 사각형으로 이루어지는 것은 아니고, 자재(500)의 형상에 따라 달라질 수 있다. 즉, 프레임(100)은 다각형, 원형 등 다양한 형태로 이루어질 수 있다.Referring to Figures 2 and 3, the
프레임(100)에 적용될 수 있는 자재(500)는 유리, 문, 파티션 또는 블라인드 등을 포함할 수 있다. 본 명세서에서는 주로 유리를 예로 들어 설명할 것이나, 반드시 유리에 한정되는 것은 아니다.
이미지(10)는 적어도 하나의 프레임(100)을 포함할 수 있다. 이미지(10)는 하나의 프레임(100) 이미지(10)를 포함할 수 있고, 복수의 프레임(100)을 포함할 수 있다. 또한, 이미지(10)는 전자 장치(1000)의 촬영수단(1600)에 의해 촬영될 수 있고, 파일 형태로 외부장치로부터 통신부(1500)에 의해 수신될 수 있고, 온라인에서 다운로드 형식으로 제공될 수 있으며, USB 등의 저장 매체에 의해 제공될 수 있다. 획득된 이미지(10)는 전자 장치(1000)의 메모리(1100)에 저장될 수 있다.
이어서, 상기 이미지(10)를 각 프레임(100) 별로 분석하기 위한 적어도 하나의 관심영역(200)으로 구분하는 단계(S200)가 수행될 수 있다.Subsequently, a step (S200) of dividing the
전자 장치(1000)는 각 프레임(100)을 개별적으로 분석할 수 있다. 각 프레임(100)을 개별적으로 분석하기 위해, 전자 장치(1000)는 이미지(10)를 복수의 관심영역(200)으로 구분할 수 있다. 관심영역(200)을 도입하여, 이미지(10)가 복수의 프레임 이미지(10)를 포함하는 경우에도 전자 장치(1000)는 각 프레임(100)마다 분석이 가능하다. 즉, 본 발명은 복수의 프레임 이미지(10)를 포함하는 경우에도 개별적으로 분석이 가능한 장점이 있다.The
예를 들어, 도 2에 따른 이미지(10)는 7개의 유리 프레임(100) 및 1개의 문 프레임(100)을 포함하고 있다. 이때, 전자 장치(1000)는 각 프레임(100)을 인식하여 8개의 프레임(100)을 인식할 수 있다. 이때, 프레임(100)이 폐쇄영역을 형성하지 않는 경우 관심영역(200)에서 제외될 수 있다.For example, the
도 3에 따른 이미지(10)는 5개의 유리 프레임 이미지(10)를 포함하고 있다. 이때, 전자 장치(1000)는 각 프레임(100)을 인식하여 5개의 프레임(100)을 인식할 수 있다. 이때, 이미지(10) 상에서 나타난 가장 좌측의 프레임(100)은 잘려 있으므로, 폐쇄영역을 형성하지 않는 경우에 해당하여 관심영역(200)에서 제외될 수 있다. 이를 통해, 분석이 필요한 부분만 관심영역(200)으로 구분하여 분석의 대상이 될 수 있다.The
관심영역(200)의 구분은 일반적인 알고리즘에 의해 구현될 수도 있으나, 후술할 인공지능모델을 통해서 구현될 수 있다. The division of the region of
이어서, 각 관심영역(200) 별로 상기 각 관심영역(200)에서 복수의 특징점(300)을 추출하는 단계(S300)가 수행될 수 있다.Next, a step of extracting a plurality of feature points 300 from each region of
특징점(300)은 프레임(100)을 구성하는 특징이 되는 지점을 의미한다. 즉, 도 2의 이미지(10)에서 각 관심영역(200)은 각 프레임(100)의 이미지(10)를 포함하고, 특징점(300)은 각 프레임(100)의 내측 꼭짓점을 포함할 수 있다. 또한, 도 3의 이미지(10)에서 특징점(300)은 각 프레임(100)에 연결된 지지점을 포함할 수 있다.The
즉, 전자 장치(1000)는 구분된 각 관심영역(200)에서 필요한 복수의 특징점(300)을 획득할 수 있다. 복수의 특징점(300)을 이용하여 후술할 가상도형(400)을 획득할 수 있고, 가상도형(400)은 본 발명에서의 측정이 대상이 될 수 있다.That is, the
이어서, 상기 복수의 특징점(300)을 연결한 가상의 선을 이용하여 생성된 가상도형(400)을 획득하는 단계(S400)를 포함할 수 있다.Subsequently, a step of obtaining a virtual figure 400 created by using a virtual line connecting the plurality of feature points 300 (S400) may be included.
전자 장치(1000)는 가상의 선을 이용하여 복수의 특징점(300)을 연결할 수 있고, 가상도형(400)을 획득할 수 있다. 가상도형(400)은 측정이 대상이 되어 실제 프레임(100)에 적용될 자재(500)의 사이즈를 확정하는 데 유용한 사이즈 정보를 포함할 수 있다. 예를 들어 가상도형(400)의 사이즈는, 가상도형(400)이 사각형인 경우 가로 및 세로의 길이, 가상도형(400)이 삼각형인 경우 밑변 및 높이의 길이 등을 의미하고, 도형이 지니는 수학적 요소들의 수치를 의미한다.The
가상도형(400)의 사이즈는 실제 프레임(100)에 적용될 자재(500)의 사이즈와 동일할 수 있으나, 동일하지 않을 수도 있다. 예를 들어, 도 2의 경우 가상도형(400)과 프레임(100) 사이즈가 거의 동일하지만, 도 3의 경우 가상도형(400)과 프레임(100) 사이즈는 동일하다고 볼 수 없다.The size of the virtual figure 400 may be the same as the size of the material 500 to be applied to the
이때, 전자 장치(1000)는 입력수단을 통해서 보정값을 입력받을 수 있다. 보정값은 가상도형(400)의 사이즈와 실제 프레임(100)에 적용될 자재(500)의 사이즈 차이를 나타내는 수치를 의미한다. 전자 장치(1000)는 보정값을 통해 실제로 프레임(100)이 적용될 자재(500)의 사이즈를 결정할 수 있다. 즉, 획득한 가상도형(400)을 이용하여 실제 자재(500)의 사이즈를 결정하는 단계가 진행될 수 있다.At this time, the
다음으로, 도 2 및 도 3과 같은 이미지(10)에서, 관심영역(200)을 구분하는 단계를 살펴본다.Next, the step of dividing the
도 4는 본 발명의 실시예에 따른 관심영역(200)으로 구분하는 단계를 나타낸 순서도이다. 도 5는 본 발명의 실시예에 따른 복수의 관심영역(200)을 나타낸 도면이다. 도 6은 본 발명의 실시예에 따른 관심영역(200)으로 구분하는 단계를 나타낸 순서도이다. 도 7은 본 발명의 실시예에 따른 복수의 관심영역(200)을 나타낸 도면이다. 도 8은 본 발명의 실시예에 따른 복수의 특징점(300)을 나타낸 도면이다.4 is a flowchart illustrating a step of classifying into a region of
도 4를 참조하면, 본 발명의 실시예에 따른 관심영역(200)으로 구분하는 단계(S200)는, 상기 이미지(10)에서 상기 적어도 하나의 프레임(100)에 해당하는 기준 색의 정보를 추출하는 단계(S210); 상기 기준 색을 이용하여 상기 각 프레임(100)의 복수의 모서리를 추출하는 단계(S220); 및 상기 복수의 모서리에 의해 형성된 폐쇄영역을 하나씩 포함하는 상기 적어도 하나의 관심영역(200)을 구분하는 단계(S230);를 포함할 수 있다.Referring to FIG. 4 , in step S200 of classifying into regions of
먼저, 상기 이미지(10)에서 상기 적어도 하나의 프레임(100)에 해당하는 기준 색의 정보를 추출하는 단계(S210)가 진행될 수 있다.First, a step S210 of extracting reference color information corresponding to the at least one
전자 장치(1000)는 프레임(100)에 해당하는 색을 이용하여 기준 색의 정보를 추출할 수 있다. 기준 색을 추출하는 것은 기준 색과 동일하거나 유사한 계열의 색을 프레임(100) 영역으로 인식하기 위한 것이다. 전자 장치(1000)는 기준 색과 동일하거나 유사한 계열의 색을 프레임(100)으로 인식하여 관심영역(200)을 구분할 수 있다.The
기준 색의 정보는 알고리즘 또는 인공지능모델에 의해 추출될 수 있다. 기준 색의 정보를 각 프레임(100)을 포함하는 각 관심영역(200)마다 추출될 수 있다. 예를 들어, 복수의 프레임(100)이 동일한 색으로 이루어지는 경우도 있으나, 복수의 프레임(100)이 서로 다른 색으로 이루어질 수 있으므로 기준 색의 정보는 구분된 관심영역(200)의 개수와 같을 수 있다.Information of the reference color may be extracted by an algorithm or artificial intelligence model. Reference color information may be extracted for each
이어서, 상기 기준 색을 이용하여 상기 각 프레임(100)의 복수의 모서리를 추출하는 단계(S220)가 진행될 수 있다.Subsequently, a step of extracting a plurality of edges of each
전자 장치(1000)는 추출된 기준 색과 동일하거나 유사한 계열의 색을 가지는 이미지(10)를 프레임(100)으로 인식할 수 있다. 인식된 프레임(100)은 하나의 자재(500)가 결합되는 것으로 각 관심영역(200)으로의 구분의 대상이 될 수 있다.The
이어서, 상기 복수의 모서리에 의해 형성된 폐쇄영역을 하나씩 포함하는 상기 적어도 하나의 관심영역(200)을 구분하는 단계(S230)가 진행될 수 있다.Subsequently, a step of dividing the at least one region of
프레임(100) 상에서 추출된 복수의 모서리는 각각 하나의 폐쇄영역을 형성할 수 있다. 전자 장치(1000)는 하나의 폐쇄영역이 형성된 영역을 기준으로 관심영역(200)을 구분할 수 있다.Each of the plurality of edges extracted on the
도 5를 참조하면, 기준 색과 동일하거나 유사한 계열의 색을 따라 인식된 모서리는 8개의 프레임(100)을 구성하며, 전자 장치(1000)는 8개 프레임(100)을 각각 포함하는 관심영역(200)을 구분할 수 있다. 전자 장치(1000)는 8개의 관심영역(200) 내에서 특징점(300)을 추출할 수 있다.Referring to FIG. 5 , edges recognized along colors of the same or similar series as the reference color constitute eight
다음으로, 도 2와 같은 이미지(10)에서 복수의 특징점(300)을 추출하는 단계를 살펴본다.Next, a step of extracting a plurality of feature points 300 from the
도 8(a) 및 도 8(b)를 참조하면, 본 발명의 실시예에 따른 상기 복수의 특징점(300)을 추출하는 단계는, 상기 각 관심영역(200) 내에 있는 상기 각 프레임(100)의 꼭짓점을 상기 복수의 특징점(300)으로 추출할 수 있다.8(a) and 8(b) , in the step of extracting the plurality of feature points 300 according to an embodiment of the present invention, each
상술한 방법으로 전자 장치(1000)는, 각 관심영역(200)을 구분하였고, 구분된 각 관심영역(200)마다 각 프레임(100)의 내측 꼭짓점을 복수의 특징점(300)으로 하여 추출할 수 있다. 복수의 특징점(300)은 가상도형(400)의 꼭짓점이 될 수 있다.In the above-described method, the
정리하면, 도 2와 같은 프레임(100)을 포함하는 이미지(10) 경우 전자 장치(1000)는, 가장 먼저 프레임(100)에 해당하는 픽셀의 색 정보를 추출하여 모서리를 찾아 폐쇄영역을 찾고, 폐쇄영역을 포함하는 관심영역(200)을 구분하여 분석의 대상 및 개수를 찾고, 관심영역(200)마다 폐쇄영역을 이루는 프레임의 내측 꼭짓점을 찾아 특징점(300)으로 할 수 있다. 마지막으로 전자 장치(1000)는 복수의 특징점(300)을 이용하여 가상도형(400)을 형성하고, 가상도형(400)의 사이즈를 측정할 수 있다. 이는 알고리즘 또는 인공지능모델에 의해 수행될 수 있다.In summary, in the case of an
이로써, 복수의 프레임(100)이 이미지(10)상에 나타나는 경우에도 일괄적으로 가상도형(400)의 사이즈를 측정할 수 있다.Accordingly, even when a plurality of
도 6을 참조하면, 본 발명의 실시예에 따른 상기 관심영역(200)으로 구분하는 단계(S200)는, 상기 이미지(10)에서 상기 적어도 하나의 프레임(100)에 해당하는 기준 색의 정보를 추출하는 단계(S240); 및 상기 기준 색을 이용하여 상기 각 프레임(100)에 연결된 복수의 지지점을 추출하는 단계(S250); 및 상기 각 프레임(100)에만 연결된 복수의 지지점을 포함하는 상기 적어도 하나의 관심영역(200)을 구분하는 단계(S260);를 포함할 수 있다.Referring to FIG. 6 , in step S200 of classifying the region of
먼저, 상기 이미지(10)에서 상기 적어도 하나의 프레임(100)에 해당하는 기준 색의 정보를 추출하는 단계(S240)가 진행될 수 있다. 이 단계는 상술한 방법과 동일하게 진행되므로 생략하기로 한다.First, a step of extracting reference color information corresponding to the at least one
이어서, 상기 기준 색을 이용하여 상기 각 프레임(100)에 연결된 복수의 지지점을 추출하는 단계(S250)가 진행될 수 있다.Subsequently, a step of extracting a plurality of support points connected to each
전자 장치(1000)는 추출된 기준 색과 동일하거나 유사한 계열의 색을 가지는 이미지(10)를 프레임(100)으로 인식할 수 있다. 인식된 프레임(100)은 하나의 자재(500)가 결합되는 것으로 각 관심영역(200)으로의 구분의 대상이 될 수 있다. 도 3과 같은 이미지(10)에서, 전자 장치(1000)는 모서리를 추출하는 것이 아닌, 각 프레임(100)에 연결된 복수의 지지점을 추출할 수 있다.The
지지대(110)는 프레임(100)이 자재(500)를 결합, 지지 또는 파지하는 지점을 의미한다. 지지대(110)는 지지점을 포함할 수 있다. 바람직하게는, 지지점은 지지대(110)의 중심을 의미할 수 있다. 전자 장치(1000)는 지지점을 이용하여 관심영역(200)을 구분할 수 있다.The
복수의 지지점을 추출하는 단계(S250)에서, 이미지(10) 상의 지지점은 알고리즘 또는 인공지능모델에 의해 감지될 수 있으나, 수동의 방법으로 이루어질 수도 있다.In the step of extracting a plurality of supporting points (S250), the supporting points on the
이미지(10)를 먼저 획득하고 이미지(10) 상의 지지점에 반사마크(130)를 적용하는 방법이 있을 수 있고, 지지점에 반사마크(130)를 적용하고 프레임(100)을 촬영하는 방법으로 이미지(10)를 획득하는 방법이 있을 수 있다.There may be a method of first obtaining the
결국, 전자 장치(1000)는 반사마크(130)를 포함하는 이미지(10)의 명암을 낮추면, 반사마크(130)가 적용된 지점은 가장 밝게 보이고, 밝게 보이는 지점을 복수의 지지점으로 할 수 있다.As a result, when the
따라서, 전자 장치(1000)는 프레임(100)의 색 정보를 이용하여 복수의 지지점을 자동으로 인식하거나, 반사마크(130)를 이용하여 복수의 지지점을 인식할 수 있다.Accordingly, the
이어서, 상기 각 프레임(100)에만 연결된 복수의 지지점을 포함하는 상기 적어도 하나의 관심영역(200)을 구분하는 단계(S260)가 진행될 수 있다.Subsequently, a step of dividing the at least one region of
전자 장치(1000)는 복수의 지지점을 기준으로 관심영역(200)을 구분할 수 있다. 복수의 지지점은 프레임(100)과 연결된 유리와 접촉하는 부분으로 분석의 대상이 되는 자재(500)의 개수 및 모양을 결정할 수 있다.The
도 7을 참조하면, 상기 '각 프레임에만'의 표현은 관심영역(200)을 구분할 때 하나의 프레임(100)에 해당하는 복수의 지지점을 하나의 관심영역(200)이 포함하는 것을 의미한다. 즉, 가장 좌측의 관심영역(200)은 4개의 지지점을 포함하고 있으며, 4개의 지지점은 하나의 프레임(100)에 연결되어 있으므로, 가장 좌측의 관심영역(200)은 가장 좌측의 프레임(100)에만 해당하는 4개의 지지점을 포함할 수 있다.Referring to FIG. 7 , the expression 'only for each frame' means that one
다시 도 7을 참조하면, 기준 색과 동일하거나 유사한 계열의 색을 따라 인식된 복수의 지지점은 5개의 프레임(100)을 구성하며, 전자 장치(1000)는 복수의 지지점을 각각 포함하는 관심영역(200)을 구분할 수 있다. 전자 장치(1000)는 5개의 관심영역(200) 내에서 특징점(300)을 추출할 수 있다.Referring back to FIG. 7 , a plurality of support points recognized along the same or similar series colors as the reference color constitute five
다음으로, 도 3과 같은 이미지(10)에서 복수의 특징점(300)을 추출하는 단계를 살펴본다.Next, a step of extracting a plurality of feature points 300 from the
도 8(c) 및 도 8(d)를 참조하면, 본 발명의 실시예에 따른 상기 복수의 특징점(300)을 추출하는 단계(300)는, 상기 각 관심영역(200) 내에 있는 상기 복수의 지지점을 상기 복수의 특징점(300)으로 추출할 수 있다.Referring to FIGS. 8(c) and 8(d) , in the
상술한 방법으로 전자 장치(1000)는, 각 관심영역(200)을 구분하였고, 구분된 각 관심영역(200)마다 각 프레임(100)에만 연결된 복수의 지지점을 특징점(300)으로 하여 추출할 수 있다. 복수의 특징점(300)은 가상도형(400)의 꼭짓점이 될 수 있다.In the above method, the
정리하면, 도 3과 같은 프레임(100)을 포함하는 이미지(10)의 경우 전자 장치(1000)는, 가장 먼저 프레임(100) 또는 지지점에 해당하는 픽셀의 색 정보를 추출하여 복수의 지지점을 포함하는 세트를 찾고, 각 세트를 포함하는 관심영역(200)을 구분하여 분석의 대상 및 개수를 찾고, 관심영역(200)마다 지지점을 찾아 특징점(300)으로 할 수 있다. 마지막으로 전자 장치(1000)는 복수의 특징점(300)을 이용하여 가상도형(400)을 형성하고, 가상도형(400)의 사이즈를 측정할 수 있다. 이는 알고리즘 또는 인공지능모델에 의해 수행될 수 있다.In summary, in the case of the
다음으로, 가상도형(400)을 구성하는 가상의 선에 대하여 살펴본다.Next, a virtual line constituting the virtual figure 400 will be described.
도 8을 참조하면, 본 발명의 실시예에 따른 상기 가상의 선은 상기 복수의 특징점(300)에서, 제1특징점으로부터 제2특징점 및 제1특징점으로부터 제3특징점을 연결한 선들의 집합일 수 있다.Referring to FIG. 8 , the virtual line according to an embodiment of the present invention may be a set of lines connecting the first feature point to the second feature point and the first feature point to the third feature point in the plurality of feature points 300. there is.
가상도형(400)은 이미지(10)를 통해 측정의 대상이 될 수 있다. 가상의 선은 가상도형(400)을 이루는 임의의 선을 의미한다. 제1특징점은 하나의 임의의 특징점(300)을 나타낸다. 제2특징점은 제1특징점 이외의 특징점(300)을 의미하며, 제3특징점은 제1특징점과 제2특징점을 제외한 특징점(300)을 의미한다.The virtual figure 400 may be a subject of measurement through the
구체적으로 설명하면, 가상의 선은 제1특징점으로부터 제2특징점과 연결되는 제1선 및 제1특징점으로부터 제3특징점과 연결되는 제2선을 포함할 수 있다. 이때 선택되어지는 제2특징점 및 제3특징점은 제1선 및 제2선이 이루는 각이 가장 크게 형성되도록 선택되어질 수 있다. Specifically, the virtual line may include a first line connecting the first feature point to the second feature point and a second line connecting the first feature point to the third feature point. At this time, the second feature point and the third feature point selected may be selected so that the angle formed by the first line and the second line is the largest.
예를 들어, 도 8(a)에서 나타낸 프레임(100)에서 좌측상단, 우측상단, 좌측하단, 우측하단에 위치하는 특징점(300)을 기준으로 살펴보면, 제1특징점은 좌측상단, 제2특징점은 우측상단, 제3특징점은 좌측하단에 위치할 때, 제1선 및 제2선이 이루는 각은 90도가 될 수 있다.For example, looking at the feature points 300 located at the upper left corner, upper right corner, lower left corner, and lower right corner in the
반대로, 제1특징점은 좌측상단, 제2특징점은 우측상단, 제3특징점은 우측하단에 위치할 때, 제1선 및 제2선이 이루는 각은 90도보다 작을 수 있다. 두 가지 경우를 비교할 때 제1선 및 제2선이 90도를 유지하는 전자의 경우가 선택되어질 수 있다.Conversely, when the first feature point is located at the upper left corner, the second feature point is located at the upper right corner, and the third feature point is located at the lower right corner, the angle formed by the first line and the second line may be smaller than 90 degrees. When comparing the two cases, the former case in which the first line and the second line maintain 90 degrees can be selected.
이와 같이, 전자 장치(1000)는 각각의 특징점(300)을 제1특징점으로 하여 가상의 선을 반복적으로 연결하여 가상도형(400)을 획득할 수 있다. 가상도형(400)은 이미지(10) 상에서 측정의 대상이 되는 것으로, 전자 장치(1000)는 이미지(10) 상에서 획득한 가상도형(400)의 사이즈를 획득할 수 있다. 즉, 사용자는 촬영된 이미지(10) 또는 제공받은 이미지(10)를 통해 쉽게 프레임 검침 방법을 수행할 수 있다.As such, the
또한, 본 발명의 실시예에 따른 상기 관심영역(200)으로 구분하는 단계(S200)는, 인공지능모델을 이용하는 것을 특징으로 할 수 있다.In addition, the step (S200) of dividing into the region of
본 발명의 실시예에 따른 인공지능모델은 메모리(1100)에 저장될 수 있다. 인공지능모델은 이미지(10)가 입력되면 가상도형(400)의 사이즈를 출력할 수 있다.An artificial intelligence model according to an embodiment of the present invention may be stored in the
한편, 본 발명의 실시예에 따른 프레임 검침 방법은 인공지능모델을 학습시키기 위한 학습 단계를 더 포함할 수 있다. 구체적으로는 인공지능모델은 대량의 이미지(10)를 이용하여 학습할 수 있다. 특히, 인공지능모델은 적어도 하나의 프레임(100)을 포함하는 이미지(10)를 학습할 수 있다.Meanwhile, the frame inspection method according to an embodiment of the present invention may further include a learning step for learning an artificial intelligence model. Specifically, the artificial intelligence model can be learned using a large amount of images (10). In particular, the artificial intelligence model may learn the
인공지능모델은 머신러닝모델, 딥러닝모델 등으로 이루어질 수 있다. 특히 인공지능모델은 R-CNN 계열로 이루어질 수 있고, 구체적으로는 R-CNN, Fast R-CNN, Faster R-CNN 또는 Mask R-CNN으로 이루어질 수 있다.The artificial intelligence model may be composed of a machine learning model, a deep learning model, and the like. In particular, the artificial intelligence model may be composed of R-CNN series, and specifically, may be composed of R-CNN, Fast R-CNN, Faster R-CNN or Mask R-CNN.
학습된 인공지능모델은 이미지(10) 상에서 특정 객체를 포함하는 관심영역(200)을 구분할 수 있다. 특정 객체는 모서리로 구성된 폐쇄된 영역일 수 있고, 복수의 지지점 세트일 수 있다.The learned artificial intelligence model can distinguish a region of
이로써, 전자 장치(1000)는 도 2 및 도 3과 같이 서로 다른 유형의 프레임(100)에 해당하는 경우에도 각각 대응할 수 있다. 또한, 전자 장치(1000)는 도 2의 유형과 도 3의 유형의 프레임(100)이 하나의 이미지(10)에 있는 경우에도 각각 대응할 수 있는 이점이 있다.Accordingly, the
다음으로, 자재(500)의 사이즈를 결정하는 단계에 대해 살펴본다.Next, look at the step of determining the size of the material (500).
본 발명의 실시예에 따른 프레임 검침 방법은, 상기 가상도형(400)을 기준으로 상기 각 프레임(100)에 결합될 자재(500)의 사이즈를 결정하는 단계;를 더 포함할 수 있다. 전자 장치(1000)는 가상도형(400)의 사이즈를 측정할 수 있고, 실제 프레임(100)에 적용될 사이즈를 얻기 위해서 보정값을 필요로 한다.The frame inspection method according to an embodiment of the present invention may further include determining the size of the material 500 to be coupled to each
도 9는 본 발명의 실시예에 따른 가상도형(400)의 사이즈를 나타낸 도면이다. 도 10는 프레임 검침 장치 및 그 방법을 이용하여 설치된 자재(500)를 나타낸 도면이다.9 is a diagram showing the size of a virtual figure 400 according to an embodiment of the present invention. 10 is a diagram showing a frame inspection device and a material 500 installed using the method.
도 9(a)에 따르면, 복수의 특징점(300)을 따라 형성한 가상도형(400)은 직사각형 모양을 갖는다. 전자 장치(1000)는 가상도형(400)을 통해 가로길이(h1) 및 세로길이(h2)를 측정할 수 있다. 그러나, 실제 자재(500)의 사이즈는 가상도형(400)보다 크게 형성되어야 프레임(100)에 결합될 수 있다. 따라서, 전자 장치(1000)는 보정값으로 h3, h41 및 h42에 해당하는 길이정보를 제공받을 수 있다. 전자 장치(1000)는 h3, h41 및 h42의 값을 이미지(10) 획득 전 미리 제공받을 수 있고, 이미지(10) 획득 후 제공받을 수 있다.According to FIG. 9(a), a virtual figure 400 formed along a plurality of feature points 300 has a rectangular shape. The
또한, 도 9(b)에 따르면, 프레임(100)의 내측 꼭짓점을 따라 형성한 가상도형(400)은 직사각형 모양을 갖는다. 전자 장치(1000)는 가상도형(400)을 통해 가로길이(h5) 및 세로길이(h6)을 측정할 수 있다. 그러나, 실제 자재(500)의 사이즈는 가상도형(400)과 다를 수 있으므로, 전자 장치(1000)는 보정값으로 필요한 길이정보를 제공받을 수 있다.Also, according to FIG. 9(b), the virtual figure 400 formed along the inner vertex of the
전자 장치(1000)는 가상도형(400)을 기준으로 보정값을 대입하여 각 프레임(100)에 결합될 자재(500)의 사이즈를 결정할 수 있다. 또한, 전자 장치(1000)는 가상도형(400)의 사이즈 및/또는 각 프레임(100)에 결합될 자재(500)의 사이즈를 출력할 수 있다.The
즉, 본 발명의 실시예에 따른 프레임 검침 장치 및 프레임 검침 방법은 가상도형(400)의 개념을 도입하여 일률적인 측정 방법을 제공하며, 실제 프레임(100)에 대응하기 위해 보정값을 추가로 제공받아 실제 프레임(100)이 적용될 자재(500)의 사이즈를 결정할 수 있다. 다양한 프레임(100)에 적용될 수 있는 이점이 있다.That is, the frame inspection apparatus and frame inspection method according to an embodiment of the present invention introduces the concept of the virtual figure 400 to provide a uniform measurement method, and additionally provides a correction value to correspond to the
도 10을 참조하면, 자재(500)의 사이즈 정보를 이용하여 제조된 자재(500)가 각 프레임(100)에 결합된 것을 알 수 있다.Referring to FIG. 10 , it can be seen that a material 500 manufactured using size information of the
다음으로, 가상도형(400)의 절대적 사이즈를 측정할 수 있게 하는 레퍼런스 객체(600)에 대하여 살펴본다.Next, look at the
도 8을 참조하면, 본 발명의 실시예에 따른 프레임 검침 방법에서, 상기 이미지(10)는 사이즈의 절대 수치를 알고 있는 레퍼런스 객체(600)를 포함하며, 상기 가상도형(400)을 획득하는 단계(S400)는, 상기 가상도형(400)과 상기 레퍼런스 객체(600)의 상대적인 비율을 고려하여, 상기 가상도형(400)의 사이즈를 측정할 수 있다.Referring to FIG. 8 , in the frame inspection method according to an embodiment of the present invention, the
이미지(10)는 레퍼런스 객체(600)를 포함할 수 있다. 레퍼런스 객체(600)는 프레임(100)에 인접하게 위치하여 촬영수단(1600)으로 인해 촬영될 수 있다. 또한, 레퍼런스 객체(600)는 이미지(10) 획득 후 이미지(10) 상에 표시될 수 있다.
레퍼런스 객체(600)는 사이즈의 절대 수치를 알고 있어야 한다. 예를 들어, 이미지(10) 상의 h1은 상대적인 길이만 알 수 있을 뿐 절대적인 수치는 알 수 없으므로, 레퍼런스 객체(600)를 이용하여 h1의 절대적인 길이를 알 수 있다.The
이미지(10) 상에서, 레퍼런스 객체(600)의 가로길이(r1), 가상도형(400)의 가로길이(h1) 및 레퍼런스 객체(600)의 절대길이를 이용하여 비례식을 통해 가상도형(400)의 절대길이가 계산될 수 있다.On the
한편, 본 발명의 실시예에 따른 프레임 검침 장치 및 그 방법은 레퍼런스 객체(600)가 없는 경우에도 가상도형(400)의 사이즈를 측정할 수 있다. 인공지능모델은 가상도형(400)의 사이즈를 측정할 수 있다.Meanwhile, the frame inspection apparatus and method according to the embodiment of the present invention can measure the size of the virtual figure 400 even when the
인공지능모델은 적어도 하나의 프레임(100)을 포함하는 이미지(10)를 학습할 수 있다. 구체적으로는, 인공지능모델은 상기 이미지(10)를 라벨링한 데이터를 학습할 수 있다. 학습이 완료된 후, 인공지능모델은 상기 이미지(10)를 이용하여 적어도 하나의 프레임(100)에 대한 길이를 측정할 수 있다.The artificial intelligence model may learn the
이하에서, 본 발명의 실시예에 따른 프레임 검침 장치에 대하여 살펴본다.Hereinafter, a frame inspection apparatus according to an embodiment of the present invention will be described.
도 11은 프레임 검침 장치를 나타낸 블록도이다.11 is a block diagram illustrating a frame inspection device.
도 11을 참조하면, 본 발명의 실시예에 따른 프레임 검침 장치는, 메모리(1100) 및 프로세서(1300)를 포함하는 프레임 검침 장치에 있어서, 상기 메모리(1100)에 의해 저장되거나, 상기 프로세서(1300)에 의해 수행되는 알고리즘은, 적어도 하나의 프레임(100)을 포함하는 이미지(10)를 획득하고, 상기 이미지(10)를 각 프레임(100) 별로 분석하기 위한 복수의 관심영역(200)으로 구분하고, 각 관심영역(200) 별로 상기 각 관심영역(200)에서 복수의 특징점(300)을 추출하고, 상기 복수의 특징점(300)을 연결한 가상의 선을 이용하여 생성된 가상도형(400)을 획득하는 것을 포함할 수 있다.Referring to FIG. 11 , in the frame inspection apparatus including a
전자 장치(1000)는 메모리(1100) 및 프로세서(1300)를 포함할 수 있다. 본 발명에 따른 프레임(100) 검침 방법으로 수행되는 알고리즘은 전자 장치(1000)의 프로세서(1300)에 의해 수행될 수 있으며, 전자 장치(1000)의 메모리(1100)에 저장될 수 있다.The
다음으로, 본 발명의 실시예에 따른 프레임 검침 장치는, 촬영수단(1600)을 더 포함하고, 상기 촬영수단(1600)은, 상기 적어도 하나의 프레임(100)을 촬영하여 상기 이미지(10)를 획득할 수 있다.Next, the frame inspection device according to an embodiment of the present invention further includes a photographing
이미지(10)는 촬영수단(1600)을 통해 획득될 수 있으며, 메모리(1100)는 촬영된 이미지(10)를 저장할 수 있으며, 프로세서(1300)는 저장된 이미지(10)를 통해 프레임 검침 방법을 수행할 수 있다.The
다음으로, 본 발명의 실시예에 따른 프레임 검침 장치는, 출력부(1200)를 더 포함하고, 상기 출력부(1200)는, 획득한 상기 가상도형(400)을 포함하는 정보를 제공할 수 있다.Next, the frame inspection apparatus according to an embodiment of the present invention may further include an
출력부(1200)는 가상도형(400)을 포함하는 정보를 제공할 수 있다. 출력부(1200)는 가상도형(400)의 형상을 표시할 수 있다. 출력부(1200)는 가상도형(400)의 사이즈를 표시할 수 있다. 또한, 출력부(1200)는 가상도형(400)의 사이즈 및 보정값을 이용한 실제 자재(500)의 사이즈를 표시할 수 있다. 출력부(1200)는 종류에 따라 상기한 사이즈를 시각 또는 청각 정보 형태로 제공할 수 있다.The
다음으로, 본 발명의 실시예에 따른 프레임 검침 장치는, 통신부(1500)를 더 포함하고, 상기 통신부(1500)는, 상기 이미지(10)를 외부장치부터 획득하고, 상기 가상도형(400)을 포함하는 정보를 외부장치에 제공할 수 있다.Next, the frame inspection apparatus according to an embodiment of the present invention further includes a
이미지(10)는 외부장치로부터 획득될 수 있다. 이때, 통신부(1500)는 외부장치로부터 이미지(10) 데이터를 수신할 수 있다. 한편, 통신부(1500)는 가상도형(400)의 형상, 가상도형(400)의 사이즈 및/또는 실제 자재(500)의 사이즈 데이터를 외부장치에 송신할 수 있다.The
다음으로, 본 발명의 실시예에 따른 프레임 검침 장치는, 입력부를 더 포함하고, 상기 입력부는, 상기 가상도형(400)을 기준으로 상기 각 프레임(100)에 결합될 자재(500)의 사이즈를 결정하기 위해, 상기 가상도형(400)과 상기 각 프레임(100)에 결합될 자재(500)의 사이즈 차이에 해당하는 보정값을 입력할 수 있다.Next, the frame inspection device according to an embodiment of the present invention further includes an input unit, wherein the input unit determines the size of the material 500 to be coupled to each
각 프레임(100)에 결합될 자재(500)의 사이즈는 보정값에 의해 결정될 수 있으므로, 입력부는 보정값을 메모리(1100) 및/또는 프로세서(1300)에 보정값을 제공할 수 있다. 이를 통해 프로세서(1300)는 자재(500)의 사이즈를 결정할 수 있다.Since the size of the material 500 to be combined with each
전술한 바와 같이, 본 발명의 바람직한 실시 예를 참조하여 설명하였지만, 해당 기술 분야의 통상의 기술자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역에서 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 또는 변형하여As described above, although it has been described with reference to preferred embodiments of the present invention, those skilled in the art can variously modify the present invention within the scope not departing from the spirit and scope of the present invention described in the claims below. or by transforming
실시할 수 있다.can be carried out.
10 : 이미지
100 : 프레임
110 : 지지대
130 : 반사마크
200 : 관심영역
300 : 특징점
400 : 가상도형
500 : 자재
600 : 레퍼런스 객체
1000 : 전자 장치
1100 : 메모리
1200 : 출력부
1300 : 프로세서
1500 : 통신부
1600 : 촬영수단10: Image
100: frame
110: support
130: reflective mark
200: area of interest
300: feature point
400: virtual figure
500: material
600: reference object
1000: electronic device
1100: memory
1200: output unit
1300: processor
1500: Ministry of Communications
1600: shooting means
Claims (14)
적어도 하나의 프레임을 포함하는 이미지를 획득하는 단계;
상기 이미지를 각 프레임 별로 분석하기 위한 적어도 하나의 관심영역으로 구분하는 단계;
각 관심영역 별로 상기 각 관심영역에서 복수의 특징점을 추출하는 단계; 및
상기 복수의 특징점을 연결한 가상의 선을 이용하여 생성된 가상도형을 획득하는 단계;를 포함하는, 프레임 검침 방법.In the frame inspection method stored in a memory or performed by a processor,
obtaining an image including at least one frame;
dividing the image into at least one region of interest to be analyzed for each frame;
extracting a plurality of feature points from each region of interest for each region of interest; and
and obtaining a virtual figure generated by using a virtual line connecting the plurality of feature points.
상기 관심영역으로 구분하는 단계는,
상기 이미지에서 상기 적어도 하나의 프레임에 해당하는 기준 색의 정보를 추출하는 단계;
상기 기준 색을 이용하여 상기 각 프레임의 복수의 모서리를 추출하는 단계; 및
상기 복수의 모서리에 의해 형성된 폐쇄영역을 하나씩 포함하는 상기 적어도 하나의 관심영역을 구분하는 단계를 포함하는, 프레임 검침 방법.According to claim 1,
The step of classifying into the region of interest,
extracting reference color information corresponding to the at least one frame from the image;
extracting a plurality of edges of each frame using the reference color; and
and dividing the at least one region of interest including one closed region formed by the plurality of corners.
상기 복수의 특징점을 추출하는 단계는,
상기 각 관심영역 내에 있는 상기 각 프레임의 꼭짓점을 상기 복수의 특징점으로 추출하는, 프레임 검침 방법.According to claim 1,
The step of extracting the plurality of feature points,
A frame inspection method of extracting vertices of each frame in each region of interest as the plurality of feature points.
상기 관심영역으로 구분하는 단계는,
상기 이미지에서 상기 적어도 하나의 프레임에 해당하는 기준 색의 정보를 추출하는 단계; 및
상기 기준 색을 이용하여 상기 각 프레임에 연결된 복수의 지지점을 추출하는 단계; 및
상기 각 프레임에만 연결된 복수의 지지점을 포함하는 상기 적어도 하나의 관심영역을 구분하는 단계를 포함하는, 프레임 검침 방법.According to claim 1,
The step of classifying into the region of interest,
extracting reference color information corresponding to the at least one frame from the image; and
extracting a plurality of support points connected to each frame using the reference color; and
and dividing the at least one region of interest including a plurality of support points connected only to each frame.
상기 복수의 특징점을 추출하는 단계는,
상기 각 관심영역 내에 있는 상기 복수의 지지점을 상기 복수의 특징점으로 추출하는, 프레임 검침 방법.According to claim 1,
The step of extracting the plurality of feature points,
The frame inspection method of extracting the plurality of support points in each region of interest as the plurality of feature points.
상기 가상의 선은 상기 복수의 특징점에서, 제1특징점으로부터 제2특징점 및 제1특징점으로부터 제3특징점을 연결한 선들의 집합인, 프레임 검침 방법.According to claim 1,
The virtual line is a set of lines connecting the first feature point to the second feature point and the first feature point to the third feature point among the plurality of feature points.
상기 관심영역으로 구분하는 단계는,
인공지능모델을 이용하는 것을 특징으로 하는, 프레임 검침 방법.According to claim 1,
The step of classifying into the region of interest,
Characterized in that using an artificial intelligence model, a frame meter reading method.
상기 가상도형을 기준으로 상기 각 프레임에 결합될 자재의 사이즈를 결정하는 단계;를 더 포함하는, 프레임 검침 방법.According to claim 1,
The frame inspection method further comprising determining a size of a material to be combined with each frame based on the virtual figure.
상기 이미지는 사이즈의 절대 수치를 알고 있는 레퍼런스 객체를 포함하며,
상기 가상도형을 획득하는 단계는,
상기 가상도형과 상기 레퍼런스 객체의 상대적인 비율을 고려하여, 상기 가상도형의 사이즈를 측정하는, 프레임 검침 방법.According to claim 1,
The image includes a reference object whose absolute size is known;
The step of obtaining the virtual figure,
A frame inspection method of measuring a size of the virtual figure in consideration of a relative ratio between the virtual figure and the reference object.
상기 메모리에 의해 저장되거나, 상기 프로세서에 의해 수행되는 알고리즘은,
적어도 하나의 프레임을 포함하는 이미지를 획득하고, 상기 이미지를 각 프레임 별로 분석하기 위한 복수의 관심영역으로 구분하고, 각 관심영역 별로 상기 각 관심영역에서 복수의 특징점을 추출하고, 상기 복수의 특징점을 연결한 가상의 선을 이용하여 생성된 가상도형을 획득하는 것을 포함하는, 프레임 검침 장치.In the frame inspection device including a memory and a processor,
The algorithm stored by the memory or executed by the processor,
An image including at least one frame is acquired, the image is divided into a plurality of regions of interest for analysis for each frame, a plurality of feature points are extracted from each region of interest for each region of interest, and the plurality of feature points are A frame inspection device comprising obtaining a virtual figure generated by using a connected virtual line.
촬영수단을 더 포함하고,
상기 촬영수단은, 상기 적어도 하나의 프레임을 촬영하여 상기 이미지를 획득하는, 프레임 검침 장치.According to claim 10,
Including more shooting means,
wherein the photographing means obtains the image by photographing the at least one frame.
출력부를 더 포함하고,
상기 출력부는, 획득한 상기 가상도형을 포함하는 정보를 제공하는, 프레임 검침 장치.According to claim 10,
further comprising an output unit;
wherein the output unit provides information including the obtained virtual figure.
통신부를 더 포함하고,
상기 통신부는, 상기 이미지를 외부장치부터 획득하고, 상기 가상도형을 포함하는 정보를 외부장치에 제공하는, 프레임 검침 장치.According to claim 10,
Further comprising a communication unit,
wherein the communication unit obtains the image from an external device and provides information including the virtual figure to the external device.
입력부를 더 포함하고,
상기 입력부는, 상기 가상도형을 기준으로 상기 각 프레임에 결합될 자재의 사이즈를 결정하기 위해, 상기 가상도형과 상기 각 프레임에 결합될 자재의 사이즈 차이에 해당하는 보정값을 입력하는, 프레임 검침 장치.
According to claim 10,
Including more input,
The input unit inputs a correction value corresponding to a size difference between the virtual figure and the material to be combined with each frame in order to determine the size of the material to be combined with each frame based on the virtual figure. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210168645A KR20230080999A (en) | 2021-11-30 | 2021-11-30 | Device For Reading Frame And Its Method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210168645A KR20230080999A (en) | 2021-11-30 | 2021-11-30 | Device For Reading Frame And Its Method |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230080999A true KR20230080999A (en) | 2023-06-07 |
Family
ID=86760907
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210168645A KR20230080999A (en) | 2021-11-30 | 2021-11-30 | Device For Reading Frame And Its Method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230080999A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210037047A (en) | 2019-09-26 | 2021-04-06 | 주식회사 원포인트듀오 | Method for measuring the area of outdoor advertisements using Smart terminal |
-
2021
- 2021-11-30 KR KR1020210168645A patent/KR20230080999A/en not_active Application Discontinuation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210037047A (en) | 2019-09-26 | 2021-04-06 | 주식회사 원포인트듀오 | Method for measuring the area of outdoor advertisements using Smart terminal |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108764091B (en) | Living body detection method and apparatus, electronic device, and storage medium | |
CN110121118B (en) | Video clip positioning method and device, computer equipment and storage medium | |
Drǎguţ et al. | ESP: a tool to estimate scale parameter for multiresolution image segmentation of remotely sensed data | |
US10110868B2 (en) | Image processing to determine center of balance in a digital image | |
CN111739035B (en) | Image processing method, device and equipment based on artificial intelligence and storage medium | |
CN111598091A (en) | Image recognition method and device, electronic equipment and computer readable storage medium | |
EP3121557B1 (en) | Method and apparatus for determining spatial parameter based on an image | |
CN109816745B (en) | Human body thermodynamic diagram display method and related products | |
JP2017520050A (en) | Local adaptive histogram flattening | |
CN105138962A (en) | Image display method and image display device | |
WO2022077958A1 (en) | Water-body segmentation method and apparatus, electronic device, and storage medium | |
CN110062157B (en) | Method and device for rendering image, electronic equipment and computer readable storage medium | |
US20140126819A1 (en) | Region of Interest Based Image Registration | |
CN111932681A (en) | House information display method and device and electronic equipment | |
EA036032B1 (en) | System and method for measuring hair diameter | |
WO2023197780A1 (en) | Image processing method and apparatus, electronic device, and storage medium | |
CN111340015A (en) | Positioning method and device | |
US20160140748A1 (en) | Automated animation for presentation of images | |
CN115496759B (en) | Dust detection method and device and storage medium | |
KR20230080999A (en) | Device For Reading Frame And Its Method | |
CN113453027A (en) | Live video and virtual makeup image processing method and device and electronic equipment | |
WO2023142396A1 (en) | Test method and apparatus for relocation module, device, system, medium, computer program, and computer program product | |
CN109785439A (en) | Human face sketch image generating method and Related product | |
CN113269730B (en) | Image processing method, image processing device, computer equipment and storage medium | |
CN107742316B (en) | Image splicing point acquisition method and acquisition device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal |