KR20220067387A - 이미지의 레이아웃 분석 방법 및 시스템 - Google Patents

이미지의 레이아웃 분석 방법 및 시스템 Download PDF

Info

Publication number
KR20220067387A
KR20220067387A KR1020200154026A KR20200154026A KR20220067387A KR 20220067387 A KR20220067387 A KR 20220067387A KR 1020200154026 A KR1020200154026 A KR 1020200154026A KR 20200154026 A KR20200154026 A KR 20200154026A KR 20220067387 A KR20220067387 A KR 20220067387A
Authority
KR
South Korea
Prior art keywords
layout
class
image
mask data
layout analysis
Prior art date
Application number
KR1020200154026A
Other languages
English (en)
Other versions
KR102509343B1 (ko
Inventor
구형일
김용균
Original Assignee
아주대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아주대학교산학협력단 filed Critical 아주대학교산학협력단
Priority to KR1020200154026A priority Critical patent/KR102509343B1/ko
Publication of KR20220067387A publication Critical patent/KR20220067387A/ko
Application granted granted Critical
Publication of KR102509343B1 publication Critical patent/KR102509343B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

본 개시의 기술적 사상에 의한 일 양태에 따른 이미지의 레이아웃 분석 시스템은, 적어도 하나의 클래스를 포함하는 이미지를 획득하는 이미지 획득 모듈, 획득된 이미지 중 분석할 영역을 지정하는 마스크 데이터를 획득하는 마스크 데이터 획득 모듈, 및 상기 획득된 이미지 중, 상기 마스크 데이터에 의해 지정된 영역의 클래스 및 상기 클래스의 레이아웃을 예측하는 레이아웃 분석 모듈을 포함하고, 상기 레이아웃 분석 모듈은, 상기 이미지 및 상기 마스크 데이터를 입력받고, 입력받은 상기 이미지 및 상기 마스크 데이터에 기초하여 상기 클래스 및 상기 레이아웃을 예측한 예측 결과를 출력하도록 학습된 레이아웃 분석 네트워크를 포함한다.

Description

이미지의 레이아웃 분석 방법 및 시스템{METHOD AND SYSTEM FOR ANALYZING LAYOUT OF IMAGE}
본 개시(disclosure)의 기술적 사상은 이미지의 레이아웃을 분석하는 방법 및 시스템에 관한 것이다.
텍스트, 표, 그림, 사진 등의 각종 클래스의 정보가 혼재된 이미지(예컨대, 문서 이미지 등)의 분석 또는 처리 작업 시, 이미지 내의 각 클래스마다 분석 방식이나 처리 방식이 상이할 수 있는 바, 각 클래스를 정확히 구분하는 동작이 중요할 수 있다. 예컨대 상기 이미지의 분석 또는 처리 작업은, 이미지 내의 색인 생성이나 검색, 이미지 내의 객체 탐지 또는 인식, OCR(optical character recognition), 데이터 압축 등을 포함할 수 있다.
이미지 내의 각 클래스를 구분하기 위해서는, 각 클래스에 대응하는 영역(또는 경계(레이아웃))의 정확한 검출이 요구되고, 각 클래스를 정확히 식별하는 것 또한 요구될 수 있다.
종래의 경우, 텍스트나 그림 등의 구별을 위해 정의된 규칙(알고리즘 등)에 기초하여 레이아웃을 검출하거나 클래스를 식별하는 방법이 주류를 이루었으나, 상기 규칙은 대부분 일반화된 규칙에 해당하는 바 새로운 패턴의 클래스에 대한 검출 및 식별 정확도가 낮을 수 있고, 시스템의 복잡화에 따른 규칙의 개선이나 변경이 용이하지 않을 수 있다.
또한, 종래의 방식은 대부분 각 클래스의 레이아웃을 사각형과 같은 제한적인 형태의 도형으로 표현함에 따라, 레이아웃 내에 해당 클래스의 영역이 모두 포함되지 못하거나, 다른 클래스의 영역이 포함되는 등 상기 레이아웃의 검출 정확도가 향상되기 어려울 수 있다.
본 발명이 해결하고자 하는 일 과제는, 텍스트, 표, 그림, 사진 등 다양한 클래스를 갖는 이미지(문서 이미지 등)로부터, 소정 영역에 대한 레이아웃(경계) 및 클래스를 보다 정확히 검출할 수 있는 방법을 제공하는 것이다.
상기와 같은 목적을 달성하기 위하여, 본 개시의 기술적 사상에 의한 일 양태(aspect)에 따른 이미지의 레이아웃 분석 시스템은, 적어도 하나의 클래스를 포함하는 이미지를 획득하는 이미지 획득 모듈, 획득된 이미지 중 분석할 영역을 지정하는 마스크 데이터를 획득하는 마스크 데이터 획득 모듈, 및 상기 획득된 이미지 중, 상기 마스크 데이터에 의해 지정된 영역의 클래스 및 상기 클래스의 레이아웃을 예측하는 레이아웃 분석 모듈을 포함하고, 상기 레이아웃 분석 모듈은, 상기 이미지 및 상기 마스크 데이터를 입력받고, 입력받은 상기 이미지 및 상기 마스크 데이터에 기초하여 상기 클래스 및 상기 레이아웃을 예측한 예측 결과를 출력하도록 학습된 레이아웃 분석 네트워크를 포함한다.
실시 예에 따라, 상기 클래스의 레이아웃은 상기 이미지 중, 상기 마스크 데이터에 의해 지정된 영역에 존재하는 클래스가 차지하는 영역의 경계에 대응할 수 있다.
실시 예에 따라, 상기 레이아웃 분석 네트워크는, 상기 클래스의 레이아웃을 나타내는 복수의 포인트들에 대응하는 복수의 좌표들을 출력하고, 상기 레이아웃 분석 모듈은, 상기 출력된 복수의 좌표들에 기초하여 상기 클래스의 레이아웃 정보를 생성하는 레이아웃 생성기를 더 포함할 수 있다.
실시 예에 따라, 상기 레이아웃 생성기는 상기 복수의 포인트들을 연결한 다각형의 형태로 표현되는 상기 레이아웃 정보를 생성하고, 상기 복수의 포인트들 중 적어도 일부는 상기 다각형의 꼭지점들에 대응할 수 있다.
실시 예에 따라, 상기 레이아웃 분석 시스템은 상기 예측 결과에 기초하여 상기 레이아웃 분석 네트워크의 학습을 수행하는 네트워크 학습 모듈을 더 포함하고, 상기 네트워크 학습 모듈은 상기 레이아웃 정보와 정답 레이아웃 정보, 및 예측된 클래스 정보 및 정답 클래스 정보에 기초하여 상기 레이아웃 분석 네트워크를 업데이트할 수 있다.
실시 예에 따라, 상기 네트워크 학습 모듈은 상기 레이아웃 정보에 대응하는 레이아웃 영역과, 상기 정답 레이아웃 정보에 대응하는 정답 레이아웃 영역의 차집합의 면적 또는 교집합의 면적 중 적어도 하나에 기초하여 상기 레이아웃 분석 네트워크에 포함된 신경망의 노드들 간의 가중치를 업데이트할 수 있다.
실시 예에 따라, 상기 적어도 하나의 클래스는 상기 이미지에 포함된 정보의 형태를 나타내고, 상기 마스크 데이터는 상기 이미지 중 상기 분석할 영역에 대응하는 적어도 하나의 지점을 나타내는 점, 선, 또는 영역이 표현된 마스크 이미지를 포함할 수 있다.
본 개시의 기술적 사상에 의한 일 양태에 따른 이미지의 레이아웃 분석 방법은, 적어도 하나의 클래스를 포함하는 이미지를 획득하는 단계; 획득된 이미지 중 분석할 영역을 지정하는 마스크 데이터를 획득하는 단계; 상기 획득된 이미지 중, 상기 마스크 데이터에 의해 지정된 영역의 클래스 및 상기 클래스의 레이아웃을 예측하도록 학습된 레이아웃 분석 네트워크로, 상기 이미지 및 마스크 데이터를 입력하는 단계; 및 상기 레이아웃 분석 네트워크를 통해, 상기 입력된 이미지 중 상기 마스크 데이터에 의해 지정된 영역의 클래스 및 상기 클래스의 레이아웃을 예측한 예측 결과를 획득하는 단계를 포함한다.
본 개시의 실시 예에 따른 레이아웃 분석 방법은, 딥러닝 기반의 레이아웃 분석 네트워크를 이용하여 이미지 내의 소정 영역에 대한 클래스 식별 및 레이아웃 검출을 수행함으로써, 시스템 설계 시 도메인 지식 의존성을 크게 감소시키면서도 정확한 분석 결과를 획득할 수 있다.
또한, 본 개시의 실시 예에 따르면 검출된 레이아웃을 직사각형 등의 한정된 형태가 아닌 다양한 형태의 다각형으로 표현 가능하도록 구현되어, 레이아웃의 검출 정확도를 극대화할 수 있다.
본 개시의 기술적 사상에 따른 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 개시에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 본 개시의 예시적 실시 예에 따른 이미지의 레이아웃 분석 방법이 구현되는 레이아웃 분석 시스템의 개략적인 블록도이다.
도 2는 도 1에 도시된 레이아웃 분석 모듈에 포함된 구성의 일 실시 예를 나타내는 블록도이다.
도 3은 본 개시의 예시적 실시 예에 따른 이미지의 레이아웃 분석 방법을 설명하기 위한 플로우차트이다.
도 4는 도 3의 이미지 획득 단계에서 획득되는 이미지의 일례로서 문서 이미지를 나타낸다.
도 5는 도 3의 마스크 데이터 획득 단계에서 획득되는 마스크 데이터의 예들을 나타낸다.
도 6은 도 2에 도시된 레이아웃 분석 네트워크가, 이미지 및 마스크 데이터로부터 레이아웃과 관련된 복수의 포인트들 및 클래스 정보를 출력하는 동작을 나타낸다.
도 7은 도 2에 도시된 레이아웃 생성기가, 레이아웃 분석 네트워크로부터 출력된 복수의 포인트들에 기초하여 레이아웃 정보를 생성하는 동작을 나타낸다.
도 8은 레이아웃 분석 모듈에 포함된 레이아웃 분석 네트워크의 학습 동작을 설명하기 위한 예시도이다.
도 9는 본 개시의 예시적 실시 예에 따른 이미지의 레이아웃 분석 방법을 수행하는 디바이스의 개략적인 블록도이다.
본 개시의 기술적 사상에 따른 예시적인 실시 예들은 당해 기술 분야에서 통상의 지식을 가진 자에게 본 개시의 기술적 사상을 더욱 완전하게 설명하기 위하여 제공되는 것으로, 아래의 실시 예들은 여러 가지 다른 형태로 변형될 수 있으며, 본 개시의 기술적 사상의 범위가 아래의 실시 예들로 한정되는 것은 아니다. 오히려, 이들 실시 예들은 본 개시를 더욱 충실하고 완전하게 하며 당업자에게 본 발명의 기술적 사상을 완전하게 전달하기 위하여 제공되는 것이다.
본 개시에서 제1, 제2 등의 용어가 다양한 부재, 영역, 층들, 부위 및/또는 구성 요소들을 설명하기 위하여 사용되지만, 이들 부재, 부품, 영역, 층들, 부위 및/또는 구성 요소들은 이들 용어에 의해 한정되어서는 안 됨은 자명하다. 이들 용어는 특정 순서나 상하, 또는 우열을 의미하지 않으며, 하나의 부재, 영역, 부위, 또는 구성 요소를 다른 부재, 영역, 부위 또는 구성 요소와 구별하기 위하여만 사용된다. 따라서, 이하 상술할 제1 부재, 영역, 부위 또는 구성 요소는 본 개시의 기술적 사상의 가르침으로부터 벗어나지 않고서도 제2 부재, 영역, 부위 또는 구성 요소를 지칭할 수 있다. 예를 들면, 본 개시의 권리 범위로부터 이탈되지 않은 채 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.
달리 정의되지 않는 한, 여기에 사용되는 모든 용어들은 기술 용어와 과학 용어를 포함하여 본 개시의 개념이 속하는 기술 분야에서 통상의 지식을 가진 자가 공통적으로 이해하고 있는 바와 동일한 의미를 지닌다. 또한, 통상적으로 사용되는, 사전에 정의된 바와 같은 용어들은 관련되는 기술의 맥락에서 이들이 의미하는 바와 일관되는 의미를 갖는 것으로 해석되어야 하며, 여기에 명시적으로 정의하지 않는 한 과도하게 형식적인 의미로 해석되어서는 아니 될 것이다.
어떤 실시 예가 달리 구현 가능한 경우에 특정한 공정 순서는 설명되는 순서와 다르게 수행될 수도 있다. 예를 들면, 연속하여 설명되는 두 공정이 실질적으로 동시에 수행될 수도 있고, 설명되는 순서와 반대의 순서로 수행될 수도 있다.
첨부한 도면에 있어서, 예를 들면, 제조 기술 및/또는 공차에 따라, 도시된 형상의 변형들이 예상될 수 있다. 따라서, 본 개시의 기술적 사상에 의한 실시 예들은 본 개시에 도시된 영역의 특정 형상에 제한된 것으로 해석되어서는 아니 되며, 예를 들면, 제조 과정에서 초래되는 형상의 변화를 포함하여야 한다. 도면 상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고, 이들에 대한 중복된 설명은 생략한다.
여기에서 사용된 '및/또는' 용어는 언급된 부재들의 각각 및 하나 이상의 모든 조합을 포함한다.
이하에서는 첨부한 도면들을 참조하여 본 개시의 기술적 사상에 의한 실시 예들에 대해 상세히 설명한다.
도 1은 본 개시의 예시적 실시 예에 따른 이미지의 레이아웃 분석 방법이 구현되는 레이아웃 분석 시스템의 개략적인 블록도이다. 도 2는 도 1에 도시된 레이아웃 분석 모듈에 포함된 구성의 일 실시 예를 나타내는 블록도이다.
도 1을 참조하면, 본 개시의 실시 예에 따른 이미지의 레이아웃 분석 방법이 구현되는 시스템(100; 이하 '레이아웃 분석 시스템'이라 정의함)은, 텍스트, 표, 그림, 사진 등의 다양한 클래스가 혼재된 이미지(예컨대 문서 이미지 등)로부터, 소정 지점에 대응하는 클래스의 레이아웃을 검출하고, 해당 클래스를 식별하는 분석 동작을 수행할 수 있다. 상기 클래스는 데이터(또는 정보)의 속성이나 형태를 의미할 수 있다.
이러한 레이아웃 분석 시스템(100)은 적어도 하나의 컴퓨팅 장치를 포함할 수 있다. 예컨대, 상기 적어도 하나의 컴퓨팅 장치 각각은 프로세서, 메모리, 통신 인터페이스, 입력부, 및/또는 출력부 등을 포함하는 하드웨어 기반의 장치에 해당한다. 이 경우, 레이아웃 분석 시스템(100)에 포함되는 구성들은 하드웨어, 소프트웨어, 또는 이들의 조합으로 구현될 수 있으며, 상기 적어도 하나의 컴퓨팅 장치에 통합 또는 분할되어 구현될 수 있다.
본 개시의 일 실시 예에 따른 레이아웃 분석 시스템(100)은 이미지 획득 모듈(110), 마스크 데이터 획득 모듈(120), 레이아웃 분석 모듈(130), 및 네트워크 학습 모듈(140)을 포함할 수 있다.
이미지 획득 모듈(110)은, 레이아웃의 검출 및 클래스 식별을 수행할 분석 대상 이미지를 획득하거나, 후술할 레이아웃 분석 모듈(130)의 학습 동작을 위한 학습용 이미지를 획득할 수 있다. 상기 분석 대상 이미지 또는 학습용 이미지는, 텍스트, 표, 그림, 사진 등 다양한 클래스가 혼재된 이미지(예컨대 문서 이미지)에 해당할 수 있다.
이미지 획득 모듈(110)은 레이아웃 분석 시스템(100)에 포함된 입력 수단이나 인터페이스를 통해 사용자 또는 관리자 등으로부터 상기 분석 대상 이미지 또는 학습용 이미지를 획득할 수 있다. 실시 예에 따라, 이미지 획득 모듈(110)은 네트워크를 통해 연결되는 디바이스, 서버, 데이터베이스 등으로부터 상기 분석 대상 이미지 또는 학습용 이미지를 획득할 수도 있다.
마스크 데이터 획득 모듈(120)은, 획득된 이미지 중 분석할 영역을 지정하는 마스크 데이터를 획득할 수 있다. 상기 마스크 데이터는 분석할 영역에 포함된 적어도 하나의 지점을 포함할 수 있다. 예컨대, 상기 마스크 데이터는 도 5에서 후술할 바와 같이 상기 적어도 하나의 지점을 나타내는 점, 선, 또는 영역 등이 표현된 마스크 이미지 형태로 제공되거나, 상기 적어도 하나의 지점의 좌표값을 포함할 수 있다. 상기 마스크 데이터는 레이아웃 분석 시스템(100)에 포함된 입력 수단을 통해 사용자 등으로부터 입력될 수 있으나, 이에 한정되는 것은 아니다.
레이아웃 분석 모듈(130)은, 획득된 이미지 및 마스크 데이터를 분석하여, 상기 이미지 중 상기 마스크 데이터에 의해 지정되는 영역의 클래스를 식별한 클래스 정보, 및 상기 클래스가 존재하는 영역에 대한 레이아웃 정보를 포함하는 예측 결과(분석 결과)를 출력할 수 있다.
본 개시의 실시 예에 따른 레이아웃 분석 방법은, 딥러닝 기반으로 학습된 레이아웃 분석 네트워크를 이용하여, 상기 이미지 중 상기 마스크 데이터에 의해 지정되는 영역의 클래스 예측 및/또는 상기 클래스의 레이아웃 예측을 수행할 수 있다. 또한, 본 레이아웃 분석 방법에 따르면, 상기 예측된 클래스가 존재하는 영역의 레이아웃을 나타낼 때 레이아웃 형태의 제한을 최소화할 수 있다. 구체적으로, 본 개시의 레이아웃 분석 방법은 직사각형 등의 제한적인 형태의 도형뿐만 아니라 비정형적인 형태의 다각형(도 6 내지 도 8의 실시 예 참조)으로 레이아웃을 나타낼 수 있도록 구현됨으로써, 레이아웃의 검출 정확도를 극대화할 수 있다.
이와 관련하여 도 2를 참조하면, 레이아웃 분석 모듈(130)은 레이아웃 분석 네트워크(132)를 포함할 수 있다.
레이아웃 분석 네트워크(132)는 이미지 획득 모듈(110)에 의해 획득된 이미지와, 마스크 데이터 획득 모듈(120)에 의해 획득된 마스크 데이터가 입력되면, 상기 이미지 중 마스크 데이터에 의해 지정되는 영역의 레이아웃 예측 결과와, 상기 영역의 클래스 예측 결과를 출력할 수 있다. 상기 이미지 중 상기 마스크 데이터에 의해 지정되는 영역이란, 상기 마스크 데이터에 포함된 적어도 하나의 지점(좌표값 등)에 위치한 클래스(텍스트, 표, 그림, 사진 등)가 차지하는 영역을 의미할 수 있다.
레이아웃 분석 네트워크(132)는 딥러닝 기반의 학습을 통해 구현될 수 있고, 이러한 레이아웃 분석 네트워크(132)는 신경망(neural network) 구조를 포함할 수 있다. 예컨대, 레이아웃 분석 네트워크(132)는 콘볼루션 신경망(convolutional neural network(CNN))을 포함할 수 있으나, 이에 한정되는 것은 아니다. 예컨대, 상기 CNN은 입력된 이미지로부터 특징을 추출하여 특징 맵을 형성하는 적어도 하나의 콘볼루션 레이어(convolutional layers) 및 풀링 레이어(pooling layer), 추출된 특징을 신경망에 적용하여 이미지 내의 영역들 중 상기 마스크 데이터에 의해 지정된 영역에 존재하는 클래스의 레이아웃을 나타내는 복수의 포인트들과, 상기 지정된 영역의 클래스 정보를 출력하는 fully-connected 레이어 및 softmax 레이어를 포함할 수 있다.
상기 복수의 포인트들은, 상기 이미지 중 상기 마스크 데이터에 의해 지정되는 영역에 존재하는 클래스의 레이아웃을 나타내는 복수의 좌표들에 포함될 수 있다. 예컨대, 상기 복수의 포인트들 중 적어도 일부는, 다각형 형태의 상기 레이아웃의 꼭지점들에 대응할 수 있다. 상기 레이아웃은, 상기 지정된 영역에 존재하는 클래스와, 상기 클래스와 인접한 다른 클래스 사이의 경계를 의미할 수 있다. 다르게 표현하면, 상기 레이아웃은 상기 이미지 중, 상기 지정된 영역에 존재하는 클래스가 차지하는 영역의 경계를 의미할 수 있다.
실시 예에 따라, 레이아웃 분석 모듈(130)은 레이아웃 생성기(134)를 더 포함할 수 있다. 레이아웃 생성기(134)는 레이아웃 분석 네트워크(132)로부터 출력되는 복수의 포인트들로부터 레이아웃 정보를 생성할 수 있다. 예컨대, 레이아웃 생성기(134)는 직교 투영(orthographic projection) 등의 기법에 기초하여 상기 복수의 포인트들을 연결하여, 다각형 형태를 갖는 레이아웃 정보를 생성할 수 있다. 이 때, 상기 다각형은 상기 클래스가 존재하는 영역을 모두 포함하도록 생성될 수 있다.
상기 레이아웃 정보는 이미지에 포함된 좌표값들(픽셀 좌표 등) 중, 레이아웃(다각형)에 포함되는 좌표값들의 정보를 포함하거나, 좌표값들 각각이 상기 예측된 레이아웃(또는 레이아웃의 내부 영역)에 포함되는지 여부에 대한 정보를 포함할 수 있다.
상기 클래스 정보는, 상기 이미지 중 상기 마스크 데이터에 대응하는 영역의 클래스(예컨대 텍스트, 표, 그림, 사진 등)를 나타낼 수 있다.
네트워크 학습 모듈(140)은, 레이아웃 분석 모듈(130)에 의해 예측된 레이아웃 정보 및 클래스 정보와, 기 제공되는 정답(ground truth) 레이아웃 정보 및 정답 클래스 정보에 기초하여, 레이아웃 분석 네트워크(132)에 대한 학습을 수행할 수 있다.
예컨대, 네트워크 학습 모듈(140)은 레이아웃 분석 네트워크(132)의 학습을 위한 목적 함수를 포함할 수 있다. 상기 목적 함수는, 상기 예측된 레이아웃 영역과 상기 정답 레이아웃 정보에 따른 레이아웃 영역 간의 차이와, 상기 예측된 클래스 정보와 정답 클래스 정보 간의 차이를 반영하여 레이아웃 분석 네트워크(132)의 학습을 수행하도록 구현될 수 있다. 예컨대, 상기 목적 함수는 예측된 레이아웃 영역과 정답 레이아웃 영역의 차집합의 면적, 차집합의 면적의 제곱, 교집합의 면적과 합집합의 면적(예를 들어, 1-(교집합의 면적)/(합집합의 면적)) 등에 기초하여 학습을 수행하도록 구현될 수 있다. 또한, 상기 목적 함수는 예측된 클래스 정보와 정답 클래스 정보에 기초한 cross-entropy loss가 최소화되는 방향으로 레이아웃 분석 네트워크(132)를 학습하도록 구현될 수 있다. 다만, 상기 목적 함수의 구현 방식이 상술한 예에 한정되는 것은 아닌 바, 목적 함수는 레이아웃 분석 네트워크(132)의 학습을 위한 공지된 다양한 방식으로 구현될 수 있다.
한편, 본 명세서에서 사용되는 '학습'은 러닝(learning), 훈련(또는 트레이닝(training))과 동일한 의미일 수 있으며, 학습을 수행한다는 의미는 네트워크가 학습을 수행하거나, 네트워크를 학습시키는 의미 모두를 포함할 수 있다.
도 3은 본 개시의 예시적 실시 예에 따른 이미지의 레이아웃 분석 방법을 설명하기 위한 플로우차트이다. 도 4는 도 3의 이미지 획득 단계에서 획득되는 이미지의 일례로서 문서 이미지를 나타낸다. 도 5는 도 3의 마스크 데이터 획득 단계에서 획득되는 마스크 데이터의 예들을 나타낸다. 도 6은 도 2에 도시된 레이아웃 분석 네트워크가, 이미지 및 마스크 데이터로부터 레이아웃과 관련된 복수의 포인트들 및 클래스 정보를 출력하는 동작을 나타낸다. 도 7은 도 2에 도시된 레이아웃 생성기가, 레이아웃 분석 네트워크로부터 출력된 복수의 포인트들에 기초하여 레이아웃 정보를 생성하는 동작을 나타낸다. 도 8은 레이아웃 분석 모듈에 포함된 레이아웃 분석 네트워크의 학습 동작을 설명하기 위한 예시도이다.
도 3을 참조하면, 상기 레이아웃 분석 방법은 이미지를 획득하는 단계(S300), 및 획득된 이미지 중 분석할 영역에 대응하는 마스크 데이터를 획득하는 단계(S310)를 포함할 수 있다.
상술한 바와 같이, 레이아웃 분석 시스템(100)은 레이아웃의 검출 및 클래스 식별을 수행할 분석 대상 이미지, 또는 학습용 이미지를 획득할 수 있다. 상기 이미지는 각종 입력 수단이나 인터페이스를 통해 사용자 등으로부터 획득되거나, 네트워크를 통해 연결된 디바이스, 서버 등으로부터 획득될 수 있다.
상기 이미지는 텍스트, 표, 그림, 사진 등 다양한 클래스가 혼재된 이미지에 해당할 수 있다. 상기 이미지의 일례로서 도 4의 문서 이미지(400)를 참조하면, 문서 이미지(400)는 제1 텍스트 영역(401), 제2 텍스트 영역(402), 제3 텍스트 영역(403), 제4 텍스트 영역(404), 및 그림 영역(405)으로 구분될 수 있다. 각각의 영역(401, 402, 403, 404, 405)은 소정의 경계(레이아웃)에 따라 서로 구분될 수 있다. 실시 예에 따라서는, 영역들 중 일부가 서로 중첩될 수도 있다.
한편, 레이아웃 분석 시스템(100)은 획득된 이미지 중 분석할 영역을 지정하는 마스크 데이터를 획득할 수 있다. 상술한 바와 같이, 마스크 데이터에 포함되는 마스크는 상기 분석할 영역의 지정을 위한 적어도 하나의 지점(좌표 등)을 포함할 수 있고, 상기 마스크는 사용자 등에 의해 입력될 수 있다.
상기 마스크 데이터의 예들과 관련하여 도 5를 참조하면, 사용자 등은 입력 수단(예컨대 터치패널, 터치 펜, 마우스 등)을 이용하여, 분석할 영역을 지정하기 위한 마스크를 입력할 수 있다. 예컨대, 사용자는 도 5의 (a)에 도시된 바와 같이 점 형태의 마스크(502)를 입력하고, 레이아웃 분석 시스템(100)은 입력된 마스크(502)를 포함하는 마스크 데이터(500)를 생성할 수 있다. 실시 예에 따라, 레이아웃 분석 시스템(100)은 도 5의 (b)에 도시된 바와 같이 선 형태로 입력된 마스크(512)를 포함하는 마스크 데이터(510)를 생성하는 등, 다양한 형태로 입력되는 마스크를 포함하는 마스크 데이터를 생성할 수 있다.
다시 도 3을 설명한다.
상기 레이아웃 분석 방법은, 획득된 이미지 중 상기 마스크 데이터에 대응하는 영역(마스크 데이터에 의해 지정되는 영역)의 레이아웃 및 클래스를 예측하는 단계(S320)를 포함할 수 있다.
도 6을 함께 참조하면, 레이아웃 분석 시스템(100)은 획득된 이미지(예컨대 문서 이미지(400))와 마스크 데이터(500)를 레이아웃 분석 네트워크(132)로 입력할 수 있다. 실시 예에 따라, 레이아웃 분석 시스템(100)은 마스크 데이터(500)에 포함된 마스크에 기초하여 적어도 하나의 지점에 대한 정보(좌표값 등)를 획득하고, 획득된 정보를 레이아웃 분석 네트워크(132)로 입력할 수도 있다.
레이아웃 분석 네트워크(132)는, 입력된 이미지(400) 중 마스크 데이터(500)에 의해 지정된 영역에 기초하여 이미지(400)를 분석하여, 레이아웃 및 클래스에 대한 예측 결과를 출력하도록 학습될 수 있다. 상술한 바와 같이, 레이아웃 분석 네트워크(132)는 CNN 등으로 구현될 수 있다. 본 명세서에서는 레이아웃 분석 네트워크(132)가 하나의 네트워크로 구성되어 레이아웃 및 클래스에 대한 예측 결과를 출력하는 것으로 설명하였으나, 실시 예에 따라 레이아웃 분석 네트워크(132)는 레이아웃에 대한 예측 결과를 출력하는 제1 네트워크와, 클래스에 대한 예측 결과를 출력하는 제2 네트워크로 서로 구분될 수도 있다.
레이아웃 분석 네트워크(132)는 이미지(400) 중 마스크 데이터(500)에 의해 지정되는 영역을 기초로 이미지(400)를 분석할 수 있다. 분석 결과에 기초하여, 레이아웃 분석 네트워크(132)는 상기 지정되는 영역에 존재하는 클래스의 레이아웃을 나타내는 복수의 포인트들(610), 및 클래스 정보(620)를 상기 예측 결과로서 출력할 수 있다. 상술한 바와 같이, 복수의 포인트들(610)은 상기 클래스의 레이아웃을 나타내는 복수의 좌표들에 포함될 수 있다. 복수의 포인트들(610) 중 적어도 일부는 다각형 형태의 상기 레이아웃의 꼭지점들에 대응할 수 있다. 한편, 레이아웃 분석 네트워크(132)는 기 설정된 수의 포인트들을 출력할 수 있고, 포인트들의 수는 5개 이상으로 설정될 수 있다. 이에 따라, 레이아웃 분석 시스템(100)은 상기 클래스의 레이아웃을 직사각형 등의 한정된 형태의 도형이 아닌, 비정형 형태의 다양한 다각형으로 나타낼 수 있다.
도 7을 참조하면, 레이아웃 분석 시스템(100; 예컨대 레이아웃 생성기(134))은, 레이아웃 분석 네트워크(132)로부터 출력된 복수의 포인트들(610)에 기초하여 레이아웃 정보(710)를 생성할 수 있다. 상술한 바와 같이, 레이아웃 분석 시스템(100)은 직교 투영 등의 기법에 기초하여 복수의 포인트들(610)을 연결하여, 다각형 형태의 레이아웃 정보(710)를 생성할 수 있다. 레이아웃 정보(710)는 이미지(400) 중 상기 검출된 레이아웃에 포함되는 좌표값들의 정보를 포함하거나, 이미지(400)의 좌표값들 각각이 상기 레이아웃에 포함되는지 여부에 대한 정보를 포함할 수 있다.
실시 예에 따라, 상기 레이아웃 분석 방법은, 예측 결과에 기초한 레이아웃 정보 및 클래스 정보를 출력하는 단계(S330)를 포함할 수 있다.
레이아웃 분석 시스템(100)은 생성된 레이아웃 정보(710) 및 클래스 정보(620)를 출력 수단(디스플레이 등)을 통해 출력할 수 있다. 실시 예에 따라, 레이아웃 분석 시스템(100)은 생성된 레이아웃 정보(710) 및 클래스 정보(620)를 통신 인터페이스를 통해 연결된 다른 디바이스로 전송할 수도 있다.
실시 예에 따라, 상기 레이아웃 분석 방법은 예측 결과에 기초하여 레이아웃 분석 네트워크의 학습을 수행하는 단계(S340)를 포함할 수 있다.
도 8을 함께 참조하면, 레이아웃 분석 시스템(100)은 학습용 이미지(800) 및 마스크 데이터(510)를 분석하여 레이아웃 및 클래스 예측 결과를 출력할 수 있다. 레이아웃 분석 시스템(100)은 출력된 예측 결과와 정답 레이아웃 및 정답 클래스에 기초하여 레이아웃 분석 모듈(130) 또는 레이아웃 분석 네트워크(132)의 학습을 수행할 수 있다.
네트워크 학습 모듈(140)은 예측된 레이아웃 정보(810 또는 820) 및 예측된 클래스 정보(825)와, 정답 레이아웃 정보(830 또는 840) 및 정답 클래스 정보(850)에 기초하여 레이아웃 분석 네트워크(132)의 학습을 수행할 수 있다. 예측된 레이아웃 정보(810 또는 820)는 레이아웃 생성기(134)에 의해 생성된 레이아웃(다각형 영역)과 관련된 정보일 수 있으나, 실시 예에 따라서는 레이아웃 분석 네트워크(132)로부터 출력된 복수의 포인트들과 관련된 정보를 포함할 수도 있다.
도 1에서 상술한 바와 같이, 네트워크 학습 모듈(140)은 레이아웃 분석 네트워크(132)의 학습을 위한 목적 함수를 포함할 수 있다. 상기 목적 함수는, 상기 예측된 레이아웃 영역과 상기 정답 레이아웃 정보에 따른 레이아웃 영역 간의 차이와, 상기 예측된 클래스 정보와 정답 클래스 정보 간의 차이를 반영하여 레이아웃 분석 네트워크(132)의 학습을 수행하도록 구현될 수 있다. 예컨대, 상기 목적 함수는 예측된 레이아웃 영역과 정답 레이아웃 영역의 차집합의 면적, 차집합의 면적의 제곱, 교집합의 면적과 합집합의 면적(예를 들어, 1-(교집합의 면적)/(합집합의 면적)) 등에 기초하여 학습을 수행하도록 구현될 수 있다. 또한, 상기 목적 함수는 예측된 클래스 정보와 정답 클래스 정보에 기초한 cross-entropy loss가 최소화되는 방향으로 레이아웃 분석 네트워크(132)를 학습하도록 구현될 수 있다.
상기 목적 함수에 기초하여, 레이아웃 분석 시스템(100)은 레이아웃 분석 네트워크(132)의 신경망을 구성하는 노드들 간의 가중치를 변경(업데이트)함으로써 레이아웃 분석 네트워크(132)의 학습을 수행할 수 있다.
본 개시의 실시 예에 따른 레이아웃 분석 방법은, 딥러닝 기반의 레이아웃 분석 네트워크를 이용하여 이미지 내의 소정 영역에 대한 클래스 식별 및 레이아웃 검출을 수행함으로써, 시스템 설계 시 도메인 지식 의존성을 크게 감소시키면서도 정확한 분석 결과를 획득할 수 있다.
또한, 본 개시의 실시 예에 따르면 검출된 레이아웃을 직사각형 등의 한정된 형태가 아닌 다양한 형태의 다각형으로 표현 가능하도록 구현되어, 레이아웃의 검출 정확도를 극대화할 수 있다.
도 9는 본 개시의 예시적 실시 예에 따른 이미지의 레이아웃 분석 방법을 수행하는 디바이스의 개략적인 블록도이다.
도 9를 참조하면, 본 개시의 실시 예에 따른 디바이스(900)는 도 1에서 상술한 레이아웃 분석 시스템(100)을 구성하는 적어도 하나의 컴퓨팅 장치 중 어느 하나에 대응할 수 있다. 이 경우, 디바이스(900)는 도 3 내지 도 8에서 상술한 이미지(문서 이미지 등)의 레이아웃 분석 동작 및/또는 학습 동작을 수행하는 디바이스에 해당할 수 있다.
이러한 디바이스(900)는 프로세서(910) 및 메모리(920)를 포함할 수 있다. 다만, 디바이스(900)의 구성 요소가 전술한 예에 한정되는 것은 아니다. 예를 들어, 디바이스(900)는 전술한 구성 요소들보다 더 많은 구성 요소를 포함하거나 더 적은 구성 요소를 포함할 수 있다. 또한, 프로세서(910)는 적어도 하나일 수 있으며, 메모리(920) 또한 적어도 하나일 수 있다. 또한, 프로세서(910) 및 메모리(920) 중 둘 이상이 하나의 칩으로 결합된 형태일 수도 있다.
일 실시 예에 따라, 프로세서(910)는 상술한 이미지 획득 모듈(110), 마스크 데이터 획득 모듈(120), 레이아웃 분석 모듈(130), 및 네트워크 학습 모듈(140) 중 적어도 하나에 대응하거나, 상기 모듈들 중 적어도 하나를 실행 또는 제어할 수 있다.
이러한 프로세서(910)는 CPU, AP(application processor), 집적 회로, 마이크로컴퓨터, ASIC(application specific integrated circuit), FPGA(field programmable gate array), 및/또는 NPU(neural processing unit) 등의 하드웨어를 포함할 수 있다.
본 개시의 일 실시 예에 따르면, 메모리(920)는 디바이스(900)의 동작에 필요한 프로그램 및 데이터를 저장할 수 있다.
또한, 메모리(920)는 프로세서(910)를 통해 생성되거나 획득된 데이터 중 적어도 하나를 저장할 수 있다. 실시 예에 따라, 메모리(920)는 이미지 획득 모듈(110), 마스크 데이터 획득 모듈(120), 레이아웃 분석 모듈(130), 및/또는 네트워크 학습 모듈(140)와 관련된 데이터, 명령어, 알고리즘 등을 저장할 수 있다.
메모리(920)는 롬(ROM), 램(RAM), 플래시 메모리, SSD, HDD 등의 저장 매체 또는 저장 매체들의 조합으로 구성될 수 있다.
상기한 실시 예들의 설명은 본 개시의 더욱 철저한 이해를 위하여 도면을 참조로 예를 든 것들에 불과하므로, 본 개시의 기술적 사상을 한정하는 의미로 해석되어서는 안될 것이다.
또한, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 본 개시의 기본적 원리를 벗어나지 않는 범위 내에서 다양한 변화와 변경이 가능함은 명백하다 할 것이다.

Claims (14)

  1. 이미지의 레이아웃 분석 시스템에 있어서,
    적어도 하나의 클래스를 포함하는 이미지를 획득하는 이미지 획득 모듈;
    획득된 이미지 중 분석할 영역을 지정하는 마스크 데이터를 획득하는 마스크 데이터 획득 모듈; 및
    상기 획득된 이미지 중, 상기 마스크 데이터에 의해 지정된 영역의 클래스 및 상기 클래스의 레이아웃을 예측하는 레이아웃 분석 모듈을 포함하고,
    상기 레이아웃 분석 모듈은,
    상기 이미지 및 상기 마스크 데이터를 입력받고, 입력받은 상기 이미지 및 상기 마스크 데이터에 기초하여 상기 클래스 및 상기 레이아웃을 예측한 예측 결과를 출력하도록 학습된 레이아웃 분석 네트워크를 포함하는,
    레이아웃 분석 시스템.
  2. 제1항에 있어서,
    상기 클래스의 레이아웃은,
    상기 이미지 중, 상기 마스크 데이터에 의해 지정된 영역에 존재하는 클래스가 차지하는 영역의 경계에 대응하는,
    레이아웃 분석 시스템.
  3. 제2항에 있어서,
    상기 레이아웃 분석 네트워크는,
    상기 클래스의 레이아웃을 나타내는 복수의 포인트들에 대응하는 복수의 좌표들을 출력하고,
    상기 레이아웃 분석 모듈은,
    상기 출력된 복수의 좌표들에 기초하여 상기 클래스의 레이아웃 정보를 생성하는 레이아웃 생성기를 더 포함하는,
    레이아웃 분석 시스템.
  4. 제3항에 있어서,
    상기 레이아웃 생성기는,
    상기 복수의 포인트들을 연결한 다각형의 형태로 표현되는 상기 레이아웃 정보를 생성하고,
    상기 복수의 포인트들 중 적어도 일부는 상기 다각형의 꼭지점들에 대응하는,
    레이아웃 분석 시스템.
  5. 제4항에 있어서,
    상기 예측 결과에 기초하여 상기 레이아웃 분석 네트워크의 학습을 수행하는 네트워크 학습 모듈을 더 포함하고,
    상기 네트워크 학습 모듈은,
    상기 레이아웃 정보와 정답 레이아웃 정보, 및 예측된 클래스 정보 및 정답 클래스 정보에 기초하여 상기 레이아웃 분석 네트워크를 업데이트하는,
    레이아웃 분석 시스템.
  6. 제5항에 있어서,
    상기 네트워크 학습 모듈은,
    상기 레이아웃 정보에 대응하는 레이아웃 영역과, 상기 정답 레이아웃 정보에 대응하는 정답 레이아웃 영역의 차집합의 면적 또는 교집합의 면적 중 적어도 하나에 기초하여 상기 레이아웃 분석 네트워크에 포함된 신경망의 노드들 간의 가중치를 업데이트하는,
    레이아웃 분석 시스템.
  7. 제1항에 있어서,
    상기 적어도 하나의 클래스는 상기 이미지에 포함된 정보의 형태를 나타내고,
    상기 마스크 데이터는,
    상기 이미지 중 상기 분석할 영역에 대응하는 적어도 하나의 지점을 나타내는 점, 선, 또는 영역이 표현된 마스크 이미지를 포함하는,
    레이아웃 분석 시스템.
  8. 적어도 하나의 클래스를 포함하는 이미지를 획득하는 단계;
    획득된 이미지 중 분석할 영역을 지정하는 마스크 데이터를 획득하는 단계;
    상기 획득된 이미지 중, 상기 마스크 데이터에 의해 지정된 영역의 클래스 및 상기 클래스의 레이아웃을 예측하도록 학습된 레이아웃 분석 네트워크로, 상기 이미지 및 마스크 데이터를 입력하는 단계; 및
    상기 레이아웃 분석 네트워크를 통해, 상기 입력된 이미지 중 상기 마스크 데이터에 의해 지정된 영역의 클래스 및 상기 클래스의 레이아웃을 예측한 예측 결과를 획득하는 단계를 포함하는,
    이미지의 레이아웃 분석 방법.
  9. 제8항에 있어서,
    상기 클래스의 레이아웃은,
    상기 이미지에 포함된 상기 적어도 하나의 클래스 중, 상기 마스크 데이터에 의해 지정된 영역에 존재하는 클래스가 차지하는 영역의 경계에 대응하는,
    이미지의 레이아웃 분석 방법.
  10. 제9항에 있어서,
    상기 예측 결과를 획득하는 단계는,
    상기 레이아웃 분석 네트워크로부터, 상기 클래스의 레이아웃을 나타내는 복수의 포인트들에 대응하는 복수의 좌표들을 획득하는 단계; 및
    획득된 복수의 좌표들을 연결한 다각형으로 표현되는 레이아웃의 예측 결과를 획득하는 단계를 포함하는,
    이미지의 레이아웃 분석 방법.
  11. 제10항에 있어서,
    상기 복수의 포인트들 중 적어도 일부는, 상기 다각형의 꼭지점들에 대응하는,
    이미지의 레이아웃 분석 방법.
  12. 제8항에 있어서,
    상기 예측 결과에 기초하여 상기 레이아웃 분석 네트워크의 학습을 수행하는 단계를 더 포함하고,
    상기 학습을 수행하는 단계는,
    예측된 클래스 및 예측된 레이아웃과, 정답 클래스 정보 및 정답 레이아웃 정보에 기초하여 상기 레이아웃 분석 네트워크를 업데이트하는 단계를 포함하는,
    이미지의 레이아웃 분석 방법.
  13. 제12항에 있어서,
    상기 레이아웃 분석 네트워크를 업데이트하는 단계는,
    상기 예측된 레이아웃에 대응하는 레이아웃 영역과, 상기 정답 레이아웃 정보에 대응하는 정답 레이아웃 영역의 차집합의 면적에 기초하여, 상기 레이아웃 분석 네트워크에 포함된 신경망의 노드들 간의 가중치를 업데이트하는 단계를 포함하는,
    이미지의 레이아웃 분석 방법.
  14. 제8항에 있어서,
    상기 적어도 하나의 클래스는 텍스트, 그림, 사진, 도형, 및 표 중 적어도 하나를 포함하고,
    상기 마스크 데이터는,
    상기 분석할 영역에 대응하는 적어도 하나의 지점을 나타내는 점, 선, 또는 영역이 표현된 마스크 이미지를 포함하는,
    이미지의 레이아웃 분석 방법.
KR1020200154026A 2020-11-17 2020-11-17 이미지의 레이아웃 분석 방법 및 시스템 KR102509343B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200154026A KR102509343B1 (ko) 2020-11-17 2020-11-17 이미지의 레이아웃 분석 방법 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200154026A KR102509343B1 (ko) 2020-11-17 2020-11-17 이미지의 레이아웃 분석 방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20220067387A true KR20220067387A (ko) 2022-05-24
KR102509343B1 KR102509343B1 (ko) 2023-03-13

Family

ID=81805771

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200154026A KR102509343B1 (ko) 2020-11-17 2020-11-17 이미지의 레이아웃 분석 방법 및 시스템

Country Status (1)

Country Link
KR (1) KR102509343B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117132667A (zh) * 2023-10-26 2023-11-28 湖南半岛医疗科技有限公司 一种基于环境温度反馈的热图像处理方法及相关装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007193528A (ja) * 2006-01-18 2007-08-02 Ricoh Co Ltd 画像処理装置、画像形成装置、プログラムおよび画像処理方法
JP2011018338A (ja) * 2009-07-10 2011-01-27 Palo Alto Research Center Inc スキャンされた文書画像内の前景画素群の連結グループをマーキング種類に基づき分類する方法及びシステム
KR20150018181A (ko) * 2013-08-09 2015-02-23 주식회사 스마트솔루션즈 문서상의 주요부를 자동 인식하여 저장하는 시스템 및 그 저장 방법
WO2019092672A2 (en) * 2017-11-13 2019-05-16 Way2Vat Ltd. Systems and methods for neuronal visual-linguistic data retrieval from an imaged document

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007193528A (ja) * 2006-01-18 2007-08-02 Ricoh Co Ltd 画像処理装置、画像形成装置、プログラムおよび画像処理方法
JP2011018338A (ja) * 2009-07-10 2011-01-27 Palo Alto Research Center Inc スキャンされた文書画像内の前景画素群の連結グループをマーキング種類に基づき分類する方法及びシステム
KR20150018181A (ko) * 2013-08-09 2015-02-23 주식회사 스마트솔루션즈 문서상의 주요부를 자동 인식하여 저장하는 시스템 및 그 저장 방법
WO2019092672A2 (en) * 2017-11-13 2019-05-16 Way2Vat Ltd. Systems and methods for neuronal visual-linguistic data retrieval from an imaged document

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Hoang Le 등, Interactive Boundary Prediction for Object Selection, 2018 ECCV(2018.09.08.)* *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117132667A (zh) * 2023-10-26 2023-11-28 湖南半岛医疗科技有限公司 一种基于环境温度反馈的热图像处理方法及相关装置
CN117132667B (zh) * 2023-10-26 2024-02-06 湖南半岛医疗科技有限公司 一种基于环境温度反馈的热图像处理方法及相关装置

Also Published As

Publication number Publication date
KR102509343B1 (ko) 2023-03-13

Similar Documents

Publication Publication Date Title
US10762376B2 (en) Method and apparatus for detecting text
US20210201182A1 (en) Method and apparatus for performing structured extraction on text, device and storage medium
US10685462B2 (en) Automatic data extraction from a digital image
CN108399386A (zh) 饼图中的信息提取方法及装置
TWI821671B (zh) 一種文本區域的定位方法及裝置
US20210406266A1 (en) Computerized information extraction from tables
CN109343920B (zh) 一种图像处理方法及其装置、设备和存储介质
CN109740606B (zh) 一种图像识别方法及装置
CN109389038A (zh) 一种信息的检测方法、装置及设备
US9589185B2 (en) Symbol recognition using decision forests
KR20220002065A (ko) 이미지 문답 방법, 장치, 컴퓨터 장비, 컴퓨터 판독가능 저장 매체 및 컴퓨터 프로그램
CN111401472B (zh) 基于深度卷积神经网络的红外目标分类方法和装置
US20230137337A1 (en) Enhanced machine learning model for joint detection and multi person pose estimation
US11462039B2 (en) Method, device, and storage medium for obtaining document layout
KR102508860B1 (ko) 이미지에서의 키 포인트 위치의 인식 방법, 장치, 전자기기 및 매체
KR20210040306A (ko) 문자 인식 방법, 장치, 전자기기, 컴퓨터 판독 가능 저장매체 및 프로그램
CN112215271A (zh) 一种基于多头注意力机制的抗遮挡目标检测方法及设备
Xue et al. Detection and rectification of arbitrary shaped scene texts by using text keypoints and links
Wang et al. Query pixel guided stroke extraction with model-based matching for offline handwritten Chinese characters
KR102509343B1 (ko) 이미지의 레이아웃 분석 방법 및 시스템
Manandhar et al. Magic layouts: Structural prior for component detection in user interface designs
KR102083786B1 (ko) 문자열 식별 방법 및 장치, 그리고 이를 이용한 디스플레이 영상 식별 시스템
EP3882817A2 (en) Method, apparatus and device for recognizing bill and storage medium
CN113780365A (zh) 样本生成方法和装置
CN113536875A (zh) 证件图像识别方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant