KR101377910B1 - 화상 처리 방법 및 화상 처리 장치 - Google Patents

화상 처리 방법 및 화상 처리 장치 Download PDF

Info

Publication number
KR101377910B1
KR101377910B1 KR1020120056147A KR20120056147A KR101377910B1 KR 101377910 B1 KR101377910 B1 KR 101377910B1 KR 1020120056147 A KR1020120056147 A KR 1020120056147A KR 20120056147 A KR20120056147 A KR 20120056147A KR 101377910 B1 KR101377910 B1 KR 101377910B1
Authority
KR
South Korea
Prior art keywords
contour
object area
corners
object region
corner
Prior art date
Application number
KR1020120056147A
Other languages
English (en)
Other versions
KR20120138642A (ko
Inventor
유안 헤
준 선
하오 유
사또시 나오이
Original Assignee
후지쯔 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후지쯔 가부시끼가이샤 filed Critical 후지쯔 가부시끼가이샤
Publication of KR20120138642A publication Critical patent/KR20120138642A/ko
Application granted granted Critical
Publication of KR101377910B1 publication Critical patent/KR101377910B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals

Abstract

화상 처리 방법은, 획득한 화상 내의 객체 영역의 윤곽의 코너들을 추정하는 단계; 객체 영역에서 벗어나는 방향을 따라 소정의 정도의 범위에서 추정 코너로부터의 오프셋을 갖는 2개마다의 지점 사이의 객체 영역의 윤곽선들을 각각 검색하여, 윤곽선들의 교차점을 객체 영역의 윤곽의 최종 코너들로서 결정하는 단계; 및 최종 코너들 사이의 윤곽선을 객체 영역의 최종 윤곽으로 결정하는 단계를 포함한다.

Description

화상 처리 방법 및 화상 처리 장치{IMAGE PROCESSING METHOD AND IMAGE PROCESSING APPARATUS}
본 발명은 화상 처리 분야에 관한 것으로서, 특히, 화상 내의 객체 영역의 윤곽 결정 방법과 장치, 및 윤곽에 기초한 화상 정정 방법과 장치에 관한 것이다.
종이 파일 정보를 컴퓨터에 입력하기 위하여 촬상 장치를 이용하는 것이 일반적으로 필요하다. 촬상 장치에는, 예를 들면, 평판 스캐너, 드럼 스캐너, 등의 전통적인 스캐닝 촬상 장치가 있다. 전통적인 스캐닝 촬상 장치가 사용될 때, 종이 파일(즉, 스캐닝 객체)이 스캐닝 평면에 편평하게 고정되고 종이 파일(즉, 스캐닝 객체)의 개별 코너가 종래의 스캐닝 촬상 장치의 화상 센서에 대하여 고정되어 확정되기 때문에, 종래의 스캐닝 촬상 장치에 의하여 획득한 화상에는 실질적으로 어떠한 왜곡 및 변형도 존재하지 않는다. 또한, 기술의 개발에 따라, 디지털 카메라 및 오버헤드 스캐너 등의 몇몇 곡면 촬상 장치가 등장하고 있다. 곡면 촬상 장치가 사용될 때, 예를 들면, 디지털 카메라 또는 오버헤드 스캐너가 사전, 백과사전, 매뉴얼 기타 등등의 펼쳐진 두꺼운 책을 경사시켜 화상화하는 데에 사용되는 경우, 상기 경사각에서 상방으로부터의 펼쳐진 두꺼운 책의 화상화로 인하여, 획득한 화상에는 원근투영 변환에 의하여 발생하는 원근투영 변환 왜곡 및 변형이 나타난다. 더욱이, 펼쳐진 두꺼운 책의 종이 면이 휘어질 수 있으므로, 획득한 화상에는 연신, 압축, 등의 왜곡 및 변형 또한 나타날 수도 있다. 따라서, 곡면 촬상 장치가 사용되는 경우, 획득한 왜곡 및 변형 화상을 정정하여 왜곡 및 변형없는 화상을 생성하는 것이 필요하다.
왜곡 및 변형 화상을 정정하기 위하여, 콘텐츠-기반의 방법이 존재하는데, 그 기본 원리는 먼저 종이 파일 내의 텍스트 라인 또는 라인들을 검색한 후, 상기 검색된 텍스트 라인 또는 라인들에 따라 획득한 왜곡 및 변형 화상을 추정하는 것이다. 그러나, 콘텐츠-기반의 방법은 종이 파일의 내용에 관한 많은 요구조건을 갖는다는 단점이 있는데, 예를 들면, 종이 파일 내에 텍스트 라인, 라인들, 등의 충분한 정보가 있을 것을 필요로 한다. 따라서, 종이 파일 내의 내용이 주로 그림 등인 한편, 더 적은 텍스트 라인 또는 라인이 존재하는 경우에는, 콘텐츠-기반의 방법의 정정 결과는 부족하거나, 심지어 어떠한 정정도 성취될 수 없다.
따라서, 종이 파일 그 자체에 포함된 텍스트 라인, 라인들, 등의 정보에 의존하지 않고 왜곡 및 변형 화상을 정정할 수 있으며, 종이 파일의 내용에 대한 어떠한 더 이상의 제한도 존재하지 않고, 매우 다양한 종이 파일에 적용될 수 있는 개선된 화상 정정 방법 및 장치에 대한 요구가 있다고 하겠다.
본 발명의 일 실시예에 따르면, 획득한 화상 내의 객체 영역의 윤곽의 코너들을 추정하는 단계; 각각 객체 영역으로부터 벗어난 방향을 따라 소정의 정도의 범위에서 추정된 코너들로부터의 오프셋을 갖는 2개마다의 점 사이의 객체 영역의 윤곽선들을 검색하고, 윤곽선들의 교점들을 객체 영역의 윤곽의 최종 코너들로서 결정하는 단계; 및 최종 코너들 사이의 윤곽선들을 객체 영역의 최종 윤곽으로 결정하는 단계를 포함하는 화상 처리 방법이 제공된다.
상기 검색 단계는, 상기 객체 영역으로부터 벗어나는 주방향 및 상기 객체 영역으로부터 벗어나며 상기 주방향에 수직인 방향을 따라 소정의 정도의 범위에서 상기 추정 코너를 각각 오프셋시켜 상기 주방향의 오프셋 지점들 및 상기 주방향에 수직 방향의 오프셋 지점들을 각각 획득하는 단계; 주방향의 2개마다의 오프셋 지점들 사이의 상기 주방향의 상기 객체 영역의 윤곽선들을 각각 추적하고, 주방향에 수직인 방향의 2개마다의 오프셋 지점들 사이에서 주방향에 수직인 방향의 객체 영역의 윤곽선들을 각각 추적하는 단계; 및 주방향의 윤곽선 및 객체 영역에 있는 주방향에 수직인 방향의 윤곽선들 사이의 교차점들을 결정하는 단계를 포함한다.
상기 검색하는 단계에서, 주방향의 하나의 윤곽선과 객체 영역 내 주방향에 수직 방향의 하나의 윤곽선 사이에 복수의 교차점이 있는 경우, 복수의 교차점 사이의 특정 교차점이 객체 영역의 최종 코너로 선택된다.
상기 획득한 화상 내의 객체 영역의 윤곽의 코너들을 추정하는 단계는, 주방향의 객체 영역의 중앙선을 추정하고; 중앙선에 기초하여 중앙선에 수직인 객체 영역의 윤곽선들을 추정하고; 및 객체 영역의 윤곽선들에 따라 객체 영역의 코너들을 결정하는 단계를 포함한다.
상기 화상 처리 방법은 객체 영역의 결정된 최종 윤곽에 따라 윤곽-기반의 정정 알고리즘을 사용하여 화상내의 객체 영역을 정정하는 단계를 더 포함한다.
본 발명의 또 다른 실시예에 따르면, 획득한 화상 내의 객체 영역의 윤곽의 코너들을 추정하도록 적응된 코너 추정부; 상기 객체 영역으로부터 벗어나는 방향을 따라 소정의 정도의 범위에서 추정 코너로부터 오프셋을 갖는 2개마다의 지점들 사이의 객체 영역의 윤곽선들을 각각 검색하고, 윤곽선들의 요차점들을 객체 영역의 윤곽의 최종 코너로서 결정하도록 적응된 윤곽선 검색부; 및 최종 코너들 사이의 윤곽선들을 객체 영역의 최종 윤곽으로서 결정하도록 적응된 윤곽 결정부를 포함하는 화상 처리 장치가 제공된다.
상기 윤곽선 검색부는, 객체 영역으로부터 벗어나는 주방향 및 객체 영역으로부터 벗어나고 주방향에 수직 방향을 따라 소정의 정도의 범위에서 추정 코너를 각각 오프셋시켜, 주방향의 오프셋 지점들 및 주방향에 수직인 방향의 오프셋 지점들을 각각 획득하도록 적응된 코너 오프셋부; 주방향의 2개마다의 오프셋 지점들 사이에서 주방향의 객체 영역의 윤곽선을 각각 추적하고, 주방향에 수직인 방향의 2개마다의 오프셋 지점들 사이의 주방향에 수직인 방향의 객체 영역 내의 윤곽선들을 각각 추적하도록 적응된 윤곽선 추적부; 및 주방향의 윤곽선들과 객체 영역 내의 주방향에 수직인 방향의 윤곽선들 사이의 교차점들을 결정하도록 적응된 교차점 결정부를 포함한다.
상기 교차점 결정부에 있어서, 주방향의 하나의 윤곽선과 객체 영역 내의 주방향에 수직인 방향의 하나의 윤곽선 사이에 복수의 교차점이 존재하는 경우, 복수의 교차점 중의 특정의 교차점이 객체 영역의 최종 코너로 선택된다.
상기 추정부는, 주방향의 객체 영역의 중앙선을 추정하도록 적응된 유닛; 중앙선에 기초하여 중앙선에 수직인 객체 영역의 윤곽선을 추정하도록 적응된 유닛; 및 객체 영역의 윤곽선들에 따라 객체 영역의 코너들을 결정하도록 적응된 유닛을 포함한다.
상기 화상 처리 장치는, 객체 영역의 결정된 최종 윤곽에 따라 윤곽-기반의 정정 알고리즘을 사용하여 화상내 객체 영역을 정정하도록 적응된 유닛을 더 포함한다.
오프셋 지점에 기초하여 그리고 객체 영역의 추정 코너를 오프셋함으로써, 본 발명은 획득한 화상 내의 객체 영역의 정확한 윤곽을 결정할 수 있다. 더욱이, 종이 파일 그 자체에 포함된 텍스트 라인, 라인들, 등의 정보에 의존하지 않고 객체 영역의 결정된 정확한 윤곽에 따라 윤곽-기반의 정정 알고리즘을 사용하여 획득한 화상에 정정을 수행하는 것이 가능하므로, 종이 파일의 내용에 대한 어떠한 제한도 존재하지 않고, 매우 다양한 종이 파일에 채택될 수 있다.
이와 같은 그리고 기타의 본 발명의 목적, 특징, 및 이점은 동일하거나 대응하는 기술적 특징 또는 구성이 동일하거나 대응하는 도면부호로 지시되는 첨부된 도면에 따라 본 발명의 실시예의 다음의 상세한 설명을 참조하여 쉽게 이해할 수 있을 것이다.
도 1a는 곡면 촬상 장치를 사용한 종이 파일의 촬상을 나타내는 개략도.
도 1b는 곡면 촬상 장치를 사용한 종이 파일의 촬상 후에 획득한 왜곡 및 변형 화상을 나타내는 개략도.
도 2는 본 발명의 일 실시예에 따른 화상 내의 객체 영역의 윤곽을 결정하기 위한 화상 처리 방법을 나타내는 플로우챠트.
도 3은 본 발명의 일 실시예에 따른 획득한 화상 내의 객체 영역의 윤곽의 코너를 추정하기 위한 방법을 나타내는 플로우챠트.
도 4a는 축소 및 평활화 처리를 거친 화상을 나타내는 개략도.
도 4b는 배경 영역 및 객체 영역으로 분리된 이진화 화상을 나타내는 개략도.
도 5는 본 발명의 일 실시예에 따른 축소 및 평활화 처리를 거친 화상을 이진화 화상으로 분리하기 위한 방법을 나타내는 플로우챠트.
도 6은 본 발명의 일 실시예에 따른 이진화 화상 내의 객체 영역의 윤곽의 코너를 검출하기 위한 방법을 나타내는 플로우챠트.
도 7a는 주방향에 있는 객체 영역의 중앙선을 나타내는 개략도.
도 7b는 중앙선에 수직인 객체 영역의 윤곽선을 나타내는 개략도.
도 7c는 객체 영역의 윤곽선에 따라 결정된 객체 영역의 코너를 나타내는 개략도.
도 8은 본 발명의 일 실시예에 따른 추정 코너로부터의 오프셋을 갖는 두 지점 사이의 객체 영역의 윤곽선을 검색하기 위한 방법을 나타내는 플로우챠트.
도 9a는 객체 영역의 추정 코너를 나타내는 개략도.
도 9b는 추정 코너로부터의 오프셋을 갖는 두 지점 사이의 객체 영역의 윤곽선을 검색하는 단계를 나타내는 개략도.
도 9c는 객체 영역의 검색된 윤곽선 및 그것의 교차점을 나타내는 개략도.
도 10은 객체 영역의 결정된 최종 윤곽을 나타내는 개략도.
도 11은 본 발명의 또 다른 실시예에 따른 화상 내의 객체 영역의 윤곽을 결정하기 위한 화상 처리 장치를 나타내는 블록도.
도 12는 본 발명의 또 다른 실시예에 따른 코너 추정부를 나타내는 블록도.
도 13은 본 발명의 또 다른 실시예에 따른 분리부를 나타내는 블록도.
도 14는 본 발명의 또 다른 실시예에 따른 코너 검출부를 나타내는 블록도.
도 15는 본 발명의 또 다른 실시예에 따른 윤곽선 검색부를 나타내는 블록도.
도 16은 본 발명이 구현되는 컴퓨터의 예시적 구조를 나타내는 블록도.
본 명세서에 사용된 용어는 특정의 실시예를 설명하는 것만을 목적으로 하고 본 발명을 한정하기 위한 것이 아니다. 본 명세서에 사용된 바와 같이, 단수형은, 내용에서 달리 언급하지 않는 이상, 복수형 또한 포함하는 것을 의도할 수 있다. 본 명세서에 사용된 바와 같이, 용어 "포함한다(comprise, include)"는 언급된 특징, 정수, 단계, 동작, 장치 및/또는 구성의 존재를 나타내지만, 하나 이상의 다른 특징, 정수, 단계, 동작, 장치 및/또는 구성, 및/또는 이들의 조합의 존재 또는 부가를 배제하지 않는다는 것을 유념한다.
본 발명의 실시예들을 첨부된 도면들을 참조하여 설명한다. 명확화를 위하여, 본 명세서에서 본 발명과 관련되지 않고고 당업자에게 알려진 구성 및 처리에 대한 표시 및 설명은 도면 및 상세한 설명에서 생략한다는 것을 유념한다. 플로우챠트 및/또는 블록도의 각 블록 및 이들의 조합은 컴퓨터 프로그램 명령에 의하여 구현될 수 있다. 이들 컴퓨터 프로그램 명령은 범용 컴퓨터, 전용 컴퓨터 또는 기타 프로그램가능한 데이터 처리장치의 프로세서로 공급되어, 컴퓨터 또는 기타 프로그램가능한 데이터 처리장치에 의하여 실행되는 이들 명령이 플로우챠트 및/또는 블록도에 있는 블록들에 명시된 기능/동작들을 구현하는 장치를 생성하도록 한다.
이들 컴퓨터 프로그램 명령은 또한, 컴퓨터-판독가능 매체에 저장되어 특정 방식으로 동작하도록 컴퓨터 또는 기타 프로그램가능한 데이터 처리장치에 명령할 수 있으므로, 컴퓨터-판독가능한 매체에 저장된 명령은 플로우챠트 및/또는 블록도에 있는 블록에 명시된 기능/동작을 구현하는 명령 수단을 포함하는 제품을 생성한다.
컴퓨터 프로그램 명령은 또한 컴퓨터 또는 기타 프로그램가능한 데이터 처리장치로 로드되어, 일련의 동작 단계가 이에 대하여 실행되어, 컴퓨터-구현의 프로시저를 생성할 수 있으며, 따라서 컴퓨터 또는 기타 프로그램가능한 장치에서 실행된 명령은 플로우챠트 및/또는 블록도에 있는 블록에 명시된 기능/동작을 구현하는 프로시저를 제공할 수 있다.
첨부 도면들에 있는 플로우차트 및 블록도는 본 발명의 다양한 실시예에 따른 시스템, 방법, 및 컴퓨터 프로그램 제품의 가능한 구현의 시스템 아키텍처, 기능 및 동작을 나타낸다는 것을 이해할 수 있을 것이다. 이에 관하여, 플로우챠트 또는 블록도에 있는 각 블록은 특정 논리 함수를 구현하기 위한 하나 이상의 실행가능한 명령을 포함하는 모듈, 프로그램 세그먼트, 또는 일부의 코드를 나타낼 수 있다. 또한, 블록에 표시된 기능들은 또한 일부 대체 구현예에 있는 도면에 표시된 순서와 다른 순서로 발생할 수 있음을 유념한다. 예를 들면, 연속적으로 표시된 두 블록은, 연관된 함수에 따라서, 실제로 실질적으로 병렬로 수행되거나 때로는 역순으로 수행될 수 있다. 또한, 블록도 및/또는 플로우챠트 및 이들의 조합의 개별 블록들은 특정 함수 또는 동작을 실행하는 전용 하드웨어-기반의 시스템에 의하여 구현되거나, 전용 하드웨어 및 컴퓨터 명령의 조합에 의하여 구현될 수 있음을 유념한다.
도 1a 및 1b를 참조하여, 곡면 촬상 장치를 사용하여 종이 파일을 촬상하는 전형적인 상황을 고려한다. 도 1a는 곡면 촬상 장치를 사용한 종이 파일의 촬상을 나타내는 개략도이다. 도 1b는 곡면 촬상 장치를 사용한 종이 파일의 촬상 후 획득한 왜곡 및 변형 화상을 나타내는 개략도이다. 도 1a에 도시된 바와 같이, 종이 파일(100)이 곡면 촬상 장치(도시 생략)를 사용하여 촬상될 때, 예를 들어, 종이 파일(100)이 오버헤드 라인 스캐너(도시 생략)를 사용하여 촬상될 때, 촬상은 도 1a에 있는 파선(102)으로 도시된 바와 같은 오버헤드 라인 스캐너의 라인 스캐닝 밴드를 사용하여, 도 1a에 있는 화살표(104)로 도시된 바와 같이, 위에서 아래로 향하는 순서로 연속적으로 수행된다. 도 1b에 도시된 바와 같이, 곡면 촬상 장치(도시 생략)를 사용한 종이 파일(100)의 촬상 후 획득한 왜곡 및 변형 화상(103)은 종이 파일(100)에 해당하는 객체 영역(105)을 포함하고, 객체 영역(105)의 윤곽은 좌상 코너(CC0) 및 우상 코너(CC1) 사이의 상부 윤곽선(106), 좌하 코너(CC3) 및 우하 코너(CC2) 사이의 하부 윤곽선(110), 좌상 코너(CC0)와 좌하 코너(CC3) 사이의 좌측 윤곽선(112), 및 우상 코너(CC1) 및 우하 코너(CC2) 사이의 우측 윤곽선(108)을 포함하고, 상부 윤곽선(106)과 하부 윤곽선(110)은 곡선이고, 좌측 윤곽선(112)과 우측 윤곽선(108)은 직선이다.
도시된 바와 같이, 종이 파일에 대응하는 객체 영역(105)의 윤곽은 실질적으로 종이 파일의 특정 내용에 무관하게, 예를 들어, 종이 파일의 내용에 있는 텍스트 라인 또는 라인의 수가 많든지 적든지 상관없이 획득될 수 있다. 따라서, 본 출원인은 획득한 화상이 객체 영역(105)의 획득된 윤곽에 기초하여 윤곽-기반의 정정 알고리즘을 사용하여 정정될 수 있으며, 따라서 획득된 화상이 종이 파일 자체에 포함된 텍스트 라인, 라인, 등의 정보에 의존하지 않고 정정될 수 있으므로, 종이 파일의 내용에 대한 어떠한 제한도 없고, 매우 다양한 종이 파일에 적용될 수 있다는 것을 인식하였다.
그러나, 종이 파일(100)이 곡면 촬상 장치(도시 생략)를 사용하여 촬상될 때 왜곡 및 변형이 발생하기 때문에, 일반적으로 획득한 왜곡 및 변형 화상(103)에 있는 종이 파일(100)에 대응하는 객체 영역(105)의 윤곽과 종이 파일(100)의 실제 윤곽 사이에 에러가 존재한다. 따라서, 본 발명에 의하여 해결할 문제는 획득한 화상에 있는 객체 영역(105)의 윤곽을 종이 파일(100)의 실제 윤곽에 더 근접하도록 하는 방법, 즉, 획득한 화상에 있는 객체 영역(105)의 정확한 윤곽을 결정하는 방법이다.
이하, 본 발명의 일 실시예에 따른 화상에 있는 객체 영역의 윤곽을 결정하기 위한 화상 처리 방법을 도 2를 참조하여 설명한다. 도 2는 본 발명의 일 실시예에 따른 화상에 있는 객체 영역의 윤곽을 결정하기 위한 방법을 나타내는 플로우차트이다.
도 2에 도시된 바와 같이, 본 방법은 200에서 출발한다. 다음, 202에서, 획득한 화상에 있는 객체 영역의 윤곽의 코너들이 추정된다.
종이 파일의 화상은 디지털 카메라 또는 오버헤드 라인 스캐너 등의 곡면 촬상 장치를 사용하여 종이 파일을 스캐닝하여 획득할 수 있다. 도 1b를 참조하면, 곡면 촬상 장치(도시 생략)를 사용한 종이 파일(100)의 촬상 후 획득한 화상(103)은 종이 파일(100)에 대응하는 객체 영역(105)을 포함하고, 객체 영역(105)의 윤곽들로서는 상부 윤곽선(106), 하부 윤곽선(110), 좌측 윤곽선(112) 및 우측 윤곽선(108)을 포함한다. 특히, 상부 윤곽선(106) 및 좌측 윤곽선(112)의 교차점은 좌상 코너(CC0)이고, 상부 윤곽선(106)과 우측 윤곽선(108)의 교차점은 우상 코너(CC1)이고, 하부 윤곽선(110)과 좌측 윤곽선(112)의 교차점은 좌하 코너(CC3)이고, 하부 윤곽선(110)과 우측 윤곽선(108)의 교차점은 우하 코너(CC2)이다. 일반적으로, 객체 영역의 4개의 코너가 결정된 후, 객체 영역의 윤곽이 전술한 바의 4개 코너에 따라 실질적으로 결정될 수 있다. 따라서, 객체 영역의 윤곽을 결정하기 위하여, 먼저 객체 영역의 4개 코너를 검출할 필요가 있다.
현재, 각 픽셀 지점 주위에 있는 국부 화상 정보를 이용하여 코너의 특징에 따라 검출을 수행하는 것을 기본 원칙으로 하는 객체 영역의 코너 검출을 위한 몇몇 방법들이 존재하고 있다. 그러나, 객체 영역의 코너를 검출하는 기존의 방법들은 통상적으로 복수의 후보 지점들을 검출하므로, 복수의 후보 지점들의 검출 후에 복수의 후보 지점들로부터 최종의 코너를 선택할 필요가 있다. 복수의 후보 지점들로부터 최종 코너를 선택하기 위하여 국부 화상 정보뿐만 아니라 코너의 특성 또한 필요하다. 따라서, 단지 국부 화상 정보에 따라서 정확한 코너를 검출하는 것은 어렵다.
본 발명에서는 객체 영역의 코너를 검출하는 새로운 방법을 제공하며, 먼저 객체 영역의 코너의 대략적인 위치를 추정한 후, 본 발명의 진보한 방법을 통하여 코너의 대략적인 위치에 따라 코너의 정확한 위치를 결정하는 것이다. 따라서, 본 발명은 점진적으로 대략적인 위치에서 정확한 위치로 위치 바꾸는 순서로 코너의 정확한 위치를 결정하고, 따라서 코너 검출의 정확성 및 견고성(robustness)을 개선한다. 객체 영역의 코너의 대략적인 위치를 추정하는 상세한 과정은 도 3 내지 7을 참조하여 후술한다.
다음, 본 방법은 204로 진행한다. 204에서, 객체 영역에서 벗어나는 방향을 따라 소정의 정도의 범위에서 추정된 코너로부터 각각 오프셋을 갖는 2개마다의 지점 사이에서 객체 영역의 윤곽선이 검색되고, 윤곽선의 교차점들이 객체 영역의 윤곽의 최종 코너로 결정된다.
도 1b를 참조하면, 202에서 추정된 객체 영역(105)의 윤곽의 4개의 대략적인 코너는 각각 좌상 코너(CC0), 우상 코너(CC1), 우하 코너(CC2), 및 좌하 코너(CC3)로 가정한다. 좌상 코너(CC0)에 있어서, 좌상 코너(CC0)는 객체 영역(105)의 상부 윤곽선(106) 및 좌측 윤곽선(112)으로부터 벗어나는 방향을 따라 일정 거리만큼 오프셋될 수 있는데, 예를 들면, 좌상 코너(CC0)는 일정 거리만큼 좌측을 향하여, 일정 거리만큼 상부를 향하여 또는 일정 거리만큼 좌상을 향하여 오프셋될 수 있다. 당업자라면, 좌상 코너(CC0) 또한 객체 영역(105)의 상부 윤곽선(106) 및 좌측 윤곽선(112)으로부터 벗어나는 방향에 있는 한 일정 거리만큼 다른 방향을 향하여 오프셋될 수 있다는 것을 이해할 수 있을 것이다.
마찬가지로, 우상 코너(CC1)에 있어서, 우상 코너(CC1)는 객체 영역(105)의 상부 윤곽선(106) 및 우측 윤곽선(108)으로부터 벗어나는 방향을 따라 일정 거리만큼 오프셋될 수 있는데, 예를 들면, 우상 코너(CC1)는 일정 거리만큼 우측을 향하여, 일정 거리만큼 상부를 향하여 또는 일정 거리만큼 우상을 향하여 오프셋될 수 있다. 당업자라면, 우상 코너(CC1) 또한 객체 영역(105)의 상부 윤곽선(106) 및 우측 윤곽선(108)에서 벗어나는 방향에 있는 한 일정 거리만큼 다른 방향을 향하여 오프셋될 수 있다는 것을 이해할 수 있을 것이다.
마찬가지로, 우하 코너(CC2)에 있어서, 우하 코너(CC2)는 객체 영역(105)의 하부 윤곽선(110) 및 우측 윤곽선(108)으로부터 벗어나는 방향을 따라 일정 거리만큼 오프셋될 수 있는데, 예를 들면, 우하 코너(CC2)는 일정 거리만큼 우측을 향하여, 일정 거리만큼 하부를 향하여, 또는 일정 거리만큼 우하를 향하여 오프셋될 수 있다. 당업자라면, 우하 코너(CC2) 또한 객체 영역(105)의 하부 윤곽선(110) 및 우측 윤곽선(108)에서 벗어나는 방향에 있는 한 일정 거리만큼 다른 방향을 향하여 오프셋될 수 있다는 것을 이해할 수 있을 것이다.
마찬가지로, 좌하 코너(CC3)에 대하여, 좌하 코너(CC3)는 객체 영역(105)의 하부 윤곽선(110) 및 좌측 윤곽선(112)으로부터 벗어나는 방향을 따라 일정 거리만큼 오프셋될 수 있는데, 예를 들면, 좌하 코너(CC3)는 일정 거리만큼 좌측을 향하여, 일정 거리만큼 하부를 향하여, 또는 일정 거리만큼 좌하를 향하여 오프셋될 수 있다. 당업자라면, 좌하 코너(CC3) 또한 객체 영역(105)의 하부 윤곽선(110) 및 좌측 윤곽선(112)에서 벗어나는 방향에 있는 한 일정 거리만큼 다른 방향을 향하여 오프셋될 수 있다는 것을 이해할 수 있을 것이다.
당업자라면, 오프셋된 일정 거리가 객체 영역의 정확한 코너의 위치를 포괄할 수 있어야 하는 한편, 객체 영역의 정확한 코너의 위치로부터 너무 멀리 오프셋되어서는 안 된다는 것을 이해할 수 있을 것이며, 예를 들면, 오프셋된 일정 거리는 경험에 따라 또는 각 검출 결과의 통계적 분석에 따라 실험적으로 결정할 수 있다.
추정 코너가 객체 영역에서 벗어나는 방향을 따라 소정의 정도의 범위 내에서 오프셋된 후, 추정 코너로부터 오프셋된 두 지점 사이에서 객체 영역의 윤곽선이 검색될 수 있다. 좌상 코너(CC0) 및 우상 코너(CC1)에 있어서, 예를 들면, 좌상 코너(CC0)가 좌상 코너 좌측-오프셋 지점(CC0L)을 획득하기 위하여 일정 거리만큼 좌측으로 오프셋되고, 우상 코너(CC1)는 우상 코너 우측-오프셋 지점(CC1R)을 획득하기 위하여 일정 거리만큼 우측으로 오프셋된 후, 좌상 코너 좌측-오프셋 지점(CC0L) 및 우상 코너 우측-오프셋 지점(CC1R) 사이에서 객체 영역(105)의 상부 윤곽선이 검색될 수 있다.
마찬가지로, 좌하 코너(CC3) 및 우하 코너(CC2)에 있어서, 예를 들면, 좌하 코너(CC3)가 좌하 코너 좌측-오프셋 지점(CC3L)을 획득하기 위하여 일정 거리만큼 좌측으로 오프셋되고, 우하 코너(CC2)는 우하 코너 우측-오프셋 지점(CC2R)을 획득하기 위하여 일정 거리만큼 우측으로 오프셋된 후, 좌하 코너 좌측-오프셋 지점(CC3L)과 우하 코너 우측-오프셋 지점(CC2R) 사이에서 객체 영역(105)의 하부 윤곽선이 검색될 수 있다.
마찬가지로, 좌상 코너(CC0) 및 좌하 코너(CC3)에 있어서, 예를 들면, 좌상 코너(CC0)가 좌상 코너 상부-오프셋 지점(CC0U)을 획득하기 위하여 일정 거리만큼 상부로 오프셋되고, 좌하 코너(CC3)는 좌하 코너 하부-오프셋 지점(CC3D)을 획득하기 위하여 일정 거리만큼 하부로 오프셋된 후, 좌상 코너 상부-오프셋 지점(CC0U)과 좌하 코너 하부-오프셋 지점(CC3D) 사이에서 객체 영역(105)의 좌측 윤곽선이 검색될 수 있다.
마찬가지로, 우상 코너(CC1) 및 우하 코너(CC2)에 있어서, 예를 들면 우상 코너(CC1)가 우상 코너 상부-오프셋 지점(CC1U)을 획득하기 위하여 일정 거리만큼 상부로 오프셋되고, 우하 코너(CC2)는 우하 코너 하부-오프셋 지점(CC2D)을 획득하기 위하여 일정 거리만큼 하부로 오프셋된 후, 우상 코너 상부-오프셋 지점(CC1U)과 우하 코너 하부-오프셋 지점(CC2D) 사이에서 객체 영역(105)의 우측 윤곽선이 검색될 수 있다.
본 분야에는 두 지점 사이에서 선(line)들을 검색하는 많은 방법이 존재하는데, 예를 들면, 그래프-검색 기초 방법 또는 동적 프로그래밍 방법(예컨대, J.F.Wang 및 P.J.Howarth의 "Automatic Road Network Extraction From Landsat TM Imagery", In processing of ASPRS-ACSM annual convention, Baltimore, USA, Vol.1, pp. 429-438 참조)이 이용될 수 있다.
당업자라면, 코너로부터 오프셋된 다른 지점 또한 객체 영역의 연장된 윤곽선이 코너로부터 오프셋된 다른 지점에서 획득할 수 있는 한, 객체 영역의 윤곽선을 검색하는데 사용될 수 있다는 것을 이해할 수 있을 것이다.
객체 영역(105)의 연장된 윤곽선들이 검색된 후에, 두 개의 윤곽선 사이의 교차점이 계산될 수 있다. 두 라인 사이의 교차점을 계산하는 많은 방법들이 존재하며, 두 라인 사이의 교차점을 계산하기 위한 어떠한 방법도 두 개의 윤곽선 사이의 교차점을 계산하기 위하여 사용될 수 있으며, 구체적인 세부사항은 더 이상 본 명세서에서 설명하지 않는다.
만약 두 개의 윤곽선 사이에 단지 하나의 교차점이 존재하는 경우, 이 교차점은 객체 영역의 최종 코너로 간주할 수 있다. 두 윤곽선 사이에 복수의 교차점이 존재하는 경우, 복수의 교차점 중의 특정 교차점은 객체 영역의 최종 코너로 선택될 수 있다. 예를 들면, 복수의 교차점의 좌표값의 평균값이 계산될 수 있고, 좌표값이 좌표값의 평균값에 가장 근접한 교차점이 객체 영역의 최종 코너로 선택될 수 있다.
다음, 방법은 206으로 진행한다. 206에서, 최종 코너들 사이의 윤곽선들이 객체 영역의 최종 윤곽으로서 결정된다.
객체 영역의 최종 코너가 결정된 후, 2개마다의 최종 코너들 사이의 윤곽선들이 인터셉트되어, 각 코너 사이에 인터셉트된 윤곽선에 의하여 최종 윤곽이 형성된다. 도 10을 참조하면, 도 10은 객체 영역의 결정된 최종 윤곽을 나타내는 개략도이다. 도 10에 도시된 바와 같이, 객체 영역의 최종 코너는 C0, C1, C2 및 C3로 결정된다. 그 후, 코너 C0 및 C1 사이의 윤곽선이 객체 영역의 상부 윤곽선(EB0)으로 인터셉트되고, 코너 C1 및 C2 사이의 윤곽선이 객체 영역의 우측 윤곽선(EB3)으로 인터셉트되고, 코너 C2 및 C3 사이의 윤곽선이 객체 영역의 하부 윤곽선(EB1)으로 인터셉트되고, 코너 C3 및 C1 사이의 윤곽선이 객체 영역의 좌측 윤곽선(EB2)으로 인터셉트된다. 최종적으로, 상부 윤곽선(EB0), 하부 윤곽선(EB1), 좌측 윤곽선(EB2) 및 우측 윤곽선(EB3)은 객체 영역의 최종 윤곽을 형성한다.
다음, 본 방법은 208로 진행한다. 208에서, 화상 내의 객체 영역이 윤곽-기반의 정정 알고리즘을 이용하여 객체 영역의 결정된 윤곽에 따라 정정된다.
당업계에는 많은 윤곽-기반의 화상 정정 알고리즘이 있다. 당업자라면, 임의의 윤곽-기반의 화상 정정 알고리즘이 객체 영역의 결정된 최종 윤곽에 따라 화상 내의 객체 영역을 정정하는데 사용될 수 있다는 것을 이해할 수 있을 것이다. 자세한 세부사항은 본 명세서에서 더 이상 설명하지 않는다.
마지막으로, 본 방법은 210으로 진행한다. 210에서, 본 방법이 종료한다.
이하에서, 획득한 화상 내의 객체 영역의 윤곽의 코너를 추정하는 상세한 과정을 도 3 및 4를 참조하여 설명한다. 도 3은 본 발명의 일 실시예에 따른 획득한 화상 내의 객체 영역의 윤곽의 코너를 추정하는 방법을 나타내는 플로우챠트이며, 도 4a는 축소 및 평활화 처리가 수행된 화상을 나타내는 개략도이며, 도 4b는 배경 영역 및 객체 영역으로 분리된 이진화 화상을 나타내는 개략도이다.
도 3에 도시된 바와 같이, 302에서 축소 및 평활화 처리가 획득한 화상에 대하여 수행된다.
디지털 카메라 또는 오버헤드 라인 스캐너 등의 곡면 촬상 장치를 사용하여 종이 파일을 스캐닝하여 획득한 화상은, 일반적으로 더 높은 해상도를 갖고, 더 많은 픽셀을 포함하고, 아마도 더 많은 화상 잡음을 포함할 수 있다. 따라서, 획득한 화상에 축소 및 평활화 처리 등의 일부 전처리를 수행하는 것이 필요하다. 축소 처리를 통하여, 획득한 화상의 크기가 줄어들 수 있으므로, 후속 처리의 속도를 높일 수 있다. 또한, 평활 처리를 통하여, 화상 잡음의 영향을 억제할 수 있다. 도 4a를 참조하면, 도 4a는 축소 및 평활화 처리가 수행된 화상의 개략적인 도면을 나타낸다.
다음, 본 방법은 304로 진행한다. 304에서, 축소 및 평활화 처리가 수행된 화상은 배경 영역 및 객체 영역으로 분리된다.
도 4b를 참조하면, 도 4b는 배경 영역 및 객체 영역으로 분리된 이진화 화상을 나타내는 개략도이다. 도 4b에 도시된 바와 같이, 축소 및 평활화 처리가 수행된 화상(400)은 배경 영역(402) 및 객체 영역(404)으로 분리된다. 특히, 배경 영역(402)은 종이 파일을 제외한 영역에 대응하는 영역이고, 객체 영역(404)은 종이 파일의 영역에 대응하는 영역이다. 도 4b에 도시된 바와 같이, 배경 영역(402)과 객체 영역(404)은 각각 두 개의 상이한 색으로 표시되는데, 예를 들어, 이진화 화상을 획득하기 위하여, 배경 영역(402)은 백색으로 표시되고, 객체 영역(404)은 흑색 또는 기타의 색으로 표시되어 있다. 당업자라면, 이진화 화상 또한 다른 상이한 색으로 표시될 수 있다는 것을 이해할 수 있을 것이다. 화상을 배경 영역과 객체 영역으로 분리하는 과정은 도 5를 참조하여 이하에서 상세하게 설명한다.
다음, 본 방법은 306으로 진행한다. 306에서, 객체 영역의 윤곽의 코너들이 이진화 화상에 기초하여 검출된다.
배경 영역과 객체 영역을 갖는 이진화 화상이 304에서 획득된 후, 이진화 화상에 기초하여 객체 영역의 윤곽의 코너들이 검출될 수 있다. 예를 들면, 이진화 화상의 중앙선이 먼저 추정된 후, 중앙선에 기초하여 중앙선에 수직인 윤곽선이 추정된 후, 객체 영역의 윤곽의 코너들이 윤곽선의 교차점에 따라 결정된다. 이진화 화상에 기초하여 객체 영역의 윤곽의 코너들을 검출하는 처리를 도 6 및 7을 참조하여 이하에서 상세하게 설명한다.
배경 영역과 객체 영역을 갖는 이진화 화상으로 화상을 나누는 처리를 이하 도 5를 참조하여 상세하게 설명한다. 도 5는 본 발명의 일 실시예에 따른 축소 및 평활화 처리를 수행한 화상을 이진화 화상으로 분리하는 방법을 도시하는 플로우차트이다.
도 5에 도시된 바와 같이, 502에서, 축소 및 평활화 처리가 수행된 화상의 배경색이 추정된다.
일반적으로, 곡면 촬상 장치로 종이 파일을 스캐닝하여 획득한 화상에서는, 배경이 균일한 색을 포함하고, 종이 파일에 대응하는 객체 영역은 획득한 화상의 중앙에 위치한다. 따라서, 배경색은 화상의 외부 가장자리 영역으로부터 추정될 수 있다. 예를 들면, 우선 외부 가장자리 영역에 있는 모든 픽셀의 색은 컬러 히스토그램으로 통계적으로 고려된 후, 가장 높은 빈도의 출현을 갖는 색이 배경색으로 간주될 수 있다. 특히, 외부 가장자리 영역의 범위는, 예를 들면, 실험적으로 결정될 수 있다.
다음, 본 방법은 504로 진행한다. 504에서, 화상 내의 개별 픽셀들의 색과 배경색 사이의 거리가 계산된다.
502에서 화상의 배경색이 추정된 후, 화상에 있는 개별 픽셀의 색과 배경색 사이의 편차가 계산된다. 이 편차는 화상에 있는 개별 픽셀의 색과 배경색 사이의 거리로 측정될 수 있다. 이 거리는, 예를 들면, 오일러 거리(Euler distance)일 수 있다. 따라서, 화상 내 개별 픽셀의 색과 배경색 사이의 거리를 계산하여 화상 내 모든 픽셀들에 대응하는 거리 다이어그램이 획득할 수 있고, 이 거리 다이어그램에서, 개별 픽셀의 그레이 값은 색 공간에서 거리에 해당한다. 당업자라면, 이 거리 또한 화상 내의 개별 픽셀의 색과 배경색 사이의 편차를 계산할 수 있는 한, 본 기술분야의 다른 거리 계산 방법을 사용하여 계산될 수 있다는 것을 이해할 수 있을 것이다.
다음, 본 방법은 506으로 진행한다. 506에서, 화상은 이진화 알고리즘에 따라 배경 영역과 객체 영역을 포함하는 이진화 화상으로 분리된다.
화상 내 개별 픽셀의 색과 배경색 사이의 거리가 504에서 계산된 후, 형성된 거리 다이어그램은 이진화 알고리즘을 사용하여 분리되어, 배경색으로부터 더 먼 거리를 갖는 픽셀이 배경 영역으로 분리되고, 배경색으로부터 더 짧은 거리를 갖는 픽셀은 객체 영역으로 분리될 수 있다. 그 후, 배경 영역 내 개별 픽셀의 색의 값은 두 색의 값들 중 하나의 색 값으로 변환되고, 객체 영역 내 개별 픽셀의 색의 값은 두 색의 값들 중 다른 색 값으로 변환되어, 배경 영역과 객체 영역을 포함하는 이진화 화상을 획득한다. 예를 들면, 이 두 색은 흑색 및 백색일 수 있다. 당업자라면, 이 두 색은 또한 다른 색을 사용할 수 있다는 것을 이해할 수 있을 것이다. 이진화 알고리즘은, 예를 들면, 오츠(Ostu) 글로벌 이진화 알고리즘일 수 있다. 당업자라면, 본 기술분야의 다른 이진화 알고리즘 또한 사용할 수 있다는 것을 이해할 수 있을 것이다. 예를 들면, 도 4b를 참조하면, 배경 영역(402) 내 개별 픽셀의 색은 백색으로 변환되고, 객체 영역(404) 내 개별 픽셀의 색은 흑색으로 변환된다.
이진화 화상 내 객체 영역의 윤곽의 코너를 검출하는 방법을 이하 도 6 및 7을 참조하여 상세하게 설명한다. 도 6은 본 발명의 일 실시예에 따른 이진화 화상 내 객체 영역의 윤곽의 코너를 검출하는 방법을 도시하는 플로우챠트이다. 도 7a는 주방향에 있는 객체 영역의 중앙선을 나타내는 개략도이다. 도 7b는 중앙선에 수직인 객체 영역의 윤곽선을 나타내는 개략도이다. 도 7c는 객체 영역의 윤곽선에 따라 결정된 객체 영역의 코너를 나타내는 개략도이다.
도 6에 도시된 바와 같이, 602에서, 주방향에 있는 객체 영역의 중앙선이 추정된다.
도 7a를 참조하면, 도 7a에 도시된 화상에 있어서, 객체 영역(700)은 수평적으로 위치하고, 즉, 객체 영역(700)의 좌우 윤곽선이 직선이고, 객체 영역(700)의 상하 윤곽선이 곡선이며, 수평 방향을 객체 영역의 주방향으로 지칭한다. 객체 영역이 화상 내에 수평으로 위치하지 않지만 수평 방향에 대하여 일정 정도 경사를 이루는 경우, 화상 내의 객체 영역이 먼저 전처리될 수 있고, 예를 들면, 화상 내의 객체 영역이 일정 정도 회전되어, 화상 내의 객체 영역을 수평 방향(즉, 주방향)으로 변환할 수 있다.
객체 영역(700)이 화상 내 주방향에 위치하는 경우, 주방향에 있는 객체 영역의 중앙선을 추정하기 위하여 직선 고정법(straight line fit method) 또는 주성분 분석(PCA, principal component analysis)법 등의 직선 추정법이 사용될 수 있다. 다시 도 7a를 참조하면, 전체 객체 영역(700)이 직선이며, 따라서, 직선 고정법이 객체 영역(700) 내 모든 지점을 고정하기 위하여 사용되어, 도 7a에서 수평 실선으로 나타낸 바와 같이, 주방향에 있는 객체 영역(700)의 중앙선(702)을 획득한다고 가정한다. 당업자라면, 본 기술분야의 다른 직선 추정법 또한 주방향에 있는 객체 영역의 중앙선을 추정하기 위하여 사용될 수 있다는 것을 이해할 수 있을 것이다.
다음, 본 방법은 604로 진행한다. 604에서, 중앙선에 수직인 객체 영역의 윤곽선이 중앙선에 기초하여 추정된다.
도 7b를 참조하면, 화상의 객체 영역(700)의 좌측 윤곽선(703) 및 우측 윤곽선(704)은 주방향의 중앙선(702)에 실질적으로 수직이다. 따라서, 객체 영역(700)의 좌측 윤곽선(703) 및 우측 윤곽선(704)이 화상 내의 객체 영역(700)의 가장자리 픽셀, 즉, 배경 영역에 인접한 객체 영역(700) 내의 픽셀을 고정함으로써 추정될 수 있다. 마찬가지로, 직선 고정법 또는 주성분 분석(PCA)법 등의 직선 추정법이 객체 영역(700)의 좌측 윤곽선(703) 및 우측 윤곽선(704)을 추정하기 위하여 사용될 수 있다. 당업자라면 본 기술분야의 다른 직선 추정법 또한 객체 영역(700)의 좌측 윤곽선(703) 및 우측 윤곽선(704)을 추정하기 위하여 사용될 수 있다는 것을 이해할 수 있을 것이다. 또한, 주방향의 객체 영역(700)의 중앙선(702)과 객체 영역(700) 사이의 일련의 교차점이 연속적으로 계산될 수 있으며, 이 일련의 교차점은 객체 영역(700)의 좌측 윤곽선(703) 및 우측 윤곽선(704)을 각각 구성한다.
다음, 본 방법은 606으로 진행한다. 606에서, 객체 영역의 코너들이 객체 영역의 윤곽선에 기초하여 결정된다.
604에서 객체 영역(700)의 좌측 윤곽선(703) 및 우측 윤곽선(704)이 획득된 후, 객체 영역(700)의 4개의 대략적인 코너가 객체 영역(700)의 좌측 윤곽선(703) 및 우측 윤곽선(704)에 따라 추정될 수 있다. 도 7c를 참조하면, 일례로서 좌상 코너(CC0)를 보면, 좌상 코너(CC0)는 좌측 윤곽선(703)과 상부 윤곽선 사이의 교차점에 대응한다. 일반적으로, 상부 윤곽선은 대략 좌측 윤곽선에 가까운 일정 거리 내의 직선이다. 당업자라면, 일정 거리는 실험적으로 결정될 수 있다는 것을 이해할 수 있을 것이다. 상기 이해를 바탕으로, 객체 영역(700)의 대략적인 좌상 코너(CC0)는 다음과 같은 방법으로 추정될 수 있다: 먼저, 상부 윤곽의 픽셀 지점들을 계산하는 단계 - 상부 윤곽의 픽셀 지점들은 현재 픽셀 지점이 객체 영역에 있고 상부 이웃 픽셀이 배경 영역에 있는 픽셀 지점들임 -; 다음, 상부 윤곽의 상기 계산된 픽셀 지점을 각각 좌측 윤곽선(703) 상에 수직으로 투영하는 단계; 및 마지막으로, 좌측 윤곽선(703)의 개별 위치들에서 투영하여 획득한 상부 윤곽의 픽셀 지점들의 수를 카운트하고, 좌측 윤곽선(703) 상에 가장 큰 수를 갖는 지점을 대략적인 좌상 코너(CC0)로 선택하는 단계이다. 같은 방식으로, 객체 영역(700)의 대략적인 우상 코너(CC1), 우하 코너(CC2), 및 좌하 코너(CC3)를 각각 획득할 수 있다.
추정 코너로부터 오프셋된 두 지점 사이의 객체 영역의 윤곽선을 검색하는 방법을 이하 도 8 및 9를 참조하여 상세하게 설명한다. 도 8은 본 발명의 일 실시예에 따른 추정 코너로부터 오프셋된 두 지점 사이의 객체 영역의 윤곽선을 검색하는 방법을 도시하는 플로우챠트이다. 도 9a는 객체 영역의 추정 코너들을 나타내는 개략도이다. 도 9b는 추정 코너에서 벗어난 두 지점 사이의 객체 영역의 윤곽선들을 검색하는 단계를 나타내는 개략도이다. 도 9c는 객체 영역의 검색된 윤곽선들 및 그 교차점들을 나타내는 개략도이다.
도 8에 도시된 바와 같이, 802에서, 추정 코너는, 주방향에 있는 오프셋 지점 및 주방향에 수직인 방향에 있는 오프셋 지점 각각을 획득하기 위하여, 객체 영역에서 벗어나는 주방향을 따라 그리고 객체 영역에서 벗어나고 주방향에 수직인 방향을 따라 각각 소정의 정도의 범위 내에서 오프셋을 갖는다.
도 9a를 참조하면, 도 9a에 도시된 바와 같이, 객체 영역(105)의 윤곽의 4개의 추정된 대략적인 코너는 좌상 코너(CC0,(x0, y0)), 우상 코너(CC1,(x1, y1)), 우하 코너(CC2,(x2, y2)), 및 좌하 코너(CC3,(x3, y3))이다.
도 9b를 참조하면, 좌상 코너(CC0,(x0, y0))에 있어서, 좌상 코너(CC0,(x0, y0))는 오프셋 지점(CC01,(x0-t, y0))을 획득하기 위하여 객체 영역의 주방향을 따라 거리 t만큼 왼쪽으로 이동할 수 있다. 전술한 바와 같이, 객체 영역의 주방향은 객체 영역이 수평으로 위치할 때의 수평 방향, 즉, 객체 영역의 좌우측 윤곽선이 직선이고 상하부 윤곽선이 곡선인 경우의 수평 방향을 말한다. 또한, 좌상 코너(CC0,(x0,y0))는 오프셋 지점(CC02,(x0, y0+t))을 획득하기 위하여 거리 t만큼 주 방향에 수직인 방향을 따라 상부로 이동할 수 있다.
마찬가지로, 우상 코너(CC1,(x1, y1))에 있어서, 우상 코너(CC1,(x1, y1))는 오프셋 지점(CC11,(x1+t, y1))을 획득하기 위하여 객체 영역의 주방향을 따라 거리 t만큼 오른쪽으로 이동할 수 있다. 또한, 우상 코너(CC1,(x1, y1))는 오프셋 지점(CC12,(x1, y1+t))을 획득하기 위하여 거리 t만큼 주 방향에 수직인 방향을 따라 상부로 이동할 수 있다.
마찬가지로, 우하 코너(CC2,(x2, y2))에 있어서, 우하 코너(CC2,(x2, y2))는 오프셋 지점(CC21,(x2+t, y2))을 획득하기 위하여 객체 영역의 주방향을 따라 거리 t만큼 오른쪽으로 이동할 수 있다. 또한, 우하 코너(CC2,(x2, y2))는 오프셋 지점(CC22,(x2, y2-t))을 획득하기 위하여 거리 t만큼 주 방향에 수직인 방향을 따라 하부로 이동할 수 있다.
마찬가지로, 좌하 코너(CC3,(x3, y3))에 있어서, 좌하 코너(CC3,(x3, y3))는 오프셋 지점(CC21,(x3-t, y3))을 획득하기 위하여 객체 영역의 주방향을 따라 거리 t만큼 왼쪽으로 이동할 수 있다. 또한, 좌하 코너(CC3,(x3, y3))는 오프셋 지점(CC32,(x3, y3-t)을 획득하기 위하여 거리 t만큼 주 방향에 수직인 방향을 따라 하부로 이동할 수 있다.
당업자라면, 객체 영역에서 벗어나는 방향인 한 좌상 코너(CC0,(x0, y0)), 우상 코너(CC1,(x1, y1)), 우하 코너(CC2,(x2, y2)), 및 좌하 코너(CC3,(x3, y3)) 또한 일정 거리만큼 다른 방향을 향하여 오프셋될 수 있다는 것을 이해할 수 있을 것이다. 또한, 당업자라면 거리, t는 객체 영역의 정확한 코너의 위치를 포괄할 수 있어야 하고, 객체 영역의 정확한 코너의 위치로부터 너무 멀리 떨어져 오프셋되어서는 안 된다는 것을 이해할 수 있을 것이다. 예를 들면, 거리 t는 실험적으로 결정될 수 있거나, 경험에 따라 결정될 수 있거나 개별 검출 결과의 통계적 분석에 따라 결정될 수 있다.
다음, 본 방법은 804로 진행한다. 804에서, 주방향에 있는 객체 영역의 윤곽선은 각각 주방향에 있는 2개마다의 오프셋 지점 사이에서 추적되고, 주방향에 수직인 방향에 있는 객체 영역의 윤곽선은 각각 주방향에 수직인 방향에 있는 2개마다의 오프셋 지점 사이에서 추적된다.
도 9b를 참조하면, 802에서 좌상 코너(CC0,(x0, y0))가 오프셋 지점(CC01,(x0-t, y0))을 획득하기 위하여 거리 t만큼 주방향을 따라 좌측으로 이동하고 우상 코너(CC1,(x1, y1))가 오프셋 지점(CC11,(x1+t, y1))을 획득하기 위하여 거리 t만큼 주방향을 따라 우측으로 이동한 후, 객체 영역의 연장된 상부 윤곽선(EB0)은 지점(CC01,(x0-t, y0)) 및 지점(CC11,(x1+t, y1)) 사이에서 추적될 수 있다. 마찬가지로, 객체 영역의 연장된 하부 윤곽선(EB1)은 지점(CC31,(x3-t, y3))과 지점(CC21,(x2+t, y2)) 사이에서 추적될 수 있고, 객체 영역의 연장된 좌측 윤곽선(EB2)은 지점(CC02,(x0, y0+t))과 지점(CC32,(x3, y3-t)) 사이에서 추적될 수 있고, 객체 영역의 연장된 윤곽선(EB3)은 지점(CC12,(x1, y1+t))과 지점(CC22,(x2, y2-t)) 사이에서 추적될 수 있다. 최종 결과는 도 9c에 도시된 바와 같다.
전술한 바와 같이, 본 기술분야에는 두 지점 사이에서 라인을 추적하는 많은 방법이 있고, 예를 들면, 그래프-검색 기반의 방법 또는 동적 프로그래밍 방법이 사용될 수 있다(예컨대, J. F. Wang과 P.J. Howarth의 "Automatic Road Network Extraction From Landsat TM Imagery", in processing of ASPRS-ACSM annual convention, Baltimore, USA, Vol.1, pp. 429-438).
당업자라면, 코너로부터 오프셋된 다른 지점이, 객체 영역의 연장된 윤곽선이 코너로부터 오프셋된 다른 지점으로부터 획득될 수 있는 한, 객체 영역의 윤곽선을 검색하기 위하여 사용될 수 있다는 것을 이해할 수 있을 것이다.
다음, 본 방법은 806으로 진행한다. 806에서, 교차점이 주방향에 있는 윤곽선과 객체 영역 내의 주방향에 수직인 방향에 있는 윤곽선 사이에 있다.
도 9c에 도시된 바와 같이, 연장된 상부 윤곽선(EB0)과 연장된 좌측 윤곽선(EB2)사이의 교차점(C0), 연장된 상부 윤곽선(EB0)과 연장된 우측 윤곽선(EB3) 사이의 교차점(C1), 연장된 하부 윤곽선(EB1)과 연장된 좌측 윤곽선(EB2) 사이의 교차점(C3), 및 연장된 하부 윤곽선(EB1)과 연장된 우측 윤곽선(EB3) 사이의 교차점(C2)이 각각 결정된다.
본 기술분야에는 두 라인 사이의 교차점을 계산하는 많은 방법이 존재하고, 두 윤곽선 사이의 교차점을 계산하기 위하여 두 라인 사이의 교차점을 계산하는 임의의 방법이 사용될 수 있으므로, 특정한 세부사항은 본 명세서에서 더 이상 설명하지 않는다. 만약 두 윤곽선 사이에 단지 하나의 교차점이 존재하는 경우, 이 교차점은 객체 영역의 최종 코너로 간주할 수 있다. 만약 두 윤곽선 사이에 복수의 교차점이 존재하는 경우, 복수의 교차점 중의 특정 교차점이 객체 영역의 최종 코너로 선택될 수 있다. 예를 들면, 이들 복수의 교차점들의 좌표값의 평균값이 계산되어, 좌표값이 좌표값의 평균값에 가장 근접하는 교차점이 객체 영역의 최종 코너로 선택될 수 있다.
이하, 화상 내 객체 영역의 윤곽을 결정하기 위한 화상 처리 장치를 도 11을 참조하여 상세하게 설명한다. 도 11은 본 발명의 또 다른 실시예에 따른 화상 내 객체 영역의 윤곽을 결정하기 위한 화상 처리 장치를 나타내는 블록도이다.
도 11에 도시된 바와 같이, 화상 내의 객체 영역의 윤곽을 결정하기 위한 화상 처리 장치(1100)는 코너 추정부(1102), 윤곽선 검색부(1104), 윤곽 결정부(1106), 및 화상 정정부(1108)를 포함한다. 특히, 코너 추정부(1102)는 획득한 화상 내의 객체 영역의 윤곽의 코너를 추정하기 위하여 사용되며, 윤곽선 검색부(1104)는 각각 객체 영역에서 벗어나는 방향을 따라 소정의 정도의 범위에서 추정 코너로부터 오프셋을 갖는 2개마다의 지점 사이의 객체 영역의 윤곽선을 검색하기 위하여, 그리고 상기 윤곽선의 교차점을 객체 영역의 윤곽의 최종 코너로 결정하기 위하여 사용되며, 윤곽 결정부(1106)는 최종 코너 사이의 윤곽선을 객체 영역의 최종 윤곽으로 결정하기 위하여 사용되며, 화상 정정부(1108)는 객체 영역의 결정된 최종 윤곽에 따라 윤곽-기반 정정 알고리즘을 사용하여 화상 내 객체 영역을 정정하기 위하여 사용된다.
화상 처리 장치(1100)는 도 2에 도시된 방법에 대응하는 장치로서, 이에 대한 구체적인 세부사항은 본 명세서에서 더 이상 설명하지 않는다.
코너 추정부를 도 12를 참조하여 상세하게 설명한다. 도 12는 본 발명의 또 다른 실시예에 따른 코너 추정부를 나타내는 블록도이다.
도 12에 도시된 바와 같이, 코너 추정부(1102)는 축소 및 평활화부(1200), 분리부(1202), 및 코너 검출부(1204)를 포함한다. 특히, 축소 및 평활화부(1200)는 획득한 화상에 대하여 축소 및 평활화 처리를 수행하기 위하여 사용되며, 분리부(1202)는 축소 및 평활화 처리가 수행된 화상을 배경 영역과 객체 화상으로 분리하기 위하여 사용되며, 코너 검출부(1204)는 이진화 화상에 기초하여 객체 영역의 윤곽의 코너를 검출하기 위하여 사용된다.
코너 추정부(1102)는 도 3에 도시된 바의 방법에 대응하는 장치이고, 이의 구체적인 세부사항은 본 명세서에서 더 이상 설명하지 않는다.
이하, 분리부를 도 13을 참조하여 상세하게 설명한다. 도 13은 본 발명의 또 다른 실시예에 따른 분리부를 나타내는 블록도이다.
도 13에 도시된 바와 같이, 분리부(1202)는 배경색 추정부(1300), 거리 계산부(1302), 및 이진화 분리부(1304)를 포함한다. 특히, 배경색 추정부(1300)는 축소 및 평활화 처리가 수행된 화상의 배경색을 추정하기 위하여 사용되며, 거리 계산부(1302)는 화상 내의 개별 픽셀 및 배경색 사이의 거리를 계산하기 위하여 사용되며, 이진화 분리부(1304)는 화상을 이진화 알고리즘에 따른 배경 영역과 객체 영역을 포함하는 이진화 화상으로 분리하기 위하여 사용된다.
분리부(1202)는 도 5에 도시된 바의 방법에 대응하는 장치로서, 이의 구체적인 세부사항은 본 명세서에서 더 이상 설명하지 않는다.
코너 검출부를 도 14를 참조하여 이하에서 상세하게 설명한다. 도 14는 본 발명의 또 다른 실시예에 따른 코너 검출부를 나타내는 블록도이다.
도 14에 도시된 바와 같이, 코너 검출부(1204)는 수평 중앙선 검출부(1400), 좌우 수직 윤곽 검출부(1402), 및 코너 계산부(1404)를 포함한다. 특히, 수평 중앙선 검출부(1400)는 주방향에 있는 객체 영역의 중앙선을 추정하기 위하여 사용되고, 좌우 수직 윤곽 검출부(1402)는 중앙선에 기초하여 중앙선에 수직인 객체 영역의 윤곽선을 추정하기 위하여 사용되고, 코너 계산부(1404)는 객체 영역의 윤곽선에 따라 객체 영역의 코너를 결정하기 위하여 사용된다.
코너 검출부(1204)는 도 6에 도시된 바의 방법에 대응하는 장치로서, 이의 구체적인 세부사항은 본 명세서에서 더 이상 설명하지 않는다.
윤곽선 검색부를 도 15를 참조하여 이하에서 상세하게 설명한다. 도 15는 본 발명의 또 다른 실시예에 따른 윤곽선 검색부를 나타내는 블록도이다.
도 15에 도시된 바와 같이, 윤곽선 검색부(1104)는 코너 오프셋부(1500), 윤곽선 추적부(1502), 및 교차점 결정부(1504)를 포함한다. 특히, 코너 오프셋부(1500)는, 주방향에 있는 오프셋 지점들 및 주방향의 수직 방향에 있는 오프셋 지점들을 각각 획득하기 위하여, 각각 객체 영역에서 벗어나는 주방향을 따라서 및 객체 영역에서 벗어나는 방향으로서 주방향에 수직인 방향을 따라서, 소정의 정도의 범위에서 추정 코너를 오프셋하기 위하여 사용되며, 윤곽선 추적부(1502)는 각각 주방향에 있는 2개마다의 오프셋 지점 사이의 주방향에 있는 객체 영역의 윤곽선을 추적하고, 각각 주방향의 수직 방향에 있는 2개마다의 오프셋 지점 사이의 주방향에 수직인 방향에 있는 객체 영역의 윤곽선을 추적하기 위하여 사용되며, 교차점 결정부(1504)는 주방향에 있는 윤곽선과 객체 영역 내의 주방향의 수직 방향에 있는 윤곽선 사이의 교차점을 결정하기 위하여 사용된다.
윤곽선 검색부(1104)는 도 8에 도시된 바의 방법에 대응하는 장치이고, 이의 구체적인 세부사항은 본 명세서에서 더 이상 설명하지 않는다.
도 16은 본 발명의 장치 및 방법이 구현된 컴퓨터의 예시적 구조를 나타내는 블록도이다.
도 16에서, 중앙처리장치(CPU)(1601)는 ROM(Read Only Memory)(1602)에 저장된 프로그램 또는 저장부(1608)에서 RAM(Random Access Memory)(1603)으로 로딩된 프로그램에 따라 다양한 프로세스를 수행한다. 필요에 따라, CPU(1601)가 다양한 프로세스를 수행할 때 필요한 데이터 및 이와 유사한 것은 RAM(1603)에 저장된다.
CPU(1601), ROM(1602) 및 RAM(1603)은 버스(1604)를 경유하여 상호 연결된다. 입력/출력 인터페이스(1605) 또한 버스(1604)에 연결된다.
다음의 구성들이 입력/출력 인터페이스(1605)에 연결된다: 키보드, 마우스 등을 포함하는 입력부(1606), CRT(Cathode Ray Tube) 디스플레이, LCD(Liquid Crystal Display) 등의 디스플레이, 스피커 등을 포함하는 출력부(1607), 하드디스크 등을 포함하는 저장부(1608), 및 LAN 카드, 모뎀 등의 네트워크 인터페이스 카드를 포함하는 통신부(1609). 통신부(1609)는 인터넷 등의 네트워크를 경유하여 통신을 수행한다.
필요에 따라, 드라이브(1610) 또한 입력/출력 인터페이스(1605)에 연결된다. 자기디스크, 광디스크, 자기-광디스크, 반도체 메모리 등의 탈착식 매체(1611)가 필요한 경우 드라이브(1610) 상에 설치되며, 컴퓨터 프로그램이 필요한 경우 저장부(1608)에 설치된다.
소프트웨어에 의하여 상기 언급한 단계 및 처리를 구현하는 경우, 소프트웨어를 구성하는 프로그램은 인터넷 등의 네트워크 또는 탈착식 매체(1611) 등의 저장 매체로부터 설치된다.
당업자라면, 이러한 저장 매체는 프로그램이 저장되고 사용자에게 프로그램을 제공하는 방법에서 분리되어 배포되는 도 16에 도시된 바와 같은 탈착식 매체(1611)에 한정되지 않는다는 것을 이해할 수 있을 것이다. 탈착식 매체(1611)의 실시예로서는, 자기디스크, 광디스크(CD-ROM 및 DVD 포함), 자기광디스크(MD(Mini Disk) 포함), 및 반도체 메모리를 포함한다. 이와 다른 선택으로서, 저장 매체는 ROM(1602), 저장부(1608), 등에 포함된 하드디스크일 수 있고, 여기에 프로그램이 저장되어, 동일한 것을 포함하는 방법과 함께 사용자에게 배포된다.
비록 본 발명이 상기 상세한 설명에 있는 특정의 실시예를 참조하여 설명하였으나, 당업자라면 첨부된 특허청구범위에 의하여 정의된 바의 본 발명의 범위를 벗어나지 않고 다양한 수정과 변형이 이루어질 수 있음을 이해하여야 한다.

Claims (11)

  1. 화상 처리 방법으로서,
    획득한 화상 내의 객체 영역의 윤곽의 코너들을 추정하는 단계;
    상기 객체 영역으로부터 벗어나는 방향을 따라 미리 정해진 정도의 범위 내에서 상기 추정된 코너들로부터 오프셋되는 2개마다의 지점 사이에서 상기 객체 영역의 윤곽선들을 각각 검색하고, 상기 윤곽선들의 교차점들을 상기 객체 영역의 상기 윤곽의 최종 코너들로서 결정하는 단계; 및
    상기 최종 코너들 사이의 윤곽선들을 상기 객체 영역의 최종 윤곽으로서 결정하는 단계
    를 포함하는 화상 처리 방법.
  2. 제1항에 있어서,
    상기 검색하는 단계는,
    상기 객체 영역으로부터 벗어나는 주방향을 따라서 그리고 상기 객체 영역으로부터 벗어나고 상기 주방향에 수직인 방향을 따라서 상기 미리 정해진 정도의 범위 내에서 상기 추정된 코너들을 각각 오프셋하여, 상기 주방향에 있는 오프셋 지점들 및 상기 주방향에 수직인 방향에 있는 오프셋 지점들을 각각 획득하는 단계;
    상기 주방향에 있는 2개마다의 오프셋 지점들 사이의 상기 주방향에 있는 상기 객체 영역의 윤곽선들을 각각 추적하고, 상기 주방향에 수직인 방향에 있는 2개마다의 오프셋 지점들 사이의 상기 주방향에 수직인 방향에 있는 상기 객체 영역의 윤곽선들을 각각 추적하는 단계; 및
    상기 주방향에 있는 윤곽선들과 상기 객체 영역에 있는 상기 주방향에 수직인 방향에 있는 윤곽선들 사이의 교차점들을 결정하는 단계
    를 포함하는 화상 처리 방법.
  3. 제2항에 있어서,
    상기 주방향에 있는 하나의 윤곽선과 상기 객체 영역에 있는 상기 주방향에 수직인 방향에 있는 하나의 윤곽선 사이에 복수의 교차점이 존재하는 경우, 상기 복수의 교차점 중의 특정된 교차점이 상기 객체 영역의 상기 최종 코너로서 선택되는 화상 처리 방법.
  4. 제1항에 있어서,
    상기 획득한 화상 내의 객체 영역의 윤곽의 코너들을 추정하는 단계는,
    주방향에 있는 상기 객체 영역의 중앙선을 추정하는 단계;
    상기 중앙선에 기초하여 상기 중앙선에 수직인 상기 객체 영역의 윤곽선들을 추정하는 단계; 및
    상기 객체 영역의 상기 윤곽선들에 따라 상기 객체 영역의 상기 코너들을 결정하는 단계
    를 포함하는 화상 처리 방법.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 객체 영역의 상기 결정된 최종 윤곽에 따라 윤곽-기반의 정정 알고리즘을 사용하여 상기 화상 내의 상기 객체 영역을 정정하는 단계를 더 포함하는 화상 처리 방법.
  6. 화상 처리 장치로서,
    획득한 화상 내의 객체 영역의 윤곽의 코너들을 추정하도록 구성된 코너 추정부;
    상기 객체 영역으로부터 벗어나는 방향을 따라 미리 정해진 정도의 범위 내에서 상기 추정된 코너들로부터 오프셋되는 2개마다의 지점 사이의 상기 객체 영역의 윤곽선들을 각각 검색하고, 상기 윤곽선들의 교차점들을 상기 객체 영역의 상기 윤곽의 최종 코너들로서 결정하도록 구성된 윤곽선 검색부; 및
    상기 최종 코너들 사이의 윤곽선들을 상기 객체 영역의 최종 윤곽으로서 결정하도록 구성된 윤곽 결정부
    를 포함하는 화상 처리 장치.
  7. 제6항에 있어서,
    상기 윤곽선 검색부는,
    상기 객체 영역으로부터 벗어나는 주방향을 따라서 그리고 상기 객체 영역으로부터 벗어나고 상기 주방향에 수직인 방향을 따라서 상기 미리 정해진 정도의 범위 내에서 상기 추정된 코너들을 각각 오프셋하여, 상기 주방향에 있는 오프셋 지점들 및 상기 주방향에 수직인 방향에 있는 오프셋 지점들을 각각 획득하도록 구성된 코너 오프셋부;
    상기 주방향에 있는 2개마다의 오프셋 지점 사이의 상기 주방향에 있는 상기 객체 영역의 윤곽선들을 각각 추적하고, 상기 주방향에 수직인 방향에 있는 2개마다의 오프셋 지점 사이의 상기 주방향에 수직인 방향에 있는 상기 객체 영역의 윤곽선들을 각각 추적하도록 구성된 윤곽선 추적부; 및
    상기 주방향에 있는 윤곽선들과 상기 객체 영역에 있는 상기 주방향에 수직인 방향에 있는 윤곽선들 사이의 교차점들을 결정하도록 구성된 교차점 결정부
    를 포함하는 화상 처리 장치.
  8. 제7항에 있어서,
    상기 주방향에 있는 하나의 윤곽선과 상기 객체 영역에 있는 상기 주방향에 수직인 방향에 있는 하나의 윤곽선 사이에 복수의 교차점이 존재하는 경우, 상기 복수의 교차점 중의 특정된 교차점이 상기 객체 영역의 상기 최종 코너로서 선택되는 화상 처리 장치.
  9. 제6항에 있어서,
    상기 코너 추정부는,
    주방향에 있는 상기 객체 영역의 중앙선을 추정하도록 구성된 유닛;
    상기 중앙선에 기초하여 상기 중앙선에 수직인 상기 객체 영역의 윤곽선들을 추정하도록 구성된 유닛; 및
    상기 객체 영역의 상기 윤곽선들에 따라 상기 객체 영역의 상기 코너들을 결정하도록 구성된 유닛
    을 포함하는 화상 처리 장치.
  10. 제6항 내지 제9항 중 어느 한 항에 있어서,
    상기 객체 영역의 상기 결정된 최종 윤곽에 따라 윤곽-기반의 정정 알고리즘을 사용하여 상기 화상 내의 상기 객체 영역을 정정하도록 구성된 유닛을 더 포함하는 화상 처리 장치.
  11. 제6항 내지 제9항 중 어느 한 항에 있어서,
    상기 추정된 코너들로부터 오프셋된 지점들은 상기 객체 영역의 외부에 있는 화상 처리 장치.
KR1020120056147A 2011-06-15 2012-05-25 화상 처리 방법 및 화상 처리 장치 KR101377910B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201110159928.0A CN102831578B (zh) 2011-06-15 2011-06-15 图像处理方法和图像处理设备
CN201110159928.0 2011-06-15

Publications (2)

Publication Number Publication Date
KR20120138642A KR20120138642A (ko) 2012-12-26
KR101377910B1 true KR101377910B1 (ko) 2014-03-24

Family

ID=46545223

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120056147A KR101377910B1 (ko) 2011-06-15 2012-05-25 화상 처리 방법 및 화상 처리 장치

Country Status (5)

Country Link
US (1) US9077926B2 (ko)
EP (1) EP2536123B1 (ko)
JP (1) JP5958101B2 (ko)
KR (1) KR101377910B1 (ko)
CN (1) CN102831578B (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104574434B (zh) * 2013-10-24 2017-09-29 株式会社理光 物体检测方法和装置
CN104657730B (zh) * 2013-11-20 2018-01-05 富士通株式会社 文档图像的校正装置、方法以及扫描仪
CN107480666B (zh) * 2017-08-10 2020-08-07 深圳市碧海扬帆科技有限公司 图像捕获设备及其扫描目标提取方法、装置、存储介质
EP3672216B1 (en) * 2017-09-29 2023-01-11 Panasonic Intellectual Property Management Co., Ltd. Placement detection system
CN111307039A (zh) * 2020-03-06 2020-06-19 珠海随变科技有限公司 一种物体长度识别方法、装置、终端设备和存储介质
CN114327341A (zh) * 2021-12-31 2022-04-12 江苏龙冠影视文化科技有限公司 远程交互式虚拟展示系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030156201A1 (en) 2002-02-20 2003-08-21 Tong Zhang Systems and methods for processing a digitally captured image
JP4013060B2 (ja) 2003-01-21 2007-11-28 日本電気株式会社 画像補正方法および画像補正装置
JP2011009813A (ja) 2009-06-23 2011-01-13 Ricoh Co Ltd 画像切出装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3436025B2 (ja) * 1995-12-27 2003-08-11 ミノルタ株式会社 読取り画像の修正方法及び画像読取り装置
JP3631333B2 (ja) * 1996-08-23 2005-03-23 シャープ株式会社 画像処理装置
JP4037512B2 (ja) * 1997-04-15 2008-01-23 コニカミノルタビジネステクノロジーズ株式会社 画像読取装置
JPH10336439A (ja) * 1997-05-28 1998-12-18 Minolta Co Ltd 画像読取り装置
JP3425366B2 (ja) * 1998-06-30 2003-07-14 シャープ株式会社 画像補正装置
JP2004040395A (ja) 2002-07-02 2004-02-05 Fujitsu Ltd 画像歪み補正装置、方法及びプログラム
JP4508553B2 (ja) * 2003-06-02 2010-07-21 カシオ計算機株式会社 撮影画像投影装置、及び撮影画像の補正方法
JP2005122323A (ja) * 2003-10-14 2005-05-12 Casio Comput Co Ltd 撮影装置、画像処理装置、撮影装置の画像処理方法及びプログラム
JP4225224B2 (ja) * 2004-03-19 2009-02-18 カシオ計算機株式会社 画像処理装置、撮影画像投影装置、画像処理方法及びプログラム
US7330604B2 (en) * 2006-03-02 2008-02-12 Compulink Management Center, Inc. Model-based dewarping method and apparatus
JP4801551B2 (ja) 2006-09-27 2011-10-26 富士通株式会社 画像領域検出方法、該プログラム、及び該装置
JP4482898B2 (ja) * 2007-10-26 2010-06-16 村田機械株式会社 画像処理装置及び画像読取装置
JP5153593B2 (ja) * 2008-12-02 2013-02-27 株式会社Pfu 画像処理装置および画像処理方法
JP4758493B2 (ja) * 2009-04-03 2011-08-31 シャープ株式会社 携帯端末装置、撮像画像処理システム、携帯端末装置の制御方法、プログラムおよび記録媒体
JP4913911B1 (ja) * 2011-02-16 2012-04-11 パナソニック株式会社 画像処理装置およびこれを備えた原稿読取システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030156201A1 (en) 2002-02-20 2003-08-21 Tong Zhang Systems and methods for processing a digitally captured image
JP4013060B2 (ja) 2003-01-21 2007-11-28 日本電気株式会社 画像補正方法および画像補正装置
JP2011009813A (ja) 2009-06-23 2011-01-13 Ricoh Co Ltd 画像切出装置

Also Published As

Publication number Publication date
US20120321198A1 (en) 2012-12-20
CN102831578B (zh) 2014-12-17
EP2536123B1 (en) 2020-02-19
US9077926B2 (en) 2015-07-07
CN102831578A (zh) 2012-12-19
EP2536123A1 (en) 2012-12-19
JP5958101B2 (ja) 2016-07-27
KR20120138642A (ko) 2012-12-26
JP2013004090A (ja) 2013-01-07

Similar Documents

Publication Publication Date Title
US8457403B2 (en) Method of detecting and correcting digital images of books in the book spine area
JP4952625B2 (ja) 透視変換歪み発生文書画像補正装置および方法
JP4955096B2 (ja) 検出装置、検出方法、検出プログラム、および記録媒体
KR101377910B1 (ko) 화상 처리 방법 및 화상 처리 장치
JP4847592B2 (ja) 歪み文書画像を補正する方法及びシステム
US10748023B2 (en) Region-of-interest detection apparatus, region-of-interest detection method, and recording medium
US20160050338A1 (en) Skew detection
US8811751B1 (en) Method and system for correcting projective distortions with elimination steps on multiple levels
US8897600B1 (en) Method and system for determining vanishing point candidates for projective correction
KR20130126679A (ko) 화상 처리 장치 및 픽셀값 보간 방법
JP5055449B2 (ja) ページ境界を検出する方法及び装置
US10455163B2 (en) Image processing apparatus that generates a combined image, control method, and storage medium
US8913836B1 (en) Method and system for correcting projective distortions using eigenpoints
US8306335B2 (en) Method of analyzing digital document images
JP6542230B2 (ja) 投影ひずみを補正するための方法及びシステム
US9094617B2 (en) Methods and systems for real-time image-capture feedback
JP2009151759A (ja) 画像処理方法及び画像処理装置
JP2007206963A (ja) 画像処理装置及び画像処理方法及びプログラム及び記憶媒体
KR20100009452A (ko) 영상 처리 방법
US11900643B2 (en) Object detection method and object detection system
JP2007328652A (ja) 画像処理装置および画像処理プログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170220

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180219

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20200218

Year of fee payment: 7