KR20140137254A - 문자 인식을 이용한 위치 정보 제공 단말, 서버, 시스템 및 방법 - Google Patents

문자 인식을 이용한 위치 정보 제공 단말, 서버, 시스템 및 방법 Download PDF

Info

Publication number
KR20140137254A
KR20140137254A KR1020130057967A KR20130057967A KR20140137254A KR 20140137254 A KR20140137254 A KR 20140137254A KR 1020130057967 A KR1020130057967 A KR 1020130057967A KR 20130057967 A KR20130057967 A KR 20130057967A KR 20140137254 A KR20140137254 A KR 20140137254A
Authority
KR
South Korea
Prior art keywords
text
data
location information
information
character recognition
Prior art date
Application number
KR1020130057967A
Other languages
English (en)
Inventor
이지영
이강재
Original Assignee
서울시립대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울시립대학교 산학협력단 filed Critical 서울시립대학교 산학협력단
Priority to KR1020130057967A priority Critical patent/KR20140137254A/ko
Publication of KR20140137254A publication Critical patent/KR20140137254A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W88/00Devices specially adapted for wireless communication networks, e.g. terminals, base stations or access point devices
    • H04W88/02Terminal devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Character Discrimination (AREA)

Abstract

본 발명의 일 실시 예에 따른 문자 인식을 이용한 위치 정보 제공 방법은, 이미지를 획득하는 단계, 상기 획득된 이미지로부터 텍스트를 인식하는 단계, 상기 인식된 텍스트를 표준화된 형태로 처리하는 단계, 미리 저장된 위치 정보 테이블로부터 상기 처리된 텍스트에 대응하는 위치 데이터를 추출하는 단계 및 상기 위치 데이터를 이용하여 위치 정보를 표시하는 단계를 포함한다.

Description

문자 인식을 이용한 위치 정보 제공 단말, 서버, 시스템 및 방법{TERMINAL, SERVER, SYSTEM AND METHOD FOR PROVIDING LOCATION INFORMATION USING CHARACTER RECOGNITION}
본 발명은 문자 인식을 이용한 위치 정보 제공 단말, 서버, 시스템 및 방법에 관한 것으로 특히, 단말기에 포함된 카메라 모듈을 통해 획득된 이미지로부터 문자를 인식하고, 인식된 문자를 이용하여 위치 정보를 제공하는 단말, 서버, 시스템 및 방법에 관한 것이다.
최근 스마트폰이 널리 보급되면서, 스마트폰의 위치 정보에 대한 활용 및 위치 기반 서비스 개발이 급증하고 있다. 위치 기반 서비스는 위치 정보를 이용하여 사용자에게 쇼핑, 여행, 교통 등의 정보를 제공한다.
일반적으로 스마트폰은 내부에 탑재된 GPS 모듈을 통해 GPS 위성으로부터 실시간으로 위치 정보를 전송받을 수 있으며, 위치 기반 어플리케이션을 수행하여 전송된 위치 정보를 활용할 수 있다.
특히, 복잡한 실내 공간에서의 위치 기반 서비스 요구가 늘고 있는데, 실내 공간에서는 벽, 기둥 등과 같은 물리적인 장애물로 인하여 다중경로 간섭이 발생하기 때문에, GPS의 활용이 어려운 문제가 있다.
이와 같은 GPS 활용의 문제를 해결하기 위하여, 무선 근거리 통신망(Wireless LAN), RFID(Radio Frequency Identification), 블루투스 등의 무선 네트워크 기술이 활용되고 있다.
그러나, 무선 네트워크 기술에 따른 위치 정보 획득은 기반 시설 구축에 많은 비용이 들고, 측위에 있어 계산 집약적이며, 실내 환경에 따라 정확도가 크게 변경된다는 한계가 존재한다.
본 발명은 쉽고 단순하며, 저비용으로 일정한 정확도가 보장되는 문자 인식을 이용한 위치 정보 제공 단말, 서버, 시스템 및 방법을 제공한다.
본 발명의 일 실시 예에 따른 문자 인식을 이용한 위치 정보 제공 방법은, 이미지를 획득하는 단계, 상기 획득된 이미지로부터 텍스트를 인식하는 단계, 상기 인식된 텍스트를 표준화된 형태로 처리하는 단계, 미리 저장된 위치 정보 테이블로부터 상기 처리된 텍스트에 대응하는 위치 데이터를 추출하는 단계 및 상기 위치 데이터를 이용하여 위치 정보를 표시하는 단계를 포함한다.
본 발명의 일 실시 예에 따른 문자 인식을 이용한 위치 정보 제공 시스템은 이미지를 획득하고, 상기 획득된 이미지로부터 텍스트를 인식하여 표준화된 형태로 처리한 텍스트 데이터를 전송하며, 전송된 텍스트 데이터에 대응하는 위치 정보를 표시하는 단말 및 위치 정보 테이블을 미리 저장하고, 상기 단말로부터 상기 텍스트 데이터를 수신하여, 상기 위치 정보 테이블에서 상기 텍스트 데이터에 대응하는 위치 데이터를 추출하며, 상기 추출된 위치 데이터를 상기 단말에 전송하는 서버를 포함한다.
본 발명의 일 실시 예에 따른 문자 인식을 이용한 위치 정보 제공 단말은 텍스트에 대응하는 위치 정보 테이블이 미리 저장된 서버로부터 문자 인식을 통하여 위치 정보를 제공하는 단말에 있어서, 이미지를 획득하고, 상기 획득된 이미지로부터 텍스트를 인식하는 입력부, 상기 인식된 텍스트를 표준화된 형태로 처리하는 정제부, 상기 처리된 텍스트 데이터를 전송하고, 상기 처리된 텍스트 데이터에 대응하는 위치 데이터를 수신하는 네트워크부, 상기 수신된 위치 데이터를 이용하여 위치 정보를 표시하는 디스플레이부 및 상기 입력부를 통하여 이미지를 획득하고, 상기 획득된 이미지로부터 텍스트를 인식하도록 제어하고, 상기 정제부를 통하여 상기 인식된 텍스트를 표준화된 형태로 처리하도록 제어하며, 상기 네트워크부가 상기 처리된 텍스트 데이터를 전송하고, 상기 처리된 텍스트 데이터에 대응하는 위치 데이터를 수신하도록 제어하며, 상기 디스플레이부에 상기 위치 데이터를 이용한 상기 위치 정보가 표시되도록 제어하는 제어부를 포함한다.
본 발명의 실시 예에 따른 문자 인식을 이용한 위치 정보 제공 서버는 단말로부터 전송된 텍스트에 대응되는 위치 정보를 제공하는 서버에 있어서, 상기 단말로부터 전송된 텍스트를 처리하여, 상기 텍스트 데이터에 대응하는 위치 데이터를 검색하는 탐색부 및 실내 공간의 층 구별 정보, 방 번호 정보, 2차원 포인트 형태의 좌표 정보를 포함하는 제1 테이블 및 전화 번호 정보, 타입 정보를 포함하는 제2 테이블을 연계하여 미리 저장한 데이터 베이스를 포함한다.
본 발명의 실시 예에 따르면, 문자 인식을 이용하여 정보 획득이 쉽고, 비용이 적게 들며, 복잡한 측위 계산 없이도 공간 단위의 정밀도가 보장되는 위치 정보를 제공할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 문자 인식을 이용한 위치 정보 제공 시스템의 구성도이다.
도 2는 본 발명의 일 실시 예에 따른 문자 인식을 이용한 위치 정보 제공 방법을 설명하기 위한 래더 다이어그램(ladder diagram)이다.
도 3은 본 발명의 일 실시 예에 따른 위치 정보 제공 시스템에 포함된 텍스트 인식 모듈의 구성도이다.
도 4는 본 발명의 일 실시 예에 따른 위치 정보 제공 시스템의 문자 인식을 위한 이미지 영역에 대하여 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시 예에 따른 위치 정보 제공 시스템이 추출한 텍스트 데이터를 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시 예에 따른 위치 정보 제공 시스템에 포함된 데이터 정제 및 분류 모듈의 구성도이다.
도 7은 본 발명의 일 실시 예에 따른 위치 정보 제공 시스템이 수행하는 데이터 정제 방법을 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시 예에 따른 위치 정보 제공 시스템에 포함된 데이터베이스 탐색 모듈의 구성도이다.
도 9는 본 발명의 일 실시 예에 따른 위치 정보 제공 시스템의 데이터베이스에 포함된 정보를 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시 예에 따른 위치 정보 제공 시스템에서 수행되는 데이터 매칭 방법을 설명하기 위한 흐름도이다.
도 11은 본 발명의 일 실시 예에 따른 위치 정보 제공 시스템에서 수행되는 데이터 수동 매칭을 설명하기 위한 도면이다.
도 12는 본 발명의 일 실시 예에 따른 위치 정보 제공 시스템상에서 문자 인식에 따른 위치 정보가 표시된 화면을 도시한 도면이다.
도 13은 본 발명의 일 실시 예에 따른 위치 정보 제공 시스템상에서 연관 검색 요청에 따른 결과가 표시된 화면을 도시한 도면이다.
이하, 본 발명과 관련된 이동 단말기에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 네비게이션 등이 포함될 수 있다. 그러나, 본 명세서에 기재된 실시예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.
도 1은 본 발명의 일 실시 예에 따른 문자 인식을 이용한 위치 정보 제공 시스템의 구성도이다.
도 1을 참조하면, 본 발명의 일 실시 예에 따른 문자 인식을 이용한 위치 정보 제공 시스템(1)은 단말(100) 및 서버(200)를 포함한다.
단말(100)은 입력부(110), 제어부(130), 정제부(150), 네트워크부(170) 및 디스플레이부(190)를 포함한다.
입력부(110)는 사용자 선택에 따라 촬영된 이미지로부터 텍스트 데이터를 인식할 수 있다. 사용자 선택에 따라 촬영된 이미지는 공간에 대한 서술적인 정보 예컨대, 전화 번호, 방 번호, 상호명을 포함할 수 있다.
제어부(130)는 단말(100)에 포함된 구성 요소의 전반적인 동작을 제어할 수 있다. 예컨대, 제어부(130)는 이미지 데이터로부터 텍스트 데이터가 인식되도록 입력부(110)의 동작을 제어할 수 있다. 이때, 제어부(130)는 텍스트 데이터가 효과적으로 인식될 수 있도록, 해당 이미지에서 앞서 설명한 서술적인 정보를 특정하는 사용자 입력을 수신할 수 있도록 디스플레이부(190)에 사용자 인터페이스를 표시할 수도 있다.
정제부(150)는 제어부(130)의 제어에 따라, 입력부(110)로부터 인식된 텍스트 데이터를 매칭이 가능한 표준화된 형태로 정제(refine)할 수 있다. 또한, 정제부(150)는 정제된 텍스트 데이터를 정보의 종류별 예컨대, 전화 번호, 방 번호 또는 상호명으로 분류할 수 있다.
네트워크부(170)는 제어부(130)의 제어에 따라, 정제 및 분류된 텍스트 데이터에 대한 질의문를 서버(200)에 전송할 수 있고, 질의문에 대한 대응으로 서버(200)로부터 텍스트 데이터에 해당하는 위치 데이터를 수신할 수 있다.
디스플레이부(190)는 제어부(130)의 제어에 따라, 카메라의 촬영 화면, 각종 사용자 인터페이스 등을 표시할 수 있다. 또한, 디스플레이부(190)는 문자 인식에 따른 위치 정보를 표시할 수 있다.
서버(200)는 탐색부(210) 및 데이터베이스(230)를 포함한다.
탐색부(210)는 단말(100)로부터 전송된 질의문을 처리하고, 질의문에 포함된 텍스트 데이터에 대응하는 위치 데이터를 데이터베이스(230) 내의 테이블에서 검색할 수 있다.
데이터베이스(230)는 실내 공간에 대한 정보, 실내 공간에 대한 부가 정보, 실내 공간에 대한 이름 정보 각각을 저장하는 테이블을 저장할 수 있다. 각 테이블들은 서로 연계될 수 있다. 즉, 데이터베이스(230)는 실내 공간에 대한 식별 정보와 위치 정보를 연계하여 저장할 수 있다.
도 2는 본 발명의 일 실시 예에 따른 문자 인식을 이용한 위치 정보 제공 방법을 설명하기 위한 래더 다이어그램(ladder diagram)이다.
도 2를 참조하면, 단말(100)은 실내 공간의 이미지 데이터를 획득한다(S101). 다음은 도 3을 참조하여 이미지 데이터 획득에 대하여 설명한다.
도 3은 본 발명의 일 실시 예에 따른 위치 정보 제공 시스템에 포함된 텍스트 인식 모듈의 구성도이다.
도 3을 참조하면, 단말(100)의 입력부(110)는 카메라 모듈(111) 및 OCR 엔진(113)을 포함한다.
카메라 모듈(111)은 촬영 모드에서 이미지 센서에 의해 얻어지는 이미지 데이터(112)를 획득한다. 카메라 모듈(111)에 의해 획득된 이미지 데이터(112)는 처리 과정을 거쳐 디스플레이부(190)에 표시될 수도 있다. 한편, 카메라 모듈(111)에 의해 획득된 이미지 데이터(112)는 OCR 엔진(113)에 전송될 수 있다.
다시 도 2를 참조한다.
이어서, 단말(110)은 획득된 이미지 데이터로부터 텍스트 데이터를 인식한다(S103). 다음은 도 4를 참조하여 텍스트 데이터 인식에 대하여 설명한다.
도 4는 본 발명의 일 실시 예에 따른 위치 정보 제공 시스템의 문자 인식을 위한 이미지 영역에 대하여 설명하기 위한 도면이다.
도 4를 참조하면, OCR 프로그램이 실행된 단말(100)의 디스플레이부(190)는 텍스트 데이터 인식을 위한 화면을 표시한다.
텍스트 데이터 인식을 위한 화면은 카메라 모듈(111)을 통해 획득된 이미지 데이터(112)가 표시될 수 있다. 예컨대, 이미지 데이터(112)는 실내 공간에 배치된 점포 등의 전화 번호(a), 방 번호(b), 영어 상호명(c), 한글 상호명(d) 등의 기술 데이터(descriptive data)를 포함할 수 있다.
기술 데이터는 특정 공간을 서술하는 데이터로서, 해당 공간에 대한 시각 정보를 포함할 수 있다. 기술 데이터로부터 문자를 인식하기 위해서는 온라인 문자 인식 방식과 오프라인 문자 인식 방식이 사용될 수 있다. 온라인 문자 인식은 전자펜을 이용하여 필기 과정을 입력받아 처리하는데 이때, 필순 정보, 좌표 정보 및 압력 정보를 처리 및 분석하여 문자를 인식하는 방식이다.
오프라인 문자 인식 방식은 인쇄물에 고정된 문자를 스캐너 또는 카메라를 이용하여 이미지로 획득한 후, 이미지 데이터로부터 텍스트 데이터를 추출하는 방식이다. 이하에서는 오프라인 문자 인식을 통한 위치 정보 제공를 주로 설명하고 있으며, 이에 한정되는 것은 아니다.
OCR 프로그램 실행 화면은 텍스트 데이터 인식의 대상 영역을 표시하는 바운딩 박스(11, 13, 14, 15) 및 캡처 버튼(10)을 포함한다.
바운딩 박스(11, 13, 14, 15)는 이미지 데이터(112)로부터 기술 데이터를 특정하여 인식하기 위한 사용자 인터페이스일 수 있다. 도 4의 (a)에서 바운딩 박스(11)는 전화 번호가 나타난 영역을 표시하고, 도 4의 (b)에서 바운딩 박스(13)는 방 번호가 나타난 영역을 표시하며, 도 4의 (c)에서 바운딩 박스(15)는 영어 상호명이 나타난 영역을 표시하며, 도 4의 (d)에서 바운딩 박스(17)는 한글 상호명이 나타난 영역을 표시할 수 있다. 이와 같은 바운딩 박스(11, 13, 14, 15)의 크기는 사용자 터치 입력에 의해 조절될 수 있다.
한편, 캡처 버튼(10)을 선택하는 사용자 터치 입력이 수신되면, OCR 엔진(113)은 바운딩 박스(11, 13, 14, 15)에 의해 특정된 영역의 기술 데이터를 텍스트 데이터(114)로 변환할 수 있다.
이어서, OCR 엔진(113)은 전처리, 문자 분할, 특징 추출 및 인식, 후처리 과정을 거쳐 기술 데이터가 포함된 이미지 데이터(112)로부터 텍스트 데이터(114) 즉, 문자를 인식할 수 있다.
전처리(Preprocessing)는 이미지를 문자의 인식률을 높이기 위한 형태로 변환하는 과정을 의미한다. 전처리는 정규화 및 이진화 과정을 통해 수행될 수 있다.
정규화는 표준화된 데이터 획득을 의미한다. 정규화는 기울기 정규화, 크기 정규화를 포함할 수 있다. 기울기 정규화는 효과적인 문자 분할 및 인식을 위해 회전된 문자를 보정하는 과정으로, 클러스터링 기법, 상호 상관 기법, 허프 변환 기법, 형태학적 기법, 퓨리에 변환 기반 기법 등이 이용될 수 있다. 크기 정규화는 문자 간 크기의 상이함을 제거하는 과정으로 16×16 격자의 선형 보간법 등이 이용될 수 있다. 이때, 격자값은 문자가 겹쳐지는 비율을 곱하여 회색도값으로 변환한 값일 수 있다.
이진화는 이미지에서 배경, 피사체 또는 문자의 분절을 의미한다. 이진화는 이미지를 검은색의 문자와 흰색의 바탕으로 나누어 저장 공간을 줄이고, 문자 처리 및 문자 인식 속도를 높히기 위한 과정이다. 이진화는 전역 이진화, 지역 이진화를 포함할 수 있으며, 임계값을 이용한다. 임계값은 평균값 또는 최저값일 수 있다.
N을 자연수, (x,y)를 이미지에서의 공간 좌표, G={0, 1, …, l-1}를 표현 가능한 회색도를 나타내는 양의 정수 집합이라 가정할 때, 이미지 함수는 f:NXN→G로 매핑하여 정의될 수 있고, 각 픽셀에 대한 회색도는 수학식 1에서의 f(x,y)로 나타낼 수 있다. t∈G를 임계값, B={b0,b1}를 회색도의 이진값, b0,b1∈G라 가정할 때, 이진 이미지 함수는 ft:NXN→B로 정의될 수 있고, 임계값에 대하여 각 픽셀의 이진값은 다음 조건에 의하여 부여된다.
Figure pat00001
전역 이진화는 이미지 전체에서 하나의 임계값을 취하여, 임계값보다 더 어두운 회색도값을 갖는 픽셀들은 검은색 글자로 표현하고, 임계값보다 더 밝은 회색도값을 갖는 픽셀들은 흰색의 바탕으로 나타낸다. 전역 이진화 과정은 계산이 빠르다는 장점이 있다.
지역 이진화는 이미지를 하나의 픽셀을 기준으로 이웃하는 픽셀들을 포함하는 일정한 크기의 작은 구역들로 분할하고, 각 분할된 구역마다 임계값을 계산하여 해당 픽셀에 적용한다. 지역 이진화 과정은 명도의 변화가 국소적으로 발생하는 이미지에 더욱 효과적이다. 분할된 구역 간 임계값의 불연속성을 보완하기 위하여 적응적 이진화가 수행될 수 있다.
적응적 이진화는 일정하지 않은 조명 효과 및 명도 분포를 고려한 방법이다. 일반적으로 적응적 이진화는 겹치는 구역이 존재하도록 이미지를 일정 크기로 분할한 후, 각 구역에 대하여 히스토그램을 계산하고, 계산된 히스토그램의 형태가 양봉으로 나타나는지 검사하여 추정된 분포로부터 임계값을 계산한다. 이어서, 임계값 간의 불연속성을 제거하기 위하여 각 구역 및 픽셀 기준으로 임계값을 선형 보간하여 이진화를 진행한다.
문자 분할은 이미지에서 행, 단어, 글자 단위로 문자열을 분할하는 과정으로, 행 분할, 단어 및 글자 분할 각각을 포함할 수 있다. 문자 분할을 위하여 일반적으로 투영 프로파일 기법이 이용될 수 있다.
행 분할은 수평 히스토그램 프로파일을 이용하며 수평 위치의 픽셀들을 이용하여 이진값들의 합으로 나타낸다. 대부분의 문자는 수평 방향으로 쓰여지며, 행간 여백이 존재한다. 따라서, 문자열의 각 행의 이진값들을 더하여 히스토그램으로 나타낸 후, 행간 그래프의 단절을 통해 각 행을 분별할 수 있다.
또한, 하나의 문자열은 상부 영역, 중간 영역 및 하부 영역으로 나뉠 수 있는데, 상부 영역의 최상위는 top-line으로, 상부 영역과 중간 영역은 upper-line으로, 중간 영역과 하부 영역은 base-line으로, 하부 영역의 최하위는 bottom-line이라는 가상의 선으로 표현될 수 있다. 기본적으로 문자열에는 중간 영역이 존재하고, 상부 영역과 하부 영역은 각각 위 또는 아래로 돌출된 부분이 있을 때 정의될 수 있다. 중간 영역의 높이를 x-height라 하고, 이를 기준으로 다른 영역과의 비율을 이용하여 서체를 분석할 수 있다.
단어 및 글자 분할은 수직 투영 프로파일을 이용하며, 문자열을 실제 인식 대상인 문자 단위로 분할하기 위하여, 문자들의 수직방향의 이진값들을 더하여 히스토그램으로 나타낸 후, 문자 간 여백을 알아내어 분할할 수 있다.
특징 추출은 패턴을 분석하여 글자를 다양한 유형으로 구분하는 과정이다. 특징 추출을 위하여 회색도 이미지, 이진화된 래스터 이미지, 세선화 또는 골격, 외곽선 중 적어도 하나를 이용할 수 있다.
특징 추출은 구조적인 특징 추출 방법, 수치적인 특징 추출 방법을 포함할 수 있다. 구조적인 특징은 패턴의 구조를 표현하고, 직관적인 의미를 제공하며, 패턴 외곽선 선분 근사, 획의 연결 상태 등을 분석함으로써 추출될 수 있다. 수치적인 특징은 수치적인 변환을 바탕으로 하며, 메쉬 기반, 변환 기반, 거리 기반 등을 분석함으로써 추출될 수 있다.
구조적인 특징 추출 방법은 이진화된 이미지로부터 외곽선을 추출한 후, 다각형 근사화 기법을 적용하는 방법일 수 있다.
이진화된 이미지로부터 외곽선을 추출하기 위해서는, 문자의 내부를 하얀색으로 칠해주는 알고리즘을 이용하여 4개의 최근접 픽셀을 추출할 수 있다. 중앙 픽셀(aij)이 검은색이고, 4개의 최근접 픽셀(aij, aij -1, ai -1j, ai +1j)이 모두 검은색일 때만 중앙 픽셀을 하얀색으로 바꿈으로써 외곽선을 표현하는 픽셀들을 추출할 수 있다.
외곽선 이미지를 인식하기 용이한 형태로 표현하고 정보량을 줄일 수 있도록 근사화 기법이 이용될 수 있다. 근사화 기법은 급격한 각도를 지니는 점을 중심으로 근사화하는 방법, 기준 오차 임계값을 설정하고 그 임계값보다 작도록 외곽선을 따라 선을 근사화하는 방법을 포함할 수 있다.
특징 추출 단계 이후, 문자 인식을 위하여 OCR 엔진(113)은 폴리곤의 각 구성 선분들을 동일한 길이로 자른다. 선분 조각들은 학습을 통한 문자 원형과 매치되며, 연결이 분리된 글자도 인식이 가능하다. 원형 문자는 검고 긴 선분들로 구성된 것이고, 입력된 문자 이미지는 짧은 선분들로 구성된 것이다. 여러 문자 클래스들과 입력된 문자 이미지의 특징 선분들 사이의 매칭을 위하여 수학식 2와 같이, 문자 이미지의 선분 조각들과 문자 원형 선분의 위치 및 각의 차이에 대한 정도 df를 계산할 수 있다.
Figure pat00002
다음으로 수학식 3을 이용하여, Ef를 계산할 수 있다.
Figure pat00003
Ef는 수학식 2를 통해 계산된 df값과 특정 비율의 상수인 k를 곱한 값에 반비례할 수 있다.
원형 문자에 대해서도 수학식 2와 수학식 3을 이용하여 Ep값을 계산할 수 있으며, 다른 원형 문자와의 값 비교를 위하여 매칭되는 수가 상이한 점을 고려하여 계산된 Ef값, Ep값 각각을 정규화한다. 특징 선분들은 개수를 고려하고, 원형 선분은 길이를 고려하여 정규화할 수 있다. 이어서 수학식 4를 이용하여 Ef값, Ep값 각각을 도형 간 차이를 반영한 거리값으로 변환한 최종값 dfinal을 계산한다.
Figure pat00004
이어서, OCR 엔진(113)은 dfinal값을 서로 다른 클래스들과 비교하여 가장 적은 값을 갖는 클래스 문자 값을 추출할 수 있다.
최종적으로 OCR 엔진(113)은 언어의 의미론적인 정보를 고려하여 문자 인식의 정확도를 높히기 위하여 후처리 과정을 수행한다. 후처리 이전의 동작은 글자의 형태만을 고려한 분석에 해당하므로, 후처리 과정을 통하여 이미지의 문자열로부터 문맥적인 의미를 판단할 수 있다.
OCR 엔진(113)은 후처리 과정을 수행하기 위하여, 사전 데이터와 매칭하여 단어 맞춤법에 있어 오인식된 글자를 교정하거나, 학습된 데이터로부터 통계적인 정보를 이용하여 처리하는 HMM(Hidden Markov Model) 기법을 이용할 수 있으며, 이에 한정되는 것은 아니다.
OCR 엔진(1130)이 이와 같은 전처리, 문자 분할, 특징 추출 및 인식, 후처리 과정을 거쳐 문자를 인식한 결과 텍스트 데이터(114)가 추출되면, 디스플레이부(190)는 이하의 도 5와 같은 화면을 표시할 수 있다.
도 5는 본 발명의 일 실시 예에 따른 위치 정보 제공 시스템이 추출한 텍스트 데이터를 설명하기 위한 도면이다.
도 5를 참조하면, 디스플레이부(190)는 추출된 텍스트 데이터(114)를 화면에 표시한다. 이때, 디스플레이부(190)는 추출된 텍스트 데이터(114)는 밝게(19), 텍스트 데이터(19) 추출의 대상인 이미지 데이터(112)는 어둡게 표시하여, 양자 표시를 구별할 수 있으며, 이에 한정되는 것은 아니다.
다시 도 2를 참조한다.
이어서, 단말(110)은 텍스트 데이터를 처리하고(S105), 텍스트 데이터를 위치 데이터와 매칭하기 위한 질의문을 생성한 후(S107), 생성된 질의문을 서버(200)에 전송한다(S109). 다음은 도 6 및 도 7과 표 1을 참조하여 텍스트 데이터 처리 및 질의문 생성에 대하여 설명한다.
도 6은 본 발명의 일 실시 예에 따른 위치 정보 제공 시스템에 포함된 데이터 정제 및 분류 모듈의 구성도이다.
도 6을 참조하면, 정제부(150)는 데이터 정제 모듈(151), 데이터 분류 모듈(153)을 포함한다.
데이터 정제 모듈(151)은 이미지로부터 인식된 텍스트 데이터(114)를 입력받아, 표준화된 데이터(152)를 출력할 수 있다. 예컨대, 데이터 정제 모듈(151)은 텍스트 데이터로부터 문자 인식에 불필요한 특수 기호, 공백 등을 제거함으로써, 입력된 텍스트 데이터를 서버(200)의 데이터베이스(230)에 포함된 정보와 비교 가능한 표준화된 형태로 변환할 수 있다. 이하에서 도 7을 참조하여, 표준화된 데이터(152)에 대하여 설명한다.
도 7은 본 발명의 일 실시 예에 따른 위치 정보 제공 시스템이 수행하는 데이터 정제 방법을 설명하기 위한 도면이다.
도 7을 참조하면, 이미지 데이터(112)로부터 인식된 텍스트 데이터(114)가 전화 번호인 경우, 인식된 텍스트 데이터(114)는 전화 번호를 나타내는 숫자 사이에, 하이픈(-)과 같은 특수 기호를 포함하거나(21), 공백을 포함하거나(23), 마침표(.)와 같은 특수 기호를 포함하거나(25), 지역 번호를 생략(27)할 수 있다.
한편, 서버(200)의 데이터베이스가 특수 기호나 공백이 없고 지역 번호를 포함하는 형태의 전화 번호를 저장하는 경우, 데이터 정제 모듈(151)은 인식된 텍스트 데이터(114)로부터 하이픈, 마침표와 같은 특수 기호나 공백을 삭제하거나, 텍스트 데이터(114)에 지역 번호를 삽입하는 등 처리를 통하여 표준화된 전화 번호 데이터(20)를 생성할 수 있다.
데이터 분류 모듈(153)은 표준화된 데이터(152)를 예컨대, 방번호, 상호명, 전화번호 등으로 분류할 수 있다. 이하에서, 표 1을 참조하여, 본 발명의 일 실시 예에 따른 데이터 분류 알고리즘에 대하여 설명한다.
표 1은 본 발명의 일 실시 예에 따른 위치 정보 제공 시스템에서 수행되는 데이터 분류 알고리즘을 나타낸다.
Figure pat00005
표 1을 참조하면, 먼저 데이터 분류 모듈(153)은 기술 데이터(D)로부터 문자 인식 과정을 거쳐 추출된 텍스트 데이터(tst)가 전화 번호(pn)에 해당하는지 여부를 판단한다. 전화 번호(pn)는 숫자의 조합이며, 조합될 수 있는 숫자의 개수가 제한되므로 방 번호, 상호명과 쉽게 구별될 수 있다. 예컨대, 데이터 분류 모듈(153)은전화 번호(pn)의 길이(tst.length)는 최소한의 전화 번호 길이(mp)보다 크다는 조건 등으로 텍스트 데이터(tst)가 전화 번호(pn)에 해당하는지 여부를 판단할 수 있다.
이후, 데이터 분류 모듈(153)은 전화 번호(pn)에서 지역 번호의 유무를 따져 보고, 지역 번호가 존재하는 경우에는 아무런 처리 과정을 수행하지 않는 반면, 지역 번호가 존재하지 않는 경우에는 앞에 지역 번호를 추가한다. 이와 같이, 전화 번호 분류시에는 2번의 정제 과정이 수행될 수 있다.
다음으로 데이터 분류 모듈(153)은 전화 번호(pn)에 해당하지 않는 텍스트 데이터(tst)가 방 번호(rn)에 해당하는지 여부를 판단한다. 방 번호(rn)는 숫자의 조합 또는 특정 개수의 알파멧과 숫자의 규칙적인 조합으로 판별됨으로써, 상호명(bn)과 구별될 수 있다.
다시 도 7을 참조한다.
이어서, 질의문 생성기(160)는 정제부(150)에서 정제 및 분류 처리된 데이터(154)를 수신하여, 해당하는 질의문을 생성할 수 있다. 질의문 생성기(160)는 정제 및 분류된 데이터(154)를 데이터베이스(230)의 테이블 속성과 매치하기 위한 탐색 작업을 수행하기 위하여, 질의문을 생성할 수 있다.
생성된 질의문은 네트워크부(170)를 통하여 서버(200)에 전송될 수 있다.
다시 도 2를 참조한다.
질의문을 수신한 서버(200)는 수신된 질의문이 유효한지 여부를 판단하고(S111), 유효한 질의문을 실행하여 단말(200)로부터 전송된 데이터와 서버(200)의 데이터베이스(230)에 저장된 테이블 속성을 매칭한다(S113). 다음은 도 8 내지 도 11과 표 2를 참조하여 데이터 매칭에 따른 위치 정보 제공에 대하여 설명한다.
도 8은 본 발명의 일 실시 예에 따른 위치 정보 제공 시스템에 포함된 데이터베이스 탐색 모듈의 구성도이다.
도 8을 참조하면, 서버는 탐색부(210) 및 데이터베이스(230)를 포함한다. 탐색부(210)는 질의문 처리기(211) 및 매칭 모듈(213)을 포함한다.
질의문 처리기(211)는 단말(200)로부터 전송된 질의문(154)의 문법을 검사하고, 의미상 정당성을 검사하는 유효성 검사를 실행할 수 있다.
질의문 처리기(211)에서 검증된 질의문(212)을 전송받은 매칭 모듈(213)은 질의문을 가지고 데이터베이스(230)에 접근하는 순서 및 방법을 결정할 수 있다.
또한, 매칭 모듈(213)은 질의문에 대응하여, 데이터베이스(230) 내의 테이블 등을 검색한 후, 데이터베이스(230)로부터 필요한 연산을 수행한 결과값을 전송받을 수 있다. 즉, 매칭 모듈(213)은 전체 매칭, 부분 매칭, 수동 매칭 등의 작업을 통해 해당 공간을 식별하고, 해당 공간의 위치 데이터(231)를 추출하여 질의문 처리기(211)에 보낼 수 있다.
한편, 데이터베이스(230)는 사전에 설계되어야 하며, 기술 데이터로부터 추출된 텍스트 데이터와의 매칭을 위하여 실내 공간에 존재하는 상점, 컨벤션 홀, 오피스 룸 등을 식별하는 기술 데이터 및 위치 데이터를 포함한다. 다음은 도 9를 참조하여, 데이터베이스(230) 내에 설계된 테이블에 대하여 설명한다.
도 9는 본 발명의 일 실시 예에 따른 위치 정보 제공 시스템의 데이터베이스에 포함된 정보를 설명하기 위한 도면이다.
도 9를 참조하면, 데이터베이스(230)는 Feature 테이블(31), Room 테이블(33) 및 RoomName 테이블(35)를 포함할 수 있다.
Feature 테이블(31)에는 기술 데이터를 이용하여 인식할 수 있는 실내 공간에 대한 정보가 저장된다. 예컨대, Feature 테이블(31)에는 식별자 속성(ID(PK)), 고층 건물의 경우 층 구별 속성(FLOOR), 인식 가능한 방에 부여된 번호 속성(ROOM_NUM), 2차원 포인트 형태의 x,y 좌표 속성(COORDS), Room 테이블(33)과의 연계를 위해 참조하기 위한 외래키 속성(R_ID(FK)) 등이 포함되어 설계될 수 있으며, 이에 한정되지 않는다. Feature 테이블(31)은 외래키 속성(R_ID(FK))을 이용하여 Room 테이블(33)에 포함된 방 식별자 속성(ROOM_ID(PK))을 참조함으로써, Room 테이블(33)과 연계될 수 있다.
Room 테이블(33)에는 상점, 컨벤션 호, 오피스 룸과 같은 각 공간에 대한 부가적인 정보가 저장된다. 예컨대, Room 테이블(33)에는 방 식별자 속성(ROOM_ID(PK)), 전화 번호 속성(PHONE_NUM), 기능적인 식별 정보 예컨대, 그 공간이 상점인지, 회의실인지 또는 사무실인지 구별하는 속성(TYPE), RoomName 테이블(35)과의 연계를 위해 참조하기 위한 외래키 속성(RMNM_ID(FK)) 등이 포함되어 설계될 수 있으며, 코드 리스트화되어 숫자값으로 저장될 수 있다. Room 테이블(33)은 외래키 속성(RMNM_ID(FK))을 이용하여 RoomName 테이블(35)에 포함된 방이름 식별자 속성(ROOMNAME_ID(PK))을 참조함으로써, RoomName 테이블(35)과 연계될 수 있다.
RoomName 테이블(35)에는 해당 공간에 대한 이름에 대한 정보가 저장된다. 예컨대, RoomName 테이블(35)에는 방이름 식별자 속성(ROOMNAME_ID(PK)), 실내 공간 각각에 부여된 이름에 대한 영어 이름 저장 속성(EN), 한글 이름 저장 속성(KO) 등이 포함되어 설계될 수 있으며, 이에 한정되는 것은 아니다.
다음은 도 10 및 도 11과 표 2를 참조하여, 이와 같은 속성들이 저장된 테이블과 단말(100)에서 추출된 텍스트 데이터를 매치하는 방법에 대하여 설명한다.
도 10은 본 발명의 일 실시 예에 따른 위치 정보 제공 시스템에서 수행되는 데이터 매칭 방법을 설명하기 위한 흐름도이다.
도 10을 참조하면, 매칭 모듈(213)은 검증된 질의문(212)에서 정제 및 분류된 텍스트 데이터(214)를 추출하여, 텍스트가 데이터베이스(230)에 포함된 속성 정보와 동일한지 여부를 판단하는 전체 매칭을 수행한다(S301). 이때, 매칭 모듈(213)은 텍스트 데이터의 분류에 따라 데이터베이스(230)의 테이블을 검색하고, 검색된 테이블에 저장된 속성정보를 텍스트 데이터와 비교함으로써, 매칭을 수행할 수 있다.
전체 매칭 결과, 텍스트와 속성 정보간 데이터가 완전하게 일치하는 경우, 자동적으로 매칭이 수행될 수 있다.
한편, 매칭 모듈(213)은 텍스트와 속성 정보가 상이한 경우, 텍스트를 분할하여(S303), 분할된 텍스트가 데이터베이스(230)의 속성 정보와 동일한지 여부를 판단하는 부분 매칭을 수행한다(S305). 부분 매칭은 전체 매칭을 보완하기 위한 매칭으로, 문자열의 길이가 상대적으로 길고, 여러 단어들의 조합으로 된 상호명에 대해 수행될 수 있으며, 이에 한정되는 것은 아니다. 매칭 모듈(213)은 단어 사이의 띄어쓰기를 기준으로 텍스트 분할을 수행할 수 있다.
이어서, 분할된 텍스트가 속성정보와 일치하는 경우, 매칭 모듈(213)은 분할된 단어가 포함된 속성 정보의 개수가 1개인지 판단한다(S307). 매칭 모듈(213)은 분할된 텍스트가 1개의 속성 정보와 일치하는 경우, 매칭을 수행할 수 있다.
매칭 모듈(213)은 전체 매칭 및 부분 매칭을 수행한 경우에도 텍스트와 동일한 속성 정보를 찾지 못한 경우, 사용자 입력에 따른 수동 매칭을 수행한다(S309). 또한, 매칭 모듈(213)은 부분 매칭에서, 분할된 텍스트와 일치하는 속성 정보의 개수가 1개가 아닌 경우 또는 분할된 텍스트와 일치하는 속성 정보가 없는 경우에도 수동 매칭을 수행할 수 있다.
한편, 수동 매칭은 상호명 이외의 데이터에도 수행될 수 있다.
매칭 모듈(213)은 사용자의 데이터 입력 또는 후보 속성 정보 리스트 중 하나를 선택하는 사용자 선택 입력에 따라 수동 매칭을 수행할 수 있으며, 이에 한정되는 것은 아니다. 다음은 도 11을 참조하여, 데이터 수동 매칭을 위한 사용자 입력에 대하여 설명한다.
도 11은 본 발명의 일 실시 예에 따른 위치 정보 제공 시스템에서 수행되는 데이터 수동 매칭을 설명하기 위한 도면이다.
도 11을 참조하면, 단말(100)이 도면 부호 51과 같이 기술 데이터의 전부 또는 일부로부터 정상적인 텍스트 데이터를 인식하지 못한 경우에, 매칭 모듈(213)은 수동 매칭을 수행할 수 있다. 즉, 텍스트 데이터의 전부 또는 일부가 인식되지 못한 경우, 전부 매칭 또는 부분 매칭이 수행될 수 없고, 이를 보완하기 위하여 수동 매칭이 수행될 수 있다. 수동 매칭을 수행할 필요가 있는 경우, 매칭 모듈(213)은 단말(100)에 수동 매칭 수행에 대한 정보를 전송할 수도 있다.
수동 매칭을 위하여, 단말(100)은 문자, 숫자 또는 기호 등을 입력할 수 있는 사용자 인터페이스(53)를 표시할 수 있으며, 사용자는 사용자 인터페이스(53)를 통해 매치하고자 하는 텍스트(55)를 직접 입력할 수 있다. 매칭 모듈(213)은 단말(100)로부터 사용자 인터페이스(53)를 통한 사용자 입력이 전송되면, 데이터베이스(230)에서 입력된 텍스트와 동일한 속성 정보를 검색할 수 있다.
표 2는 본 발명의 일 실시 예에 따른 위치 정보 제공 시스템에서 수행되는 데이터 매칭 알고리즘을 나타낸다.
Figure pat00006
표 2를 참조하면, 매칭 모듈(213)은 상호명에 대해 매칭을 수행함에 있어서, 먼저 입력된 상호명(snt)에 대해 전체 매칭을 수행하고, 전체 매칭 결과 매칭되는 결과값(output)이 1개인 경우, 이에 대응되는 위치 데이터인 좌표값을 데이터베이스(230)로부터 추출한다.
반면, 오인식된 상호명이 입력되어, 매칭되는 결과값이 존재하지 않는 경우, 매칭 모듈(213)은 부분 매칭을 수행하기 위하여, 데이터베이스(230)에서 상호명 속성(sntatt)의 레코드를 탐색하고, 입력된 값의 일부가 포함된 속성값을(IsContained) 결과값(output)에 저장한다. 이때, 결과값이 1개인 경우, 해당 좌표값을 추출하고, 결과값이 1개가 아닌 경우에는 수동매칭(ManualMatching)을 수행한다.
다시 도 10을 참조한다.
매칭이 성공적으로 수행되면, 매칭 모듈(213)은 해당 속성 정보로부터 위치
서버(200)는 앞서 도 8 내지 도 11과 표 2를 참조하여 설명한 매칭이 성공적으로 수행된 경우, 해당 텍스트 데이터에 대응하는 위치 데이터를 추출하여(S115), 단말(100)에 추출된 위치 데이터를 전송한다(S117).
표 3은 본 발명의 일 실시 예에 따른 위치 정보 제공 시스템에서 수행되는 질의문을 이용한 데이터 전체 매칭 알고리즘을 나타낸다.
Figure pat00007
표 4는 본 발명의 일 실시 예에 따른 위치 정보 제공 시스템에서 수행되는 질의문을 이용한 데이터 부분 매칭 알고리즘을 나타낸다.
Figure pat00008
표 5는 본 발명의 일 실시 예에 따른 위치 정보 제공 시스템에서 수행되는 질의문을 이용한 데이터 수동 매칭 알고리즘을 나타낸다.
Figure pat00009
다시 도 2를 참조한다.
단말(100)은 전송된 위치 데이터를 이용하여 위치 정보를 디스플레이한다(S119). 다음은 도 12 및 도 13을 참조하여, 위치 정보 디스플레이에 대하여 설명한다.
도 12는 본 발명의 일 실시 예에 따른 위치 정보 제공 시스템상에서 문자 인식에 따른 위치 정보가 표시된 화면을 도시한 도면이다.
도 12를 참조하면, 단말(100)은 디스플레이부(190)에 위치 정보를 포함한다. 위치 정보는 전송된 위치 데이터를 바탕으로 해당 위치에 대한 폴리곤을 3차원 풋프린트 맵에서 가시화하는 방식으로 디스플레이될 수 있다.
디스플레이부(190)는 실내 공간 지오코딩을 통해 폴리곤(73)으로서 위치 정보를 표시하고, 다른 폴리곤들과 구별이 가능한 색으로 해당 공간을 표시할 수 있다. 이때, 디스플레이부(190)는 예컨대, 지하 1층, 지상 1층 및 지상 2층으로 구성된 건물의 각 층을 각각 상이한 색의 경계선 및 면으로 나타내어 구별할 수 있다. 디스플레이부(190)는 위치 정보를 표시하면서, 데이터베이스(230)로부터 획득된 주소, 층수, 방번호, 전화 번호와 같은 기본 정보(71) 및 지오코딩되어 나타난 해당 위치(73)를 표시할 수 있다. 지오코딩되어 나타난 해당 위치(73)는 예컨대, 파란 색과 같은 식별되는 색으로 표시될 수 있다.
디스플레이부(190)는 핀치 줌인 입력 또는 핀치 줌아웃 입력과 같은 사용자 입력에 따라 실내 공간의 특정 영역을 확대, 축소 또는 회전시켜 표시할 수 있다.
또한, 디스플레이부(190)의 일부 영역은 질의 서비스 버튼(80)을 표시할 수 있다. 질의 서비스 버튼(80)은 연관 검색어 질의 서비스 제공을 위한 사용자 입력을 수신할 수 있다. 질의 서비스 버튼(80)은 선택하는 사용자 입력 수신시, 디스플레이부(190)는 도 13과 같은 질의 서비스 화면을 표시할 수 있다.
도 13은 본 발명의 일 실시 예에 따른 위치 정보 제공 시스템상에서 연관 검색 요청에 따른 결과가 표시된 화면을 도시한 도면이다.
도 13을 참조하면, 디스플레이부(190)는 방의 용도나 업종과 같은 검색어를 입력하는 입력창(81), 검색 수행을 위한 사용자 입력을 수신하는 서치 버튼(83)을 표시할 수 있다.
예컨대, 사용자가 입력창(81)에 찾고자 하는 방의 용도나 업종과 같은 검색어를 입력하고, 서치 버튼(83)을 선택하면, 디스플레이부(190)는 3차원 가시화 뷰에서 하나 이상의 서치 결과(Reseult, 85, 87, 89)를 식별되는 색상으로 표시할 수 있다.
본 발명의 일 실시 예에 의하면, 전술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.
상기와 같이 설명된 이동 단말기는 상기 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
1: 위치 정보 제공 시스템
100: 단말
110: 입력부
130: 제어부
150: 정제부
170: 네트워크부
190: 디스플레이부
200: 서버
210: 탐색부
230: 데이터베이스

Claims (12)

  1. 문자 인식을 이용한 위치 정보 제공 방법에 있어서,
    이미지를 획득하는 단계;
    상기 획득된 이미지로부터 텍스트를 인식하는 단계;
    상기 인식된 텍스트를 표준화된 형태로 처리하는 단계;
    미리 저장된 위치 정보 테이블로부터 상기 처리된 텍스트에 대응하는 위치 데이터를 추출하는 단계; 및
    상기 위치 데이터를 이용하여 위치 정보를 표시하는 단계를 포함하는
    문자 인식을 이용한 위치 정보 제공 방법.
  2. 제1항에 있어서,
    상기 이미지를 획득하는 단계는
    기술 데이터가 포함된 이미지를 촬영하는 단계이고,
    상기 텍스트를 인식하는 단계는
    OCR 엔진을 이용하여 상기 촬영된 이미지로부터 텍스트를 인식하는 단계인
    문자 인식을 이용한 위치 정보 제공 방법.
  3. 제1항에 있어서,
    상기 텍스트를 처리하는 단계는
    상기 텍스트를 표준화된 형태로 정제하는 단계; 및
    상기 정제된 데이터를 정보의 종류에 따라 분류하는 단계를 포함하는
    문자 인식을 이용한 위치 정보 제공 방법.
  4. 제3항에 있어서,
    상기 정보의 종류는 전화 번호, 방 번호, 한글 상호명, 영문 상호명 중 적어도 하나에 해당하는
    문자 인식을 이용한 위치 정보 제공 방법.
  5. 제1항에 있어서,
    상기 위치 정보 테이블은 실내 공간의 층 구별 정보, 방 번호 정보, 2차원 포인트 형태의 좌표 정보를 포함하는 제1 테이블 및 전화 번호 정보, 타입 정보를 포함하는 제2 테이블을 포함하고, 상기 제1 테이블 및 상기 제2 테이블은 연계되어 미리 저장된
    문자 인식을 이용한 위치 정보 제공 방법.
  6. 제1항에 있어서,
    상기 위치 정보를 표시하는 단계는
    상기 텍스트에 대응하는 상기 위치 데이터를 2차원 좌표로 표시하는 단계인
    문자 인식을 이용한 위치 정보 제공 방법.
  7. 이미지를 획득하고, 상기 획득된 이미지로부터 텍스트를 인식하여 표준화된 형태로 처리한 텍스트 데이터를 전송하며, 전송된 텍스트 데이터에 대응하는 위치 정보를 표시하는 단말; 및
    위치 정보 테이블을 미리 저장하고, 상기 단말로부터 상기 텍스트 데이터를 수신하여, 상기 위치 정보 테이블에서 상기 텍스트 데이터에 대응하는 위치 데이터를 추출하며, 상기 추출된 위치 데이터를 상기 단말에 전송하는 서버를 포함하는
    문자 인식을 이용한 위치 정보 제공 시스템.
  8. 텍스트에 대응하는 위치 정보 테이블이 미리 저장된 서버로부터 문자 인식을 통하여 위치 정보를 제공하는 단말에 있어서,
    이미지를 획득하고, 상기 획득된 이미지로부터 텍스트를 인식하는 입력부;
    상기 인식된 텍스트를 표준화된 형태로 처리하는 정제부;
    상기 처리된 텍스트 데이터를 전송하고, 상기 처리된 텍스트 데이터에 대응하는 위치 데이터를 수신하는 네트워크부;
    상기 수신된 위치 데이터를 이용하여 위치 정보를 표시하는 디스플레이부; 및
    상기 입력부를 통하여 이미지를 획득하고, 상기 획득된 이미지로부터 텍스트를 인식하도록 제어하고, 상기 정제부를 통하여 상기 인식된 텍스트를 표준화된 형태로 처리하도록 제어하며, 상기 네트워크부가 상기 처리된 텍스트 데이터를 전송하고, 상기 처리된 텍스트 데이터에 대응하는 위치 데이터를 수신하도록 제어하며, 상기 디스플레이부에 상기 위치 데이터를 이용한 상기 위치 정보가 표시되도록 제어하는 제어부를 포함하는
    문자 인식을 이용한 위치 정보 제공 단말.
  9. 제8항에 있어서,
    상기 입력부는
    기술 데이터가 포함된 이미지를 촬영하는 카메라 모듈; 및
    상기 카메라 모듈에서 촬영된 이미지로부터 텍스트를 인식하는 OCR 엔진을 포함하는
    문자 인식을 이용한 위치 정보 제공 단말.
  10. 제8항에 있어서,
    상기 정제부는
    상기 텍스트를 표준화된 형태로 정제하는 데이터 정제 모듈; 및
    상기 데이터 정제 모듈에서 정제된 상기 표준화된 텍스트를 정보의 종류에 따라 분류하는 데이터 분류 모듈을 포함하고,
    상기 정보의 종류는 전화 번호, 방 번호, 한글 상호명, 영문 상호명 중 적어도 하나에 해당하는
    문자 인식을 이용한 위치 정보 제공 단말.
  11. 제8항에 있어서,
    상기 디스플레이부는
    상기 위치 데이터를 2차원 좌표로 표시하는
    문자 인식을 이용한 위치 정보 제공 단말.
  12. 단말로부터 전송된 텍스트에 대응되는 위치 정보를 제공하는 서버에 있어서,
    상기 단말로부터 전송된 텍스트를 처리하여, 상기 텍스트 데이터에 대응하는 위치 데이터를 검색하는 탐색부; 및
    실내 공간의 층 구별 정보, 방 번호 정보, 2차원 포인트 형태의 좌표 정보를 포함하는 제1 테이블 및 전화 번호 정보, 타입 정보를 포함하는 제2 테이블을 연계하여 미리 저장한 데이터 베이스를 포함하는
    문자 인식을 이용한 위치 정보 제공 서버.
KR1020130057967A 2013-05-22 2013-05-22 문자 인식을 이용한 위치 정보 제공 단말, 서버, 시스템 및 방법 KR20140137254A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130057967A KR20140137254A (ko) 2013-05-22 2013-05-22 문자 인식을 이용한 위치 정보 제공 단말, 서버, 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130057967A KR20140137254A (ko) 2013-05-22 2013-05-22 문자 인식을 이용한 위치 정보 제공 단말, 서버, 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR20140137254A true KR20140137254A (ko) 2014-12-02

Family

ID=52457184

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130057967A KR20140137254A (ko) 2013-05-22 2013-05-22 문자 인식을 이용한 위치 정보 제공 단말, 서버, 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR20140137254A (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190010079A (ko) * 2017-07-20 2019-01-30 네이버 주식회사 콘텐츠 공유 방법 및 콘텐츠 공유 서버
KR20210056560A (ko) * 2019-11-11 2021-05-20 류승완 지도 정보 제공 장치 및 방법
KR20210072639A (ko) * 2019-12-09 2021-06-17 박지윤 문자를 포함한 이미지 정렬 처리방법
KR20220023054A (ko) * 2020-08-20 2022-03-02 주식회사 씽크솔루션 Cctv 영상을 결합한 서빙봇 운용시스템

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190010079A (ko) * 2017-07-20 2019-01-30 네이버 주식회사 콘텐츠 공유 방법 및 콘텐츠 공유 서버
KR20210056560A (ko) * 2019-11-11 2021-05-20 류승완 지도 정보 제공 장치 및 방법
KR20210072639A (ko) * 2019-12-09 2021-06-17 박지윤 문자를 포함한 이미지 정렬 처리방법
KR20220023054A (ko) * 2020-08-20 2022-03-02 주식회사 씽크솔루션 Cctv 영상을 결합한 서빙봇 운용시스템

Similar Documents

Publication Publication Date Title
US9454714B1 (en) Sequence transcription with deep neural networks
US10223345B2 (en) Interactively predicting fields in a form
US20210150080A1 (en) Synthetic data generation for machine learning tasks on floor plan drawings
KR101768521B1 (ko) 이미지에 포함된 객체에 대한 정보 데이터를 제공하는 방법 및 시스템
US20190272438A1 (en) Method and apparatus for detecting text
KR101337555B1 (ko) 객체 연관성을 이용한 증강 현실 제공 장치 및 방법
CN111027563A (zh) 一种文本检测方法、装置及识别系统
US10643094B2 (en) Method for line and word segmentation for handwritten text images
EP3152703A1 (en) Entrance detection from street-level imagery
US20140330814A1 (en) Method, client of retrieving information and computer storage medium
CN113657274B (zh) 表格生成方法、装置、电子设备及存储介质
KR20140137254A (ko) 문자 인식을 이용한 위치 정보 제공 단말, 서버, 시스템 및 방법
CN111859002A (zh) 兴趣点名称生成方法及装置、电子设备和介质
Turk et al. Computer vision for mobile augmented reality
CN114724113B (zh) 道路标牌识别方法、自动驾驶方法、装置和设备
CN114387600A (zh) 文本特征识别方法、装置、计算机设备和存储介质
CN110647595A (zh) 一种新增兴趣点的确定方法、装置、设备和介质
CN113887394A (zh) 一种图像处理方法、装置、设备及存储介质
Zhang et al. Automatic floor plan analysis for adaptive indoor Wi-Fi positioning system
CN115004261A (zh) 文本行检测
CN115565201B (zh) 禁忌图片识别方法、设备及存储介质
US11704924B2 (en) Method, apparatus, and computer-readable storage medium for recognizing characters in a digital document
US20230215135A1 (en) Image processing apparatus, image processing method, and non-transitory storage medium
CN116244447A (zh) 多模态图谱构建、信息处理方法、装置、电子设备及介质
JP2017117340A (ja) 文字属性推定装置、及び文字属性推定プログラム

Legal Events

Date Code Title Description
E601 Decision to refuse application