KR20110082813A - 객체 인식시스템 및 이를 이용하는 객체 인식 방법 - Google Patents

객체 인식시스템 및 이를 이용하는 객체 인식 방법

Info

Publication number
KR20110082813A
KR20110082813A KR1020100002711A KR20100002711A KR20110082813A KR 20110082813 A KR20110082813 A KR 20110082813A KR 1020100002711 A KR1020100002711 A KR 1020100002711A KR 20100002711 A KR20100002711 A KR 20100002711A KR 20110082813 A KR20110082813 A KR 20110082813A
Authority
KR
South Korea
Prior art keywords
angle
real
virtual
index
virtual object
Prior art date
Application number
KR1020100002711A
Other languages
English (en)
Other versions
KR101117239B1 (ko
Inventor
임대성
Original Assignee
키위플 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 키위플 주식회사 filed Critical 키위플 주식회사
Priority to KR1020100002711A priority Critical patent/KR101117239B1/ko
Priority to US13/521,670 priority patent/US8917912B2/en
Priority to PCT/KR2011/000174 priority patent/WO2011087249A2/ko
Publication of KR20110082813A publication Critical patent/KR20110082813A/ko
Application granted granted Critical
Publication of KR101117239B1 publication Critical patent/KR101117239B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 프리뷰된 실물객체들의 영상으로부터 상기 실물객체들 사이의 경계를 산출하여, 상기 제1 각도간격으로 분할된 제1 각도구간의 각각의 각도에 대응하는 제1 지표들을 산출하고, 지도 데이터의 각각의 지도각도에 대응하는 방사 직선과 가장 먼저 만나는 외곽선을 갖는 가상객체를 추출하여, 제1 지표들을 동일한 크기의 각도구간에서 상기 제1 지표들의 반복비율과 동일한 반복비율을 갖는 제2 지표들에 각각 매칭시켜서, 상기 프리뷰된 실물객체들과 매칭하는 상기 지도 데이터의 가상객체들을 추출한다.

Description

객체 인식시스템 및 이를 이용하는 객체 인식 방법 {OBJECT IDENTIFICATION SYSTEM AND METHOD OF IDENTIFYING AN OBJECT USING THE SAME}
본 발명은 객체 인식시스템 및 이를 이용하는 객체 인식 방법에 관한 것으로, 보다 상세하게는 객체를 더 정확히 인식하기 위한 객체 인식시스템 및 이를 이용하는 객체 인식 방법에 관한 것이다.
최근에, 이동통신(모바일)단말기의 카메라를 통해 건물과 같은 실물객체를 인식하거나, 이동통신 단말기의 카메라에 프리뷰(preview)되는 피사체(실물객체)에 대한 정보를 상기 프리뷰 위에 가상으로 표시하는 증강현실기술에 대해 관심이 증가하고 있다.
기존에 카메라를 통한 건물 인식 방식은 몇 가지가 제시되었으나, 몇 가지 치명적인 문제점을 가지고 있다. 예를 들어, 건물의 영상(image)을 서버 컴퓨터에 보내 건물을 인식하는 방법은 엄청난 용량의 영상 데이터를 서버가 미리 확보하고 있지 않으면 서비스로서의 의미가 없다. 또한, 건물의 GPS(global positioning system) 좌표 값과 단말의 GPS 좌표값 사이의 상대적인 위치의 차이를 통해 건물을 인식하는 방법은 단말기와 건물 사이의 거리 및 단말기가 건물을 향하고 있는 방향 값을 필요로 하기 때문에, 방향 센서 및 거리 센서가 장착된 단말기에만 적용할 수 있다. 게다가, 센서의 오차에 따라 객체의 인식률이 떨어지는 문제가 있다.
따라서, 방향 센서 또는 거리 센서가 없어도 건물과 같은 실물객체를 정확히 인식하기 위한 객체 인식시스템 및 객체 인식 방법이 필요하다.
본 발명의 기술적 과제는 상기 종래의 문제점을 해결하기 위한 것으로, 본 발명의 목적은 화면에 프리뷰된 객체를 더 정확히 인식하는 객체 인식시스템을 제공하는 것이다.
본 발명의 다른 목적은 상기 객체 인식 방법을 이용하여 화면에 프리뷰된 객체를 더 정확히 인식하기 위한 객체 인식 방법을 제공하는 것이다.
상기한 본 발명의 목적을 실현하기 위하여 일 실시예에 따른 객체 인식시스템은 제1 패턴 데이터 생성부, 지도 데이터 저장부, 제2 패턴 데이터 생성부 및 객체 인식부를 포함한다.
상기 제1 패턴 데이터 생성부는 프리뷰(preview)된 실물객체들의 영상에 대응하는 제1 각도구간을 상기 실물객체들을 프리뷰하는 위치를 중심으로 일정한 제1 각도간격으로 분할하고, 상기 실물객체들의 영상으로부터 상기 실물객체들 사이의 경계를 산출하여, 상기 제1 각도간격으로 분할된 제1 각도구간의 각각의 각도에 대응하고 상기 산출된 실물객체들 사이의 경계마다 달라지는 제1 지표들의 집합으로 이루어진 제1 패턴 데이터를 생성한다.
상기 지도 데이터 저장부는 제2 지표 및 외곽선 데이터를 속성값으로 갖는 가상객체들 포함하는 지도 데이터를 저장한다.
상기 제2 패턴 데이터 생성부는 상기 지도 데이터를 상기 실물객체들을 프리뷰하는 위치를 중심으로 일정한 제2 각도간격으로 분할하고, 상기 제2 각도간격으로 분할된 지도 데이터의 각각의 지도각도에 대응하는 방사 직선과 가장 먼저 만나는 외곽선을 갖는 가상객체를 상기 지도 데이터로부터 추출하여, 상기 각각의 지도각도에 대응하는 제2 지표들의 집합으로 이루어진 제2 패턴 데이터를 생성한다.
상기 객체 인식부는 제1 각도구간에 배열되는 제1 지표들의 제1 배열패턴과 상기 제1 각도구간과 동일한 크기의 제2 각도구간에 배열되는 제2 지표들의 배열패턴을 비교하여, 상기 제1 지표들을 동일한 크기의 각도구간에서 상기 제1 지표들의 반복비율과 동일한 반복비율을 갖는 제2 지표들에 각각 매칭(matching)시키고, 상기 매칭된 제1 지표에 대응하는 각도에 배치된 실물객체를 상기 제1 지표에 매칭하는 제2 지표를 속성값으로 갖는 가상객체에 각각 매칭시켜서, 상기 프리뷰된 실물객체들과 각각 매칭하는 가상객체들을 추출한다.
일 실시예에서, 상기 프리뷰된 실물객체들의 경계는 상기 실물객체들의 영상에 영상 에지검출(edge detection) 방법을 적용하여 산출될 수 있다.
일 실시예에서, 상기 지도 데이터의 외곽선 데이터는 상기 각 가상객체의 모서리들의 위치값들을 포함하고, 상기 지도 데이터 상에서 상기 각 가상객체의 외곽선은 상기 각 가상객체의 이웃하는 모서리의 위치값을 연결하는 직선일 수 있다. 이와 달리, 상기 가상객체의 외곽선 데이터는 상기 가상객체의 위치값 및 상기 가상객체의 모서리들과 상기 가상객체의 위치값 사이의 상대적인 위치값들을 포함하고, 상기 가상객체의 각 모서리들의 위치는 상기 가상객체의 위치값 및 상기 가상객체의 모서리들과 상기 가상객체의 위치값 사이의 상대적인 위치값들에 의해 계산되며, 상기 지도 데이터 상에서 상기 각 가상객체의 외곽선은 상기 각 가상객체의 이웃하는 모서리의 위치를 연결하는 직선일 수 있다.
일 실시예에서, 상기 제1 각도간격은 상기 제2 각도간격의 n 배 또는 1/n 배이고, n은 정수일 수 있다.
일 실시예에서, 상기 제1 패턴 데이터 생성부, 상기 지도 데이터 저장부, 상기 제2 패턴 데이터 생성부 및 상기 객체 인식부는 서버 컴퓨터에 제공될 수 있다. 이 경우, 상기 서버 컴퓨터는 외부의 모바일 단말기로부터 상기 프리뷰된 실물객체들의 영상 및 상기 모바일 단말기의 위치값을 전송받을 수 있다. 상기 모바일 단말기의 위치값은 상기 실물객체들을 프리뷰하는 위치에 해당할 수 있다. 상기 서버 컴퓨터는 외부의 모바일 단말기에 상기 프리뷰된 실물객체와 매칭되는 가상객체의 속성값일 수 있다.
다른 일 실시예에서, 상기 제1 패턴 데이터 생성부는 모바일 단말기에 제공되고, 상기 제2 패턴 데이터 생성부 및 상기 객체 인식부는 서버 컴퓨터에 제공되며, 상기 서버 컴퓨터는 상기 모바일 단말기로부터 상기 모바일 단말기의 위치값 및 상기 모바일 단말기의 제1 패턴 데이터 생성부에서 생성된 상기 제1 패턴 데이터를 전송받을 수 있다.
다른 일 실시예에서, 상기 객체 인식시스템은 상기 제1 패턴 데이터 생성부, 상기 지도 데이터 저장부, 상기 제2 패턴 데이터 생성부 및 상기 객체 인식부를 모두 포함하는 모바일 단말기일 수 있다.
상기한 본 발명의 목적을 실현하기 위하여 일 실시예에 따른 객체 인식 방법에서, 상기 프리뷰된 실물객체들의 영상에 대응하는 제1 각도구간을 상기 실물객체들을 프리뷰하는 위치를 중심으로 일정한 제1 각도간격으로 분할하고, 상기 실물객체들의 영상으로부터 상기 실물객체들 사이의 경계를 산출하여, 상기 제1 각도간격으로 분할된 제1 각도구간의 각각의 각도에 대응하고 상기 산출된 실물객체들 사이의 경계마다 달라지는 제1 지표들의 집합을 산출한다. 제2 지표 및 외곽선 데이터를 속성값으로 갖는 가상객체들을 포함하는 지도 데이터를 상기 실물객체들을 프리뷰하는 위치를 중심으로 일정한 제2 각도간격으로 분할하고, 상기 제2 각도간격으로 분할된 지도 데이터의 각각의 지도각도에 대응하는 방사 직선과 가장 먼저 만나는 외곽선을 갖는 가상객체를 상기 지도 데이터로부터 추출하여, 상기 각각의 지도각도에 대응하는 제2 지표들의 집합을 산출한다. 상기 제1 각도구간에 배열되는 제1 지표들의 제1 배열패턴과 상기 제1 각도구간과 동일한 크기의 제2 각도구간에 배열되는 제2 지표들의 배열패턴을 비교하여, 상기 제1 지표들을 동일한 크기의 각도구간에서 상기 제1 지표들의 반복비율과 동일한 반복비율을 갖는 제2 지표들에 각각 매칭시키고, 상기 매칭된 제1 지표에 대응하는 각도에 배치된 실물객체를 상기 제1 지표에 매칭하는 제2 지표를 속성값으로 갖는 가상객체에 각각 매칭시킨다.
일 실시예에서, 상기 프리뷰된 실물객체와 매칭되는 가상객체의 속성값을 상기 프리뷰 영상에 출력할 수 있다.
일 실시예에서, 상기 프리뷰된 실물객체들의 경계는 상기 실물객체들의 영상에 영상 에지검출(edge detection) 방법을 적용하여 산출될 수 있다.
일 실시예에서, 본 발명은 상기 객체 인식 방법을 이용하는 소프트웨어가 저장된 정보 기록매체일 수 있다.
상기한 본 발명의 목적을 실현하기 위하여 다른 일 실시예에 따른 객체 인식시스템은 프리뷰(preview)된 실물객체들의 영상에 대응하는 제1 각도구간을 상기 실물객체들을 프리뷰하는 위치를 중심으로 일정한 제1 각도간격으로 분할하고, 상기 실물객체들의 영상으로부터 상기 실물객체들 사이의 경계를 산출하여, 상기 제1 각도간격으로 분할된 제1 각도구간의 각각의 각도에 대응하고 상기 산출된 실물객체들 사이의 경계마다 달라지는 제1 지표들을 산출하고, 제2 지표 및 외곽선 데이터를 속성값으로 갖는 가상객체들을 포함하는 지도 데이터를 상기 실물객체들을 프리뷰하는 위치를 중심으로 일정한 제2 각도간격으로 분할하고, 상기 제2 각도간격으로 분할된 지도 데이터의 각각의 지도각도에 대응하는 방사 직선과 가장 먼저 만나는 외곽선을 갖는 가상객체를 상기 지도 데이터로부터 추출하여, 상기 각각의 지도각도에 대응하는 제2 지표들의 집합을 산출하며, 상기 제1 각도구간에 배열되는 제1 지표들의 제1 배열패턴과 상기 제1 각도구간과 동일한 크기의 제2 각도구간에 배열되는 제2 지표들의 배열패턴을 비교하여, 상기 제1 지표들을 동일한 크기의 각도구간에서 상기 제1 지표들의 반복비율과 동일한 반복비율을 갖는 제2 지표들에 각각 매칭(matching)시키고, 상기 매칭된 제1 지표에 대응하는 각도에 배치된 실물객체를 상기 제1 지표에 매칭하는 제2 지표를 속성값으로 갖는 가상객체에 각각 매칭시켜서, 상기 프리뷰된 실물객체들과 매칭하는 상기 지도 데이터의 가상객체들을 추출한다.
일 실시예에서, 본 발명은 상기 객체 인식시스템을 이용하여 상기 프리뷰된 실물객체와 매칭하는 가상객체를 인식하며, 상기 인식된 가상객체가 포함하는 속성값을 외부의 모바일 단말기로 전송하는 서버 컴퓨터일 수 있다.
일 실시예에서, 본 발명은 상기 객체 인식시스템을 이용하여 상기 프리뷰된 실물객체와 매칭하는 가상객체의 방위값을 상기 실물객체를 프리뷰하는 방향의 방위값으로 출력하는 디지털 나침반일 수 있다.
일 실시예에서, 본 발명은 상기 객체 인식시스템을 이용하여 상기 프리뷰된 실물객체와 매칭하는 가상객체의 속성값을 디스플레이에 출력하는 모바일 단말기일 수 있다.
이러한 객체 인식시스템 및 이를 이용하는 객체 인식 방법에 따르면, 실시간으로 가상 세계의 가상객체와 실제 세계의 실물객체를 용이하고 정확하게 연관시켜주는 효과가 있다.
본 발명에 따르면, 방향 센서 또는 거리 센서를 구비하지 않은 단말기에서도 실물객체를 인식할 수 있다. 또한, 서버가 대용량의 영상 데이터를 미리 확보하고 있지 않아도 실물객체를 인식할 수 있다. 게다가, 본 발명은 별도의 방향 센서 없이 실물객체를 프리뷰하는 방향을 인식할 수 있기 때문에, 방향 센서의 역할을 하거나, 방향 센서의 기능을 보완할 수 있다.
따라서, 실물객체를 보다 정확하게 인식할 수 있고, 객체 인식 시스템이나 증강 현실 서비스의 품질을 높일 수 있다.
도 1은 본 발명의 실시예 1에 따른 객체 인식 방법의 개념을 나타내는 블록도이다.
도 2는 도 1에 도시한 제1 지표들을 산출하는 방법을 설명하기 위한 디스플레이 화면을 나타내는 평면도이다.
도 3은 도 1에 도시한 제2 지표들을 산출하는 방법을 설명하기 위한 지도 데이터를 도시한 평면도이다.
도 4a 및 도 4b는 도 2 및 도 3에서 산출된 제1 지표들 및 제2 지표들을 매칭시키는 방법을 설명하기 위한 다이어그램들을 나타낸다.
도 5는 본 발명의 실시예 2에 따른 객체 인식시스템을 나타내는 블록도이다.
도 6은 도 5에 도시된 객체 인식시스템이 적용되는 디스플레이 화면을 나타내는 평면도이다.
도 7은 도 5에 도시된 객체 인식시스템이 적용되는 지도 데이터를 도시한 평면도이다.
도 8은 본 발명의 실시예 3에 따른 객체 인식시스템을 나타내는 블록도이다.
도 9는 본 발명의 실시예 4에 따른 객체 인식시스템을 나타내는 블록도이다.
이하, 도면들을 참조하여 본 발명의 표시 장치의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 서로 다른 각도에서 본 도면들에서, 동일하거나 유사한 구성 요소에는 동일한 참조 부호가 사용될 것이다. 상기 도면들은 본 발명의 실시예들, 원리들 및 개념들을 강조하여 예시적으로 설명하기 위해, 반드시 동일한 스케일로 작성되지는 않을 것이다.
본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
먼저, 본 명세서에서 사용되는 용어에 대해 정의한다.
"프리뷰(preview)"라는 용어는 말 그대로 미리보기를 뜻하는 것으로, 상기 사용자가 객체 또는 대상물을 디스플레이의 화면을 통해 바라보는 행위를 의미한다.
"객체(object)"라는 용어는 인지할 수 있는 모든 사물과 사건을 의미하는데, 예를 들어, 건물, 동상, 나무와 같이 위치가 고정된 사물이나 조형물, 특정 위치의 장소, 교통수단과 같은 이동 경로가 일정한 사물, 해, 달, 별과 같이 시간에 따른 이동 경로가 일정한 자연물, 고유번호나 고유부호를 갖는 공산품, 특정 문자나 기호, 상표와 같은 문양, 사람, 특정 시간에 발생된 사건이나 문화 공연 등을 포함하는 개념으로 사용된다. 다만, 본 출원 명세서에서 상기 "객체"는 주로 건물, 동상, 나무와 같이 위치가 고정된 사물이나 조형물을 의미한다.
"속성값(attribute)"이란, 객체와 관련되는 일체의 정보를 말하는데, 일반적으로 정보 기록 매체에 데이터베이스 형태로 저장되는 정보를 말한다.
상기 객체는 현실 세계에 존재하는 대상물을 일컫는 "실물객체(real object)" 및 상기 실물객체에 대응하여 객체 인식시스템에 의해 저장되고 처리되는 "가상객체(virtual object)"로 분류된다. "가상객체"란, 대응하는 실물객체의 위치값, 주소, 모양, 명칭, 관련 정보, 관련 웹페이지 주소 등과 특징들을 정보 기록 매체에 데이터베이스 형태로 저장하고 있는 가상 세계의 객체에 해당한다. 또한 "가상객체의 속성값"이란, 상기 가상객체와 대응하는 실물객체의 위치값, 주소, 모양, 명칭, 관련 웹페이지 주소 등과 같이 정보 기록 매체에 데이터베이스 형태로 저장된 정보를 말한다. 이러한 속성값에는 건물이나 조형물의 설립연도, 역사, 용도, 나무의 나이, 종류 등과 같이 정보가 될 수 있는 것은 모두 포함될 수 있다.
"타깃실물객체(target real object)"라는 용어는 실물객체 중에서 단말기를 통해 바라보고 있는 (즉, 프리뷰되는) 실물객체를 의미한다. 예를 들어, 카메라와 디스플레이를 구비하는 단말기를 통해서 실물객체를 프리뷰하면서 해당 실물객체와 관련된 정보나 서비스를 요청하게 되면, 상기 프리뷰된 실물객체가 타깃실물객체에 해당된다. 다만, 본 명세서에서는 화면에 프리뷰되는 타깃실물객체를 단순히 실물객체라고 칭할 수 있다.
"타깃가상객체(target virtual object)"라는 용어는 가상객체 중에서 상기 타깃실물객체에 대응되는 가상객체를 의미한다. 예를 들어, 본 발명에 따른 객체 인식시스템에 프리뷰된 타깃실물객체에 대한 정보나 서비스를 요청하면, 상기 객체 인식시스템에 저장된 다수의 가상객체 중에서 상기 타깃실물객체에 대응되는 가상객체를 추출하는데, 이렇게 객체 인식시스템에 의해 상기 타깃실물객체에 대응되는 것으로 결정된 가상객체가 타깃가상객체에 해당된다.
실물객체의 속성값과 가상객체의 속성값이 "매칭(matching)한다"라는 용어는 실물객체의 속성값과 가상객체의 속성값이 동일하거나, 허용되는 오차범위 내에서 실질적으로 동일함을 의미한다. 예를 들어, "실물객체의 위치값과 가상객체의 위치값이 매칭한다"라는 것은 상기 두 위치값이 서로 동일하거나 실질적으로 동일하다는 의미이다.
"실물객체와 가상객체가 매칭(matching)한다"라는 용어는 상기 실물객체의 속성값과 동일한 속성값을 갖거나 허용되는 오차범위 내에서 실질적으로 동일한 속성값을 갖는 가상객체를 서로 대응시키거나 연관시키는 것을 의미한다. 예를 들어, 프리뷰된 실물객체(예컨대, 실제 건물)와 지도 데이터의 가상객체(즉, 지도상의 건물)가 매칭한다는 의미는 상기 프리뷰된 건물(즉, 실물객체)이 동일한 속성값(예컨대, 위치 또는 명칭)을 갖는 지도상의 건물(즉, 가상객체)에 해당하거나, 상기 프리뷰된 건물과 상기 지도상의 건물이 일대일로 대응된다는 것을 뜻한다.
"객체 인식"이라는 용어는 상기 프리뷰된 실물객체와 매칭하는 가상객체를 실시간으로 추출하는 것을 뜻한다.
도 1은 본 발명의 실시예 1에 따른 객체 인식 방법의 개념을 나타내는 블록도이다. 도 2는 도 1에 도시한 제1 지표들을 산출하는 방법을 설명하기 위한 디스플레이 화면을 나타내는 평면도이다.
도 1 및 도 2를 참조하면, 본 실시예에 따른 객체 인식 방법은 프리뷰(preview)된 실물객체들(111, 112, 113, 114)의 영상에 대응하는 제1 각도구간(AP1)을 상기 실물객체들(111, 112, 113, 114)을 프리뷰하는 위치(RP)를 중심으로 일정한 제1 각도간격(AG1)으로 분할하고, 상기 실물객체들(111, 112, 113, 114)의 영상으로부터 상기 실물객체들(111, 112, 113, 114) 사이의 경계(131, 132, 133)를 산출하여, 상기 제1 각도간격(AG1)으로 분할된 제1 각도구간(AP1)의 각각의 각도에 대응하고 상기 산출된 실물객체들(111, 112, 113, 114) 사이의 경계(131, 132, 133)마다 달라지는 제1 지표들(161)의 집합을 산출하는 단계(S1)를 포함한다.
위에서 정의한 바대로, "객체"라는 용어는 인지할 수 있는 모든 사물을 의미하는데, 예를 들어, 건물, 동상, 나무와 같이 위치가 고정된 사물이나 조형물을 의미한다. 특히, "실물객체(real object)"란 현실 세계에서 존재하는 객체로서, 예를 들어, 실제 건물, 실제 나무, 실제 동상과 같은 실제 사물이나 조형물을 의미한다.
또한, "프리뷰(preview)"라는 용어는 말 그대로 비리보기를 뜻하는 것으로, 상기 객체 또는 대상물을 디스플레이 화면을 통해 바라보는 행위를 의미한다. 예를 들어, 카메라와 같은 영상 인식부 및 상기 영상 인식부에 의해 제공되는 영상(image)을 표시하는 디스플레이를 포함하는 단말기로 상기 실물객체(예컨대, 건물, 조형물, 나무 등)를 프리뷰하면, 상기 실물객체의 영상은 상기 영상 인식부에 의해 영상으로 변환되고, 상기 영상은 상기 디스플레이에 영상으로 표시된다. 상기 영상 인식부 및 디스플레이를 포함하는 단말기의 예로 휴대 전화, 스마트폰, PDA(personal digital assistants), 디지털 비디오 카메라 등을 들 수 있다.
상기 실물객체들(111, 112, 113, 114)은 제1 실물객체(111), 제2 실물객체(112), 제3 실물객체(113) 및 제4 실물객체(114)를 포함한다. 도 2에 도시된 디스플레이(110)에 프리뷰된 실물객체들(111, 112, 113, 114)은 모두 건물인 경우로 가정한다. 다만, 본 발명은 실물객체가 건물인 경우에만 한정되지 않고, 동상, 탑과 같이 위치가 고정된 조형물 또는 나무, 바위와 같이 위치가 고정된 자연물이 실물객체인 경우에도 적용될 수 있다.
상기 실물객체들(111, 112, 113, 114)을 프리뷰하는 위치(RP)는, 예를 들어, 실제 공간에서 디스플레이(110)를 포함하는 단말기의 위치에 해당한다. 또한, 디스플레이(110) 화면 상에서 상기 프리뷰하는 위치(RP)는 화면의 중심에 해당할 수 있다.
상기 프리뷰된 제1 내지 제4 실물객체들(111, 112, 113, 114)의 영상에 대응하는 제1 각도구간(AP1)을 상기 프리뷰하는 위치(RP)를 중심으로 일정한 제1 각도간격(AG1)으로 분할한다(S11). 상기 제1 각도간격(AG1)이 X도인 경우에, 실제 공간은 상기 프리뷰하는 위치(RP)를 중심으로 360/X개의 공간으로 분할된다. 예를 들어, 상기 제1 각도간격(AG1)이 7.5도인 경우에, 실제 공간을 상기 프리뷰하는 위치(RP)를 중심으로 48등분(즉, 360/7.5=48)한다.
한편, 일반적인 디스플레이 화면의 각도의 범위(즉, 제1 각도구간(AP1))는 약 40도 내지 약 80도이다. 도 2에 도시된 실시예에서는, 상기 제1 각도구간(AP1)은 75도이고, 상기 제1 각도간격(AG1)이 7.5도인 것으로 가정한다. 이에 따라, 상기 제1 각도구간(AP1)은 10등분으로 분할된다. 상기 제1 각도구간(AP1)을 상기 제1 각도간격(AG1)으로 10등분한 각각의 각도를 제1 각도 내지 제11 각도(A1, ..., A11)라고 정의한다. 10등분에도 불구하고, 가장자리의 각도 하나를 더해서 총 각도의 수가 11개로 정의되었음을 이해할 수 있을 것이다.
상기 실물객체들(111, 112, 113, 114)의 영상으로부터 상기 실물객체들(111, 112, 113, 114) 사이의 경계(131, 132, 133)를 산출한다(S12).
본 발명의 일 실시예에서, 상기 실물객체들(111, 112, 113, 114) 사이의 경계(131, 132, 133)는 상기 실물객체들의 영상에 영상 에지검출(edge detection) 방법을 적용하여 산출될 수 있다. 디지털 영상 내에서 영상 화소의 밝기가 급격하게 변하는 부분을 영상의 에지(edge)라고 한다. 영상 내에서 상당한 밝기 차이가 발생하는 부분은 주로 물체의 윤곽선에 해당하는 곳이므로, 영상의 에지는 영상으로 나타나는 물체의 위치, 모양, 크기, 표면의 무늬 등에 대한 정보를 알려준다.
영상 에지검출이란, 디지털 영상 내에서 영상 화소의 밝기가 급격하게 변하는 화소, 즉, 에지를 검출하는 것을 말하는데, 영상 처리 분야에서 현재까지 여러 가지 방법이 제안되어 있다. 특히, 노이즈 영상과 같이 아주 작은 윤곽선들은 미리 제거하고 실질적으로 원하는 에지를 검출하는 여러가지 알고리즘이 알려져 있다.
상기 에지검출 방법의 대표적인 예로는, 소벨(Sobel) 에지검출, 캐니(Canny) 에지검출, 프리윗(Prewitt) 에지검출, 로버트(Roberts) 에지검출, 라플라시안(Laplacian) 에지검출 등이 있다. 이와 같은 영상의 에지검출 방법의 구체적인 내용이나 알고리즘은 디지털 영상처리와 관련된 교과서를 비롯한 여러 논문이나 문헌에 공개되어 있고, 본 발명의 핵심적인 특징이 아니므로 더 상세한 설명은 생략한다.
상기 여러 가지 예시적인 영상 에지검출 방법을 적용하여 상기 실물객체들(111, 112, 113, 114)의 영상 데이터로부터 상기 실물객체들(111, 112, 113, 114) 사이의 경계(131, 132, 133)가 산출된다. 즉, 상기 제1 실물객체(111)와 상기 제2 실물객체(112) 사이의 제1 경계(131), 상기 제2 실물객체(112)와 상기 제3 실물객체(113) 사이의 제2 경계(132) 및 상기 제3 실물객체(113)와 상기 제4 실물객체(114) 사이의 제3 경계(133)가 산출된다. 도 2의 실시예에서, 상기 제1 경계(131)는 제3 각도(A3)와 제4 각도(A4) 사이에 위치하고, 상기 제2 경계(132)는 제5 각도(A5)와 제6 각도(A6) 사이에 위치한다. 또한, 제3 경계(133)는 제6 각도(A6)와 제7 각도(A7) 사이에 위치한다.
상기 제1 각도간격(AG1)으로 분할된 제1 각도구간(AP1)의 각각의 각도(A1, ..., A11) 및 상기 산출된 실물객체들(111, 112, 113, 114) 사이의 경계(131, 132, 133)의 위치를 이용하여, 제1 지표들(161)을 생성한다(S13). 상기 제1 지표들(161)은 상기 제1 각도간격(AG1)으로 분할된 제1 각도구간(AP1)의 각각의 각도(A1, ..., A11)에 대응하고, 상기 산출된 실물객체들(111, 112, 113, 114) 사이의 경계(131, 132, 133)마다 달라진다.
예를 들어, 제1 각도(A1)에 대응하는 제1 지표(161)를 "A"라고 하면, 상기 제1 경계(131)가 위치하는 각도(즉, 제3 각도(A3)와 제4 각도(A4) 사이의 각도) 전까지는 상기 제1 지표(161)가 달라지지 않는다. 따라서, 제2 각도(A2)에 대응하는 제1 지표(161) 및 제3 각도(A3)에 대응하는 제1 지표(161)는 여전히 제1 각도(A1)에 대응하는 제1 지표(161)와 동일한 "A"이다. 상기 제1 지표(161)는 실물객체들(111, 112, 113, 114) 사이의 경계(131, 132, 133)마다 달라지므로, 상기 제1 경계(131)가 위치하는 각도(즉, 제3 각도(A3)와 제4 각도(A4) 사이의 각도)를 기준으로 상기 제1 지표(161)는 달라진다. 즉, 제4 각도(A4)에 대응하는 제1 지표(161)는 상기 제3 각도(A3)에 대응하는 제1 지표(즉, "A")와 다른 "B"로 산출된다.
마찬가지로, 상기 제2 경계(132)가 위치하는 각도(즉, 제5 각도(A3)와 제6 각도(A6) 사이의 각도) 전까지는 상기 제1 지표(즉, "B")가 달라지지 않으므로, 제5 각도(A5)에 대응하는 제1 지표(161)는 여전히 제4 각도(A4)에 대응하는 제1 지표(161)와 동일한 "B"이다. 또한, 상기 제1 지표(161)는 상기 제2 경계(132)가 위치하는 각도(즉, 제5 각도(A3)와 제6 각도(A6) 사이의 각도)를 기준으로 달라지므로, 제6 각도(A6)에 대응하는 제1 지표(161)는 상기 제5 각도(A5)에 대응하는 제1 지표(즉, "B")와 다른 "C"로 산출된다.
상기 제1 지표(161)는 상기 제3 경계(133)가 위치하는 각도(즉, 제6 각도(A6)와 제7 각도(A7) 사이의 각도)를 기준으로 달라지므로, 제7 각도(A7)에 대응하는 제1 지표(161)는 상기 제6 각도(A5)에 대응하는 제1 지표(즉, "C")와 다른 "D"로 산출된다. 상기 제7 각도(A7) 내지 제11 각도(A11) 사이에는 실물객체들(111, 112, 113, 114) 사이의 경계(131, 132, 133)가 위치하지 않으므로, 상기 제7 각도(A7) 내지 제11 각도(A11)에 각각 대응하는 제1 지표(161)는 모두 "D"이다.
따라서, 상기 제1 각도간격(AG1)으로 분할된 제1 각도구간(AP1)의 각각의 각도(A1, ..., A11)에 대응하고, 상기 산출된 실물객체들(111, 112, 113, 114) 사이의 경계(131, 132, 133)마다 달라지는 제1 지표들(161)의 집합이 산출된다.
도 3은 도 1에 도시한 제2 지표들을 산출하는 방법을 설명하기 위한 지도 데이터를 도시한 평면도이다.
도 1, 도 2 및 도 3을 참조하면, 본 실시예에 따른 객체 인식 방법은 제2 지표(162) 및 외곽선 데이터를 속성값으로 갖는 가상객체들(151, 152, 153, 154, 155, 156, 157, 158)을 포함하는 지도 데이터를 상기 실물객체들(111, 112, 113, 114)을 프리뷰하는 위치(RP)를 중심으로 일정한 제2 각도간격(AG2)으로 분할하고, 상기 제2 각도간격(AG2)으로 분할된 지도 데이터의 각각의 지도각도(MA1, ..., MA48)에 대응하는 방사 직선과 가장 먼저 만나는 외곽선을 갖는 가상객체를 상기 지도 데이터로부터 추출하여, 상기 각각의 지도각도(MA1, ..., MA48)에 대응하는 제2 지표들(162)의 집합을 산출하는 단계(S2)를 포함한다.
위에서 정의한 바대로, "가상객체"란 대응하는 실물객체가 갖는 위치값, 주소, 모양, 명칭, 관련 웹페이지 주소 등과 같은 특징들을 데이터베이스 형태로 저장하고 있는 가상 세계의 객체에 해당한다. 예를 들어, 데이터 베이스에 저장된 지도 데이터에 존재하는 가상건물, 가상동상, 가상조형물, 가상자연물 등이 가상객체에 해당한다. 또한, "가상객체의 속성값"은 위치값, 주소, 모양, 높이, 명칭, 관련 웹페이지 주소, 건물이나 조형물의 설립연도, 역사, 용도, 나무의 나이, 종류 등과 같이 기록 매체에 저장될 수 있는 정보를 말한다.
본 실시예에서, 상기 지도 데이터는 가상건물, 가상동상, 가상조형물, 가상자연물 등과 같은 위치가 고정된 가상객체들을 포함하며, 각각의 가상객체는 지표, 위치값 및 외곽선 데이터와 같은 속성값을 갖는다. 상기 가상객체의 속성값은 상기 가상객체와 관련되는 정보를 더 포함할 수 있다. 예를 들어, 상기 가상객체의 속성값은 상기 가상객체의 명칭, 설립연도, 역사, 높이, 주소, 관련 웹페이지 주소, 위치값, 모양, 용도, 나무의 나이, 종류 등의 다양한 정보를 포함할 수 있다.
상기 가상객체의 "지표"(즉, 제2 지표)는 다른 가상객체와 구분되는 각각의 가상객체 고유의 속성을 의미한다. 예를 들어, 가상객체가 건물인 경우, 건물의 명칭이나 주소가 상기 제2 지표가 될 수 있다. 이와 달리, 상기 가상건물마다 임의의 코드를 설정하고, 상기 임의의 코드가 제2 지표로 사용될 수도 있다.
본 실시예에서, 상기 가상객체들(151, 152, 153, 154, 155, 156, 157, 158)은 제1 가상객체(151) 내지 제8 가상객체(158)를 포함한다. 상기 제1 가상객체 내지 제8 가상객체(151, ..., 158)는 각각 대응하는 지표(즉, 제2 지표)를 포함한다. 예를 들어, 상기 제1 가상객체(151)의 제2 지표(162)는 "a"이고, 상기 제2 가상객체(152)의 제2 지표(162)는 "b"인 것으로 가정한다. 또한, 상기 제3 가상객체(153)의 제2 지표(162)는 "c"이고, 상기 제4 가상객체(154)의 제2 지표(162)는 "d"인 것으로 가정한다. 마찬가지로, 상기 제5 가상객체(155)의 제2 지표(162)는 "e"이고, 상기 제6 가상객체(156)의 제2 지표(162)는 "f"인 것으로 가정한다. 또한, 상기 제7 가상객체(157)의 제2 지표(162)는 "g"이고, 상기 제8 가상객체(158)의 제2 지표(162)는 "h"인 것으로 가정한다.
도 3에 도시된 지도 데이터의 가상객체들(151, 152, ..., 158)은 모두 가상건물인 경우로 가정한다. 다만, 본 발명은 가상객체가 지도 데이터 상의 가상건물인 경우에만 한정되지 않고, 지도 데이터 상에 존재하는 동상, 탑과 같이 위치가 고정된 가상조형물 또는 나무, 바위와 같이 위치가 고정된 가상자연물이 가상객체인 경우에도 적용될 수 있다.
도 3에 도시된 지도 데이터의 중심은 도 2의 실물객체들(111, 112, 113, 114)을 프리뷰하는 위치(RP)에 대응된다. 예를 들어, 상기 살물객체들(111, 112, 113, 114)을 프리뷰하는 위치(RP)는 실제 공간에서 디스플레이(110)를 포함하는 단말기의 위치에 해당할 수 있으며, 상기 지도 데이터의 중심은 지도 상에서 상기 단말기의 위치에 해당할 수 있다.
도 3에 도시된 지도 데이터가 원형인 것은 상기 프리뷰하는 위치(RP)로부터 미리 설정된 거리에 해당하는 지도만을 유효한 지도 데이터로 가정하고 있기 때문이다. 즉, 상기 원형 지도의 반경은 객체 인식시스템에 의해서 객체의 인식이 요구되는 거리에 해당하며, 이러한 반경은 필요에 따라 임의로 설정될 수 있음을 이해할 수 있을 것이다. 한편, 상기 분석 대상 지도 데이터는 반드시 원형일 필요가 없으며, 분석 대상 지역을 사각형이나 육각형과 같은 다각형 형태로 설정할 수도 있다.
상기 지도 데이터를 상기 프리뷰하는 위치(RP)를 중심으로 일정한 제2 각도간격(AG2)으로 분할한다(S21). 상기 제2 각도간격(AG2)이 X도인 경우에, 상기 지도 데이터의 가상공간은 상기 프리뷰하는 위치(RP)를 중심으로 360/X개의 공간으로 분할된다. 예를 들어, 상기 제2 각도간격(AG2)이 7.5도인 경우에, 상기 지도 데이터의 가상공간은 상기 프리뷰하는 위치(RP)를 중심으로 48등분(즉, 360/7.5=48)된다. 예를 들어, 지도 데이터 상에서 정북(due north) 방향을 기준으로 상기 지도 데이터를 상기 제2 각도간격(AG2)으로 48등분한 각각의 각도를 제1 지도각도 내지 제48 지도각도(MA1, ..., MA48)라고 정의한다.
위에서 언급한 바와 같이, 상기 지도 데이터의 가상객체들은 외곽선 데이터를 속성값으로 갖는다. 상기 외곽선 데이터란, 가상객체의 단순한 위치값이 아니라, 가상객체의 외곽 모양을 지도 상에 표현하기 위한 데이터를 말한다. 상기 외곽선 데이터는 가상객체의 2차원적인 모양과 관련된 데이터일 수도 있고, 3차원적인 모양과 관련된 데이터일 수도 있다.
예를 들어, 상기 외곽선 데이터가 가상객체의 평면적 모양을 나타내기 위한 데이터인 경우, 상기 외곽선 데이터는 상기 가상객체의 모서리들의 위치값들을 포함할 수 있다. 이 경우, 상기 가상객체의 모서리들의 위치값들을 이용하여 상기 지도 데이터 상에 상기 각 가상객체의 이웃하는 모서리의 위치를 연결하는 직선을 도시하여, 상기 지도 데이터 상에 각 가상객체의 외곽선을 도시할 수 있다.
이와 달리, 상기 외곽선 데이터는 상기 가상객체의 위치값 및 상기 가상객체의 모서리들과 상기 가상객체의 위치값 사이의 상대적인 위치값들을 포함할 수 있다. 예를 들어, 상기 외곽선 데이터는 상기 모서리들의 절대적 위치값 대신 상기 모서리의 위치와 상기 가상객체의 위치 사이의 거리 및 방향과 같은 모서리의 상대적인 위치값을 포함할 수 있다. 이 경우, 상기 가상객체의 각 모서리들의 위치는 상기 가상객체의 위치값 및 상기 모서리들의 상대적인 위치값들에 의해 계산될 수 있다. 이 경우에도, 상기 계산된 가상객체의 모서리들의 위치값들을 이용하여, 상기 지도 데이터 상에 각 가상객체의 이웃하는 모서리의 위치를 연결하는 직선을 도시하면, 상기 지도 데이터 상에 각 가상객체의 외곽선을 도시할 수 있다.
상기 프리뷰하는 위치(RP)를 중심으로 상기 제2 각도간격(AG2)으로 분할된 상기 지도 데이터의 각각의 지도각도(MA1, ..., MA48)에 대응하는 가상의 방사 직선들(도 3에 점선으로 표시)을 상정한다. 그리고, 상기 지도 데이터로부터 상기 각각의 지도각도(MA1, ..., MA48)에 대응하는 방사 직선과 가장 먼저 만나는 외곽선을 갖는 가상객체를 추출한다(S22).
예를 들어, 도 3에 도시된 지도 데이터에서, 상기 제1 지도각도(MA1)에 대응하는 방사 직선과 가장 먼저 만나는 외곽선(151a)을 갖는 가상객체는 제1 가상객체(151)이다. 상기 제2 지도각도(MA2)에 대응하는 방사 직선과 가장 먼저 만나는 외곽선(151a)을 갖는 가상객체도 역시 제1 가상객체(151)이다. 상기 제3 지도각도(MA3)에 대응하는 방사 직선과 가장 먼저 만나는 외곽선(152a)을 갖는 가상객체는 제2 가상객체(152)이다. 상기 제4 지도각도(MA4)에 대응하는 방사 직선과 가장 먼저 만나는 외곽선(153a)을 갖는 가상객체는 제3 가상객체(153)이다. 마찬가지로, 상기 제48 지도각도(MA48)에 대응하는 방사 직선과 가장 먼저 만나는 외곽선(158a)을 갖는 가상객체는 제8 가상객체(158)이다. 이런 방식으로, 상기 제1 지도각도 내지 상기 제48 지도각도(MA1, ..., MA48)에 각각 대응하는 방사 직선과 가장 먼저 만나는 외곽선을 갖는 가상객체를 모두 추출할 수 있다. 즉, 상기 제2 각도간격(AG2)으로 분할된 각각의 지도각도(MA1, ..., MA48)에 대응하는 가상객체들이 추출된다(S22).
위에서 언급한 바와 같이, 상기 각각의 지도각도(MA1, ..., MA48)에 대응하여 추출된 가상객체들은 각각 대응하는 제2 지표들(162)을 속성값으로 포함하고 있으므로, 상기 추출된 가상객체들로부터 상기 각각의 지도각도(MA1, ..., MA48)에 대응하는 제2 지표들(162)의 집합을 산출할 수 있다(S23).
예를 들어, 상기 제1 지도각도(MA1)에 대응하여 추출된 가상객체는 제1 가상객체(151)이고, 상기 제1 가상객체(151)는 "a"라는 제2 지표(162)를 포함한다. 따라서, 상기 제1 지도각도(MA1)에 대응하는 제2 지표(162)는 "a"로 산출된다. 또한, 상기 제2 지도각도(MA2)에 대응하여 추출된 가상객체도 제1 가상객체(151)이므로, 상기 제2 지도각도(MA2)에 대응하는 제2 지표(162)도 역시 "a"로 산출된다. 상기 제3 지도각도(MA1)에 대응하여 추출된 가상객체는 제2 가상객체(152)이고, 상기 제2 가상객체(152)는 "b"라는 제2 지표(162)를 포함한다. 따라서, 상기 제3 지도각도(MA3)에 대응하는 제2 지표(162)는 "b"로 산출된다. 또한, 상기 제4 지도각도(MA4)에 대응하여 추출된 가상객체는 제3 가상객체(153)이고, 상기 제3 가상객체(153)는 "c"라는 제2 지표(162)를 포함한다. 따라서, 상기 제4 지도각도(MA4)에 대응하는 제2 지표(162)는 "c"로 산출된다. 마찬가지로, 상기 제48 지도각도(MA48)에 대응하여 추출된 가상객체는 제8 가상객체(158)이고, 상기 제8 가상객체(153)는 "h"라는 제2 지표(162)를 포함한다. 따라서, 상기 제48 지도각도(MA48)에 대응하는 제2 지표(162)는 "h"로 산출된다.
만약, 분석 대상 지역에 해당하는 상기 원형 지도 데이터의 반경 내에 상기 지도각도에 대응하는 방사 직선과 가장 먼저 만나는 외곽선을 갖는 가상객체가 없다면, 가상객체가 추출되지 않을 것이다. 이 경우에는 상기 지도각도에 대응하는 가상객체가 없으므로, 상기 지도각도에 대응하는 제2 지표(162)는, 예컨대, "x"로 산출된다. 도 3에서 방사 직선과 가장 먼저 만나는 외곽선을 갖는 가상객체가 없는 지도각도에 대해서는 제2 지표(162)가 "x"로 표시되어 있다. 한편, 위에서 언급한 바와 같이, 상기 원형 지도의 반경은 객체 인식시스템에 의해서 객체의 인식이 요구되는 거리에 해당하며, 필요에 따라 이러한 반경을 더 길게 설정하는 경우에는 모든 각도에 가상객체가 존재할 수 있다. 이 경우에는 제2 지표(162)가 "x"로 산출되지 않음을 이해할 수 있을 것이다.
이와 같이 산출된 제2 지표들(162)의 집합은 "aabcc...hhhhh"의 배열패턴을 가질 수 있다.
본 실시예에서는 상기 제1 각도간격(AG1) 및 제2 각도간격(AG2)이 동일하게 설정되었지만, 본 발명은 여기에 한정되지 않는다. 예를 들어, 상기 제1 각도간격(AG1)이 제2 각도간격(AG2)의 정수배로 설정되거나, 상기 제2 각도간격(AG2)이 제1 각도간격(AG2)의 정수배로 설정될 수도 있다. 즉, 상기 제1 각도간격은 상기 제2 각도간격의 n 배(n은 정수) 또는 1/n 배(n은 정수)일 수 있다.
도 4a 및 도 4b는 도 2 및 도 3에서 산출된 제1 지표들 및 제2 지표들을 매칭시키는 방법을 설명하기 위한 다이어그램들을 나타낸다.
구체적으로, 도 4a는 상기 제1 지표들이 상기 제2 지표들에 매칭되지 않은 경우를 나타내고, 도 4b는 상기 제1 지표들이 상기 제2 지표들에 매칭된 경우를 나타낸다.
도 1 내지 도 4b를 참조하면, 본 실시예에 따른 객체 인식 방법은 상기 제1 각도구간(AP1)에 배열되는 제1 지표들(161)의 제1 배열패턴과 상기 제1 각도구간(AP1)과 동일한 크기의 제2 각도구간(AP2)에 배열되는 제2 지표들(162)의 배열패턴을 비교하여, 상기 제1 지표들(161)을 동일한 크기의 각도구간에서 상기 제1 지표들(161)의 반복비율과 동일한 반복비율을 갖는 제2 지표들(162)에 각각 매칭시키고, 상기 매칭된 제1 지표(161)에 대응하는 각도에 배치된 실물객체를 상기 제1 지표(161)에 매칭하는 제2 지표를 속성값으로 갖는 가상객체에 각각 매칭시키는 단계(S3)를 포함한다.
먼저, 상기 제1 지표들(161) 및 상기 제2 지표들(162)의 배열패턴을 비교하여 상기 제1 지표들(161)을 상기 제2 지표들(162)에 각각 매칭시키는 방법(S31)을 설명한다.
도 2를 참조하여 설명한 방법으로 산출된 제1 지표들(161)의 집합은 "AAABBCDDDDD"와 같은 배열패턴을 갖는다. 또한, 도 2를 참조하여 설명한 방법으로 산출된 제2 지표들(162)의 집합은 "aabcc...hhhhh"와 같은 배열패턴을 갖는다.
"제1 지표(161)를 제2 지표(162)에 매칭시킨다"는 의미는 지표"A", 지표"B", 지표"C", 지표"D"와 같은 각각의 제1 지표(161)를 지표"a", 지표"b", 지표"c", ..., 지표"g", 지표"h"와 같은 상기 제2 지표들(162) 중 하나와 짝을 짓는다(couple)는 뜻이다. 예를 들어, 상기 제1 각도(A1)에 대응하는 제1 지표(161)인 지표"A"를 상기 제2 지표들(162)인 지표"a", 지표"b", 지표"c", ..., 지표"g"중 하나와 대응시키는 것을 말한다. 다시 말해, "제1 지표(161)를 제2 지표(162)에 매칭시킨다"는 의미는 상기 지표"a", 지표"b", 지표"c", ..., 지표"g"(즉, 제2 지표) 중 어느 것이 상기 제1 지표(즉, "A")에 대응되는지 결정한다는 것을 뜻한다.
상기 제1 지표(161)에 매칭되는 제2 지표(162)는 반드시 하나만 존재한다. 예를 들어, 상기 제1 각도(A1)에 대응하는 제1 지표(161)인 "A"가 제2 지표들(162) 중 "h"와 매칭된다면, 상기 제4 각도(A4)에 대응하는 제1 지표(161)인 "B"는 상기 "h"와 더 이상 매칭될 수 없다. 또한, 제1 지표(161) 중 하나와 제2 지표 중 하나를 일대일로 매칭하기 위해서는, 비교되는 각 배열패턴이 포함하는 지표들의 종류의 수가 동일해야 한다. 예를 들어, 상기 제1 지표들(161)의 배열패턴("AAABBCDDDDD")에 네 가지 종류의 지표가 포함되어 있는 경우, 이와 비교되는 제2 지표들의 배열패턴에도 네 가지의 지표가 포함되어 있어야 한다.
상기 제1 지표들(161)의 배열패턴("AAABBCDDDDD")에 따르면, 상기 제1 각도(A1) 내지 상기 제11 각도(A11) 사이의 제1 각도구간(AP1)에서 지표"A", 지표"B", 지표"C", 지표"D"가 순서대로 배열된다. 그리고, 지표"A"가 세 번 반복되고, 지표"B"가 두 번 반복된다. 또한, 지표"C"가 한 번 반복되고, 지표"D"가 다섯 번 반복된다.
위에서 설명한 바와 같이, 지표"A", 지표"B", 지표"C", 지표"D"와 같은 상기 제1 지표들(161)은 상기 제1 각도간격(AG1)으로 분할된 제1 각도구간(AP1)의 각각의 각도(A1, ..., A11)에 각각 대응한다. 도 2에 도시된 본 실시예에서는, 상기 디스플레이(110) 화면의 각도는 75도이고, 디스플레이(110) 화면이 7.5도의 제1 각도간격(AG1)으로 10등분 되었으므로, 상기 제1 각도구간(AP1)의 크기는 75도이다.
제1 지표들(161)의 각 지표의 "반복비율"은 각 지표가 반복되는 회수를 기준 각도구간(즉, 제1 각도구간(AP1))내의 지표의 총수로 나눈 값으로 정의한다. 예를 들어, 도 4a 및 도 4b에 도시된 바와 같이, 제1 각도구간(AP1)에서 상기 제1 지표들(161)의 집합은 총 11개의 지표들을 포함한다. 이 경우, 상기 지표"A"는 세 번 반복되므로, 상기 지표"A"의 반복비율은 3/11이다.
지표"B"는 두 번 반복되므로, 상기 지표"B"의 반복비율은 2/11이다. 지표"C"는 한 번 반복되므로, 상기 지표"C"의 반복비율은 1/11이다. 지표"D"는 다섯 번 반복되므로, 상기 지표"D"의 반복비율은 5/11이다. 이와 같이, 상기 지표"A", 지표"B", 지표"C", 지표"D"의 반복비율은 각각 3/11, 2/11, 1/11, 5/11에 해당한다.
상기 제1 지표들(161)의 각각의 지표("A","B","C","D")를 상기 제2 지표들(162)에 각각 매칭시키기 위해, 상기 제2 지표들(162)의 배열패턴("aabcc...hhhhh") 중에서 제2 각도구간(AP2)을 선택한다. 상기 선택 각도구간(즉, 제2 각도구간(AP2))의 크기는 상기 기준 각도구간(즉, 제1 각도구간(AP1))의 크기와 동일하다는 것에 유의할 필요가 있다. 즉, 상기 기준 각도구간(즉, 제1 각도구간(AP1))의 크기가 75도인 경우, 상기 상기 선택 각도구간(즉, 제2 각도구간(AP2))의 크기도 75도이다.
본 실시예에서, 상기 기준 각도구간(즉, 제1 각도구간(AP1))의 크기는 75도이므로, 상기 선택 각도구간(즉, 제2 각도구간(AP2))의 크기도 75도가 된다. 도 3에 도시된 바와 같이, 상기 제2 지표들(162)의 집합은 총 48개의 지표들을 포함한다. 상기 48이라는 수치는 360도를 제2 각도간격(AG2)인 7.5로 나눈 값에 해당한다. 상기 선택 각도구간(즉, 제2 각도구간(AP2))에서 총 48개 중에서 75도에 해당하는 지표들의 수인 10(48ㅧ 75/360=10)개에 가장자리의 지표 하나를 더한 총 11개의 제2 지표들(162)이 선택된다.
상기 제2 지표들(162)의 배열패턴("aabcc...hhhhh")은 360도를 주기로 반복되기 때문에, 상기 제2 각도구간(AP2)의 시작 지점은 임의로 선택할 수 있다. 예를 들어, 도 4a에 도시된 바와 같이, 상기 제2 각도구간(AP2)의 시작 지점을 도 3에 도시된 제1 지도각도(MA1)로 선택한 경우, 상기 선택된 제2 각도구간(AP2) 내의 제2 지표들(162)의 배열패턴은 "aabccccccc"가 된다. 이와 달리, 도 4b에 도시된 바와 같이, 상기 제2 각도구간(AP2)의 시작 지점을 도 3에 도시된 제46 지도각도(MA46)로 선택한 경우, 상기 선택된 제2 각도구간(AP2) 내의 제2 지표들(162)의 배열패턴은 "hhhaabccccc"가 된다.
상기 시작 지점을 상기 제2 각도간격(AG2)으로 변경하면서, 상기 제1 각도구간(AP1)에 배열되는 제1 지표들(161)의 배열패턴("AAABBCDDDDD")과 상기 선택된 제2 각도구간(AP2)에 배열되는 제2 지표들(162)의 배열패턴(예컨대, "aabcccccccc","abccccccccc","bcccccccccc", ... )을 서로 비교한다. 이 경우, 상기 시작 지점을 상기 제2 각도간격(AG2)으로 변경하면서, 제1 지표들(161)에 매칭되는 제2 지표들(162)이 추출될 때까지 최대 48번의 비교가 행해질 수 있다.
제2 지표들(162)의 각 지표의 "반복비율"은 각 지표가 반복되는 회수를 선택 각도구간(즉, 제2 각도구간(AP2))내의 지표의 총수로 나눈 값으로 정의한다. 예를 들어, 도 4a 및 도 4b에 도시된 바와 같이, 제2 각도구간(AP2)에서 상기 제2 지표들(162)의 집합은 총 11개의 지표들을 포함한다.
위에서 언급한 바와 같이, 도 4a는 상기 제2 각도구간(AP2)의 시작 지점을 도 3에 도시된 제1 지도각도(MA1)로 선택한 경우를 나타낸다. 도 4a의 경우, 지표"a"는 두 번 반복되므로, 상기 지표"a"의 반복비율은 2/11이다. 지표"b"는 한 번 반복되므로, 상기 지표"b"의 반복비율은 1/11이다. 지표"c"는 여덟 번 반복되므로, 상기 지표"c"의 반복비율은 8/11이다. 이와 같이, 도 4a의 경우, 상기 제2 지표들(162) 중 상기 지표"a", 지표"b", 지표"c"의 반복비율은 각각 2/11, 1/11, 8/11에 해당한다.
상기 제1 각도구간(AP1)에 배열된 지표"A", 지표"B", 지표"C", 지표"D"의 반복비율이 각각 3/11, 2/11, 1/11, 5/11인 반면, 상기 제2 각도구간(AP2)에 배열된 지표"a", 지표"b", 지표"c"의 반복비율은 각각 2/11, 1/11, 8/11이다. 게다가, 상기 제1 각도구간(AP1)에 배열된 제1 지표들(161)의 종류는 네 가지인 반면, 상기 제2 각도구간(AP2)에 배열된 제2 지표들(162)의 종류는 세 가지이다. 따라서, 동일한 크기의 각도구간(즉, 제1 각도구간 및 제2 각도구간)에서 상기 제1 지표들(161)을 상기 제1 지표들(161)의 반복비율과 동일한 반복비율을 갖는 제2 지표들(162)에 각각 매칭시킬 수 없다. 다시 말해, 상기 제1 지표들(161)은 상기 제2 지표들(162)에 각각 매칭되지 않는다.
도 4b는 상기 제2 각도구간(AP2)의 시작 지점을 도 3에 도시된 제46 지도각도(MA46)로 선택한 경우를 나타낸다. 도 4b의 경우, 지표"h"는 세 번 반복되므로, 상기 지표"h"의 반복비율은 3/11이다. 지표"a"는 두 번 반복되므로, 상기 지표"a"의 반복비율은 2/11이다. 지표"b"는 한 번 반복되므로, 상기 지표"b"의 반복비율은 1/11이다. 지표"c"는 다섯 번 반복되므로, 상기 지표"c"의 반복비율은 5/11이다. 이와 같이, 도 4b의 경우, 상기 제2 지표들(162) 중 상기 지표"h", 지표"a", 지표"b", 지표"c"의 반복비율은 각각 3/11, 2/11, 1/11, 5/11에 해당한다.
상기 제1 각도구간(AP1)에 배열된 제1 지표들(161)의 종류와 상기 제2 각도구간(AP2)에 배열된 제2 지표들(162)의 종류는 모두 네 가지이다. 게다가, 상기 제1 각도구간(AP1)에 배열된 지표"A", 지표"B", 지표"C", 지표"D"의 반복비율이 각각 3/11, 2/11, 1/11, 5/11이고, 상기 제2 각도구간(AP2)에 배열된 지표"h", 지표"a", 지표"b", 지표"c"의 반복비율도 각각 3/11, 2/11, 1/11, 5/11이다.
따라서, 제1 지표들(161) 중 지표"A"를 제2 지표들(162) 중 지표"h"에 매칭시키고, 제1 지표들(161) 중 지표"B"를 제2 지표들(162) 중 지표"a"에 매칭시킨다. 제1 지표들(161) 중 지표"C"를 제2 지표들(162) 중 지표"b"에 매칭시키고, 제1 지표들(161) 중 지표"D"는 제2 지표들(162) 중 지표"c"에 매칭시킨다(S31).
다음으로, 상기 매칭된 제1 지표(161)에 대응하는 각도에 배치된 실물객체와 상기 매칭된 제2 지표(162)를 속성값으로 갖는 가상객체를 서로 매칭시키는 방법(S32)을 설명한다.
다시 도 2, 도 3 및 도 4b를 참조하면, 상기 매칭된 제1 지표들(161) 중 지표"A"에 대응하는 각도는 도 2에서 제1 각도(A1), 제2 각도(A2) 및 제3 각도(A3)이다. 또한, 상기 제1 각도(A1), 제2 각도(A2) 및 제3 각도(A3)에 배치된 실물객체는 도 2의 제1 실물객체(111)에 해당한다. 즉, 상기 매칭된 제1 지표"A"에 대응하는 각도에 배치된 실물객체는 제1 실물객체(111)이다.
상기 매칭된 제1 지표들(161) 중 지표"B"에 대응하는 각도는 도 2에서 제4 각도(A4) 및 제5 각도(A5)이다. 또한, 상기 제4 각도(A4) 및 제5 각도(A5)에 배치된 실물객체는 도 2의 제2 실물객체(112)에 해당한다. 즉, 상기 매칭된 제1 지표"B"에 대응하는 각도에 배치된 실물객체는 제2 실물객체(112)이다.
마찬가지로, 상기 매칭된 제1 지표"C"에 대응하는 각도에 배치된 실물객체는 제3 실물객체(113)이고, 상기 매칭된 제1 지표"D"에 대응하는 각도에 배치된 실물객체는 제4 실물객체(114)이다.
한편, 상기 매칭된 제2 지표들(162) 중 지표"h"를 속성값으로 갖는 가상객체는 제8 가상객체(158)이다. 상기 매칭된 제2 지표들(162) 중 지표"a"를 속성값으로 갖는 가상객체는 제1 가상객체(151)이다. 마찬가지로, 상기 매칭된 제2 지표들(162) 중 지표"b"를 속성값으로 갖는 가상객체는 제2 가상객체(152)이고, 상기 매칭된 제2 지표들(162) 중 지표"b"를 속성값으로 갖는 가상객체는 제3 가상객체(153)이다.
위에서 설명한 바와 같이, 상기 매칭된 제1 지표들(161) 중 지표"A"는 상기 제2 지표들(162) 중 지표 "h"에 매칭한다. 상기 매칭된 제1 지표"A"에 대응하는 각도에 배치된 실물객체는 제1 실물객체(111)이고, 상기 제1 지표"A"에 매칭하는 제2 지표 "h"를 속성값으로 갖는 가상객체는 제8 가상객체(158)이다. 따라서, 상기 매칭된 제1 지표"A"에 대응하는 각도에 배치된 제1 실물객체(111)를 상기 제1 지표"A"에 매칭하는 제2 지표 "h"를 속성값으로 갖는 제8 가상객체(158)에 매칭시킨다.
상기 매칭된 제1 지표들(161) 중 지표"B"는 상기 제2 지표들(162) 중 지표 "a"에 매칭한다. 상기 매칭된 제1 지표"B"에 대응하는 각도에 배치된 실물객체는 제2 실물객체(112)이고, 상기 제1 지표"B"에 매칭하는 제2 지표 "a"를 속성값으로 갖는 가상객체는 제1 가상객체(151)이다. 따라서, 상기 매칭된 제1 지표"B"에 대응하는 각도에 배치된 제2 실물객체(112)를 상기 제1 지표"B"에 매칭하는 제2 지표 "a"를 속성값으로 갖는 제1 가상객체(151)에 매칭시킨다.
마찬가지로, 상기 매칭된 제1 지표"C"에 대응하는 각도에 배치된 제3 실물객체(113)를 상기 제1 지표"C"에 매칭하는 제2 지표 "b"를 속성값으로 갖는 제2 가상객체(152)에 매칭시킨다. 또한, 상기 매칭된 제1 지표"D"에 대응하는 각도에 배치된 제4 실물객체(114)를 상기 제1 지표"D"에 매칭하는 제2 지표 "c"를 속성값으로 갖는 제3 가상객체(153)에 매칭시킨다.
결과적으로, 상기 매칭된 제1 지표(각각, "A","B","C","D")에 대응하는 각도에 배치된 실물객체(각각, 111, 112, 113, 114)를 상기 제1 지표들에 각각 매칭하는 제2 지표를 속성값으로 갖는 가상객체(각각, 158, 151, 152, 153)에 각각 매칭시키는 단계(S32)가 완성된다.
이와 같이, 프리뷰된 실물객체들(111, 112, 113, 114)을 가상객체들(158, 151, 152, 153)에 각각 매칭시키면, 상기 가상객체들(158, 151, 152, 153)의 속성값들로부터 상기 실물객체들(111, 112, 113, 114)의 속성값을 알아낼 수 있다. 즉, 상기 실물객체들(111, 112, 113, 114)을 인식(identify)할 수 있다. 따라서, 본 발명은 객체 인식 방법과 관련된 것임을 이해할 수 있을 것이다.
예를 들어, 디스플레이(110)의 중심에 프리뷰된 상기 제3 실물객체(113)는 상기 가상객체들 중에서 제2 가상객체(152)와 매칭한다. 따라서, 상기 프리뷰된 상기 제3 실물객체(113)와 매칭하는 제2 가상객체(152)가 갖는 위치값, 주소, 모양, 명칭, 설립연도, 역사, 용도, 종류, 관련 웹페이지 주소 등과 같은 속성값을 정보로 이용할 수 있다.
일 실시예에서, 본 발명에 따른 객체 인식 방법은 상기 프리뷰된 실물객체와 매칭되는 가상객체의 속성값을 상기 프리뷰 영상에 출력하는 단계를 더 포함할 수 있다. 예를 들어, 상기 프리뷰된 제3 실물객체(113)와 매칭하는 제2 가상객체(152)의 위치값, 주소, 모양, 명칭, 설립연도, 역사, 용도, 종류, 관련 웹페이지 주소 등과 같은 속성값을 상기 디스플레이(110)에 프리뷰된 영상에 출력할 수 있다.
본 발명의 실시예인 객체 인식 방법에 따르면, 상기 제3 실물객체(113)를 프리뷰하는 방향(PVD)을 인식할 수 있다. 예를 들어, 도 2에서 디스플레이(110) 상에서 중앙에 배치된 제3 실물객체(113)에 대응하는 제6 각도(A6)는 상기 제3 실물객체(113)를 프리뷰하는 방향(PVD)에 해당한다. 그런데, 상기 제6 각도(A6)에 대응하는 지표 "C"는 지도 데이터 상에서 지표 "b"와 매칭하므로, 상기 제6 각도(A6)는 상기 지도 데이터 상에서 제3 지도각도(MA3)에 대응함을 알 수 있다. 도 3에서 제3 지도각도(MA3)는 정북 방향으로부터 시계 방향으로 15도(7.5ㅧ 2=15)만큼 회전한 방향이므로, 상기 제3 실물객체(113)를 프리뷰하는 방향(PVD)은 정북 방향으로부터 시계 방향으로 15도만큼 회전한 방향임을 알 수 있다.
따라서, 본 발명에 따른 객체 인식 방법을 이용하면, 방향 센서나 나침반이 없어도, 실물객체를 프리뷰하는 방향을 인식할 수 있는 장점이 있다. 게다가, 본 발명에 따른 객체 인식 방법을 이용하는 디스플레이 장치 또는 단말기는 방향 센서 없이도 디지털 나침반의 기능을 수행할 수 있다. 즉, 본 발명의 일실시예는 상기 프리뷰된 실물객체와 매칭하는 가상객체의 방위값을 상기 실물객체를 프리뷰하는 방향의 방위값으로 출력하는 디지털 나침반과 관련된 것이다. 또한, 본 발명에 따른 객체 인식 방법 또는 객체 인식시스템은 방향 센서가 있는 단말기에도 적용될 수 있으며, 이 경우에는 더 정확한 객체 인식을 위해, 상기 방향 센서의 기능을 보완하는 기능을 수행할 수 있다.
본 실시예에서는 상기 제1 각도간격(AG1) 및 제2 각도간격(AG2)이 7.5도로 설정되었지만, 제1 지표들 및 제2 지표들을 더 정확히 매칭시키기 위해서는, 제1 각도구간(AP1)을 분할하는 제1 각도간격(AG1) 및 지도 데이터를 분할하는 제2 각도간격(AG2)을 가능한 좁히는 것이 바람직하다. 즉, 상기 제1 각도간격(AG1) 및 제2 각도간격(AG2)이 좁을수록, 오차는 줄어들 수 있다.
본 실시예에서는 상기 제1 각도간격(AG1) 및 제2 각도간격(AG2)이 동일하게 설정되었지만, 상기 제1 각도간격(AG1)이 제2 각도간격(AG2)의 정수배로 설정되거나, 상기 제2 각도간격(AG2)이 제1 각도간격(AG2)의 정수배로 설정될 수도 있다. 즉, 상기 제1 각도간격은 상기 제2 각도간격의 n 배(n은 정수) 또는 1/n 배(n은 정수)일 수 있다.
만약, 제1 각도간격(AG1)이 제2 각도간격(AG2)의 n(n은 정수)배로 설정되는 경우, 제2 지표들(162)의 수가 제1 지표들(161)의 수의 n배 만큼 많겠지만, 동일한 크기의 제1 각도구간(AP1) 및 제2 각도구간(AP2)에서 서로 매칭되는 제1 지표들(161)의 반복비율은 제2 지표들(162)의 반복비율은 실질적으로 동일할 수 있다. 마찬가지로, 제1 각도간격(AG1)이 제2 각도간격(AG2)의 1/n(n은 정수)배로 설정되는 경우, 제1 지표들(161)의 수가 제2 지표들(162)의 수의 n배 만큼 많겠지만, 동일한 크기의 제1 각도구간(AP1) 및 제2 각도구간(AP2)에서 서로 매칭되는 제1 지표들(161)의 반복비율은 제2 지표들(162)의 반복비율은 실질적으로 동일할 수 있다.
일 실시예에서, 본 발명에 따른 객체 인식 방법은 객체 인식 시스템, 무선 인터넷 시스템, 객체 인식 서비스 또는 증강현실 서비스를 제공하는 서버 컴퓨터, 휴대 전화, 스마트폰, PDA(personal digital assistants) 등과 같은 디지털 장치에 사용되는 소프트웨어로 제작되어 상기 디지털 장치의 정보 기록 매체에 저장될 수 있다.
예를 들어, 본 발명에 따른 객체 인식 방법은 휴대 전화, PDA, 스마트폰 등의 단말기에 사용되는 객체 인식용 프로그램, 증강현실 실행 프로그램, 무선 인터넷 브라우저 등의 응용 소프트웨어에 이용될 수 있으며, 상기 객체 인식 방법을 이용하는 응용 소프트웨어는 상기 휴대 전화, PDA, 스마트폰 등의 단말기에 구비된 메모리와 같은 정보 기록매체에 저장될 수 있다. 즉, 본 발명에 따른 객체 인식 방법의 권리 범위는 상기 단말기와 같은 디지털 장치의 응용 소프트웨어가 저장된 정보 기록매체에도 미칠 수 있다.
또한, 본 발명에 따른 객체 인식 방법은 도 5 내지 도 9를 참조하여 설명될 객체 인식시스템을 이용하여 구현될 수 있다.
본 발명에 따르면, 방향 센서 또는 거리 센서를 구비하지 않은 단말기에서도 실물객체를 인식할 수 있다. 또한, 서버가 대용량의 영상 데이터를 미리 확보하고 있지 않아도 실물객체를 인식할 수 있다. 게다가, 본 발명은 별도의 방향 센서 없이 실물객체를 프리뷰하는 방향을 인식할 수 있기 때문에, 방향 센서를 포함하지 않는 단말기에도 적용할 수 있는 장점이 있다. 또한, 본 발명은 방향 센서의 기능을 보완할 수도 있다.
도 5는 본 발명의 실시예 2에 따른 객체 인식시스템을 나타내는 블록도이다. 도 6은 도 5에 도시된 객체 인식시스템이 적용되는 디스플레이 화면을 나타내는 평면도이다. 도 7은 도 5에 도시된 객체 인식시스템이 적용되는 지도 데이터를 도시한 평면도이다.
도 5 내지 도 7에 도시하는 본 발명의 실시예 2에 따른 객체 인식시스템에 이용되는 객체 인식 방법은 도 1 내지 도 4b를 참조하여 설명한 실시예 1에 따른 객체 인식 방법과 실질적으로 동일하므로, 세부적인 구성요소에 대한 반복되는 설명은 생략하고, 동일하거나 유사한 구성요소에는 도 1 내지 도 4b에서 사용된 참조 번호와 동일한 참조 번호를 사용할 것이다.
도 5를 참조하면, 본 발명의 실시예 2에 따른 객체 인식시스템(200)은 제1 패턴 데이터 생성부(210), 지도 데이터 저장부(220), 제2 패턴 데이터 생성부(230) 및 객체 인식부(240)를 포함한다.
상기 객체 인식시스템(200)은 외부의 모바일 단말기(260)와 무선 통신을 할 수 있다. 상기 모바일 단말기(260)의 예로 휴대 전화, 스마트폰, PDA(personal digital assistants), 디지털 비디오 카메라 등을 들 수 있다.
상기 모바일 단말기(260)는 영상을 표시하는 디스플레이(110), 실물객체의 영상을 인식하는 영상 인식부(261), 상기 단말기(260)의 위치값을 생성하는 위치 측정부(263) 및 상기 객체 인식부(240)와 데이터 통신을 하기 위한 데이터 통신부(269)를 포함할 수 있다.
상기 영상 인식부(261)는, 예컨대, 실물영상을 디지털 영상 데이터로 전환하는 카메라를 포함할 수 있다. 상기 영상 인식부(261)에 의해 인식된 영상은 상기 디스플레이(110)에 실시간으로 표시될 수 있다.
상기 위치 측정부(263)는 단말기(260)의 현재 위치값을 생성한다. 예를 들어, 상기 위치측정부(263)는 GPS(global positioning system) 위성과 교신할 수 있는 GPS 수신기를 포함할 수 있다. 즉, 단말기(260)의 위치 측정부(263)는 GPS 수신기를 이용하여 단말기(260)의 위치값을 생성할 수 있다. 이와 달리, 상기 위치 측정부(263)는, Wi-Fi(Wireless-Fidelity) 중계기 또는 WLAN AP(Wireless Local Area Network Access Point)와 같이 실내/실외의 기지국 또는 중계기와 상기 단말기(260) 사이의 거리를 측정하여 상기 단말기(260)의 위치값을 생성할 수도 있다.
도 5 및 도 6을 참조하면, 상기 제1 패턴 데이터 생성부(210)는 프리뷰된 실물객체들(111, 112, 113, 114)의 영상에 대응하는 제1 각도구간(AP1)을 상기 실물객체들(111, 112, 113, 114)을 프리뷰하는 위치(RP)를 중심으로 일정한 제1 각도간격(AG1)으로 분할한다.
상기 실물객체들(111, 112, 113, 114)을 프리뷰하는 위치(RP)는, 예를 들어, 실제 공간에서 디스플레이(110)를 포함하는 상기 단말기(260)의 위치에 해당할 수 있다. 상기 제1 각도간격(AG1)이 X도인 경우에, 실제 공간은 상기 프리뷰하는 위치(RP)를 중심으로 360/X개의 공간으로 분할된다. 도 6에 도시된 실시예에서는, 상기 제2 각도간격(AG1)이 5도 간격으로 분할되었다.
상기 제1 패턴 데이터 생성부(210)는 상기 실물객체들(111, 112, 113, 114)의 영상으로부터 상기 실물객체들(111, 112, 113, 114) 사이의 경계(131, 132, 133)를 산출한다. 도 2를 참조하여 설명한 바와 같이, 본 발명의 일 실시예에서, 상기 실물객체들(111, 112, 113, 114) 사이의 경계(131, 132, 133)는 상기 실물객체들의 영상에 영상 에지검출(edge detection) 방법을 적용하여 산출될 수 있다. 상기 영상 에지검출 방법에 대해서는 도 2를 참조하여 이미 설명하였으며, 영상의 에지검출 방법의 구체적인 내용이나 알고리즘은 디지털 영상처리와 관련된 교과서를 비롯한 여러 논문이나 문헌에 공개되어 있고, 본 발명의 핵심적인 특징이 아니므로 더 상세한 설명은 생략한다.
상기 제1 패턴 데이터 생성부(210)는 상기 제1 각도간격(AG1)으로 분할된 제1 각도구간(AP1)의 각각의 각도(예컨대, 도 6의 A1, ..., A9) 및 상기 산출된 실물객체들(111, 112, 113, 114) 사이의 경계(131, 132, 133)의 위치를 이용하여, 제1 지표들(161)을 생성한다. 상기 제1 지표들(161)은 상기 제1 각도간격(AG1)으로 분할된 제1 각도구간(AP1)의 각각의 각도(A1, ..., A9)에 대응하고, 상기 산출된 실물객체들(111, 112, 113, 114) 사이의 경계(131, 132, 133)마다 달라진다. 예를 들어, 상기 제1 각도간격(AG1)으로 분할된 제1 각도구간(AP1)의 각각의 각도(A1, ..., A9)에 대응하고, 상기 산출된 실물객체들(111, 112, 113, 114) 사이의 경계(131, 132, 133)마다 달라지는 제1 지표들(161)은 "AABBBBBCD"의 배열패턴을 가질 수 있다. 이하, 상기 제1 지표들(161)의 집합으로 이루어진 패턴 데이터를 제1 패턴 데이터("AABBBBBCD")로 정의한다. 즉, 상기 제1 패턴 데이터 생성부(210)은 상기 제1 패턴 데이터("AABBBBBCD")를 생성한다.
도 5 및 도 7을 참조하면, 상기 지도 데이터 저장부(220)는 제2 지표(162) 및 외곽선 데이터를 속성값으로 갖는 가상객체들 포함하는 지도 데이터를 저장한다.
상기 지도 데이터는 가상건물, 가상동상, 가상조형물, 가상자연물 등과 같은 위치가 고정된 가상객체들을 포함하며, 각각의 가상객체는 지표, 위치값 및 외곽선 데이터와 같은 속성값을 갖는다. 상기 가상객체의 속성값은 상기 가상객체와 관련되는 정보를 더 포함할 수 있다. 예를 들어, 상기 가상객체의 속성값은 상기 가상객체의 명칭, 설립연도, 역사, 높이, 주소, 관련 웹페이지 주소, 위치값, 모양, 용도, 나무의 나이, 종류 등의 다양한 정보를 포함할 수 있다.
상기 가상객체의 "지표"(즉, 제2 지표)는 다른 가상객체와 구분되는 각각의 가상객체 고유의 속성을 의미한다. 예를 들어, 가상객체가 건물인 경우, 건물의 명칭이나 주소가 상기 제2 지표가 될 수 있다. 이와 달리, 상기 가상건물마다 임의의 코드를 설정하고, 상기 임의의 코드가 제2 지표로 사용될 수도 있다.
본 실시예에서, 상기 가상객체들은 제1 가상객체(151) 내지 제4 가상객체(154)를 포함한다. 물론, 상기 지도 데이터는 더 많은 가상객체들을 포함하고 있으나, 상기 제1 가상객체(151) 내지 제4 가상객체(154)에 대해서만 참조번호를 표시하였음을 이해할 수 있을 것이다. 상기 가상객체들은 각각 대응하는 지표(즉, 제2 지표)를 포함한다. 예를 들어, 상기 제1 가상객체(151)의 제2 지표(162)는 "a"이고, 상기 제2 가상객체(152)의 제2 지표(162)는 "b"인 것으로 가정한다. 또한, 상기 제3 가상객체(153)의 제2 지표(162)는 "c"이고, 상기 제4 가상객체(154)의 제2 지표(162)는 "d"인 것으로 가정한다.
만약, 분석 대상 지역에 해당하는 상기 원형 지도 데이터의 반경 내에 상기 지도각도에 대응하는 방사 직선과 가장 먼저 만나는 외곽선을 갖는 가상객체가 없다면, 가상객체가 추출되지 않을 것이다. 이 경우에는 상기 지도각도에 대응하는 가상객체가 없으므로, 상기 지도각도에 대응하는 제2 지표(162)는, 예컨대, "x"로 산출된다. 도 3에서 방사 직선과 가장 먼저 만나는 외곽선을 갖는 가상객체가 없는 지도각도에 대해서는 제2 지표(162)가 "x"로 표시되어 있다. 한편, 위에서 언급한 바와 같이, 상기 원형 지도의 반경은 객체 인식시스템에 의해서 객체의 인식이 요구되는 거리에 해당하며, 필요에 따라 이러한 반경을 더 길게 설정하는 경우에는 모든 각도에 가상객체가 존재할 수 있다. 이 경우에는 제2 지표(162)가 "x"로 산출되지 않음을 이해할 수 있을 것이다.
상기 지도 데이터의 가상객체들은 외곽선 데이터를 속성값으로 갖는다. 상기 외곽선 데이터란, 가상객체의 단순한 위치값이 아니라, 가상객체의 외곽 모양을 지도 상에 표현하기 위한 데이터를 말한다. 상기 외곽선 데이터는 가상객체의 2차원적인 모양과 관련된 데이터일 수도 있고, 3차원적인 모양과 관련된 데이터일 수도 있다.
예를 들어, 상기 외곽선 데이터가 가상객체의 평면적 모양을 나타내기 위한 데이터인 경우, 상기 외곽선 데이터는 상기 가상객체의 모서리들의 위치값들을 포함할 수 있다. 이 경우, 상기 가상객체의 모서리들의 위치값들을 이용하여 상기 지도 데이터 상에 상기 각 가상객체의 이웃하는 모서리의 위치를 연결하는 직선을 도시하여, 상기 지도 데이터 상에 각 가상객체의 외곽선을 도시할 수 있다.
이와 달리, 상기 외곽선 데이터는 상기 가상객체의 위치값 및 상기 가상객체의 모서리들과 상기 가상객체의 위치값 사이의 상대적인 위치값들을 포함할 수 있다. 예를 들어, 상기 외곽선 데이터는 상기 모서리들의 절대적 위치값 대신 상기 모서리의 위치와 상기 가상객체의 위치 사이의 거리 및 방향과 같은 모서리의 상대적인 위치값을 포함할 수 있다. 이 경우, 상기 가상객체의 각 모서리들의 위치는 상기 가상객체의 위치값 및 상기 모서리들의 상대적인 위치값들에 의해 계산될 수 있다. 이 경우에도, 상기 계산된 가상객체의 모서리들의 위치값들을 이용하여, 상기 지도 데이터 상에 각 가상객체의 이웃하는 모서리의 위치를 연결하는 직선을 도시하면, 상기 지도 데이터 상에 각 가상객체의 외곽선을 도시할 수 있다.
상기 제2 패턴 데이터 생성부(230)는 상기 지도 데이터를 상기 실물객체들을 프리뷰하는 위치를 중심으로 일정한 제2 각도간격으로 분할하고, 상기 제2 각도간격으로 분할된 지도 데이터의 각각의 지도각도에 대응하는 방사 직선과 가장 먼저 만나는 외곽선을 갖는 가상객체를 상기 지도 데이터로부터 추출하여, 상기 각각의 지도각도에 대응하는 제2 지표들의 집합으로 이루어진 제2 패턴 데이터를 생성한다.
일 실시예에서, 상기 제2 패턴 데이터 생성부(230)는 상기 지도 데이터를 상기 프리뷰하는 위치(RP)를 중심으로 일정한 제2 각도간격(AG2)으로 분할한다. 상기 제2 각도간격(AG2)이 X도인 경우에, 상기 지도 데이터의 가상공간은 상기 프리뷰하는 위치(RP)를 중심으로 360/X개의 공간으로 분할된다. 도 7에서는, 상기 제2 각도간격(AG2)이 5도인 것으로 가정한다. 이 경우에, 상기 지도 데이터의 가상공간은 상기 프리뷰하는 위치(RP)를 중심으로 72등분(즉, 360/5=72)된다. 예를 들어, 지도 데이터 상에서 정북 방향을 기준으로 상기 지도 데이터를 상기 제2 각도간격(AG2)으로 72등분한 각각의 각도를 제1 지도각도 내지 제72 지도각도(MA1, ..., MA72)라고 정의한다.
상기 프리뷰하는 위치(RP)를 중심으로 상기 제2 각도간격(AG2)으로 분할된 상기 지도 데이터의 각각의 지도각도(MA1, ..., MA72)에 대응하는 가상의 방사 직선들(도 7에 점선으로 표시)을 상정한다. 이 경우, 상기 제2 패턴 데이터 생성부(230)는 상기 지도 데이터로부터 상기 각각의 지도각도(MA1, ..., MA72)에 대응하는 방사 직선과 가장 먼저 만나는 외곽선을 갖는 가상객체를 추출한다. 위에서 언급한 바와 같이, 상기 각각의 지도각도(MA1, ..., MA72)에 대응하여 추출된 가상객체들은 각각 대응하는 제2 지표들(162)을 속성값으로 포함하고 있으므로, 상기 추출된 가상객체들로부터 상기 각각의 지도각도(MA1, ..., MA72)에 대응하는 제2 지표들(162)의 집합을 산출할 수 있다.
예를 들어, 제1 지도각도(MA1) 및 제72 지도각도(MA72)에 대응하여 추출된 가상객체는 없으므로, 상기 제1 지도각도(MA1) 및 제72 지도각도(MA72)에 대응하는 제2 지표(162)는 "x"로 산출된다.
상기 제3 지도각도(MA3)에 대응하여 추출된 가상객체는 제1 가상객체(151)이고, 상기 제1 가상객체(151)는 "a"라는 제2 지표(162)를 포함한다. 따라서, 상기 제3 지도각도(MA3)에 대응하는 제2 지표(162)는 "a"로 산출된다. 제5 지도각도(MA5)에 대응하여 추출된 가상객체는 제2 가상객체(152)이고, 상기 제2 가상객체(152)는 "b"라는 제2 지표(162)를 포함한다. 따라서, 상기 제5 지도각도(MA5)에 대응하는 제2 지표(162)는 "b"로 산출된다.
제10 지도각도(MA10)에 대응하여 추출된 가상객체는 제3 가상객체(153)이고, 상기 제3 가상객체(153)는 "c"라는 제2 지표(162)를 포함한다. 따라서, 상기 제10 지도각도(MA10)에 대응하는 제2 지표(162)는 "c"로 산출된다. 또한, 제11 지도각도(MA11)에 대응하여 추출된 가상객체는 제4 가상객체(154)이고, 상기 제4 가상객체(154)는 "d"라는 제2 지표(162)를 포함한다. 따라서, 상기 제11 지도각도(MA11)에 대응하는 제2 지표(162)는 "d"로 산출된다.
이와 같이 산출된 제2 지표들(162)의 집합은 "xxaab...xxxxx"의 배열패턴을 가질 수 있다. 이하, 상기 제2 지표들(162)의 집합으로 이루어진 패턴 데이터를 제2 패턴 데이터("xxaab...xxxxx")로 정의한다. 즉, 상기 제2 패턴 데이터 생성부(230)은 상기 제2 패턴 데이터("xxaab...xxxxx")를 생성한다.
상기 제1 각도간격(AG1) 및 제2 각도간격(AG2)이 동일하게 설정될 수도 있고, 다르게 설정될 수도 있다. 예를 들어, 상기 제1 각도간격(AG1)이 제2 각도간격(AG2)의 정수배로 설정되거나, 상기 제2 각도간격(AG2)이 제1 각도간격(AG2)의 정수배로 설정될 수도 있다. 즉, 상기 제1 각도간격은 상기 제2 각도간격의 n 배(n은 정수) 또는 1/n 배(n은 정수)일 수 있다.
상기 객체 인식부(240)는 상기 제1 각도구간에 배열되는 제1 지표들의 제1 배열패턴과 상기 제1 각도구간과 동일한 크기의 제2 각도구간에 배열되는 제2 지표들의 배열패턴을 비교하여, 상기 제1 지표들을 동일한 크기의 각도구간에서 상기 제1 지표들의 반복비율과 동일한 반복비율을 갖는 제2 지표들에 각각 매칭시킨다.
"제1 지표(161)를 제2 지표(162)에 매칭시킨다"는 의미는, 도 2 내지 도 4b를 참조하여 설명한 바와 같이, 지표"A", 지표"B", 지표"C", 지표"D"와 같은 각각의 제1 지표(161)를 지표"a", 지표"b", 지표"c", ..., 지표"r", 지표"s"와 같은 상기 제2 지표들(162) 중 하나와 짝을 짓는다(couple)는 뜻이다.
제1 지표들(161)의 각 지표의 "반복비율"은 각 지표가 반복되는 회수를 기준 각도구간(즉, 제1 각도구간(AP1))내의 지표의 총수로 나눈 값으로 정의한다. 예를 들어, 도 6의 제1 각도구간(AP1)에서 상기 제1 지표들(161)의 집합은 총 9개의 지표들을 포함한다. 제1 각도구간(AP1)의 크기는 40도(5ㅧ 8)이다.
이 경우, 상기 지표"A"는 두 번 반복되므로, 상기 지표"A"의 반복비율은 2/9이고, 지표"B"는 다섯 번 반복되므로, 상기 지표"B"의 반복비율은 5/9이다. 지표"C"는 한 번 반복되므로, 상기 지표"C"의 반복비율은 1/9이고, 지표"D"는 한 번 반복되므로, 상기 지표"D"의 반복비율은 1/9이다. 이와 같이, 상기 지표"A", 지표"B", 지표"C", 지표"D"의 반복비율은 각각 2/9, 5/9, 1/9, 1/9에 해당한다.
상기 제1 지표들(161)의 각각의 지표("A","B","C","D")를 상기 제2 지표들(162)에 각각 매칭시키기 위해, 상기 제2 지표들(162)의 배열패턴("xxaab...xxxxx") 중에서 제2 각도구간(AP2)을 선택한다. 상기 선택 각도구간(즉, 제2 각도구간(AP2))의 크기는 상기 기준 각도구간(즉, 제1 각도구간(AP1))의 크기와 동일하다는 것에 유의할 필요가 있다. 즉, 상기 기준 각도구간(즉, 제1 각도구간(AP1))의 크기가 40도인 경우, 상기 상기 선택 각도구간(즉, 제2 각도구간(AP2))의 크기도 40도이다.
상기 제2 지표들(162)의 배열패턴("aabcc...hhhhh")은 360도를 주기로 반복되기 때문에, 상기 제2 각도구간(AP2)의 시작 지점은 임의로 선택할 수 있다. 상기 시작 지점을 상기 제2 각도간격(AG2)으로 변경하면서, 상기 제1 각도구간(AP1)에 배열되는 제1 지표들(161)의 배열패턴("AABBBBBCD")과 상기 선택된 제2 각도구간(AP2)에 배열되는 제2 지표들(162)의 배열패턴(예컨대, "xxaabbbbb","xaabbbbbc","aabbbbbcd"...)을 서로 비교한다. 이 경우, 상기 시작 지점을 상기 제2 각도간격(AG2)으로 변경하면서, 제1 지표들(161)에 매칭되는 제2 지표들(162)이 추출될 때까지 최대 72(360/5=72)번의 비교가 행해질 수 있다.
제2 지표들(162)의 각 지표의 "반복비율"은 각 지표가 반복되는 회수를 선택 각도구간(즉, 제2 각도구간(AP2))내의 지표의 총수로 나눈 값으로 정의한다. 예를 들어, 도 7에 도시된 바와 같이, 제2 각도구간(AP2)에서 상기 제2 지표들(162)의 집합은 총 9개의 지표들을 포함한다.
상기 제2 각도구간(AP2)의 시작 지점을 제3 지도각도(MA3)라고 선택한 경우, 상기 선택된 제2 각도구간(AP2)에 배열되는 제2 지표들(162)의 배열패턴은 "aabbbbbcd"이다. 이 경우, 지표"a"는 두 번 반복되므로, 상기 지표"a"의 반복비율은 2/9이다. 지표"b"는 다섯 번 반복되므로, 상기 지표"b"의 반복비율은 5/9이다. 지표"c"는 한 번 반복되므로, 상기 지표"c"의 반복비율은 1/9이다. 지표"d"는 한 번 반복되므로, 상기 지표"d"의 반복비율은 1/9이다.
이와 같이, 상기 제2 지표들(162) 중 상기 지표"a", 지표"b", 지표"c", 지표"d"의 반복비율은 각각 2/9, 5/9, 1/9, 1/9에 해당한다.
상기 제1 각도구간(AP1)에 배열된 지표"A", 지표"B", 지표"C", 지표"D"의 반복비율이 각각 2/9, 5/9, 1/9, 1/9이고, 상기 제2 각도구간(AP2)에 배열된 지표"a", 지표"b", 지표"c", 지표"h"의 반복비율도 각각 2/9, 5/9, 1/9, 1/9이다. 따라서, 제1 지표들(161) 중 지표"A"를 제2 지표들(162) 중 지표"a"에 매칭시키고, 제1 지표들(161) 중 지표"B"를 제2 지표들(162) 중 지표"b"에 매칭시킨다. 제1 지표들(161) 중 지표"C"를 제2 지표들(162) 중 지표"c"에 매칭시키고, 제1 지표들(161) 중 지표"D"는 제2 지표들(162) 중 지표"d"에 매칭시킨다.
상기 객체 인식부(240)는 상기 매칭된 제1 지표(161)에 대응하는 각도에 배치된 실물객체와 상기 매칭된 제2 지표(162)를 속성값으로 갖는 가상객체를 서로 매칭시켜서, 상기 프리뷰된 실물객체들과 매칭하는 상기 지도 데이터의 가상객체들을 추출한다.
예를 들어, 상기 매칭된 제1 지표들(161) 중 지표"A"에 대응하는 각도는 도 6에서 제1 각도(A1) 및 제2 각도(A2)이다. 상기 매칭된 제1 지표"A"에 대응하는 각도에 배치된 실물객체는 제1 실물객체(111)이다. 상기 매칭된 제1 지표들(161) 중 지표"A"는 상기 제2 지표들(162) 중 지표 "a"에 매칭하고, 상기 상기 매칭된 제2 지표들(162) 중 지표"a"를 속성값으로 갖는 가상객체는 제1 가상객체(151)이다. 따라서, 상기 매칭된 제1 지표"A"에 대응하는 각도에 배치된 제1 실물객체(111)를 상기 제1 지표"A"에 매칭하는 제2 지표 "a"를 속성값으로 갖는 제1 가상객체(151)에 매칭시킨다.
마찬가지로, 상기 매칭된 제1 지표"B"에 대응하는 각도에 배치된 제2 실물객체(112)를 상기 제1 지표"B"에 매칭하는 제2 지표 "b"를 속성값으로 갖는 제2 가상객체(152)에 매칭시키고, 상기 매칭된 제1 지표"C"에 대응하는 각도에 배치된 제3 실물객체(113)를 상기 제1 지표"C"에 매칭하는 제2 지표 "c"를 속성값으로 갖는 제3 가상객체(153)에 매칭시킨다. 또한, 상기 매칭된 제1 지표"D"에 대응하는 각도에 배치된 제4 실물객체(114)를 상기 제1 지표"D"에 매칭하는 제2 지표 "d"를 속성값으로 갖는 제4 가상객체(154)에 매칭시킨다.
이로부터, 상기 객체 인식부(240)는 상기 매칭된 제1 지표("A")에 대응하는 각도에 배치된 제1 실물객체(111)를 상기 제1 지표에 매칭하는 제2 지표("a")를 속성값으로 갖는 제1 가상객체(151)에 매칭시켜서, 상기 프리뷰된 제1 실물객체(111)와 매칭하는 상기 지도 데이터의 제1 가상객체(151)를 추출한다.
마찬가지로, 상기 객체 인식부(240)는 상기 프리뷰된 제2 실물객체(112)와 매칭하는 상기 지도 데이터의 제2 가상객체(152)를 추출하고, 상기 프리뷰된 제3 실물객체(113)와 매칭하는 상기 지도 데이터의 제3 가상객체(153)를 추출한다. 마찬가지로, 상기 객체 인식부(240)는 상기 프리뷰된 제4 실물객체(114)와 매칭하는 상기 지도 데이터의 제4 가상객체(154)를 추출한다.
결과적으로, 상기 객체 인식부(240)는 상기 매칭된 제1 지표(각각, "A","B","C","D")에 대응하는 각도에 배치된 실물객체(각각, 111, 112, 113, 114)를 상기 제1 지표들에 각각 매칭하는 제2 지표를 속성값으로 갖는 가상객체(각각, 151, 152, 153, 154)에 각각 매칭시켜서, 상기 프리뷰된 실물객체들(111, 112, 113, 114)과 각각 매칭하는 가상객체들(151, 152, 153, 154)을 추출한다.
도 5에 도시된 실시예에서, 상기 객체 인식시스템(200)의 상기 제1 패턴 데이터 생성부(210), 지도 데이터 저장부(220), 상기 제2 패턴 데이터 생성부(230) 및 상기 객체 인식부(240)는 서버 컴퓨터(201)에 제공될 수 있다. 즉, 객체를 인식하기 위한 일련의 정보처리를 상기 서버 컴퓨터(201)가 담당할 수 있다.
상기 서버 컴퓨터(201)는 외부의 모바일 단말기(260)로부터 상기 프리뷰된 실물객체들의 영상 및 상기 모바일 단말기의 위치값을 전송받을 수 있다. 이 경우, 상기 모바일 단말기(260)의 위치값은 상기 실물객체들을 프리뷰하는 위치에 해당할 수 있다. 상기 모바일 단말기(260)의 위치값은 상기 단말기(260)의 위치 측정부(263)에서 생성될 수 있다.
위에서 언급한 바와 같이 상기 단말기(260)의 위치값은 GPS(global positioning system) 위성과 교신할 수 있는 GPS 수신기에 의해 생성될 수 있다. 이와 달리, Wi-Fi(Wireless-Fidelity) 중계기 또는 WLAN AP(Wireless Local Area Network Access Point)와 같이 실내/실외의 기지국 또는 중계기와 상기 단말기(260) 사이의 거리를 측정하여 상기 단말기(260)의 위치값이 생성될 수도 있다.
일 실시예에서, 상기 서버 컴퓨터(201)는 상기 프리뷰된 실물객체와 매칭되는 가상객체의 속성값을 상기 단말기(260)에 전송할 수 있다. 위에서 언급한 바와 같이, 가상객체의 속성값은 위치값, 주소, 모양, 높이, 명칭, 관련 웹페이지 주소, 건물이나 조형물의 설립연도, 역사, 용도, 종류, 나무의 나이 등과 같이 정보 기록매체에 저장될 수 있는 정보를 말한다.
일 실시예에서, 상기 단말기(260)는 상기 서버 컴퓨터(201)로부터 전송된 상기 속성값을 단말기(260)의 디스플레이(110)에 표시할 수 있다. 예를 들어, 도 6에 도시된 바와 같이, 상기 가상객체의 속성값은 "Kiwiple Tower"와 같은 건물의 명칭(180)이다. 즉, 상기 서버 컴퓨터(201)는 상기 프리뷰된 제2 실물객체(112)와 매칭되는 가상객체의 속성값인 상기 건물의 명칭(180)을 상기 단말기(260)에 전송하고, 상기 단말기(260)는 서버 컴퓨터(201)로부터 전송된 상기 건물의 명칭(180)을 디스플레이(110)에 표시할 수 있다.
이와 같은 서버 컴퓨터(201) 및 단말기(260)는 무선 인터넷 시스템에 이용될 수 있다. 예를 들어, 상기 서버 컴퓨터(201)는 객체 인식시스템을 이용하여 상기 프리뷰된 실물객체와 매칭하는 가상객체를 인식하며, 상기 인식된 가상객체가 포함하는 속성값(180)을 외부의 모바일 단말기(260)로 전송하는 무선 인터넷용 서버 컴퓨터로 이용될 수 있다.
도 8은 본 발명의 실시예 3에 따른 객체 인식시스템을 나타내는 블록도이다.
도 8에 도시하는 본 발명의 실시예 3에 따른 객체 인식시스템은 제1 패턴 데이터 생성부가 단말기에 제공되는 것을 제외하면, 도 5를 참조하여 설명한 실시예 2에 따른 객체 인식시스템과 실질적으로 동일하고, 실시예 3에 따른 객체 인식시스템에 이용되는 객체 인식 방법은 도 1 내지 도 4b를 참조하여 설명한 실시예 1에 따른 객체 인식 방법과 실질적으로 동일하므로, 세부적인 구성요소에 대한 반복되는 설명은 생략하고, 동일하거나 유사한 구성요소에는 도 1 내지 도 4b 및 도 5에서 사용된 참조 번호와 동일한 참조 번호를 사용할 것이다.
도 8을 참조하면, 본 발명의 실시예 3에 따른 객체 인식시스템(300)은 제1 패턴 데이터 생성부(310), 지도 데이터 저장부(220), 제2 패턴 데이터 생성부(230) 및 객체 인식부(240)를 포함한다. 특히, 상기 실시예 3에 따른 객체 인식시스템(300)에서는, 상기 제1 패턴 데이터 생성부(310)가 모바일 단말기(360)에 제공되고, 상기 제2 패턴 데이터 생성부(230) 및 상기 객체 인식부(240)는 서버 컴퓨터(301)에 제공된다. 즉, 상기 모바일 단말기(360)가 상기 제1 패턴 데이터 생성부(310)를 포함한다.
상기 단말기(360)는 영상을 표시하는 디스플레이(110), 실물객체의 영상을 인식하는 영상 인식부(261), 상기 단말기(360)의 위치값을 생성하는 위치 측정부(263) 및 상기 객체 인식부(240)와 데이터 통신을 하기 위한 데이터 통신부(269)를 더 포함할 수 있다.
상기 단말기(360)의 제1 패턴 데이터 생성부(310)는 프리뷰된 실물객체들의 영상에 대응하는 제1 각도구간을 상기 실물객체들을 프리뷰하는 위치를 중심으로 일정한 제1 각도간격으로 분할하고, 상기 실물객체들의 영상으로부터 상기 실물객체들 사이의 경계를 산출하여, 상기 제1 각도간격으로 분할된 제1 각도구간의 각각의 각도에 대응하고 상기 산출된 실물객체들 사이의 경계마다 달라지는 제1 지표들의 집합으로 이루어진 제1 패턴 데이터를 생성한다.
상기 제1 패턴 데이터 생성부(310)는 서버 컴퓨터(301)가 아닌 상기 단말기(360)에 제공되는 것을 제외하면, 도 5를 참조하여 설명한 제1 패턴 데이터 생성부(210)와 실질적으로 동일하고, 상기 제1 지표들의 집합을 생성하는 방법은 도 2를 참조하여 이미 상세하게 설명하였으므로, 반복되는 설명을 생략한다.
본 발명의 실시예 3에 따르면, 상기 단말기(360)의 영상 인식부(261)에 의해 인식된 영상이 상기 서버 컴퓨터(301)에 제공되어 상기 서버 컴퓨터(301)가 상기 제1 지표들의 집합으로 이루어진 제1 패턴 데이터를 생성하는 것이 아니라, 상기 단말기(360)의 제1 패턴 데이터 생성부(310)가 상기 제1 패턴 데이터를 생성한다.
상기 단말기(360)의 제1 패턴 데이터 생성부(310)에서 생성된 상기 제1 패턴 데이터는 데이터 통신부(269)를 통하여 상기 서버 컴퓨터(301)로 전송될 수 있다.
상기 서버 컴퓨터(301)는 지도 데이터 저장부(220), 제2 패턴 데이터 생성부(230) 및 객체 인식부(240)를 포함한다.
상기 서버 컴퓨터(301)는 상기 모바일 단말기(360)로부터 상기 모바일 단말기(360)의 위치값 및 상기 모바일 단말기의 제1 패턴 데이터 생성부(310)에서 생성된 상기 제1 패턴 데이터를 전송받는다. 상기 모바일 단말기(360)의 위치값은 상기 실물객체들을 프리뷰하는 위치에 해당할 수 있다. 상기 모바일 단말기(360)의 위치값은 상기 단말기(360)의 위치 측정부(263)에서 생성될 수 있다.
위에서 언급한 바와 같이 상기 단말기(360)의 위치값은 GPS(global positioning system) 위성과 교신할 수 있는 GPS 수신기에 의해 생성될 수 있다. 이와 달리, Wi-Fi(Wireless-Fidelity) 중계기 또는 WLAN AP(Wireless Local Area Network Access Point)와 같이 실내/실외의 기지국 또는 중계기와 상기 단말기(360) 사이의 거리를 측정하여 상기 단말기(360)의 위치값이 생성될 수도 있다.
상기 지도 데이터 저장부(220)는 제2 지표(162) 및 외곽선 데이터를 속성값으로 갖는 가상객체들 포함하는 지도 데이터를 저장한다. 상기 지도 데이터 저장부(220)는 도 5를 참조하여 설명한 지도 데이터 저장부(220)와 실질적으로 동일하므로, 반복되는 설명을 생략한다.
상기 제2 패턴 데이터 생성부(230)는 상기 지도 데이터를 상기 실물객체들을 프리뷰하는 위치를 중심으로 일정한 제2 각도간격으로 분할하고, 상기 제2 각도간격으로 분할된 지도 데이터의 각각의 지도각도에 대응하는 방사 직선과 가장 먼저 만나는 외곽선을 갖는 가상객체를 상기 지도 데이터로부터 추출하여, 상기 각각의 지도각도에 대응하는 제2 지표들의 집합으로 이루어진 제2 패턴 데이터를 생성한다. 상기 제2 패턴 데이터 생성부(230)는 도 5를 참조하여 설명한 제2 패턴 데이터 생성부(230)와 실질적으로 동일하고, 상기 제2 지표들의 집합을 생성하는 방법은 도 3을 참조하여 이미 상세하게 설명하였으므로, 반복되는 설명을 생략한다.
상기 객체 인식부(240)는 상기 단말기(360)로부터 전송받은 제1 패턴 데이터의 제1 지표들 및 상기 제2 패턴 데이터 생성부(230)에서 생성된 제2 패턴 데이터의 제2 지표들을 이용하여, 상기 프리뷰된 실물객체들과 각각 매칭하는 가상객체들을 추출한다. 상기 객체 인식부(240)는 도 5를 참조하여 설명한 객체 인식부(240)와 실질적으로 동일하고, 상기 제1 지표들을 동일한 크기의 각도구간에서 상기 제1 지표들의 반복비율과 동일한 반복비율을 갖는 제2 지표들에 각각 매칭시키는 방법, 상기 매칭된 제1 지표에 대응하는 각도에 배치된 실물객체를 상기 제1 지표에 매칭하는 제2 지표를 속성값으로 갖는 가상객체에 각각 매칭시키는 방법은 도 2, 도 3 및 도 4b를 참조하여 이미 상세하게 설명하였으므로, 반복되는 설명을 생략한다.
이와 같이, 본 발명의 실시예 3에 따르면, 상기 서버 컴퓨터(301)는 상기 모바일 단말기(360)로부터 상기 모바일 단말기(360)의 위치값 및 상기 모바일 단말기의 제1 패턴 데이터 생성부(310)에서 생성된 상기 제1 패턴 데이터를 전송받아서, 프리뷰된 실물객체들과 각각 매칭하는 가상객체들을 추출한다. 따라서, 상기 서버 컴퓨터(301)는 상기 단말기(360)로부터 영상 데이터를 전송받을 필요가 없다.
일반적으로, 영상 데이터는 수십 내지 수백 킬로바이트(kB)의 상대적으로 큰 용량을 갖기 때문에, 상기 단말기(360)가 매번 영상 데이터를 상기 서버 컴퓨터(301)로 전송하는 것은 데이터 전송 효율을 저하시킨다. 그러나, 상기 제1 패턴 데이터는 단지 수십 바이트(B) 내지 수 킬로바이트(kB)의 상대적으로 작은 용량을 갖는다.
본 발명의 실시예 3에 따를 경우, 상기 서버 컴퓨터(301)는 상기 단말기(360)로부터 영상 데이터 대신 용량이 상대적으로 작은 제1 패턴 데이터를 전송받으므로, 상기 서버 컴퓨터(301) 및 상기 단말기(360) 사이의 데이터 전송의 효율을 높일 수 있다.
이와 같은 서버 컴퓨터(301) 및 단말기(360)는 무선 인터넷 시스템에 이용될 수 있다. 예를 들어, 상기 서버 컴퓨터(301)는 객체 인식시스템을 이용하여 상기 프리뷰된 실물객체와 매칭하는 가상객체를 인식하며, 상기 인식된 가상객체가 포함하는 속성값을 외부의 모바일 단말기(360)로 전송하는 서버 컴퓨터로 이용될 수 있다.
도 9는 본 발명의 실시예 4에 따른 객체 인식시스템을 나타내는 블록도이다.
도 9에 도시하는 본 발명의 실시예 4에 따른 객체 인식시스템은 제1 패턴 데이터 생성부, 지도 데이터 저장부, 제2 패턴 데이터 생성부 및 객체 인식부가 모두 단말기에 제공되는 것을 제외하면, 도 5를 참조하여 설명한 실시예 2에 따른 객체 인식시스템 및 도 6를 참조하여 설명한 실시예 3에 따른 객체 인식시스템 과 실질적으로 동일하고, 실시예 4에 따른 객체 인식시스템에 이용되는 객체 인식 방법은 도 1 내지 도 4b를 참조하여 설명한 실시예 1에 따른 객체 인식 방법과 실질적으로 동일하므로, 세부적인 구성요소에 대한 반복되는 설명은 생략하고, 동일하거나 유사한 구성요소에는 도 1 내지 도 4b 및 도 5에서 사용된 참조 번호와 동일한 참조 번호를 사용할 것이다.
도 9를 참조하면, 본 발명의 실시예 3에 따른 객체 인식시스템(400)은 제1 패턴 데이터 생성부(410), 지도 데이터 저장부(420), 제2 패턴 데이터 생성부(430) 및 객체 인식부(440)를 포함한다. 특히, 상기 실시예 4에 따른 객체 인식시스템(400)에서는, 상기 제1 패턴 데이터 생성부(410), 상기 지도 데이터 저장부(420), 상기 제2 패턴 데이터 생성부(430) 및 상기 객체 인식부(440)가 모바일 단말기(460)에 제공된다.
상기 제1 패턴 데이터 생성부(410)는 프리뷰된 실물객체들의 영상에 대응하는 제1 각도구간을 상기 실물객체들을 프리뷰하는 위치를 중심으로 일정한 제1 각도간격으로 분할하고, 상기 실물객체들의 영상으로부터 상기 실물객체들 사이의 경계를 산출하여, 상기 제1 각도간격으로 분할된 제1 각도구간의 각각의 각도에 대응하고 상기 산출된 실물객체들 사이의 경계마다 달라지는 제1 지표들의 집합으로 이루어진 제1 패턴 데이터를 생성한다.
상기 제1 패턴 데이터 생성부(410)는 상기 단말기(460)에 제공되는 것을 제외하면, 도 5를 참조하여 설명한 제1 패턴 데이터 생성부(210)와 실질적으로 동일하고, 상기 제1 지표들의 집합을 생성하는 방법은 도 2를 참조하여 이미 상세하게 설명하였으므로, 반복되는 설명을 생략한다.
상기 지도 데이터 저장부(420)는 제2 지표(162) 및 외곽선 데이터를 속성값으로 갖는 가상객체들 포함하는 지도 데이터를 저장한다. 상기 지도 데이터 저장부(420)는 상기 단말기(460)에 제공되는 것을 제외하면, 도 5를 참조하여 설명한 지도 데이터 저장부(220)와 실질적으로 동일하므로, 반복되는 설명을 생략한다.
상기 제2 패턴 데이터 생성부(430)는 상기 지도 데이터를 상기 실물객체들을 프리뷰하는 위치를 중심으로 일정한 제2 각도간격으로 분할하고, 상기 제2 각도간격으로 분할된 지도 데이터의 각각의 지도각도에 대응하는 방사 직선과 가장 먼저 만나는 외곽선을 갖는 가상객체를 상기 지도 데이터로부터 추출하여, 상기 각각의 지도각도에 대응하는 제2 지표들의 집합으로 이루어진 제2 패턴 데이터를 생성한다. 상기 제2 패턴 데이터 생성부(430)는 상기 단말기(460)에 제공되는 것을 제외하면, 도 5를 참조하여 설명한 제2 패턴 데이터 생성부(230)와 실질적으로 동일하고, 상기 제2 지표들의 집합을 생성하는 방법은 도 3을 참조하여 이미 상세하게 설명하였으므로, 반복되는 설명을 생략한다.
상기 객체 인식부(440)는 상기 제1 패턴 데이터의 제1 지표들 및 상기 제2 패턴 데이터의 제2 지표들을 이용하여, 상기 프리뷰된 실물객체들과 각각 매칭하는 가상객체들을 추출한다. 상기 객체 인식부(440)는 상기 단말기(460)에 제공되는 것을 제외하면, 도 5를 참조하여 설명한 객체 인식부(240)와 실질적으로 동일하고, 상기 제1 지표들을 동일한 크기의 각도구간에서 상기 제1 지표들의 반복비율과 동일한 반복비율을 갖는 제2 지표들에 각각 매칭시키는 방법, 상기 매칭된 제1 지표에 대응하는 각도에 배치된 실물객체를 상기 제1 지표에 매칭하는 제2 지표를 속성값으로 갖는 가상객체에 각각 매칭시키는 방법은 도 2, 도 3 및 도 4b를 참조하여 이미 상세하게 설명하였으므로, 반복되는 설명을 생략한다.
상기 단말기(460)는 영상을 표시하는 디스플레이(110), 실물객체의 영상을 인식하는 영상 인식부(261) 및 상기 단말기(460)의 위치값을 생성하는 위치 측정부(263)를 더 포함할 수 있다.
상기 영상 인식부(261)는, 예컨대, 실물영상을 디지털 영상 데이터로 전환하는 카메라를 포함할 수 있다. 상기 영상 인식부(261)에 의해 인식된 영상은 상기 디스플레이(110)에 실시간으로 표시될 수 있다.
상기 위치 측정부(263)는 단말기(260)의 현재 위치값을 생성한다. 예를 들어, 상기 위치측정부(263)는 GPS(global positioning system) 위성과 교신할 수 있는 GPS 수신기를 포함할 수 있다. 즉, 단말기(260)의 위치 측정부(263)는 GPS 수신기를 이용하여 단말기(260)의 위치값을 생성할 수 있다. 이와 달리, 상기 위치 측정부(263)는, Wi-Fi(Wireless-Fidelity) 중계기 또는 WLAN AP(Wireless Local Area Network Access Point)와 같이 실내/실외의 기지국 또는 중계기와 상기 단말기(260) 사이의 거리를 측정하여 상기 단말기(260)의 위치값을 생성할 수도 있다.
상기 단말기(460)는 상기 프리뷰된 실물객체와 매칭되는 가상객체의 속성값을 상기 단말기(460)의 디스플레이(110)에 표시할 수 있다. 위에서 언급한 바와 같이, 가상객체의 속성값은 위치값, 주소, 모양, 높이, 명칭, 관련 웹페이지 주소, 건물이나 조형물의 설립연도, 역사, 용도, 종류, 나무의 나이 등과 같이 정보 기록매체에 저장될 수 있는 정보를 말한다.
본 발명에 따른 객체 인식시스템을 이용하거나 포함하는 단말기(460)의 예로는 휴대 전화, 스마트폰, PDA(personal digital assistants), 디지털 비디오 카메라 등과 같은 휴대용 디지털 장치를 들 수 있다.
본 발명의 일 실시예에 따르면, 상기 제2 실물객체(112)를 프리뷰하는 방향을 인식할 수 있다. 예를 들어, 도 6에서 디스플레이(110) 상에서 중앙에 배치된 상기 제2 실물객체(112)에 대응하는 제5 각도(A5)는 상기 제2 실물객체(112)를 프리뷰하는 방향에 해당한다. 그런데, 상기 제5 각도(A5)에 대응하는 지표 "B"는 지도 데이터 상에서 지표 "b"와 매칭하므로, 상기 제5 각도(A5)는 상기 지도 데이터 상에서 제7 지도각도(MA7)에 대응함을 알 수 있다. 도 7에서 제7 지도각도(MA7)는 정북 방향으로부터 시계 방향으로 35도(5ㅧ 7=35) 만큼 회전한 방향이므로, 상기 제2 실물객체(112)를 프리뷰하는 방향은 정북 방향으로부터 시계 방향으로 35도만큼 회전한 방향임을 알 수 있다. 이와 같이, 본 발명에 따른 객체 인식시스템은 방향 센서나 나침반이 없어도, 실물객체를 프리뷰하는 방향을 인식할 수 있는 장점이 있다.
본 발명의 실시예 2 내지 실시예 4의 객체 인식시스템은 상기 프리뷰된 실물객체와 매칭하는 가상객체의 방위값을 상기 실물객체를 프리뷰하는 방향의 방위값으로 출력하는 디지털 나침반으로 이용될 수 있다. 상기 실물객체를 프리뷰하는 방향의 방위값은 단말기의 디스플레이(110)에 출력될 수 있다. 예를 들어, 본 발명의 실시예 2 내지 실시예 4에서, 각각의 단말기(260, 360, 460)는 상기 프리뷰된 실물객체와 매칭하는 가상객체의 방위값을 상기 실물객체를 프리뷰하는 방향의 방위값으로 출력하는 디지털 나침반일 수 있다.
본 발명에 따른 객체 인식시스템을 이용하면, 방향 센서 또는 거리 센서를 구비하지 않은 단말기에서도 실물객체를 인식할 수 있다. 또한, 서버가 대용량의 영상 데이터를 미리 확보하고 있지 않아도 실물객체를 인식할 수 있다. 게다가, 본 발명은 별도의 방향 센서 없이 실물객체를 프리뷰하는 방향을 인식할 수 있기 때문에, 방향 센서 또는 디지털 나침반의 역할을 할 수 있다. 또한, 본 발명에 따른 객체 인식시스템은 방향 센서가 있는 단말기에도 적용될 수 있으며, 이 경우에는 더 정확한 객체 인식을 위해, 본 발명에 따른 객체 인식시스템이 상기 방향 센서의 기능을 보완하는 역할을 수행할 수 있다. 따라서, 실물객체를 보다 정확하게 인식할 수 있고, 객체 인식 시스템이나 증강 현실 서비스의 품질을 높일 수 있다.
본 발명은 실시간으로 가상 세계의 가상객체와 실제 세계의 실물객체를 용이하게 연관시켜주는 객체 인식시스템, 무선 인터넷 시스템, 증강현실 시스템 및 상기 시스템들에 사용되는 응용 소프트웨어 등에 이용될 수 있다. 또한, 본 발명은 방향 센서를 대체하거나, 방향 센서의 기능을 보완할 수 있다. 또한, 본 발명은 디지털 나침반으로 이용될 수도 있다.
본 발명에 따르면, 실물객체를 보다 정확하게 인식할 수 있기 때문에, 객체 인식 시스템이나 증강 현실 서비스의 품질을 높일 수 있다. 게다가, 본 발명에 따른 객체 인식시스템은 별도의 방향 센서 없이 실물객체를 프리뷰하는 방향을 인식할 수 있기 때문에, 방향 센서를 포함하지 않는 단말기에도 적용할 수 있는 장점이 있다.
이상에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술될 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
111, 112, 113, 114 : 실물객체 151, 152, 153, 154 : 가상객체
161 : 제1 지표 162 : 제2 지표
200 : 객체 인식시스템 210 : 제1 패턴 데이터 생성부
220 : 지도 데이터 저장부 230 : 제2 패턴 데이터 생성부
240 : 객체 인식부 260, 360, 460 : 단말기

Claims (19)

  1. 프리뷰(preview)된 실물객체들의 영상에 대응하는 제1 각도구간을 상기 실물객체들을 프리뷰하는 위치를 중심으로 일정한 제1 각도간격으로 분할하고, 상기 실물객체들의 영상으로부터 상기 실물객체들 사이의 경계를 산출하여, 상기 제1 각도간격으로 분할된 제1 각도구간의 각각의 각도에 대응하고 상기 산출된 실물객체들 사이의 경계마다 달라지는 제1 지표들의 집합으로 이루어진 제1 패턴 데이터를 생성하는 제1 패턴 데이터 생성부;
    제2 지표 및 외곽선 데이터를 속성값으로 갖는 가상객체들 포함하는 지도 데이터를 저장하는 지도 데이터 저장부;
    상기 지도 데이터를 상기 실물객체들을 프리뷰하는 위치를 중심으로 일정한 제2 각도간격으로 분할하고, 상기 제2 각도간격으로 분할된 지도 데이터의 각각의 지도각도에 대응하는 방사 직선과 가장 먼저 만나는 외곽선을 갖는 가상객체를 상기 지도 데이터로부터 추출하여, 상기 각각의 지도각도에 대응하는 제2 지표들의 집합으로 이루어진 제2 패턴 데이터를 생성하는 제2 패턴 데이터 생성부; 및
    상기 제1 각도구간에 배열되는 제1 지표들의 제1 배열패턴과 상기 제1 각도구간과 동일한 크기의 제2 각도구간에 배열되는 제2 지표들의 배열패턴을 비교하여, 상기 제1 지표들을 동일한 크기의 각도구간에서 상기 제1 지표들의 반복비율과 동일한 반복비율을 갖는 제2 지표들에 각각 매칭(matching)시키고, 상기 매칭된 제1 지표에 대응하는 각도에 배치된 실물객체를 상기 제1 지표에 매칭하는 제2 지표를 속성값으로 갖는 가상객체에 각각 매칭시켜서, 상기 프리뷰된 실물객체들과 각각 매칭하는 가상객체들을 추출하는 객체 인식부를 포함하는 객체 인식시스템.
  2. 제1항에 있어서, 상기 프리뷰된 실물객체들의 경계는 상기 실물객체들의 영상에 영상 에지검출(edge detection) 방법을 적용하여 산출되는 것을 특징으로 하는 객체 인식시스템.
  3. 제1항에 있어서, 상기 지도 데이터의 외곽선 데이터는 상기 각 가상객체의 모서리들의 위치값들을 포함하고, 상기 지도 데이터 상에서 상기 각 가상객체의 외곽선은 상기 각 가상객체의 이웃하는 모서리의 위치값을 연결하는 직선인 것을 특징으로 하는 객체 인식시스템.
  4. 제1항에 있어서, 상기 가상객체의 외곽선 데이터는 상기 가상객체의 위치값 및 상기 가상객체의 모서리들과 상기 가상객체의 위치값 사이의 상대적인 위치값들을 포함하고, 상기 가상객체의 각 모서리들의 위치는 상기 가상객체의 위치값 및 상기 가상객체의 모서리들과 상기 가상객체의 위치값 사이의 상대적인 위치값들에 의해 계산되며,
    상기 지도 데이터 상에서 상기 각 가상객체의 외곽선은 상기 각 가상객체의 이웃하는 모서리의 위치를 연결하는 직선인 것을 특징으로 하는 객체 인식시스템.
  5. 제1항에 있어서, 상기 제1 각도간격은 상기 제2 각도간격의 n 배 또는 1/n 배이고, n은 정수인 것을 특징으로 하는 객체 인식 방법.
  6. 제1항에 있어서, 상기 제1 패턴 데이터 생성부, 상기 지도 데이터 저장부, 상기 제2 패턴 데이터 생성부 및 상기 객체 인식부는 서버 컴퓨터에 제공되는 것을 특징으로 하는 객체 인식시스템.
  7. 제6항에 있어서, 상기 서버 컴퓨터는 외부의 모바일 단말기로부터 상기 프리뷰된 실물객체들의 영상 및 상기 모바일 단말기의 위치값을 전송받고,
    상기 모바일 단말기의 위치값은 상기 실물객체들을 프리뷰하는 위치에 해당하는 것을 특징으로 하는 객체 인식시스템.
  8. 제6항에 있어서, 상기 서버 컴퓨터는 외부의 모바일 단말기에 상기 프리뷰된 실물객체와 매칭되는 가상객체의 속성값을 전송하는 것을 특징으로 하는 객체 인식시스템.
  9. 제1항에 있어서, 상기 제1 패턴 데이터 생성부는 모바일 단말기에 제공되고, 상기 제2 패턴 데이터 생성부 및 상기 객체 인식부는 서버 컴퓨터에 제공되며,
    상기 서버 컴퓨터는 상기 모바일 단말기로부터 상기 모바일 단말기의 위치값 및 상기 모바일 단말기의 제1 패턴 데이터 생성부에서 생성된 상기 제1 패턴 데이터를 전송받는 것을 특징으로 하는 객체 인식시스템.
  10. 제1항에 있어서, 상기 객체 인식시스템은 상기 제1 패턴 데이터 생성부, 상기 지도 데이터 저장부, 상기 제2 패턴 데이터 생성부 및 상기 객체 인식부를 모두 포함하는 모바일 단말기인 것을 특징으로 하는 객체 인식시스템.
  11. 프리뷰(preview)된 실물객체들의 영상에 대응하는 제1 각도구간을 상기 실물객체들을 프리뷰하는 위치를 중심으로 일정한 제1 각도간격으로 분할하고, 상기 실물객체들의 영상으로부터 상기 실물객체들 사이의 경계를 산출하여, 상기 제1 각도간격으로 분할된 제1 각도구간의 각각의 각도에 대응하고 상기 산출된 실물객체들 사이의 경계마다 달라지는 제1 지표들의 집합을 산출하는 단계;
    제2 지표 및 외곽선 데이터를 속성값으로 갖는 가상객체들을 포함하는 지도 데이터를 상기 실물객체들을 프리뷰하는 위치를 중심으로 일정한 제2 각도간격으로 분할하고, 상기 제2 각도간격으로 분할된 지도 데이터의 각각의 지도각도에 대응하는 방사 직선과 가장 먼저 만나는 외곽선을 갖는 가상객체를 상기 지도 데이터로부터 추출하여, 상기 각각의 지도각도에 대응하는 제2 지표들의 집합을 산출하는 단계; 및
    상기 제1 각도구간에 배열되는 제1 지표들의 제1 배열패턴과 상기 제1 각도구간과 동일한 크기의 제2 각도구간에 배열되는 제2 지표들의 배열패턴을 비교하여, 상기 제1 지표들을 동일한 크기의 각도구간에서 상기 제1 지표들의 반복비율과 동일한 반복비율을 갖는 제2 지표들에 각각 매칭(matching)시키고, 상기 매칭된 제1 지표에 대응하는 각도에 배치된 실물객체를 상기 제1 지표에 매칭하는 제2 지표를 속성값으로 갖는 가상객체에 각각 매칭시키는 단계를 포함하는 객체 인식 방법.
  12. 제11항에 있어서, 상기 프리뷰된 실물객체와 매칭되는 가상객체의 속성값을 상기 프리뷰 영상에 출력하는 단계를 더 포함하는 객체 인식 방법.
  13. 제11항에 있어서, 상기 프리뷰된 실물객체들의 경계는 상기 실물객체들의 영상에 영상 에지검출(edge detection) 방법을 적용하여 산출되는 것을 특징으로 하는 객체 인식 방법.
  14. 제11항에 있어서, 상기 제1 각도간격은 상기 제2 각도간격의 n 배 또는 1/n 배이고, n은 정수인 것을 특징으로 하는 객체 인식 방법.
  15. 제11항의 객체 인식 방법을 이용하는 소프트웨어가 저장된 정보 기록매체.
  16. 프리뷰(preview)된 실물객체들의 영상에 대응하는 제1 각도구간을 상기 실물객체들을 프리뷰하는 위치를 중심으로 일정한 제1 각도간격으로 분할하고, 상기 실물객체들의 영상으로부터 상기 실물객체들 사이의 경계를 산출하여, 상기 제1 각도간격으로 분할된 제1 각도구간의 각각의 각도에 대응하고 상기 산출된 실물객체들 사이의 경계마다 달라지는 제1 지표들을 산출하고,
    제2 지표 및 외곽선 데이터를 속성값으로 갖는 가상객체들을 포함하는 지도 데이터를 상기 실물객체들을 프리뷰하는 위치를 중심으로 일정한 제2 각도간격으로 분할하고, 상기 제2 각도간격으로 분할된 지도 데이터의 각각의 지도각도에 대응하는 방사 직선과 가장 먼저 만나는 외곽선을 갖는 가상객체를 상기 지도 데이터로부터 추출하여, 상기 각각의 지도각도에 대응하는 제2 지표들의 집합을 산출하며,
    상기 제1 각도구간에 배열되는 제1 지표들의 제1 배열패턴과 상기 제1 각도구간과 동일한 크기의 제2 각도구간에 배열되는 제2 지표들의 배열패턴을 비교하여, 상기 제1 지표들을 동일한 크기의 각도구간에서 상기 제1 지표들의 반복비율과 동일한 반복비율을 갖는 제2 지표들에 각각 매칭(matching)시키고, 상기 매칭된 제1 지표에 대응하는 각도에 배치된 실물객체를 상기 제1 지표에 매칭하는 제2 지표를 속성값으로 갖는 가상객체에 각각 매칭시켜서, 상기 프리뷰된 실물객체들과 매칭하는 상기 지도 데이터의 가상객체들을 추출하는 객체 인식시스템.
  17. 제16항의 객체 인식시스템을 이용하여 상기 프리뷰된 실물객체와 매칭하는 가상객체를 인식하며, 상기 인식된 가상객체가 포함하는 속성값을 외부의 모바일 단말기로 전송하는 서버 컴퓨터.
  18. 제16항의 객체 인식시스템을 이용하여 상기 프리뷰된 실물객체와 매칭하는 가상객체의 방위값을 상기 실물객체를 프리뷰하는 방향의 방위값으로 출력하는 디지털 나침반.
  19. 제16항의 객체 인식시스템을 이용하여 상기 프리뷰된 실물객체와 매칭하는 가상객체의 속성값을 디스플레이에 출력하는 모바일 단말기.
KR1020100002711A 2010-01-12 2010-01-12 객체 인식시스템 및 이를 이용하는 객체 인식 방법 KR101117239B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020100002711A KR101117239B1 (ko) 2010-01-12 2010-01-12 객체 인식시스템 및 이를 이용하는 객체 인식 방법
US13/521,670 US8917912B2 (en) 2010-01-12 2011-01-11 Object identification system and method of identifying an object using the same
PCT/KR2011/000174 WO2011087249A2 (ko) 2010-01-12 2011-01-11 객체 인식시스템 및 이를 이용하는 객체 인식 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100002711A KR101117239B1 (ko) 2010-01-12 2010-01-12 객체 인식시스템 및 이를 이용하는 객체 인식 방법

Publications (2)

Publication Number Publication Date
KR20110082813A true KR20110082813A (ko) 2011-07-20
KR101117239B1 KR101117239B1 (ko) 2012-03-20

Family

ID=44304788

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100002711A KR101117239B1 (ko) 2010-01-12 2010-01-12 객체 인식시스템 및 이를 이용하는 객체 인식 방법

Country Status (3)

Country Link
US (1) US8917912B2 (ko)
KR (1) KR101117239B1 (ko)
WO (1) WO2011087249A2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101349347B1 (ko) * 2012-05-22 2014-01-20 에이알비전 (주) 증강현실을 위한 스마트폰 자이로센서 기반의 정면객체 생성시스템 및 방법

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8433722B2 (en) * 2008-08-27 2013-04-30 Kiwiple Co., Ltd. Object identification system, wireless internet system having the same and method servicing a wireless communication based on an object using the same
CN102663448B (zh) * 2012-03-07 2016-08-10 北京理工大学 一种基于网络的增强现实物体识别分析方法
EP2936443A1 (en) * 2012-12-21 2015-10-28 Metaio GmbH Method for representing virtual information in a real environment
US9541996B1 (en) * 2014-02-28 2017-01-10 Google Inc. Image-recognition based game
US10504297B2 (en) * 2017-07-14 2019-12-10 Glu Mobile Inc. Systems and methods for competitive scene completion in an application
CN115082480B (zh) * 2022-08-23 2023-01-20 启东市鸿盛纺织有限公司 一种基于颜色共生矩阵的家纺耐摩擦色牢度检测方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1345026B1 (en) * 2002-03-15 2010-05-05 Affymetrix, Inc. System and method for scanning of biological materials
US8942483B2 (en) * 2009-09-14 2015-01-27 Trimble Navigation Limited Image-based georeferencing
EP1906339B1 (en) * 2006-09-01 2016-01-13 Harman Becker Automotive Systems GmbH Method for recognizing an object in an image and image recognition device
KR100836481B1 (ko) * 2006-09-08 2008-06-09 주식회사 케이티 3d 가상지도상의 사용자의 아바타 객체의 위치 및 활동정보를 현실 세계로 광고하는 시스템 및 방법
KR101285360B1 (ko) * 2007-01-25 2013-07-11 삼성전자주식회사 증강현실을 이용한 관심 지점 표시 장치 및 방법
KR20080078217A (ko) * 2007-02-22 2008-08-27 정태우 영상에 포함된 객체 색인 방법과 그 색인 정보를 이용한부가 서비스 방법 및 그 영상 처리 장치
KR20090001667A (ko) 2007-05-09 2009-01-09 삼성전자주식회사 증강 현실 기술을 이용하여 컨텐츠를 구현하기 위한 장치및 방법
US8902227B2 (en) * 2007-09-10 2014-12-02 Sony Computer Entertainment America Llc Selective interactive mapping of real-world objects to create interactive virtual-world objects
GB0807411D0 (en) * 2008-04-23 2008-05-28 Mitsubishi Electric Inf Tech Scale robust feature-based indentfiers for image identification

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101349347B1 (ko) * 2012-05-22 2014-01-20 에이알비전 (주) 증강현실을 위한 스마트폰 자이로센서 기반의 정면객체 생성시스템 및 방법

Also Published As

Publication number Publication date
US8917912B2 (en) 2014-12-23
WO2011087249A3 (ko) 2011-11-10
US20120321199A1 (en) 2012-12-20
KR101117239B1 (ko) 2012-03-20
WO2011087249A2 (ko) 2011-07-21

Similar Documents

Publication Publication Date Title
KR101117239B1 (ko) 객체 인식시스템 및 이를 이용하는 객체 인식 방법
US10297074B2 (en) Three-dimensional modeling from optical capture
US20190026400A1 (en) Three-dimensional modeling from point cloud data migration
KR101662972B1 (ko) 단일 이미지로부터 깊이를 추정하기
KR101082487B1 (ko) 객체 인식시스템 및 이를 이용하는 객체 인식 방법
US10127667B2 (en) Image-based object location system and process
Barazzetti et al. True-orthophoto generation from UAV images: Implementation of a combined photogrammetric and computer vision approach
JP6334927B2 (ja) 付加情報表示装置および付加情報表示プログラム
CN103606188A (zh) 基于影像点云的地理信息按需采集方法
US11915478B2 (en) Bayesian methodology for geospatial object/characteristic detection
WO2018158495A1 (en) Method and system of providing information pertaining to objects within premises
CN112053440A (zh) 单体化模型的确定方法及通信装置
Mårtensson et al. Height uncertainty in digital terrain modelling with unmanned aircraft systems
US11868377B2 (en) Systems and methods for providing geodata similarity
Alkan et al. Geometric accuracy and information content of WorldView-1 images
Arias et al. ORTHOIMAGE‐BASED DOCUMENTATION OF ARCHAEOLOGICAL STRUCTURES: THE CASE OF A MEDIAEVAL WALL IN PONTEVEDRA, SPAIN
CN110322553B (zh) 激光雷达点云混合现实场景实施放样的方法和系统
CN110852132A (zh) 一种二维码空间位置确认方法及装置
JP6281947B2 (ja) 情報提示システム、方法及びプログラム
Abdelhafiz et al. Two points registration algorithm for terrestrial laser scanner point clouds
CN109829939A (zh) 一种缩小多视影像匹配同名像点搜索范围的方法
CN113065521B (zh) 物体识别方法、装置、设备及介质
WO2021250850A1 (en) Training apparatus, control method, and non-transitory computer-readable storage medium
Lohani et al. Effect of data density, scan angle, and flying height on the accuracy of building extraction using LiDAR data
Grammatikopoulos et al. 3D city models completion by fusing lidar and image data

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150209

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160328

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170320

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee