KR20120010875A - 증강 현실 객체 인식 가이드 제공 장치 및 방법 - Google Patents

증강 현실 객체 인식 가이드 제공 장치 및 방법 Download PDF

Info

Publication number
KR20120010875A
KR20120010875A KR1020100072513A KR20100072513A KR20120010875A KR 20120010875 A KR20120010875 A KR 20120010875A KR 1020100072513 A KR1020100072513 A KR 1020100072513A KR 20100072513 A KR20100072513 A KR 20100072513A KR 20120010875 A KR20120010875 A KR 20120010875A
Authority
KR
South Korea
Prior art keywords
information
object recognition
feature information
guide
image
Prior art date
Application number
KR1020100072513A
Other languages
English (en)
Other versions
KR101397712B1 (ko
Inventor
박석중
Original Assignee
주식회사 팬택
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 팬택 filed Critical 주식회사 팬택
Priority to KR1020100072513A priority Critical patent/KR101397712B1/ko
Priority to US13/023,648 priority patent/US20120027305A1/en
Publication of KR20120010875A publication Critical patent/KR20120010875A/ko
Application granted granted Critical
Publication of KR101397712B1 publication Critical patent/KR101397712B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Abstract

본 발명의 증강 현실 객체 인식 가이드 방법은 영상 정보가 입력되는 단계와,입력된 영상 정보에 포함된 객체를 분석하는 단계와,상기 분석 결과에 따른 객체 인식 가이드 정보를 출력하는 단계를 포함한다.

Description

증강 현실 객체 인식 가이드 제공 장치 및 방법{Apparatus and Method for Providing Recognition Guide for Augmented Reality Object}
본 발명은 증강 현실 제공 장치 및 방법에 관한 것으로, 보다 상세하게는 영상 정보에 포함되어 있는 객체를 인식하는 장치 및 방법에 관한 것이다.
증강 현실(augmented reality, AR)이란 실제 환경에 가상 사물이나 정보를 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법을 말한다.
증강 현실은 가상의 공간과 사물만을 대상으로 하는 기존의 가상 현실과 달리 현실 세계의 기반 위에 가상의 사물을 합성하여 현실 세계만으로는 얻기 어려운 부가적인 정보들을 보강해 제공할 수 있는 특징을 가진다. 이러한 특징 때문에 단순히 게임과 같은 분야에만 한정된 적용이 가능한 기존 가상 현실과 달리 다양한 현실 환경에 응용이 가능하며 특히, 유비쿼터스 환경에 적합한 차세대 디스플레이 기술로 각광받고 있다.
예를 들면, 관광객이 런던 거리에서 카메라와 GPS 센서 등 다양한 기술이 탑재되어 있는 휴대폰의 카메라 등을 특정 방향으로 가리키면, 현재 이동중인 거리에 위치한 음식점이나 세일 중인 상점에 대한 증강 현실 데이터를 실제 거리 영상과 중첩하여 디스플레이되도록 하는 방법을 들 수 있다.
그런데, 이러한 증강 현실 데이터를 제공하기 위해서는 현실 세계에 존재하는 객체를 인식해야 한다. 즉, 증강 현실 데이터를 얻고자 하는 상점이나 특정 물건을 인식할 수 있어야 한다. 이러한 객체 인식 방법의 하나로 카메라에 의해 획득된 영상 정보로부터 객체를 인식하는 방법이 있을 수 있다.
그런데, 카메라에 의해 촬영된 영상은 동일한 객체를 촬영한다고 하더라도 객체와 카메라 사이의 거리, 카메라의 위치, 각도 등에 따라 다양해질 수 있다. 이러한 다양한 영상 정보로부터 객체를 인식하기 위해서는 다양한 촬영 상황을 모두 고려하여 각 상황에 따른 객체 영상 정보를 인식할 수 있는 데이터를 구축해야 한다. 그러나, 이러한 모든 상황에 따른 객체 영상 정보를 인식할 수 있는 데이터 구축은 실질적으로 불가능하다. 따라서, 일반적으로 인식 가능한 객체 영상 정보를 지정하여 두고, 상기 지정된 영상 정보와 유사하게 객체를 촬영한 경우에만 인식이 가능하므로, 객체 인식률이 떨어진다는 문제점이 있다.
또한, 사용자는 미리 지정되어 있는 객체 영상 정보를 알 수 없어, 객체 인식이 될 때까지 계속적으로 카메라의 위치를 바꾸어가며 조절해야 하므로, 객체 인식에 따른 사용자의 불편이 따른다.
따라서, 본 발명은 증강 현실 제공 장치에서 객체 인식이 가능하도록 객체 인식 가이드를 제공하는 장치 및 방법을 제공한다.
본 발명은 증강 현실 객체 인식 가이드 제공 방법으로, 영상 정보가 입력되는 단계와, 입력된 영상 정보에 포함된 객체를 분석하는 단계와, 상기 분석 결과에 따른 객체 인식 가이드 정보를 출력하는 단계를 포함한다.
본 발명은 증강 현실 객체 인식 가이드 제공 장치로, 영상 정보를 획득하여 출력하는 영상 획득부와, 상기 영상 획득부로부터 출력된 영상 정보에 포함된 객체를 분석하고, 상기 분석 결과에 따른 객체 인식 가이드 정보를 출력하는 제어부를 포함한다.
본 발명은 사용자에게 증강 현실 객체 인식 가이드 정보를 제공하여, 객체를 용이하고 신속하게 인식하도록 할 수 있다는 이점이 있다.
도 1은 본 발명의 바람직한 실시 예에 따른 증강 현실 객체 인식 가이드 장치의 구성도이다.
도 2는 본 발명의 바람직한 실시 예에 따른 증강 현실 객체 인식 가이드 방법을 설명하기 위한 신호 흐름도이다.
도 3 내지 도 5는 본 발명에 따른 증강 현실 객체 인식 가이드 방법의 예시도이다.
이하, 첨부된 도면을 참조하여 기술되는 바람직한 실시 예를 통하여 본 발명을 당업자가 용이하게 이해하고 재현할 수 있도록 상세히 기술하기로 한다.
본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명 실시 예들의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.
또한, 명세서 전반에 걸쳐 사용되는 용어들은 본 발명 실시 예에서의 기능을 고려하여 정의된 용어들로서, 사용자 또는 운용자의 의도, 관례 등에 따라 충분히 변형될 수 있는 사항이므로, 이 용어들의 정의는 본 발명의 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 본 발명의 바람직한 실시 예에 따른 증강 현실 객체 인식 가이드 제공 장치의 구성도이다.
도 1을 참조하면, 본 발명의 실시 예에 따른 증강 현실 객체 인식 가이드 제공 장치는 영상 획득부(110), 표시부(120), 객체 특징 정보 저장부(140) 및 제어부(170)를 포함하며, 추가적으로 음향 출력부(130), 증강 현실 데이터 저장부(150) 및 조작부(160)를 더 포함할 수 있다.
영상 획득부(110)는 영상을 획득하여 제어부(170)에 출력하는 수단으로, 카메라 또는 이미지 센서가 될 수 있다. 또한, 추가적인 양상으로 영상 획득부(110)는 영상 촬영시 제어부(170)의 제어에 의해 영상을 확대 또는 축소하거나, 자동 또는 수동으로 회전 가능한 카메라일 수 있다. 또한, 영상 획득부(110)는 통신 인터페이스를 통해 이미 촬영되어 있는 영상을 획득하여 출력하거나, 메모리에 저장되어 있는 영상을 획득하여 출력하는 기능을 할 수도 있다. 제어부(170)는 영상 획득부(110)를 통해 입력된 영상 정보로부터 객체를 인식하기 위한 특징 정보를 추출해낸다. 예컨대, 객체를 인식하기 위한 특징 정보는 영상 정보에 포함된 외곽선(에지), 색 등이 포함될 수 있다.
표시부(120)는 상기 영상 획득부(110)에 의해 획득된 객체를 포함하는 영상 정보를 출력한다. 음향 출력부(130)는 제어부(170)로부터 입력되는 정보를 음원 데이터로 출력한다. 제어부(170)는 표시부(120) 및 음향 출력부(130) 중 적어도 하나를 통해 객체 인식 가이드를 위한 정보, 객체 인식 가능 여부 알림 메시지, 상기 획득된 객체에 관련된 증강 현실 데이터 중 적어도 하나의 데이터를 출력하도록 제어한다.
객체 특징 정보 저장부(140)는 영상 정보로부터 인식된 객체가 무엇인지를 판단하기 위해 미리 지정된 객체 특징 정보를 저장한다. 예컨대, "책"이라는 객체의 영상 정보로부터 책의 외곽선(에지) 데이터만으로 기계 장치는 이를 "책"이라고 인식하지 못한다. 따라서, 미리 "책"의 외곽선(에지) 데이터를 저장해두고, 영상 정보로부터 입력된 외곽선(에지)과 미리 저장된 외곽선을 비교하여 기계 장치가 "책"을 인식하도록 할 수 있다. 그리고, 이후 설명에서는 본 발명의 이해를 돕기 위해, 영상 정보로부터 검출된 객체의 특징 정보를 제 1 특징 정보로, 객체 특징 정보 저장부(140)에 미리 저장되어 있는 객체의 특징 정보를 제 2 특징 정보로 명명하기로 한다.
또한, 본 발명의 실시 예에 따라 제 2 특징 정보는 개별적인 객체 각각의 특징 정보일 수도 있다. 그러나, 휴대 단말과 같이 메모리가 한정되어 증강 현실 데이터 저장부 및 모든 개별적인 객체 각각에 대한 제 2 특징 정보가 네트워크를 통해 접속 가능한 외부 서버에 저장된 형태로 구성된 실시 예의 경우, 객체 특징 정보 저장부(140)에 저장되는 제 2 특징 정보는 하나 이상의 동일한 속성을 가진 객체들로부터 추출되는 공통된 특징 정보를 의미할 수도 있다. 이를 통해 외부 서버에서의 객체 인식률을 높여주는 효과가 있다. 예컨대, 제 2 특징 정보가 "영어 이메일 비법"이라는 제목을 가진 책으로 인식할 수 있도록 하는 정보일 수도 있고, 단지 책이라는 카테고리에 포함되는 객체로 인식할 수 있도록 하는 정보일 수도 있다. 일 예로, 제 2 특징 정보가 "영어 이메일 비법"이라는 개별적인 책 제목일 수 있거나, 단지 책의 일반적인 외곽선(에지)인 직사각형이 될 수도 있다. 다른 예로, 제 2 특징 정보가 특정 사람임을 판단할 수 있는 길쭉한 얼굴 외곽선과 큰 눈, 두꺼운 입술 모양일 수도 있고, 단지 사람의 일반적인 외곽선(에지)인 타원형의 얼굴 외곽선과 눈, 코, 입의 존재 여부 정보가 될 수도 있다.
증강 현실 데이터 저장부(150)는 객체에 관련된 각종 정보인 증강 현실 데이터를 저장하는데, 전술한 바와 같이 내장된 형태로 구성될 수도 있고, 외부에 형성된 후 네트워크를 통해 데이터를 제공받을 수도 있다. 외부에 형성된 후 네트워크를 제공받는 형태일 경우, 본 발명의 실시 예에 따른 증강 현실 객체 가이드 제공 장치는 네트워크 통신 가능한 통신 인터페이스를 더 포함하는 구성을 가질 수도 있다. 상기 증강 현실 데이터의 일 예로, 객체가 어떤 나무인 경우 그 나무의 이름, 주요 서식지, 생태학적 특징 등을 소정의 태그 이미지(tag image)를 통해 나타낸 것일 수 있다.
사용자 인터페이스부인 조작부(160)는 사용자로부터 정보를 입력받을 수 있는 수단으로, 일 예로 키 버튼 누름시마다 키데이터를 발생하는 키입력부나, 터치 스크린, 마우스 등이 포함될 수 있다. 본 발명의 추가적인 양상에 따라, 조작부(160)를 통해 객체 정보를 입력받을 수 있다. 예컨대, 영상 획득부(110)에 의해 촬영된 이미지에 포함되는 관심 객체가 무엇인지에 대한 정보를 입력받을 수 있다. 이를 통해 제어부(170)는 제 1 특징 정보와의 비교를 위한 제 2 특징 정보의 검출을 좀 더 용이하게 할 수 있다.
제어부(170)는 전술한 바와 같은 각 구성 요소들을 제어하여, 본 발명에 따른 증강 현실 객체 인식을 위한 가이드 동작을 수행하는 것으로, 이를 위한 하드웨어 프로세서 또는 이 하드웨어 프로세서에서 실행되는 소프트웨어 모듈이 될 수 있다. 제어부(170)의 동작 설명은 후술되는 증강 현실 객체 인식 가이드 방법에서 상세히 설명하기로 한다.
또한, 도면에는 도시되어 있지 않지만, 제어부(170)가 영상 정보 영상에서 객체 검출 또는 객체 검출에 대한 증강 현실 데이터 검출을 돕기 위해 별도의 센싱 정보(예컨대, 현재 시각, 현재 위치, 촬영 방향 등)를 제공하는 각종 센서들이 포함될 수 있다.
그러면, 전술한 바와 같은 구성을 가지는 장치에서 수행되는 증강 현실 객체 인식 가이드 방법을 도 2 내지 도 5를 참조하여 설명하기로 한다. 도 2는 본 발명의 바람직한 실시 예에 따른 증강 현실 객체 인식 가이드 방법을 설명하기 위한 순서도이고, 도 3 내지 도 5는 본 발명에 따른 증강 현실 객체 인식 가이드 방법의 예시도이다.
도 2를 참조하면, 사용자의 키입력에 의해 객체 인식 모드가 설정되면, 제어부(170)는 210 단계에서 영상 획득부(110)를 구동시켜 적어도 하나 이상의 객체가 포함된 영상 정보를 획득한다. 그러면, 제어부(170)는 220 단계에서 상기 획득된 영상 정보를 분석하여, 상기 영상 정보로부터 객체 인식을 위한 제 1 특징 정보를 추출해낸다.
전술한 바와 같이, 제 1 특징 정보의 일 예로 영상 정보의 명암의 급작스러운 변화 정도에 따른 외곽선(에지) 정보가 포함될 수 있는데, 이는 연필로 그린 스케치와 유사한 형태가 될 수 있다. 제 1 특징 정보의 다른 예로 영상 정보의 채도 정보가 될 수 있다. 예를 들어 영상 정보가 인물의 얼굴일 경우 살색이 제 1 특징 정보가 될 수도 있다.
그리고, 제어부(170)는 230 단계에서 제 1 특징 정보와 객체 특징 객체 정보 저장부(140)에 미리 저장되어 있는 제 2 특징 정보를 비교한다.
일 실시 예로, 제어부(170)는 제 2 특징 정보들 중, 제 1 특징 정보와 유사한 제 2 특징 정보를 검출하고, 상기 제 1 특징 정보와 제 2 특징 정보를 비교한다. 일 예로, 영상 정보에 사람의 뒷모습이 포함되어 있어, 제 1 특징 정보가 인물의 외곽선(에지)일 경우, 제어부(170)은 제 2 특징 정보들 중 인물의 뒷모습 윤곽선과 유사한 특징 정보를 검출해낸다. 예컨대, 인물의 이목구비를 포함하는 앞모습 외곽선(에지)을 검출하여 상기 영상 정보에 포함된 뒷모습 윤곽선과 비교할 수 있다.
다른 실시 예로, 제어부(170)는 부가적으로 사용자로부터 조작부(160)를 통해 관심 객체가 무엇인지에 대한 정보를 입력받아, 상기 입력된 정보에 상응하는 제 2 특징 정보를 검출하여 제 1 특징 정보와 비교한다. 일 예로, 관심 객체가 책이라는 사용자 정보가 입력됨에 따라, 제어부(170)는 객체 특징 정보 저장부(140)로부터 책에 대한 제 2 특징 정보 예컨대, 직사각형 외곽선과 상기 영상 정보로부터 검출된 책의 외곽선을 비교하게 된다.
또 다른 실시 예로, 제어부(170)는 영상 정보로부터 관심 객체가 어떤 종류의 객체인지를 추정해 낸 후, 추정해낸 종류의 제 2 특징 정보를 검출해내어 이와 비교할 수 있다. 예컨대, 영상 정보의 외곽선 정보로부터 기하학적 특징들(수직선, 수평선, 교차점들)을 찾아내고 그것들의 관계를 파악하여 관심 대상의 객체가 어떤 종류로 분류되는 객체일 것인지를 추정해낸다. 즉, 추출해낸 제 1 특징 정보가 건물 외곽선(에지)과, 간판의 윤곽선을 포함하는 것으로 추정되면, 제어부(170)는 이로부터 건물로 분류된 객체를 인식할 수 있는 제 2 특징 정보로 저장되어 있는 간판의 외곽선(에지)인 직사각형을 검출하여 비교한다.
그리고, 제어부(170)는 240 단계에서 상기 230 단계의 비교 결과, 영상 정보로부터 객체 인식이 가능한지를 판단한다.
일 예로, 도 3에 도시된 바와 같이, "영어 이메일 비법 책" 영상 정보(a)로부터 (b)에 도시된 바와 같은 윤곽선(310)이 제 1 특징 정보로 검출되고, 책으로 분류되는 객체의 기 저장된 제 2 특징 정보가 (d)에 도시된 바와 같은 직사각형 윤곽선이라면, (b)의 윤곽선(310)은 직사각형이 아니므로 제어부(170)는 객체 인식이 불가능한 것으로 판단할 수 있다. 다른 예로, 도 5에 도시된 바와 같이, (a)의 영상 정보로부터 사람의 상체 윤곽선이 제 1 특징 정보로 검출되었으나, 기저장된 사람으로 분류된 객체의 제 2 특징 정보는 사람의 상체 윤곽선과 이목구비 형태 윤곽선이므로 (a)의 영상 정보로부터 객체 인식이 불가능한 것으로 판단될 수 있다. 또 다른 예로, 객체의 크기가 너무 작거나, 객체가 너무 어두운 곳에서 촬영되어 객체를 인식할 수 없다고 판단할 수도 있다.
상기 240 단계의 판단 결과, 객체 인식이 불가능한 것으로 판단될 경우, 제어부(170)는 250 단계에서 객체 인식 가이드를 분석한다. 예컨대, 이는 영상 정보로부터 추출된 제 1 특징 정보와 기저장되어 있는 제 2 객체 특징 정보를 비교하여, 객체와 카메라가 기울어진 정도, 객체와 촬영 위치와의 거리, 객체의 촬영 방향 등을 분석하여, 카메라 또는 객체의 위치를 어떻게 조정해야 할지를 알아내는 것이다.
일 예로, 도 3에 도시된 바와 같이, 책의 윤곽선이 기저장된 제 2 특징 정보와 비교하여 기울어져 있으므로, 객체를 중앙에 위치되도록 움직여야 한다든지, 카메라의 위치를 눕힌 상태로 해야 한다는 것을 분석 결과로 얻을 수 있다. 다른 예로, 도 5의 (a)의 영상 정보에 포함된 사람의 특징 정보가 이목구비 없이 사람의 윤곽선만 추출되었으므로, 사람의 뒷모습의 영상 정보로 분석되므로, 객체가 180도 회전된 상태로 촬영되어야 한다는 것을 분석 결과로 얻을 수 있다. 또 다른 예로, 도면에는 도시되어 있지 않지만, 얼굴이 수평인지 판단하여 얼굴 경사가 수평이 아닐 경우 수평으로 조절되어야 한다는 분석 결과를 얻을 수 있다. 예컨대, 얼굴속에서 두 눈의 위치를 인식하고, 인식된 두 눈의 위치정보를 통해 두 눈이 이루는 각도를 계산한다. 얼굴에서 두 눈의 인식 방법은 예를 들면, 눈의 움직임, 얼굴과 눈의 색의 차이, 눈의 일반적인 모양, 얼굴에서 눈의 위치 등을 종합적으로 이용할 수 있다.
그리고, 제어부(170)는 260 단계에서 분석 결과에 따라 객체 인식 가능한 촬영 가이드를 생성하여 출력한다.
일 실시 예로, 도 4의 (a)에 도시된 바와 같이, 인식 가능한 외곽선(420)이 영상 정보의 윤곽선(410)과 오버랩되도록 표시부(120)에 출력함으로써, 사용자가 상기 인식 가능한 윤곽선과 객체가 일치하도록 카메라 위치를 조정하도록 도와준다. 다른 실시 예로, 도 3의 (c)에 도시된 바와 표시 화면의 일측에 팝업 메시지(330)의 형태로 가이드 정보를 출력할 수도 있다. 또 다른 실시 예로, 제어부(170)는 표시부(120)에 가이드 정보를 출력함과 동시에 음향 출력부(130)을 통해 가이드 정보가 음향으로 출력되도록 할 수도 있다.
그러면, 사용자는 260 단계의 출력되는 촬영 가이드 정보를 참조하여, 촬영 위치를 바꾸어 인식 가능한 객체 이미지를 촬영할 수 있게 된다. 이때, 제어부(170)는 사용자로부터의 요청에 따라, 카메라가 자동 로테이션 되도록 조정할 수도 있고, 줌인 또는 줌 아웃되도록 조정할 수도 있다.
한편, 상기 240 단계의 판단 결과, 상기 영상 정보로부터 객체 인식이 가능하다고 판단되면, 제어부(170)는 270 단계에서 객체 인식 가능 알림 정보를 출력한다. 일 실시 예로, 시각적 방법으로 도 5의 (d)에 도시된 바와 같이 객체의 윤곽선을 다른 색으로 표시하거나, 진하게 처리하여 표시할 수도 있다. 다른 실시 예로, 도 4의 (c)에 도시된 바와 같이 인식되었음을 나타내는 "OK" 메시지를 화면에 팝업시킬 수도 있다. 또 다른 실시 예로, 청각적 방법으로는 미리 약속된 비프음을 출력할 수도 있고, "인식 가능합니다"라는 미리 저장된 음원을 출력할 수도 있다. 즉, 사용자가 인식 가능함을 알도록 할 수 있는 다양한 실시 예가 가능하다..
그리고, 제어부(170)는 280 단계에서 인식된 객체에 대한 관련된 증강 현실 데이터를 증강 현실 데이터 저장부(150)로부터 검색한다. 또는 상기 객체에 대한 정보는 GPS를 통해 얻은 정보를 활용할 수도 있다. 제어부(170)는 290 단계에서 객체에 관련된 증강 현실 정보를 표시부(120) 또는 음향 출력부(130)를 통해 사용자에게 출력한다.

Claims (15)

  1. 영상 정보가 입력되는 단계와,
    입력된 영상 정보에 포함된 객체를 분석하는 단계와,
    상기 분석 결과에 따른 객체 인식 가이드 정보를 출력하는 단계를 포함함을 특징으로 하는 증강 현실 객체 인식 가이드 제공 방법.
  2. 제 1항에 있어서, 상기 객체 인식 가이드 정보를 출력하는 단계는
    상기 분석 결과,
    객체 인식이 불가능한 경우, 객체 인식이 가능한 객체 인식 가이드 정보를 출력함을 특징으로 하는 증강 현실 객체 인식 가이드 제공 방법.
  3. 제 1항에 있어서, 상기 분석하는 단계는
    상기 영상 정보에 포함된 객체의 제 1 특징 정보를 추출하는 단계와,
    상기 추출된 제 1 특징 정보와 미리 정해진 객체 인식 정보인 제 2 특징 정보를 비교하는 단계와,
    상기 비교 결과, 일치하는지를 판단하는 단계를 포함함을 특징으로 하는 증강 현실 객체 인식 가이드 제공 방법.
  4. 제 3항에 있어서, 상기 추출되는 제 1 특징 정보는
    객체의 외곽선 또는 색을 포함함을 특징으로 하는 증강 현실 객체 인식 가이드 제공 방법.
  5. 제 3항에 있어서, 상기 제 2 특징 정보는
    하나 이상의 동일한 속성을 가진 객체들로부터 추출되는 공통된 특징 정보임을 특징으로 하는 증강 현실 객체 인식 가이드 제공 방법.
  6. 제 3항에 있어서, 상기 비교하는 단계는
    사용자로부터 관심 객체에 대한 정보를 입력받아, 상기 입력된 정보에 상응하는 제 2 특징 정보를 검출하는 단계와,
    상기 검출된 제 2 특징 정보와 상기 추출된 제 1 특징 정보를 비교하는 단계를 포함함을 특징으로 하는 객체 인식 가이드 방법.
  7. 제 1항에 있어서, 상기 객체 인식 가이드 정보를 출력하는 단계는
    상기 제 2 특징 정보를 상기 영상 정보에 중첩시켜 출력함을 특징으로 하는 증강 현실 객체 인식 가이드 제공 방법.
  8. 제 1항에 있어서, 상기 객체 인식 가이드 정보를 출력하는 단계는
    객체 인식 가이드 정보를 화면 표시 팝업 메시지 및 음향 데이터 중 적어도 하나로 출력함을 특징으로 하는 증강 현실 객체 인식 가이드 제공 방법.
  9. 제 1항에 있어서,
    상기 분석 결과, 객체 인식 가능한 경우, 객체 인식 가능함을 알리는 정보를 화면 표시 메시지 및 음향 데이터 중 적어도 하나로 출력하는 단계를 더 포함함을 특징으로 하는 증강 현실 객체 인식 가이드 제공 방법.
  10. 제 1항에 있어서,
    상기 분석 결과, 객체 인식 가능한 경우, 객체 인식 가능함을 알리기 위해 인식된 객체의 외곽선을 특정색으로 표시하여 출력함을 특징으로 증강 현실 객체 인식 가이드 제공 방법.
  11. 영상 정보를 획득하여 출력하는 영상 획득부와,
    상기 영상 획득부로부터 출력된 영상 정보에 포함된 객체를 분석하고, 상기 분석 결과에 따른 객체 인식 가이드 정보를 출력하는 제어부를 포함함을 특징으로 하는 증강 현실 객체 인식 가이드 제공 장치.
  12. 제 11항에 있어서, 상기 제어부는
    상기 분석 결과, 상기 영상으로부터 객체 인식이 불가능한 경우 객체 인식이 가능한 촬영 가이드 정보를 생성함을 특징으로 하는 증강 현실 객체 인식 가이드 제공 장치.
  13. 제 11항에 있어서,
    미리 정해진 객체 인식 정보인 제 2 특징 정보를 저장하는 객체 특징 정보 저장부를 더 포함하고,
    상기 제어부는
    상기 영상 정보로부터 제 1 특징 정보를 추출하고, 상기 추출된 제 1 특징 정보와 미리 정해진 객체 인식 정보인 제 2 특징 정보를 비교하여 일치 여부를 판단함을 특징으로 하는 증강 현실 객체 인식 가이드 제공 장치.
  14. 제 11항에 있어서,
    상기 제어부로부터 입력되는 데이터를 출력하는 표시부를 더 포함하고,
    상기 제어부는
    상기 생성된 촬영 가이드 정보를 상기 영상 정보에 중첩시켜 상기 표시부를 통해 출력함을 특징으로 하는 증강 현실 객체 인식 가이드 제공 장치.
  15. 제 11항에 있어서,
    상기 제어부로부터 입력되는 데이터를 출력하는 표시부 또는 음향 출력부 중 적어도 하나를 더 포함하고,
    상기 제어부는
    생성된 촬영 가이드 정보를 상기 표시부를 통한 팝업 메시지 및 상기 음향 출력부를 통한 음향 데이터 중 적어도 하나로 출력함을 특징으로 하는 증강 현실 객체 인식 가이드 제공 장치.
KR1020100072513A 2010-07-27 2010-07-27 증강 현실 객체 인식 가이드 제공 장치 및 방법 KR101397712B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020100072513A KR101397712B1 (ko) 2010-07-27 2010-07-27 증강 현실 객체 인식 가이드 제공 장치 및 방법
US13/023,648 US20120027305A1 (en) 2010-07-27 2011-02-09 Apparatus to provide guide for augmented reality object recognition and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100072513A KR101397712B1 (ko) 2010-07-27 2010-07-27 증강 현실 객체 인식 가이드 제공 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20120010875A true KR20120010875A (ko) 2012-02-06
KR101397712B1 KR101397712B1 (ko) 2014-06-27

Family

ID=45526782

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100072513A KR101397712B1 (ko) 2010-07-27 2010-07-27 증강 현실 객체 인식 가이드 제공 장치 및 방법

Country Status (2)

Country Link
US (1) US20120027305A1 (ko)
KR (1) KR101397712B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101358059B1 (ko) * 2012-06-25 2014-02-05 에이알비전 (주) 증강현실을 이용한 장소정보 표출방법
KR101491906B1 (ko) * 2013-05-29 2015-02-11 고려대학교 산학협력단 정합속도 증강 인식 방법
KR20170000341U (ko) 2015-07-16 2017-01-25 김남구 수목용 관수장치
KR20190012545A (ko) * 2017-07-27 2019-02-11 키튼플래닛 주식회사 증강 현실을 이용한 양치 가이드 정보 제공 방법 및 장치
KR20200081026A (ko) * 2018-12-27 2020-07-07 주식회사 케이티 증강 현실 서비스를 제공하는 서버, 단말 및 방법

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102084582B1 (ko) * 2012-02-24 2020-03-04 삼성전자 주식회사 화면에 표시된 개체의 크기 조정 방법 및 장치
CN103295023A (zh) * 2012-02-24 2013-09-11 联想(北京)有限公司 一种增强现实信息的显示方法及装置
US9214137B2 (en) * 2012-06-18 2015-12-15 Xerox Corporation Methods and systems for realistic rendering of digital objects in augmented reality
EP2929485B1 (en) 2012-12-07 2019-10-09 Hewlett-Packard Development Company, L.P. Matching a feature of captured visual data
CN103294803A (zh) * 2013-05-30 2013-09-11 佛山电视台南海分台 一种实现增强产品信息介绍和人机交互的方法和系统
WO2015151182A1 (ja) * 2014-03-31 2015-10-08 楽天株式会社 商品評価装置、方法及びプログラム
CN109685058B (zh) * 2017-10-18 2021-07-09 杭州海康威视数字技术股份有限公司 一种图像目标识别方法、装置及计算机设备
WO2020111626A1 (en) * 2018-11-28 2020-06-04 Samsung Electronics Co., Ltd. Electronic device and key input method therefor

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6765569B2 (en) * 2001-03-07 2004-07-20 University Of Southern California Augmented-reality tool employing scene-feature autocalibration during camera motion
US7321682B2 (en) * 2002-11-12 2008-01-22 Namco Bandai Games, Inc. Image generation system, image generation method, program, and information storage medium
US7676079B2 (en) * 2003-09-30 2010-03-09 Canon Kabushiki Kaisha Index identification method and apparatus
WO2005034041A1 (en) * 2003-10-07 2005-04-14 Openvr Co., Ltd. Apparatus and method for creating 3-dimensional image
JP5362189B2 (ja) * 2006-05-10 2013-12-11 株式会社トプコン 画像処理装置及びその処理方法
FR2933218B1 (fr) * 2008-06-30 2011-02-11 Total Immersion Procede et dispositif permettant de detecter en temps reel des interactions entre un utilisateur et une scene de realite augmentee
KR101380777B1 (ko) * 2008-08-22 2014-04-02 정태우 영상에 포함된 객체를 색인하는 방법
JP2010134649A (ja) * 2008-12-03 2010-06-17 Canon Inc 情報処理装置、その処理方法及びプログラム
US20100257252A1 (en) * 2009-04-01 2010-10-07 Microsoft Corporation Augmented Reality Cloud Computing
US9158777B2 (en) * 2010-03-30 2015-10-13 Gravity Jack, Inc. Augmented reality methods and apparatus
US20110310227A1 (en) * 2010-06-17 2011-12-22 Qualcomm Incorporated Mobile device based content mapping for augmented reality environment
US8332429B2 (en) * 2010-06-22 2012-12-11 Xerox Corporation Photography assistant and method for assisting a user in photographing landmarks and scenes
US20130057702A1 (en) * 2010-07-06 2013-03-07 Lg Electronics Inc. Object recognition and tracking based apparatus and method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101358059B1 (ko) * 2012-06-25 2014-02-05 에이알비전 (주) 증강현실을 이용한 장소정보 표출방법
KR101491906B1 (ko) * 2013-05-29 2015-02-11 고려대학교 산학협력단 정합속도 증강 인식 방법
KR20170000341U (ko) 2015-07-16 2017-01-25 김남구 수목용 관수장치
KR20190012545A (ko) * 2017-07-27 2019-02-11 키튼플래닛 주식회사 증강 현실을 이용한 양치 가이드 정보 제공 방법 및 장치
US11482125B2 (en) 2017-07-27 2022-10-25 Kitten Planet Co., Ltd. Method and apparatus for providing tooth-brushing guide information using augmented reality
KR20200081026A (ko) * 2018-12-27 2020-07-07 주식회사 케이티 증강 현실 서비스를 제공하는 서버, 단말 및 방법

Also Published As

Publication number Publication date
KR101397712B1 (ko) 2014-06-27
US20120027305A1 (en) 2012-02-02

Similar Documents

Publication Publication Date Title
KR20120010875A (ko) 증강 현실 객체 인식 가이드 제공 장치 및 방법
WO2019101021A1 (zh) 图像识别方法、装置及电子设备
KR101357260B1 (ko) 증강 현실 사용자 인터페이스 제공 장치 및 방법
KR101842075B1 (ko) 타겟 상으로의 프로젝션을 위해 콘텐츠를 트리밍
KR101303948B1 (ko) 비가시 객체에 대한 증강 현실 정보 제공 장치 및 방법
AU2017261608A1 (en) Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
US20120092329A1 (en) Text-based 3d augmented reality
WO2011070871A1 (ja) 情報処理装置、情報処理方法およびプログラム
KR20140090159A (ko) 정보 처리 장치, 정보 처리 방법, 및 프로그램
CN110807361A (zh) 人体识别方法、装置、计算机设备及存储介质
KR20120015923A (ko) 필터 정보를 이용한 객체 인식 장치 및 방법
KR20160057867A (ko) 디스플레이 장치 및 그에 의한 이미지 처리 방법
US9105132B2 (en) Real time three-dimensional menu/icon shading
KR20120054901A (ko) 증강 현실 사용자 인터페이스 제공 장치 및 방법
US10664090B2 (en) Touch region projection onto touch-sensitive surface
KR100692526B1 (ko) 시스템 자동제어용 제스처 인식 장치 및 그 방법
US10748000B2 (en) Method, electronic device, and recording medium for notifying of surrounding situation information
KR20180011794A (ko) 오브젝트 시각화 방법
KR20140002009A (ko) 입력 장치, 입력 방법 및 기록 매체
US20210005024A1 (en) Image display control apparatus and image display control program
CN109791432A (zh) 推迟影响图形用户界面的信息的状态改变直至不专注的情况期间
KR20120082319A (ko) 윈도우 형태의 증강현실을 제공하는 장치 및 방법
EP3974949A1 (en) Head-mounted display
EP2831702B1 (en) Information processing device, information processing method and program
US9898183B1 (en) Motions for object rendering and selection

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20171030

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20181030

Year of fee payment: 5