KR101692764B1 - 가상 점을 이용한 증강현실 제공 방법 - Google Patents

가상 점을 이용한 증강현실 제공 방법 Download PDF

Info

Publication number
KR101692764B1
KR101692764B1 KR1020100055785A KR20100055785A KR101692764B1 KR 101692764 B1 KR101692764 B1 KR 101692764B1 KR 1020100055785 A KR1020100055785 A KR 1020100055785A KR 20100055785 A KR20100055785 A KR 20100055785A KR 101692764 B1 KR101692764 B1 KR 101692764B1
Authority
KR
South Korea
Prior art keywords
data
virtual
reality
actual
virtual point
Prior art date
Application number
KR1020100055785A
Other languages
English (en)
Other versions
KR20110136028A (ko
Inventor
김재형
홍종철
권봉기
Original Assignee
주식회사 비즈모델라인
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 비즈모델라인 filed Critical 주식회사 비즈모델라인
Priority to KR1020100055785A priority Critical patent/KR101692764B1/ko
Publication of KR20110136028A publication Critical patent/KR20110136028A/ko
Application granted granted Critical
Publication of KR101692764B1 publication Critical patent/KR101692764B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3245Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document of image modifying data, e.g. handwritten addenda, highlights or augmented reality information

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 가상 점을 이용한 증강현실 제공 방법에 대한 것으로, 카메라를 구비한 증강현실장치에서 실행되는 방법에 있어서, 상기 카메라를 통해 실시간 입력되는 실제현실 데이터 중 제n(n≥1)번째 실제현실 데이터를 판독하여 상기 제n번째 실제현실 데이터 상의 객체 영역을 인식하고, 상기 제n번째 실제현실 데이터 상에서 인식된 객체 영역의 픽셀을 k개의 픽셀 영역으로 분할한 후 각 픽셀 영역의 색상 값의 평균 값을 결정하고 상기 픽셀 영역 별 색상 평균 값을 이용하여 상기 제n번째 실제현실 데이터 이후에 상기 카메라를 통해 실시간 입력될 적어도 하나의 실제현실 데이터 상에서 상기 제n번째 실제현실 데이터에서 인식된 객체 영역에 대응하는 객체 영역을 판별하기 위한 M(M>1)개의 색상공간 조합 값을 결정하고, 상기 M개의 색상공간 조합 값에 대한 가상 점을 부여하고 상기 M개의 가상 점 정보와 가상 점 조합 순서 정보를 포함하는 가상 점 조합 정보를 구성하고, 상기 카메라를 통해 실시간 입력되는 제(n+1) 내지 제N(N>n) 실제현실 데이터 중 적어도 하나의 실제현실 데이터를 판독하여 상기 가상 점 조합 정보에 대응하는 가상 점을 i(1≤i≤M)개 포함하고, 상기 i개의 가상 점의 조합 순서가 상기 가상 점 조합 정보에 포함된 가상 점 조합 순서와 적어도 j(1≤j<M)회 매칭되는 영역을 상기 제n 실제현실 데이터로부터 인식된 객체 영역과 동일한 객체 영역으로 결정한다.

Description

가상 점을 이용한 증강현실 제공 방법{Method for Providing Augmented Reality by using Virtual Point}
본 발명은 카메라를 구비한 증강현실장치에서 실행되는 방법에 있어서, 상기 카메라를 통해 실시간 입력되는 실제현실 데이터 중 제n(n≥1)번째 실제현실 데이터를 판독하여 상기 제n번째 실제현실 데이터 상의 객체 영역을 인식하고, 상기 제n번째 실제현실 데이터 상에서 인식된 객체 영역의 픽셀을 k개의 픽셀 영역으로 분할한 후 각 픽셀 영역의 색상 값의 평균 값을 결정하고 상기 픽셀 영역 별 색상 평균 값을 이용하여 상기 제n번째 실제현실 데이터 이후에 상기 카메라를 통해 실시간 입력될 적어도 하나의 실제현실 데이터 상에서 상기 제n번째 실제현실 데이터에서 인식된 객체 영역에 대응하는 객체 영역을 판별하기 위한 M(M>1)개의 색상공간 조합 값을 결정하고, 상기 M개의 색상공간 조합 값에 대한 가상 점을 부여하고 상기 M개의 가상 점 정보와 가상 점 조합 순서 정보를 포함하는 가상 점 조합 정보를 구성하고, 상기 카메라를 통해 실시간 입력되는 제(n+1) 내지 제N(N>n) 실제현실 데이터 중 적어도 하나의 실제현실 데이터를 판독하여 상기 가상 점 조합 정보에 대응하는 가상 점을 i(1≤i≤M)개 포함하고, 상기 i개의 가상 점의 조합 순서가 상기 가상 점 조합 정보에 포함된 가상 점 조합 순서와 적어도 j(1≤j<M)회 매칭되는 영역을 상기 제n 실제현실 데이터로부터 인식된 객체 영역과 동일한 객체 영역으로 결정하는 가상 점을 이용한 증강현실 제공 방법에 관한 것이다.
디스플레이 장치를 통해 표시되는 현실은 카메라를 통해 실제 세계를 촬영한 실제현실(Full Reality)과 실제 세계에는 존재하지 않으나 컴퓨터를 통해 만들어진 가상 세계를 표현하는 가상현실(Virtual Reality)로 나뉘며, SF(Science Fiction) 영화와 같이 미리 정해진 장면 시나리오에 따라 블루스크린 앞에서 실제현실을 촬영하고 여기에 가상현실을 조합한 크로마키현실(Chroma-Key Reality)이 존재하며, 크로마키현실은 분류 상 가상현실에 속한다.
최근 정보 통신 지속적인 기술의 발전으로 실제현실 상의 객체에 실시간으로 가상현실 데이터를 표시하는 증강현실(Augmented Reality)이 제안되었다. 증강현실은 SF영화와 같이 미리 정해진 장면 시나리오가 없다는 점, 실제현실을 블루스크린 앞에서 촬영하지 않는 점에서 크로마키현실과 구분된다.
상기 증강현실에서 실제현실 상에 가상현실 데이터를 표시할 객체를 결정하는 방법으로는, 실제현실에 마커(Marker)를 표시한 후 상기 마커를 인식하여 상기 마커 상에 가상현실 데이터를 표시하는 마커 방식 증강현실과, 실제현실에 마커를 표시하지 않고 실제현실 상의 객체를 직접 인식하여 가상현실 데이터를 표시하는 마커리스(Markerless) 증강현실이 존재한다. 현재 마커 방식 증강현실은 각각의 마커를 이용하여 몇 가지 시범 서비스가 제공되고 있으나 마커 구성에 대한 표준화가 전혀 존재하지 않으며, 마커리스 증강현실은 스튜디오에서 미리 정해진 객체를 촬영한 실제현실을 이용하는 경우를 제외하고는 객체 인식의 불안정성으로 인해 시범되지 못하고 있다.
또한, 상기 증강현실에서 실제현실에 가상현실 데이터를 표시하는 방법으로는, 카메라를 통해 촬영되어 저장매체에 저장된 실제현실로부터 마커/마커리스 방식으로 객체를 인식하고 상기 인식된 객체 상에 가상현실 데이터를 표시하는 방법과, 카메라를 통해 실시간 촬영되는 실제현실로부터 마커/마커리스 방식으로 객체를 인식하고 상기 인식된 객체 상에 가상현실 데이터를 표시하는 방법이 존재하며, 상술된 방법 이외에 카메라를 통해 실제현실을 촬영하지 않고 인간의 눈이 그 너머의 실제현실을 바라보는 투명한 물건(예컨대, 안경, 고글, 유리창 등)을 투명 디스플레이로 이용하고 센서 기술을 통해 상기 인간의 눈이 투명 디스플레이 너머의 객체를 인식하여 상기 투명 디스플레이 상에 가상현실 데이터를 표시하는 방법이 이론적으로 존재한다.
한편 상기 마커리스 방식으로 객체를 인식하는 경우, 객체를 인식할 수 있는 조건이 설정된 스튜디오에서 촬영된 실제현실 데이터를 판독하는 경우 상기 가상현실 데이터를 출력할 객체를 비교적 용이하게 인식할 수 있지만, 상기와 같은 조건이 설정되지 않은 환경 또는 실제현실 데이터에 노이즈가 발생한 환경에서 촬영된 실제현실 데이터를 판독하여 객체를 인식하는 것은 매우 난해하다. 더구나 상기 실제현실 데이터가 동영상인 경우, 상기 동영상의 비디오 데이터를 마커리스 방식으로 판독하여 객체를 인식하는 것은 더욱더 난해하다.
상기와 같은 문제점을 해소하기 위한 본 발명의 목적은, 카메라를 구비한 증강현실장치에서 실행되는 방법에 있어서, 상기 카메라를 통해 실시간 입력되는 실제현실 데이터 중 제n(n≥1)번째 실제현실 데이터를 판독하여 상기 제n번째 실제현실 데이터 상의 객체 영역을 인식하는 제1 단계와 상기 제n번째 실제현실 데이터 상에서 인식된 객체 영역의 픽셀을 k개의 픽셀 영역으로 분할한 후 각 픽셀 영역의 색상 값의 평균 값을 결정하고 상기 픽셀 영역 별 색상 평균 값을 이용하여 상기 제n번째 실제현실 데이터 이후에 상기 카메라를 통해 실시간 입력될 적어도 하나의 실제현실 데이터 상에서 상기 제n번째 실제현실 데이터에서 인식된 객체 영역에 대응하는 객체 영역을 판별하기 위한 M(M>1)개의 색상공간 조합 값을 결정하는 제2 단계와 상기 M개의 색상공간 조합 값에 대한 가상 점을 부여하고 상기 M개의 가상 점 정보와 가상 점 조합 순서 정보를 포함하는 가상 점 조합 정보를 구성하는 제3 단계와 상기 카메라를 통해 실시간 입력되는 제(n+1) 내지 제N(N>n) 실제현실 데이터 중 적어도 하나의 실제현실 데이터를 판독하여 상기 가상 점 조합 정보에 대응하는 가상 점을 i(1≤i≤M)개 포함하고, 상기 i개의 가상 점의 조합 순서가 상기 가상 점 조합 정보에 포함된 가상 점 조합 순서와 적어도 j(1≤j<M)회 매칭되는 영역을 상기 제n 실제현실 데이터로부터 인식된 객체 영역과 동일한 객체 영역으로 결정하는 제4 단계를 포함하는 가상 점을 이용한 증강현실 제공 방법을 제공함에 있다.
본 발명에 따른 가상 점을 이용한 증강현실 제공 방법은, 카메라를 구비한 증강현실장치에서 실행되는 방법에 있어서, 상기 카메라를 통해 실시간 입력되는 실제현실 데이터 중 제n(n≥1)번째 실제현실 데이터를 판독하여 상기 제n번째 실제현실 데이터 상의 객체 영역을 인식하는 제1 단계와 상기 제n번째 실제현실 데이터 상에서 인식된 객체 영역의 픽셀을 k개의 픽셀 영역으로 분할한 후 각 픽셀 영역의 색상 값의 평균 값을 결정하고 상기 픽셀 영역 별 색상 평균 값을 이용하여 상기 제n번째 실제현실 데이터 이후에 상기 카메라를 통해 실시간 입력될 적어도 하나의 실제현실 데이터 상에서 상기 제n번째 실제현실 데이터에서 인식된 객체 영역에 대응하는 객체 영역을 판별하기 위한 M(M>1)개의 색상공간 조합 값을 결정하는 제2 단계와 상기 M개의 색상공간 조합 값에 대한 가상 점을 부여하고 상기 M개의 가상 점 정보와 가상 점 조합 순서 정보를 포함하는 가상 점 조합 정보를 구성하는 제3 단계와 상기 카메라를 통해 실시간 입력되는 제(n+1) 내지 제N(N>n) 실제현실 데이터 중 적어도 하나의 실제현실 데이터를 판독하여 상기 가상 점 조합 정보에 대응하는 가상 점을 i(1≤i≤M)개 포함하고, 상기 i개의 가상 점의 조합 순서가 상기 가상 점 조합 정보에 포함된 가상 점 조합 순서와 적어도 j(1≤j<M)회 매칭되는 영역을 상기 제n 실제현실 데이터로부터 인식된 객체 영역과 동일한 객체 영역으로 결정하는 제4 단계를 포함하는 것을 특징으로 한다.
본 발명에 따른 가상 점을 이용한 증강현실 제공 방법에 있어서, 상기 제3 단계는, 제m(1≤m<M) 가상 점의 색상공간 값에 대응하는 픽셀 중 어느 하나의 픽셀(m)이 제(m+1) 가상 점의 색상공간 값에 대응하는 픽셀 중 어느 하나의 픽셀(m+1)과 중복되도록 셀 결합 방식으로 조합하는 것을 특징으로 한다.
본 발명에 따른 가상 점을 통해 객체를 인식하는 증강현실 장치는, N(N>1)개의 실제현실 데이터에 대한 색상공간 조합을 통해 객체를 인식하는 증강현실 장치에 있어서, 상기 N개의 실제현실 데이터 중 제n(1≤n<N) 실제현실 데이터를 판독하여 객체 영역을 인식하는 객체 영역 인식부와, 상기 인식된 객체 영역에 대한 M(M>1)개의 색상공간 조합 값을 결정하는 색상공간 결정부와, 상기 M개의 색상공간 조합 값에 대한 가상 점을 부여하고, 상기 M개의 가상 점 정보와 가상 점 조합 순서 정보를 포함하는 가상 점 조합 정보를 구성하는 가상 점 조합부와, 제(n+1) 내지 제N 실제현실 데이터를 판독하여 상기 가상 점 조합 정보에 대응하는 가상 점을 i(1≤i≤M)개 이상 포함하고, 상기 i개의 가상 점의 조합 순서가 상기 가상 점 조합 정보에 포함된 가상 점 조합 순서와 j(1≤j<M)회 이상 매칭되는 객체 영역을 상기 제n 실제현실 데이터로부터 인식된 객체 영역과 동일한 객체 영역으로 결정하는 객체 영역 결정부를 구비한다.
본 발명에 따른 가상 점을 통해 객체를 인식하는 증강현실 장치에 있어서, 상기 색상공간 결정부는, 상기 인식된 객체 영역의 픽셀을 k개의 픽셀 영역으로 분할한 후, 각 픽셀 영역의 색상 값의 평균 값을 결정하고, 상기 픽셀 영역 별 색상 평균 값을 통해 상기 M개의 색상공간 조합 값을 결정할 수 있다.
본 발명에 따른 가상 점을 통해 객체를 인식하는 증강현실 장치에 있어서, 상기 가상 점 조합부는, 제m(1≤m<M) 가상 점의 색상공간 값에 대응하는 픽셀 중 어느 하나의 픽셀(m)이 제(m+1) 가상 점의 색상공간 값에 대응하는 픽셀 중 어느 하나의 픽셀(m+1)과 중복되도록 셀 결합 방식으로 조합할 수 있다.
본 발명에 따르면, N(N>1)개의 비디오 데이터로 이루어진 동영상에서 각 비디오 데이터를 판독하는 것이 아니라, 상기 N개의 비디오 데이터 중 제n(1≤n<N) 비디오 데이터에서 객체 영역을 인식한 후, 제(n+1) 내지 제N 비디오 데이터는 상기 제n 비디오 데이터에 포함된 색상공간 조합 값에 대한 가상 점 조합을 판별하여 객체를 인식함으로써, 동영상의 비디오 데이터에 포함된 객체를 마커리스 방식으로 고속 인식하는 이점과, 상기 객체의 일부가 가려지거나 상기 비디오 데이터에서 사라지더라도 상기 제(n+1) 내지 제N 비디오 데이터에 포함된 객체를 정확하게 인식하는 이점이 있다.
도 1은 본 발명의 실시 방법에 따른 증강현실 장치 구성을 도시한 도면이다.
도 2는 본 발명의 실시 방법에 따른 색상공간 조합 값을 결정하는 구성을 예시한 것이다.
도 3은 본 발명의 실시 방법에 따른 가상 점 구성을 예시한 것이다.
도 4는 본 발명의 실시 방법에 따른 가상 점을 통해 객체를 인식하는 구성을 예시한 것이다.
도 5는 본 발명의 실시 방법에 따른 색상공간 조합의 변형을 인식하는 구성을 예시한 것이다.
도 6은 본 발명의 실시 방법에 따라 가상 점을 통해 객체를 인식하는 과정을 도시한 도면이다.
이하 첨부된 도면과 설명을 참조하여 본 발명의 바람직한 실시예에 대한 동작 원리를 상세히 설명한다. 다만, 하기에 도시되는 도면과 후술되는 설명은 본 발명의 특징을 효과적으로 설명하기 위한 여러 가지 방법 중에서 바람직한 실시 방법에 대한 것이며, 본 발명이 하기의 도면과 설명만으로 한정되는 것은 아니다. 또한, 하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 발명에서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
아울러 하기에 도시되는 실시예에서 본 발명의 기술적 특징을 보다 명확하게 설명하기 위해 각 용어의 서두에 "제1" 또는 "제2"와 같은 형태의 식별부호를 첨부하여 설명할 것이나, 상기 식별부호는 각 용어를 식별하기 위한 것일 뿐 상기 식별부호에 의해 각 용어가 다른 기능과 역할을 수행하는 것으로 구별 또는 한정되는 것은 결코 아님을 명백하게 밝혀두는 바이다.
결과적으로, 본 발명의 기술적 사상은 청구범위에 의해 결정되며, 이하 실시예는 진보적인 본 발명의 기술적 사상을 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 효율적으로 설명하기 위한 일 수단일 뿐이다.
도면1은 본 발명의 실시 방법에 따른 증강현실 장치(100) 구성을 도시한 도면이다.
보다 상세하게 본 도면1은 N(N>1)개의 실제현실 데이터에 대한 색상공간 조합을 통해 객체를 인식하는 증강현실 장치(100)에서, 상기 N개의 실제현실 데이터 중 제n(1≤n<N) 실제현실 데이터를 판독하여 객체 영역을 인식하고, 상기 인식된 객체 영역에 대한 M(M>1)개의 색상공간 조합 값을 결정하고, 상기 M개의 색상공간 조합 값에 대한 가상 점을 부여하고, 상기 M개의 가상 점 정보와 가상 점 조합 순서 정보를 포함하는 가상 점 조합 정보를 구성한 후, 제(n+1) 내지 제N 실제현실 데이터를 판독하여 상기 가상 점 조합 정보에 대응하는 가상 점을 i(1≤i≤M)개 이상 포함하고, 상기 i개의 가상 점의 조합 순서가 상기 가상 점 조합 정보에 포함된 가상 점 조합 순서와 j(1≤j<M)회 이상 매칭되는 객체 영역을 상기 제n 실제현실 데이터로부터 인식된 객체 영역과 동일한 객체 영역으로 결정하는 구성을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면1을 참조 및/또는 변형하여 상기 증강현실 장치(100) 구성에 대한 다양한 실시 방법(예컨대, 일부 구성부가 생략되거나, 또는 세분화되거나, 또는 합쳐진 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면1에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.
본 발명의 증강현실 장치(100)는 실제현실 데이터를 획득하는 기능, 가상현실 데이터를 획득하는 기능, 상기 실제현실 데이터로부터 가상현실 데이터를 표시할 객체를 결정하는 기능, 상기 실제현실 데이터 상의 객체에 가상현실 데이터를 표시하여 출력하는 기능을 구비한 장치의 총칭으로서, 상기 실제현실 데이터를 획득하는 방식, 가상현실 데이터를 획득하는 방식, 객체를 결정하는 방식 및 상기 객체에 가상현실 데이터를 표시하는 방식에 의해 한정되지 아니한다. 예를들어, 상기 실제현실 데이터는 카메라를 통해 실시간 입력되거나, 또는 장치 내 메모리에 저장되어 있거나, 또는 통신망을 통해 수신될 수 있다. 상기 가상현실 데이터는 장치 내 메모리에 저장되어 있거나, 또는 통신망을 통해 수신되거나, 또는 미리 준비된 하나 이상의 폴리곤(Polygon) 데이터와 텍스쳐(Texture) 데이터를 조합하여 실시간 생성될 수 있다. 상기 객체에 가상현실 데이터를 표시하는 방식은 실제현실 데이터와 가상현실 데이터를 조합한 하나의 출력 데이터를 생성하여 표시하는 방식, 출력 데이터에 실제현실 계층(Layer)와 가상현실 계층을 구비하고 실제현실 데이터는 실제현실 계층에 표시하고 가상현실 데이터는 가상현실 계층에 표시하는 방식, 투명 디스플레이 너머의 객체 위치에 가상현실 데이터만 표시하는 방식이 사용될 수 있다.
또한, 상기 증강현실 장치(100)는 장치를 구성하는 구조에 의해 한정되지 아니한다. 예를들어, 상기 증강현실 장치(100)는 하나의 케이스 내에 각 구성부가 통합 구비된 독립 장치 형태, 연결된 두개 이상의 장치에 각 구성부가 분리되어 구비된 연동 장치 형태, 특정 물건/건물/공간에 설치된 형태 등으로 구현될 수 있다.
도면1을 참조하면, 상기 증강현실 장치(100)는, 제어부(105), 메모리부(135) 및 출력부(110)를 구비하며, 실제현실 데이터를 획득하는 방식에 따라 카메라부(130)를 더 구비하고, 가상현실 데이터를 획득하는 방식에 따라 통신부(120)를 더 구비하고, 실제현실 데이터 상의 객체를 결정하는 방식에 따라 센서부(125)를 더 구비하고, 사용자 조작을 위한 조작부(115)를 더 구비할 수 있다.
상기 제어부(105)는 물리적으로 프로세서와 실행 메모리와 버스를 포함하며, 기능적으로 상기 증강현실 장치(100)에 구비된 프로그램이 상기 실행 메모리로 로드되어 상기 프로세서에 의해 연산되도록 처리하는 기록매체 기능을 수행한다. 이에 본 도면1은 상기 증강현실 장치(100)에 구비되는 프로그램 구성부를 편의상 상기 제어부(105) 내에 도시하여 설명하기로 한다.
상기 메모리부(135)는 비휘발성 메모리를 포함하며, 기능적으로 상기 제어부(105)로 로딩될 프로그램 코드와 상기 프로그램 코드가 사용하는 데이터 셋트를 저장/유지하는 저장매체 기능을 수행한다. 여기서, 상기 프로그램 코드는 상기 증강현실 장치(100)의 기본 동작을 운영/제어하는 시스템 프로그램 코드와, 상기 증강현실 장치(100)에 구비되는 각종 애플리케이션 서비스를 제공하는 응용 프로그램 코드를 포함한다.
본 발명의 실시 방법에 따르면, 상기 메모리부(135)는 상기 실제현실 데이터를 저장할 수 있으며, 이 경우 상기 메모리부(135)는 상기 실제현실 데이터를 획득하는 실제현실 획득수단의 기능을 수행할 수 있다.
본 발명의 실시 방법에 따르면, 상기 메모리부(135)는 상기 가상현실 데이터를 저장할 수 있으며, 이 경우 상기 메모리부(135)는 상기 가상현실 데이터를 획득하는 가상현실 획득수단의 기능을 수행할 수 있다.
상기 출력부(110)는 실제현실 데이터 상의 객체에 가상현실 데이터를 표시하는 출력장치를 포함하며, LCD와 같은 일반 출력장치와 안경, 고글, 유리창과 같은 투명 출력장치 중 어느 하나를 포함할 수 있다.
상기 카메라부(130)는 광학부와 CCD(Charge Coupled Device)로 구성된 카메라로부터 래스터(Raster) 기반의 실제현실 데이터를 비트맵 방식으로 독출하는 장치를 포함한다. 여기서, 상기 실제현실 데이터는 이미지 데이터 또는 동영상 데이터를 포함할 수 있다. 본 발명에 따르면, 상기 카메라부(130)는 상기 획득되는 실제현실 데이터 중 센서 입력에 필요한 특정 데이터만 선택적으로 획득하는 센서부(125)의 기능을 더 수행할 수 있다.
본 발명의 실시 방법에 따르면, 상기 카메라부(130)는 상기 실제현실 데이터를 실시간 획득하는 실제현실 획득수단의 기능을 수행할 수 있다.
상기 통신부(120)는 어느 하나의 통신 규격과 프로토콜에 따라 유선 통신망과 무선 통신망 중 어느 하나의 통신망에 접속하는 통신모듈을 포함하며, 상기 통신망을 서버(또는 장치)와 통신채널을 연결하거나 또는 다른 증강현실 장치(100)와 통신채널을 연결하는 기능을 수행한다.
본 발명의 실시 방법에 따르면, 상기 통신부(120)는 통신망 상의 서버(또는 장치)에 저장된 실제현실 데이터를 수신하는 실제현실 획득수단의 기능을 수행할 수 있다.
본 발명의 실시 방법에 따르면, 상기 통신부(120)는 통신망 상의 서버(또는 장치)에 저장된 가상현실 데이터를 수신하는 가상현실 획득수단의 기능을 수행할 수 있다.
상기 센서부(125)는 어느 하나의 센서로부터 아날로그 신호 또는 디지털 신호 형태의 센서신호를 획득하는 장치를 포함한다. 여기서, 상기 센서는 환경 변화에 따라 전기적 신호(예컨대, 저항, 전류, 전압)를 발생시키는 전기적 신호 센서와, 상기 카메라와 같이 실제현실 데이터를 획득한 후 상기 실제현실 데이터 중 센서 입력에 필요한 특정 데이터만 선택적으로 획득하는 카메라 센서를 포함할 수 있다. 본 발명에 따르면, 상기 센서가 카메라 센서를 포함하는 경우 상기 센서부(125)는 상기 카메라부(130)와 통합될 수 있다.
상기 조작부(115)는 상기 증강현실 장치(100)에 사용자 조작이 필요한 경우, 상기 사용자 조작을 입력받는 장치를 포함한다. 상기 조작부(115)는 키 버튼을 구비하여 사용자 조작에 필요한 정보를 키 입력받는 키 입력 모듈과, 상기 출력부(110)와 연동하여 통해 사용자 조작에 필요한 정보를 입력받는 터치 스크린 모듈을 포함하며, 상기 카메라부(130) 또는 센서부(125)와 연동하여 사용자의 손 동작, 몸 동작 및 눈 움직임 중 어느 하나를 인식하여 사용자 조작에 필요한 정보를 입력받는 사용자 인식 모듈을 더 포함할 수 있다.
도면1을 참조하면, 상기 증강현실 장치(100)는, 하나 이상의 실제현실 획득수단을 통해 실제현실 데이터를 입력하는 실제현실 입력부(140)와, 상기 N개의 실제현실 데이터 중 제n(1≤n<N) 실제현실 데이터를 판독하여 객체 영역을 인식하는 객체 영역 인식부(145)와, 상기 인식된 객체 영역에 대한 M(M>1)개의 색상공간 조합 값을 결정하는 색상공간 결정부(150)와, 상기 M개의 색상공간 조합 값에 대한 가상 점을 부여하고, 상기 M개의 가상 점 정보와 가상 점 조합 순서 정보를 포함하는 가상 점 조합 정보를 구성하는 가상 점 조합부(155)와, 제(n+1) 내지 제N 실제현실 데이터를 판독하여 상기 가상 점 조합 정보에 대응하는 가상 점을 i(1≤i≤M)개 이상 포함하고, 상기 i개의 가상 점의 조합 순서가 상기 가상 점 조합 정보에 포함된 가상 점 조합 순서와 j(1≤j<M)회 이상 매칭되는 객체 영역을 상기 제n 실제현실 데이터로부터 인식된 객체 영역과 동일한 객체 영역으로 결정하는 객체 영역 결정부(160)와, 상기 객체 영역에 대응하는 객체에 표시할 가상현실 데이터를 결정하는 가상현실 결정부(165)와, 하나 이상의 가상현실 획득수단을 통해 상기 결정된 가사현실 데이터를 입력하는 가상현실 입력부(170)와, 상기 가상현실 데이터를 상기 실제현실 데이터 상의 객체에 표시하여 상기 출력부(110)를 통해 출력하는 증강현실 출력부(175)를 구비한다. 본 발명의 실시 방법에 따르면, 상기 실제현실 입력부(140), 객체 영역 인식부(145), 색상공간 결정부(150), 가상 점 조합부(155), 객체 영역 결정부(160), 가상현실 결정부(165) 중 하나 이상의 구성부는 상기 제어부(105), 메모리부(135), 출력부(110), 센서부(125), 카메라부(130) 및 통신부(120)를 구비한 증강현실 장치(100)와 연결된 서버에 구비될 수 있으며, 실시 방법에 따라 일부 구성요소는 증강현실 장치(100)에 구비되고 나머지 구성부는 상기 서버에 구비될 수 있다.
상기 실제현실 입력부(140)는 상기 카메라부(130)를 통해 입력되는 데이터를 가상현실 데이터를 표시하여 상기 출력부(110)를 통해 출력할 실제현실 데이터로 입력하거나, 또는 상기 메모리부(135)에 저장되어 있거나 또는 상기 메모리부(135)로 실시간 저장되는 데이터를 가상현실 데이터를 표시하여 상기 출력부(110)를 통해 출력할 실제현실 데이터로 입력하거나, 또는 상기 통신부(120)를 통해 수신되는 데이터를 가상현실 데이터를 표시하여 상기 출력부(110)를 통해 출력할 실제현실 데이터로 입력한다.
본 발명의 실시 방법에 따르면, 상기 실제현실 입력부(140)는 N(N>1)개의 실제현실 데이터를 제1 실제현실 데이터부터 제N 실제현실 데이터까지 순차적으로 입력한다.
만약 상기 실제현실 입력부(140)를 통해 입력되는 N개의 실제현실 데이터 중 제n(1≤n<N) 실제현실 데이터가 입력되면, 상기 객체 영역 인식부(145)는 상기 제n 실제현실 데이터로부터 색상/채도 값을 추출하고, 상기 추출된 색상/채도 값을 판독하여 상기 색상/채도를 기준으로 구분되는 영역의 경계 선을 확인한 후, 상기 경계 선을 기준으로 상기 실제현실 데이터에 포함된 객체 영역을 인식한다.
상기 객체 영역이 인식되면, 상기 색상공간 결정부(150)는 도면2와 같이 상기 인식된 객체 영역에 대한 M(M>1)개의 색상공간 조합 값을 결정한다.
여기서, 상기 색상공간 조합 값은, m(m≥3)각형의 기하학 구조의 각 꼭지점 위치에 m개의 색상을 포함하여 이루어진 색상공간을 포함한다.
본 발명의 실시 방법에 따르면, 상기 색상공간 결정부(150)는, 상기 객체 영역의 경계 영역으로부터 상기 색상공간 조합 값을 결정하거나, 또는 상기 객체 영역 중 색상 값이 다양한 영역, 또는 보색 관계의 색상 값을 포함하고 있는 영역으로부터 상기 색상공간 조합 값을 결정할 수 있다.
본 발명의 실시 방법에 따르면, 상기 색상공간 결정부(150)는, 상기 인식된 객체 영역의 픽셀을 k개의 픽셀 영역으로 분할한 후, 각 픽셀 영역의 색상 값의 평균 값을 결정하고, 상기 픽셀 영역 별 색상 평균 값을 통해 상기 M개의 색상공간 조합 값을 결정할 수 있다.
상기 제n 실제현실 데이터로부터 색상공간 조합 값이 결정되면, 상기 가상 점 조합부(155)는 도면3과 같이 상기 M개의 색상공간 조합 값에 대한 M개의 가상 점을 부여하고, 상기 부여된 M개의 가상 점 정보와 가상 점 조합 순서 정보를 포함하는 가상 점 조합 정보를 구성한다.
본 발명의 실시 방법에 따르면, 상기 가상 점 조합부(155)는 도면3 또는 도면4에 도시된 바와 같이 상기 M개의 가상 점 중 제m(1≤m<M) 가상 점의 색상공간 값에 대응하는 픽셀 중 어느 하나의 픽셀(m)이 제(m+1) 가상 점의 색상공간 값에 대응하는 픽셀 중 어느 하나의 픽셀(m+1)과 중복되도록 셀 결합 방식으로 조합한다.
상기 가상 점 조합 정보가 구성되면, 상기 객체 영역 결정부(160)는 상기 실제현실 입력부(140)를 통해 순차적으로 입력되는 제(n+1) 내지 제N 실제현실 데이터를 판독하여 상기 가상 점 조합 정보에 대응하는 가상 점을 i(1≤i≤M)개 이상 포함하고, 상기 i개의 가상 점의 조합 순서가 상기 가상 점 조합 정보에 포함된 가상 점 조합 순서와 j(1≤j<M)회 이상 매칭되는 객체 영역을 확인한 후, 상기 i개의 가상 점을 포함하고 j개의 가상 점 조합 순서에 대응하는 객체 영역을 상기 제n 실제현실 데이터로부터 인식된 객체 영역과 동일한 객체 영역으로 결정한다.
본 발명의 실시 방법에 따르면, 제(n+1) 내지 제N 실제현실 데이터로부터 검출되는 가상 점에 대응하는 색상공간 조합 값에 포함된 색상 값들은 도면5에 예시된 바와 같이 상기 실제현실 데이터를 촬영하는 조명의 영향에 의해 특정 색상 값으로 쉬프트(Shift)되는 색상 변형 값을 포함할 수 있으며, 상기 객체 영역 결정부(160)는 상기 색상 값의 쉬프트를 인식하여 상기 제(n+1) 내지 제N 실제현실 데이터로부터 상기 i개의 가상 점을 포함하고 j개의 가상 점 조합 순서에 대응하는 객체 영역을 검출할 수 있다.
상기 가상현실 결정부(165)는 상기 제n 실제현실 데이터로부터 검출된 객체 영역에 대응하는 객체 및 상기 제(n+1) 내지 제N 실제현실 데이터로부터 검출된 객체 영역에 대응하는 객체에 표시할 가상현실 데이터를 결정한다. 만약 상기 실제현실 데이터 상의 객체에 표시할 가사현실 데이터가 어느 하나의 가상현실 데이터로 고정되는 경우, 상기 가상현실 결정부(165)는 상기 고정된 상기 객체 인식부를 통해 인식된 객체에 표시할 가상현실 데이터를 결정할 수 있다.
상기 가상현실 입력부(170)는 메모리에 저장되어 있거나, 또는 통신망을 통해 수신되거나, 또는 실시간 생성되는 가상현실 데이터 중 상기 가상현실 결정부(165)를 통해 결정된 가상현실 데이터를 상기 실제현실 데이터의 객체에 표시할 가상현실 데이터로 입력한다.
상기 증강현실 출력부(175)는 상기 실제현실 입력부(140)를 통해 입력되는 실제현실 데이터 상의 객체에 상기 가상현실 입력부(170)를 통해 입력되는 가상현실 데이터를 표시한 후, 상기 출력부(110)를 통해 출력한다.
본 발명의 일 실시 방법에 따르면, 상기 증강현실 출력부(175)는 상기 실제현실 데이터 상의 객체에 투명영역을 포함하는 가상현실 데이터를 중첩시켜 증강현실 데이터를 생성한 후, 상기 증강현실 데이터를 상기 출력부(110)를 통해 출력할 수 있다.
본 발명의 다른 일 실시 방법에 따르면, 상기 증강현실 출력부(175)는 실제현실 계층과 가상현실 계층을 포함하는 증강현실 데이터 포맷을 구성한 후, 상기 증강현실 데이터 포맷의 실제현실 계층에 상기 실제현실 데이터를 출력하고 상기 실제현실 데이터의 객체 위치에 대응하는 가상현실 계층에 가상현실 데이터를 출력하여 상기 출력부(110)를 통해 출력할 수 있다.
본 발명의 또다른 일 실시 방법에 따르면, 상기 출력부(110)가 투명 디스플레이를 포함하는 경우, 상기 증강현실 출력부(175)는 상기 객체 인식부를 통해 결정된 투명 디스플레이 상의 객체 위치에 상기 가상현실 데이터만 표시하여 출력할 수 있다.
도면2는 본 발명의 실시 방법에 따른 색상공간 조합 값을 결정하는 구성을 예시한 것이다.
도면2를 참조하면, 상기 색상공간 결정부(150)는 객체 영역을 구성하는 픽셀의 색상공간 조합을 결정하고, 상기 색상공간 조합에 대한 가상 점을 부여한다. 여기서, 상기 가상 점은 특정 픽셀의 위치와 무관하게 색상공간의 조합을 식별하는 가상의 점으로 부여된다.
본 발명의 실시 방법에 따르면, 상기 색상공간 결정부(150)는 상기 M개의 색상공간 조합 값 및 상기 M개의 색상공간 조합 값에 대한 M개의 가상 점을 보다 고속으로 부여하기 위해 상기 객체 영역의 픽셀을 k개의 픽셀 영역으로 분할한 후, 각 픽셀 영역의 색상 값의 평균 값을 결정하고, 상기 픽셀 영역 별 색상 평균 값을 통해 상기 M개의 색상공간 조합 값을 결정할 수 있다.
도면3은 본 발명의 실시 방법에 따른 가상 점 구성을 예시한 것이다.
도면3을 참조하면, 상기 가상 점 조합부(155)는 상기 도면2와 같이 결정된 M개의 색상공간 조합 값에 대한 M개의 가상 점을 부여하고, 상기 부여된 M개의 가상 점 정보와 가상 점 조합 순서 정보를 포함하는 가상 점 조합 정보를 구성한다.
본 발명의 실시 방법에 따르면, 상기 가상 점 조합부(155)는 상기 M개의 가상 점 중 제m(1≤m<M) 가상 점의 색상공간 값에 대응하는 픽셀 중 어느 하나의 픽셀(m)이 제(m+1) 가상 점의 색상공간 값에 대응하는 픽셀 중 어느 하나의 픽셀(m+1)과 중복되도록 셀 결합 방식으로 조합한다.
도면4는 본 발명의 실시 방법에 따른 가상 점을 통해 객체를 인식하는 구성을 예시한 것이다.
도면4를 참조하면, 상기 객체 영역 결정부(160)는 제(n+1) 내지 제N 실제현실 데이터를 판독하여 상기 가상 점 조합 정보에 대응하는 가상 점을 i(1≤i≤M)개 이상 포함하고, 상기 i개의 가상 점의 조합 순서가 상기 가상 점 조합 정보에 포함된 가상 점 조합 순서와 j(1≤j<M)회 이상 매칭되는 객체 영역을 확인한 후, 상기 i개의 가상 점을 포함하고 j개의 가상 점 조합 순서에 대응하는 객체 영역을 상기 제n 실제현실 데이터로부터 인식된 객체 영역과 동일한 객체 영역으로 결정한다.
상기 i개의 가상 점을 포함하고 j개의 가상 점 조합 순서에 대응하는 객체 영역을 검출함으로써, 상기 객체 영역 결정부(160)는 제n 실제현실 데이터로부터 인식된 객체의 일부분이 장애물에 가려지더라도 노출된 몇몇 가상 점들에 대한 가상 점 조합 정보를 통해 상기 객체를 인식할 수 있다.
즉, 도면4에서 P01과 P02, P03의 가상 점 조합 정보를 통해 객체를 인식하고자 하면, P01과 P02, P03을 통한 C01 -C02 - C03 ? C04 - C13 - C14 - C15 ? C16의 색상공간 조합을 확인하는 것만으로 해당 객체를 인식할 수 있다. 물론 상기 가상 점들이 P01~P03 보다 많은 가상 점들이라면 보다 정확한 객체를 인식할 수 있다. 여기서, 중요한 점은 가상 점들이 많고 적음 보다는 P1~Pn으로 구성된 객체의 색상공간 조합 값 중 일부분의 가상 점들의 연결을 검출하는 것만으로 상기 객체가 변화하더라도 인식이 가능하다는 점이다.
도면5는 본 발명의 실시 방법에 따른 색상공간 조합의 변형을 인식하는 구성을 예시한 것이다.
도면5를 참조하면, 상기 객체 영역 결정부(160)는 제(n+1) 내지 제N 실제현실 데이터로부터 검출되는 가상 점에 대응하는 색상공간 조합 값에 포함된 색상 값들은 도면5에 예시된 바와 같이 상기 실제현실 데이터를 촬영하는 조명의 영향에 의해 특정 색상 값으로 쉬프트(Shift)되는 색상 변형 값을 포함할 수 있으며, 상기 객체 영역 결정부(160)는 상기 색상 값의 쉬프트를 인식하여 상기 제(n+1) 내지 제N 실제현실 데이터로부터 상기 i개의 가상 점을 포함하고 j개의 가상 점 조합 순서에 대응하는 객체 영역을 검출할 수 있다.
즉, 조명의 영향과 같은 외부 환경 변화를 통해 ‘Red?Red’ 조합이 ‘Orange-Orange’나 ‘Red?Orange’로 바뀌더라도, 상기 변화된 색상공간 조합 값을 확인하여 객체를 재인식할 수 있다.
도면6은 본 발명의 실시 방법에 따라 가상 점을 통해 객체를 인식하는 과정을 도시한 도면이다.
보다 상세하게 본 도면6은 상기 도면1에 도시된 증강현실 장치(100)에서 N개의 실제현실 데이터 중 제n(1≤n<N) 실제현실 데이터를 판독하여 객체 영역을 인식하고, 상기 인식된 객체 영역에 대한 M(M>1)개의 색상공간 조합 값을 결정하고, 상기 M개의 색상공간 조합 값에 대한 가상 점을 부여하고, 상기 M개의 가상 점 정보와 가상 점 조합 순서 정보를 포함하는 가상 점 조합 정보를 구성한 후, 제(n+1) 내지 제N 실제현실 데이터를 판독하여 상기 가상 점 조합 정보에 대응하는 가상 점을 i(1≤i≤M)개 이상 포함하고, 상기 i개의 가상 점의 조합 순서가 상기 가상 점 조합 정보에 포함된 가상 점 조합 순서와 j(1≤j<M)회 이상 매칭되는 객체 영역을 상기 제n 실제현실 데이터로부터 인식된 객체 영역과 동일한 객체 영역으로 결정하는 과정을 도시한 것으로서, 본 발명이 속한 기술분야에서 통상의 지식을 가진 자라면, 본 도면6을 참조 및/또는 변형하여 상기 가상 점을 통해 객체를 인식하는 과정에 대한 다양한 실시 방법(예컨대, 일부 단계가 생략되거나, 또는 순서가 변경된 실시 방법)을 유추할 수 있을 것이나, 본 발명은 상기 유추되는 모든 실시 방법을 포함하여 이루어지며, 본 도면6에 도시된 실시 방법만으로 그 기술적 특징이 한정되지 아니한다.
도면6을 참조하면, 증강현실 장치(100)는 N(N>1)개의 실제현실 데이터 중 제n(1≤n<N) 실제현실 데이터를 입력하고(600), 상기 제n 실제현실 데이터를 판독하여 객체 영역을 인식하며(605), 이 경우 상기 증강현실 장치(100)는 상기 객체 영역에 대응하는 객체에 표시할 가상현실 데이터를 결정하고(640), 상기 제n 실제현실 데이터 상의 객체에 상기 결정된 가상현실 데이터를 출력한다(645).
상기 제n 실제현실 데이터로부터 객체 영역이 인식되면, 상기 증강현실 장치(100)는 상기 인식된 객체 영역에 대한 M(M>1)개의 색상공간 조합 값을 결정한다(610).
만약 상기 제n 실제현실 데이터로부터 M(M>1)개의 색상공간 조합 값이 결정되면(615), 상기 증강현실 장치(100)는 상기 M개의 색상공간 조합 값에 대한 가상 점을 부여하고(620), 상기 M개의 가상 점 정보와 가상 점 조합 순서 정보를 포함하는 가상 점 조합 정보를 구성한 후(625), 제(n+1) 내지 제N 실제현실 데이터를 판독하여 상기 가상 점 조합 정보에 대응하는 가상 점을 i(1≤i≤M)개 이상 포함하고, 상기 i개의 가상 점의 조합 순서가 상기 가상 점 조합 정보에 포함된 가상 점 조합 순서와 j(1≤j<M)회 이상 매칭되는 객체 영역을 상기 제n 실제현실 데이터로부터 인식된 객체 영역과 동일한 객체 영역으로 결정한다(630).
만약 상기 제(n+1) 내지 제N 실제현실 데이터로부터 상기 i개의 가상 점을 포함하고 j개의 가상 점 조합 순서에 대응하는 객체 영역이 검출되면(635), 상기 증강현실 장치(100)는 상기 객체 영역에 대응하는 객체에 표시할 가상현실 데이터를 결정하고(640), 상기 제n 실제현실 데이터 상의 객체에 상기 결정된 가상현실 데이터를 출력한다(645).
100 : 증강현실 장치 140 : 실제현실 입력부
145 : 객체 영역 인식부 150 : 색상공간 결정부
155 : 가상 점 조합부 160 : 객체 영역 결정부
165 : 가상현실 결정부 170 :가상현실 입력부
175 : 증강현실 출력부

Claims (3)

  1. 카메라를 구비한 증강현실장치에서 실행되는 방법에 있어서,
    상기 카메라를 통해 실시간 입력되는 실제현실 데이터 중 제n(n≥1)번째 실제현실 데이터를 판독하여 상기 제n번째 실제현실 데이터 상의 객체 영역을 인식하는 제1 단계;
    상기 제n번째 실제현실 데이터 상에서 인식된 객체 영역의 픽셀을 k개의 픽셀 영역으로 분할한 후 각 픽셀 영역의 색상 값의 평균 값을 결정하고 상기 픽셀 영역 별 색상 평균 값을 이용하여 상기 제n번째 실제현실 데이터 이후에 상기 카메라를 통해 실시간 입력될 적어도 하나의 실제현실 데이터 상에서 상기 제n번째 실제현실 데이터에서 인식된 객체 영역에 대응하는 객체 영역을 판별하기 위한 M(M>1)개의 색상공간 조합 값을 결정하는 제2 단계;
    상기 M개의 색상공간 조합 값에 대한 가상 점을 부여하고 상기 M개의 가상 점 정보와 가상 점 조합 순서 정보를 포함하는 가상 점 조합 정보를 구성하는 제3 단계;
    상기 카메라를 통해 실시간 입력되는 제(n+1) 내지 제N(N>n) 실제현실 데이터 중 적어도 하나의 실제현실 데이터를 판독하여 상기 가상 점 조합 정보에 대응하는 가상 점을 i(1≤i≤M)개 포함하고, 상기 i개의 가상 점의 조합 순서가 상기 가상 점 조합 정보에 포함된 가상 점 조합 순서와 적어도 j(1≤j<M)회 매칭되는 영역을 상기 제n 실제현실 데이터로부터 인식된 객체 영역과 동일한 객체 영역으로 결정하는 제4 단계;를 포함하는 가상 점을 이용한 증강현실 제공 방법.
  2. 삭제
  3. 제 1항에 있어서, 상기 제3 단계는,
    제m(1≤m<M) 가상 점의 색상공간 값에 대응하는 픽셀 중 어느 하나의 픽셀(m)이 제(m+1) 가상 점의 색상공간 값에 대응하는 픽셀 중 어느 하나의 픽셀(m+1)과 중복되도록 셀 결합 방식으로 조합하는 것을 특징으로 하는 가상 점을 이용한 증강현실 제공 방법.

KR1020100055785A 2010-06-14 2010-06-14 가상 점을 이용한 증강현실 제공 방법 KR101692764B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100055785A KR101692764B1 (ko) 2010-06-14 2010-06-14 가상 점을 이용한 증강현실 제공 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100055785A KR101692764B1 (ko) 2010-06-14 2010-06-14 가상 점을 이용한 증강현실 제공 방법

Publications (2)

Publication Number Publication Date
KR20110136028A KR20110136028A (ko) 2011-12-21
KR101692764B1 true KR101692764B1 (ko) 2017-01-05

Family

ID=45502726

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100055785A KR101692764B1 (ko) 2010-06-14 2010-06-14 가상 점을 이용한 증강현실 제공 방법

Country Status (1)

Country Link
KR (1) KR101692764B1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150127503A (ko) 2014-05-07 2015-11-17 에스케이플래닛 주식회사 객체 인식 서비스 제공 시스템 및 방법, 그리고 이를 위한 장치 및 컴퓨터 프로그램이 기록된 기록매체
CN106530410B (zh) * 2016-11-04 2019-03-12 快创科技(大连)有限公司 一种基于增强现实技术的汽车组装演示系统
KR102005526B1 (ko) * 2017-10-19 2019-07-30 에스케이텔레콤 주식회사 증강 현실 표시 방법 및 장치
KR102264754B1 (ko) * 2017-12-29 2021-06-11 엘에스일렉트릭(주) 증강 현실 제공 시스템 및 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100647285B1 (ko) * 2003-08-20 2006-11-23 삼성전자주식회사 인공마크를 이용한 지능형 시스템의 자기위치인식장치 및방법과 이를 이용한 지능형 시스템
CN101453660A (zh) 2007-12-07 2009-06-10 华为技术有限公司 一种视频目标跟踪方法和装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100346259B1 (ko) * 1999-05-29 2002-07-26 엘지전자주식회사 다수개의 영역특징정보를 이용한 이미지 검색 방법
KR20080005798A (ko) * 2006-07-10 2008-01-15 (주)유리시스 모션트랙킹 기술과 증강현실 기법을 활용한 인지 및행동장애 재활 지원시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100647285B1 (ko) * 2003-08-20 2006-11-23 삼성전자주식회사 인공마크를 이용한 지능형 시스템의 자기위치인식장치 및방법과 이를 이용한 지능형 시스템
CN101453660A (zh) 2007-12-07 2009-06-10 华为技术有限公司 一种视频目标跟踪方法和装置

Also Published As

Publication number Publication date
KR20110136028A (ko) 2011-12-21

Similar Documents

Publication Publication Date Title
CN108293105B (zh) 监控装置、监控系统以及监控方法
CN105592310B (zh) 用于投影仪校准的方法和系统
US11070749B2 (en) Image processing method and apparatus
US20090135266A1 (en) System for scribing a visible label
KR101692764B1 (ko) 가상 점을 이용한 증강현실 제공 방법
US10282819B2 (en) Image display control to grasp information about image
KR101619512B1 (ko) 증강현실 장치 간 정보 공유 방법
KR20110136038A (ko) 복수개의 센서를 이용한 증강현실 장치 방향 트래킹 시스템
KR20110136018A (ko) 알에프아이디 리더를 구비한 증강현실 장치
KR20160068186A (ko) 증강 현실 컨텐츠 제공 장치 및 방법
KR101638630B1 (ko) 증강현실 데이터 최적화 방법
US20210190594A1 (en) Personal electronic device with built-in visible camera and thermal sensor with thermal information available in the visible camera user interface and display
KR101236644B1 (ko) 마커 정보의 실시간 변경 및 다수의 마커 제작을 위한 증강현실 기반의 적외선 마커 활용 방법
KR20170086005A (ko) 거리 차이를 이용한 증강현실 제공 방법
KR20110136035A (ko) 실제현실 적응형 증강현실 장치
KR20120009639A (ko) 사용자 조건을 이용한 선택적 가상객체 데이터 운용방법 및 이를 위한 증강현실 장치와, 기록매체
KR101488647B1 (ko) 모바일 단말의 가상 조명 동작방법 및 장치
KR20120026711A (ko) 오디오 객체 출력 방법 및 이를 위한 증강현실 장치
KR101792250B1 (ko) 실제현실 적응형 증강현실 제공 방법
KR101680124B1 (ko) 이종 플랫폼 간 증강현실 전달 방법
KR101803532B1 (ko) 증강현실 품질 제어 방법
EP2961170A1 (en) Multiple rasterizing displays for multiple rois in an overlaid display
CN117156108B (zh) 一种用于机房设备监控画面的增强显示系统及方法
KR101705122B1 (ko) 증강현실을 이용한 오디오객체 운영 방법
US10217245B2 (en) Method and system for chroma keying

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20191230

Year of fee payment: 4