KR101281314B1 - 증강현실시스템 및 증강현실구현방법 - Google Patents

증강현실시스템 및 증강현실구현방법 Download PDF

Info

Publication number
KR101281314B1
KR101281314B1 KR1020130017238A KR20130017238A KR101281314B1 KR 101281314 B1 KR101281314 B1 KR 101281314B1 KR 1020130017238 A KR1020130017238 A KR 1020130017238A KR 20130017238 A KR20130017238 A KR 20130017238A KR 101281314 B1 KR101281314 B1 KR 101281314B1
Authority
KR
South Korea
Prior art keywords
marker
augmented reality
image
target
actual image
Prior art date
Application number
KR1020130017238A
Other languages
English (en)
Inventor
구덕회
Original Assignee
구덕회
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 구덕회 filed Critical 구덕회
Priority to KR1020130017238A priority Critical patent/KR101281314B1/ko
Application granted granted Critical
Publication of KR101281314B1 publication Critical patent/KR101281314B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

마커의 유실시에도 가상의 컨텐츠가 계속 재생될 수 있도록 하여, 증강현실의 구현이 단절되지 않고 연속적으로 일어날 수 있도록 하는 증강현실시스템 및 구현방법이 개시되어 있다. 본 발명인 증강현실시스템은 실제의 영상을 수신하는 수신장치(10), 상기 실제의 영상으로부터 마커를 인식하는 추적장치(20), 상기 마커의 유실을 인식하는 경우 임의의 좌표로 위치를 지정하는 모션처리장치(30), 상기 좌표에 타겟을 활성화하는 합성장치(40) 및 상기 합성장치가 합성한 영상을 실제의 영상 위에 송출하는 표시장치(50)로 이루어진다. 상술한 구성을 통해서, 본 발명인 증강현실시스템 및 구현방법은 마커의 유실시에도 종래에 재생되던 가상의 영상이 지속적으로 현시될 수 있는 연속적인 증강현실을 구현할 수 있다. 이러한 효과를 통하여 연속적인 증강현실의 구현이 가능해 짐에 따라서 사용자 인터페이스적인 증강현실기술을 제공할 수 있는 이점이 있다.

Description

증강현실시스템 및 증강현실구현방법{System and method for augmented reality}
본 발명은 증강현실시스템 및 증강현실구현방법에 관한 것으로, 더욱 상세하게는 마커가 인식될 경우에만 타겟이 활동하고, 마커가 상실될 경우에는 타겟이 소멸해버리는 종래의 기술과는 달리, 마커의 유실에도 불구하고 타겟이 지속적으로 현출될 수 있는 증강현실시스템 및 증강현실구현방법에 관한 것이다.
증강현실이란 실제 환경에 컴퓨터 그래픽 등의 영상을 삽입하여 실제 영상과 가상의 영상을 혼합한 것을 의미하며, 증강현실 시스템은 실제 세계와 가상 세계를 결합함으로써 실시간으로 사용자와 상호작용이 이루어지도록 하는 것이다. 이는 가상현실의 변화된 형태로 실제 환경에 가상의 컨텐츠를 첨가하여 현시함으로써 사용자의 지각 및 현실과 상호작용하기 위한 목적으로 사용된다. 이러한 증강현실은 특허출원번호 10-2010-0026720과 같은 광학기반시스템 또는 특허출원번호 10-2009-0128910과 같은 영상기반시스템으로 설계될 수 있으나, 이러한 증강현실시스템은 대부분 물리적 객체에 연관된 정보를 실재감 있게 증강하는데에만 초점을 두고, 사용자가 인식하는 영상에 대한 고려 없이 획일적인 합성 영상을 제공함으로써 가상영상의 구현시 영상이 단절되는 현상을 야기하는 문제가 있다. 즉, 영상기반시스템의 경우를 설명하면, 카메라를 통하여 실제의 영상을 획득한 다음에 이 위에 가상의 컨텐츠를 합성하는 과정에서 정보의 구분 및 인식을 위하여 마커라는 이미지를 사용하게 되는데, 종래의 증강현실은 도 1에서 보는 바와 같이 마커를 인식하여 구동되는 최초의 증강현실 구현시에는 가상의 컨텐츠가 재생이 되면서 실제의 영상에 합성이 되지만, 마커가 화면에서 사라질 경우에는 가상의 컨텐츠도 같이 사라져버리는 문제가 발생하여 증강현실의 구현의 불안정과 미비를 가져오는 한계가 있다. 이는 종래의 증강현실기술은 마커를 인식하면 합성을 시작하고, 마커가 인식되지 않으면 합성이 중단되는 단절구조를 취하고 있기 때문인 것으로서 본 발명을 통하여 이러한 종래의 문제를 해결하고자 한다.
본 발명의 목적은 상술한 종래의 증강현실기술과는 달리 마커의 유실시에도 가상의 컨텐츠가 계속 재생될 수 있도록 하여, 증강현실의 구현이 단절되지 않고 연속적으로 일어날 수 있도록 함에 있다.
본 발명의 다른 목적은 상기 기능을 제공할 수 있으면서도 간단한 좌표설정 및 인식만으로서 이러한 문제를 해결함으로서 효율적인 증강현실 시스템 및 구현방법을 제공함에 있다.
증강현실은 실제의 세계에 가상의 영상을 합성하여 재생하는 것으로서, 영상의 단절이 없이 컨텐츠가 재생될 수 있느냐가 곧 기술의 품질을 좌우하게 되는 것이므로, 본 발명을 통하여 종래 기술의 영상재생의 단절성을 극복한 고품질의 증강현실구현 시스템 및 방법을 제공하고자한다.
상기 목적을 달성하기 위해서 본 발명의 바람직한 일 실시 예에 의하면, 본 발명인 증강현실시스템은 실제의 영상을 수신하는 수신장치(10), 상기 실제의 영상으로부터 마커를 인식하는 추적장치(20), 상기 마커의 유실을 인식하는 경우 임의의 좌표로 위치를 지정하는 모션처리장치(30), 상기 좌표에 타겟을 활성화하는 합성장치(40) 및 상기 합성장치가 합성한 영상을 실제의 영상 위에 송출하는 표시장치(50)로 이루어진다.
본 발명의 다른 실시 예에 의하면, 본 발명인 증강현실구현방법은 실제의 영상을 수신장치(10)로부터 수신하는 제1 단계(S1), 상기 실제의 영상으로부터 마커(M)를 인식하는 제2 단계(S2), 상기 마커(M)의 인식으로 인하여 타겟(T)이 활성화되는 제3 단계(S3), 상기 마커(M)의 유실을 인식하는 경우 임의의 좌표(X)로 위치를 지정하고 저장하는 제4 단계(S4), 상기 좌표(X)에 타겟(T)을 활성화하는 제5 단계(S5) 및 상기 실제의 영상 위에 활성화된 상기 타겟(T)이 합성되어 송출되는 제6 단계(S6)로 이루어진다.
본 발명의 또 다른 실시 예에 의하면, 본 발명인 증강현실구현방법은 상기 제6 단계(S6) 이후에 상기 마커(M)를 다시 인식할 경우에는 상기 좌표(X)가 상기 마커(M)로 이동되어 상기 타겟(T)이 활성화되는 제7 단계(S7)가 이루어진다.
상술한 구성을 통해서, 본 발명인 증강현실시스템 및 구현방법은 마커의 유실시에도 종래에 재생되던 가상의 영상이 지속적으로 현시될 수 있는 연속적인 증강현실을 구현할 수 있다. 이러한 효과를 통하여 연속적인 증강현실의 구현이 가능해 짐에 따라서 사용자 인터페이스적인 증강현실기술을 제공할 수 있는 이점이 있다.
도 1은 종래기술의 문제를 보여주는 사진이다.
도 2는 본 발명의 일 실시 예에 의한 증강현실시스템의 구성도이다.
도 3은 본 발명의 다른 실시 예에 의한 증강현실구현방법의 설명도이다.
도 4는 본 발명에 의한 효과를 나타내는 사진이다.
도 5는 본 발명에 의한 효과를 나타내는 사진이다.
도 2를 참고하여 본 발명의 바람직한 일 실시 예를 설명하면, 본 발명인 증강현실시스템은 크게 수신장치(10), 추적장치(20), 모션처리장치(30), 합성장치(40) 및 표시장치(50)로 이루어진다.
수신장치(10)는 실제의 영상을 획득하기 위한 장치로서, 카메라 렌즈 등의 촬영장치를 통하여 영상을 수신한다.
추적장치(20)는 상기 수신장치(10)를 통하여 입수된 정보를 통하여 마커가 등장하면 마커를 인식하고 추적한다.
모션처리장치(30)는 마커가 수신장치(10)로부터 계속 수신되고 추적장치(20)를 통하여 계속 추적될 경우에는 작동하지 않으나, 추적장치(20)가 상기 마커의 유실을 인식하는 경우에는 임의의 좌표로 위치를 지정한다.
합성장치(40)는 지정된 상기 좌표에 가상영상의 컨텐츠로 구성된 타겟을 활성화한다. 즉, 상기 모션처리장치(30)의 매개를 통하여 마커의 유실에도 불구하고 마커가 유실되지 않은 것처럼 좌표를 새로이 설정하는 중간처리를 해 줌으로써 합성장치(40)에서의 영상합성이 단절되지 않고 연속적으로 일어나도록 유인하는 것이다.
표시장치(50)는 상기 합성장치(40)가 합성한 영상을 실제의 영상 위에 송출함으로써 사용자가 실제와 가상의 영상을 지속적으로 체험가능하게 한다.
도 3을 참고하여, 본 발명의 다른 실시 예를 설명하면, 본 발명인 증강현실구현방법의 제1 단계(S1)는 실제의 영상을 수신장치(10)로부터 수신한다. 제2 단계(S2)는 상기 실제의 영상 안에 들어온 마커(M)를 수신장치(10)를 통하여 인식한다. 제3 단계(S3)는 상기 마커(M)의 인식으로 인하여 가상의 컨텐츠인 타겟(T)이 활성화된다. 타겟(T)을 통하여 재생되는 내용은 음성 및 영상이 혼합된 비디오물일 수도 있으며, 단순 음성일 수도 있으며, 사진이나 캐릭터 일 수도 있다. 제4 단계(S4)는 상기 마커(M)가 수신장치(10)로 수신되지 않음으로 인하여 상기 마커(M)의 유실이 일어나는 경우, 임의의 좌표(X) 위치를 지정하고 저장한다. 바람직하게는 상기 좌표(X)의 위치는 표시장치(50)를 통하여 현시되는 화면 중간 또는 화면의 좌측 또는 화면의 우측일 수 있으며, 이러한 위치 지정을 통하여 상기 마커(M)의 유실에도 불구하고 미리 지정된 위치에 타겟(T)이 고정되어 가상의 영상이 지속적으로 송출될 수 있다. 제5 단계(S5)는 지정된 상기 좌표(X)에 타겟(T)을 활성화하여 가상의 영상을 재생한다.제6 단계(S6)는 상기 실제의 영상 위에 활성화된 상기 타겟(T)이 합성되어 송출된다. 만일, 제6 단계(S6) 이후에 상기 마커(M)를 다시 인식할 경우에는 상기 좌표(X)가 상기 마커(M)로 이동되어 상기 타겟(T)이 활성화되는 제7 단계(S7)가 이루어진다.
본 발명에 의한 증강현실시스템 및 구현방법에 의하면 도 4 및 도 5에서와 같이 마커(M)의 유실시에도 타겟이 사라지는 현상이 발생하지 않도록 연계점을 구축하여 증강된 현실을 연속적으로 재생시킬 수 있다. 이러한 시스템 및 방법을 통하여 증강현실 사용자는 단절되지 않는 고품질의 증강현실을 체험할 수 있다.
앞서 설명한 본 발명을 실시하기 위한 구체적인 내용에는 본 발명의 바람직한 실시 예를 참조하여 설명하였지만, 해당 기술분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술 될 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
10 : 수신장치 20 : 추적장치
30 : 모션처리장치 40 : 합성장치
50 : 표시장치

Claims (3)

  1. 실제의 영상을 수신하는 수신장치(10);
    상기 실제의 영상으로부터 마커(M)를 인식하는 추적장치(20);
    상기 마커(M)의 유실을 인식하는 경우 임의의 좌표(X)로 위치를 지정하는 모션처리장치(30);
    상기 좌표(X)에 타겟(T)을 활성화하는 합성장치(40); 및
    상기 합성장치(40)가 합성한 영상을 실제의 영상 위에 송출하는 표시장치(50)로 이루어지는 것을 특징으로 하는 증강현실시스템.
  2. 실제의 영상을 수신장치(10)로부터 수신하는 제1 단계(S1);
    상기 실제의 영상으로부터 마커(M)를 인식하는 제2 단계(S2);
    상기 마커(M)의 인식으로 인하여 타겟(T)이 활성화되는 제3 단계(S3);
    상기 마커(M)의 유실을 인식하는 경우 임의의 좌표(X)로 위치를 지정하고 저장하는 제4 단계(S4);
    상기 좌표(X)에 타겟(T)을 활성화하는 제5 단계(S5); 및
    상기 실제의 영상 위에 활성화된 상기 타겟(T)이 합성되어 송출되는 제6 단계(S6)로 이루어지는 것을 특징으로 하는 증강현실구현방법.
  3. 제2항에 있어서, 상기 제6 단계(S6) 이후에 상기 마커(M)를 다시 인식할 경우에는 상기 좌표(X)가 상기 마커(M)로 이동되어 상기 타겟(T)이 활성화되는 제7 단계(S7)가 이루어지는 것을 특징으로 하는 증강현실구현방법.
KR1020130017238A 2013-02-18 2013-02-18 증강현실시스템 및 증강현실구현방법 KR101281314B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130017238A KR101281314B1 (ko) 2013-02-18 2013-02-18 증강현실시스템 및 증강현실구현방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130017238A KR101281314B1 (ko) 2013-02-18 2013-02-18 증강현실시스템 및 증강현실구현방법

Publications (1)

Publication Number Publication Date
KR101281314B1 true KR101281314B1 (ko) 2013-07-03

Family

ID=48996385

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130017238A KR101281314B1 (ko) 2013-02-18 2013-02-18 증강현실시스템 및 증강현실구현방법

Country Status (1)

Country Link
KR (1) KR101281314B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150125326A (ko) 2014-04-30 2015-11-09 (주)제이앤씨마케팅커뮤니케이션 인터랙티브 증강현실 서비스 시스템 및 방법
KR20150143971A (ko) 2014-06-13 2015-12-24 (주)달팽이 위치 기반의 여행용 빅데이터를 처리하기 위한 모바일 소셜 네트워크 서비스 시스템 및 그의 처리 방법
KR20160103897A (ko) * 2015-02-25 2016-09-02 이은미 증강현실 영상표시 시스템 및 증강현실 영상표시 방법
KR102099852B1 (ko) 2018-10-30 2020-04-10 한동대학교 산학협력단 증강현실 게임북을 이용한 멀티유저 증강현실 컨텐츠 제공 시스템 및 방법
KR102330894B1 (ko) * 2020-07-24 2021-12-01 주식회사 케이엑스알랩 증강현실에서의 디바이스 로컬 전환 동작을 지원하는 증강현실 디스플레이 장치 및 그것의 동작 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100834905B1 (ko) 2006-12-08 2008-06-03 한국전자통신연구원 마커 패턴 인식 및 자세 추정을 통한 마커 인식 장치 및 방법
KR101056418B1 (ko) * 2011-03-31 2011-08-11 주식회사 맥스트 모바일 센서를 이용한 증강 현실 콘텐츠 추적 장치 및 방법
KR20130019485A (ko) * 2011-08-17 2013-02-27 (주)인사이트앤드인스퍼레이션 마커를 기반으로 하는 증강현실 시스템 및 그 객체 증강방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100834905B1 (ko) 2006-12-08 2008-06-03 한국전자통신연구원 마커 패턴 인식 및 자세 추정을 통한 마커 인식 장치 및 방법
KR101056418B1 (ko) * 2011-03-31 2011-08-11 주식회사 맥스트 모바일 센서를 이용한 증강 현실 콘텐츠 추적 장치 및 방법
KR20130019485A (ko) * 2011-08-17 2013-02-27 (주)인사이트앤드인스퍼레이션 마커를 기반으로 하는 증강현실 시스템 및 그 객체 증강방법

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150125326A (ko) 2014-04-30 2015-11-09 (주)제이앤씨마케팅커뮤니케이션 인터랙티브 증강현실 서비스 시스템 및 방법
KR20150143971A (ko) 2014-06-13 2015-12-24 (주)달팽이 위치 기반의 여행용 빅데이터를 처리하기 위한 모바일 소셜 네트워크 서비스 시스템 및 그의 처리 방법
KR20160103897A (ko) * 2015-02-25 2016-09-02 이은미 증강현실 영상표시 시스템 및 증강현실 영상표시 방법
KR101692335B1 (ko) * 2015-02-25 2017-01-03 이은미 증강현실 영상표시 시스템 및 증강현실 영상표시 방법
KR102099852B1 (ko) 2018-10-30 2020-04-10 한동대학교 산학협력단 증강현실 게임북을 이용한 멀티유저 증강현실 컨텐츠 제공 시스템 및 방법
KR102330894B1 (ko) * 2020-07-24 2021-12-01 주식회사 케이엑스알랩 증강현실에서의 디바이스 로컬 전환 동작을 지원하는 증강현실 디스플레이 장치 및 그것의 동작 방법

Similar Documents

Publication Publication Date Title
US10089769B2 (en) Augmented display of information in a device view of a display screen
US11019259B2 (en) Real-time generation method for 360-degree VR panoramic graphic image and video
US8970663B2 (en) 3D video conference
US9384588B2 (en) Video playing method and system based on augmented reality technology and mobile terminal
CN110176077B (zh) 增强现实拍照的方法、装置及计算机存储介质
US20190019011A1 (en) Systems and methods for identifying real objects in an area of interest for use in identifying virtual content a user is authorized to view using an augmented reality device
KR101281314B1 (ko) 증강현실시스템 및 증강현실구현방법
WO2013001902A1 (ja) 画像処理装置、画像処理装置の制御方法、プログラム、及び情報記憶媒体
EP4057109A1 (en) Data processing method and apparatus, electronic device and storage medium
US10977869B2 (en) Interactive method and augmented reality system
CN109582122B (zh) 增强现实信息提供方法、装置及电子设备
KR20140082610A (ko) 휴대용 단말을 이용한 증강현실 전시 콘텐츠 재생 방법 및 장치
CN108762501B (zh) Ar显示方法、智能终端、ar设备及系统
US20220283631A1 (en) Data processing method, user equipment and augmented reality system
US20130044180A1 (en) Stereoscopic teleconferencing techniques
CN111954045A (zh) 增强现实的装置及方法
KR20110132260A (ko) 모니터 기반 증강현실 시스템
CN107172413A (zh) 现实场景视频显示方法和系统
JP2007158680A (ja) 追尾撮像装置およびこれを利用した追尾撮像システム
EP3465631B1 (en) Capturing and rendering information involving a virtual environment
WO2015139562A1 (zh) 实现视频会议的方法、合成设备和系统
JP6807744B2 (ja) 画像表示方法及び装置
JP2018033107A (ja) 動画の配信装置及び配信方法
WO2021196973A1 (zh) 虚拟内容的显示方法、装置、电子设备及存储介质
US11086587B2 (en) Sound outputting apparatus and method for head-mounted display to enhance realistic feeling of augmented or mixed reality space

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee