KR101743569B1 - 증강 현실 콘텐츠 제어 방법과 그 장치 - Google Patents

증강 현실 콘텐츠 제어 방법과 그 장치 Download PDF

Info

Publication number
KR101743569B1
KR101743569B1 KR1020160052364A KR20160052364A KR101743569B1 KR 101743569 B1 KR101743569 B1 KR 101743569B1 KR 1020160052364 A KR1020160052364 A KR 1020160052364A KR 20160052364 A KR20160052364 A KR 20160052364A KR 101743569 B1 KR101743569 B1 KR 101743569B1
Authority
KR
South Korea
Prior art keywords
control input
augmented reality
inner object
reality content
input
Prior art date
Application number
KR1020160052364A
Other languages
English (en)
Inventor
박섭형
김병정
유은택
Original Assignee
한림대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한림대학교 산학협력단 filed Critical 한림대학교 산학협력단
Priority to KR1020160052364A priority Critical patent/KR101743569B1/ko
Application granted granted Critical
Publication of KR101743569B1 publication Critical patent/KR101743569B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06K9/00671
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

3D 증강 현실 콘텐츠의 제어 입력을 처리하는 방법에 있어서, 3D 외부 객체와 3D 외부 객체의 내부에 위치하는 3D 내부 객체를 포함하는 3D 증강 현실 콘텐츠를 표시하는 단계, 사용자 인터페이스로부터 3D 증강 현실 콘텐츠의 제어 입력을 수신하는 단계, 제어 입력이 3D 내부 객체에 관한 제어 입력인지 여부를 판단하는 단계, 제어 입력이 3D 내부 객체에 관한 제어 입력인 경우, 3D 증강 현실 콘텐츠를 이용하여 내부 객체에 관한 고유 동작을 수행하는 단계를 포함하는 3D 증강 현실 콘텐츠 제어 입력 처리 방법을 제공할 수 있다.

Description

증강 현실 콘텐츠 제어 방법과 그 장치 {APPARATUS AND METHOD FOR CONTROLING AUGEMENTED REALITY }
본원은 3D증강 현실 콘텐츠의 제어 입력을 처리하는 방법 및 장치에 관한 것이다.
최근 다양한 스마트 모바일 플랫폼, 스마트 TV 등이 개발되면서, 기존의 단방향의 일방적인 정보 전달과 더불어 양방향의 정보 경험도 또한 각광을 받고 있다. TV, 라디오 등의 단방향 매체는 사용자로 하여금 일방적인 정보의 입력만을 주기 때문에, 사용자는 매체에서 보여주고자 하는 부분에 대한 정보만을 습득할 수 있었다. 하지만, 스마트폰을 비롯하여 다양한 미디어 환경들이 발전하고 그 사용법이 변해감에 따라 사용자들은 일방적인 정보 전달보다는 자신의 정보 입력에 따라 원하는 정보를 전달받는 양방향 정보 경험을 더 선호하고 있다.
한편, 사용 환경의 변화에 따라 정보 콘텐츠는 점차 고품질화 되고 있고, 콘텐츠는 단순히 보이는 정보에 그치는 것이 아닌 많은 정보를 내포하고 있는 콘텐츠로 변화하고 있다. 따라서 단순한 문제에서도 많은 정보를 원하게 되었고, 단순한 단방향 정보로는 사용자의 요구를 충족시키지 못하게 되었다.
최근, 가상현실(Virtual Reality)의 한 분야인 증강현실(Augmented Reality, 이하 AR)을 통한 광고 서비스가 개발되어 점차 보급되고 있다. 증강 현실을 통한 광고 서비스는 광고 제품의 특징이 되는 지면상의 한 이미지인 '마커(Marker)'를 설정하고 모바일 기기의 카메라 영상이 마커를 비추면, 마커 위에 제품의 실제 모습이 입체로 그려지는 증강현실 기법을 사용하여 광고 콘텐츠를 사용자에게 제공한다. 이때, 마커는 제품의 브로슈어나 팸플릿과 같은 이미지로 활용 가능하며, 마커를 움직이거나 마커를 비추는 카메라의 위치를 변경시킴으로써 다양한 각도로 증강 현실 콘텐츠를 감상할 수 있다. 이에 따라 사용자는 시각적으로 받을 수 있는 1차적인 정보와 더불어 스마트폰의 기본 인터페이스를 통해 광고 대상물에 해당하는 제품의 여러 기능을 사용자의 요구에 따라 체험할 수 있다.
최근 전세계적으로 보급된 스마트 기기의 수가 개인용 PC의 수를 추월하였고, 스마트 기기는 기본적으로 멀티 터치가 가능한 스크린을 장착하고 있으며, 최근에 보급되는 노트북 컴퓨터에도 멀티터치 기능이 채택되고 있다. 이에 따라 스마트 기기를 이용한 AR 콘텐츠의 광고에 대한 관심도가 높아지고 있으나, 멀티 터치 환경에서 AR 콘텐츠와 사용자의 상호작용을 위한 방법에 대해서는 많은 어려움이 따른다.
한편, AR 콘텐츠는 실재하지 않는 상품을 화면에 마치 실재하는 것처럼 화면에 표시해주고, 사용자가 직접 조작하며 체험할 수 있지만, 제품의 3D 모델이 필요하고, 3D 모델과 마커와의 연동이 필요하며, 제작된 광고의 출판 또한 이루어져야 하는데 각각의 부분들에서 전문적인 기술을 요하고, 광고 완성 후에도 추가적인 수정이 어려운 단점이 있었다.
본원의 배경이 되는 기술은 한국특허공개공보 제2011-0125866호에 개시되어 있다.
본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 내부에 3D 객체를 포함하는 3D 증강 현실 콘텐츠에서 콘텐츠의 내부에 위치한 3D 내부 객체에 접근하기 위한 제어 입력을 처리하는 방법을 제공하는 것을 목적으로 하다.
다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들도 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 실시예에 따른 3D 증강 현실 콘텐츠의 제어 입력을 처리하는 방법은 3D 외부 객체와 3D 외부 객체의 내부에 위치하는 3D 내부 객체를 포함하는3D 증강 현실 콘텐츠를 표시하는 단계, 사용자 인터페이스로부터 3D 증강 현실 콘텐츠의 제어 입력을 수신하는 단계 제어 입력이 3D 내부 객체에 관한 제어 입력인지 여부를 판단하는 단계 및 제어 입력이 3D 내부 객체에 관한 제어 입력인 경우, 3D 증강 현실 콘텐츠를 이용하여 내부 객체에 관한 고유 동작을 수행하는 단계를 포함할 수 있다.
또한, 상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 실시예에 따른 3D 증강 현실 콘텐츠의 제어 입력을 처리하는 장치는 3D 외부 객체와 3D 외부 객체의 내부에 위치하는 3D 내부 객체를 포함하는3D 증강 현실 콘텐츠를 표시하는 콘텐츠 표시부, 사용자 인터페이스로부터 3D 증강 현실 콘텐츠의 제어 입력을 수신하는 제어 입력 수신부, 제어 입력이3D 내부 객체에 관한 제어 입력인지 여부를 판단하는 판단부, 제어 입력이 3D 내부 객체에 관한 제어 입력인 경우, 3D 증강 현실 콘텐츠를 이용하여 내부 객체에 관한 고유 동작을 수행하는 고유 동작 수행부를 포함하는 3D 증강 현실 콘텐츠 제어 입력 처리 장치를 포함할 수 있다.
상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.
전술한 본원의 과제 해결 수단에 의하면, 증강 현실용 3D 콘텐츠 및 증강 현실용 3D 콘텐츠에 포함된 내부 3D 객체에 대해서 상호작용을 통해 사용자가 원하는 정보를 효과적으로 제공할 수 있다. 또한, 특정 제스처를 통해 증강 현실용 3D 콘텐츠에 포함된 내부 3D 객체에 효과적으로 접근할 수 있다. 상품의 외형뿐 아니라 내부 모습까지 모델링 된 3D 콘텐츠에서 내부 모습에 대한 부가 정보를 얻을 수 있다.
도 1은 본원의 일 실시예에 따른 3D 증강 현실 콘텐츠의 제어 입력을 처리하는 시스템을 개괄적으로 도시한 도면이다.
도 2는 본원의 일 실시예에 따른 3D 증강 현실 콘텐츠의 제어 입력을 처리하는 방법을 도시한 블록도이다.
도 3은 본원의 일 실시예에 따른 제어 입력의 일 예를 나타내는 도면이다.
도 4는 본원의 일 실시예에 따른 3D 내부 객체의 일 예를 나타내는 도면이다.
도5는 본원의 일 실시예에 따른 제어 입력에 따라 3D 내부 객체가 선택되는 예를 나타내는 도면이다.
도 6은 본원의 일 실시예에 따른3D 증강 현실 콘텐츠의 제어 입력을 처리하는 과정을 설명하기 위한 흐름도이다.
도 7은 본원의 일 실시예에 따른 3D 증강 현실 콘텐츠의 제어 입력을 처리하는 장치를 나타내는 블록도이다.
아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다.
본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.
본원 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함" 한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.
본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1개의 유닛이 2개 이상의 하드웨어를 이용하여 실현되어도 되고, 2개이상의 유닛이 1개의 하드웨어에 의해 실현되어도 된다. 본 명세서 있어서 단말, 장치 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당단말, 장치 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말, 장치 또는 디바이스에서 수행될 수도 있다. 이하 첨부된 도면을 참고하여 본원의 일 실시예를 상세히 설명하기로 한다.
도 1은 본원의 일 실시예에 따른 3D 증강 현실 콘텐츠의 제어 입력을 처리하는 시스템을 개괄적으로 도시한 도면이다. 도 1을 참조하면, 3D 증강 현실 콘텐츠의 제어 입력을 처리하는 시스템은 3D 증강 현실 콘텐츠의 제어 입력을 처리하는 제어 입력 장치(10)로 구성될 수 있으며, 네트워크로 연결되어 물리적으로 떨어져 별도에 위치한 3D 증강 현실 콘텐츠를 생성하고 관리하는 서버를 더 포함할 수 있다.
본원의 실시예에서, 네트워크는 제어 입력 장치(10) 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크(150)의 일 예에는 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷 (Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스 (Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.
제어 입력 장치(10)는 3D 외부 객체와 3D 외부 객체의 내부에 위치하는 3D 내부 객체를 포함하는 3D 증강 현실 콘텐츠를 표시할 수 있다. 제어 입력 장치(10)는 사용자 인터페이스로부터 3D 증강 현실 콘텐츠의 제어 입력을 수신하고, 제어 입력이 상기 3D 내부 객체에 관한 제어 입력인지 여부를 판단하여, 제어 입력이 3D 내부 객체에 관한 제어 입력인 경우, 3D 증강 현실 콘텐츠를 이용하여 내부 객체에 관한 고유 동작을 수행할 수 있다.
예를 들면, 제어 입력 장치(10)는 자동차 및 자동차 내부의 운전석, 팔걸이, 등받이, 머리받침, 방석 등 하부 객체 들이 포함되는 자동차에 대한 3D 증강 현실 콘텐츠를 제어 입력 장치(10)의 디스플레이에 표시하고, 제어 입력 장치(10)의 터치 인터페이스를 통해 소정 터치 입력이 입력되는 경우, 제어 입력 장치(10)는 입력된 터치 입력이 자동차에 대한 터치 입력인지, 자동차 내부의 운전석에 대한 터치 입력인지 판단하여, 자동차 내부의 운전석에 대한 광고 또는 운전석에 대한 부가 정보를 표시할 수 있다.
일반적으로, 3D 환경에서는 기본적으로 객체와 관측자로 구성될 수 있다. 이 경우, 객체는 점, 선, 다각형 등 여러 기하학적인 기본 객체와 이들의 위치를 가상의 공간에 지정해 물체를 구성하게 된다. 객체는 영상 생성과정이나 관측자와 관계 없이 공간에 존재하게 되고, 관측자는 객체가 보이는 광경을 만들어 낸다. 증강 현실에서 증강 현실 콘텐츠는 객체에 해당되고, 관측자는 스마트 기기로 대표되는 제어 입력 장치(10)의 카메라 장치에 해당될 수 있다. 예를 들면, 마커 위의 공간에 위치하는 증강 현실 콘텐츠는 마커 위의 공간에 위치하고, 제어 입력 장치(10)의 카메라가 마커를 비추는 위치에 따라 제어 입력 장치(10)의 디스플레이에 영상을 만들 수 있다.
제어 입력 장치(10)에서 3D 증강 현실 콘텐츠 제어 입력이 처리되는 방법은 후술되는 도 2에서 자세히 설명된다
도 2는 본원의 일 실시예에 따른 3D 증강 현실 콘텐츠의 제어 입력을 처리하는 방법을 도시한 블록도이다.
도 2를 참조하면, 제어 입력 장치(10)는 3D 외부 객체와 3D 외부 객체의 내부에 위치하는 3D 내부 객체를 포함하는 3D 증강 현실 콘텐츠를 표시(S201)할 수 있다. 예를 들면, 3D 증강 현실 콘텐츠는 AR(Augmented Reality) 콘텐츠 또는 증강 현실 콘텐츠로써, 3D모델로 제작된 자동차가 될 수 있다. 이 때, 자동차 모델은 내부에 자동차의 운전석에 대한 객체, 팔걸이, 등받이, 머리 받침, 방석 등의 하부 객체들이 더 포함될 수 있다. 다시 말하면, 제어 입력 장치(10)는 제어 입력 장치(10)에 포함된 카메라 장치를 통해 특정 마커를 촬영할 수 있고, 제어 입력 장치(10)는 제어 입력 장치(10)의 디스플레이에 3D 모델로 제작된 자동차가 표시될 수 있다. 3D 모델로 제작된 자동차를 3D 외부 객체가 될 수 있고, 3D 모델로 제작된 자동차 내부의 운전석, 팔걸이, 등받이, 머리 받침 및 방석 등의 하부 객체 들이 3D 내부 객체가 될 수 있다.
3D 증강 현실 콘텐츠는 여러 개의 3D 내부 객체 들의 집합으로 표현될 수 있으며, 기능에 따라 선택 가능한 내부 객체, 부가 정보를 포함하는 내부 객체 및 선택 불가한 내부 객체로 구분될 수 있다. 이에 대한 설명은 도 4에서 다시 한번 설명된다.
제어 입력 장치(10)는 사용자 인터페이스로부터 상기 3D 증강 현실 콘텐츠의 제어 입력을 수신(S202)할 수 있다. 제어 입력 장치(10)는 적어도 하나의 손가락과 사용자 인터페이스 사이의 접점의 수, 적어도 하나의 손가락과 사용자 인터페이스 사이의 접촉 시간, 접촉 회수, 접촉 후 이동 시간, 접촉 후 이동 거리 및 접촉 후 이동 방향 중 적어도 하나에 따라 3D 증강 현실 콘텐츠의 제어 입력을 수신할 수 있다.
일 예로, 스마트 기기에 표시되는 3D 증강 현실 콘텐츠를 선택하기 위해 손가락을 이용해 탭(Tab) 할 수 있고, 화면에 표시되는 콘텐츠를 끄는 드래그(Drag)할 수 있다. 또한, 화면을 스크롤 하기 위해 손가락으로 터치하여 미끄러지듯 움직이는 슬라이드(Slide)를 통해 제어할 수 있고, 화면을 회전하기 위해 두 손가락으로 터치한 뒤 둥글게 미끄러트리는 스핀(Spin)을 통해 제어할 수도 있다. 스크롤을 지속하기 위해 슬라이드(Slide)를 계속하거나 땔 수 있고, 손가락을 살짝 튕겨 개체를 움직이는 플릭(Flick)을 통해 개체를 움직일 수 있다. 손가락을 튕기는 움직임의 관성에 따라 스크롤을 유지하는 플링(Fling)을 통해 제어 입력을 수행할 수 있으며, 화면을 확대하기 위해 두 손가락을 벌리는 핀치(Pinch)를 통해 제어 입력을 수행할 수도 있다.
다시 말해, 제어 입력의 유형은, 탭(Tab), 더블 탭(Double Tab), 롱 터치(Long Touch), 드래그(Drag), 슬라이드(Slide), 스핀(Spin), 스와이프(Swipe), 플릭(Flick), 핀치(Pinch) 및 스프레드(Spread) 중 적어도 하나의 유형을 포함할 수 있다. 일반적으로 스마트 기기의 동시 터치의 최대 수는 2지만 그 이 상의 동시 터치가 가능한 기기에서는 더 많은 동시 터치 수를 이용하여 다른 제어 입력이 정의 될 수 있으며, 앞서 서술한 예로 제어 입력이 한정되는 것은 아니다. 제어 입력에 대한 설명은 도 3에서 다시 한번 설명된다.
제어 입력 장치(10)는 수신된 제어 입력이 3D 내부 객체에 관한 제어 입력인지 여부를 판단(S203)할 수 있다. 제어 입력 장치(10)는 적어도 하나의 손가락과 사용자 인터페이스 사이의 접점의 수, 적어도 하나의 손가락과 사용자 인터페이스 사이의 접촉 시간, 접촉 회수, 접촉 후 이동 시간, 접촉 후 이동 거리 및 접촉 후 이동 방향 중 적어도 기초하여 3D 내부 객체에 관한 제어 입력인지 여부를 판단할 수 있다. 다시 말하면, 제어 입력 장치(10)는 수신된 제어 입력의 유형에 따라 3D 내부 객체에 관한 제어 입력인지 여부를 판단할 수 있다.
일 예로, 제어 입력 장치(10)는 제어 입력이 핀치(Pinch) 동작 인 경우, 3D 내부 객체에 관한 제어 입력인 것으로 판단할 수 있다. 예를 들어, 제어 입력 장치(10)는 탭 하는 동작을 통해 어느 하나의 3D 외부 객체를 선택하고, 하나의 3D 외부 객체가 선택된 이후, 두 손가락을 오므렸다 피는 (Pinch) 및 스프레드(Spread) 동작이 입력되는 경우, 3D 내부 객체에 대한 제어 입력인 것으로 판단할 수 있다.
다른 예에서, 제어 입력 장치(10)는 제어 입력이 더블 탭(Double Tab) 동작인 경우, 3D 내부 객체에 관한 제어 입력인 것으로 판단할 수 있다. 일 예로, 제어 입력 장치(10)는 탭 하는 동작을 통해 어느 하나의 3D 외부 객체를 선택하고, 하나의 3D 외부 객체가 선택된 이후, 더블 탭 동작을 입력하면, 3D 내부 객체에 관한 제어 입력인 것으로 판단할 수 있다.
또 다른 예에 따르면, 제어 입력 장치(10)는 제어 입력이 소정 시간 동안 터치를 유지하는 입력인 경우, 내부 객체에 관한 제어 입력으로 판단할 수 있다. 예를 들어, 제어 입력 장치(10)는 최초 3D 외부 객체를 탭한 후 롱 터치 동작을 통해 탭 상태를 유지하고 있는 경우, 3D 내부 객체에 관한 제어 입력인 것으로 판단할 수 있다.
제어 입력 장치(10)는 제어 입력이 3D 내부 객체에 관한 제어 입력인 경우, 3D 증강 현실 콘텐츠를 이용하여 내부 객체에 관한 고유 동작을 수행(S204)할 수 있다. 고유 동작은 3D 내부 객체를 강조 및 선택에 대한 동작, 3D 내부 객체에 대한 부가 정보를 표시하는 동작 및 3D 내부 객체와 연결된 광고를 표시하는 동작 중 적어도 하나가 포함될 수 있으나 이에 한정되는 것은 아니며 다양한 고유 동작이 수행될 수 있다. 한편, 제어 입력 장치(10)는 제어 입력이 3D 내부 객체에 관한 제어 입력인 경우, 3D 외부 객체를 투명화 시킬 수 있다.
예를 들면, 제어 입력 장치(10)는 탭 하는 동작을 통해 어느 하나의 3D 외부 객체를 선택하고, 하나의 3D 외부 객체가 선택된 이후, 두 손가락을 오므렸다 피는 (Pinch) 및 스프레드(Spread) 동작이 입력되는 경우, 선택된 3D 외부 객체를 기준으로 확대하거나 축소하면서 3D 외부 객체에 포함된 선택 가능한 3D 내부 객체가 표시될 수 있고, 이후, 표시되는 3D 내부 객체를 탭하여 3D 내부 객체를 선택할 수 있다. 이 때, 3D 외부 객체는 투명화 될 수 있으며, 선택된 3D 내부 객체를 바탕으로 위 또는 아래 방향으로 스와이프(Swipe) 또는 슬라이드(Slide) 동작을 통해 같은 계층의 다른 3D 내부 객체로 이동 및 선택할 수 이 있고, 롱 터치(Long Touch) 및 슬라이드(Slide) 동작을 이용해 3D 외부 객체의 투명도를 임의로 조절할 수 있다.
다른 예에서, 제어 입력 장치(10)는 탭 하는 동작을 통해 어느 하나의 3D 외부 객체를 선택하고, 하나의 3D 외부 객체가 선택된 이후, 더블 탭 동작이 입력되는 경우, 3D 외부 객체에 포함된 선택 가능한 3D 내부 객체가 표시될 수 있고, 이후, 표시되는 3D 내부 객체를 탭하여 3D 내부 객체를 선택할 수 있다. 이 때, 3D 외부 객체는 투명화 될 수 있으며, 선택된 3D 내부 객체를 바탕으로 위 또는 아래 방향으로 스와이프(Swipe) 또는 슬라이드(Slide) 동작을 통해 같은 계층의 다른 3D 내부 객체로 이동 및 선택할 수 이 있고, 롱 터치(Long Touch) 및 슬라이드(Slide) 동작을 이용해 3D 외부 객체의 투명도를 임의로 조절할 수 있다.
또 다른 예에서, 제어 입력 장치(10)는 탭 하는 동작을 통해 어느 하나의 3D 외부 객체를 선택하고, 하나의 3D 외부 객체가 선택된 이후, 롱 터치 동작을 유지하는 경우, 뷰잉 엑시스(Viewing Axis)가 3D 증강 현실 콘텐츠를 관통하는 축을 따라 내측으로 이동하면서 순차적으로 복수 계층의 3D 내부 객체를 선택할 수 있다. 좀 더 상세히 말하면, 처음 3D 외부 객체를 선택한 이후 탭하여 터치를 유지하는 경우, 0.5초마다 뷰잉 엑시스가 관통하는 3D 내부 객체가 축을 기준으로 순차적으로 선택될 수 있다. 이 경우, 선택 불가한 3D 내부 객체의 투명도는 0.5가 될 수 있다. 뷰잉 엑시스 주변에는 여러 객체들이 분포되어 있을 수 있으며 하나의 증강 현실 콘텐츠는 계층에 따라 하나 이상의 선택 가능한 3D 내부 객체를 포함할 수 있다. 롱 터치를 하면 뷰잉 엑시스를 따라 계층에 따라 3D 내부 객체가 순차적으로 선택되며, 어느 하나의 3D 내부 객체가 선택된 경우, 두 손가락을 이용해 더블 탭하는 경우, 동일한 계층에 존재하는 3D 내부 객체 중 가장 가까운 객체가 선택될 수 있다.
제어 입력 장치(10)는 3D 증강 현실 콘텐츠를 기 설정된 개수만큼 큐브 영역으로 분할하고, 분할된 영역 중 특정 영역을 선택하는 제어 입력인 경우, 3D 내부 객체를 선택할 수 있다.
일 예를 들어, 일반적으로 3D 내부 객체를 선택하기 위해서는 3D 객체 내의 각 내부 객체의 상대적인 공간 위치 정보가 필요하고, 이 위치 정보를 알아내기 위한 방법으로 3D 증강 현실 콘텐츠에 포함된 각각의 3D 내부 객체들은 메시(MESH)모델을 많이 사용한다. 3D 가상 공간에서 터치를 이용하여 특정 위치를 지정하는 경우, 지정한 점이 객체의 외부이지 내부 인지 판단하기 위해 매우 많은 계산을 요하기도 한다.
이에, 제어 입력 장치(10)는 3D 증강 현실 콘텐츠를 기 설정된 개수만큼 큐브 영역으로 분할하고, 어느 하나의 큐브를 선택하는 경우 증강 현실 콘텐츠에 포함되어 있는 각 객체의 경계 정보와 위치 정보, 그리고 선택된 큐브의 경계 정보와 위치 정보를 이용하여 큐브와 교집합을 이루는 객체를 추출할 수 있다. 이에 더해 제어 입력 장치(10)는 3D 내부 객체 만을 선택된 객체로 표시하기 위해 각 객체를 서로 비교하여 서로를 포함하고 있는지 여부를 판단할 수 있고, 어느 하나의 객체가 다른 객체를 완전히 덮고 있는 경우, 해당 객체를 선택에서 제외할 수 있다.
제어 입력 장치(10)는 3D 증강 현실 콘텐츠를 편집할 수 있는 편집 인터페이스를 통해 3D 증강 현실 콘텐츠를 편집할 수 있다. 이 때, 편집 인터페이스는 3D 외부 객체와 3D 내부 객체에 대한 태그 정보를 포함할 수 있고, 제어 입력 장치(10)는 태그 정보에 기초하여 3D 증강 현실 콘텐츠의 부가 정보를 편집할 수 있다. 편집 인터페이스는, 3D 증강 현실 콘텐츠에 포함된 3D 내부 객체 중 선택 가능한 3D 내부 객체에 대한 부가 정보를 수용할 수 있도록 선택 가능한 3D 객체 및 부가 정보를 포함하는 3D 내부 객체에 대한 태그 정보를 추가할 수 있고, 제어 입력 장치(10)는 이에 기초하여 3D 내부 객체를 포함하는 3D 증강 현실 콘텐츠에 대한 부가 정보를 편집할 수 있다.
도 3은 본원의 일 실시예에 따른 제어 입력의 일 예를 나타내는 도면이다. 도 3에 도시된 제어 입력은 본 발명의 일 실시예에 불과하므로 이에 한정되어 해석되는 것은 아니며, 다양한 제어 입력이 더 포함될 수 있다. 또한 동시 터치의 수가 3 이상인 멀티터치 환경에서는 더 많은 제어 입력이 정의될 수도 있다.
도 3을 참조하면, 객체를 한 손가락을 이용해 탭(Tab) 하는 경우, 객체가 선택되어 있지 않은 경우에 가까운 객체를 선택하거나 근접한 객체가 선택될 수 있고, 객체가 이미 선택되어 있는 경우 실행 가능한 이벤트가 있을 경우, 이에 기초하여 광고 또는, 부가 정보가 표시될 수 있다. 객체를 더블 탭(Double Tab) 하는 경우, 객체가 선택되어 있을 경우에 선택된 객체가 현재 카메라 뷰 상에서 가로 길이 및 세로 길이 중 더 큰 길이가 화면의 가로 혹은 세로의 2/3 크기가 되도록 확대하고 축소할 수 있으며, 객체가 선택되어 있지 않은 경우, 선택 가능한 3D내부 객체가 표시되며 소정 시간이 경과된 후 원래 상태로 복귀된다. 또한, 자동차 외부 화면에서 내부 화면으로 전환 등 별도의 화면이 준비된 경우에는 화면이 전환되도록 한다.
객체를 한 손가락을 이용해 스와이프(Swipe)하면, 손가락의 이동 방향과 화면을 스치는 터치 속도에 비례해 일정량만큼 해당 객체를 소정 기준점을 중심으로 회전하는 단일성 이벤트를 발생시키고, 객체를 한 손가락을 이용해 슬라이드(Slide)하면 터치가 좌우로 유지되는 움직임에 따라 해당 객체를 소정 기준점을 중심으로 회전하는 지속 이벤트를 발생시킬 수 있다. 객체를 두 손가락을 이용해 핀치(Pinch) 하면 마크 위에 있는 객체의 스케일을 확대 또는 축소할 수 있다.
객체를 한 손가락을 이용해 롱 터치하는 경우, 초기 선택된 객체를 기준으로 터치가 지속됨에 따라 내부 방향으로 선택지점을 이동시키면서 내부 3D 객체를 선택할 수 있다. 한편, 한 손가락은 프레스(Press) 다른 손가락으로 슬라이드(Slide)하면 외부 객체의 투명도를 조절할 수 있다. 두 손가락을 이용해 더블 탭(Double Tab) 하면 현재의 카메라 뷰 방향으로 객체를 회전시켜 정면이 보일 수 있게 할 수 있다. 이 경우, 카메라 뷰가 일정 부분 이상 벗어나거나 더블 탭을 수행하면 이전 상태로 돌아올 수 있다.
위 또는 아래 방향으로 스와이프(Swipe) 하는 경우, 같은 계층에 있는 3D 내부 객체를 순차적으로 선택할 수 있고, 두 손가락을 이용해 위 또는 아래 방향으로 스와이프 하는 경우, 이벤트가 존재하는 같은 계층의 3D 내부 객체를 순차적으로 선택할 수 있다.
위 또는 아래 방향으로 슬라이드 하는 경우, 슬라이드에 맞춰 같은 계층에 있는 객체를 선택할 수 있고, 두 손가락을 이용하여 위 또는 아래 방향으로 슬라이드 하는 경우, 슬라이드에 맞춰 같은 계층에 있는 객체 중 이벤트가 있는 객체를 선택할 수 있다.
도 4는 본원의 일 실시예에 따른 3D 내부 객체의 일 예를 나타내는 도면이다. 도 4를 참조하면, 객체는 단일 객체로 이루어진 형태 외에도 트리 형태로 구성된 계층 구조를 가질 수 있다. 이 경우, 기본 루트 노드를 중심으로 부모 노드와 부모 노드 하위에 자식 노드를 가질 수 있다. 자동차를 기본 루트로 하여 예로 들면, 자동차는 차체, 바퀴, 실내 부품, 동력부의 부모 노드를 가질 수 있고, 바퀴 노드가 휠과 타이어에 대한 자식 노드를 가질 수 있듯, 각각의 부모 노드는 또 다시 여러 자식 노드를 가질 수 있다.
한편 자동차에 대한 객체의 경우, 자동차에 대한 객체는 내부에 팔걸이, 등받이, 쿠션, 스티어링 휠, 자동차 시트, 버튼 및 기타 다양한 3D 내부 객체를 포함할 수 있다. 이 때, 팔걸이, 등받이, 쿠션은 선택 가능한 객체로써 선택은 가능하나 부가 정보를 포함하지 않은 객체(401)가 될 수 있고, 스티어링 휠, 자동차 시트 및 버튼은 선택 가능한 객체 중 부가 정보를 포함하는 객체(402)가 될 수 있다. 한편, 기타 객체들은 선택 불가능한 객체(403)이 될 수 있다.
다시 말하면, 하나의 증상 현실 콘텐츠는 복수 개의 3D 내부 객체 들의 집합으로 표현될 수 있고, 증강 현실 내에서 강조하고 싶은 부분으로 그룹화하여 각 기능에 따라 계층과 보조 정보를 추가함으로써, 선택 가능한 객체 및 부가 정보를 포함하는 객체로 지정할 수 있다. 반면, 사용자에게 보여줄 필요가 없는 객체에 대해서는 선택 불가한 객체로 지정할 수 있다.
다만, 도 4에서 설명하는 3D 증강 현실 콘텐츠 및 3D 내부 객체는 본 발명의 일 실시예에 불과하므로 도 4에 의해 본 발명이 한정되는 것은 아니며 다양한 3D 증강 현실 콘텐츠 및 3D 내부 객체가 더 존재할 수 있다.
도5a 내지 도 5b는 본원의 일 실시예에 따른 제어 입력에 따라 3D 내부 객체가 선택되는 예를 나타내는 도면이다. 도5a 내지 도 5b를 참조하면, 제어 입력 장치(10)의 카메라를 통해 마커를 촬영하면 제어 입력 장치(10)의 디스플레이에 상에 보이는 마커 위에 3D 객체로 표현된 자동차가 나타난다(501). 이후 사용자는 3D 자동차의 아무 곳이나 두 번 연속 탭하여 선택 가능한 객체를 화면에 나타나게(502)할 수 있다. 이 때, 투명도는 완전 투명상태를 1.0 완전 불투명 상태를 0 이라고 할 때 선택 불가한 객체들의 투명도는 0.2가 될 수 있다. 3D 자동차를 확대, 축소 또는 회전하여 3D 자동차의 외부(503)를 볼 수 있고, 이 경우에도 두 번 연속 탭하여 선택 가능한 객체를 화면에 나타나게(504)할 수 있다.
자동차 객체를 선택 후 롱 터치하면 선택 가능한 3D 내부 객체들이 표시(505)되고, 이후 롱 터치하면 선택 가능한 두 번째 3D 내부 객체들이 선택(506)될 수 있다. 같은 뷰잉 엑시스에 포함되어 있지 않은 선택 가능한 3D 내부 객체 또는 부가 정보를 포함하는 3D 내부 객체인 경우, 두 손가락을 이용한 더블 탭을 통해 선택(507)될 수 있다. 다만 앞서 설명된 실시예를 통해 본 발명이 한정되어 해석되는 것은 아니다.
도 6은 본원의 일 실시예에 따른3D 증강 현실 콘텐츠의 제어 입력을 처리하는 과정을 설명하기 위한 흐름도이다. 도 6을 참조하면, 처음 외부 객체를 선택(S601)하고, 이후 롱 터치 입력(S602)을 하면 선택된 외부 객체 내부에 포함된 내부 객체 중 선택 가능한 내부 객체가 표시될 수 있다. 어느 하나의 내부 객체를 선택(S603)하고, 다른 내부 객체를 선택(S604)하지 않는 경우, 선택한 어느 하나의 내부 객체가 이벤트를 포함(S605)한다면, 내부 객체와 연결된 이벤트가 발생(S606)할 수 있다. 이벤트는 부가 정보 또는 광고 정보가 될 수 있으나 이에 한정되는 것은 아니다.
도 7은 본원의 일 실시예에 따른 3D 증강 현실 콘텐츠의 제어 입력을 처리하는 장치를 나타내는 블록도이다. 도 7에 따른 증상 현실 콘텐츠의 제어 입력을 처리하는 장치는 도 1 내지 도2를 통해 설명된 제어 입력 장치(10)의 각 부에서 처리되는 내용이 설명된다. 따라서 이하 설명되지 않은 내용이라 할지라도 도 1 내지 도 2를 통해 설명된 제어 입력 장치(10)의 동작 설명에 포함되거나 유추 가능하므로 자세한 설명은 생략된다.
도 7을 참조하면, 3D 증강 현실 콘텐츠의 제어 입력을 처리하는 3D 증상 현실 콘텐츠 제어 입력 처리 장치(10)는 콘텐츠 표시부(101), 제어 입력 수신부(102), 판단부(103), 고유 동작 수행부(104) 및 콘텐츠 편집부(105)를 포함한다.
콘텐츠 표시부(101)는 3D 외부 객체와 3D 외부 객체의 내부에 위치하는 3D 내부 객체를 포함하는 3D 증강 현실 콘텐츠를 표시할 수 있고, 제어 입력 수신부(102)는 사용자 인터페이스로부터 3D 증강 현실 콘텐츠의 제어 입력을 수신할 수 있다.
판단부(103)는 입력된 제어 입력이 3D 내부 객체에 관한 제어 입력인지 여부를 판단하고, 고유 동작 수행부(104)는 제어 입력이 3D 내부 객체에 관한 제어 입력인 경우, 3D 증강 현실 콘텐츠를 이용하여 내부 객체에 관한 고유 동작을 수행할 수 있다.
콘텐츠 편집부(105)는 3D 증강 현실 콘텐츠를 편집할 수 있는 편집 인터페이스를 통해 3D 증강 현실 콘텐츠를 편집할 수 있다. 이 때, 편집 인터페이스는 3D 외부 객체와 3D 내부 객체에 대한 태그 정보를 포함하고, 콘텐츠 편집부(105)는 태그 정보에 기초하여 3D 증강 현실 데이터의 부가 정보를 편집할 수 있다.
전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.
10: 제어 입력 장치
101: 콘텐츠 표시부
102: 제어 입력 수신부
103: 판단부
104: 고유 동작 수행부
105: 콘텐츠 편집부

Claims (17)

  1. 3D 증강 현실 콘텐츠의 제어 입력을 처리하는 방법에 있어서,
    3D 외부 객체와 상기 3D 외부 객체의 내부에 위치하는 3D 내부 객체를 포함하는 상기 3D 증강 현실 콘텐츠를 표시하는 단계;
    사용자 인터페이스로부터 상기 3D 증강 현실 콘텐츠의 제어 입력을 수신하는 단계;
    상기 제어 입력이 상기 3D 내부 객체에 관한 제어 입력인지 여부를 판단하는 단계; 및
    상기 제어 입력이 상기 3D 내부 객체에 관한 제어 입력인 경우, 상기 3D 증강 현실 콘텐츠를 이용하여 상기 내부 객체에 관한 고유 동작을 수행하는 단계를 포함하되,
    상기 3D 내부 객체에 관한 제어 입력인지 여부를 판단하는 단계는, 상기 제어 입력의 유형에 따라 상기 3D 내부 객체에 관한 제어 입력인지 여부를 판단하되,
    상기 제어 입력의 유형이 상기 3D 증강 현실 콘텐츠를 탭(Tab) 하는 입력인 경우, 상기 3D 외부 객체를 선택하는 제어 입력으로 판단하고, 상기 제어 입력의 유형이 상기 3D 증강 현실 콘텐츠를 더블 탭(Double Tab) 하는 경우, 상기 3D 내부 객체를 선택하는 제어 입력으로 판단하는 것인, 3D 증강 현실 콘텐츠 제어 입력 처리 방법.
  2. 제 1 항에 있어서,
    상기 내부 객체에 관한 고유 동작을 수행하는 단계는,
    상기 제어 입력이 상기 3D 내부 객체에 관한 제어 입력인 경우, 상기 3D 외부 객체를 투명화시키는 것인, 3D 증강 현실 콘텐츠 제어 입력 처리 방법.
  3. 제 1 항에 있어서,
    상기 제어 입력을 수신하는 단계는,
    적어도 하나의 손가락과 상기 사용자 인터페이스 사이의 접점의 수, 상기 적어도 하나의 손가락과 상기 사용자 인터페이스 사이의 접촉 시간, 접촉 회수, 접촉 후 이동 시간, 접촉 후 이동 거리 및 접촉 후 이동 방향 중 적어도 하나에 따라 상기 제어 입력을 수신하는 것인, 3D 증강 현실 콘텐츠 제어 입력 처리 방법.
  4. 삭제
  5. 제 1 항에 있어서,
    상기 3D 내부 객체에 관한 제어 입력인지 여부를 판단하는 단계는,
    적어도 하나의 손가락과 상기 사용자 인터페이스 사이의 접점의 수, 상기 적어도 하나의 손가락과 상기 사용자 인터페이스 사이의 접촉 시간, 접촉 회수, 첩촉 후 이동 시간, 접촉 후 이동 거리 및 접촉 후 이동 방향 중 적어도 하나에 따라 상기 3D 내부 객체에 관한 제어 입력인지 여부를 판단하는 것인, 3D 증강 현실 콘텐츠 제어 입력 처리 방법.
  6. 삭제
  7. 제 1 항에 있어서,
    상기 제어 입력의 유형은, 탭(Tab), 더블 탭(Double Tab), 롱 터치(Long Touch), 드래그(Drag), 슬라이드(Slide), 스핀(Spin), 스와이프(Swipe), 플릭(Flick), 핀치(Pinch) 및 스프레드(Spread) 중 적어도 하나를 포함하는 것인, 3D 증강 현실 콘텐츠 제어 입력 처리 방법.
  8. 제 1 항에 있어서,
    상기 3D 내부 객체에 관한 제어 입력인지 여부를 판단하는 단계는,
    상기 제어 입력이 소정 시간 동안 터치를 유지하는 입력인 경우, 상기 3D 내부 객체에 관한 제어 입력으로 판단하되,
    상기 고유 동작은, 뷰잉 엑시스(Viewing Axis)가 상기 3D 증강 현실 콘텐츠를 관통하는 축을 따라 내측으로 이동하면서 순차적으로 복수 계층의 3D 내부 객체를 선택하는 것인, 3D 증강 현실 콘텐츠 제어 입력 처리 방법.
  9. 제 1 항에 있어서,
    상기 3D 내부 객체에 관한 제어 입력인지 여부를 판단하는 단계는,
    상기 제어 입력이 핀치(Pinch) 동작인 경우, 상기 3D 내부 객체에 관한 제어 입력으로 판단하되,
    상기 고유 동작은 상기 3D 증강 현실 콘텐츠 내부에 포함된 상기 3D 내부 객체를 표시하는 것인, 3D 증강 현실 콘텐츠 제어 입력 처리 방법.
  10. 제 1 항에 있어서,
    상기 3D 내부 객체에 관한 제어 입력인지 여부를 판단하는 단계는,
    상기 제어 입력이 상기 더블 탭(Double Tab) 동작인 경우, 상기 3D 내부 객체에 관한 제어 입력으로 판단하되,
    상기 고유 동작은 상기 3D 외부 객체를 투명화하고, 상기 3D 외부 객체의 내부에 위치하는 3D 내부 객체를 표시하는 것인, 3D 증강 현실 콘텐츠 제어 입력 처리 방법.
  11. 제 1 항에 있어서,
    상기 3D 증강 현실 콘텐츠를 표시하는 단계는,
    상기 3D 증강 현실 콘텐츠를 기 설정된 개수만큼의 큐브 영역으로 분할하고
    상기 3D 내부 객체에 관한 제어 입력인지 여부를 판단하는 단계는,
    상기 분할된 영역 중 특정 영역을 선택하는 제어 입력인 경우, 상기 3D 내부 객체를 선택하는 것인, 3D 증강 현실 콘텐츠 제어 입력 처리 방법.
  12. 제 1 항에 있어서,
    상기 3D 증강 현실 콘텐츠를 편집할 수 있는 편집 인터페이스를 통해 상기 3D 증강 현실 콘텐츠를 편집하는 단계를 더 포함하는 것인, 3D 증강 현실 콘텐츠 제어 입력 처리 방법.
  13. 제 12 항에 있어서,
    상기 편집 인터페이스는 상기 3D 외부 객체와 상기 3D 내부 객체에 대한 태그 정보를 포함하고,
    상기 3D 증강 현실 콘텐츠를 편집하는 단계는 상기 태그 정보에 기초하여 상기 3D 증강 현실 콘텐츠의 부가 정보를 편집하는 것인, 3D 증강 현실 콘텐츠 제어 입력 처리 방법.
  14. 제 1 항에 있어서,
    상기 내부 객체에 관한 고유 동작을 수행하는 단계는,
    상기 3D 내부 객체를 강조, 상기 3D 내부 객체에 대한 부가 정보 표시 및 상기 3D 내부 객체와 연결된 광고 표시 중 적어도 하나를 포함하는 것인, 3D 증강 현실 콘텐츠 제어 입력 처리 방법.
  15. 3D 증강 현실 콘텐츠의 제어 입력을 처리하는 장치에 있어서,
    3D 외부 객체와 상기 3D 외부 객체의 내부에 위치하는 3D 내부 객체를 포함하는 상기 3D 증강 현실 콘텐츠를 표시하는 콘텐츠 표시부;
    사용자 인터페이스로부터 상기 3D 증강 현실 콘텐츠의 제어 입력을 수신하는 제어 입력 수신부;
    상기 제어 입력이 상기 3D 내부 객체에 관한 제어 입력인지 여부를 판단하는 판단부; 및
    상기 제어 입력이 상기 3D 내부 객체에 관한 제어 입력인 경우, 상기 3D 증강 현실 콘텐츠를 이용하여 상기 내부 객체에 관한 고유 동작을 수행하는 고유 동작 수행부를 포함하되,
    상기 판단부는 상기 제어 입력의 유형에 따라 상기 3D 내부 객체에 관한 제어 입력인지 여부를 판단하되,
    상기 제어 입력의 유형이 상기 3D 증강 현실 콘텐츠를 탭(Tab) 하는 입력인 경우, 상기 3D 외부 객체를 선택하는 제어 입력으로 판단하고, 상기 제어 입력의 유형이 상기 3D 증강 현실 콘텐츠를 더블 탭(Double Tab) 하는 경우, 상기 3D 내부 객체를 선택하는 제어 입력으로 판단하는 것인, 3D 증강 현실 콘텐츠 제어 입력 처리 장치.
  16. 제 15 항에 있어서,
    상기 3D 증강 현실 콘텐츠를 편집할 수 있는 편집 인터페이스를 통해 상기 3D 증강 현실 콘텐츠를 편집하는 콘텐츠 편집부를 더 포함하는 것인, 3D 증강 현실 콘텐츠 제어 입력 처리 장치.
  17. 제 16 항에 있어서,
    상기 편집 인터페이스는 상기 3D 외부 객체와 상기 3D 내부 객체에 대한 태그 정보를 포함하고,
    상기 콘텐츠 편집부는 상기 태그 정보에 기초하여 상기 3D 증강 현실 데이터의 부가 정보를 편집하는 것인, 3D 증강 현실 콘텐츠 제어 입력 처리 장치.
KR1020160052364A 2016-04-28 2016-04-28 증강 현실 콘텐츠 제어 방법과 그 장치 KR101743569B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160052364A KR101743569B1 (ko) 2016-04-28 2016-04-28 증강 현실 콘텐츠 제어 방법과 그 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160052364A KR101743569B1 (ko) 2016-04-28 2016-04-28 증강 현실 콘텐츠 제어 방법과 그 장치

Publications (1)

Publication Number Publication Date
KR101743569B1 true KR101743569B1 (ko) 2017-06-05

Family

ID=59223048

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160052364A KR101743569B1 (ko) 2016-04-28 2016-04-28 증강 현실 콘텐츠 제어 방법과 그 장치

Country Status (1)

Country Link
KR (1) KR101743569B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102597040B1 (ko) * 2022-12-26 2023-10-31 세종대학교산학협력단 증강현실 콘텐츠 현장 저작 방법 및 그 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101036107B1 (ko) * 2010-11-30 2011-05-19 심광호 고유식별 정보를 이용한 증강 현실 구현시스템

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101036107B1 (ko) * 2010-11-30 2011-05-19 심광호 고유식별 정보를 이용한 증강 현실 구현시스템

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102597040B1 (ko) * 2022-12-26 2023-10-31 세종대학교산학협력단 증강현실 콘텐츠 현장 저작 방법 및 그 장치

Similar Documents

Publication Publication Date Title
US6879332B2 (en) User interface for displaying and exploring hierarchical information
US8601510B2 (en) User interface for interactive digital television
US10228832B2 (en) Grouping with frames to transform display elements within a zooming user interface
KR101785748B1 (ko) 유연한 평행 및 직교 움직임을 가진 멀티-레이어 사용자 인터페이스
KR100755684B1 (ko) 3차원 모션 그래픽 사용자 인터페이스 및 이를 제공하는방법 및 장치
JP6144707B2 (ja) アレイモードを使用したブラウザ内でのコンテンツアイテム間のナビゲート方法
CN1327328C (zh) 三维运动图形用户接口和提供其的方法和设备
US20100111434A1 (en) Image rendering with image artifact along a multidimensional path
US20100153872A1 (en) Method for providing graphical user interface and electronic device using the same
EP1926312A2 (en) Method and apparatus for displaying menu in cross shape
KR20170010444A (ko) 줌 그래픽 사용자 인터페이스
Telkenaroglu et al. Dual-finger 3d interaction techniques for mobile devices
JP2013534656A (ja) 適応的で革新的なモバイルデバイスのストリートビュー
WO2008064610A1 (fr) Procédé, système et appareil pour commander le fond d'un bureau
US20190342633A1 (en) Methods, systems, and media for presenting interactive elements within video content
KR20150095536A (ko) 사용자 단말 장치 및 이의 디스플레이 방법
CN101430631B (zh) 与多个图像交互的方法以及用户界面装置
KR20160095065A (ko) 링크처 지정용 인터페이스 장치, 시청자용 인터페이스 장치, 및 컴퓨터 프로그램
US20130318453A1 (en) Apparatus and method for producing 3d graphical user interface
US8427502B2 (en) Context-aware non-linear graphic editing
KR20130054072A (ko) 다중 어플리케이션을 실행하는 모바일 장치 및 그 방법
JP2023079226A (ja) マルチデプスイメージの作成及びビューイング
CN111045586B (zh) 基于三维场景的界面切换方法、车机设备及车辆
EP2765495B1 (en) A method and a system for generating a graphical user interface
KR101743569B1 (ko) 증강 현실 콘텐츠 제어 방법과 그 장치

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant