KR101372099B1 - 멀티미디어 컨텐츠 공간 배치 시스템 및 방법 - Google Patents

멀티미디어 컨텐츠 공간 배치 시스템 및 방법 Download PDF

Info

Publication number
KR101372099B1
KR101372099B1 KR1020120115263A KR20120115263A KR101372099B1 KR 101372099 B1 KR101372099 B1 KR 101372099B1 KR 1020120115263 A KR1020120115263 A KR 1020120115263A KR 20120115263 A KR20120115263 A KR 20120115263A KR 101372099 B1 KR101372099 B1 KR 101372099B1
Authority
KR
South Korea
Prior art keywords
multimedia content
mobile device
augmented reality
space
virtual space
Prior art date
Application number
KR1020120115263A
Other languages
English (en)
Inventor
허원진
Original Assignee
에스케이씨앤씨 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이씨앤씨 주식회사 filed Critical 에스케이씨앤씨 주식회사
Priority to KR1020120115263A priority Critical patent/KR101372099B1/ko
Application granted granted Critical
Publication of KR101372099B1 publication Critical patent/KR101372099B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

멀티미디어 컨텐츠 공간 배치 시스템 및 방법이 제공된다. 본 발명의 실시예에 따른 컨텐츠 공간 배치 방법은, 모바일 기기의 위치를 기초로 가상 공간에 멀티미디어 컨텐츠를 배치할 배치 영역을 설정하고, 모바일 기기로부터 멀티미디어 컨텐츠를 수신하여 설정된 배치 영역에 3D-증강현실로 표시한다. 이에 의해, 모바일 기기에서 재생되는 멀티미디어 컨텐츠를 가상 공간에 3D-증강현실로 배치할 수 있게 되어, 사용자들에 시각적/감성적 재미를 제공할 수 있게 된다.

Description

멀티미디어 컨텐츠 공간 배치 시스템 및 방법{System and Method for Spatial Disposition of Multimedia Contents}
본 발명은 증강현실에 관한 것으로 멀티미디어 컨텐츠를 증강현실로 사용자에게 제공하는 시스템 및 방법에 관한 것이다.
증강현실 기술은 현실 세계에 가상 물체를 오버랩하여 보여주는 기술로, 게임이나 사용자 인터페이스 등으로 사용되고 있는데, 사용자에게 색다른 재미와 편리함을 제공하여 준다는 점에서 매우 유용한 기술로 평가받고 있다.
증강현실 기술을 응용하여, 멀티미디어 컨텐츠를 가상 공간에 표시할 수 있는데, 가상 공간에서 멀티미디어 컨텐츠의 위치는 이미 정해져 있을 뿐만 아니라 고정되어 있다.
표시 위치가 이미 정해지고 고정된 것은, 사용자가 위치를 직접 설정하거나 변경할 수 있도록 하기 위한 수단이 없기 때문인데, 이미 정해지고 고정된 위치는 증강현실의 가장 큰 장점인 사용상의 재미를 반감시키는 요소이다.
이에, 멀티미디어 컨텐츠 배치를 자유로울 뿐만 아니라 쉽고 재미있게 할 수 있도록 하기 위한 방안의 모색이 요청된다.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 모바일 기기로부터 수신한 멀티미디어 컨텐츠를 모바일 기기의 위치를 기초로 설정한 가상 공간에 3D-증강현실로 배치하기 위한 멀티미디어 컨텐츠 공간 배치 시스템 및 방법을 제공함에 있다.
본 발명의 다른 목적은, 재생되는 멀티미디어 컨텐츠를 디스플레이 장치로 제공하여, 가상 공간에 3D-증강현실로 배치하기 위한 멀티미디어 컨텐츠 공간 배치 시스템 및 방법을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 컨텐츠 공간 배치 방법은, 모바일 기기의 위치를 기초로, 가상 공간에 멀티미디어 컨텐츠를 배치할 배치 영역을 설정하는 단계; 상기 모바일 기기로부터 멀티미디어 컨텐츠를 수신하는 단계; 및 상기 수신단계를 통해 수신한 멀티미디어 컨텐츠를 상기 설정단계에서 설정된 상기 배치 영역에 3D-증강현실로 표시하는 단계;를 포함한다.
그리고, 상기 수신단계는, 상기 모바일 기기에서 재생되는 멀티미디어 컨텐츠를 수신할 수 있다.
또한, 상기 설정단계는, 상기 모바일 기기를 통해 상기 멀티미디어 컨텐츠를 상기 가상 공간에 배치하라는 공간배치 명령이 입력된 시점에 상기 모바일 기기가 공간상에서 위치하고 있었던 영역을 상기 배치 영역으로 설정할 수 있다.
그리고, 상기 공간배치 명령은, 상기 모바일 기기의 특정 버튼을 누른 상태로 상기 모바일 기기를 특정 방향으로 이동시키는 방식에 의해 입력될 수 있다.
또한, 상기 특정 방향은, 지면을 향하는 방향일 수 있다.
그리고, 상기 수신단계는, 상기 멀티미디어 컨텐츠를 부분적으로 수신하되, 수신 범위는 상기 특정 방향과 동일한 방향으로 이동할 수 있다.
또한, 전체 수신 범위는 상기 모바일 기기의 이동 변위량에 비례할 수 있다.
그리고, 상기 수신단계는, 상기 전체 수신 범위가 설정 분량에 도달하면, 상기 멀티미디어 컨텐츠의 나머지 부분을 모두 수신할 수 있다.
또한, 상기 수신단계를 통해 수신한 멀티미디어 컨텐츠의 음향을 상기 배치 영역에 입체 음향으로 출력하되, 상기 입체 음향의 크기가 전체 수신 범위에 비례하도록 출력하는 단계;를 더 포함할 수 있다.
한편, 본 발명의 다른 실시예에 따른, 3D-증강현실 디스플레이 장치는, 모바일 기기로부터, 멀티미디어 컨텐츠를 수신하는 통신부; 상기 멀티미디어 컨텐츠가 3D-증강현실로 표시되는 디스플레이; 및 상기 모바일 기기의 위치를 기초로 가상 공간에 멀티미디어 컨텐츠를 배치할 배치 영역을 설정하고, 상기 통신부를 통해 수신한 상기 멀티미디어 컨텐츠를 상기 디스플레이를 통해 상기 배치 영역에 3D-증강현실로 표시하는 프로세서;를 포함한다.
한편, 본 발명의 또 다른 실시예에 따른, 멀티미디어 컨텐츠 제공방법은, 모바일 기기가, 멀티미디어 컨텐츠를 재생하는 단계; 상기 멀티미디어 컨텐츠를 가상 공간에 배치하라는 공간배치 명령이 입력되면, 상기 모바일 기기가 상기 멀티미디어 컨텐츠를 화면에서 순차적으로 사라지도록 처리하는 단계; 및 사라지는 멀티미디어 컨텐츠 부분이 디스플레이 장치를 통해 가상 공간에 3D-증강현실로 표시되도록, 상기 모바일 기기가 상기 사라지는 멀티미디어 컨텐츠 부분을 상기 디스플레이 장치에 순차적으로 전송하는 단계;를 포함한다.
그리고, 상기 멀티미디어 컨텐츠가 설정 분량만큼 전송 완료되면, 상기 모바일 기기가 상기 멀티미디어 컨텐츠의 나머지를 모두 전송하는 단계;를 더 포함할 수 있다.
또한, 상기 공간배치 명령은, 상기 모바일 기기의 특정 버튼을 누른 상태로 상기 모바일 기기를 특정 방향으로 이동시키는 방식에 의해 입력될 수 있다.
그리고, 상기 멀티미디어 컨텐츠가 상기 화면에서 순차적으로 사라지는 방향은, 상기 특정 방향과 반대 방향일 수 있다.
또한, 상기 멀티미디어 컨텐츠가 상기 화면에서 사라지는 분량은, 상기 모바일 기기의 이동 변위량에 비례할 수 있다.
한편, 본 발명의 다른 실시예에 따른, 모바일 기기는, 멀티미디어 컨텐츠가 표시되는 터치 스크린; 디스플레이 장치와 통신 가능하도록 연결되는 통신부; 및 상기 멀티미디어 컨텐츠를 재생하여 상기 터치 스크린에 표시하고, 상기 멀티미디어 컨텐츠를 가상 공간에 배치하라는 공간배치 명령이 입력되면 상기 멀티미디어 컨텐츠가 상기 터치 스크린에서 순차적으로 사라지도록 처리하며, 사라지는 멀티미디어 컨텐츠 부분이 상기 디스플레이 장치를 통해 가상 공간에 3D-증강현실로 표시되도록 상기 사라지는 멀티미디어 컨텐츠 부분을 상기 통신부를 통해 상기 디스플레이 장치에 순차적으로 전송하는 제어부;를 포함한다.
이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 모바일 기기에서 재생되는 멀티미디어 컨텐츠를 가상 공간에 3D-증강현실로 배치할 수 있게 되어, 사용자들에 시각적/감성적 재미를 제공할 수 있다. 또한, 비교적 쉽고 재미있는 방식으로, 멀티미디어 컨텐츠를 배치하고자 하는 가상 공간을 특정할 수 있다는 장점이 있다.
도 1은 본 발명의 일 실시예에 따른 멀티미디어 컨텐츠 공간 배치 시스템을 도시한 도면,
도 2 내지 도 9는, 본 실시예에 따른 멀티미디어 컨텐츠 공간 배치 시스템에서 3D-증강현실 HMD를 통해 보여지는 결과를 그대로 도시한 도면들.
도 10은 본 발명의 다른 실시예에 따른 멀티미디어 컨텐츠 공간 배치 방법의 설명에 제공되는 도면,
도 11은 본 발명의 또 다른 실시예에 따른 멀티미디어 컨텐츠 공간 배치 방법의 설명에 제공되는 도면,
도 12 내지 도 15는, 본 실시예에 따른 멀티미디어 컨텐츠 공간 배치 시스템에서, 3D-증강현실 HMD를 통해 동영상이 출력되는 결과를 그대로 도시한 도면,
도 16은, 도 1에 도시된 모바일 기기의 블럭도, 그리고,
도 17은, 도 1에 도시된 3D-증강현실 HMD의 블럭도이다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
1. 멀티미디어 컨텐츠 공간 배치 시스템
도 1은 본 발명의 일 실시예에 따른 멀티미디어 컨텐츠 공간 배치 시스템을 도시한 도면이다. 본 실시예에 따른 멀티미디어 컨텐츠 공간 배치 시스템은, 멀티미디어 컨텐츠를 3D-증강현실로 제공하는 시스템으로, 도 1에 도시된 바와 같이 3D-카메라(100), 모바일 기기(200) 및 3D-증강현실 HMD(Head Mounted Display)(300)를 포함하여 구축된다.
본 실시예에 따른 3D-증강현실 제공 시스템에서, 3D-증강현실 HMD(300)는 모바일 기기(200)에 재생된 멀티미디어 컨텐츠를 현실 세계에 가상으로 오버랩시켜 배치하는 방식으로 3D-증강현실을 제공한다.
3D-카메라(100)는 모바일 기기(200)가 '공간상에서 위치하고 있는 영역'(이하, '공간 위치 영역'으로 약칭)를 산출하고, 산출된 공간 위치 영역에 대한 정보를 모바일 기기(200) 또는 3D-증강현실 HMD(300)에 제공한다.
모바일 기기(200)의 공간 위치 영역을 산출하기 위해, 3D-카메라(100)는 3D-영상을 생성하기 위한 스테레오 카메라와 3D-영상 처리소자를 구비할 수 있다. 이밖에도, 3D-카메라(100)는 스테레오 카메라 대신 이미지-카메라와 깊이(Depth)-카메라를 이용하여 3D-영상을 생성할 수도 있다. 3D-영상 처리소자는, 3D-영상에서 모바일 기기(200)를 검출하여, 공간 위치 영역을 산출하기 위한 소자이다.
3D-증강현실 HMD(300)는 투명 3D-디스플레이를 이용하여 증강현실을 3D로 제공하기 위한 장치의 일종이다. 3D-증강현실 HMD(300)는 HMD가 아닌 안경(고글) 형태로 구현하는 것도 가능하다. 어떠한 형태로 구현할지 여부는 필요의 문제이다.
전술한 바와 같이, 3D-증강현실 HMD(300)가 3D-증강현실에서 가상으로 표시하는 것은 모바일 기기(200)에 재생된 멀티미디어 컨텐츠이다. 여기서, 멀티미디어 컨텐츠는 정지영상, 동영상, 문서, 텍스트 등 그 종류를 불문한다.
따라서, 본 실시예에 따른 3D-증강현실 제공 시스템에서, 모바일 기기(200)는 가상으로 표시될 멀티미디어 컨텐츠를 3D-증강현실 HMD(300)에 제공하는 컨텐츠 제공자로 기능한다.
또한, 모바일 기기(200)에 재생된 멀티미디어 컨텐츠를 현실 세계에 가상으로 오버랩시켜 표시하도록 하기 위한 명령인 "컨텐츠 공간배치 명령"이 입력되는 기기이다.
그리고, 모바일 기기(200)는 멀티미디어 컨텐츠가 현실 세계에 가상으로 오버랩되어 배치되는 영역을 특정하는 수단으로도 기능한다. 멀티미디어 컨텐츠가 배치되는 가상 공간은, "컨텐츠 공간배치 명령"이 입력된 시점에서 모바일 기기(200)의 공간 위치 영역이다.
2. 멀티미디어 컨텐츠 (사진, 문서 등) 공간 배치
이하에서, 본 실시예에 따른 멀티미디어 컨텐츠 공간 배치 시스템에서, 3D-증강현실 HMD(300)가 모바일 기기(200)에 재생된 멀티미디어 컨텐츠를 현실 세계의 특정 공간에 가상으로 배치하여 표시하는 과정에 대해, 도 2 내지 도 6을 참조하여 상세히 설명한다.
도 2 내지 도 6은, 본 실시예에 따른 멀티미디어 컨텐츠 공간 배치 시스템에서, 3D-증강현실 HMD(300)를 통해 보여지는 결과를 그대로 도시한 도면이다.
도 2에는 모바일 기기(200)가 사람의 양손에 의해 들려져 있는 상태를 도시하였다. 도시와 관찰의 편의를 위해 모바일 기기(200)를 들고 있는 사람은 도시하지 않았으며, 단지 모바일 기기(200)를 들고 있는 사람의 양손만을 도시하였다.
도 2에 도시된 모바일 기기(200)의 화면에는 정지영상 컨텐츠인 사진이 재생되고 있는 것을 상정한다. 도 2에 도시된 모바일 기기(200)의 케이스에 도시된 참조부호 "245"는 '컨텐츠 공간배치 명령을 입력하는데 이용되는 버튼'(이하, '공간배치-버튼')이다.
도 3에 도시된 바와 같이 공간배치-버튼(245)을 누른 상태로 모바일 기기(200)를 하강시키면(아래로 내리면), 도 4와 도 5에 도시된 바와 같이 모바일 기기(200)의 화면에 표시된 사진이 상부부터 순차적으로 가상 공간으로 이동하여, 결국에는 도 6에 도시된 바와 같이 사진 전부가 가상 공간으로 이동하게 된다.
3D-증강현실 HMD(300)를 착용한 사용자 입장에서는, 사진이 가상 세계와 현실 세계에 걸쳐 고정되어 있는 상태에서, 모바일 기기(200)만이 하강된 것처럼 보여진다.
이는, 모바일 기기(200)가 사진이 상승하면서 화면에서 순차적으로 사라지도록 처리하고, 이와 동시에 3D-증강현실 HMD(300)은 모바일 기기(200)에서 사라지는 부분을 3D-증강현실로 순차적으로 표시한 결과이다. 이를 위해, 모바일 기기(200)는 사라지는 부분을 3D-증강현실 HMD(300)에 순차적으로 전송하여야 한다.
한편, 도 5에 도시된 바와 같이, 모바일 기기(200)에서 사진의 70%가 사라지면, 3D-증강현실 HMD(300)에 의해 사진의 100%(전부) 모두가 3D-증강현실로 표시된다. 이에 따라, 도 5에 도시된 바와 같이, 모바일 기기(200)가 사진의 70%까지 사라지도록 하강된 후에, 도 7에 도시된 바와 같이 다른 방향으로 이동하더라도 가상 공간에는 사진의 전부가 남아 있게 된다.
이와 같은 방식에 의해, 모바일 기기(200)에 재생된 사진을 가상 공간에 배치할 수 있게 된다. 여러 사진들을 가상 공간에 배치하는 것도 가능한데, 도 8에는 2개의 사진들(410,420)을 가상 공간에 배치한 경우를 도시하였다.
도 8에 도시된 바와 같이 사진들(410,420)을 가상 공간에 배치함으로서, 집안에 가상 액자를 설치한 듯한 효과를 연출할 수 있다. 한편, 도 9에 도시된 바와 같이, 회의실에서도 위 방식에 따라 다수의 문서들(430,440)을 가상 공간에 배치함으로서, 입체적인 프리젠테이션을 지원할 수 있다.
3. 멀티미디어 컨텐츠 공간 배치 방법
이하에서, 본 실시예에 따른 멀티미디어 컨텐츠 공간 배치 시스템에 의해 멀티미디어 컨텐츠 공간 배치가 수행되는 구체적 과정에 대해, 도 10 및 도 11을 참조하여 상세히 설명한다.
도 10은 본 발명의 다른 실시예에 따른 멀티미디어 컨텐츠 공간 배치 방법의 설명에 제공되는 도면이다.
도 10에 도시된 바와 같이, 모바일 기기(200)가 멀티미디어 컨텐츠 재생 중에(S505), 공간배치-버튼이 눌러진 상태로 하강(아래로 내려지기) 시작하면(S510), 모바일 기기(200)는 3D-카메라(100)에 자신이 위치한 공간 위치 영역을 문의한다(S515).
S515단계에 대한 응답으로, 3D-카메라(100)는 모바일 기기(200)의 공간 위치 영역을 산출하고(S520), 산출된 공간 위치 영역에 대한 정보를 모바일 기기(200)에 안내한다(S525).
모바일 기기(200)는 S525단계를 통해 통보받은 자신의 공간 위치 영역에 대한 정보를 3D-증강현실 HMD(300)에 전달한다(S530). 3D-증강현실 HMD(300)는 S530단계에서 수신한 모바일 기기(200)의 공간 위치 영역을 멀티미디어 컨텐츠 배치 영역으로 설정한다(S535).
한편, 모바일 기기(200)는 하강 변위량 산출을 시작한다(S540). 그리고, 모바일 기기(200)는 멀티미디어 컨텐츠가 상승하면서 화면에서 순차적으로 사라지도록 처리 시작하는데, 사라지는 범위는 S540단계에서 산출 시작된 하강 변위량에 비례하도록 한다(S545).
또한, 모바일 기기(200)는 S545단계에서 사라지는 멀티미디어 컨텐츠 부분을 순차적으로 3D-증강현실 HMD(300)에 전송 시작한다(S550). 따라서, 모바일 기기(200)에서 3D-증강현실 HMD(300)로 전송되는 멀티미디어 컨텐츠의 전송 범위 역시 S540단계에서 산출 시작된 하강 변위량에 비례하게 되는데, 모바일 기기(200)의 화면에서 사라지는 범위가 하강 변위량에 비례하기 때문이다.
환언하면, S550단계에서, 모바일 기기(200)는 자신의 화면에 나타난 멀티미디어 컨텐츠를 상부부터 하부까지 순차적으로 3D-증강현실 HMD(300)에 전송 시작하되, 전송 범위는 S540단계에서 산출 시작되는 하강 변위량에 비례하도록 한다고 할 수 있다.
예를 들어, 모바일 기기(200)가 "3cm" 하강한 경우, 모바일 기기(200)는 자신의 화면에 나타난 멀티미디어 컨텐츠의 상부 "3cm" 부분을 화면에서 사라지게 하는 반면, 사라진 멀티미디어 컨텐츠의 상부 "3cm" 부분을 3D-증강현실 HMD(300)에 전송하는 것이다.
이에 따르면, 멀티미디어 컨텐츠가 화면에서 순차적으로 사라지는 방향은, 모바일 기기(200)가 이동하는 방향과 반대 방향이고, 멀티미디어 컨텐츠가 화면에서 사라지는 분량은 모바일 기기(200)의 이동 변위량에 비례함을 알 수 있다.
또한, 모바일 기기(200)/3D-증강현실 HMD(300)가 멀티미디어 컨텐츠를 부분적으로 전송/수신하는 범위는 모바일 기기(200)가 이동하는 방향과 동일한 방향(상부에서 하부로)히고, 전체 전송/수신 범위는 모바일 기기(200)의 이동 변위량에 비례한다고 할 수 있다.
3D-증강현실 HMD(300)는 S550단계를 통해 수신 시작되는 멀티미디어 컨텐츠 부분을 3D-증강현실로 표시하는데, S535단계를 통해 설정된 멀티미디어 컨텐츠 배치 영역의 상부부터 하부까지 순차적으로 표시 시작한다(S555).
한편, 멀티미디어 컨텐츠의 70%가 전송 완료되면(S560-Y), 모바일 기기(200)는 멀티미디어 컨텐츠의 나머지 30%를 3D-증강현실 HMD(300)에 순차적으로 모두 전송한다(S565).
이후, 3D-증강현실 HMD(300)는 S560단계를 통해 수신받은 멀티미디어 컨텐츠의 나머지 30%를 멀티미디어 컨텐츠 배치 영역의 나머지 부분에 3D-증강현실로 표시한다(S570).
도 11은 본 발명의 또 다른 실시예에 따른 멀티미디어 컨텐츠 공간 배치 방법의 설명에 제공되는 도면이다.
도 11에 도시된 바와 같이, 멀티미디어 컨텐츠 재생 중에(S605), 공간배치-버튼이 눌러진 상태로 하강(아래로 내려지기) 시작하면(S610), 모바일 기기(200)는 하강 변위량 산출을 시작한다(S615).
그리고, 모바일 기기(200)는 멀티미디어 컨텐츠가 상승하면서 화면에서 순차적으로 사라지도록 처리 시작하는데, 사라지는 범위는 S615단계에서 산출 시작된 하강 변위량에 비례하도록 한다(S620).
모바일 기기(200)는 S620단계에서 사라지는 멀티미디어 컨텐츠 부분을 순차적으로 3D-증강현실 HMD(300)에 전송 시작한다(S625). 환언하면, S625단계에서, 모바일 기기(200)는 자신의 화면에 나타난 멀티미디어 컨텐츠를 상부부터 하부까지 순차적으로 3D-증강현실 HMD(300)에 전송 시작하되, 전송 범위는 S615단계에서 산출 시작되는 하강 변위량에 비례하도록 한다고 할 수 있다.
모바일 기기(200)로부터 멀티미디어 컨텐츠를 수신한 3D-증강현실 HMD(300)는 3D-카메라(100)에 모바일 기기(200)의 공간 위치 영역을 문의한다(S630). 이에, 3D-카메라(100)는 모바일 기기(200)의 공간 위치 영역을 산출하고(S635), 산출된 공간 위치 영역에 대한 정보를 3D-증강현실 HMD(300)에 안내한다(S640).
모바일 기기(200)는 S640단계를 통해 안내받은 모바일 기기(200)의 공간 위치 영역을 멀티미디어 컨텐츠 배치 영역으로 설정한다(S645).
이후, 3D-증강현실 HMD(300)는 S625단계를 통해 수신 시작되는 멀티미디어 컨텐츠 부분을 3D-증강현실로 표시하는데, S645단계를 통해 설정된 멀티미디어 컨텐츠 배치 영역의 상부부터 하부까지 순차적으로 표시 시작한다(S650).
다음, S655단계 내지 S665단계가 수행되는데, 이들은 도 10의 S560단계 내지 S570단계와 동일하므로 상세한 설명은 생략한다.
4. 멀티미디어 컨텐츠 (동영상) 공간 배치
지금까지, 멀티미디어 컨텐츠 공간 배치 시스템 및 방법에 대해 바람직한 실시예들을 들어 상세히 설명하였다. 위 실시예에서는, 사진, 문서 등과 같은 음향이 없는 멀티미디어 컨텐츠를 공간 배치하는 것을 상정하였는데, 동영상과 같이 음향이 있는 멀티미디어 컨텐츠를 공간 배치하는 경우도 본 발명의 기술적 사상이 적용가능하다.
도 12 내지 도 15는, 본 실시예에 따른 멀티미디어 컨텐츠 공간 배치 시스템에서, 3D-증강현실 HMD(300)가 모바일 기기(200)에 재생된 동영상을 현실 세계의 특정 공간에 가상으로 배치하여 재생하는 과정을, 3D-증강현실 HMD(300)를 통해 보여지는 결과 그대로 도시한 도면이다.
도 12에는 모바일 기기(200)가 사람의 양손에 의해 들려져 있는 상태에서 도영상이 재생되고 있는 상태를 도시하였다. 도 12에 도시된 바에 따르면, 모바일 기기(200)의 화면에서 영상이 출력되고 모바일 기기(200)의 아래 쪽에서 음향이 출력되고 있음을 확인할 수 있다.
이 상태에서, 공간배치-버튼을 누른 상태로 모바일 기기(200)를 하강시키면(아래로 내리면), 도 13 및 도 14에 도시된 바와 같이 모바일 기기(200)의 화면에 나타난 영상이 상부부터 순차적으로 가상 공간으로 이동하여, 결국에는 도 15에 도시된 바와 같이 영상 전부가 가상 공간으로 이동하게 된다.
한편, 도 12 내지 도 14에 도시된 바와 같이 모바일 기기(200)가 하강하는 과정에서 모바일 기기(200)에서 출력되는 음향의 크기는 점점 감소하며, 도 15에 도시된 바와 같이 모바일 기기(200)에서 영상이 완전히 사라지면, 모바일 기기(200)에서 음향이 출력되지 않는다.
반면, 도 13 내지 도 15에 도시된 바와 같이 모바일 기기(200)가 하강하는 과정에 배치 영역에서 출력되는 음향의 크기는 점점 증가한다. 배치 영역에서의 음향 출력은 3D-증강현실 HMD(300)에 의한 입체 음향 출력을 통해 구현가능하다.
모바일 기기(200)에서 출력되는 음향의 크기는 전체 전송 범위에 반비례하고, 3D-증강현실 HMD(300)에서 배치 영역에서 출력되는 입체 음향의 크기는 전체 수신 범위에 비례한다고 할 수 있다.
동영상 공간 배치의 경우, 모바일 기기(200)는 화면에서 사라진 영상 부분 외에 음향을 3D-증강현실 HMD(300)로 전송할 것이 요구된다.
5. 멀티미디어 컨텐츠 공간 배치 시스템의 구성
이하에서, 도 1에 도시된 멀티미디어 컨텐츠 공간 배치 시스템을 구성하는 모바일 기기(200)와 3D-증강현실 HMD(300)에 대해 상세히 설명한다.
5.1 모바일 기기
도 16은, 도 1에 도시된 모바일 기기(200)의 블럭도이다. 도 16에 도시된 바와 같이, 모바일 기기(200)는 자이로 센서(210), 터치 스크린(220), 제어부(230), 사용자 인터페이스(240) 및 통신부(250)를 구비한다.
자이로 센서(210)는 모바일 기기(200)의 움직임을 감지하고, 감지결과를 제어부(230)로 전달한다.
터치 스크린(220)는 멀티미디어 컨텐츠가 재생되는 디스플레이 수단으로 기능하는 한편, 터치 방식으로 사용자 명령을 입력받는 입력 수단으로 기능한다.
사용자 인터페이스(240)는 터치 스크린(220)을 제외한 사용자 인터페이스 수단들로, 모바일 기기(200)의 케이스에 마련되는 물리적인 버튼들과 음향을 출력하는 스피커를 포함한다. 앞서 언급한 바 있는 공간배치-버튼(245)은 사용자 인터페이스(240)에 포함된다.
통신부(250)는 이동통신과 무선 네트워킹을 위한 수단으로, 위 실시예들에서는 3D-카메라(100) 및 3D-증강현실 HMD(300)와 무선으로 통신하기 위한 수단으로 이용된다.
제어부(230)는 모바일 기기(200)의 전반적인 동작을 제어한다. 본 실시예들과 관련하여, 제어부(230)는 멀티미디어 컨텐츠를 재생하여 터치 스크린(220)에 표시하고, 자이로 센서(210)의 감지결과를 기초로 모바일 기기(200)가 하강 하였는지 여부 및 하강 변위량을 산출한다.
또한, 모바일 기기(200)의 하강이 발생한 경우, 제어부(230)는 멀티미디어 컨텐츠가 터치 스크린(220)에서 상승하면서 순차적으로 사라지도록 처리하고, 사라지는 부분을 통신부(250)를 통해 3D-증강현실 HMD(300)에 전송한다. 한편, 멀티미디어 컨텐츠의 70%가 사라지면, 제어부(230)는 멀티미디어 컨텐츠의 나머지 부분을 모두 통신부(250)를 통해 3D-증강현실 HMD(300)에 전송한다.
5.2 3D-증강현실 HMD
도 17은, 도 1에 도시된 3D-증강현실 HMD(300)의 블럭도이다. 도 17에 도시된 바와 같이, 3D-증강현실 HMD(300)는 통신부(310), 3D 투명 디스플레이(320), 프로세서(330), 저장부(340) 및 입체 음향 출력부(350)를 구비한다.
통신부(310)는 3D-카메라(100) 및 모바일 기기(200)와 무선으로 통신하기 위한 수단으로 이용된다.
3D 투명 디스플레이(320)는 멀티미디어 컨텐츠의 영상이 3D로 표시되는 수단으로, 투명 디스플레이기 때문에 표시된 멀티미디어 컨텐츠의 영상은 현실 세계에 가상으로 오버랩되어 배치된다. 영상을 3D로 표시하기 위해, 3D 투명 디스플레이(320)는 투명 좌안 디스플레이와 투명 우안 디스플레이를 구비한다.
입체 음향 출력부(350)는 멀티미디어 컨텐츠의 음향이 입체적으로 출력되는 수단이다.
프로세서(330)는 3D-증강현실 HMD(300)의 전반적인 동작을 제어한다. 특히, 프로세서(330)는 통신부(310)를 통해 3D-카메라(100) 또는 모바일 기기(200)로부터 전달받은 모바일 기기(200)의 공간 위치 영역으로부터 멀티미디어 배치 영역을 설정한다.
또한, 프로세서(330)는 통신부(310)를 통해 모바일 기기(200)로부터 수신되는 멀티미디어 컨텐츠 중 영상을 3D 투명 디스플레이(320)에 3D로 표시하고, 음향은 입체 음향 출력부(350)를 통해 입체 음향으로 출력한다.
여기서, 프로세서(330)는 멀티미디어 배치 영역에 영상이 표시되도록 3D 디스플레이 처리를 수행하고, 멀티미디어 배치 영역에서 음향이 발생하는 것처럼 입체 음향 처리를 수행한다.
저장부(340)는 프로세서(330)가 3D-증강현실 HMD(300)의 동작을 제어하는데 필요한 프로그램과 데이터가 저장되고, 모바일 기기(200)로부터 수신한 멀티미디어 컨텐츠가 저장되는 저장매체이다.
6. 변형예
지금까지, 모바일 기기에서 재생되는 멀티미디어 컨텐츠를 현실 세계에 가상으로 오버랩시켜 배치하는 방식으로 3D-증강현실을 제공하는 멀티미디어 컨텐츠 공간 배치 시스템 및 방법에 대해 바람직한 실시예들을 들어 상세히 설명하였다.
위 실시예들에서, 컨텐츠 공간배치 명령은 모바일 기기(200)의 케이스에 마련된 물리적인 버튼을 눌러 입력하는 것을 상정하였으나, 모바일 기기(200)의 터치 스크린(220)에 나타나는 그래픽 버튼으로 구현하는 것도 가능하다.
또한, 위 실시예들에서, 모바일 기기(200)에 재생되는 멀티미디어 컨텐츠를 가상 세계로 이동시키기 위해, 모바일 기기(200)를 하강(지면을 향하는 방향으로 이동) 시키는 것으로 도시하고 설명하였으나, 이는 설명의 편의를 위한 일 예에 해당한다. 모바일 기기(200)를 하강 시키는 것 이외에, 상승시키거나 좌측 또는 우측으로 이동시키는 경우에 멀티미디어 컨텐츠가 가상 세계로 이동하도록 구현하는 경우도, 본 발명의 기술적 사상이 적용된다.
또한, 3D-카메라(100)는 모바일 기기(200)의 공간 위치 영역을 산출할 수 있는 다른 방식의 장치로 대체가능하다. 뿐만 아니라, 3D-카메라(100)에 의해 생성된 3D-영상을 토대로, 모바일 기기(200)나 3D-증강현실 HMD(300)가 모바일 기기(200)의 공간 위치 영역을 산출하는 것으로 구현하는 것도 가능하다.
그리고, 도 1에서 모바일 기기(200)와 3D-증강현실 HMD(300)는 하나씩 도시되어 있으나, 이들은 다수가 될 수도 있다. 특히, 가족 구성원들 모두나 회의 참석자들 모두에게 3D-증강현실을 제공하기 위해서는, 3D-증강현실 HMD(300)가 다수가 되어 모바일 기기(200)와 일대다로 통신하여야 한다.
한편, 위 실시예들에서는, 모바일 기기(200)의 공간 위치 영역에 멀티미디어 컨텐츠를 배치하는 경우들에 대해서만 도시하고 설명하였다. 하지만, 가상 공간에 이미 배치된 멀티미디어 컨텐츠를 삭제하는 것도 가능하다. 이는, 모바일 기기(200)를 멀티미디어 컨텐츠가 배치된 영역에 위치시킨 후, 컨텐츠 공간삭제 명령을 입력하는데 이용되는 버튼을 눌러 멀티미디어 컨텐츠를 문지르는 동작으로 가능하다. 이 경우, 사용자의 입장에서 모바일 기기(200)는 가상 공간에 이미 배치된 멀티미디어 컨텐츠를 지우기 위한 지우개로 느껴질 것이다.
또한, 가상 공간에 이미 배치된 멀티미디어 컨텐츠를 확대하거나 축소시키는 기능을 추가하는 것이 가능한데, 확대/축소 명령은 모바일 기기(200)는 물론 3D-증강현실 HMD(300)를 통해서도 입력가능하도록 구현할 수 있다.
한편, 본 실시예에 따른 장치와 방법의 기능을 수행하게 하는 컴퓨터 프로그램을 수록한 컴퓨터로 읽을 수 있는 기록매체에도 본 발명의 기술적 사상이 적용될 수 있음은 물론이다. 또한, 본 발명의 다양한 실시예에 따른 기술적 사상은 컴퓨터로 읽을 수 있는 기록매체에 기록된 컴퓨터로 읽을 수 있는 코드 형태로 구현될 수도 있다. 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터에 의해 읽을 수 있고 데이터를 저장할 수 있는 어떤 데이터 저장 장치이더라도 가능하다. 예를 들어, 컴퓨터로 읽을 수 있는 기록매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광디스크, 하드 디스크 드라이브, 등이 될 수 있음은 물론이다. 또한, 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터로 읽을 수 있는 코드 또는 프로그램은 컴퓨터간에 연결된 네트워크를 통해 전송될 수도 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안 될 것이다.
100 : 3D-카메라 200 : 모바일 기기
210 : 자이로 센서 220 : 터치 스크린
230 : 제어부 240 : 사용자 인터페이스
250 : 통신부
300 : 3D-증강현실 HMD(Head Mounted Display)
310 : 통신부 320 : 3D 투명 디스플레이
330 : 프로세서 340 : 저장부
350 : 입체 음향 출력부

Claims (16)

  1. 모바일 기기의 위치를 기초로, 가상 공간에 멀티미디어 컨텐츠를 배치할 배치 영역을 설정하는 단계;
    상기 모바일 기기로부터 멀티미디어 컨텐츠를 수신하는 단계; 및
    상기 수신단계를 통해 수신한 멀티미디어 컨텐츠를 상기 설정단계에서 설정된 상기 배치 영역에 3D-증강현실로 표시하는 단계;를 포함하는 것을 특징으로 하는 컨텐츠 공간 배치 방법.
  2. 제 1항에 있어서,
    상기 수신단계는,
    상기 모바일 기기에서 재생되는 멀티미디어 컨텐츠를 수신하는 것을 특징으로 하는 컨텐츠 공간 배치 방법.
  3. 제 2항에 있어서,
    상기 설정단계는,
    상기 모바일 기기를 통해 상기 멀티미디어 컨텐츠를 상기 가상 공간에 배치하라는 공간배치 명령이 입력된 시점에 상기 모바일 기기가 공간상에서 위치하고 있었던 영역을 상기 배치 영역으로 설정하는 것을 특징으로 하는 컨텐츠 공간 배치 방법.
  4. 제 3항에 있어서,
    상기 공간배치 명령은,
    상기 모바일 기기의 특정 버튼을 누른 상태로 상기 모바일 기기를 특정 방향으로 이동시키는 방식에 의해 입력되는 것을 특징으로 하는 컨텐츠 공간 배치 방법.
  5. 제 4항에 있어서,
    상기 특정 방향은,
    지면을 향하는 방향인 것을 특징으로 하는 컨텐츠 공간 배치 방법.
  6. 제 4항에 있어서,
    상기 수신단계는,
    상기 멀티미디어 컨텐츠를 부분적으로 수신하되, 수신하는 부분의 위치는 상기 모바일 기기의 이동 방향과 동일한 방향으로 이동하는 것을 특징으로 하는 컨텐츠 공간 배치 방법.
  7. 제 6항에 있어서,
    수신한 부분의 크기는,
    상기 모바일 기기의 이동량에 비례하는 것을 특징으로 하는 컨텐츠 공간 배치 방법.
  8. 제 7항에 있어서,
    상기 수신단계는,
    상기 수신한 부분의 크기가 설정 분량에 도달하면, 상기 멀티미디어 컨텐츠의 나머지 부분을 모두 수신하는 것을 특징으로 하는 컨텐츠 공간 배치 방법.
  9. 제 7항에 있어서,
    상기 수신단계를 통해 수신한 멀티미디어 컨텐츠의 음향을 상기 배치 영역에 입체 음향으로 출력하되, 상기 입체 음향의 크기가 상기 수신한 부분의 크기에 비례하도록 출력하는 단계;를 더 포함하는 것을 특징으로 하는 컨텐츠 공간 배치 방법.
  10. 모바일 기기로부터, 멀티미디어 컨텐츠를 수신하는 통신부;
    상기 멀티미디어 컨텐츠가 3D-증강현실로 표시되는 디스플레이; 및
    상기 모바일 기기의 위치를 기초로 가상 공간에 멀티미디어 컨텐츠를 배치할 배치 영역을 설정하고, 상기 통신부를 통해 수신한 상기 멀티미디어 컨텐츠를 상기 디스플레이를 통해 상기 배치 영역에 3D-증강현실로 표시하는 프로세서;를 포함하는 것을 특징으로 하는 3D-증강현실 디스플레이 장치.
  11. 모바일 기기가, 멀티미디어 컨텐츠를 재생하는 단계;
    상기 멀티미디어 컨텐츠를 가상 공간에 배치하라는 공간배치 명령이 입력되면, 상기 모바일 기기가 상기 멀티미디어 컨텐츠를 화면에서 순차적으로 사라지도록 처리하는 단계; 및
    사라지는 멀티미디어 컨텐츠 부분이 디스플레이 장치를 통해 가상 공간에 3D-증강현실로 표시되도록, 상기 모바일 기기가 상기 사라지는 멀티미디어 컨텐츠 부분을 상기 디스플레이 장치에 순차적으로 전송하는 단계;를 포함하는 것을 특징으로 하는 멀티미디어 컨텐츠 제공방법.
  12. 제 11항에 있어서,
    상기 멀티미디어 컨텐츠가 설정 분량만큼 전송 완료되면, 상기 모바일 기기가 상기 멀티미디어 컨텐츠의 나머지를 모두 상기 디스플레이 장치에 전송하는 단계;를 더 포함하는 것을 특징으로 하는 멀티미디어 컨텐츠 제공방법.
  13. 제 11항에 있어서,
    상기 공간배치 명령은,
    상기 모바일 기기의 특정 버튼을 누른 상태로 상기 모바일 기기를 특정 방향으로 이동시키는 방식에 의해 입력되는 것을 특징으로 하는 멀티미디어 컨텐츠 제공방법.
  14. 제 13항에 있어서,
    상기 멀티미디어 컨텐츠가 상기 화면에서 순차적으로 사라지는 방향은, 상기 특정 방향과 반대 방향인 것을 특징으로 하는 멀티미디어 컨텐츠 제공방법.
  15. 제 14항에 있어서,
    상기 멀티미디어 컨텐츠가 상기 화면에서 사라지는 부분의 크기는, 상기 모바일 기기의 이동량에 비례하는 것을 특징으로 하는 멀티미디어 컨텐츠 제공방법.
  16. 멀티미디어 컨텐츠가 표시되는 터치 스크린;
    디스플레이 장치와 통신 가능하도록 연결되는 통신부; 및
    상기 멀티미디어 컨텐츠를 재생하여 상기 터치 스크린에 표시하고, 상기 멀티미디어 컨텐츠를 가상 공간에 배치하라는 공간배치 명령이 입력되면, 상기 멀티미디어 컨텐츠가 상기 터치 스크린에서 순차적으로 사라지도록 처리하며, 사라지는 멀티미디어 컨텐츠 부분이 상기 디스플레이 장치를 통해 가상 공간에 3D-증강현실로 표시되도록 상기 사라지는 멀티미디어 컨텐츠 부분을 상기 통신부를 통해 상기 디스플레이 장치에 순차적으로 전송하는 제어부;를 포함하는 것을 특징으로 하는 모바일 기기.
KR1020120115263A 2012-10-17 2012-10-17 멀티미디어 컨텐츠 공간 배치 시스템 및 방법 KR101372099B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120115263A KR101372099B1 (ko) 2012-10-17 2012-10-17 멀티미디어 컨텐츠 공간 배치 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120115263A KR101372099B1 (ko) 2012-10-17 2012-10-17 멀티미디어 컨텐츠 공간 배치 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR101372099B1 true KR101372099B1 (ko) 2014-03-07

Family

ID=50648053

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120115263A KR101372099B1 (ko) 2012-10-17 2012-10-17 멀티미디어 컨텐츠 공간 배치 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR101372099B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170054068A (ko) 2015-11-09 2017-05-17 에스케이텔레콤 주식회사 Ar 컨텐츠 자동 배치 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100593398B1 (ko) 2003-12-08 2006-06-28 한국전자통신연구원 증강현실을 이용한 휴대단말기 사용자의 위치정보제공시스템 및 방법
KR20090040839A (ko) * 2007-10-22 2009-04-27 이문기 증강현실 컴퓨터 장치
KR20100086128A (ko) * 2009-01-22 2010-07-30 서경대학교 산학협력단 혼합 현실 상황 훈련 시스템
KR20110116422A (ko) * 2010-04-19 2011-10-26 서경대학교 산학협력단 마커와 훈련자 손 인식을 통한 증강 현실 상황 훈련 시스템

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100593398B1 (ko) 2003-12-08 2006-06-28 한국전자통신연구원 증강현실을 이용한 휴대단말기 사용자의 위치정보제공시스템 및 방법
KR20090040839A (ko) * 2007-10-22 2009-04-27 이문기 증강현실 컴퓨터 장치
KR20100086128A (ko) * 2009-01-22 2010-07-30 서경대학교 산학협력단 혼합 현실 상황 훈련 시스템
KR20110116422A (ko) * 2010-04-19 2011-10-26 서경대학교 산학협력단 마커와 훈련자 손 인식을 통한 증강 현실 상황 훈련 시스템

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170054068A (ko) 2015-11-09 2017-05-17 에스케이텔레콤 주식회사 Ar 컨텐츠 자동 배치 방법
KR20210124131A (ko) 2015-11-09 2021-10-14 에스케이텔레콤 주식회사 Ar 컨텐츠 자동 배치 방법

Similar Documents

Publication Publication Date Title
US10187520B2 (en) Terminal device and content displaying method thereof, server and controlling method thereof
JP7079231B2 (ja) 情報処理装置及び情報処理システム及び制御方法、プログラム
KR102071579B1 (ko) 화면 미러링을 이용한 서비스 제공 방법 및 그 장치
JP6143012B2 (ja) 動的エモーティコンを用いるインスタントメッセージングサービスを提供する方法及びその方法を実行する移動端末
CN104423573A (zh) 显示装置及其操作方法
JP6470356B2 (ja) 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置
KR102097452B1 (ko) 프로젝터를 포함하는 전자 장치 및 그 제어 방법
CN105872815A (zh) 视频播放的方法及装置
JP6392945B1 (ja) 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置
JP6559870B1 (ja) 動画合成装置、動画合成方法及び動画合成プログラム
KR20180020452A (ko) 단말기 및 그 제어 방법
KR20170099088A (ko) 전자 기기 및 그 제어방법
CN107045431A (zh) 处于数字协作环境中的工作空间资产的本地缩放
JP5800569B2 (ja) 情報処理システム、情報処理方法、情報処理プログラム
KR20210126266A (ko) 디스플레이 장치
JP2013250771A (ja) プログラム、情報処理装置、画像表示方法及び表示システム
KR101372099B1 (ko) 멀티미디어 컨텐츠 공간 배치 시스템 및 방법
JP2007200261A (ja) メガネ型ディスプレイによる映像情報検索システム
JP2005044102A (ja) 画像再生方法及び画像再生装置
JP5911168B2 (ja) 表示装置、表示方法及び表示プログラム
JP2019021324A (ja) 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置
US20230260235A1 (en) Information processing apparatus, information processing method, and information processing system
JP5833341B2 (ja) 表示制御プログラム、表示制御装置、表示制御システム、及び表示制御方法
KR20220057388A (ko) Ar 버츄얼 단말 및 그의 제어 방법
US20130127841A1 (en) Three-dimensional (3d) image display method and apparatus for 3d imaging and displaying contents according to start or end of operation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170222

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20191226

Year of fee payment: 9