KR20160084583A - 인터랙티브 증강현실 구현 시스템 및 방법 - Google Patents

인터랙티브 증강현실 구현 시스템 및 방법 Download PDF

Info

Publication number
KR20160084583A
KR20160084583A KR1020150000943A KR20150000943A KR20160084583A KR 20160084583 A KR20160084583 A KR 20160084583A KR 1020150000943 A KR1020150000943 A KR 1020150000943A KR 20150000943 A KR20150000943 A KR 20150000943A KR 20160084583 A KR20160084583 A KR 20160084583A
Authority
KR
South Korea
Prior art keywords
information
touch
image
shape
object type
Prior art date
Application number
KR1020150000943A
Other languages
English (en)
Inventor
김주철
Original Assignee
주식회사 인디고엔터테인먼트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 인디고엔터테인먼트 filed Critical 주식회사 인디고엔터테인먼트
Priority to KR1020150000943A priority Critical patent/KR20160084583A/ko
Publication of KR20160084583A publication Critical patent/KR20160084583A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C17/00Devices for cleaning, polishing, rinsing or drying teeth, teeth cavities or prostheses; Saliva removers; Dental appliances for receiving spittle
    • A61C17/02Rinsing or air-blowing devices, e.g. using fluid jets or comprising liquid medication
    • A61C17/0202Hand-pieces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H13/00Gum massage
    • A61H13/005Hydraulic gum massage
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16KVALVES; TAPS; COCKS; ACTUATING-FLOATS; DEVICES FOR VENTING OR AERATING
    • F16K27/00Construction of housing; Use of materials therefor
    • F16K27/04Construction of housing; Use of materials therefor of sliding valves
    • F16K27/044Construction of housing; Use of materials therefor of sliding valves slide valves with flat obturating members
    • F16K27/045Construction of housing; Use of materials therefor of sliding valves slide valves with flat obturating members with pivotal obturating members
    • G06F17/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Veterinary Medicine (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • General Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Rehabilitation Therapy (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Pain & Pain Management (AREA)
  • Dentistry (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 인터랙티브 증강현실 구현 기술에 관한 것으로, 인터랙티브 증강현실 구현 시스템은, 입력되는 터치에 상응하는 터치 신호를 출력하는 한편 입력되는 영상을 표시하는 디스플레이; 상기 디스플레이로부터 출력되는 터치 신호를 수신하고, 수신된 터치 신호를 분석하여 터치 패턴을 파악하는 분석부; 객체에 대한 형태 정보 및 동작 정보를 저장하는 데이터베이스; 상기 분석부로부터 터치 패턴을 제공받고, 제공받은 터치 패턴에 상응하는 객체 형태 정보 및 객체 동작 정보를 상기 데이터베이스로부터 획득하여 제공하는 객체 정보 제공부; 및 상기 객체 정보 제공부로부터 제공되는 객체 형태 정보 및 객체 동작 정보를 기반으로 영상을 생성하여 상기 디스플레이로 제공하는 영상 제공부로 구성된다.

Description

인터랙티브 증강현실 구현 시스템 및 방법 {System and method for implementing interactive augmented reality}
본 발명은 인터랙티브 증강현실 구현 기술에 관한 것으로, 상세하게는 물과 관련한 물리 현상을 증강현실을 통해 제공하여 관람자의 터치에 따라 다양한 연출이 가능한 인터랙티브 증강현실 구현 시스템 및 방법에 관한 것이다.
컴퓨터 시스템에는 다양한 종류의 인터페이스들이 사용된다. 예를 들어, 마우스는 선택(selection), 페이지 넘김(paging), 스크롤링(scrolling) 등과 같은 사용자의 다양한 제스쳐들(gestures)을 인지하고, 제스쳐들에 대응하는 데이터를 컴퓨터 시스템으로 제공한다.
사용자는 디스플레이된 화면 위에 있는 마우스 커서를 보면서, 손을 이용하여 마우스를 이동하거나, 마우스의 버튼을 클릭한다. 이러한 마우스는 사용자에게 직관적이지 못한 인터페이스로 평가될 수 있다.
근래 들어 영상 기술과 컴퓨터 그래픽 기술이 더욱 발달함에 따라, 선형적이고 예측가능한 동작이 재생되는 영상매체보다 다양한 영상이 즉각적으로 발생하여 사람들로 하여금 관심을 끌 수 있는 영상에 대한 수요가 높아지고 있다.
인터랙티브 영상 처리는 각종 전시회, 프리젠테이션, 광고, 오락, 교육 등을 위한 용도로 사용될 수 있으며, 행동자의 움직임에 반응하는 비선형적인 영상 처리로서, 사람의 움직임과 위치를 영상입력 장치를 통해 얻고, 이를 디지털 신호처리와 컴퓨터 프로세싱을 통해 행동자의 동작에 따라 반응하는 영상을 재생하는 디스플레이 기술의 일종이다.
인터랙티브 영상 처리는 사용자와 의사소통을 하면서, 상황에 따라 달라지는 영상 결과를 보여주기 때문에, 호기심, 신비감과 함께 즐거움을 줄 수 있는 수단이 된다.
또한, 최근에는 별도의 도구 없이 사용자의 손으로 자연스럽게 상호작용을 할 수 있는 터치 스크린에 대한 연구가 활발하다. 그리고 디스플레이를 위한 방법으로 기존의 2D 영상보다 더 현실감이 있는 3D 영상이 주를 이루고 있으나, 최근에는 3D 영상보다 더 실제와 유사한 영상을 제공하기 위하여 공간 증강 현실을 이용한 디스플레이에 대한 연구가 활발하다.
한편, 최근에는 물과 같이 자연물이나 자연 현상에 관련된 콘텐츠를 제공하는 전시나 행사가 개최되고 있는데, 이러한 전시나 행사가 단순히 정보를 제공하는 정도에서 그치는 경우가 대부분이어서 관람자나 참석자의 흥미를 유발시키는데 많은 어려움이 따른다는 문제점이 있다.
따라서, 본 발명은 상기와 같은 종래 기술의 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은, 물과 관련한 물리 현상을 증강현실을 통해 제공하여 관람자의 터치에 따라 다양한 연출이 가능한 인터랙티브 증강현실 구현 시스템 및 방법을 제공함에 있다.
또한, 본 발명은 단순히 전시물에 대한 정보 제공에 그치지 않고, 관람자의 흥미를 유발시킬 수 있으며, 관람자가 직접 참여하여 시스템과 상호작용을 통한 진행으로 학습할 수 있는 형태의 플랫폼을 제공할 수 있는 인터랙티브 증강현실 구현 시스템 및 방법을 제공함에 있다.
상기와 같은 목적을 달성하기 위한 본 발명의 일 측면에 따른 인터랙티브 증강현실 구현 시스템은, 입력되는 터치에 상응하는 터치 신호를 출력하는 한편 입력되는 영상을 표시하는 디스플레이; 상기 디스플레이로부터 출력되는 터치 신호를 수신하고, 수신된 터치 신호를 분석하여 터치 패턴을 파악하는 분석부; 객체에 대한 형태 정보 및 동작 정보를 저장하는 데이터베이스; 상기 분석부로부터 터치 패턴을 제공받고, 제공받은 터치 패턴에 상응하는 객체 형태 정보 및 객체 동작 정보를 상기 데이터베이스로부터 획득하여 제공하는 객체 정보 제공부; 및 상기 객체 정보 제공부로부터 제공되는 객체 형태 정보 및 객체 동작 정보를 기반으로 영상을 생성하여 상기 디스플레이로 제공하는 영상 제공부로 구성된다.
이때, 상기 데이터베이스는 물고기의 형상 및 동작에 관한 정보, 물줄기의 형태 및 동작에 관한 정보, 보의 형상 및 동작에 관한 정보, 풀의 형상 및 동작에 관한 정보를 저장한다.
또한, 상기 영상 제공부는 상기 객체 형태 정보에 상응하는 형태의 객체와 상기 객체 동작 정보에 상응하는 동작이 표현되는 영상을 생성한다.
본 발명의 타 측면에 따른 인터랙티브 증강현실 구현 방법은, 디스플레이에 대한 터치가 이루어지는 판단하는 단계; 터치가 이루어지는 것으로 판단되면, 터치에 상응하는 터치 신호를 출력하는 단계; 상기 터치 신호를 분석하여 터치 패턴을 파악하는 단계; 상기 터치 패턴에 상응하는 객체 형태 정보 및 객체 동작 정보를 제공하는 단계; 상기 객체 형태 정보 및 상기 객체 동작 정보를 통합하여 영상을 생성하는 단계; 및 상기 영상을 디스플레이를 통해 표시하는 단계로 이루어진다.
이때, 상기 터치 패턴에 상응하는 객체 형태 정보 및 객체 동작 정보를 제공하는 단계는, 터치 패턴에 따라, 물고기의 형상 및 동작에 관한 정보, 물줄기의 형태 및 동작에 관한 정보, 보의 형상 및 동작에 관한 정보, 풀의 형상 및 동작에 관한 정보를 제공하는 단계이다.
또한, 상기 객체 형태 정보 및 상기 객체 동작 정보를 통합하여 영상을 생성하는 단계는, 상기 제공하는 단계에서 제공되는 객체 형태 정보에 상응하는 형태의 객체와 상기 제공하는 단계에서 제공되는 상기 객체 동작 정보에 상응하는 동작이 표현되는 영상을 생성하는 단계이다.
이와 같은 본 발명의 실시 예에 따르면, 단순히 전시물에 대한 정보 제공에 그치지 않고, 관람자의 흥미를 유발시킬 수 있으며, 관람자가 직접 참여하여 시스템과 상호작용을 통한 진행으로 학습할 수 있는 형태의 플랫폼을 제공할 수 있는 인터랙티브 증강현실 구현 기술이 제공된다.
따라서, 본 발명의 실시 예에 따른 인터랙티브 증강현실 구현 기술을 물과 관련한 물리 현상에 적용하면, 관람자는 터치를 통해 직접 다양한 연출을 하면서 관람을 할 수 있기 때문에, 관람자의 관심도와 몰입감을 증대시킬 수 있다.
도 1은 본 발명의 실시 예에 따른 인터랙티브 증강현실 구현 시스템을 개념적으로 나타낸 블록도이다.
도 2는 본 발명의 실시 예에 따른 인터랙티브 증강현실 구현 방법에 따른 동작 순서를 도시한 플로우챠트이다.
도 3a는 디스플레이의 화면에 물줄기가 표현된 상태를 도시한 도면이다.
도 3b는 물의 흐름 경로를 변경하는 예를 도시한 도면이다.
도 3c는 물이 흐르는 경로 주변에 풀이 생성된 예를 도시한 도면이다.
도 3d는 물이 흐르는 경로 상에 보가 형성된 예를 도시한 도면이다.
도 3e는 물이 흐르는 경로에서 벗어나 보가 형성된 예를 도시한 도면이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 도면부호는 동일 구성 요소를 지칭한다.
본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
이하, 본 발명의 실시 예에 따른 인터랙티브 증강현실 구현 시스템 및 방법에 대하여 첨부한 도면을 참조하여 상세하게 설명해 보기로 한다.
도 1은 본 발명의 실시 예에 따른 인터랙티브 증강현실 구현 시스템을 개념적으로 나타낸 블록도이다.
도 1을 참조하면, 본 발명의 실시 예에 따른 인터랙티브 증강현실 구현 시스템(100)은 디스플레이(110), 분석부(120), 데이터베이스(130), 객체 정보 제공부(140), 영상 제공부(150)를 포함하여 구성될 수 있다.
상기 디스플레이(110)에는 바탕 화면 및 객체가 디스플레이된다. 상기 디스플레이(110)는 사용자의 멀티 터치를 인식할 수 있는 멀티 터치 센서를 포함한다.
사용자는 디스플레이(110)를 직접적으로 터치함으로써, 객체 또는 사용자의 시점을 조작할 수 있다. 이때, 상기 디스플레이(110)는 사용자의 터치에 상응하는 전기적 신호(‘터치 신호’)를 생성하여 출력한다.
상기 분석부(120)는 디스플레이(110)로부터 전송되는 터치 신호를 수신하고, 수신된 터치 신호를 분석하여 터치 패턴(시작 위치, 방향, 거리, 시간 간격)을 파악한다.
이때, 상기 분석부(120)는 수신된 터치 신호를 기초로 터치 포인트들의 위치들을 나타내는 멀티 터치 구조화된 데이터를 생성한 후, 멀티 터치 구조화된 데이터를 분석함으로써 터치 패턴을 파악하는데 사용되는 6 자유도(DOF: Degrees of Freedom)로 구조화된 데이터(6DOF structured data)를 생성하고, 생성된 6 자유도로 구조화된 데이터를 바탕으로 터치 패턴을 파악한다.
여기서, 6 자유도로 구조화된 데이터는 X축, Y축, Z축 각각으로 이동 거리, X축, Y축, Z축 각각에 대한 회전 각도에 대한 정보를 포함한다.
따라서, 상기 분석부(120)에 의해 파악된 터치 패턴은 터치 시작 위치, 터치 방향, 터치 거리, 터치와 터치 사이의 시간 간격을 포함하기 때문에, 상기 분석부(120)에 의해 파악된 터치 패턴을 바탕으로 사용자의 제스쳐를 파악하는 것이 가능하다.
상기 데이터베이스(130)는 사용자의 터치 패턴에 따라 제공되는 객체 정보를 저장하고 있으며, 이때, 객체의 형상 정보(‘객체 형상 정보’) 및 객체의 동작 정보(‘객체 동작 정보’)를 저장하고 있다.
일례로, 상기 데이터베이스(130)에는 물고기의 형상 및 동작에 관한 정보, 물줄기의 형태 및 동작에 관한 정보, 보의 형상 및 동작에 관한 정보, 풀의 형상 및 동작에 관한 정보가 저장되어 있을 수 있다. 이때, 상기 데이터베이스(130)에 저장되는 정보는 연출 목적, 사용 환경 등에 따라 다양하게 설정될 수 있다.
이때, 상기 데이터베이스(130)는 객체에 대한 형태 정보와 동작 정보를 저장하는 물리적 공간으로서, 형태 정보와 동작 정보가 독립적으로 저장되어 있을 수 있고, 선택적으로 서로 매칭되어 저장되어 있을 수 있다.
도 1은 상기 데이터베이스(130)가 객체 형태 정보와 객체 동작 정보를 독립적으로 저장하고 있는 경우를 도시하고 있는 것으로, 상기 데이터베이스(130)는 객체 형태 데이터베이스(131) 및 객체 동작 데이터베이스(132)를 포함한다.
여기서, 상기 객체 형태 데이터베이스(131)는 객체 형태 정보를 저장하고 있는 물리적 공간이고, 상기 객체 동작 데이터베이스(132)는 객체 동작 정보를 저장하고 있는 물리적 공간이다.
반면, 본 실시 예에서와 달리, 상기 데이터베이스(130)가 객체 형태 정보와 객체 동작 정보가 서로 매칭된 형태로 객체 정보를 저장하는 경우, 객체 형태 정보와 객체 동작 정보는 테이블화 되어 데이터베이스(130)에 저장된다.
상기 객체 정보 제공부(140)는 분석부(120)에 의해 파악된 터치 패턴에 상응하는 객체의 형태 정보 및 동작 정보를 제공한다. 이때, 상기 객체 정보 제공부(140)는 터치 패턴에 상응하는 객체 형태 정보 및 객체 동작 정보를 데이터베이스(130)로부터 획득하여 제공한다.
본 실시 예에서 데이터베이스(130)가 객체 형태 데이터베이스(131)와 객체 동작 데이터베이스(132)를 포함하는 구조로 이루어지기 때문에, 상기 객체 정보 제공부(140)는 객체 형태 제공부(141) 및 객체 동작 제공부(142)로 구성된다.
이때, 상기 객체 형태 제공부(141)는 터치 패턴에 상응하는 객체의 형태 정보를 객체 형태 데이터베이스(131)로부터 획득하고, 상기 객체 동작 제공부(142)는 터치 패턴에 상응하는 객체의 동작 정보를 객체 동작 데이터베이스(132)로부터 획득한다.
반면, 본 실시 예와 달리, 상기 데이터베이스(130)가 객체 형상 정보와 객체 동작 정보가 서로 매칭된 테이블 형태(‘객체 정보 테이블’)로 객체 정보를 저장하고 있는 경우, 상기 객체 정보 제공부(140)는 터치 패턴에 상응하는 객체 정보(객체 형상 정보, 객체 동작 정보)를 객체 정보 테이블로부터 획득한다.
상기 영상 제공부(150)는 객체 정보 제공부(140)에 의해 제공되는 객체 형태 정보 및 객체 동작 정보를 수신하고, 객체 형태 정보와 객체 동작 정보를 통합하여 영상을 생성하여 디스플레이(110)로 제공하고, 상기 디스플레이(110)는 영상 제공부(150)로부터 제공되는 영상을 디스플레이한다.
이때, 상기 영상 제공부(150)는 객체 형태 정보에 상응하는 형태의 객체와 객체 동작 정보에 상응하는 동작이 표현되는 영상을 생성 및 제공한다.
예를 들어, 물줄기 생성과 관련한 터치 패턴이 입력된 경우, 상기 영상 제공부(150)는 디스플레이의 터치가 이루어진 지점에 물줄기를 생성하고, 물이 물줄기를 따라 흐르는 영상을 제공한다.
이상에서는 본 발명의 실시 예에 따른 인터랙티브 증강현실 구현 시스템의 구성 및 기능에 대해서 살펴보았다. 이하에서는 도 1에 도시된 구조로 이루어지는 인터랙티브 증강현실 구현 시스템의 동작에 대해서 첨부한 도면을 참조하여 살펴보기로 한다.
도 2는 본 발명의 실시 예에 따른 인터랙티브 증강현실 구현 방법에 따른 동작 순서를 도시한 플로우챠트이다.
도 2를 참조하면, 디스플레이(110)가 터치가 이루어지는지를 판단하고(S210), 터치가 이루어지지 않은 것으로 판단되면(S210-No), 지속적으로 터치가 이루어지는지를 판단하고, 터치가 이루어지는 것으로 판단되면(S210-Yes), 터치에 상응하는 터치 신호를 출력한다(S220).
단계 S220에 따라 출력되는 터치 신호를 분석부(120)가 수신하고, 분석부(120)는 수신된 터치 신호를 분석하여 터치 패턴을 파악한다(S230). 이때, 단계 S230에 따라 파악되는 터치 패턴은 터치 시작 위치,터치 방향, 터치 거리, 터치 사이의 시간 간격을 포함한다.
단계 S230에 따라 파악된 터치 패턴은 객체 정보 제공부(140)로 전송되고, 터치 패턴을 수신한 객체 정보 제공부(140)는 터치 패턴에 상응하는 객체 형태 정보 및 객체 동작 정보를 제공한다(S240).
이때, 단계 S240에 따라 객체 형태 정보 및 객체 동작 정보를 제공하는 것은 데이터베이스(130)로부터 터치 패턴에 상응하는 객체 형태 정보와 객체 동작 정보를 획득하는 것을 포함할 수 있다.
또한, 단계 S240에 따라 이루어지는 객체 정보 제공은 객체 형태 데이터베이스(131)로부터 객체 형태 정보를 획득하는 과정과 객체 동작 데이터베이스(132)로부터 객체 동작 정보를 획득하는 과정을 포함할 수 있다.
한편, 단계 S240에 따라 제공되는 객체 정보(객체 형태 정보, 객체 동작 정보)를 수신한 영상 제공부(150)는 객체 형태 정보와 객체 동작 정보를 통합하여 영상을 생성하여 디스플레이(110)로 제공하고(S250), 상기 디스플레이(110)는 터치가 이루어진 영역에 영상 제공부(150)로부터 제공되는 영상을 표시한다(S260).
이상에서는 도 1 및 2를 참조하여 본 발명의 실시 예에 따른 인터랙티브 증강현실 구현 시스템의 구성 및 방법에 대해서 살펴보았다. 이하에서는 물과 관련된 현상을 본 발명의 실시 예에 따른 인터랙티브 증강현실 구현 시스템을 이용하여 표시한 도면들을 참조하여 구체적으로 살펴보도록 한다.
도 3a 내지 3e는 본 발명의 실시 예에 따른 인터랙티브 증강현실 구현 시스템을 이용하여 물과 관련된 현상을 구현한 예를 도시한 도면들이다.
도 3a는 디스플레이의 화면에 물줄기가 표현된 상태를 도시한 도면이고, 도 3b는 물의 흐름 경로를 변경하는 예를 도시한 도면이고, 도 3c는 물이 흐르는 경로 주변에 풀이 생성된 예를 도시한 도면이다.
도 3a에서와 같이 디스플레이의 화면에 물줄기가 표현된 초기 상태에서, 도 3b에서와 같이 디스플레이의 화면을 터치하여 물줄기를 가로질러 선을 그으면, 그은 선을 따라 물줄기의 방향이 바뀐다. 이때, 터치에 의해 그려지는 선은 장애물로 인식되고, 장애물에 의한 물리력에 의해 물의 흐름 경로가 변경되도록 구현된 것이다. 즉, 도 3b는 물의 흐름 경로가 장애물을 따라 변경되는 물리 현상이 구현된 예를 도시하고 있다.
이때, 도 3b와 같이 장애물을 따라 일정 시간 동안 물이 흐르면, 강이 형성된 것으로 인식되어, 도 3c에 도시된 바와 같이, 강 주변에는 풀이 생긴다. 이때, 인터랙티브 증강현실 구현 시스템의 구현에 따라 강 주변에 풀 이외에도 다양한 종류의 식물이 강 주변에 생길 수 있다. 즉, 도 3c는 강이 형성됨에 따라 강 주변에 풀이 생기는 물리 현상이 구현된 예를 도시하고 있다.
한편, 도 3d는 물이 흐르는 경로 상에 보가 형성된 예를 도시한 도면이고, 도 3e는 물이 흐르는 경로에서 벗어나 보가 형성된 예를 도시한 도면이다.
도 3d에 도시된 바와 같이, 디스플레이의 화면을 터치하여 그릇 모양을 그리면, 보가 생성되고, 물이 흐르는 경로 상에 보가 형성되었기 때문에, 보에 물이 저장됨에 따라 보에는 물고기가 생성된다.
반면, 도 3d에서와 같이 물의 이동 경로 상에 보가 형성되었다가 물의 흐름 방향의 변경 등의 이유로 보가 물의 흐름 경로에서 벗어나 보로 물이 유입되지 않으면, 도 3e에서와 같이, 보에 저장된 물이 탁해지고 물고기가 사라지게 된다.
즉, 도 3d 및 3e는 보가 물의 흐름 경로에 형성된 경우와 보가 물의 흐름 경로를 벗어나 형성된 경우의 물리 현상이 구현된 예를 도시하고 있다.
이상에서는 물과 관련된 물리 현상을 예로 들어 본 발명의 실시 예에 따른 인터랙티브 증강현실 구현 시스템을 살펴보았으나, 물과 관련된 물리 현상 이외에도 다양한 종류의 물리 현상을 구현할 수 있음은 물론이다.
이와 같은 본 발명의 실시 예에 따르면, 단순히 전시물에 대한 정보 제공에 그치지 않고, 관람자의 흥미를 유발시킬 수 있으며, 관람자가 직접 참여하여 시스템과 상호작용을 통한 진행으로 학습할 수 있는 형태의 플랫폼을 제공할 수 있는 인터랙티브 증강현실 구현 기술이 제공된다.
따라서, 본 발명의 실시 예에 따른 인터랙티브 증강현실 구현 기술을 물과 관련한 물리 현상에 적용하면, 관람자는 터치를 통해 직접 다양한 연출을 하면서 관람을 할 수 있기 때문에, 관람자의 관심도와 몰입감을 증대시킬 수 있다.
한편, 본 발명에 따른 인터랙티브 증강현실 구현 시스템 및 방법을 실시 예에 따라 설명하였지만, 본 발명의 범위는 특정 실시 예에 한정되는 것은 아니며, 본 발명과 관련하여 통상의 지식을 가진 자에게 자명한 범위 내에서 여러 가지의 대안, 수정 및 변경하여 실시할 수 있다.
따라서, 본 발명에 기재된 실시 예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.
100 : 인터랙티브 증강현실 구현 시스템
110 : 디스플레이 120 : 분석부
130 : 데이터베이스 131 : 객체 형태 데이터베이스
132 : 객체 동작 데이터베이스 140 : 객체 정보 제공부
141 : 객체 형태 제공부 142 : 객체 동작 제공부
150 : 영상 제공부

Claims (6)

  1. 입력되는 터치에 상응하는 터치 신호를 출력하는 한편 입력되는 영상을 표시하는 디스플레이;
    상기 디스플레이로부터 출력되는 터치 신호를 수신하고, 수신된 터치 신호를 분석하여 터치 패턴을 파악하는 분석부;
    객체에 대한 형태 정보 및 동작 정보를 저장하는 데이터베이스;
    상기 분석부로부터 터치 패턴을 제공받고, 제공받은 터치 패턴에 상응하는 객체 형태 정보 및 객체 동작 정보를 상기 데이터베이스로부터 획득하여 제공하는 객체 정보 제공부; 및
    상기 객체 정보 제공부로부터 제공되는 객체 형태 정보 및 객체 동작 정보를 기반으로 영상을 생성하여 상기 디스플레이로 제공하는 영상 제공부로 구성되는 인터랙티브 증강현실 구현 시스템.
  2. 제 1 항에 있어서,
    상기 데이터베이스는 물고기의 형상 및 동작에 관한 정보, 물줄기의 형태 및 동작에 관한 정보, 보의 형상 및 동작에 관한 정보, 풀의 형상 및 동작에 관한 정보를 저장하는 인터랙티브 증강현실 구현 시스템.
  3. 제 1 항에 있어서,
    상기 영상 제공부는 상기 객체 형태 정보에 상응하는 형태의 객체와 상기 객체 동작 정보에 상응하는 동작이 표현되는 영상을 생성하는 인터랙티브 증강현실 구현 시스템.
  4. 디스플레이에 대한 터치가 이루어지는 판단하는 단계;
    터치가 이루어지는 것으로 판단되면, 터치에 상응하는 터치 신호를 출력하는 단계;
    상기 터치 신호를 분석하여 터치 패턴을 파악하는 단계;
    상기 터치 패턴에 상응하는 객체 형태 정보 및 객체 동작 정보를 제공하는 단계;
    상기 객체 형태 정보 및 상기 객체 동작 정보를 통합하여 영상을 생성하는 단계; 및
    상기 영상을 디스플레이를 통해 표시하는 단계로 이루어지는 인터랙티브 증강현실 구현 방법.
  5. 제 4 항에 있어서,
    상기 터치 패턴에 상응하는 객체 형태 정보 및 객체 동작 정보를 제공하는 단계는, 터치 패턴에 따라, 물고기의 형상 및 동작에 관한 정보, 물줄기의 형태 및 동작에 관한 정보, 보의 형상 및 동작에 관한 정보, 풀의 형상 및 동작에 관한 정보를 제공하는 단계인 인터랙티브 증강현실 구현 방법.
  6. 제 4 항에 있어서,
    상기 객체 형태 정보 및 상기 객체 동작 정보를 통합하여 영상을 생성하는 단계는, 상기 제공하는 단계에서 제공되는 객체 형태 정보에 상응하는 형태의 객체와 상기 제공하는 단계에서 제공되는 상기 객체 동작 정보에 상응하는 동작이 표현되는 영상을 생성하는 단계인 인터랙티브 증강현실 구현 방법.
KR1020150000943A 2015-01-06 2015-01-06 인터랙티브 증강현실 구현 시스템 및 방법 KR20160084583A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150000943A KR20160084583A (ko) 2015-01-06 2015-01-06 인터랙티브 증강현실 구현 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150000943A KR20160084583A (ko) 2015-01-06 2015-01-06 인터랙티브 증강현실 구현 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR20160084583A true KR20160084583A (ko) 2016-07-14

Family

ID=56499107

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150000943A KR20160084583A (ko) 2015-01-06 2015-01-06 인터랙티브 증강현실 구현 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR20160084583A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101949103B1 (ko) * 2018-10-10 2019-05-21 (주)셀빅 오프라인 스케치 콘텐츠의 3d 동적 활성화 방법 및 3d 동적 활성화 시스템
KR20190132191A (ko) 2019-01-03 2019-11-27 남정규 증강현실 콘텐츠의 제작 및 편집이 가능한 증강현실 편집 시스템 및 증강현실 구현 시스템

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101949103B1 (ko) * 2018-10-10 2019-05-21 (주)셀빅 오프라인 스케치 콘텐츠의 3d 동적 활성화 방법 및 3d 동적 활성화 시스템
KR20190132191A (ko) 2019-01-03 2019-11-27 남정규 증강현실 콘텐츠의 제작 및 편집이 가능한 증강현실 편집 시스템 및 증강현실 구현 시스템

Similar Documents

Publication Publication Date Title
Sereno et al. Collaborative work in augmented reality: A survey
AU2021261950B2 (en) Virtual and augmented reality instruction system
Roupé et al. Interactive navigation interface for virtual reality using the human body
KR102304023B1 (ko) 증강현실 기반 인터렉티브 저작 서비스 제공 시스템
Jetter et al. " in vr, everything is possible!": Sketching and simulating spatially-aware interactive spaces in virtual reality
CN114080585A (zh) 在人工现实环境中使用外围设备的虚拟用户界面
Datcu et al. On the usability and effectiveness of different interaction types in augmented reality
CN111459264B (zh) 3d对象交互系统和方法及非暂时性计算机可读介质
US20220326967A1 (en) Devices, methods, systems, and media for an extended screen distributed user interface in augmented reality
CN114138106A (zh) 混合虚拟现实桌面计算环境中的状态之间的转换
Grubert et al. Exploring the design of hybrid interfaces for augmented posters in public spaces
Pusch et al. Augmented reality for operator training on industrial workplaces–Comparing the Microsoft hololens vs. small and big screen tactile devices
RU2609066C2 (ru) Управление элементом или изделием на основе жестов
Gillies et al. Non-representational interaction design
KR20160084583A (ko) 인터랙티브 증강현실 구현 시스템 및 방법
Schreiber et al. New interaction concepts by using the wii remote
Lacolina et al. Natural exploration of 3D models
Borhani et al. Survey of annotations in extended reality systems
Lu et al. Classification, application, challenge, and future of midair gestures in augmented reality
Messaci et al. Zoom‐fwd: Efficient technique for 3D gestual interaction with distant and occluded objects in virtual reality
US20130201095A1 (en) Presentation techniques
Schwesig What makes an interface feel organic?
Babic et al. Understanding and creating spatial interactions with distant displays enabled by unmodified off-the-shelf smartphones
Sinclair Integrating hypermedia techniques with augmented reality environments
Devi et al. Development of interactive fashion design support system: Using IDS (interactive display on any surface)-A case study

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application