KR100834904B1 - 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠저작 시스템 및 방법 - Google Patents

마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠저작 시스템 및 방법 Download PDF

Info

Publication number
KR100834904B1
KR100834904B1 KR1020060124856A KR20060124856A KR100834904B1 KR 100834904 B1 KR100834904 B1 KR 100834904B1 KR 1020060124856 A KR1020060124856 A KR 1020060124856A KR 20060124856 A KR20060124856 A KR 20060124856A KR 100834904 B1 KR100834904 B1 KR 100834904B1
Authority
KR
South Korea
Prior art keywords
marker
content
action
page
sensor
Prior art date
Application number
KR1020060124856A
Other languages
English (en)
Inventor
김용훈
이승욱
서희전
이준석
이만재
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020060124856A priority Critical patent/KR100834904B1/ko
Application granted granted Critical
Publication of KR100834904B1 publication Critical patent/KR100834904B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32352Controlling detectability or arrangements to facilitate detection or retrieval of the embedded information, e.g. using markers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip

Abstract

본 발명은 학습자가 마커를 이용하여 3D 콘텐츠, 동영상, 오디오, 이미지 등의 가상 영상을 조작할 수 있도록 하는 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 저작 시스템 및 방법에 관한 것이다.
본 발명은 하나의 실감형 교재를 저작하기 위한 프로젝트를 생성하고, 생성된 프로젝트를 구성하기 위한 실감형콘텐츠 페이지를 생성한 후, 이 실감형콘텐츠 페이지에 마커, 콘텐츠, 센서 및 액션을 선택하여 삽입하고 서로의 관계를 연결하는 시나리오 작성을 통해 증강현실 콘텐츠를 저작한다.
따라서 본 발명은 증강현실 콘텐츠 제작 편의성, 사용자의 가상콘텐츠 인터랙션에 대한 쉬운 제작 방법 및 다양한 액션들을 통한 다양한 상황들에 대한 시나리오 제작 기능을 제공하며, 또한, 증강현실 콘텐츠 제작 시간 및 비용을 단축하고여 증강현실 기술의 상용화를 가능하게 하는 효과가 있다.
증강현실, 저작, e-러닝, 3D 콘텐츠, 사용자 인터랙션

Description

마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 저작 시스템 및 방법{Development system of augmented reality contents supported user interaction based marker and method thereof}
도 1a 내지 도 1d는 본 발명에 따른 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 저작 시스템에서 사용하는 증강현실 콘텐츠 스키마를 나타낸 도,
도 2는 본 발명에 따른 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 저작 시스템의 증강현실 콘텐츠의 구성요소인 페이지에 대한 페이지 창의 페이지 목록을 나타내 예시도,
도 3은 본 발명에 따른 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 저작 시스템에서 이용하는 고정형 마커 모양을 나타낸 예시도,
도 4는 본 발명에 따른 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 저작 시스템에서 이용하는 이동형 마커 모양을 나타낸 예시도,
도 5는 본 발명에 따른 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 저작 시스템에서 이용하는 컨트롤 마커 모양을 나타낸 예시도,
도 6은 본 발명에 따른 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 저작 시스템이 동작하는 전체 구성을 나타낸 블록도,
도 7은 본 발명에 따른 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 저작 시스템을 이용하여 증강현실 콘텐츠를 저작하는 방법을 나타낸 순서도,
도 8은 본 발명에 따른 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 저작 시스템을 실행하여 웹 페이지로 구현한 전체 화면 구성도,
도 9는 삽입한 콘텐츠와 마커의 관계를 연결하여 나타낸 예시도,
도 10은 시나리오 작성에 따른 관계를 연결한 라우팅 화면을 나타낸 도이다.
<도면의 주요 부분을 설명하는 기호>
600. 실감형 교재 610. 카메라
620. 증강현실 콘텐츠 저작 시스템 621. 저작부
622. 데이터 저장부 630. 표시부
640. 조작부
본 발명은 기존의 3D 콘텐츠나 동영상, 오디오, 이미지를 삽입하고, 마커와 콘텐츠 사이의 관계를 설정하여 마커를 이용한 사용자 인터랙션을 제작하는 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠를 개발하는 시스템 및 방법에 관한 것이다.
종래, 공지된 논문 "Immersive Authoring of Tangible Augmented Reality Applications"(Proceedings of the Third IEEE and ACM International Symposium on Mixed and Augmented Reality에 2004년 게재, Gun A. Lee; Claudia Nelles; Mark Billinghurst; Gerard Jounghyun Kim 공동 저, pp172-181)에는 기하마커와 디지털 채널코딩 기술을 이용하고 있으며, 기존의 시스템과 마찬가지로 비젼 인식 알고리즘에 기반하여 4꼭지점을 찾고 RT 매트릭스를 추출하고, 마커의 아이디 구분을 위해 마커의 내부를 36개의 영역으로 나눠 36비트를 할당하고, 10비트는 마커의 ID 구분을 위해 사용하고 26비트는 채널코딩의 일종인 CRC(Cyclical Redundancy Check) 코드로 할당하여 마커를 인식하는 혼합현실 시스템을 구현하였다.
이러한 종래 기술은 프로그램화된 마커들을 이용하여 3D애니메이션 콘텐츠를 제작하는 것으로, 제작된 콘텐츠를 증강현실에 이용하기 위해서는 많은 작업이 필요하다. 또한, 현재의 증강현실 기술은 그 증강현실 콘텐츠의 개발에 있어서 개발비용이 높고 개발기간이 길어서 상용화에 있어 큰 어려움이 있다.
또한, 기하학적 마커를 인식하여 실영상 위에 인식된 마커를 기준으로 가상의 콘텐츠를 합성하고, 가상의 콘텐츠에 대한 인터랙션을 제공하는 증강현실을 구 현하기 위해서는 가상 콘텐츠와 인터랙션을 위한 조작들에 대한 많은 부분에서 설계와 개발이 필요하다.
따라서 상기한 문제점을 해결하기 위한 본 발명의 목적은 마커를 기반으로 센서와 액션을 삽입하여 가상 콘텐츠에 대한 사용자의 인터랙션과 가상 콘텐츠 사이에서 발생하는 현상들을 쉽게 저작할 수 있는 증강현실 콘텐츠 저작 시스템 및 방법을 제공하는 것이다.
또한 본 발명의 목적은 증강현실 콘텐츠를 개발하는 저작자에게 쉽고 빠른 저작 기능을 제공하기 위해 저작자들이 어려운 스크립트 개발 문법을 이해하지 않고도 GUI 기반의 인터페이스만을 보면서도 증강현실 콘텐츠의 저작이 가능한 저작 도구와, 증강현실 콘텐츠의 제작에 소요되는 엄청난 시간과 비용을 줄일 수 있는 저작 기능을 제공하는 것이다.
또한, 본 발명의 목적은 실제 교재와 동일한 페이지 이미지를 이용하여 작업함으로써 뷰어를 통해 보는 동일한 환경으로 증강현실 콘텐츠 저작이 가능한 증강현실 콘텐츠 저작 시스템 및 방법을 제공하는 것이다.
상기한 목적을 달성하기 위한 본 발명의 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 저작 시스템은 하나의 교재 저작을 위한 프로젝트를 생성하여 실감형콘텐츠 페이지를 생성하고, 상기 생성한 실감형콘텐츠 페이지에 마커, 콘텐츠, 센서 및 액션을 사용자가 원하는 대로 선택하여 삽입한 후 상기 삽입한 마커, 콘텐츠, 센서 및 액션의 관계를 연결하여 증강현실 콘텐츠를 저작하는 것을 특징으로 한다.
한편, 상기한 목적을 달성하기 위한 본 발명의 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 저작 방법은 (a)실감형 교재를 저작하는 증강현실 콘텐츠 저작도구를 실행하는 단계와, (b)상기 저작할 실감형 교재를 프로젝트로 생성하고, 상기 생성된 프로젝트를 수행하기 위한 실감형콘텐츠 페이지를 생성하는 단계와, (c)마커, 콘텐츠, 센서 및 액션 중 적어도 하나 이상을 상기 생성된 실감형콘텐츠 페이지에 삽입하는 단계와, (d)상기 삽입된 마커, 콘텐츠, 센서 및 액션의 관계를 연결하는 시나리오를 작성하는 단계 및 (e)상기 시나리오 작성이 완료되면 상기 프로젝트를 저장하는 단계를 포함하여 이루어지는 것을 특징으로 한다.
이하에서는 본 발명의 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있는 가장 바람직한 실시예를 첨부한 도면을 참조하여 상세히 설명한다.
도 1a 내지 도 1d는 본 발명에 따른 마커 기반의 사용자 인터랙션을 지원하는 증강현실 저작 시스템에서 사용하는 증강현실 콘텐츠 스키마를 나타낸 것으로, 도 1a 내지 도 1d에서 나타낸 바와 같이 증강현실 콘텐츠는 프로젝트, 페이지, 마커, 콘텐츠, 센서, 액션들과 같은 요소들로 구성된다.
프로젝트는 증강현실 콘텐츠의 가장 큰 단위로서, 하나의 교재가 하나의 프로젝트 단위로 사용된다. 프로젝트는 교재 저작에 사용되는 마커들의 목록, 센서의 목록, 액션의 목록, 콘텐츠의 목록, 페이지의 목록으로 구성되며 내부적으로 이러한 목록들이 저장되는 경로가 속성으로 정의된다.
페이지는 하나의 교재에서 각각의 페이지와 동일한 구조로 프로젝트를 구성하는 단위이다. 즉, 사용자가 한 권의 교재를 펼쳤을 때 보이는 구조와 동일한 것으로, 도 2와 같이 작업창에서는 하나의 페이지를 이용하여 작업하거나 두개의 페이지를 하나로 이용하여 작업할 수 있다.
이러한 페이지는 페이지 내에서 사용되는 마커의 목록, 콘텐츠의 목록을 가지며, 페이지의 ID, 페이지 유형, 배경 이미지, 페이지 번호가 속성으로 정의된다.
마커는 실제 영상에 가상의 콘텐츠를 합성하는 MR(Mixed Reality: 실제현실과 가상현실이 혼합된 혼합현실) 응용프로그램에서 가상콘텐츠의 위치를 지정하는 레퍼런스로 책이나 큐브, 패드의 상단 면에 인쇄된 사각형의 그림이다. 카메라를 통해 인식되어 증강현실 콘텐츠를 보여주거나 정의되어진 조작(이동, 삭제, 확대, 도움말 등)을 할 수 있도록 정보를 준다.
사용되는 마커는 데이터 마커와 컨트롤 마커로 구분되며, 데이터 마커는 고정형 마커와 이동형 마커로 구분된다.
고정형 마커는 책위에 프린트된 마커로 미리 정해진 가상콘텐츠를 표현하는데 사용된다. 고정형 마커의 모양은 도 3에 나타낸 바와 같다. 이러한 고정형 마커는 한 권의 책 내에서 고유하게 사용된다.
고정형 마커는 마커와 연결되는 콘텐츠 목록과 액션 목록을 가지며, 사용되는 마커의 ID, 이름, 좌표, 크기, 페이지 번호, 사용자 정의 마커 이름, 마커의 이미지 경로 등을 속성으로 가진다.
한편, 이동형 마커는 도 4에 예시한 바와 같은 모양을 가지며, 한 페이지 내에서만 사용되면서 책 위에서 이동할 수 있는 마커이다. 예를 들어 일식과 월식을 설명할 때 학습자가 달과 지구를 놓는 위치에 따라 일식과 월식이 바뀌므로 달, 지구를 나타내는 마커의 순서를 바꿀 수 있도록 책 위에서 이동할 수 있는 이동형 마커를 사용한다.
이러한 이동형 마커를 통해 증강현실 내의 서로 다른 객체들 간에 조작과 이벤트들이 가능하며, 이동형 마커는 마커와 연결되는 콘텐츠 목록과 액션 목록을 가지며, 마커의 ID, 이름, 좌표, 크기, 사용자 정의 마커 이름, 마커의 이미지 경로 등을 속성으로 가진다.
한편, 컨트롤 마커는 도 5에 예시한 바와 같은 모양을 가지며, 학습자가 고정형 마커 위에 합성된 가상의 콘텐츠에 인터랙션을 가하기 위해 사용하는 마커이다. 본 발명에서는 9개의 컨트롤 마커를 정의한다.
학습자는 이 9가지의 컨트롤 마커를 이용하여 모든 가상 콘텐츠를 쉽게 컨트롤한다. 컨트롤 마커의 이미지는 서비스 제공자에 의해 변경 가능하며, 내부적으로 컨트롤 마커의 속성들이 기본적으로 정의되어 진다.
본 발명에서 제공하는 9개의 컨트롤 마커를 아래와 같이 설명한다.
▶선택 마커: 선택마커를 책위에 올리면 인식되어 선택을 의미하는 화살표 콘텐츠가 선택마커 위에 합성된다. 이를 고정형 마커위의 가상콘텐츠에 접근하면 가상콘텐츠가 커지든지 사라지든지 저작할 당시에 미리 정의된 액션이 수행된다. 만약 하나 이상의 액션이 정의되면 선택을 의미하는 콘텐츠가 표시되어 선택마커로 선택할 수 있게 한다.
▶초기화 마커 : 사용자가 콘텐츠를 실행하는 도중 초기상태로 복귀할 때 사 용한다.
▶실행취소 마커 : 학습자의 액션을 한단계 이전으로 되돌리는 마커이다.
▶도움말 마커: 저작도구에서 3D콘텐츠 마다 입력해 놓은 도움말을 화면 오른쪽 상단에 보여질 수 있도록 제공하는 마커이다.
▶삭제 마커: 화면에서 특정 3D객체를 선택하여 보이지 않도록 하는 마커이다.
▶줌 마커: 3D객체 또는 전체 화면을 확대하거나 축소하는 기능을 수행하는 마커이다. 줌 마커는 기본적으로 확대와 축소 두개의 마커로 구성된다.
▶이동 마커: 3D객체를 선택하여 임의의 위치나 미리 정의해 놓은 위치로 이동시키는 마커이다.
▶회전 마커: 특정 3D 객체를 선택하여 좌/우/상/하로 회전을 시키는 마커이다.
▶Magnify 마커: 3D객체에 저작 시점에 정의해 놓은 특정 콘텐츠를 디스플레이 하는 마커이다.
증강현실 콘텐츠의 구성요소로서, 콘텐츠는 증강현실 콘텐츠 저작 시스템에서 사용되는 학습 콘텐츠로 각종 리소스들로 나눠진다. 리소스는 3D 콘텐츠(WRL파일), 동영상, 오디오가 된다.
이러한 콘텐츠는 콘텐츠의 ID, 유형, 파일이름, 원본 파일 경로, 마커를 기 준으로 하는 위치, 스케일, 연결된 마커의 정보, 사용자 정의 콘텐츠 명이 속성으로 정의된다.
증강현실 콘텐츠의 구성요소로서, 센서는 사용자에게 보이지 않는 것으로 데이터 마커에 의해 나타나는 가상의 콘텐츠에 부착되는 VRML(Virtual Reality Modeling Language) 객체이다. 이 VRML 객체는 가상현실을 컴퓨터로 구현하기 위한 하나의 표준 규약이므로 구체적인 설명은 생략한다.
이러한 VRML 객체로 구성된 센서를 통해 사용자들의 이동형 마커나 컨트롤 마커를 이용한 사용자의 인터랙션에 대한 반응을 수행시켜 준다.
센서의 종류는 가상 콘텐츠들 간의 접촉에 의해 반응되는 접촉 센서와 보이지 않는 가상의 객체와 센서가 결합된 형태의 근접 센서로 구성된다. 여기서, 근접 센서는 크기를 가지며, 하나의 고정형 마커를 기준하여 위치를 지정하여 삽입된다. 다른 마커를 이용하여 근접 센서에 접근하면 반응을 하게 된다.
액션은 사용자들의 인터랙션에 대해 어떻게 반응을 해야 할지를 정의한 행위들이다. 사용자들이 마커를 이용하여 인터랙션을 하게 되면 센서가 사용자의 인터렉션을 파악하게 되고 센서는 정의된 액션들을 수행시켜 준다. 모든 액션들은 액션 ID, 유형, 연결된 마커, 사용자 정의 이름을 속성으로 가진다.
본 발명에서 제공하는 액션을 설명하면 아래와 같다.
▶시간 액션: 시간이 지남에 따라 다른 액션이 진행 되도록 하기 위해 제공하는 액션으로 사용 여부, 시작 시간, 종료 시간, 루프여부 등의 속성을 가진다.
▶가시화 액션: 대상 객체를 보이게 하거나 숨기게 하는 액션으로 활성화 여부, 가시화 값을 속성으로 가진다.
▶스케일 액션: 대상 3D 객체의 크기를 변경하는 액션으로 활성화 여부와, 배율 값을 속성으로 가진다.
▶실행 액션: 대상 리소스에 등록된 애니메이션이나 오디오, 동영상을 실행하는 이벤트를 활성화시키는 액션으로 활성화 여부와 시간을 설정한다.
▶위치 액션: 대상 객체의 위치를 변경하는 액션으로 활성화 여부와 좌표값을 속성으로 가진다.
▶And 판단 액션: 판단 액션에서 And 연산을 하는 판단 액션으로 비교값과 입력, True출력, Flase출력을 속성으로 가진다.
▶Or 판단 액션: 판단 액션에서 Or 연산을 하는 판단 액션으로 비교값과 입력, True출력, Flase출력을 속성으로 가진다.
그러면 도 1 내지 도 5를 참조하여 알아본 본 발명에서 사용하는 증강현실 콘텐츠 저작을 위한 스키마 구조와, 구성요소들을 이용하여 본 발명에 따른 마커 기반 증강현실 콘텐츠의 저작 시스템 및 방법에 대해 도 6 내지 도 10을 참조하여 상세히 설명한다.
도 6은 본 발명에 따른 증강현실 콘텐츠 저작 시스템(620)이 실행되기 위한 전체 구성을 나타낸 구성도로서, 실감형 교재(600)를 촬영하는 카메라(610), 증강현실 콘텐츠를 저작하는 콘텐츠 저작 시스템(620), 콘텐츠 저작 시스템(620)을 실행하여 웹 페이지 형식의 화면으로 보여주는 표시부(630) 및 콘텐츠 저작 시스템(620)을 조작하기 위한 조작부(640)로 구성된다.
본 발명의 증강현실 콘텐츠 저작 시스템(620)은 실감형 교재(600)를 카메라(610)로 촬영한 교재 이미지를 입력받아 콘텐츠 저작을 위한 페이지로 사용하여 증강현실 콘텐츠를 저작하는 저작부(621)와 증강현실 콘텐츠 저작에 필요한 요소들이 저장되는 데이터 저장부(622)를 포함한다.
증강현실 콘텐츠 저작 시스템(620)의 저작부(621)는 페이지 생성 기능, 마커 삽입 기능, 콘텐츠 삽입 기능, 센서 삽입 기능, 액션 삽입 기능 및 시나리오 작성 기능을 각각 처리하는 모듈들로 구성될 수 있다.
증강현실 콘텐츠 저작 시스템(620)의 데이터 저장부(622)는 저작부(621)의 각 기능을 수행하기 위해 필요한 페이지, 마커, 콘텐츠, 센서 및 액션 등의 증강현실 콘텐츠가 생성되어 저장되어 있다.
도 7은 본 발명에 따른 증강현실 콘텐츠 저작 시스템(620)을 이용하여 증강 현실 콘텐츠를 저작하는 방법을 나타낸 순서도이다.
증강현실 콘텐츠 저작 시스템(620)을 실행하면(S700) 도 8에 나타낸 바와 같이 웹 페이지 형식으로 구현한 화면이 표시부(630)에 나타난다. 화면의 구성요소는 제목 표시줄(A), 메뉴 표시줄(B), 작업 창(C), 페이지 창(D), 구조 창(E), 속성 창(F) 및 마커 창(G)이 있다.
구체적으로 화면의 구성요소에 대해 설명하면 아래와 같다.
▶제목표시줄(A): 현재 열려있는 프로젝트의 제목과 현 프로젝트에 설정되어 있는 페이지 너비, 높이, 해상도를 표시한다.
▶메뉴 표시줄(B): 실감형 콘텐츠 저작도구 기능을 편리하게 사용할 수 있도록 여러 가지 명령을 묶어 메뉴 형태로 제공한다.
▶작업 창(C): 실감형 콘텐츠를 저작하는 공간으로서 마커와 콘텐츠, 접근센서 등을 위치시키며 마커와 리소스를 연결시킬 수 있는 기능을 제공한다.
▶페이지 창(D) : 실감형 콘텐츠 페이지 목록 창으로써, 페이지들의 목록을 한눈에 볼 수 있도록 사용된 페이지 이미지 목록을 표시한다.
▶구조 창(E) : 작업 창에서 사용되는 모든 구성요소와 구성요소의 구조를 한 눈에 파악할 수 있으며, 발생 가능한 이벤트의 흐름을 설정할 수 있는 기능을 제공한다.
▶속성 창(F) : 사용자의 작업 상황에 따른 세부 항목을 표시해 주어 바로 수정할 수 있는 기능을 제공한다. 예를 들어 작업 창이나 구조 창에서 마커를 선택했을 때 마커의 세부 항목을 속성 창에서 설정함으로써 원하는 속성으로 설정할 수 있는 기능을 제공한다.
▶마커 창(G) : 현재 열려 있는 프로젝트에 등록되어있는 컨트롤 마커와 데이터 마커의 리스트를 한 눈에 볼 수 있으며, 각 마커가 사용된 페이지 번호를 표시함으로써 사용자로 하여금 마커의 사용 유무를 표시한다.
증강현실 콘텐츠 저작 시스템(620)을 실행하여 화면을 띄우고, 저작할 프로젝트를 생성한다(S710). 프로젝트는 저작할 하나의 교재를 단위로 하는 것이다.
프로젝트를 생성한 후, 등록한 프로젝트를 구성할 페이지를 생성한다(S720). 페이지는 증강현실 콘텐츠 저작 작업창(C)에서 마커의 위치나 콘텐츠의 배치 등을 위한 배경 이미지로 실감형콘텐츠 페이지를 뜻하며, 페이지 생성(S720)은 사용자가 작업할 수 있는 공간을 만드는 과정이다.
증강현실 콘텐츠 저작 작업창(C)에서 마커의 위치나 콘텐츠의 배치 등을 위한 배경 이미지를 교재를 디자인하는 시점에서 디자인 이미지를 페이지 생성 시점에 등록하여 증강현실 콘텐츠 저작 작업창에서 사용하도록 하거나, USB 카메라를 통해 실제의 책을 캡쳐링 하여 캡쳐링 된 이미지를 배경 이미지로 등록하여 사용한다.
따라서 실감형콘텐츠 페이지는 실제 책의 페이지와 동일한 형태로 생성되고, 실제 교재와 동일한 화면을 사용자에게 보여줌으로서 증강현실 콘텐츠 저작이 보다 현실적이고 정확하게 된다.
페이지를 생성(S720)하면 실감형콘텐츠 페이지 추가 창이 뜬다. 이때 페이지를 삽입하기 위해서는 실감형콘텐츠 페이지 유형과 페이지 면수와 삽입할 교재 이미지를 선택하여 결정한다.
실감형콘텐츠 페이지 유형은 마커가 하나라도 들어가는 콘텐츠 페이지와, 마커가 존재하지 않는 공백 페이지가 있다. 공백 페이지는 페이지 번호를 맞추어 주기 위해 이용한다.
실감형콘텐츠 페이지 면수는 도 2에 나태낸 바와 같이, 페이지 하나가 하나의 학습단위일 경우, 실감형콘텐츠 페이지 면수를 1로 설정을 하고, 하나의 학습단위로 두 페이지가 이용이 될 경우는 페이지 면수를 2로 설정한다.
교재 이미지는 콘텐츠 페이지의 교재 이미지를 입력하고, 공백 페이지일 경우 교재 이미지를 선택하지 않는다.
이와 같이 페이지를 생성(S720)하여 삽입한 후, 생성된 실감형콘텐츠 페이지 에 마커, 콘텐츠, 센서 및 액션을 사용자가 원하는대로 삽입한다(S730 ~ S850).
구체적으로, 마커, 콘텐츠, 센서 및 액션 삽입 과정에 대해 알아보면, 우선 마커 삽입의 경우(S730), 마커의 등록은 실제 교재의 이미지를 이용한 작업창에서 이루어지게 된다. 교재의 이미지에는 배경 이미지와 함께 고정형 마커에 대한 이미지가 같이 포함되어 있다.
이에 저작자는 마커가 포함된 배경 이미지를 통하여 지정된 위치에 마커를 삽입하게 된다(S740). 또한, 고정형 마커와 함께 사용될 이동형 마커와 컨트롤 마커도 함께 삽입한다.
마커 목록 창(G)에서 고정형 마커를 선택하여 배경 이미지의 마커 부분에 마우스를 이용하여 삽입하게 되는데, 삽입 시점에 마커의 위치와 크기가 같은 마커에 대한 정보가 생성되고 속성창(F)을 이용하여 기타 정보를 수정하게 된다.
데이터마커의 속성은 다음과 같다.
▶경로: 데이터 마커가 존재하는 경로를 표시
▶종류-고정형(Fixed): 교재에 특정 위치에 고정되어진 마커
이동형(Moved): 교재 내에서 움직일 수 있는 마커
▶사이즈: 마커의 사이즈
▶Width : 마커의 가로 픽셀 사이즈
▶Height : 마커의 세로 픽셀 사이즈
▶위치-X : 페이지의 좌측 상단을 기준으로 마커의 X 위치
Y : 페이지의 좌측 상단을 기준으로 마커의 Y 위치
▶이름-DisplayName : 사용자가 임의로 설정 가능한 별칭
Name : 데이터 마커의 ID
컨트롤 마커의 속성은 다음과 같다.
▶경로: 컨트롤 마커가 존재하는 경로를 표시
▶종류-Delete(삭제), Help(도움말), Initialize(초기화), Select(선택), Rotate(회전), Move(이동), Magnify(매그니파이), Undo(실행취조), Zoom In(확대), Zoom Out(축소)
▶사이즈: 마커의 사이즈
▶Width : 마커의 가로 픽셀 사이즈
▶Height : 마커의 세로 픽셀 사이즈
▶위치-X : 페이지의 좌측 상단을 기준으로 마커의 X 위치
Y : 페이지의 좌측 상단을 기준으로 마커의 Y 위치
컨트롤 마커는 페이지에 위치되지 않음으로 X, Y 값은 0으로 설정
▶이름-DisplayName : 사용자가 임의로 설정 가능한 별칭
Name : 컨트롤 마커의 ID
콘텐츠를 삽입하는 경우(S750)에는 콘텐츠 목록에서 원하는 콘텐츠를 선택하여 교재 페이지의 이미지 위에 위치를 지정하고 삽입한다(S760). 콘텐츠는 VRML 데이터인 3D 콘텐츠, 동영상, 오디오 등이 있다.
삽입된 콘텐츠는 마커에 기반하여 보여지는 것이기 때문에 앞에서 배치한(S740) 고정형 마커나 이동형 마커와 관계를 연결해 주어야 한다. 교재의 페이지 이미지 배경 위에 배치되어 있는 마커와 콘텐츠를 Shift+마우스 드래그를 이용하여, 즉, 마우스와 키보드를 이용하여 둘 사이의 관계를 연결시켜 준다. 이처럼 관계를 연결시켜 주면, 도 9에 나타낸 화면과 같이 마커와 콘텐츠 사이에 선이 이어지게 된다.
연결된 콘텐츠는 카메라를 통해 인식된 마커의 위치를 기점으로 배치한 위치에 나타나게 된다. 교재의 페이지 이미지와 동일한 배경으로 인해 책이 카메라에 인식되어 보이는 화면과 동일한 위치에 콘텐츠가 보이게 되는 것이다. 따라서 뷰어에서는 콘텐츠가 선택된 마커의 위치에 기준하여 배치된 위치에서 보여지고 플레이 되게 된다.
센서를 삽입하는 경우(S770)에는, 센서는 접촉센서와 근접센서가 있으므로, 먼저 삽입할 센서의 종류를 선택한다(S780). 선택 결과, 접촉센서가 선택되면(S790), 접촉 센서는 VRML 콘텐츠인 3D 콘텐츠에 삽입가능하므로, 우선 3D 콘텐 츠를 선택한다.
3D 콘텐츠를 선택하고 접촉 센서를 삽입하게 되면(S800) 3D 객체 구조가 나타나고, 3D 객체들 가운데 하나를 선택하면(S810) 3D 객체의 영역이 보여지고 그 영역에 접촉 센서를 부착한다(S820).
삽입된 접촉 센서는 다른 3D 객체의 접촉 센서나 컨트롤 마커에 반응하게 한다. 증강현실 뷰어의 사용자가 이동형 마커나 컨트롤 마커를 이용하여 접촉 센서가 삽입된 객체를 터치하게 되면 라우터를 통해 연결된 액션들이 수행되게 된다.
선택 결과, 근접 센서가 선택되면(S830), 근접센서를 삽입할 위치를 지정하여 삽입한다(S840). 여기서, 근접 센서는 보이지 않는 영역을 갖는 객체로서 다른 3D 객체나 컨트롤 마커에 반응하도록 한다. 즉, 본 발명의 증강현실 콘텐츠 저작 시스템(620)에서 제공하는 근접 센서는 3D 객체와 VRML 형태의 센서가 합쳐진 형태로 제공한다.
따라서 근접 센서는 보이지 않는 센서와 객체이기 때문에 기준이 되는 고정형 마커와의 연결이 필요하고, 이를 Shift+마우스 드래그를 통해 연결하게 된다. 증강현실 뷰어의 사용자가 이동형 마커나 컨트롤 마커를 이용하여 근접 센서가 삽입된 영역에 근접하면 라우터를 통해 연결된 액션들이 수행하게 된다.
액션을 삽입하는 경우(S850)에는, 삽입할 마커를 선택하고 액션을 삽입하게 된다. 마커에 삽입하게 되는 액션의 종류는 시간 액션, OR 액션, AND 액션, 스케일 액션, 가시화 액션, 위치 액션 및 LMS(Learning Management System: 학습자의 학습을 관리하는 학습관리 시스템) 액션 등이 있다.
그런 다음, 마커, 콘텐츠, 센서 및 액션의 삽입이 완료되면 삽입된 센서와 액션, 액션과 콘텐츠 간의 라우트를 연결하는 시나리오 작성을 하게 된다(S860). 마커, 콘텐츠, 센서, 액션들이 페이지에 삽입되면 그들간의 관계를 연결해 줌으로써 작동 순서, 동작 흐름들을 만들어 줄 수 있다.
시나리오 작성(S860)은 액션들의 속성들을 설정해 주고 센서들의 출력과 액션들의 입력과 출력들을 이들의 구조창에서 키보드와 마우스만을 이용하여 간단히 연결할 수 있도록 한다. 이를 구현한 화면은 도 10에 나타낸 바와 같다.
시나리오 작성(S860)을 통해 관계가 연결된 액션의 종류에 따른 액션의 인터랙션 작용을 구체적으로 설명한다.
"위치 액션"을 이용하여 위치 이동 인터랙션을 제작한다. 위치액션의 Enable 속성을 활성화하고, 이동 목적지의 3D 객체를 위치 액션으로 라우팅하여 목적지의 위치를 읽어오고 위치 액션에서 소스 객체로 라우팅하면 된다. 뷰어에서 위치 액션 이 활성화되면 목적지의 위치를 읽어서 소스객체를 목적지 좌표로 변경하여 이동시킨다.
또, "가시성 액션"을 활성화(Enable 속성을 True로) 시키고, 투명성 속성을 True로 해 놓은 뒤에 대상 객체로 라우팅을 연결하여 가시성을 설정해 놓으면 가시성 액션이 실행되어 대상 객체가 투명해지게 된다.
또, "스케일 액션"을 활성화시키고 스케일 값을 입력한 뒤에 대상 객체로 라우팅을 연결해 놓으면 스케일 액션이 실행되었을 때 대상 객체의 스케일 값을 입력한 값으로 변경하여 크기를 변화시킨다.
또, 오디오 파일의 Enable 속성을 False로 해 놓고 "시간 액션"을 추가 한 후에 시간 액션의 Enable 속성을 True로, 연기시간을 15초로 설정한 후에 시간 액션과 오디오 객체를 라우팅 연결해 놓으면 시간 액션이 실행되고 15초 후에 오디오 객체를 실행시키게 된다.
상기와 같은 액션 실행에 있어서, 정해진 위치에 맞는 3D 객체가 올라가야 다음 액션을 실행시켜주는 시나리오를 만들 수 있다. 또한, 하나가 아닌 두 개 이상의 정해진 위치에 각각에 정해진 3D 객체가 각각 올라가야 다음 액션을 실행시켜주는 시나리오를 만들 수 있다.
이러한 시나리오를 만들어 주기 위해서는 각각의 정해진 위치에 정확한 3D 객체가 올라왔는지를 판단해 주는 "판단 액션"이 필요하다. 또한, 이러한 판단 액션은 저작이 손쉬워야 한다.
각각의 정해진 위치에는 근접 센서나 특정 객체들에 접촉 센서를 삽입시켜 놓게 된다. 이러한 것들은 내부적으로 3D 객체가 존재하게 되고 이러한 3D 객체에 정확한 다른 3D 객체가 접촉하거나 접근했는지를 판단해 주어야 한다. 이러한 판단 액션은 AND 액션과 OR 액션에 의해 실행된다.
"AND 액션"은 기준 객체와 입력 객체의 AND 연산을 통해 True와 Flase를 출력해 주는 액션으로, 내부에 존재하는 3D 객체에 정확한 다른 3D 객체가 접촉하거나 접근했는지에 관한 판단을 처리해 주기 위해 제공하는 것이다. 또한, "OR 액션"은 OR 연산을 통해 True와 Flase를 출력해 주는 액션이다.
AND 액션과 OR 액션의 입력은 최대 입력 수를 나타내는 'MAXInput(Maximum Input Number)'이라는 속성을 통해 입력 객체의 수를 정의할 수 있다.
MAXInput에 따라 입력이 표-1에 나타낸 바와 같이 (baseinput1, input1), (baseinput2, input2), …, (baseinputn, inputn)이 발생하게 되고, 출력은 output1과 output2가 생기는데 output1은 true인 경우, output2는 false인 경우에 출력된다.
[표-1]
AND 액션 Output = (baseinput1 & input1) & (baseinput2 & input2 ) & … & (baseinputn & inputn)
OR 액션 Output = (baseinput1 & input1) | (baseinput2 & input2 ) | … | (baseinputn & inputn)
내부적으로 baseinput과 input의 AND 연산을 통해 true 및 false가 생성되고, MAXInput의 수만큼의 입력 결과들이 AND나 OR 연산이 이루어져서 output1 또는 output2가 출력되며, 각각에 라우트된 또 다른 액션이나 오디오, 동영상, 3D 콘텐츠 실행 등의 작업이 수행된다.
구체적으로, AND 연산은 입력되는 모든 경우의 조건이 일치하는 경우에 true(=output1)가 생성되어 출력되고, OR 연산은 하나의 경우의 조건만 일치하여도 true(=output1)이 생성되어 출력된다.
반면, AND 연산은 입력되는 조건이 하나라도 틀리면 false(=output2)가 생성되어 출력되고, OR 연산은 모든 경우의 조건이 틀린 경우에만 false(=output2)가 생성되어 출력된다.
이처럼 시나리오 작성(S860)이 완료되어 하나의 프로젝트가 완성되면(S870) 이를 ARC 파일로 저장하고(S880) 증강현실 콘텐츠 저작 시스템(620)을 종료한다(S890).
이상에서 알아본 바와 같이 본 발명의 실시예는 하나의 실시예에 지나지 않으며, 본 발명의 요지를 벗어나지 않는 범위 내에서 많은 변형 및 변경 가능함은 물론이다.
본 발명에 따른 마커 기반 사용자 인터랙션을 지원하는 증강현실 콘텐츠 저작 시스템 및 방법을 이용하여 증강현실 콘텐츠 제작 편의성 제공, 사용자의 가상콘텐츠 인터랙션에 대한 쉬운 제작 방법 제공, 판단 액션을 포함한 다양한 액션들을 통한 다양한 상황들에 대한 시나리오 제작 기능 제공하는 효과가 있다.
또한, 책이나 다양한 매체 위에 인쇄된 기하학 모양의 마커를 인식하여 관련된 가상영상을 표현하고, 학습자의 몰입감 향상을 위해 마커를 기반으로 보여지는 다양한 가상영상들을 제어할 수 있는 증강현실 콘텐츠를 저작자가 프로그래밍 지식을 보유하지 않아도 쉽게 저작할 수 있도록 하고, 본 저작도구를 통해 증강현실 콘텐츠의 개발 비용을 낮추고 개발기간을 줄일 수가 있어서 증강현실 기술의 상용화가 가능하다.
또한, 본 저작도구를 통해 현재 온라인 상에서 머물러 있는 e-러닝 산업을 기존의 오프라인 교재 산업과 연계함으로써, 온/오프라인이 동반 성장하는 효과를 가져올 수 있다. 본 저작도구는 학습뿐 아니라, 새로운 경험의 콘텐츠 서비스가 필요한 분야에 응용 가능하다.

Claims (20)

  1. (a)교재를 저작하는 증강현실 콘텐츠 저작도구를 실행하는 단계;
    (b)상기 저작할 교재를 프로젝트로 생성하고, 상기 생성된 프로젝트를 수행하기 위한 실감형콘텐츠 페이지를 생성하는 단계;
    (c)마커, 콘텐츠, 센서 및 액션 중 적어도 하나 이상을 상기 생성된 실감형콘텐츠 페이지에 삽입하는 단계;
    (d)상기 삽입된 마커, 콘텐츠, 센서 및 액션의 관계를 연결하는 시나리오를 작성하는 단계;
    (e)상기 시나리오 작성이 완료되면 상기 프로젝트를 저장하는 단계를 포함하여 이루어지는 것을 특징으로 하는 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 저작 방법.
  2. 제1항에 있어서,
    상기 (b)단계에서 상기 실감형콘텐츠 페이지는 미리 등록된 실제 교재 페이지와 동일한 화면 이미지를 배경 이미지로 사용하거나 교재를 촬영하여 캡쳐한 실제 영상을 배경 이미지로 사용하는 것을 특징으로 하는 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 저작 방법.
  3. 제2항에 있어서,
    상기 실감형콘텐츠 페이지는 마커가 삽입되는 콘텐츠 페이지와 마커가 삽입되지 않는 페이지 번호를 맞추기 위한 공백 페이지를 포함하여 이루어지는 것을 특징으로 하는 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 저작 방법.
  4. 제1항에 있어서,
    상기 (c)단계에서 상기 마커 삽입은
    상기 실감형콘텐츠 페이지에 가상 콘텐츠를 합성할 위치를 지정하여 마커를 삽입하는 단계를 포함하여 이루어지는 것을 특징으로 하는 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 저작 방법.
  5. 제1항 또는 제4항에 있어서,
    상기 마커 삽입은 상기 교재 위에 프린트되어 미리 정해진 위치에 가상 콘텐츠를 합성하는 고정형 마커, 한 페이지 내에서만 사용되는 이동가능한 이동형 마커 및 학습자가 상기 고정형 마커 위에 합성된 가상 콘텐츠에 인터랙션을 가하는 컨트롤 마커 중 하나를 선택하여 삽입하는 것을 특징으로 하는 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 저작 방법.
  6. 제5항에 있어서,
    상기 고정형 마커는 하나의 교재 내에서 고유하게 사용되는 마커인 것을 특징으로 하는 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 저작 방법.
  7. 제5항에 있어서,
    상기 컨트롤 마커는 선택을 의미하는 화살표 콘텐츠가 합성되는 선택 마커, 사용자가 콘텐츠를 실행하는 도중 초기상태로 복귀할 때 사용하는 초기화 마커, 학습자의 액션을 한 단계 이전으로 되돌리는 실행취소 마커, 저작도구에서 3D콘텐츠 마다 입력해 놓은 도움말을 화면 오른쪽 상단에 보여질 수 있도록 제공하는 도움말 마커, 화면에서 특정 3D객체를 선택하여 보이지 않도록 하는 삭제 마커, 3D객체 또는 전체 화면을 확대하거나 축소하는 기능을 수행하는 줌 마커, 3D객체를 선택하여 임의의 위치나 미리 정의해 놓은 위치로 이동시키는 이동 마커, 특정 3D 객체를 선택하여 좌/우/상/하로 회전을 시키는 회전 마커 및 3D객체에 저작 시점에 정의해 놓은 특정 콘텐츠를 디스플레이하는 Magnify(매그니파이) 마커로 구성되는 것을 특징으로 하는 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 저작 방법.
  8. 제1항에 있어서,
    상기 (c)단계의 콘텐츠 삽입은
    콘텐츠 목록에서 원하는 콘텐츠를 선택하는 단계; 및
    상기 실감형콘텐츠 페이지에서 삽입할 위치를 지정하여 상기 선택한 콘텐츠를 삽입하는 단계를 포함하여 이루어지는 것을 특징으로 하는 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 저작 방법.
  9. 제1항에 있어서,
    상기 (c)단계의 상기 센서는 가상 콘텐츠에 부착되는 VRML 객체이며, 상기 가상 콘텐츠들 간의 접촉에 의해 반응되는 접촉 센서와 보이지 않는 가상의 객체와 센서가 결합된 형태의 근접 센서로 구성되는 것을 특징으로 하는 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 저작 방법.
  10. 제9항에 있어서,
    상기 (c)단계의 센서 삽입은
    상기 접촉센서와 상기 근접센서 중 삽입할 센서를 선택하는 단계;
    상기 접촉센서를 선택하는 경우, 상기 콘텐츠를 선택하여 상기 접촉센서를 삽입하는 단계; 및
    상기 선택한 3D 콘텐츠의 3D 객체 영역에 상기 접촉센서를 부착하는 단계를 포함하여 이루어지는 것을 특징으로 하는 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 저작 방법.
  11. 제10항에 있어서,
    상기 근접센서를 선택하는 경우에는 삽입할 위치를 지정하여 상기 근접센서를 삽입하는 것을 특징으로 하는 마커 기반의 사용자 인터랙션을 지원하는 증강현 실 콘텐츠 저작 방법.
  12. 제1항에 있어서,
    상기 (c)단계의 액션 삽입은,
    상기 마커를 선택하고 시간 액션, 스케일 액션, 가시화 액션, 위치 액션, LMS 액션, AND 액션 및 OR 액션 중 하나의 액션을 선택하여 삽입하는 것을 특징으로 하는 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 저작 방법.
  13. 제12항에 있어서,
    상기 AND 액션과 상기 OR 액션은, 정해진 위치나 특정 객체에 정확한 다른 3D 객체가 접근하거나 접촉하는지를 판단하는 판단 액션을 실행하는 것을 특징으로 하는 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 저작 방법.
  14. 교재 이미지를 입력받아 하나의 교재 저작을 위한 프로젝트를 생성하여 실감형콘텐츠 페이지를 생성하고, 상기 생성한 실감형콘텐츠 페이지에 사용자의 선택에 대응하여 마커, 콘텐츠, 센서 및 액션을 삽입한 후 상기 삽입한 마커, 콘텐츠, 센서 및 액션의 관계를 연결하여 증강현실 콘텐츠를 저작하는 저작부를 포함하는 것을 특징으로 하는 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 저작 시스템.
  15. 제14항에 있어서,
    상기 실감형콘텐츠 페이지는 미리 등록된 실제 교재 페이지와 동일한 화면 이미지를 배경 이미지로 사용하거나 교재를 촬영하여 캡쳐한 실제 영상을 배경 이미지로 사용하는 것을 특징으로 하는 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 저작 시스템.
  16. 제 15항에 있어서,
    상기 실감형콘텐츠 페이지는 마커가 삽입되는 콘텐츠 페이지와 마커가 삽입되지 않는 페이지 번호를 맞추기 위한 공백 페이지로 이루어지는 것을 특징으로 하는 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 저작 시스템.
  17. 제14항에 있어서,
    상기 마커 삽입은 교재 위에 프린트되어 미리 정해진 위치에 가상 콘텐츠를 합성하는 고정형 마커, 한 페이지 내에서만 사용되는 이동가능한 이동형 마커 및 학습자가 상기 고정형 마커 위에 합성된 가상 콘텐츠에 인터랙션을 가하는 컨트롤 마커 중 하나를 선택하여 삽입하는 것을 특징으로 하는 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 저작 시스템.
  18. 제14항에 있어서,
    상기 센서는 가상 콘텐츠에 부착되는 VRML 객체이며, 상기 센서 삽입은 가상 콘텐츠들 간의 접촉에 의해 반응되는 접촉 센서와 보이지 않는 가상의 객체와 센서 가 결합된 형태의 근접 센서 중 하나를 선택하여 삽입하는 것을 특징으로 하는 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 저작 시스템.
  19. 제14항에 있어서,
    상기 액션 삽입은 상기 선택한 마커에 시간 액션, 스케일 액션, 가시화 액션, 위치 액션, LMS 액션, AND 액션 및 OR 액션 중 하나의 액션을 선택하여 삽입하는 것을 특징으로 하는 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 저작 시스템.
  20. 제19항에 있어서,
    상기 AND 액션과 상기 OR 액션은 정해진 위치나 특정 객체에 정확한 다른 3D 객체가 접근하거나 접촉하는지를 판단하는 판단 액션을 실행하는 것을 특징으로 하는 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠 저작 시스템.
KR1020060124856A 2006-12-08 2006-12-08 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠저작 시스템 및 방법 KR100834904B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060124856A KR100834904B1 (ko) 2006-12-08 2006-12-08 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠저작 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060124856A KR100834904B1 (ko) 2006-12-08 2006-12-08 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠저작 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR100834904B1 true KR100834904B1 (ko) 2008-06-03

Family

ID=39769940

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060124856A KR100834904B1 (ko) 2006-12-08 2006-12-08 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠저작 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR100834904B1 (ko)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010079876A1 (ko) * 2009-01-07 2010-07-15 광주과학기술원 증강현실 컨텐츠 저작 시스템 및 방법
KR101146091B1 (ko) 2007-11-30 2012-05-16 광주과학기술원 증강 현실을 위한 입력 인터페이스 장치 및 이를 구비한 증강 현실 시스템
KR101159420B1 (ko) 2009-12-11 2012-06-28 주식회사 메타코 증강 현실을 이용한 학습 장치 및 방법
KR101253537B1 (ko) * 2010-08-20 2013-04-11 한국전자통신연구원 증강현실 기반의 실감형 학습 콘텐츠 저작 장치 및 방법
KR101505174B1 (ko) * 2013-05-21 2015-03-26 유남구 이미지를 활용하는 학습 시뮬레이션 모델 방법 및 장치
US9268774B2 (en) 2008-06-27 2016-02-23 Samsung Electronics Co., Ltd. Storage medium, apparatus, and method to author and play interactive content
KR101697041B1 (ko) * 2016-01-12 2017-01-16 오철환 가상 객체의 충돌 체크에 의한 반응형 증강현실 카드 게임의 데이터 처리 방법 및 반응형 증강현실 카드 게임 플레이 장치
WO2017069396A1 (ko) * 2015-10-23 2017-04-27 오철환 가상 객체의 충돌 체크에 의한 반응형 증강현실 카드 게임의 데이터 처리 방법 및 반응형 증강현실 카드 게임 플레이 장치
KR101740212B1 (ko) 2017-01-09 2017-05-26 오철환 가상 객체의 충돌 체크에 의한 반응형 증강현실 카드 게임의 데이터 처리 방법
KR101740213B1 (ko) 2017-01-09 2017-05-26 오철환 가상 객체의 충돌 체크에 의한 반응형 증강현실 카드 게임 플레이 장치
KR20180042589A (ko) * 2016-10-18 2018-04-26 디에스글로벌 (주) 사용자 편집 이미지를 이용한 증강현실 콘텐츠 제공 방법 및 시스템
KR20190075596A (ko) * 2017-12-21 2019-07-01 김일식 증강 현실 컨텐츠를 제작하는 방법, 이를 이용하는 방법 및 이를 이용한 장치
KR102099852B1 (ko) * 2018-10-30 2020-04-10 한동대학교 산학협력단 증강현실 게임북을 이용한 멀티유저 증강현실 컨텐츠 제공 시스템 및 방법
KR20200068075A (ko) * 2018-11-27 2020-06-15 주식회사 코이노 하이퍼모션 단계 처리가 가능한 증강현실 및 기계학습 기반 원격 가이던스 장치 및 그 방법
KR20220099284A (ko) 2021-01-06 2022-07-13 주식회사 소프트그라운드 산업용 증강현실 콘텐츠 저작 시스템 및 이를 포함한 작업 가이드 플랫폼

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6724930B1 (en) 1999-02-04 2004-04-20 Olympus Corporation Three-dimensional position and orientation sensing system
JP2004341642A (ja) 2003-05-13 2004-12-02 Nippon Telegr & Teleph Corp <Ntt> 画像合成表示方法、画像合成表示プログラム、並びにこの画像合成表示プログラムを記録した記録媒体
KR20060065159A (ko) * 2004-12-10 2006-06-14 (주)제니텀 엔터테인먼트 컴퓨팅 3차원 마커 인지 방법 및 이를 이용한 증강현실 및복합현실 제공 방법 및 장치
EP1720131A1 (en) 2005-05-03 2006-11-08 Seac02 S.r.l. An augmented reality system with real marker object identification
KR100793837B1 (ko) 2006-09-13 2008-01-11 한국전자통신연구원 조명의 변화와 학습자 인터랙션을 고려한 마커 인식 장치및 마커 인식 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6724930B1 (en) 1999-02-04 2004-04-20 Olympus Corporation Three-dimensional position and orientation sensing system
JP2004341642A (ja) 2003-05-13 2004-12-02 Nippon Telegr & Teleph Corp <Ntt> 画像合成表示方法、画像合成表示プログラム、並びにこの画像合成表示プログラムを記録した記録媒体
KR20060065159A (ko) * 2004-12-10 2006-06-14 (주)제니텀 엔터테인먼트 컴퓨팅 3차원 마커 인지 방법 및 이를 이용한 증강현실 및복합현실 제공 방법 및 장치
EP1720131A1 (en) 2005-05-03 2006-11-08 Seac02 S.r.l. An augmented reality system with real marker object identification
KR100793837B1 (ko) 2006-09-13 2008-01-11 한국전자통신연구원 조명의 변화와 학습자 인터랙션을 고려한 마커 인식 장치및 마커 인식 방법

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101146091B1 (ko) 2007-11-30 2012-05-16 광주과학기술원 증강 현실을 위한 입력 인터페이스 장치 및 이를 구비한 증강 현실 시스템
US9268774B2 (en) 2008-06-27 2016-02-23 Samsung Electronics Co., Ltd. Storage medium, apparatus, and method to author and play interactive content
WO2010079876A1 (ko) * 2009-01-07 2010-07-15 광주과학기술원 증강현실 컨텐츠 저작 시스템 및 방법
KR101062961B1 (ko) * 2009-01-07 2011-09-06 광주과학기술원 증강현실 컨텐츠 저작 시스템과 방법 및 상기 방법을 구현하는 프로그램이 기록된 기록매체
KR101159420B1 (ko) 2009-12-11 2012-06-28 주식회사 메타코 증강 현실을 이용한 학습 장치 및 방법
KR101253537B1 (ko) * 2010-08-20 2013-04-11 한국전자통신연구원 증강현실 기반의 실감형 학습 콘텐츠 저작 장치 및 방법
KR101505174B1 (ko) * 2013-05-21 2015-03-26 유남구 이미지를 활용하는 학습 시뮬레이션 모델 방법 및 장치
WO2017069396A1 (ko) * 2015-10-23 2017-04-27 오철환 가상 객체의 충돌 체크에 의한 반응형 증강현실 카드 게임의 데이터 처리 방법 및 반응형 증강현실 카드 게임 플레이 장치
US10532271B2 (en) 2015-10-23 2020-01-14 Chol Whan OH Data processing method for reactive augmented reality card game and reactive augmented reality card game play device, by checking collision between virtual objects
KR101697041B1 (ko) * 2016-01-12 2017-01-16 오철환 가상 객체의 충돌 체크에 의한 반응형 증강현실 카드 게임의 데이터 처리 방법 및 반응형 증강현실 카드 게임 플레이 장치
KR20180042589A (ko) * 2016-10-18 2018-04-26 디에스글로벌 (주) 사용자 편집 이미지를 이용한 증강현실 콘텐츠 제공 방법 및 시스템
KR101740212B1 (ko) 2017-01-09 2017-05-26 오철환 가상 객체의 충돌 체크에 의한 반응형 증강현실 카드 게임의 데이터 처리 방법
KR101740213B1 (ko) 2017-01-09 2017-05-26 오철환 가상 객체의 충돌 체크에 의한 반응형 증강현실 카드 게임 플레이 장치
KR20190075596A (ko) * 2017-12-21 2019-07-01 김일식 증강 현실 컨텐츠를 제작하는 방법, 이를 이용하는 방법 및 이를 이용한 장치
KR102063268B1 (ko) * 2017-12-21 2020-01-07 김일식 증강 현실 컨텐츠를 제작하는 방법, 이를 이용하는 방법 및 이를 이용한 장치
KR102099852B1 (ko) * 2018-10-30 2020-04-10 한동대학교 산학협력단 증강현실 게임북을 이용한 멀티유저 증강현실 컨텐츠 제공 시스템 및 방법
KR20200068075A (ko) * 2018-11-27 2020-06-15 주식회사 코이노 하이퍼모션 단계 처리가 가능한 증강현실 및 기계학습 기반 원격 가이던스 장치 및 그 방법
KR102132330B1 (ko) * 2018-11-27 2020-07-09 주식회사 코이노 하이퍼모션 단계 처리가 가능한 증강현실 및 기계학습 기반 원격 가이던스 장치 및 그 방법
KR20220099284A (ko) 2021-01-06 2022-07-13 주식회사 소프트그라운드 산업용 증강현실 콘텐츠 저작 시스템 및 이를 포함한 작업 가이드 플랫폼

Similar Documents

Publication Publication Date Title
KR100834904B1 (ko) 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠저작 시스템 및 방법
US6219057B1 (en) Collaborative work environment supporting three-dimensional objects and multiple, remote participants
JP5991423B2 (ja) 表示装置、表示方法、表示プログラムおよび位置設定システム
KR100246066B1 (ko) 컴퓨터 그래픽 시스템 및 그래픽 시스템 동작 제어 방법
US20140095277A1 (en) Detail-in-context lenses for interacting with bjects in digital image presenations
US8108789B2 (en) Information processing device, user interface method, and information storage medium
TWI606384B (zh) 透過自由形式描繪之吸引人的顯示
Sonnet et al. Integrating expanding annotations with a 3D explosion probe
US11030808B2 (en) Generating time-delayed augmented reality content
US9792268B2 (en) Zoomable web-based wall with natural user interface
Horak et al. Responsive matrix cells: A focus+ context approach for exploring and editing multivariate graphs
CN101896877A (zh) 空间输入动作显示装置
US8872813B2 (en) Parallax image authoring and viewing in digital media
CN108604256B (zh) 零件信息检索装置、零件信息检索方法以及程序
Ge et al. Integrative simulation environment for conceptual structural analysis
US7502027B1 (en) Electronic drawing viewer
JPH04308895A (ja) 処理の実行方法及び情報処理装置
JP4870581B2 (ja) パーツカタログ作成システム、コンピュータが実行するためのプログラム、およびコンピュータが読み取り可能な記録媒体
JP7381556B2 (ja) メディアコンテンツ計画システム
JP3898280B2 (ja) データベースの表示方法
CN115115812A (zh) 虚拟场景的显示方法、装置及存储介质
US20180059880A1 (en) Methods and systems for interactive three-dimensional electronic book
JP3850514B2 (ja) データベースの表示方法
JPH0916315A (ja) 情報検索システム
US11694376B2 (en) Intuitive 3D transformations for 2D graphics

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130424

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20140430

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20150427

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20160427

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20180426

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20190425

Year of fee payment: 12