KR20100081725A - System and method for authoring contents of augmented reality - Google Patents

System and method for authoring contents of augmented reality Download PDF

Info

Publication number
KR20100081725A
KR20100081725A KR1020090001092A KR20090001092A KR20100081725A KR 20100081725 A KR20100081725 A KR 20100081725A KR 1020090001092 A KR1020090001092 A KR 1020090001092A KR 20090001092 A KR20090001092 A KR 20090001092A KR 20100081725 A KR20100081725 A KR 20100081725A
Authority
KR
South Korea
Prior art keywords
model
augmented reality
context information
reality content
content
Prior art date
Application number
KR1020090001092A
Other languages
Korean (ko)
Other versions
KR101062961B1 (en
Inventor
우운택
홍동표
Original Assignee
광주과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광주과학기술원 filed Critical 광주과학기술원
Priority to KR1020090001092A priority Critical patent/KR101062961B1/en
Priority to PCT/KR2009/004949 priority patent/WO2010079876A1/en
Publication of KR20100081725A publication Critical patent/KR20100081725A/en
Application granted granted Critical
Publication of KR101062961B1 publication Critical patent/KR101062961B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • Tourism & Hospitality (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PURPOSE: A system and a method for authoring contents of augmented reality are provided to include context information and physical attributes in an attribute of the contents when a user authors augmented reality contents, thereby making the augmented contents react according to a context of a user or an environment. CONSTITUTION: A model loading unit(20) loads a 3D model in a selected marker. A sensor(45) senses an environment including sound, light, and motion. A context information producing unit(40) processes information inputted from the sensor to generate context information to be reflected to contents. A model database(25) stores a 3D model to be provided to the model loading unit. A model control unit(30) controls the 3D model loaded through the model loading unit.

Description

증강현실 컨텐츠 저작 시스템 및 방법{System and Method for authoring contents of augmented reality}System and Method for authoring contents of augmented reality}

본 발명은 증강현실 컨텐츠 저작 시스템 및 방법에 관한 것이다. 보다 상세하게는 사용자가 증강현실 컨텐츠를 저작할 때 컨텐츠의 속성에 컨텍스트 정보와 물리적 속성을 함께 저작할 수 있도록 하여 증강된 컨텐츠가 환경이나 사용자의 컨텍스트에 따라 물리적 반응을 보일 수 있도록 함으로써, 별도의 애니메이션 저작이 필요치 않고 사실적인 컨텐츠 증강이 가능하기 때문에 보다 실감있는 증강현실 컨텐츠 저작이 가능한 증강현실 컨텐츠 저작 시스템 및 방법에 관한 것이다. The present invention relates to an augmented reality content authoring system and method. More specifically, when the user authors augmented reality content, the context information and the physical property can be authored together in the property of the content so that the augmented content can exhibit a physical reaction according to the environment or the user's context. The present invention relates to an augmented reality content authoring system and method that enables more realistic augmented reality content authoring since animation authoring is not required and realistic content augmentation is possible.

증강현실(Augmented Reality)은 가상현실(Virtual Reality)의 한 분야로, 실제 환경에 가상 사물을 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법이다. Augmented Reality is a field of virtual reality that is a computer graphics technique that synthesizes virtual objects in the real environment and looks like objects in the original environment.

증강현실은 가상의 공간과 사물만을 대상으로 하는 기존의 가상현실과 달리, 현실세계의 기반위에 가상의 사물을 합성하여 현실세계 만으로는 얻기 어려운 부가적인 정보들을 보강해 제공할 수 있는 특징을 가지고 있다. 즉, 가상현실기술은 일반적으로 사용자로 하여금 가상의 환경에 몰입하게 하므로 사용자는 실제 환경을 볼 수 없는 반면, 증강현실 기술에서는 사용자가 실제 환경을 볼 수 있으며, 실제 환경과 가상의 객체가 혼합된 형태를 띤다. 다시 말하면, 가상현실은 현실세계를 대체하여 사용자에게 보여주지만 증강현실은 현실세계에 가상의 물체를 중첩함으로서 현실세계를 보충하여 사용자에게 보여준다는 차별성을 가지며, 가상현실에 비해 사용자에게 보다 나은 현실감을 제공한다는 특징이 있다. 이러한 특징 때문에 단순히 게임과 같은 분야에만 한정된 적용이 가능한 기존 가상현실과 달리 다양한 현실환경에 응용이 가능하며 특히, 유비쿼터스 환경에 적합한 차세대 디스플레이 기술로 각광받고 있다.Augmented reality has a feature that, unlike the existing virtual reality that targets only virtual space and objects, it can reinforce and provide additional information that is difficult to obtain only by real world by synthesizing virtual objects on the basis of real world. In other words, VR technology generally allows users to immerse themselves in the virtual environment, while the user cannot see the real environment, whereas in AR technology, the user can see the real environment, and the real environment and the virtual objects are mixed. Takes shape. In other words, virtual reality is shown to the user by replacing the real world, but augmented reality has the distinction of supplementing the real world and showing it to the user by superimposing virtual objects in the real world. It has the feature of providing. Due to this feature, unlike existing virtual reality, which can be applied only to fields such as games, it can be applied to various real environments, and it is particularly popular as a next generation display technology suitable for ubiquitous environment.

증강현실 기술을 통해 현실세계에 부가적인 정보를 보강하기 위해서는 증강현실 컨텐츠를 저작하게 된다. 일반적으로 증강 현실 컨텐츠의 저작은 3D 모델링 툴을 이용하여 저작된 컨텐츠를 저작 시스템으로 로딩한 후, 로딩된 컨텐츠가 증강될 위치와 방향, 크기 및 애니메이션 등을 저작하는 방식으로 이루어지고 있다. 특히, 증강될 컨텐츠의 애니메이션을 위해서는 미리 키프레임과 같이 애니메이션이 적용된 컨텐츠를 로딩하거나 사용자가 일일이 직접 애니메이션 동작을 지정하여야 하는 문제점이 있다.In order to reinforce additional information in the real world through augmented reality technology, augmented reality content is authored. In general, authoring of augmented reality content is performed by loading the authored content using a 3D modeling tool into an authoring system, and then authoring a position, a direction, a size, and an animation to which the loaded content is to be augmented. In particular, in order to animate the content to be augmented, there is a problem in that the animation is loaded in advance, such as keyframes, or the user must manually specify the animation motion.

이와 같이 일반적인 방법으로 저작된 증강현실 컨텐츠는 미리 정해진 키프레임이 적용되거나 사용자의 입력에만 반응하도록 제작되어 현실 환경적인 요소를 반영하지 못하는 문제점이 있다.As described above, the augmented reality content produced by the general method has a problem in that a predetermined key frame is applied or produced to respond only to a user's input so that it does not reflect a real environmental element.

본 발명은 상기와 같은 문제점을 해결하기 위해 안출된 것으로, 특히 별도의 애니메이션 저작이 필요치 않고 사실적인 컨텐츠 증강이 가능하기 때문에 보다 실감있는 증강현실 컨텐츠 저작이 가능하며, 재현성을 확보할 수 있고 이전 컨텐츠 작업에 연속해서 저작할 수 있는 증강현실 컨텐츠 저작 시스템 및 방법을 제공하는 데 그 목적이 있다.The present invention has been made to solve the above problems, in particular, since it is possible to augment realistic content without requiring a separate animation authoring, more realistic augmented reality content authoring is possible, reproducibility can be secured and previous content Its purpose is to provide an augmented reality content authoring system and method that can be authored continuously in a work.

상기 목적을 달성하기 위해 안출된 본 발명에 따른 증강현실 컨텐츠 저작 시스템은 선택된 마커에 3D 모델을 로딩하는 모델 로딩부; 소리, 빛, 동작을 포함한 환경을 감지하는 센서; 및 상기 센서로부터 입력된 정보를 가공하여 컨텐츠에 반영할 컨텍스트 정보를 생성하는 컨텍스트 정보 제작부를 포함하는 것을 특징으로 한다.In order to achieve the above object, the augmented reality content authoring system according to the present invention comprises a model loading unit for loading a 3D model to the selected marker; Sensors for sensing the environment, including sound, light, and motion; And a context information production unit for processing the information input from the sensor to generate context information to be reflected in the content.

또한, 상기 증강현실 컨텐츠 저작 시스템은 상기 모델 로딩부에 제공할 상기 3D 모델을 저장하는 모델 데이터베이스를 더 포함할 수 있다.The augmented reality content authoring system may further include a model database for storing the 3D model to be provided to the model loading unit.

또한, 상기 증강현실 컨텐츠 저작 시스템은 상기 모델 로딩부를 통해 로딩된 3D 모델을 제어하는 모델 컨트롤부를 더 포함할 수 있다.The augmented reality content authoring system may further include a model controller that controls the 3D model loaded through the model loading unit.

또한, 상기 증강현실 컨텐츠 저작 시스템은 상기 컨텍스트 정보 제작부에 의해 제작된 컨텍스트 정보에 따라 상기 모델이 반응할 물리적 속성을 부여하는 물리적 속성 부여부를 더 포함할 수 있다.The augmented reality content authoring system may further include a physical attribute assigning unit for assigning a physical attribute to which the model reacts according to the context information produced by the context information producer.

또한, 상기 물리적 속성은 질량, 속도, 힘을 포함할 수 있다.In addition, the physical properties may include mass, velocity, and force.

또한, 상기 증강현실 컨텐츠 저작 시스템은 상기 선택된 마커, 상기 3D 모델, 상기 컨텍스트 정보 및 상기 물리적 속성을 저장하는 컨텐츠 저장부를 더 포함할 수 있다.The augmented reality content authoring system may further include a content storage unit for storing the selected marker, the 3D model, the context information, and the physical property.

또한, 상기 컨텐츠 저장부는 XML(eXtensible Markup Language) 파일 형태로 저장할 수 있다.In addition, the content storage unit may be stored in the form of an XML (eXtensible Markup Language) file.

본 발명에 따른 증강현실 컨텐츠 저작 방법은 (a) 마커를 선택하는 단계; (b) 모델 데이터베이스로부터 증강하고자 하는 3D 모델을 가져와서 상기 마커에 로딩하는 단계; (c) 소리, 빛, 동작을 포함한 센싱된 환경 정보를 가공하여 컨텐츠에 반영할 컨텍스트 정보를 생성하는 단계; (d) 상기 컨텍스트 정보에 따라 상기 3D 모델이 반응할 물리적 속성을 부여하는 단계를 포함하는 것을 특징으로 한다.Augmented reality content authoring method according to the invention comprises the steps of (a) selecting a marker; (b) taking a 3D model to be augmented from a model database and loading it into the marker; (c) generating the context information to be reflected in the content by processing the sensed environment information including sound, light and motion; (d) assigning a physical property to which the 3D model will respond according to the context information.

또한, 상기 증강현실 컨텐츠 저작 방법은 이동, 회전, 스케일을 포함하여 상기 로딩된 3D 모델을 제어하는 단계를 더 포함할 수 있다.The augmented reality content authoring method may further include controlling the loaded 3D model including movement, rotation, and scale.

또한, 상기 증강현실 컨텐츠 저작 방법은 상기 마커 선택 정보, 상기 3D 모델, 상기 컨텍스트 정보 및 상기 물리적 속성을 저장하는 단계를 더 포함할 수 있다.The augmented reality content authoring method may further include storing the marker selection information, the 3D model, the context information, and the physical property.

본 발명에 의하면 사용자가 증강현실 컨텐츠를 저작할 때 컨텐츠의 속성에 컨텍스트 정보와 물리적 속성을 함께 저작할 수 있도록 하여 증강된 컨텐츠가 환경이나 사용자의 컨텍스트에 따라 물리적 반응을 보일 수 있도록 함으로써, 별도의 애니메이션 저작이 필요치 않고 사실적인 컨텐츠 증강이 가능하기 때문에 보다 실감있는 증강현실 컨텐츠 저작이 가능한 효과가 있다.According to the present invention, when the user authors augmented reality content, the context information and the physical property can be authored together in the property of the content so that the augmented content can show a physical response according to the environment or the user's context, Since there is no need for animation authoring and realistic content augmentation, more realistic augmented reality content authoring is possible.

또한, 본 발명에 의하면 저작된 컨텐츠를 XML 파일의 형태로 저장하여 재현성을 확보할 수 있고 이전 컨텐츠 작업에 연속해서 저작할 수 있는 효과가 있다.In addition, according to the present invention it is possible to secure the reproducibility by storing the authored content in the form of an XML file, there is an effect that can be authored continuously in the previous content work.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성 요소들에 참조 부호를 부가함에 있어서, 동일한 구성 요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 바람직한 실시예를 설명할 것이나, 본 발명의 기술적 사상은 이에 한정하거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있음은 물론이다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. First, in adding reference numerals to the components of each drawing, it should be noted that the same reference numerals are assigned to the same components as much as possible, even if shown on different drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. In addition, the following will describe a preferred embodiment of the present invention, but the technical idea of the present invention is not limited thereto and may be variously modified and modified by those skilled in the art.

도 1은 본 발명의 바람직한 실시예에 따른 증강현실 컨텐츠 저작 시스템의 블록도이다. 1 is a block diagram of an augmented reality content authoring system according to a preferred embodiment of the present invention.

본 발명의 바람직한 실시예에 따른 증강현실 컨텐츠 저작 시스템은, 도 1을 참조하면, 마커 선택부(10), 모델 로딩부(20), 모델 컨트롤부(30), 컨텍스트 정보 제작부(40), 물리적 속성 부여부(50), 디스플레이부(60), 및 컨텐츠 저장부(70)를 포함하여 이루어진다. 또한, 상기 증강현실 컨텐츠 저작 시스템은 모델 데이터베이스(25)와 센서(45)를 포함한다.In the augmented reality content authoring system according to a preferred embodiment of the present invention, referring to FIG. 1, the marker selecting unit 10, the model loading unit 20, the model control unit 30, the context information producing unit 40, and the physical The attribute providing unit 50, the display unit 60, and the content storage unit 70 are included. The AR content authoring system also includes a model database 25 and a sensor 45.

마커 선택부(10)는 컨텐츠를 증강시킬 오브젝트의 영상으로부터 마커를 선택한다. 마커 선택부(10)는 오브젝트의 영상 중 특징점을 추출하여 이를 마커로 활용하거나, 평판에 특정 무늬가 도안된 통상의 마커를 사용할 수 있다.The marker selector 10 selects a marker from an image of an object to enhance content. The marker selector 10 may extract a feature point from an image of the object and use it as a marker or use a conventional marker having a specific pattern on the flat plate.

모델 로딩부(20)는 선택된 마커에 3D 모델을 로딩시킨다. 이때, 모델 로딩부(20)는 오브젝트에 증강시킬 3D 모델이 저장된 모델 데이터베이스(25)를 검색하여 원하는 3D 모델을 추출한다.The model loading unit 20 loads the 3D model on the selected marker. In this case, the model loading unit 20 searches for a model database 25 in which a 3D model to be augmented is stored in the object and extracts a desired 3D model.

모델 컨트롤부(30)는 모델 로딩부(20)를 통해 로딩된 3D 모델을 제어한다. 예컨대, 로딩된 3D 모델의 위치 이동(translation), 방향 회전(rotation), 크기 조정(scale) 등을 수행함으로써, 3D 모델이 마커 상에 적절하게 로딩되도록 제어한다.The model controller 30 controls the 3D model loaded through the model loading unit 20. For example, by performing translation, orientation rotation, scale, etc. of the loaded 3D model, the 3D model is controlled to be properly loaded on the marker.

컨텍스트 정보 제작부(40)는 센서(45)로부터 입력된 정보를 가공하여 컨텐츠에 반영할 컨텍스트(context) 정보를 생성한다. 이때, 센서(45)는 사용자 주변의 환경을 감지하여 전기적 신호로 변환한 후, 컨텍스트 정보 제작부(40)에 제공한다. 예컨대, 센서(45)는 사용자 주변의 소리(sound), 빛(light), 동작(motion)을 감지하여 신호변환 후 컨텍스트 정보 제작부(40)에 전송할 수 있다. 예컨대, 센서(45)가 사운드 레벨(sound level)이 5인 소리를 감지하여 제공하는 경우, 컨텍스트 정보 제작부(40)는 "소리가 크다" 라는 컨텍스트 정보를 생성할 수 있다.The context information manufacturing unit 40 processes the information input from the sensor 45 and generates context information to be reflected in the content. At this time, the sensor 45 detects the environment around the user and converts it into an electrical signal, and provides it to the context information manufacturing unit 40. For example, the sensor 45 may detect a sound, light, and motion around the user and transmit the signal to the context information maker 40 after signal conversion. For example, when the sensor 45 detects and provides a sound having a sound level of 5, the context information manufacturing unit 40 may generate context information of “sound is loud”.

물리적 속성 부여부(50)는 컨텍스트 정보 제작부(40)에 의해 제작된 컨텍스트 정보에 따라 3D 모델이 반응할 물리적 속성을 부여한다. 물리적 속성으로는 일례로 질량(mass), 속도(velocity), 힘(force) 등이 있다. 이러한 물리적 속성은 컨 텍스트 정보에 따라 부여된다. 예컨대, "소리가 크다" 라는 컨텍스트 정보에 따라 3D 모델이 "귀를 막는 동작을 수행"하는 물리적 속성이 부여될 수 있다. 이때, 3D 모델은 컨텍스트 정보에 따라서 반응을 보이게 되는 것이다. 이에 따라 컨텍스트 정보에 따라서 물리적 반응을 보이는 사실적인 증강현실 컨텐츠 저작이 가능하다. 이러한 예가 도 2에 도시되어 있다.The physical property assigning unit 50 assigns a physical property to which the 3D model will react according to the context information produced by the context information producing unit 40. Physical properties include, for example, mass, velocity, and force. These physical attributes are assigned according to the context information. For example, the physical property that the 3D model “performs an ear blocking operation” may be given according to the context information “loud”. At this time, the 3D model will react according to the context information. Accordingly, realistic augmented reality content authoring that exhibits physical responses according to context information is possible. This example is shown in FIG.

또한, 도 3에는 가상의 물체(공, 박스)에 물리적 속성을 부여하여 실제 물체(컵)와 반응(충돌)할 수 있도록 구현한 예가 도시되어 있다. In addition, FIG. 3 illustrates an example in which a physical property is given to a virtual object (ball or box) to react (collide) with a real object (cup).

디스플레이부(60)는 컨텍스트 정보에 따라 물리적 반응을 보이는 컨텐츠가 증강되는 영상을 디스플레이한다. 사용자는 디스플레이부(60)를 보면서 3D 모델이 컨텍스트 정보에 적절한 물리적 반응을 보이는지 여부를 확인할 수 있다.The display unit 60 displays an image in which the content showing the physical response is augmented according to the context information. The user may check whether the 3D model exhibits an appropriate physical response to the context information while looking at the display 60.

컨텐츠 저장부(70)는 디스플레이부(60)를 통해 확인한 컨텐츠를 저장한다. 구체적으로, 컨텐츠 저장부(70)는 선택된 마커, 3D 모델, 컨텍스트 정보, 물리적 속성 등을 저장한다. 이때, 컨텐츠 저장부(70)는 저작된 컨텐츠를 XML 파일 형태로 저장할 수 있다. 이 경우, 추후에 다시 파일을 로딩하면 이전에 저작된 상태와 동일한 상태로 구현되므로, 재현성을 확보할 수 있고 이전 컨텐츠 작업에 연속해서 저작할 수도 있다. The content storage unit 70 stores the content checked through the display unit 60. In detail, the content storage unit 70 stores the selected marker, the 3D model, the context information, the physical property, and the like. In this case, the content storage unit 70 may store the authored content in the form of an XML file. In this case, when the file is loaded again later, it is implemented in the same state as the previously authored state, so that reproducibility can be ensured and the author can continuously author the previous content work.

이와 같이 함으로써, 본 발명은 저작된 3D 컨텐츠에 컨텍스트 정보와 물리 속성을 함께 부여할 수 있으므로, 사용자와 환경의 컨텍스트에 따라 동적인 반응을 보이도록 하기 위한 작업과 별도의 애니메이션 작업을 요구하지 않는다.In this way, the present invention can provide both the context information and the physics attribute to the authored 3D content, and does not require a separate animation task and a task for displaying a dynamic response according to the context of the user and the environment.

도 4는 본 발명의 바람직한 실시예에 따른 증강현실 컨텐츠 저작 방법의 흐 름도이다. 4 is a flowchart of a method for authoring augmented reality content according to a preferred embodiment of the present invention.

단계 S10은 마커를 선택하는 단계이다.Step S10 is a step of selecting a marker.

단계 S20은 모델 데이터베이스(25)로부터 증강하고자 하는 3D 모델을 가져와서 단계 S10에서 선택된 마커에 로딩하는 단계이다.Step S20 is a step of taking a 3D model to be augmented from the model database 25 and loading it on the marker selected in step S10.

단계 S30은 로딩된 3D 모델을 제어하는 단계로, 3D 모델 이동, 회전, 스케일 조정 등을 통하여 3D 모델이 원하는 상태로 로딩되도록 컨트롤한다.In step S30, the loaded 3D model is controlled, and the 3D model is controlled to be loaded in a desired state through 3D model movement, rotation, and scale adjustment.

단계 S40은 소리, 빛, 동작을 포함하는 센싱된 환경 정보를 가공하여 컨텐츠에 반영할 컨텍스트 정보를 생성하는 단계이다. 이를 통하여 센서(45)로부터 들어온 정보가 가공되어 의미있는 정보로 생성된다.In operation S40, the sensing environment information including sound, light, and motion may be processed to generate context information to be reflected in the content. Through this, information input from the sensor 45 is processed to generate meaningful information.

단계 S50은 컨텍스트 정보에 따라 3D 모델이 반응할 물리적 속성을 부여하는 단계이다. 예컨대, 사용자가 선호하는 음악 소리가 센싱되어 음악이 즐겁다라는 컨텍스트 정보에 따라 3D 모델이 흥겹게 춤추는 동작이 수행될 수 있다.Step S50 is a step of giving a physical property to respond to the 3D model in accordance with the context information. For example, the 3D model may dance happily according to the context information indicating that the user prefers music and enjoys the music.

단계 S60은 컨텍스트 정보에 따라 부여된 물리적 속성이 원하는 바대로 증강되는지 디스플레이를 통해 확인하는 단계이다. Step S60 is a step of confirming through the display whether the physical attributes granted according to the context information are augmented as desired.

단계 S70은 미리보기를 한 결과가 의도한 바에 부합되는지를 판단하는 단계이다. 판단 결과, 의도하는 바대로 증강된 경우에는 단계 S80으로 가서 컨텐츠를 저장하고, 그렇지 않은 경우에는 단계 S20으로 가서 다시 모델 로딩부터 일련의 작업을 수행한다.Step S70 is a step of judging whether the result of the preview conforms to the intended. As a result of determination, if it is augmented as intended, go to step S80 to save the content, otherwise go to step S20 and perform a series of operations from model loading again.

단계 S80은 마커 선택 정보, 3D 모델, 컨텍스트 정보 및 물리적 속성 정보를 저장하는 단계이다. 이를 XML 파일 형태로 저장하는 경우, 연속해서 재작업을 수행 할 수 있다.Step S80 is a step of storing marker selection information, 3D model, context information, and physical attribute information. If you save it as an XML file, you can rework it continuously.

이와 같이 사용자가 증강현실 컨텐츠를 저작할 때 컨텐츠의 속성에 컨텍스트 정보와 물리적 속성을 함께 저작할 수 있도록 함으로써, 증강된 컨텐츠가 환경이나 사용자의 컨텍스트에 따라 물리적 반응을 보일 수 있도록 한다. 그 결과, 별도의 애니메이션 저작이 필요치 않으며, 사실적인 컨텐츠 증강이 가능하기 때문에 보다 실감있는 증강현실 컨텐츠 저작이 가능하게 된다.As described above, when the user authors the augmented reality content, the context information and the physical property can be authored together in the property of the content, so that the augmented content can exhibit a physical response according to the environment or the user's context. As a result, a separate animation authoring is not required, and since realistic content augmentation is possible, more realistic augmented reality content authoring is possible.

한편, 본 발명은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.Meanwhile, the present invention can be embodied as computer readable codes on a computer readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored.

컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현하는 것을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disks, optical data storage devices, and the like, which may be implemented in the form of a carrier wave (for example, transmission over the Internet). Include. The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion. In addition, functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers in the art to which the present invention belongs.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것 이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and various modifications, changes, and substitutions may be made by those skilled in the art without departing from the essential characteristics of the present invention. will be. Accordingly, the embodiments disclosed in the present invention and the accompanying drawings are not intended to limit the technical spirit of the present invention but to describe the present invention, and the scope of the technical idea of the present invention is not limited by the embodiments and the accompanying drawings. . The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of the present invention.

본 발명은 증강현실 컨텐츠 저작 분야, 특히 컨텍스트를 인식할 수 있는 모바일 증강현실 컨텐츠 저작 분야에 광범위하게 적용될 수 있다.The present invention can be widely applied in the field of augmented reality content authoring, in particular, the field of mobile augmented reality content authoring capable of context recognition.

도 1은 본 발명의 바람직한 실시예에 따른 증강현실 컨텐츠 저작 시스템의 블록도,1 is a block diagram of an augmented reality content authoring system according to a preferred embodiment of the present invention;

도 2는 컨텍스트 정보에 따라서 캐릭터가 반응하는 모습의 일례를 도시한 도면,2 is a diagram illustrating an example of how a character reacts according to context information;

도 3은 가상의 물체에 물리적 속성을 부여하여 실제 물체에 대해 사실적인 반응을 보이는 일례를 도시한 도면, 3 is a diagram showing an example of giving a realistic property to a real object by applying a physical property to a virtual object,

도 4는 본 발명의 바람직한 실시예에 따른 증강현실 컨텐츠 저작 방법의 흐름도이다. 4 is a flowchart of a method for authoring augmented reality content according to a preferred embodiment of the present invention.

Claims (11)

선택된 마커에 3D 모델을 로딩하는 모델 로딩부;A model loading unit loading a 3D model on the selected marker; 소리, 빛, 동작을 포함한 환경을 감지하는 센서; 및Sensors for sensing the environment, including sound, light, and motion; And 상기 센서로부터 입력된 정보를 가공하여 컨텐츠에 반영할 컨텍스트 정보를 생성하는 컨텍스트 정보 제작부A context information producing unit for processing the information input from the sensor to generate the context information to be reflected in the content 를 포함하는 것을 특징으로 하는 증강현실 컨텐츠 저작 시스템.Augmented reality content authoring system comprising a. 제1항에 있어서,The method of claim 1, 상기 모델 로딩부에 제공할 상기 3D 모델을 저장하는 모델 데이터베이스를 더 포함하는 것을 특징으로 하는 증강현실 컨텐츠 저작 시스템.Augmented reality content authoring system further comprises a model database for storing the 3D model to be provided to the model loading unit. 제1항에 있어서,The method of claim 1, 상기 모델 로딩부를 통해 로딩된 3D 모델을 제어하는 모델 컨트롤부를 더 포함하는 것을 특징으로 하는 증강현실 컨텐츠 저작 시스템.Augmented reality content authoring system further comprises a model control unit for controlling the 3D model loaded through the model loading unit. 제1항에 있어서,The method of claim 1, 상기 컨텍스트 정보 제작부에 의해 제작된 컨텍스트 정보에 따라 상기 모델이 반응할 물리적 속성을 부여하는 물리적 속성 부여부를 더 포함하는 것을 특징으로 하는 증강현실 컨텐츠 저작 시스템.Augmented reality content authoring system, characterized in that it further comprises a physical attribute assigning unit for assigning a physical attribute to the model according to the context information produced by the context information producer. 제4항에 있어서,The method of claim 4, wherein 상기 물리적 속성은 질량, 속도, 힘을 포함하는 것을 특징으로 하는 증강현실 컨텐츠 저작 시스템.The physical property is augmented reality content authoring system, characterized in that it comprises mass, velocity, force. 제4항에 있어서,The method of claim 4, wherein 상기 선택된 마커, 상기 3D 모델, 상기 컨텍스트 정보 및 상기 물리적 속성을 저장하는 컨텐츠 저장부를 더 포함하는 것을 특징으로 하는 증강현실 컨텐츠 저작 시스템.Augmented reality content authoring system further comprises a content storage unit for storing the selected marker, the 3D model, the context information and the physical properties. 제6항에 있어서,The method of claim 6, 상기 컨텐츠 저장부는 XML(eXtensible Markup Language) 파일 형태로 저장하는 것을 특징으로 하는 증강현실 컨텐츠 저작 시스템.The content storage unit augmented reality content authoring system, characterized in that for storing in the form of an XML (eXtensible Markup Language) file. (a) 마커를 선택하는 단계;(a) selecting a marker; (b) 모델 데이터베이스로부터 증강하고자 하는 3D 모델을 가져와서 상기 마커에 로딩하는 단계;(b) taking a 3D model to be augmented from a model database and loading it into the marker; (c) 소리, 빛, 동작을 포함한 센싱된 환경 정보를 가공하여 컨텐츠에 반영할 컨텍스트 정보를 생성하는 단계;(c) generating the context information to be reflected in the content by processing the sensed environment information including sound, light and motion; (d) 상기 컨텍스트 정보에 따라 상기 3D 모델이 반응할 물리적 속성을 부여 하는 단계 (d) assigning a physical property to which the 3D model will react according to the context information 를 포함하는 것을 특징으로 하는 증강현실 컨텐츠 저작 방법.Augmented reality content authoring method comprising a. 제8항에 있어서,The method of claim 8, 이동, 회전, 스케일을 포함하여 상기 로딩된 3D 모델을 제어하는 단계를 더 포함하는 것을 특징으로 하는 증강현실 컨텐츠 저작 방법.Augmented reality content authoring method further comprising the step of controlling the loaded 3D model including the movement, rotation, scale. 제9항에 있어서,10. The method of claim 9, 상기 마커 선택 정보, 상기 3D 모델, 상기 컨텍스트 정보 및 상기 물리적 속성을 저장하는 단계를 더 포함하는 것을 특징으로 하는 증강현실 컨텐츠 저작 방법.And storing the marker selection information, the 3D model, the context information, and the physical property. 제8항 내지 제10항 중 어느 한 항에 따른 증강현실 컨텐츠 저작 방법이 프로그램으로 수록된 컴퓨터가 판독가능한 저장매체.A computer-readable storage medium in which a method of authoring an augmented reality content content according to any one of claims 8 to 10 is stored as a program.
KR1020090001092A 2009-01-07 2009-01-07 System and Method for authoring contents of augmented reality, and the recording media storing the program performing the said method KR101062961B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020090001092A KR101062961B1 (en) 2009-01-07 2009-01-07 System and Method for authoring contents of augmented reality, and the recording media storing the program performing the said method
PCT/KR2009/004949 WO2010079876A1 (en) 2009-01-07 2009-09-02 System and method for editing augmented reality contents

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090001092A KR101062961B1 (en) 2009-01-07 2009-01-07 System and Method for authoring contents of augmented reality, and the recording media storing the program performing the said method

Publications (2)

Publication Number Publication Date
KR20100081725A true KR20100081725A (en) 2010-07-15
KR101062961B1 KR101062961B1 (en) 2011-09-06

Family

ID=42316627

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090001092A KR101062961B1 (en) 2009-01-07 2009-01-07 System and Method for authoring contents of augmented reality, and the recording media storing the program performing the said method

Country Status (2)

Country Link
KR (1) KR101062961B1 (en)
WO (1) WO2010079876A1 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101226727B1 (en) * 2011-01-17 2013-01-25 에스케이플래닛 주식회사 System and method for providing augmented reality service
KR101338818B1 (en) * 2010-11-29 2013-12-06 주식회사 팬택 Mobile terminal and information display method using the same
KR20140007427A (en) * 2011-03-10 2014-01-17 마이크로소프트 코포레이션 Theme-based augmentation of photorepresentative view
KR101447992B1 (en) * 2013-02-05 2014-10-15 한국기술교육대학교 산학협력단 Method and system for managing standard model of three dimension for augmented reality
EP2854006A1 (en) 2013-09-27 2015-04-01 Korea Institute of Science and Technology System for authoring and providing augmented reality contents
KR20170059665A (en) * 2015-11-23 2017-05-31 주식회사 엠글리쉬 Movement type education apparatus based on sensor for detecting foreign language rhythmical action, and movement type education method using the same
US10187520B2 (en) 2013-04-24 2019-01-22 Samsung Electronics Co., Ltd. Terminal device and content displaying method thereof, server and controlling method thereof
KR20200061179A (en) * 2018-11-23 2020-06-02 에스케이텔레콤 주식회사 Apparatus for creating movie and method for creating movie using the same
KR20200090014A (en) * 2019-01-18 2020-07-28 삼성전자주식회사 Image processing method and electronic device supporting the same
KR102481613B1 (en) * 2022-02-11 2022-12-27 주식회사 유룸 System, method and program for providing 3d website making platform with edit function
KR102537403B1 (en) * 2022-02-11 2023-05-26 주식회사 유룸 System, method and program for providing 3d website making platform with 3d contents load function

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8810598B2 (en) 2011-04-08 2014-08-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
KR102077305B1 (en) * 2013-05-09 2020-02-14 삼성전자 주식회사 Method and apparatus for providing contents including augmented reality information
US9582516B2 (en) 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
CN113906370B (en) * 2019-05-29 2024-08-02 苹果公司 Generating content for physical elements
US11574423B2 (en) 2021-01-29 2023-02-07 Boomanity Corp. A Delaware Corporation Augmented reality (AR) object communication and interaction system and method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100661052B1 (en) * 2006-09-01 2006-12-22 (주)큐텔소프트 System and method for realizing virtual reality contents of 3-dimension using ubiquitous sensor network
KR100918392B1 (en) * 2006-12-05 2009-09-24 한국전자통신연구원 Personal-oriented multimedia studio platform for 3D contents authoring
KR100834904B1 (en) * 2006-12-08 2008-06-03 한국전자통신연구원 Development system of augmented reality contents supported user interaction based marker and method thereof

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101338818B1 (en) * 2010-11-29 2013-12-06 주식회사 팬택 Mobile terminal and information display method using the same
KR101226727B1 (en) * 2011-01-17 2013-01-25 에스케이플래닛 주식회사 System and method for providing augmented reality service
KR20140007427A (en) * 2011-03-10 2014-01-17 마이크로소프트 코포레이션 Theme-based augmentation of photorepresentative view
US10972680B2 (en) 2011-03-10 2021-04-06 Microsoft Technology Licensing, Llc Theme-based augmentation of photorepresentative view
KR101447992B1 (en) * 2013-02-05 2014-10-15 한국기술교육대학교 산학협력단 Method and system for managing standard model of three dimension for augmented reality
US10187520B2 (en) 2013-04-24 2019-01-22 Samsung Electronics Co., Ltd. Terminal device and content displaying method thereof, server and controlling method thereof
EP2854006A1 (en) 2013-09-27 2015-04-01 Korea Institute of Science and Technology System for authoring and providing augmented reality contents
US9905048B2 (en) 2013-09-27 2018-02-27 Korea Institute Of Science And Technology System for authoring and providing augmented reality contents
KR20150035282A (en) 2013-09-27 2015-04-06 한국과학기술연구원 System for authorting and providing augmented reality cotents
KR20170059665A (en) * 2015-11-23 2017-05-31 주식회사 엠글리쉬 Movement type education apparatus based on sensor for detecting foreign language rhythmical action, and movement type education method using the same
KR20200061179A (en) * 2018-11-23 2020-06-02 에스케이텔레콤 주식회사 Apparatus for creating movie and method for creating movie using the same
KR20200090014A (en) * 2019-01-18 2020-07-28 삼성전자주식회사 Image processing method and electronic device supporting the same
US12039791B2 (en) 2019-01-18 2024-07-16 Samsung Electronics Co., Ltd. Image processing method, and electronic device supporting same
KR102481613B1 (en) * 2022-02-11 2022-12-27 주식회사 유룸 System, method and program for providing 3d website making platform with edit function
KR102537403B1 (en) * 2022-02-11 2023-05-26 주식회사 유룸 System, method and program for providing 3d website making platform with 3d contents load function
WO2023153834A1 (en) * 2022-02-11 2023-08-17 주식회사 유룸 System, method, and program for providing 3d web site production platform having editing function

Also Published As

Publication number Publication date
KR101062961B1 (en) 2011-09-06
WO2010079876A1 (en) 2010-07-15

Similar Documents

Publication Publication Date Title
KR101062961B1 (en) System and Method for authoring contents of augmented reality, and the recording media storing the program performing the said method
US11960651B2 (en) Gesture-based shared AR session creation
US12070682B2 (en) 3D avatar plugin for third-party games
US11036781B1 (en) Video generation system to render frames on demand using a fleet of servers
US20230088471A1 (en) Video generation system to render frames on demand using a fleet of gpus
US11609675B2 (en) Placement of objects in an augmented reality environment
US20200327734A1 (en) Rendering 3d captions within real-world environments
US12045304B2 (en) Automatic website data migration
EP4081884B1 (en) Marker-based shared augmented reality session creation
JP7128188B2 (en) 3D MODEL CONSTRUCTION METHOD, APPARATUS AND SYSTEM
US20240153049A1 (en) Location mapping for large scale augmented-reality
US11893696B2 (en) Methods, systems, and computer readable media for extended reality user interface
Rumiński et al. Creation of interactive AR content on mobile devices
US11887322B2 (en) Depth estimation using biometric data
US11625873B2 (en) Personalized media overlay recommendation
KR20140078083A (en) Method of manufacturing cartoon contents for augemented reality and apparatus performing the same
Hong et al. A sensor-based interaction for ubiquitous virtual reality systems
Han et al. Controlling virtual world by the real world devices with an MPEG-V framework
Matysczok et al. Efficient creation of augmented reality content by using an intuitive authoring system
VanOverloop Data Visualization Using Augmented Reality
Walczak Modelling behaviour of configurable VR applications

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150723

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160712

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee