WO2014175600A1 - Computer-executable three-dimensional content display method, three-dimensional content display apparatus for performing same, and recording medium for saving same - Google Patents

Computer-executable three-dimensional content display method, three-dimensional content display apparatus for performing same, and recording medium for saving same Download PDF

Info

Publication number
WO2014175600A1
WO2014175600A1 PCT/KR2014/003364 KR2014003364W WO2014175600A1 WO 2014175600 A1 WO2014175600 A1 WO 2014175600A1 KR 2014003364 W KR2014003364 W KR 2014003364W WO 2014175600 A1 WO2014175600 A1 WO 2014175600A1
Authority
WO
WIPO (PCT)
Prior art keywords
response object
user response
user
computer
rendering
Prior art date
Application number
PCT/KR2014/003364
Other languages
French (fr)
Korean (ko)
Inventor
차승헌
박경호
한경희
Original Assignee
주식회사 실리콘아츠
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 실리콘아츠 filed Critical 주식회사 실리콘아츠
Publication of WO2014175600A1 publication Critical patent/WO2014175600A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Definitions

  • the present invention relates to a computer executable 3D content display technology, and more particularly, to a computer executable 3D content display method that realistically expresses a 3D content object by performing 3D rendering on the 3D content object, It relates to a three-dimensional content display device for performing this and a recording medium storing the same.
  • 3D rendering is the process of applying colors, textures, and shadows to a model created on the basis of 3D computer graphics, framing with camera angles, shading through light to create the final rendered image.
  • Korean Laid-Open Patent Publication No. 10-2011-0038203 discloses a three-dimensional stereoscopic user interface space utilization method for displaying notification information on a three-dimensional stereoscopic user interface such as a polyhedron.
  • the user interface space utilization technology may generate a space for displaying at least one of information such as text notification, schedule notification, status display, or announcement in a polyhedron frame having one or more content menus disposed on each side.
  • Korean Patent No. 10-0352169 discloses a method and system for rendering a virtual three-dimensional graphic display that couples components in a user environment to a three-dimensional graphic display of a data processing system. Such rendering techniques can make three-dimensional graphic images more realistic by combining reflective images from the user environment into a virtual three-dimensional graphics environment.
  • the computer When providing 3D content, the computer cannot render the 3D content realistically by using a method of rendering the 3D content as a 2D image and displaying it on the screen.
  • An embodiment of the present invention is to provide a computer-implemented three-dimensional content display method for performing a three-dimensional rendering of the three-dimensional content object to realistically represent the three-dimensional content object.
  • An embodiment of the present invention is to provide a computer-implemented three-dimensional content display method for performing three-dimensional rendering in accordance with a user input or current environment information.
  • An embodiment of the present invention is to provide a computer-implemented three-dimensional content display method for performing three-dimensional rendering based on at least one of reflectance, refractive index and shadow for the three-dimensional content.
  • the computer executable 3D content display method may include generating a computer displayable screen including at least one user response object, wherein at least some of the at least one user response object is reflected through a 3D rendering operation. At least one of the at least one user response object, detecting a user response object that should receive a user input or a given environmental information input, and detecting the user response through the three-dimensional rendering operation. Rendering the object again.
  • generating the computer displayable screen further comprises determining three-dimensional content that can be replaced by a user and detecting at least one user-responsive object receptor in the determined three-dimensional content. It may include.
  • the generating of the computer displayable screen may include: detecting the at least one user response object receptor and the at least one when the at least one user response object is associated with the at least one user response object receptor detected by the user.
  • the method may further include re-rendering at least one of the user response objects.
  • the detecting of the user response object may include detecting a user event including at least one of a gaze, a touch, a click, a voice, and a gesture of the user, and analyzing the detected user event to analyze the corresponding user response object. Determining may be further included.
  • the detecting of the user response object may include determining a corresponding user response object by recognizing that the gaze of the user stays in the at least one user response object for a preset time or more.
  • the detecting of the user response object may include obtaining an environment event including at least one of a current time, a current weather, a current location, an event of a specific application, and a state of the computer, and the obtained environment event.
  • the method may further include determining a corresponding user response object by analyzing.
  • the detecting of the user response object may include determining a position of a light source of the computer displayable screen according to the obtained current time.
  • the detecting of the user response object may include determining transmittance, reflectance, or shadow for at least a portion of the at least one user response object associated with the battery state based on a battery state of the computer. It may include a step.
  • re-rendering the detected user response object may include determining a rendering area associated with the detected user response object.
  • Re-rendering the detected user response object may include reflecting at least one of reflectance, refractive index, and shadow of the at least one user response object based on the user input or the currently given environment information input.
  • Re-rendering the detected user response object may include reflecting at least one of a depth of field and a bokeh effect effect on the re-rendered at least one response object.
  • the computer-implemented 3D content display apparatus may include a screen generation unit that generates a computer displayable screen including at least one user response object. At least some of the at least one user response object may perform a 3D rendering operation. Represented by at least one of reflection, refraction, and shadow through the user response object detector for detecting a user response object that needs to receive a user input or a given environment information input among the at least one user response object, and the 3D rendering operation. And a user response object renderer for re-rendering the detected user response object.
  • the user response object detector may detect a user event including at least one of a gaze, a touch, a click, a voice, and a gesture of the user, and analyze the user event to determine the corresponding user response object.
  • the user response object detector may determine the user response object by acquiring an environment event including at least one of a current time, a current weather, a current location, an event of a specific application, and a state of the corresponding computer, and analyzing the environment event.
  • a computer executable three dimensional content display recording medium comprising: a computer executable three dimensional content display recording medium storing a computer program for providing a three dimensional content display performed on a computer executable three dimensional content display device; Generating a computer displayable screen including at least one user response object, at least some of the at least one user response object being represented by at least one of reflection, refraction and shadow through a three-dimensional rendering operation; And a function of detecting a user response object that must receive a user input or a given environment information input among user response objects, and a function of re-rendering the detected user response object through the 3D rendering operation.
  • the computer-implemented three-dimensional content display method can realistically express the three-dimensional content object by performing three-dimensional rendering on the three-dimensional content object.
  • the computer-implemented 3D content display method may perform 3D rendering according to a user's input or current environment information.
  • the computer-implemented 3D content display method may perform 3D rendering based on at least one of reflectance, refractive index, and shadow for the 3D content.
  • FIG. 1 is a block diagram illustrating a computer-implemented three-dimensional content display device according to an embodiment of the present invention.
  • FIG. 2 is a flowchart illustrating a 3D content display process performed in the computer executable 3D content display apparatus of FIG. 1.
  • FIG. 3 is a diagram illustrating a rendering screen of 3D content performed in the computer executable 3D content display apparatus of FIG. 1.
  • FIG. 4 is a diagram illustrating a view conversion screen performed in the computer-implemented 3D content display apparatus of FIG. 1.
  • FIG. 5 is a diagram illustrating a rendering screen according to a battery state performed in the computer executable 3D content display apparatus of FIG. 1.
  • FIG. 6 is a diagram illustrating a rendering screen according to a light source performed in the computer-implementable 3D content display apparatus of FIG. 1.
  • FIG. 7 is a diagram illustrating a rendering screen according to a special effect performed in the computer-implementable 3D content display apparatus of FIG. 1.
  • first and second are intended to distinguish one component from another component, and the scope of rights should not be limited by these terms.
  • first component may be named a second component, and similarly, the second component may also be named a first component.
  • first item, second item and / or third item should be understood to include all combinations that can be suggested from one or more related items.
  • first item, second item and / or third item may be given from two or more of the first, second or third items as well as the first, second or third items. Any combination of the possible items.
  • an identification code (e.g., a, b, c, etc.) is used for convenience of description, and the identification code does not describe the order of the steps, and each step clearly indicates a specific order in context. Unless stated otherwise, they may occur out of the order noted. That is, each step may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.
  • the present invention can be embodied as computer readable code on a computer readable recording medium
  • the computer readable recording medium includes all kinds of recording devices in which data can be read by a computer system.
  • Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like, and are also implemented in the form of a carrier wave (for example, transmission over the Internet). It also includes.
  • the computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
  • FIG. 1 is a block diagram illustrating a computer-implemented three-dimensional content display device according to an embodiment of the present invention.
  • the computer-implemented 3D content display apparatus 100 may include a screen generator 110, a user response object detector 120, a user response object renderer 130, and a controller 140.
  • the screen generator 110 generates a computer displayable screen including at least one user response object.
  • the screen generator 110 may express at least some of the at least one user response object with at least one of a reflectance, a refractive index, and a shadow through a 3D rendering operation.
  • the screen generation unit 110 may determine at least one user response object receptor in the three-dimensional content by determining the three-dimensional content that can be replaced by the user. If the at least one user response object is associated with the at least one user response object receptor detected by the user, the screen generator 110 may re-render at least one of the at least one user response object receptor and the at least one user response object. Can be. For example, referring to FIG. 3, the screen generation unit 110 detects at least one user response object receptor 301 and associates the user response receptor 301 with the user response object (one user response object receptor). Associate only one user response object with 301) and reflect at least one of reflection 302, refraction 303, and shadow 304 to the user response receptor 301 and the user response object as shown in (b).
  • (a) corresponds to a screen showing a plurality of three-dimensional content that is not reflected, refraction, and shadow
  • (b) is a screen showing a plurality of three-dimensional content that reflects at least one of reflection, refraction and shadow It may correspond to.
  • the user response object detector 120 detects a user response object that needs to receive a user input or currently given environment information input among at least one user response object.
  • the user response object detector 120 may detect a user event including at least one of a gaze, a touch, a click, a voice, and a gesture of the user, and analyze the user event to determine the corresponding user response object. For example, when the user response object detector 120 recognizes that the user's gaze (eye movement) stays in at least one user response object for a preset time (for example, 1.5 seconds) or more, the user response object is detected. You can decide. For another example, when the user response object detector 120 recognizes a preset voice (eg, a voice for a user response object including mail, phone, text, video, and album) from the user, the user response object detector 120 detects the corresponding user response object. You can decide.
  • the voice may be preset and stored from the user.
  • the user response object detector 120 may detect at least one user response object according to a view change of a screen according to a user's touch or drag.
  • (a) corresponds to the base screen
  • (b) corresponds to the screen moved according to the user's drag
  • (c) corresponds to the screen zoomed out according to the user's drag.
  • (d) may correspond to a zoom-in screen according to a user drag.
  • the user response object detector 120 obtains an environment event including at least one of a current time, a current weather, a current location, an event of a specific application, and a state of a corresponding computer, and analyzes the environment event to analyze the corresponding user. You can determine the response object.
  • the user response object detector 120 may determine a location of a light source of a computer displayable screen according to a current time. For example, the user response object detector 120 may determine the variable of the light source 501b so that the light source 501a reflected on the upper right side of the screen is reflected on the upper left side of the screen as time passes, and determines the light source 501a and 501b.
  • the shadows 502a and 502b of the watch object may be determined by reflecting positions of the light sources 501a and 501b in the associated watch object.
  • the user response object detector 120 may receive time information from the GPS.
  • the user response object detector 120 may include at least one of reflectance, refractive index, and shadow required for a 3D rendering operation on at least some of at least one user response object associated with a battery state based on a battery state of a corresponding computer.
  • One variable can be determined.
  • the user response object detector 120 determines that the reflectance and shadow of the fish object 602a associated with the battery state are increased and the refractive index is decreased, and the battery is slightly consumed ( 601b) determines that the reflectance and shadow of the fish object 602b associated with the battery state is reduced (battery is less than fully charged) and the refractive index is increased (battery is more than fully charged) and the battery is near discharged (601c). ),
  • the variable can be determined such that the reflectance and shadow of the fish object 602c associated with the battery state is reduced (reduced slightly from the battery) and the refractive index is increased (more than the battery is slightly consumed).
  • the user response object detector 120 may receive current weather information through a predetermined network Uniform Resource Locator (URL).
  • URL Uniform Resource Locator
  • the user response object renderer 130 renders the user response object detected through the 3D rendering operation again.
  • the user response object rendering unit 130 may determine a rendering area associated with the detected user response object. For example, the user response object renderer 130 may generate a dithering pattern for the rendering area by determining a rendering area associated with the user response object detected by the user response object detector 120. The user response object renderer 130 may perform rendering again on the rendering region detected through the generated dithering pattern.
  • the user response object renderer 130 may re-render the at least one user response object by reflecting at least one of the reflectance, the refractive index, and the shadow of the at least one user response object based on the user input or the currently given environment information input. .
  • the user response object rendering unit 130 may re-render the corresponding user response object by reflecting the variables of reflectance, refractive index, and shadow of the at least one user response object determined by the user response object detector 120. .
  • the user response object renderer 130 may re-render at least one user response object by reflecting at least one of a depth of field and a bokeh effect for the at least one response object that is re-rendered. have.
  • the user response object rendering unit 130 reflects variables of depth value, bokeh effect, and light-shaft for at least one user response object rendered by reflecting reflectance, refractive index, and shadow.
  • the user response object rendering unit 130 may apply a depth value to at least one user response object to implement a perspective of the corresponding user response object, and apply it to at least one user response object.
  • a depth value to at least one user response object to implement a perspective of the corresponding user response object
  • a light shaft may be applied to at least one user response object to implement the highlighting effect of the corresponding user response object.
  • (a) corresponds to the screen on which the three-dimensional rendering is performed on the user response object
  • (b) corresponds to the screen on which the three-dimensional rendering and the depth value are applied to the user response object
  • This corresponds to the screen to which the 3D rendering, the depth value and the bokeh effect are applied
  • (d) may correspond to the screen to which the 3D rendering, the depth value and the light shaft are applied to the user response object.
  • the controller 140 controls the overall operation of the computer-implemented 3D content display apparatus 100 and controls the flow between the screen generator 110, the user response object detector 120, and the user response object renderer 130. You can control the data flow.
  • FIG. 2 is a flowchart illustrating a 3D content display process performed in the computer executable 3D content display apparatus of FIG. 1.
  • the screen generation unit 110 generates a computer displayable screen including at least one user response object (step S201).
  • the screen generator 110 may express at least some of the at least one user response object by using at least one of a reflectance, a refractive index, and a shadow through a 3D rendering operation.
  • the screen generating unit 110 determines the three-dimensional content that can be replaced by the user to detect at least one user response object receptor in the three-dimensional content and at least one user to the at least one user response object receptor When the response object is associated, at least one of the at least one user response object receptor and the at least one user response object may be re-rendered.
  • the user response object detection unit 120 detects a user response object that needs to receive a user input or currently given environment information input from among at least one user response object (step S202).
  • the user response object detector 120 may detect a user event including at least one of a gaze, a touch, a click, a voice, and a gesture of the user, and analyze the user event to determine the corresponding user response object.
  • the user response object detector 120 obtains an environment event including at least one of a current time, a current weather, a current location, an event of a specific application, and a state of a corresponding computer, and analyzes the environment event to analyze the corresponding user. You can determine the response object.
  • the user response object rendering unit 130 renders the user response object detected through the 3D rendering operation again (step S203).
  • the user response object rendering unit 130 reflects at least one user response object by reflecting at least one of reflectance, refractive index, and shadow of the at least one user response object based on a user input or a given environment information input. Can be re-rendered.
  • the user response object rendering unit 130 reflects at least one of a depth of field and a bokeh effect on at least one response object that is re-rendered to reflect at least one user response object. Can be re-rendered.

Abstract

The present invention relates to: a computer-executable three-dimensional (3D) content display technology; a computer-executable 3D content display method for realistically expressing a 3D content object by performing 3D rendering on the 3D content object; a 3D content display apparatus for performing the same; and a recording medium for saving the same.

Description

컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 방법, 이를 수행하는 3차원 콘텐츠 디스플레이 장치 및 이를 저장하는 기록매체Computer executable 3D content display method, 3D content display device performing the same, and a recording medium storing the same
본 발명은 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 기술에 관한 것으로, 보다 상세하게는, 3차원 콘텐츠 객체에 대한 3차원 렌더링을 수행하여 3차원 콘텐츠 객체를 사실적으로 표현하는 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 방법, 이를 수행하는 3차원 콘텐츠 디스플레이 장치 및 이를 저장하는 기록매체에 관한 것이다.The present invention relates to a computer executable 3D content display technology, and more particularly, to a computer executable 3D content display method that realistically expresses a 3D content object by performing 3D rendering on the 3D content object, It relates to a three-dimensional content display device for performing this and a recording medium storing the same.
일반적으로, 3D 렌더링은 3D 컴퓨터 그래픽스를 기초로 생성된 모델에 색, 질감 및 그림자를 적용하고 촬영기 앵글로 구도를 잡고 빛을 통해 음영 처리를 하여 최종 렌더링 이미지를 생성하는 과정이다.In general, 3D rendering is the process of applying colors, textures, and shadows to a model created on the basis of 3D computer graphics, framing with camera angles, shading through light to create the final rendered image.
한국공개특허 제10-2011-0038203호는 다면체와 같은 삼차원 입체 사용자 인터페이스에 알림 정보를 표시하는 삼차원 입체 사용자 인터페이스 공간 활용 방법을 개시한다. 이러한 사용자 인터페이스 공간 활용 기술은 각 면에 하나 이상의 콘텐츠 메뉴가 배치되는 다면체 프레임에 문자 알림, 스케줄 알림, 상태표시 또는 공지사항과 같은 정보 중 적어도 어느 하나를 표시해주는 여백 공간을 생성할 수 있다.Korean Laid-Open Patent Publication No. 10-2011-0038203 discloses a three-dimensional stereoscopic user interface space utilization method for displaying notification information on a three-dimensional stereoscopic user interface such as a polyhedron. The user interface space utilization technology may generate a space for displaying at least one of information such as text notification, schedule notification, status display, or announcement in a polyhedron frame having one or more content menus disposed on each side.
한국등록특허 제10-0352169호는 사용자 환경 내의 구성 요소를 데이터 처리 시스템의 삼차원 그래픽 디스플레이에 결합시키는 가상의 삼차원 그래픽 디스플레이를 렌더링하는 방법 및 시스템을 개시한다. 이러한 렌더링 기술은 사용자 환경으로부터의 반사성 이미지를 가상의 삼차원 그래픽 환경에 결합시킴으로써 삼차원 그래픽 이미지를 보다 사실적으로 만들 수 있다.Korean Patent No. 10-0352169 discloses a method and system for rendering a virtual three-dimensional graphic display that couples components in a user environment to a three-dimensional graphic display of a data processing system. Such rendering techniques can make three-dimensional graphic images more realistic by combining reflective images from the user environment into a virtual three-dimensional graphics environment.
컴퓨터는 3차원 콘텐츠를 제공할 때 3차원 콘텐츠를 2차원 이미지로 렌더링하고 화면에 디스플레이하는 방식을 사용함으로써 3차원 콘텐츠를 사실적으로 표현하지 못하는 문제점이 있다.When providing 3D content, the computer cannot render the 3D content realistically by using a method of rendering the 3D content as a 2D image and displaying it on the screen.
본 발명의 일 실시예는 3차원 콘텐츠 객체에 대한 3차원 렌더링을 수행하여 3차원 콘텐츠 객체를 사실적으로 표현하는 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 방법을 제공하고자 한다.An embodiment of the present invention is to provide a computer-implemented three-dimensional content display method for performing a three-dimensional rendering of the three-dimensional content object to realistically represent the three-dimensional content object.
본 발명의 일 실시예는 사용자의 입력 또는 현재의 환경 정보에 따라 3차원 렌더링을 수행하는 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 방법을 제공하고자 한다.An embodiment of the present invention is to provide a computer-implemented three-dimensional content display method for performing three-dimensional rendering in accordance with a user input or current environment information.
본 발명의 일 실시예는 3차원 콘텐츠에 대한 반사율, 굴절율 및 쉐도우 중 적어도 하나를 기초로 3차원 렌더링을 수행하는 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 방법을 제공하고자 한다.An embodiment of the present invention is to provide a computer-implemented three-dimensional content display method for performing three-dimensional rendering based on at least one of reflectance, refractive index and shadow for the three-dimensional content.
실시예들 중에서, 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 방법은 적어도 하나의 사용자 반응 객체를 포함하는 컴퓨터 디스플레이 가능한 화면을 생성하는 단계 -상기 적어도 하나의 사용자 반응 객체 중 적어도 일부는 3차원 렌더링 연산을 통한 반사, 굴절 및 쉐도우 중 적어도 하나로 표현됨-, 상기 적어도 하나의 사용자 반응 객체 중 사용자 입력 또는 현재 주어진 환경 정보 입력을 수신해야 하는 사용자 반응 객체를 검출하는 단계 및 상기 3차원 렌더링 연산을 통해 상기 검출된 사용자 반응 객체를 다시 렌더링하는 단계를 포함한다.Among the embodiments, the computer executable 3D content display method may include generating a computer displayable screen including at least one user response object, wherein at least some of the at least one user response object is reflected through a 3D rendering operation. At least one of the at least one user response object, detecting a user response object that should receive a user input or a given environmental information input, and detecting the user response through the three-dimensional rendering operation. Rendering the object again.
일 실시예에서, 상기 컴퓨터 디스플레이 가능한 화면을 생성하는 단계는 사용자에 의하여 대체될 수 있는 3차원 콘텐츠를 결정하는 단계 및 상기 결정된 3차원 콘텐츠에 있는 적어도 하나의 사용자 반응 객체 수용체를 검출하는 단계를 더 포함할 수 있다.In one embodiment, generating the computer displayable screen further comprises determining three-dimensional content that can be replaced by a user and detecting at least one user-responsive object receptor in the determined three-dimensional content. It may include.
상기 컴퓨터 디스플레이 가능한 화면을 생성하는 단계는 상기 사용자에 의하여 상기 검출된 적어도 하나의 사용자 반응 객체 수용체에 상기 적어도 하나의 사용자 반응 객체가 연관되면 상기 검출된 적어도 하나의 사용자 반응 객체 수용체와 상기 적어도 하나의 사용자 반응 객체 중 적어도 하나를 다시 렌더링하는 단계를 더 포함할 수 있다.The generating of the computer displayable screen may include: detecting the at least one user response object receptor and the at least one when the at least one user response object is associated with the at least one user response object receptor detected by the user. The method may further include re-rendering at least one of the user response objects.
일 실시예에서, 상기 사용자 반응 객체를 검출하는 단계는 사용자의 시선, 터치, 클릭, 음성 및 제스처 중 적어도 하나를 포함하는 사용자 이벤트를 검출하는 단계 및 상기 검출된 사용자 이벤트를 분석하여 해당 사용자 반응 객체를 결정하는 단계를 더 포함할 수 있다.In an embodiment, the detecting of the user response object may include detecting a user event including at least one of a gaze, a touch, a click, a voice, and a gesture of the user, and analyzing the detected user event to analyze the corresponding user response object. Determining may be further included.
상기 사용자 반응 객체를 검출하는 단계는 상기 사용자의 시선이 기 설정된 시간 이상으로 상기 적어도 하나의 사용자 반응 객체에 머무르는 것을 인식하여 해당 사용자 반응 객체를 결정하는 단계를 포함할 수 있다.The detecting of the user response object may include determining a corresponding user response object by recognizing that the gaze of the user stays in the at least one user response object for a preset time or more.
일 실시예에서, 상기 사용자 반응 객체를 검출하는 단계는 현재 시간, 현재 날씨, 현재 위치, 특정 어플리케이션의 이벤트 및 해당 컴퓨터의 상태 중 적어도 하나를 포함하는 환경 이벤트를 획득하는 단계 및 상기 획득된 환경 이벤트를 분석하여 해당 사용자 반응 객체를 결정하는 단계를 더 포함할 수 있다.In an embodiment, the detecting of the user response object may include obtaining an environment event including at least one of a current time, a current weather, a current location, an event of a specific application, and a state of the computer, and the obtained environment event. The method may further include determining a corresponding user response object by analyzing.
상기 사용자 반응 객체를 검출하는 단계는 상기 획득한 현재 시간에 따라서 상기 컴퓨터 디스플레이 가능한 화면의 광원(Light Source) 위치를 결정하는 단계를 포함할 수 있다. 상기 사용자 반응 객체를 검출하는 단계는 상기 해당 컴퓨터의 배터리 상태를 기초로 상기 배터리 상태와 연관된 상기 적어도 하나의 사용자 반응 객체 중 적어도 일부에 대하여 상기 3차원 렌더링 연산에 필요한 투과율, 반사율 또는 쉐도우를 결정하는 단계를 포함할 수 있다.The detecting of the user response object may include determining a position of a light source of the computer displayable screen according to the obtained current time. The detecting of the user response object may include determining transmittance, reflectance, or shadow for at least a portion of the at least one user response object associated with the battery state based on a battery state of the computer. It may include a step.
일 실시예에서, 상기 검출된 사용자 반응 객체를 다시 렌더링하는 단계는 상기 검출된 사용자 반응 객체와 연관된 렌더링 영역을 결정하는 단계를 포함할 수 있다.In one embodiment, re-rendering the detected user response object may include determining a rendering area associated with the detected user response object.
상기 검출된 사용자 반응 객체를 다시 렌더링하는 단계는 상기 사용자 입력 또는 상기 현재 주어진 환경 정보 입력을 기초로 상기 적어도 하나의 사용자 반응 객체의 반사율, 굴절율 및 쉐도우 중 적어도 하나를 반영하는 단계를 포함할 수 있다.Re-rendering the detected user response object may include reflecting at least one of reflectance, refractive index, and shadow of the at least one user response object based on the user input or the currently given environment information input. .
상기 검출된 사용자 반응 객체를 다시 렌더링하는 단계는 상기 다시 렌더링된 상기 적어도 하나의 반응 객체에 대한 깊이값(Depth of Field) 및 보케(Bokeh Effect) 효과 중 적어도 하나를 반영하는 단계를 포함할 수 있다.Re-rendering the detected user response object may include reflecting at least one of a depth of field and a bokeh effect effect on the re-rendered at least one response object. .
실시예들 중에서, 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 장치는 적어도 하나의 사용자 반응 객체를 포함하는 컴퓨터 디스플레이 가능한 화면을 생성하는 화면 생성부 -상기 적어도 하나의 사용자 반응 객체 중 적어도 일부는 3차원 렌더링 연산을 통한 반사, 굴절 및 쉐도우 중 적어도 하나로 표현됨-, 상기 적어도 하나의 사용자 반응 객체 중 사용자 입력 또는 현재 주어진 환경 정보 입력을 수신해야 하는 사용자 반응 객체를 검출하는 사용자 반응 객체 검출부 및 상기 3차원 렌더링 연산을 통해 상기 검출된 사용자 반응 객체를 다시 렌더링하는 사용자 반응 객체 렌더링부를 포함한다.In one or more embodiments, the computer-implemented 3D content display apparatus may include a screen generation unit that generates a computer displayable screen including at least one user response object. At least some of the at least one user response object may perform a 3D rendering operation. Represented by at least one of reflection, refraction, and shadow through the user response object detector for detecting a user response object that needs to receive a user input or a given environment information input among the at least one user response object, and the 3D rendering operation. And a user response object renderer for re-rendering the detected user response object.
일 실시예에서, 상기 사용자 반응 객체 검출부는 사용자의 시선, 터치, 클릭, 음성 및 제스처 중 적어도 하나를 포함하는 사용자 이벤트를 검출하고 사용자 이벤트를 분석하여 해당 사용자 반응 객체를 결정할 수 있다.In an embodiment, the user response object detector may detect a user event including at least one of a gaze, a touch, a click, a voice, and a gesture of the user, and analyze the user event to determine the corresponding user response object.
상기 사용자 반응 객체 검출부는 현재 시간, 현재 날씨, 현재 위치, 특정 어플리케이션의 이벤트 및 해당 컴퓨터의 상태 중 적어도 하나를 포함하는 환경 이벤트를 획득하고 환경 이벤트를 분석하여 해당 사용자 반응 객체를 결정할 수 있다.The user response object detector may determine the user response object by acquiring an environment event including at least one of a current time, a current weather, a current location, an event of a specific application, and a state of the corresponding computer, and analyzing the environment event.
실시예들 중에서, 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 기록매체는 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 장치에서 수행되는 3차원 콘텐츠 디스플레이를 제공하는 컴퓨터 프로그램을 저장하는 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 기록매체에 있어서, 적어도 하나의 사용자 반응 객체를 포함하는 컴퓨터 디스플레이 가능한 화면을 생성하는 기능 -상기 적어도 하나의 사용자 반응 객체 중 적어도 일부는 3차원 렌더링 연산을 통한 반사, 굴절 및 쉐도우 중 적어도 하나로 표현됨-, 상기 적어도 하나의 사용자 반응 객체 중 사용자 입력 또는 현재 주어진 환경 정보 입력을 수신해야 하는 사용자 반응 객체를 검출하는 기능 및 상기 3차원 렌더링 연산을 통해 상기 검출된 사용자 반응 객체를 다시 렌더링하는 기능을 포함한다.Among the embodiments, a computer executable three dimensional content display recording medium, comprising: a computer executable three dimensional content display recording medium storing a computer program for providing a three dimensional content display performed on a computer executable three dimensional content display device; Generating a computer displayable screen including at least one user response object, at least some of the at least one user response object being represented by at least one of reflection, refraction and shadow through a three-dimensional rendering operation; And a function of detecting a user response object that must receive a user input or a given environment information input among user response objects, and a function of re-rendering the detected user response object through the 3D rendering operation.
본 발명의 일 실시예에 따른 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 방법은 3차원 콘텐츠 객체에 대한 3차원 렌더링을 수행하여 3차원 콘텐츠 객체를 사실적으로 표현할 수 있다.The computer-implemented three-dimensional content display method according to an embodiment of the present invention can realistically express the three-dimensional content object by performing three-dimensional rendering on the three-dimensional content object.
본 발명의 일 실시예에 따른 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 방법은 사용자의 입력 또는 현재의 환경 정보에 따라 3차원 렌더링을 수행할 수 있다.The computer-implemented 3D content display method according to an embodiment of the present invention may perform 3D rendering according to a user's input or current environment information.
본 발명의 일 실시예에 따른 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 방법은 3차원 콘텐츠에 대한 반사율, 굴절율 및 쉐도우 중 적어도 하나를 기초로 3차원 렌더링을 수행할 수 있다.The computer-implemented 3D content display method according to an embodiment of the present invention may perform 3D rendering based on at least one of reflectance, refractive index, and shadow for the 3D content.
도 1은 본 발명의 일 실시예에 따른 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 장치를 설명하는 블록도이다.1 is a block diagram illustrating a computer-implemented three-dimensional content display device according to an embodiment of the present invention.
도 2는 도 1에 있는 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 장치에서 수행되는 3차원 콘텐츠 디스플레이 과정을 설명하는 순서도이다.FIG. 2 is a flowchart illustrating a 3D content display process performed in the computer executable 3D content display apparatus of FIG. 1.
도 3은 도 1에 있는 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 장치에서 수행되는 3차원 콘텐츠의 렌더링 화면을 예시한 도면이다.FIG. 3 is a diagram illustrating a rendering screen of 3D content performed in the computer executable 3D content display apparatus of FIG. 1.
도 4는 도 1에 있는 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 장치에서 수행되는 뷰(View) 변환 화면을 예시한 도면이다.FIG. 4 is a diagram illustrating a view conversion screen performed in the computer-implemented 3D content display apparatus of FIG. 1.
도 5는 도 1에 있는 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 장치에서 수행되는 배터리 상태에 따른 렌더링 화면을 예시한 도면이다.FIG. 5 is a diagram illustrating a rendering screen according to a battery state performed in the computer executable 3D content display apparatus of FIG. 1.
도 6은 도 1에 있는 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 장치에서 수행되는 광원에 따른 렌더링 화면을 예시한 도면이다.FIG. 6 is a diagram illustrating a rendering screen according to a light source performed in the computer-implementable 3D content display apparatus of FIG. 1.
도 7은 도 1에 있는 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 장치에서 수행되는 특수 효과에 따른 렌더링 화면을 예시한 도면이다.FIG. 7 is a diagram illustrating a rendering screen according to a special effect performed in the computer-implementable 3D content display apparatus of FIG. 1.
본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.Description of the present invention is only an embodiment for structural or functional description, the scope of the present invention should not be construed as limited by the embodiments described in the text. That is, since the embodiments may be variously modified and may have various forms, the scope of the present invention should be understood to include equivalents capable of realizing the technical idea. In addition, the objects or effects presented in the present invention does not mean that a specific embodiment should include all or only such effects, the scope of the present invention should not be understood as being limited thereby.
한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.On the other hand, the meaning of the terms described in the present application should be understood as follows.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as "first" and "second" are intended to distinguish one component from another component, and the scope of rights should not be limited by these terms. For example, the first component may be named a second component, and similarly, the second component may also be named a first component.
“및/또는”의 용어는 하나 이상의 관련 항목으로부터 제시 가능한 모든 조합을 포함하는 것으로 이해되어야 한다. 예를 들어, “제1 항목, 제2 항목 및/또는 제3 항목”의 의미는 제1, 제2 또는 제3 항목뿐만 아니라 제1, 제2 또는 제3 항목들 중 2개 이상으로부터 제시될 수 있는 모든 항목의 조합을 의미한다.The term “and / or” should be understood to include all combinations that can be suggested from one or more related items. For example, the meaning of “first item, second item and / or third item” may be given from two or more of the first, second or third items as well as the first, second or third items. Any combination of the possible items.
어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being "connected" to another component, it should be understood that there may be other components in between, although it may be directly connected to the other component. On the other hand, when a component is referred to as being "directly connected" to another component, it should be understood that there is no other component in between. On the other hand, other expressions describing the relationship between the components, such as "between" and "immediately between" or "neighboring to" and "directly neighboring to", should be interpreted as well.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions should be understood to include plural expressions unless the context clearly indicates otherwise, and terms such as "comprise" or "have" refer to a feature, number, step, operation, component, part, or feature thereof. It is to be understood that the combination is intended to be present and does not exclude in advance the possibility of the presence or addition of one or more other features or numbers, steps, operations, components, parts or combinations thereof.
각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In each step, an identification code (e.g., a, b, c, etc.) is used for convenience of description, and the identification code does not describe the order of the steps, and each step clearly indicates a specific order in context. Unless stated otherwise, they may occur out of the order noted. That is, each step may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.
본 발명은 컴퓨터가 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있고, 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한, 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The present invention can be embodied as computer readable code on a computer readable recording medium, and the computer readable recording medium includes all kinds of recording devices in which data can be read by a computer system. . Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like, and are also implemented in the form of a carrier wave (for example, transmission over the Internet). It also includes. The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art unless otherwise defined. Generally, the terms defined in the dictionary used are to be interpreted to coincide with the meanings in the context of the related art, and should not be interpreted as having ideal or excessively formal meanings unless clearly defined in the present application.
도 1은 본 발명의 일 실시예에 따른 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 장치를 설명하는 블록도이다.1 is a block diagram illustrating a computer-implemented three-dimensional content display device according to an embodiment of the present invention.
도 1을 참조하면, 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 장치(100)는 화면 생성부(110), 사용자 반응 객체 검출부(120), 사용자 반응 객체 렌더링부(130) 및 제어부(140)를 포함한다.Referring to FIG. 1, the computer-implemented 3D content display apparatus 100 may include a screen generator 110, a user response object detector 120, a user response object renderer 130, and a controller 140.
화면 생성부(110)는 적어도 하나의 사용자 반응 객체를 포함하는 컴퓨터 디스플레이 가능한 화면을 생성한다. 여기에서, 화면 생성부(110)는 3차원 렌더링 연산을 통한 반사율, 굴절율 및 쉐도우 중 적어도 하나로 적어도 하나의 사용자 반응 객체 중 적어도 일부를 표현할 수 있다.The screen generator 110 generates a computer displayable screen including at least one user response object. Here, the screen generator 110 may express at least some of the at least one user response object with at least one of a reflectance, a refractive index, and a shadow through a 3D rendering operation.
일 실시예에서, 화면 생성부(110)는 사용자에 의하여 대체될 수 있는 3차원 콘텐츠를 결정하여 3차원 콘텐츠에 있는 적어도 하나의 사용자 반응 객체 수용체를 검출할 수 있다. 화면 생성부(110)는 사용자에 의하여 검출된 적어도 하나의 사용자 반응 객체 수용체에 적어도 하나의 사용자 반응 객체가 연관되면 적어도 하나의 사용자 반응 객체 수용체와 적어도 하나의 사용자 반응 객체 중 적어도 하나를 다시 렌더링할 수 있다. 예를 들어, 도 3을 참조하면, 화면 생성부(110)는 적어도 하나의 사용자 반응 객체 수용체(301)를 검출하여 해당 사용자 반응 수용체(301)와 사용자 반응 객체를 연관(하나의 사용자 반응 객체 수용체(301)에 하나의 사용자 반응 객체만 연관)시켜 해당 사용자 반응 수용체(301)와 사용자 반응 객체에 반사(302), 굴절(303) 및 쉐도우(304) 중 적어도 하나를 반영하여 (b)와 같이 다시 렌더링 할 수 있다. 여기에서, (a)는 반사, 굴절 및 쉐도우가 반영되지 않은 복수의 3차원 콘텐츠들을 나타내는 화면에 해당하고, (b)는 반사, 굴절 및 쉐도우 중 적어도 하나가 반영된 복수의 3차원 콘텐츠들을 나타내는 화면에 해당할 수 있다.In one embodiment, the screen generation unit 110 may determine at least one user response object receptor in the three-dimensional content by determining the three-dimensional content that can be replaced by the user. If the at least one user response object is associated with the at least one user response object receptor detected by the user, the screen generator 110 may re-render at least one of the at least one user response object receptor and the at least one user response object. Can be. For example, referring to FIG. 3, the screen generation unit 110 detects at least one user response object receptor 301 and associates the user response receptor 301 with the user response object (one user response object receptor). Associate only one user response object with 301) and reflect at least one of reflection 302, refraction 303, and shadow 304 to the user response receptor 301 and the user response object as shown in (b). Can be re-rendered. Here, (a) corresponds to a screen showing a plurality of three-dimensional content that is not reflected, refraction, and shadow, (b) is a screen showing a plurality of three-dimensional content that reflects at least one of reflection, refraction and shadow It may correspond to.
사용자 반응 객체 검출부(120)는 적어도 하나의 사용자 반응 객체 중 사용자 입력 또는 현재 주어진 환경 정보 입력을 수신해야 하는 사용자 반응 객체를 검출한다.The user response object detector 120 detects a user response object that needs to receive a user input or currently given environment information input among at least one user response object.
일 실시예에서, 사용자 반응 객체 검출부(120)는 사용자의 시선, 터치, 클릭, 음성 및 제스처 중 적어도 하나를 포함하는 사용자 이벤트를 검출하고 사용자 이벤트를 분석하여 해당 사용자 반응 객체를 결정할 수 있다. 예를 들어, 사용자 반응 객체 검출부(120)는 사용자의 시선(안구의 움직임)이 기 설정된 시간(예를 들어, 1.5초) 이상으로 적어도 하나의 사용자 반응 객체에 머무르는 것을 인식하면 해당 사용자 반응 객체를 결정할 수 있다. 다른 예를 들어, 사용자 반응 객체 검출부(120)는 사용자로부터 기 설정된 음성(예를 들어, 메일, 전화, 문자, 동영상, 앨범을 포함하는 사용자 반응 객체에 대한 음성)을 인식하면 해당 사용자 반응 객체를 결정할 수 있다. 여기에서, 음성은 사용자로부터 미리 설정되어 저장될 수 있다.In an embodiment, the user response object detector 120 may detect a user event including at least one of a gaze, a touch, a click, a voice, and a gesture of the user, and analyze the user event to determine the corresponding user response object. For example, when the user response object detector 120 recognizes that the user's gaze (eye movement) stays in at least one user response object for a preset time (for example, 1.5 seconds) or more, the user response object is detected. You can decide. For another example, when the user response object detector 120 recognizes a preset voice (eg, a voice for a user response object including mail, phone, text, video, and album) from the user, the user response object detector 120 detects the corresponding user response object. You can decide. Here, the voice may be preset and stored from the user.
도 4를 참조하면, 사용자 반응 객체 검출부(120)는 사용자의 터치 또는 드래그에 따른 화면의 뷰(View)변화에 따라 적어도 하나의 사용자 반응 객체를 검출할 수 있다. 여기에서, (a)는 기본 화면에 해당하고, (b)는 사용자의 드래그에 따라 이동(Move)된 화면에 해당하고, (c)는 사용자의 드래그에 따라 축소(Zoom-out)된 화면에 해당하며, (d)는 사용자의 드래그에 따라 확대(Zoom-in)된 화면에 해당할 수 있다.Referring to FIG. 4, the user response object detector 120 may detect at least one user response object according to a view change of a screen according to a user's touch or drag. Here, (a) corresponds to the base screen, (b) corresponds to the screen moved according to the user's drag, and (c) corresponds to the screen zoomed out according to the user's drag. In this case, (d) may correspond to a zoom-in screen according to a user drag.
다른 일 실시예에서, 사용자 반응 객체 검출부(120)는 현재 시간, 현재 날씨, 현재 위치, 특정 어플리케이션의 이벤트 및 해당 컴퓨터의 상태 중 적어도 하나를 포함하는 환경 이벤트를 획득하고 환경 이벤트를 분석하여 해당 사용자 반응 객체를 결정할 수 있다.In another embodiment, the user response object detector 120 obtains an environment event including at least one of a current time, a current weather, a current location, an event of a specific application, and a state of a corresponding computer, and analyzes the environment event to analyze the corresponding user. You can determine the response object.
도 5를 참조하면, 사용자 반응 객체 검출부(120)는 현재 시간에 따라서 컴퓨터 디스플레이 가능한 화면의 광원(Light Source) 위치를 결정할 수 있다. 예를 들어, 사용자 반응 객체 검출부(120)는 화면의 상부 우측에 반영된 광원(501a)이 시간이 경과함에 따라 화면의 상부 좌측에 반영되도록 광원(501b) 변수를 결정하여 광원(501a 및 501b)과 연관된 시계 객체에 광원(501a 및 501b)의 위치를 반영하여 시계 객체의 쉐도우(502a 및 502b)를 결정할 수 있다. 여기에서, 사용자 반응 객체 검출부(120)는 GPS로부터 시간 정보를 수신할 수 있다.Referring to FIG. 5, the user response object detector 120 may determine a location of a light source of a computer displayable screen according to a current time. For example, the user response object detector 120 may determine the variable of the light source 501b so that the light source 501a reflected on the upper right side of the screen is reflected on the upper left side of the screen as time passes, and determines the light source 501a and 501b. The shadows 502a and 502b of the watch object may be determined by reflecting positions of the light sources 501a and 501b in the associated watch object. Here, the user response object detector 120 may receive time information from the GPS.
도 6을 참조하면, 사용자 반응 객체 검출부(120)는 해당 컴퓨터의 배터리 상태를 기초로 배터리 상태와 연관된 적어도 하나의 사용자 반응 객체 중 적어도 일부에 대하여 3차원 렌더링 연산에 필요한 반사율, 굴절율 및 쉐도우 중 적어도 하나의 변수를 결정할 수 있다. 여기에서, 사용자 반응 객체 검출부(120)는 배터리가 완충 상태(601a)인 경우 배터리 상태와 연관된 물고기 객체(602a)의 반사율 및 쉐도우가 증가되고 굴절율이 감소되도록 결정하고, 배터리가 약간 소모된 상태(601b)인 경우 배터리 상태와 연관된 물고기 객체(602b)의 반사율 및 쉐도우가 감소(배터리가 완충 상태보다 감소)되고 굴절율이 증가(배터리가 완충 상태보다 증가)되도록 결정하며, 배터리가 거의 방전 상태(601c)인 경우 배터리 상태와 연관된 물고기 객체(602c)의 반사율 및 쉐도우가 감소(배터리가 약간 소모된 상태보다 감소)되고 굴절율이 증가(배터리가 약간 소모된 상태보다 증가)되도록 변수를 결정할 수 있다.Referring to FIG. 6, the user response object detector 120 may include at least one of reflectance, refractive index, and shadow required for a 3D rendering operation on at least some of at least one user response object associated with a battery state based on a battery state of a corresponding computer. One variable can be determined. Here, when the battery is in the fully charged state 601a, the user response object detector 120 determines that the reflectance and shadow of the fish object 602a associated with the battery state are increased and the refractive index is decreased, and the battery is slightly consumed ( 601b) determines that the reflectance and shadow of the fish object 602b associated with the battery state is reduced (battery is less than fully charged) and the refractive index is increased (battery is more than fully charged) and the battery is near discharged (601c). ), The variable can be determined such that the reflectance and shadow of the fish object 602c associated with the battery state is reduced (reduced slightly from the battery) and the refractive index is increased (more than the battery is slightly consumed).
사용자 반응 객체 검출부(120)는 기 설정된 네트워크 URL(Uniform Resource Locator)을 통해 현재 날씨 정보를 수신할 수 있다.The user response object detector 120 may receive current weather information through a predetermined network Uniform Resource Locator (URL).
사용자 반응 객체 렌더링부(130)는 3차원 렌더링 연산을 통해 검출된 사용자 반응 객체를 다시 렌더링한다.The user response object renderer 130 renders the user response object detected through the 3D rendering operation again.
일 실시예에서, 사용자 반응 객체 렌더링부(130)는 검출된 사용자 반응 객체와 연관된 렌더링 영역을 결정할 수 있다. 예를 들어, 사용자 반응 객체 렌더링부(130)는 사용자 반응 객체 검출부(120)에서 검출된 사용자 반응 객체와 연관된 렌더링 영역을 결정하여 렌더링 영역에 대한 디더링 패턴(Dithering Pattern)을 생성할 수 있다. 사용자 반응 객체 렌더링부(130)는 생성된 디더링 패턴을 통해 검출된 렌더링 영역에 대해 다시 렌더링을 수행할 수 있다.In one embodiment, the user response object rendering unit 130 may determine a rendering area associated with the detected user response object. For example, the user response object renderer 130 may generate a dithering pattern for the rendering area by determining a rendering area associated with the user response object detected by the user response object detector 120. The user response object renderer 130 may perform rendering again on the rendering region detected through the generated dithering pattern.
사용자 반응 객체 렌더링부(130)는 사용자 입력 또는 현재 주어진 환경 정보 입력을 기초로 적어도 하나의 사용자 반응 객체의 반사율, 굴절율 및 쉐도우 중 적어도 하나를 반영하여 적어도 하나의 사용자 반응 객체를 다시 렌더링 할 수 있다.The user response object renderer 130 may re-render the at least one user response object by reflecting at least one of the reflectance, the refractive index, and the shadow of the at least one user response object based on the user input or the currently given environment information input. .
일 실시예에서, 사용자 반응 객체 렌더링부(130)는 사용자 반응 객체 검출부(120)에서 결정된 적어도 하나의 사용자 반응 객체의 반사율, 굴절율 및 쉐도우의 변수를 반영하여 해당 사용자 반응 객체를 다시 렌더링 할 수 있다.In one embodiment, the user response object rendering unit 130 may re-render the corresponding user response object by reflecting the variables of reflectance, refractive index, and shadow of the at least one user response object determined by the user response object detector 120. .
사용자 반응 객체 렌더링부(130)는 다시 렌더링된 적어도 하나의 반응 객체에 대한 깊이값(Depth of Field) 및 보케(Bokeh Effect) 효과 중 적어도 하나를 반영하여 적어도 하나의 사용자 반응 객체를 다시 렌더링 할 수 있다.The user response object renderer 130 may re-render at least one user response object by reflecting at least one of a depth of field and a bokeh effect for the at least one response object that is re-rendered. have.
일 실시예에서, 사용자 반응 객체 렌더링부(130)는 반사율, 굴절율 및 쉐도우가 반영되어 렌더링된 적어도 하나의 사용자 반응 객체에 대해 깊이값, 보케 효과 및 라이트 셰프트(Light-shaft)의 변수를 반영하여 해당 사용자 반응 객체를 렌더링할 수 있다. 예를 들어, 도 7을 참조하면, 사용자 반응 객체 렌더링부(130)는 적어도 하나의 사용자 반응 객체에 깊이값을 적용하여 해당 사용자 반응 객체의 원근감을 구현할 수 있고, 적어도 하나의 사용자 반응 객체에 보케 효과를 적용하여 화면과 해당 사용자 반응 객체 간의 자연스러운 조합을 구현할 수 있으며, 적어도 하나의 사용자 반응 객체에 라이트 셰프트를 적용하여 해당 사용자 반응 객체의 강조 효과를 구현할 수 있다. 여기에서, (a)는 사용자 반응 객체에 3차원 렌더링만 수행된 화면에 해당하고, (b)는 사용자 반응 객체에 3차원 렌더링 및 깊이값이 적용된 화면에 해당하고, (c)는 사용자 반응 객체에 3차원 렌더링, 깊이값 및 보케 효과가 적용된 화면에 해당하며, (d)는 사용자 반응 객체에 3차원 렌더링, 깊이값 및 라이트 셰프트가 적용된 화면에 해당할 수 있다.In one embodiment, the user response object rendering unit 130 reflects variables of depth value, bokeh effect, and light-shaft for at least one user response object rendered by reflecting reflectance, refractive index, and shadow. To render the corresponding user response object. For example, referring to FIG. 7, the user response object rendering unit 130 may apply a depth value to at least one user response object to implement a perspective of the corresponding user response object, and apply it to at least one user response object. By applying the effect, a natural combination between the screen and the corresponding user response object may be realized, and a light shaft may be applied to at least one user response object to implement the highlighting effect of the corresponding user response object. Here, (a) corresponds to the screen on which the three-dimensional rendering is performed on the user response object, (b) corresponds to the screen on which the three-dimensional rendering and the depth value are applied to the user response object, and (c) the user response object. This corresponds to the screen to which the 3D rendering, the depth value and the bokeh effect are applied, and (d) may correspond to the screen to which the 3D rendering, the depth value and the light shaft are applied to the user response object.
제어부(140)는 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 장치(100)의 전체적인 동작을 제어하고, 화면 생성부(110), 사용자 반응 객체 검출부(120) 및 사용자 반응 객체 렌더링부(130) 간의 제어 흐름 또는 데이터 흐름을 제어할 수 있다.The controller 140 controls the overall operation of the computer-implemented 3D content display apparatus 100 and controls the flow between the screen generator 110, the user response object detector 120, and the user response object renderer 130. You can control the data flow.
도 2는 도 1에 있는 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 장치에서 수행되는 3차원 콘텐츠 디스플레이 과정을 설명하는 순서도이다.FIG. 2 is a flowchart illustrating a 3D content display process performed in the computer executable 3D content display apparatus of FIG. 1.
도 2를 참조하면, 화면 생성부(110)는 적어도 하나의 사용자 반응 객체를 포함하는 컴퓨터 디스플레이 가능한 화면을 생성한다(단계 S201).Referring to FIG. 2, the screen generation unit 110 generates a computer displayable screen including at least one user response object (step S201).
일 실시예에서, 화면 생성부(110)는 3차원 렌더링 연산을 통한 반사율, 굴절율 및 쉐도우 중 적어도 하나로 적어도 하나의 사용자 반응 객체 중 적어도 일부를 표현할 수 있다. 여기에서, 화면 생성부(110)는 사용자에 의하여 대체될 수 있는 3차원 콘텐츠를 결정하여 3차원 콘텐츠에 있는 적어도 하나의 사용자 반응 객체 수용체를 검출하고 적어도 하나의 사용자 반응 객체 수용체에 적어도 하나의 사용자 반응 객체가 연관되면 적어도 하나의 사용자 반응 객체 수용체와 적어도 하나의 사용자 반응 객체 중 적어도 하나를 다시 렌더링할 수 있다.According to an embodiment, the screen generator 110 may express at least some of the at least one user response object by using at least one of a reflectance, a refractive index, and a shadow through a 3D rendering operation. Here, the screen generating unit 110 determines the three-dimensional content that can be replaced by the user to detect at least one user response object receptor in the three-dimensional content and at least one user to the at least one user response object receptor When the response object is associated, at least one of the at least one user response object receptor and the at least one user response object may be re-rendered.
사용자 반응 객체 검출부(120)는 적어도 하나의 사용자 반응 객체 중 사용자 입력 또는 현재 주어진 환경 정보 입력을 수신해야 하는 사용자 반응 객체를 검출한다(단계 S202).The user response object detection unit 120 detects a user response object that needs to receive a user input or currently given environment information input from among at least one user response object (step S202).
일 실시예에서, 사용자 반응 객체 검출부(120)는 사용자의 시선, 터치, 클릭, 음성 및 제스처 중 적어도 하나를 포함하는 사용자 이벤트를 검출하고 사용자 이벤트를 분석하여 해당 사용자 반응 객체를 결정할 수 있다.In an embodiment, the user response object detector 120 may detect a user event including at least one of a gaze, a touch, a click, a voice, and a gesture of the user, and analyze the user event to determine the corresponding user response object.
다른 일 실시예에서, 사용자 반응 객체 검출부(120)는 현재 시간, 현재 날씨, 현재 위치, 특정 어플리케이션의 이벤트 및 해당 컴퓨터의 상태 중 적어도 하나를 포함하는 환경 이벤트를 획득하고 환경 이벤트를 분석하여 해당 사용자 반응 객체를 결정할 수 있다.In another embodiment, the user response object detector 120 obtains an environment event including at least one of a current time, a current weather, a current location, an event of a specific application, and a state of a corresponding computer, and analyzes the environment event to analyze the corresponding user. You can determine the response object.
사용자 반응 객체 렌더링부(130)는 3차원 렌더링 연산을 통해 검출된 사용자 반응 객체를 다시 렌더링한다(단계 S203).The user response object rendering unit 130 renders the user response object detected through the 3D rendering operation again (step S203).
일 실시예에서, 사용자 반응 객체 렌더링부(130)는 사용자 입력 또는 현재 주어진 환경 정보 입력을 기초로 적어도 하나의 사용자 반응 객체의 반사율, 굴절율 및 쉐도우 중 적어도 하나를 반영하여 적어도 하나의 사용자 반응 객체를 다시 렌더링 할 수 있다.In one embodiment, the user response object rendering unit 130 reflects at least one user response object by reflecting at least one of reflectance, refractive index, and shadow of the at least one user response object based on a user input or a given environment information input. Can be re-rendered.
일 실시예에서, 사용자 반응 객체 렌더링부(130)는 다시 렌더링된 적어도 하나의 반응 객체에 대한 깊이값(Depth of Field) 및 보케(Bokeh Effect) 효과 중 적어도 하나를 반영하여 적어도 하나의 사용자 반응 객체를 다시 렌더링 할 수 있다.In one embodiment, the user response object rendering unit 130 reflects at least one of a depth of field and a bokeh effect on at least one response object that is re-rendered to reflect at least one user response object. Can be re-rendered.
상기에서는 본 출원의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 출원을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described above with reference to the preferred embodiment of the present application, those skilled in the art various modifications and changes to the present application without departing from the spirit and scope of the invention described in the claims below I can understand that you can.

Claims (15)

  1. 적어도 하나의 사용자 반응 객체를 포함하는 컴퓨터 디스플레이 가능한 화면을 생성하는 단계 -상기 적어도 하나의 사용자 반응 객체 중 적어도 일부는 3차원 렌더링 연산을 통한 반사, 굴절 및 쉐도우 중 적어도 하나로 표현됨-;Generating a computer displayable screen including at least one user response object, at least some of the at least one user response object being represented by at least one of reflection, refraction and shadow through a three dimensional rendering operation;
    상기 적어도 하나의 사용자 반응 객체 중 사용자 입력 또는 현재 주어진 환경 정보 입력을 수신해야 하는 사용자 반응 객체를 검출하는 단계; 및Detecting a user response object from which the user input or the currently given environment information input should be received from the at least one user response object; And
    상기 3차원 렌더링 연산을 통해 상기 검출된 사용자 반응 객체를 다시 렌더링하는 단계를 포함하는 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 방법.And re-rendering the detected user response object through the three-dimensional rendering operation.
  2. 제1항에 있어서, 상기 컴퓨터 디스플레이 가능한 화면을 생성하는 단계는The method of claim 1, wherein generating the computer displayable screen includes:
    사용자에 의하여 대체될 수 있는 3차원 콘텐츠를 결정하는 단계; 및Determining three-dimensional content that can be replaced by a user; And
    상기 결정된 3차원 콘텐츠에 있는 적어도 하나의 사용자 반응 객체 수용체를 검출하는 단계를 더 포함하는 것을 특징으로 하는 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 방법.Detecting at least one user response object receptor in the determined three-dimensional content.
  3. 제2항에 있어서, 상기 컴퓨터 디스플레이 가능한 화면을 생성하는 단계는The method of claim 2, wherein generating the computer displayable screen includes:
    상기 사용자에 의하여 상기 검출된 적어도 하나의 사용자 반응 객체 수용체에 상기 적어도 하나의 사용자 반응 객체가 연관되면 상기 검출된 적어도 하나의 사용자 반응 객체 수용체와 상기 적어도 하나의 사용자 반응 객체 중 적어도 하나를 다시 렌더링하는 단계를 더 포함하는 것을 특징으로 하는 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 방법.Re-rendering at least one of the detected at least one user response object receptor and the at least one user response object when the at least one user response object is associated with the detected at least one user response object receptor by the user. The computer-implemented three-dimensional content display method further comprising the step.
  4. 제1항에 있어서, 상기 사용자 반응 객체를 검출하는 단계는The method of claim 1, wherein the detecting of the user response object comprises:
    사용자의 시선, 터치, 클릭, 음성 및 제스처 중 적어도 하나를 포함하는 사용자 이벤트를 검출하는 단계; 및Detecting a user event including at least one of a gaze, a touch, a click, a voice, and a gesture of the user; And
    상기 검출된 사용자 이벤트를 분석하여 해당 사용자 반응 객체를 결정하는 단계를 더 포함하는 것을 특징으로 하는 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 방법.And analyzing the detected user event to determine a corresponding user response object.
  5. 제4항에 있어서, 상기 사용자 반응 객체를 검출하는 단계는The method of claim 4, wherein the detecting of the user response object comprises:
    상기 사용자의 시선이 기 설정된 시간 이상으로 상기 적어도 하나의 사용자 반응 객체에 머무르는 것을 인식하여 해당 사용자 반응 객체를 결정하는 단계를 포함하는 것을 특징으로 하는 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 방법.And recognizing that the gaze of the user stays in the at least one user response object for a predetermined time or more and determining the corresponding user response object.
  6. 제1항에 있어서, 상기 사용자 반응 객체를 검출하는 단계는The method of claim 1, wherein the detecting of the user response object comprises:
    현재 시간, 현재 날씨, 현재 위치, 특정 어플리케이션의 이벤트 및 해당 컴퓨터의 상태 중 적어도 하나를 포함하는 환경 이벤트를 획득하는 단계; 및Obtaining an environmental event including at least one of a current time, a current weather, a current location, an event of a specific application, and a state of the computer; And
    상기 획득된 환경 이벤트를 분석하여 해당 사용자 반응 객체를 결정하는 단계를 더 포함하는 것을 특징으로 하는 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 방법.And analyzing the acquired environment event to determine a corresponding user response object.
  7. 제6항에 있어서, 상기 사용자 반응 객체를 검출하는 단계는The method of claim 6, wherein the detecting of the user response object comprises:
    상기 획득한 현재 시간에 따라서 상기 컴퓨터 디스플레이 가능한 화면의 광원(Light Source) 위치를 결정하는 단계를 포함하는 것을 특징으로 하는 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 방법.And determining a position of a light source of the computer displayable screen according to the obtained current time.
  8. 제6항에 있어서, 상기 사용자 반응 객체를 검출하는 단계는The method of claim 6, wherein the detecting of the user response object comprises:
    상기 해당 컴퓨터의 배터리 상태를 기초로 상기 배터리 상태와 연관된 상기 적어도 하나의 사용자 반응 객체 중 적어도 일부에 대하여 상기 3차원 렌더링 연산에 필요한 반사율, 굴절율 및 쉐도우 중 적어도 하나를 결정하는 단계를 포함하는 것을 특징으로 하는 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 방법.Determining at least one of reflectance, refractive index, and shadow for the three-dimensional rendering operation for at least a portion of the at least one user response object associated with the battery state based on the battery state of the computer. A computer executable three-dimensional content display method.
  9. 제1항에 있어서, 상기 검출된 사용자 반응 객체를 다시 렌더링하는 단계는The method of claim 1, wherein the re-rendering of the detected user response object comprises:
    상기 검출된 사용자 반응 객체와 연관된 렌더링 영역을 결정하는 단계를 포함하는 것을 특징으로 하는 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 방법.Determining a rendering area associated with the detected user response object.
  10. 제9항에 있어서, 상기 검출된 사용자 반응 객체를 다시 렌더링하는 단계는The method of claim 9, wherein re-rendering the detected user response object comprises:
    상기 사용자 입력 또는 상기 현재 주어진 환경 정보 입력을 기초로 상기 적어도 하나의 사용자 반응 객체의 반사율, 굴절율 및 쉐도우 중 적어도 하나를 반영하는 단계를 포함하는 것을 특징으로 하는 3차원 콘텐츠 디스플레이 방법.And reflecting at least one of a reflectance, a refractive index, and a shadow of the at least one user response object based on the user input or the currently given environmental information input.
  11. 제10항에 있어서, 상기 검출된 사용자 반응 객체를 다시 렌더링하는 단계는The method of claim 10, wherein re-rendering the detected user response object comprises:
    상기 다시 렌더링된 상기 적어도 하나의 반응 객체에 대한 깊이값(Depth of Field) 및 보케(Bokeh Effect) 효과 중 적어도 하나를 반영하는 단계를 포함하는 것을 특징으로 하는 3차원 콘텐츠 디스플레이 방법.And reflecting at least one of a depth of field and a bokeh effect on the re-rendered at least one response object.
  12. 적어도 하나의 사용자 반응 객체를 포함하는 컴퓨터 디스플레이 가능한 화면을 생성하는 화면 생성부 -상기 적어도 하나의 사용자 반응 객체 중 적어도 일부는 3차원 렌더링 연산을 통한 반사, 굴절 및 쉐도우 중 적어도 하나로 표현됨-;A screen generator for generating a computer displayable screen including at least one user response object, at least some of the at least one user response object being represented by at least one of reflection, refraction, and shadow through a 3D rendering operation;
    상기 적어도 하나의 사용자 반응 객체 중 사용자 입력 또는 현재 주어진 환경 정보 입력을 수신해야 하는 사용자 반응 객체를 검출하는 사용자 반응 객체 검출부; 및A user response object detector configured to detect a user response object that should receive a user input or currently given environment information input among the at least one user response object; And
    상기 3차원 렌더링 연산을 통해 상기 검출된 사용자 반응 객체를 다시 렌더링하는 사용자 반응 객체 렌더링부를 포함하는 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 장치.And a user response object rendering unit configured to re-render the detected user response object through the 3D rendering operation.
  13. 제12항에 있어서, 상기 사용자 반응 객체 검출부는The method of claim 12, wherein the user response object detector
    사용자의 시선, 터치, 클릭, 음성 및 제스처 중 적어도 하나를 포함하는 사용자 이벤트를 검출하고 사용자 이벤트를 분석하여 해당 사용자 반응 객체를 결정하는 것을 특징으로 하는 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 장치.And detecting a user event including at least one of a gaze, a touch, a click, a voice, and a gesture of the user, and analyzing the user event to determine a corresponding user response object.
  14. 제12항에 있어서, 상기 사용자 반응 객체 검출부는The method of claim 12, wherein the user response object detector
    현재 시간, 현재 날씨, 현재 위치, 특정 어플리케이션의 이벤트 및 해당 컴퓨터의 상태 중 적어도 하나를 포함하는 환경 이벤트를 획득하고 환경 이벤트를 분석하여 해당 사용자 반응 객체를 결정하는 것을 특징으로 하는 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 장치.A computer-executable 3-dimensional method characterized by acquiring an environmental event including at least one of a current time, a current weather, a current location, an event of a specific application, and a state of the computer, and analyzing the environmental event to determine a corresponding user response object. Content display device.
  15. 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 장치에서 수행되는 3차원 콘텐츠 디스플레이를 제공하는 컴퓨터 프로그램을 저장하는 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 기록매체에 있어서,A computer executable 3D content display recording medium storing a computer program for providing a 3D content display performed on a computer executable 3D content display apparatus,
    적어도 하나의 사용자 반응 객체를 포함하는 컴퓨터 디스플레이 가능한 화면을 생성하는 기능 -상기 적어도 하나의 사용자 반응 객체 중 적어도 일부는 3차원 렌더링 연산을 통한 반사, 굴절 및 쉐도우 중 적어도 하나로 표현됨-;Generating a computer displayable screen including at least one user response object, at least some of the at least one user response object being represented by at least one of reflection, refraction, and shadow through a three-dimensional rendering operation;
    상기 적어도 하나의 사용자 반응 객체 중 사용자 입력 또는 현재 주어진 환경 정보 입력을 수신해야 하는 사용자 반응 객체를 검출하는 기능; 및Detecting a user response object from among the at least one user response object that needs to receive a user input or a given environment information input; And
    상기 3차원 렌더링 연산을 통해 상기 검출된 사용자 반응 객체를 다시 렌더링하는 기능을 포함하는 컴퓨터 실행 가능한 3차원 콘텐츠 디스플레이 기록매체.And a function of re-rendering the detected user response object through the three-dimensional rendering operation.
PCT/KR2014/003364 2013-04-24 2014-04-17 Computer-executable three-dimensional content display method, three-dimensional content display apparatus for performing same, and recording medium for saving same WO2014175600A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020130045548A KR101474552B1 (en) 2013-04-24 2013-04-24 Method of computer running three dimensions contents display, apparatus performing the same and storage media storing the same
KR10-2013-0045548 2013-04-24

Publications (1)

Publication Number Publication Date
WO2014175600A1 true WO2014175600A1 (en) 2014-10-30

Family

ID=51792106

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/003364 WO2014175600A1 (en) 2013-04-24 2014-04-17 Computer-executable three-dimensional content display method, three-dimensional content display apparatus for performing same, and recording medium for saving same

Country Status (2)

Country Link
KR (1) KR101474552B1 (en)
WO (1) WO2014175600A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009141497A1 (en) * 2008-05-22 2009-11-26 Nokia Corporation Device and method for displaying and updating graphical objects according to movement of a device
US20120036433A1 (en) * 2010-08-04 2012-02-09 Apple Inc. Three Dimensional User Interface Effects on a Display by Using Properties of Motion
US20120188243A1 (en) * 2011-01-26 2012-07-26 Sony Computer Entertainment Inc. Portable Terminal Having User Interface Function, Display Method, And Computer Program
KR20130012504A (en) * 2011-07-25 2013-02-04 삼성전자주식회사 Apparatus and method for rendering

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009141497A1 (en) * 2008-05-22 2009-11-26 Nokia Corporation Device and method for displaying and updating graphical objects according to movement of a device
US20120036433A1 (en) * 2010-08-04 2012-02-09 Apple Inc. Three Dimensional User Interface Effects on a Display by Using Properties of Motion
US20120188243A1 (en) * 2011-01-26 2012-07-26 Sony Computer Entertainment Inc. Portable Terminal Having User Interface Function, Display Method, And Computer Program
KR20130012504A (en) * 2011-07-25 2013-02-04 삼성전자주식회사 Apparatus and method for rendering

Also Published As

Publication number Publication date
KR20140127041A (en) 2014-11-03
KR101474552B1 (en) 2014-12-22

Similar Documents

Publication Publication Date Title
KR101660134B1 (en) Drag and drop of objects between applications
CN104871214B (en) For having the user interface of the device of augmented reality ability
KR20210097762A (en) Image processing method, apparatus and device, and storage medium
EP3769509B1 (en) Multi-endpoint mixed-reality meetings
WO2018004154A1 (en) Mixed reality display device
CA2971280A1 (en) System and method for interactive projection
CN104081307A (en) Image processing apparatus, image processing method, and program
KR102646977B1 (en) Display method and device based on augmented reality, and storage medium
US9535498B2 (en) Transparent display field of view region determination
CN116310062A (en) Three-dimensional scene construction method and device, storage medium and electronic equipment
KR20180058895A (en) Augmented reality system linked to smart device
US11258945B2 (en) Interactive data visualization environment
CN115512046B (en) Panorama display method and device for points outside model, equipment and medium
WO2014175600A1 (en) Computer-executable three-dimensional content display method, three-dimensional content display apparatus for performing same, and recording medium for saving same
CN113440844B (en) Information processing method and device suitable for game and electronic equipment
CN109669541A (en) It is a kind of for configuring the method and apparatus of augmented reality content
CN108874141A (en) A kind of body-sensing browsing method and device
CN113643320A (en) Image processing method and device, electronic equipment and computer readable storage medium
KR20180071492A (en) Realistic contents service system using kinect sensor
AU2015200570B2 (en) Drag and drop of objects between applications
Morgado et al. Separating gesture detection and application control concerns with a multimodal architecture
WO2022220459A1 (en) Method and electronic device for selective magnification in three dimensional rendering systems
CN112140118B (en) Interaction method, device, robot and medium
CN117631810A (en) Operation processing method, device, equipment and medium based on virtual reality space
WO2011037408A2 (en) Terminal having virtual space interface and virtual space interface control method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14788672

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14788672

Country of ref document: EP

Kind code of ref document: A1