KR20180122869A - Method and apparatus for processing 3 dimensional image - Google Patents

Method and apparatus for processing 3 dimensional image Download PDF

Info

Publication number
KR20180122869A
KR20180122869A KR1020170057034A KR20170057034A KR20180122869A KR 20180122869 A KR20180122869 A KR 20180122869A KR 1020170057034 A KR1020170057034 A KR 1020170057034A KR 20170057034 A KR20170057034 A KR 20170057034A KR 20180122869 A KR20180122869 A KR 20180122869A
Authority
KR
South Korea
Prior art keywords
viewpoint
image
time point
image processing
determining
Prior art date
Application number
KR1020170057034A
Other languages
Korean (ko)
Inventor
도승희
양정운
허진
한동진
김민혁
이승욱
홍동근
김우종
한성진
이보우
박건수
김승중
김현수
이정도
정주리
남혜련
이동욱
박화영
최대욱
이길범
김세민
박건태
김수용
고은경
원선겸
김태완
Original Assignee
주식회사 일리언
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 일리언 filed Critical 주식회사 일리언
Priority to KR1020170057034A priority Critical patent/KR20180122869A/en
Publication of KR20180122869A publication Critical patent/KR20180122869A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention provides a method for processing a three-dimensional (3D) image with respect to a changed viewpoint and a device thereof. The present invention receives an input changing the viewpoint of a 3D image in order to process the 3D image with respect to the changed viewpoint, determines a target viewpoint based on a current viewpoint and an input signal, generates the 3D image of the target viewpoint, determines a visual effect corresponding to the current viewpoint and the target viewpoint, outputs the visual effect and outputs the 3D image of the target viewpoint.

Description

3차원 영상 처리 방법 및 장치{METHOD AND APPARATUS FOR PROCESSING 3 DIMENSIONAL IMAGE}METHOD AND APPARATUS FOR PROCESSING 3 DIMENSIONAL IMAGE < RTI ID = 0.0 >

기술 분야는 3차원 영상을 제공하는 기술에 관한 것으로, 특히, 출력되는 3차원 영상의 시점을 변경하는 방법 및 장치에 관한 것이다.TECHNICAL FIELD [0002] The present invention relates to a technique for providing a three-dimensional image, and more particularly, to a method and apparatus for changing a viewpoint of an output three-dimensional image.

3차원(Dimensional: D) 디스플레이는 기존의 2차원 모노 영상에 깊이 정보(Depth)를 부가하여 사용자에게 시청각적 입체감을 느끼게 함으로써 생동감 및 현실감을 제공하는 디스플레이이다. 3D 영상은 두 개의 영상들을 이용하여 구현될 수 있으며, 사용자의 양쪽 눈에 다르게 인식된 2D 영상 신호가 뇌에서 합쳐짐으로써 사용자는 입체감을 느낀다.The 3D (Dimensional: D) display is a display that provides a feeling of life and a sense of reality by adding depth information to an existing two-dimensional mono image to allow the user to feel an audiovisual stereoscopic effect. The 3D image can be implemented using two images, and the 2D image signals differently recognized by the user's eyes are combined in the brain, so that the user feels stereoscopic feeling.

이와 같이 3D 디스플레이의 발전과 함께 3D 디스플레이가 널리 보급되고 있는데, 3D 영상을 시청하는 사용자는 멀미를 느낄 수 있다. 귀는 소리를 듣는 기능뿐만 아니라 몸의 균형과 평형을 잡아주는 전정기능을 가지는데, 귀 속 전정기관은 시각과 밀접하게 관련되어 양쪽 귀의 전정기관의 신경자극이 균형적으로 이뤄지지 않으면 무의식적인 안구운동이 일어나 자신의 몸이나 주변 환경이 빙빙 도는 듯한 어지럼증을 느끼게 된다. 따라서 눈 앞에서 빠르게 움직이는 3D 영상을 귀의 전정기능이 속도를 따라가지 못한다면 3D 영상을 시청하는 사용자는 멀미를 느낄 수 있다.With the development of 3D display, 3D display is spreading widely, and users watching 3D images can feel nausea. The ear has a vestibular function that not only hears the sound but also balances and equilibrates the body. The vestibular system of the ear is closely related to the vision, and if the nerve stimulation of both vestibular vestibular systems is not balanced, unconscious eye movement And you feel dizzy as if your body or surroundings are swirling. Therefore, users who watch 3D images can feel motion sickness if their vestibular functions do not follow the speed of 3D images moving fast in front of their eyes.

한국공개특허 제10-2015-0091653호(공개일 2015년 08월 12일)에는 사용자 시점 연동형 영상 처리 장치가 공개되어 있다. 공개 발명은 사용자의 시점 변화를 감지하여 모션 데이터를 생성하는 센서부, 미디어 서버로부터 영상 데이터를 포함하는 영상 패키지를 수신하는 통신 인터페이스부, 영상 패키지를 이용하여 가상 공간상에 가상 카메라를 배치하고 상기 영상 데이터에 대한 장면을 구성하는 장면 구성부, 및 모션 데이터를 이용하여, 사용자의 시점 변화에 대응하도록 배치된 가상 카메라의 자세를 변환하는 가상 카메라 자세 변환부를 개시한다.Korean Patent Laid-Open No. 10-2015-0091653 (published on Aug. 12, 2015) discloses a user-viewable image processing apparatus. The present invention discloses a video game system including a sensor unit for generating motion data by detecting a change in a user's viewpoint, a communication interface unit for receiving an image package containing video data from a media server, There is disclosed a virtual camera posture conversion section for converting the posture of a virtual camera arranged so as to correspond to a viewpoint change of a user by using a scene constituting section constituting a scene for video data and motion data.

일 실시예는 3차원 영상 처리 장치 및 방법을 제공할 수 있다.One embodiment can provide a three-dimensional image processing apparatus and method.

일 실시예는 입력 신호에 기초하여 시점이 변환된 3차원 영상을 출력하는 장치 및 방법을 제공할 수 있다.One embodiment can provide an apparatus and method for outputting a three-dimensional image in which a viewpoint is converted based on an input signal.

일 측면에 따른, 3차원(Dimensional: D) 영상을 처리하는 3D 영상 처리 장치에 의해 수행되는 3D 영상 처리 방법은, 디스플레이를 통해 출력될 3D 영상의 시점(viewpoint)을 변경하는 입력 신호를 수신하는 단계, 현재의 시점 및 상기 입력 신호에 기초하여 타겟 시점을 결정하는 단계, 상기 타겟 시점의 3D 영상을 생성하는 단계, 상기 현재의 시점 및 상기 타겟 시점에 대응하는 시각 효과를 결정하는 단계, 상기 시각 효과를 출력하는 단계, 및 상기 시각 효과의 출력이 종료된 경우, 상기 타겟 시점의 3D 영상을 출력하는 단계를 포함한다.A 3D image processing method performed by a 3D image processing apparatus for processing a 3D (Dimensional: D) image according to an aspect includes receiving an input signal for changing a viewpoint of a 3D image to be output through a display Determining a target time point based on the current time point and the input signal, generating a 3D image of the target time point, determining a visual effect corresponding to the current time point and the target time point, And outputting the 3D image of the target time point when the output of the visual effect is ended.

상기 시점을 변경하는 입력 신호는, 상기 시점의 위치를 변경하는 입력 신호 또는 상기 시점의 방향을 변경하는 입력 신호일 수 있다.The input signal for changing the viewpoint may be an input signal for changing the position of the viewpoint or an input signal for changing the viewpoint direction.

상기 시점의 위치는 1인칭 시점(first person view), 3인칭 시점(third person view), 어깨 시점(shoulder view), 및 등 시점(back view)을 포함할 수 있다.The position of the viewpoint may include a first person view, a third person view, a shoulder view, and a back view.

상기 시각 효과는 상기 현재의 시점의3D 영상에서 상기 타겟 시점의 3D 영상으로 전환하기 위해 출력되는 영상일 수 있다.The visual effect may be an image output to convert the 3D image of the current time to the 3D image of the target time.

상기 시각 효과는 상기 현재의 시점의3D 영상을 페이드 아웃(fade out)한 뒤, 상기 타겟 시점의 3D 영상을 페이드 인(fade in)하는 영상일 수 있다.The visual effect may be an image that fades out the 3D image at the current time point and then fades in the 3D image at the target time point.

상기 시각 효과를 결정하는 단계는, 상기 현재의 시점 및 상기 타겟 시점에 대응하는 상기 시각 효과의 지속 시간(duration)을 결정하는 단계, 및 상기 현재의 시점 및 상기 타겟 시점에 대응하는 상기 시각 효과를 결정하는 단계를 포함할 수 있다.Wherein the determining the visual effect comprises: determining a duration of the visual effect corresponding to the current viewpoint and the target viewpoint; and determining the visual effect corresponding to the current viewpoint and the target viewpoint And a step of determining the number

상기 시각 효과의 지속 시간을 결정하는 단계는, 상기 입력 신호가 상기 시점의 방향을 변경하는 신호인 경우, 상기 현재의 시점에 기초하여 상기 지속 시간을 결정하는 단계를 포함할 수 있다.The step of determining the duration of the visual effect may include determining the duration based on the current time when the input signal is a signal changing the direction of the viewpoint.

상기 3D 영상 처리 방법은, 상기 타겟 시점에 대응하는 사용자 인터페이스(User Interface: UI)를 결정하는 단계, 및 상기 UI를 상기 타겟 시점의 3D 영상 상에 추가로 출력하는 단계를 더 포함할 수 있다.The 3D image processing method may further include determining a user interface (UI) corresponding to the target viewpoint, and further outputting the UI on the 3D image of the target viewpoint.

상기 3D 영상 처리 방법은, 상기 타겟 시점에 대응하도록 오브젝트(object)의 움직임을 표현하는 애니메이션 세트를 설정하는 단계를 더 포함하고, 상기 오브젝트는 상기 타겟 시점의 3D 영상 내에 위치하고, 상기 오브젝트의 움직임은 컨트롤러(controller)로부터 수신한 제어 신호에 의해 제어될 수 있다.The 3D image processing method may further comprise setting an animation set representing a motion of an object corresponding to the target time point, the object being located in the 3D image of the target time point, And can be controlled by a control signal received from a controller.

상기 3D 영상 처리 방법은, 상기 타겟 시점에 대응하도록 상기 오브젝트가 움직이는 속도를 움직임의 방향 별로 설정하는 단계를 더 포함할 수 있다.The 3D image processing method may further comprise setting a speed at which the object moves in correspondence with the target time point for each direction of motion.

상기 타겟 시점을 결정하는 단계는, 상기 입력 신호를 전송하는 컨트롤러의 식별자(Identification: ID)를 식별하는 단계, 상기 식별자에 기초하여 상기 입력 신호의 명령(command)을 결정하는 단계, 및 상기 현재의 시점 및 상기 명령에 기초하여 상기 타겟 시점을 결정하는 단계를 포함할 수 있다.Wherein determining the target time point comprises: identifying an Identification (ID) of a controller that transmits the input signal; determining a command of the input signal based on the identifier; And determining the target time point based on the time point and the command.

상기 3D 영상 처리 방법은, 사용자의 머리 방향을 트래킹(tracking)하는 장치로부터 상기 사용자의 시선의 방향에 대한 정보를 수신하는 단계, 및 상기 사용자의 시선의 방향을 상기 현재의 시점으로 설정하는 단계를 더 포함할 수 있다.The 3D image processing method includes receiving information on a direction of a user's gaze from a device tracking a user's head direction and setting a direction of the user's gaze to the current time point .

사용자의 머리 방향을 트래킹하는 장치는, 웨어러블 장치(wearable device)일 수 있다.The device for tracking the user's head direction may be a wearable device.

상기 3D 영상 처리 방법은, 상기 3D 처리 장치의 플랫폼이 가상 현실 플랫폼(Virtual Reality platform)인지 또는 비-가상 현실 플랫폼(Non-Virtual Reality platform)인지 여부를 결정하는 단계를 더 포함하고, 상기 타겟 시점의 3D 영상을 생성하는 단계는, 결정된 플랫폼 및 상기 타겟 시점에 대응하는 시야(visual field) 및 초점(focus)에 기초하여 상기 타겟 시점의 3D 영상을 생성하는 단계를 포함할 수 있다.The 3D image processing method may further include determining whether the platform of the 3D processing apparatus is a virtual reality platform or a non-virtual reality platform, Generating the 3D image of the target viewpoint may include generating a 3D image of the target viewpoint based on a determined platform and a visual field and focus corresponding to the target viewpoint.

다른 일 측면에 따른, 3차원(Dimensional: D) 영상을 처리하는 장치는, 3D 영상을 처리하는 프로그램이 기록된 메모리, 및 상기 프로그램을 수행하는 프로세서를 포함하고, 상기 프로그램은, 디스플레이를 통해 출력될 3D 영상의 시점(viewpoint)을 변경하는 입력 신호를 수신하는 단계, 현재의 시점 및 상기 입력 신호에 기초하여 타겟 시점을 결정하는 단계, 상기 타겟 시점의 3D 영상을 생성하는 단계, 상기 현재의 시점 및 상기 타겟 시점에 대응하는 시각 효과를 결정하는 단계, 상기 시각 효과를 출력하는 단계, 및 상기 시각 효과의 출력이 종료된 경우, 상기 타겟 시점의 3D 영상을 출력하는 단계를 수행한다.According to another aspect, an apparatus for processing a 3D (Dimensional: D) image includes a memory in which a program for processing a 3D image is recorded, and a processor for executing the program, Receiving an input signal for changing a viewpoint of a 3D image to be rendered, determining a target time point based on a current time point and the input signal, generating a 3D image of the target time point, And outputting the 3D image of the target time point when the output of the visual effect is finished.

상기 시점을 변경하는 입력 신호는, 상기 시점의 위치를 변경하는 입력 신호 또는 상기 시점의 방향을 변경하는 입력 신호일 수 있다.The input signal for changing the viewpoint may be an input signal for changing the position of the viewpoint or an input signal for changing the viewpoint direction.

상기 시점의 위치는 1인칭 시점(first person view), 3인칭 시점(third person view), 어깨 시점(shoulder view), 및 등 시점(back view)을 포함할 수 있다.The position of the viewpoint may include a first person view, a third person view, a shoulder view, and a back view.

상기 시각 효과는 상기 현재의 시점의3D 영상에서 상기 타겟 시점의 3D 영상으로 전환하기 위해 출력되는 영상일 수 있다.The visual effect may be an image output to convert the 3D image of the current time to the 3D image of the target time.

상기 시각 효과는 상기 현재의 시점의3D 영상을 페이드 아웃(fade out)한 뒤, 상기 타겟 시점의 3D 영상을 페이드 인(fade in)하는 영상일 수 있다.The visual effect may be an image that fades out the 3D image at the current time point and then fades in the 3D image at the target time point.

상기 시각 효과를 결정하는 단계는, 상기 현재의 시점 및 상기 타겟 시점에 대응하는 상기 시각 효과의 지속 시간(duration)을 결정하는 단계, 및 상기 현재의 시점 및 상기 타겟 시점에 대응하는 상기 시각 효과를 결정하는 단계를 포함할 수 있다.Wherein the determining the visual effect comprises: determining a duration of the visual effect corresponding to the current viewpoint and the target viewpoint; and determining the visual effect corresponding to the current viewpoint and the target viewpoint And a step of determining the number

상기 시각 효과의 지속 시간을 결정하는 단계는, 상기 입력 신호가 상기 시점의 방향을 변경하는 신호인 경우, 상기 현재의 시점에 기초하여 상기 지속 시간을 결정하는 단계를 포함할 수 있다.The step of determining the duration of the visual effect may include determining the duration based on the current time when the input signal is a signal changing the direction of the viewpoint.

상기 프로그램은, 상기 타겟 시점에 대응하는 사용자 인터페이스(User Interface: UI)의 배치를 변경하는 단계를 더 수행하고, 상기 UI는 상기 타겟 시점의 3D 영상 상에 추가로 출력될 수 있다.The program may further include changing a layout of a user interface (UI) corresponding to the target time point, and the UI may be additionally output on the 3D image of the target time point.

상기 프로그램은, 상기 타겟 시점에 대응하도록 오브젝트(object)의 움직임을 표현하는 애니메이션 세트를 설정하는 단계를 더 수행하고, 상기 오브젝트는 상기 타겟 시의 3D 영상 내에 위치하고, 상기 오브젝트의 움직임은 컨트롤러(controller)로부터 수신한 제어 신호에 의해 제어될 수 있다.Wherein the program further comprises the step of setting an animation set representing the motion of the object to correspond to the target time point, the object being located in the 3D image of the target time, As shown in FIG.

상기 프로그램은, 상기 타겟 시점에 대응하도록 상기 오브젝트가 움직이는 속도를 움직임의 방향 별로 설정하는 단계를 더 수행할 수 있다.The program may further comprise setting a speed at which the object moves in correspondence with the target time point for each direction of motion.

상기 타겟 시점을 결정하는 단계는, 상기 입력 신호를 전송하는 컨트롤러의 식별자(Identification: ID)를 식별하는 단계, 상기 식별자에 기초하여 상기 입력 신호의 명령(command)을 결정하는 단계, 및 상기 현재의 시점 및 상기 명령에 기초하여 상기 타겟 시점을 결정하는 단계를 포함할 수 있다.Wherein determining the target time point comprises: identifying an Identification (ID) of a controller that transmits the input signal; determining a command of the input signal based on the identifier; And determining the target time point based on the time point and the command.

상기 프로그램은, 사용자의 머리 방향을 트래킹(tracking)하는 장치로부터 상기 사용자의 시선의 방향에 대한 정보를 수신하는 단계, 및 상기 사용자의 시선의 방향을 상기 현재의 시점으로 설정하는 단계를 더 수행할 수 있다.The program further includes the step of receiving information on the direction of the user's gaze from an apparatus for tracking the user's head direction and setting the direction of the user's gaze to the current time point .

사용자의 머리 방향을 트래킹하는 장치는, 웨어러블 장치(wearable device)일 수 있다.The device for tracking the user's head direction may be a wearable device.

상기 프로그램은, 상기 3D 영상 처리 장치의 플랫폼이 가상 현실 플랫폼(Virtual reality platform)인지 또는 비-가상 현실 플랫폼(Non-Virtual reality platform)인지 여부를 결정하는 단계를 더 수행하고, 상기 타겟 시점의 3D 영상을 생성하는 단계는, 결정된 플랫폼 및 상기 타겟 시점에 대응하는 시야(visual field) 및 초점(focus)에 기초하여 상기 타겟 시점의 3D 영상을 생성하는 단계를 포함할 수 있다.The program may further include determining whether the platform of the 3D image processing apparatus is a virtual reality platform or a non-virtual reality platform, The step of generating an image may include generating a 3D image of the target viewpoint based on a determined platform and a visual field and focus corresponding to the target viewpoint.

또 다른 일 측면에 따른, 데이터 처리 장치에 의해 실행되는 3차원(Dimensional: D) 영상 처리 어플리케이션은, 상기 데이터 처리 장치가, 디스플레이를 통해 출력될 3차원(Dimensional: D) 영상의 시점(viewpoint)을 변경하는 입력 신호를 수신하는 단계, 현재의 시점 및 상기 입력 신호에 기초하여 타겟 시점을 결정하는 단계, 상기 타겟 시점의 3D 영상을 생성하는 단계, 상기 현재의 시점 및 상기 타겟 시점에 대응하는 시각 효과를 결정하는 단계, 상기 시각 효과를 출력하는 단계, 및 상기 시각 효과의 출력이 종료된 경우, 상기 타겟 시점의 3D 영상을 출력하는 단계를 실행하도록 상기 데이터 처리 장치를 제어한다.According to another aspect of the present invention, a 3D (Dimensional: D) image processing application executed by a data processing apparatus is a program for causing the data processing apparatus to display a viewpoint of a 3D- The method comprising the steps of: receiving an input signal for changing a target time point, determining a target time point based on a current time point and the input signal, generating a 3D image of the target time point, Outputting the visual effect, and outputting the 3D image of the target time point when the output of the visual effect is ended.

3차원 영상 처리 장치 및 방법이 제공된다.A three-dimensional image processing apparatus and method are provided.

입력 신호에 기초하여 시점이 변환된 3차원 영상을 출력하는 장치 및 방법이 제공된다.There is provided an apparatus and method for outputting a three-dimensional image in which a viewpoint is converted based on an input signal.

도 1은 일 예에 따른 게임 영상의 시점들을 도시한다.
도 2는 일 실시예에 따른 3차원 영상 처리 장치의 구성도이다.
도 3은 일 실시예에 따른 3차원 영상 처리 방법의 흐름도이다.
도 4는 일 예에 따른 3차원 영상 처리 장치의 플랫폼을 판단하는 방법의 흐름도이다.
도 5는 일 예에 따른 시점의 방향을 변경하는 방법을 도시한다.
도 6은 일 예에 따른 타겟 시점을 결정하는 방법을 흐름도이다.
도 7은 일 예에 따른 시각 효과를 결정하는 방법의 흐름도이다.
도 8은 일 예에 따른 사용자 인터페이스를 출력하는 방법의 흐름도이다.
도 9는 일 예에 따른 오브젝트의 움직임을 표현하는 애니메이션 세트를 결정하고, 오브젝트가 움직이는 속도를 설정하는 방법의 흐름도이다.
도 10는 일 예에 따른 애니메이션 세트를 도시한다.
도 11은 일 예에 사용자의 시선의 방향에 따라 변경된 오브젝트의 움직임을 도시한다.
도 12는 일 예에 따른 현재의 시점을 설정하는 방법의 흐름도이다.
FIG. 1 shows views of a game image according to an example.
2 is a block diagram of a three-dimensional image processing apparatus according to an exemplary embodiment of the present invention.
3 is a flowchart of a three-dimensional image processing method according to an embodiment.
4 is a flowchart of a method of determining a platform of a 3D image processing apparatus according to an exemplary embodiment.
5 shows a method of changing the direction of the viewpoint according to an example.
6 is a flow chart of a method for determining a target time point according to an example.
7 is a flow chart of a method for determining a visual effect in accordance with an example.
8 is a flowchart of a method of outputting a user interface according to an example.
9 is a flowchart of a method of determining an animation set representing the motion of an object according to an example and setting a moving speed of the object.
Figure 10 shows an animation set according to an example.
FIG. 11 shows the movement of the object changed according to the direction of the user's gaze in one example.
12 is a flowchart of a method of setting a current time according to an example.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.In the following, embodiments will be described in detail with reference to the accompanying drawings. However, the scope of the patent application is not limited or limited by these embodiments. Like reference symbols in the drawings denote like elements.

아래 설명하는 실시예들에는 다양한 변경이 가해질 수 있다. 아래 설명하는 실시예들은 실시 형태에 대해 한정하려는 것이 아니며, 이들에 대한 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Various modifications may be made to the embodiments described below. It is to be understood that the embodiments described below are not intended to limit the embodiments, but include all modifications, equivalents, and alternatives to them.

실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used only to illustrate specific embodiments and are not intended to limit the embodiments. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms "comprises" or "having" and the like refer to the presence of stated features, integers, steps, operations, elements, components, or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this embodiment belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In the following description of the present invention with reference to the accompanying drawings, the same components are denoted by the same reference numerals regardless of the reference numerals, and redundant explanations thereof will be omitted. In the following description of the embodiments, a detailed description of related arts will be omitted if it is determined that the gist of the embodiments may be unnecessarily blurred.

도 1은 일 예에 따른 게임 영상의 시점들을 도시한다.FIG. 1 shows views of a game image according to an example.

3차원(Dimensional: D) 영상은 3D로 모델링 또는 제작된 가상의 그래픽 환경 내에서, 특정한 시점(viewpoint)을 기준으로 상기의 시점의 시야(sight)에서 드러나는 장면(scene)일 수 있다. 예를 들어, 컨텐츠가 사용자의 캐릭터를 중심으로 진행되는 게임인 경우, 3D 영상은 사용자에게 제공되는 게임 영상일 수 있다. 시점은 3D 영상을 생성하기 위한 가상의 그래픽 환경 내의 카메라의 위치 및 방향으로 이해될 수 있다.A 3D (Dimensional: D) image may be a scene exposed at a viewpoint of the viewpoint based on a specific viewpoint in a virtual graphic environment modeled or manufactured in 3D. For example, if the content is a game centered on the user's character, the 3D image may be a game image provided to the user. The viewpoint can be understood as a position and a direction of a camera in a virtual graphic environment for generating a 3D image.

게임의 사용자가 캐릭터의 움직임을 제어함으로써 게임을 진행하는 경우, 캐릭터를 중심으로 게임 영상이 제공될 수 있다. 게임 영상은 다양한 시점들로 제공될 수 있다. 게임은 사용자에게 다양한 시점들을 제공할 수 있으며, 사용자는 다양한 시점들 중 하나를 선택하여 게임을 진행할 수 있다. 사용자에게 다양한 시점들을 제공하기 위해 각각의 시점에 대한 카메라 변수들이 게임 제작 단계에서 생성될 수 있다. 게임은 사용자가 원하는 시점에 대한 카메라 변수를 이용하여 사용자에게 특정 시점에 대한 게임 영상을 제공할 수 있다.When the user of the game controls the movement of the character to progress the game, the game image can be provided around the character. The game image can be provided at various points in time. The game can provide the user with various viewpoints, and the user can select one of the various viewpoints to play the game. Camera variables for each viewpoint can be created at the game production stage to provide the viewer with various viewpoints. The game can provide a game image to a user at a specific time using a camera variable for a desired time point.

시점은 시점의 위치 및 시점의 방향을 포함할 수 있다. 예를 들어, 게임은 1인칭 시점(first person view)(110), 어깨 시점(shoulder view)(120), 등 시점(back view)(130), 및 3인칭 시점(third person view)(140)을 사용자에게 제공할 수 있다. 사용자는 제공된 시점들 중 하나를 선택하여 게임을 진행할 수 있으며, 게임 진행 중 다른 시점으로 변경할 수 있다. 1인칭 시점(110), 어깨 시점(120), 등 시점(130), 및 3인칭 시점(140)들 간의 시점 변경은 시점의 위치를 변경하는 것일 수 있다The viewpoint may include the position of the viewpoint and the direction of the viewpoint. For example, the game may include a first person view 110, a shoulder view 120, a back view 130, and a third person view 140, To the user. The user can select one of the provided points and proceed to the game, and can change to another point during the game. The viewpoint change between the first person viewpoint 110, the shoulder viewpoint 120, the isochronous viewpoint 130, and the third person viewpoint 140 may be to change the position of the viewpoint

사용자가 3D 영상을 통해 가상 현실(Virtual reality) 게임을 진행하는 경우, 3D 영상을 보는 사용자가 멀미를 느낄 수 있다. 특히, 3D 영상이 1인칭 시점(110)으로 제공되는 경우, 사용자는 다른 시점들(120, 130 및 140)에 비해 멀미를 더 느낄 수 있다. 사용자는 3D 영상의 시점의 위치를 변경함으로써 멀미의 정도를 조절할 수 있다.When a user performs a virtual reality game through a 3D image, a user viewing a 3D image can feel motion sickness. In particular, if a 3D image is provided at the first person viewpoint 110, the user may feel more motion sickness than at other points in time 120, 130 and 140. The user can adjust the degree of motion sickness by changing the position of the viewpoint of the 3D image.

게임은 동일한 시점 위치에서 시점의 방향을 변경함으로써 시점이 변경된 게임 영상을 제공할 수 있다. 예를 들어, 사용자는 컨트롤러(controller)를 이용하여 게임의 캐릭터의 방향을 변경함으로써 출력되는 게임 영상의 시점의 방향을 변경할 수 있다. The game can provide a game image whose viewpoint has been changed by changing the direction of the viewpoint at the same viewpoint position. For example, the user can change the direction of the viewpoint of the game image outputted by changing the direction of the character of the game using the controller.

변경되는 시점의 방향을 따라 연속적으로 3D 영상이 생성되고, 사용자에게 제공되는 경우, 사용자는 멀미를 느낄 수 있다. 멀미를 방지하기 위해, 3D 영상을 연속적으로 생성하지 않고, 회전이 완료된 타겟 시점에 대응하는 3D 영상만을 생성하고, 사용자에게 제공하는 방법이 이용될 수 있다. 회전이 완료된 타겟 시점에 대응하는 3D 영상만을 사용자에게 제공하는 경우 사용자는 멀리를 느끼지 않을 수 있다.The 3D image is continuously generated along the direction of the changed time point, and when the 3D image is provided to the user, the user can feel motion sickness. In order to prevent motion sickness, a method may be employed in which only a 3D image corresponding to the target time point at which the rotation is completed is generated, and the 3D image is provided to the user without generating the 3D image successively. The user may not feel distant if only the 3D image corresponding to the target time point at which the rotation is completed is provided to the user.

시점이 변경된 경우 변경된 시점에 대응하도록 게임 영상이 생성되고, 출력될 수 있다. 변경된 시점에 대응하도록 사용자 인터페이스(User Interface: UI)가 결정되고, 결정된 UI에 따라 게임의 방식이 변경될 수 있다.When the time is changed, the game image can be generated and output so as to correspond to the changed time. A user interface (UI) is determined so as to correspond to the changed time point, and the game mode can be changed according to the determined UI.

아래에서, 도 2 내지 도 12를 참조하여 영상의 시점을 변경하는 영상 처리 방법이 상세하게 설명된다.Hereinafter, an image processing method for changing the viewpoint of an image will be described in detail with reference to FIGS. 2 to 12. FIG.

도 2는 일 실시예에 따른 3차원 영상 처리 장치의 구성도이다.2 is a block diagram of a three-dimensional image processing apparatus according to an exemplary embodiment of the present invention.

3D 영상 처리 장치(200)는 통신부(210), 프로세서(220) 및 메모리(230)를 포함한다. 예를 들어, 3D 영상 처리 장치(200)는 데이터를 처리하는 장치일 수 있다.The 3D image processing apparatus 200 includes a communication unit 210, a processor 220, and a memory 230. For example, the 3D image processing apparatus 200 may be an apparatus for processing data.

통신부(210)는 프로세서(220) 및 메모리(230)와 연결되어 데이터를 송수신한다. 통신부(210)는 외부의 다른 장치와 연결되어 데이터를 송수신할 수 있다. 이하에서 "A"를 송수신한다라는 표현은 "A를 나타내는 정보(information) 또는 데이터"를 송수신하는 것을 나타낼 수 있다.The communication unit 210 is connected to the processor 220 and the memory 230 to transmit and receive data. The communication unit 210 may be connected to another external device to transmit / receive data. Hereinafter, the expression " transmit / receive " A may indicate transmission / reception of " information or data representing A ".

통신부(210)는 3D 영상 처리 장치(200) 내의 회로망(circuitry)으로 구현될 수 있다. 예를 들어, 통신부(210)는 내부 버스(internal bus) 및 외부 버스(internal bus)를 포함할 수 있다. 다른 예로, 통신부(210)는 3D 영상 처리 장치(200)와 외부의 장치를 연결하는 요소일 수 있다. 통신부(210)는 인터페이스(interface)일 수 있다. 통신부(210)는 외부의 장치로부터 데이터를 수신하여, 프로세서(220) 및 메모리(230)에 데이터를 전송할 수 있다.The communication unit 210 may be implemented as a circuitry in the 3D image processing apparatus 200. For example, the communication unit 210 may include an internal bus and an internal bus. As another example, the communication unit 210 may be an element for connecting the 3D image processing apparatus 200 to an external apparatus. The communication unit 210 may be an interface. The communication unit 210 can receive data from an external device and transmit data to the processor 220 and the memory 230. [

프로세서(220)는 통신부(210)가 수신한 데이터 및 메모리(230)에 저장된 데이터를 처리한다. "프로세서"는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.The processor 220 processes the data received by the communication unit 210 and the data stored in the memory 230. &Quot; Processor " may be a data processing device embodied in hardware having circuitry having a physical structure for performing desired operations. For example, the desired actions may include code or instructions included in the program. For example, a data processing apparatus embodied in hardware may be a microprocessor, a central processing unit, a processor core, a multi-core processor, a multiprocessor, , An application-specific integrated circuit (ASIC), and a field programmable gate array (FPGA).

프로세서(220)는 메모리(예를 들어, 메모리(230))에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(220)에 의해 유발된 인스트럭션들을 실행한다.The processor 220 executes computer readable code (e.g., software) stored in a memory (e.g., memory 230) and instructions triggered by the processor 220.

메모리(230)는 통신부(210)가 수신한 데이터 및 프로세서(220)가 처리한 데이터를 저장한다. 예를 들어, 메모리(230)는 프로그램을 저장할 수 있다. 저장되는 프로그램은 3D 영상을 처리할 수 있도록 코딩되어 프로세서(220)에 의해 실행 가능한 신텍스(syntax)들의 집합일 수 있다.The memory 230 stores data received by the communication unit 210 and data processed by the processor 220. [ For example, the memory 230 may store a program. The stored program may be a set of syntaxes executable by the processor 220 that are coded to process the 3D image.

일 측면에 따르면, 메모리(230)는 하나 이상의 휘발성 메모리, 비휘발성 메모리 및 RAM(Random Access Memory), 플래시 메모리, 하드 디스크 드라이브 및 광학 디스크 드라이브를 포함할 수 있다.According to an aspect, the memory 230 may include one or more volatile memory, non-volatile memory and random access memory (RAM), flash memory, hard disk drive, and optical disk drive.

메모리(230)는 3D 영상 처리 장치(200)를 동작 시키는 명령어 세트(예를 들어, 소프트웨어)를 저장한다. 3D 영상 처리 장치(200)를 동작 시키는 명령어 세트는 프로세서(220)에 의해 실행된다.The memory 230 stores a set of instructions (e.g., software) for operating the 3D image processing apparatus 200. The instruction set for operating the 3D image processing apparatus 200 is executed by the processor 220. [

통신부(210), 프로세서(220) 및 메모리(230)에 대해, 아래에서 도 3 내지 도 12를 참조하여 상세히 설명된다.The communication unit 210, the processor 220, and the memory 230 will be described in detail below with reference to Figs. 3 to 12.

도 3은 일 실시예에 따른 3차원 영상 처리 방법의 흐름도이다.3 is a flowchart of a three-dimensional image processing method according to an embodiment.

아래의 단계들(310 내지 360)은 도 2를 참조하여 전술된 3D 처리 장치(200)에 의해 수행된다.The following steps 310-360 are performed by the 3D processing apparatus 200 described above with reference to FIG.

단계(310)에서, 통신부(210)는 생성될 3D 영상의 시점을 변경하는 입력 신호를 수신한다.In step 310, the communication unit 210 receives an input signal for changing the viewpoint of the 3D image to be generated.

시점의 변경은 시점의 위치를 변경하거나 시점의 방향을 변경하는 것일 수 있다. 시점을 변경하는 입력 신호는 시점의 위치를 변경하는 입력 신호 또는 시점의 방향을 변경하는 입력 신호일 수 있다. 시점의 위치는 1 인칭 시점, 3인칭 시점, 어깨 시점, 및 등 시점을 포함할 수 있다. 시점의 방향은 시야의 방향일 수 있다.The change of the viewpoint may be to change the position of the viewpoint or change the direction of the viewpoint. The input signal for changing the viewpoint may be an input signal for changing the position of the viewpoint or an input signal for changing the viewpoint direction. The position of the viewpoint may include a first person view, a third person view, a shoulder view, and an isochron view. The direction of the viewpoint may be the direction of view.

예를 들어, 통신부(210)는 사용자가 조작하는 컨트롤러로부터 입력 신호를 수신할 수 있다. 컨트롤러는 마우스, 키보드 및 게임 콘솔(game console)의 컨트롤러, 조이스틱(joystick) 및 조이패드(joypad)를 포함할 수 있고, 개시된 실시예로 한정되지 않는다. 사용자는 컨트롤러의 버튼 또는 스틱을 조작함으로써 3D 영상의 시점을 변경하는 신호를 생성할 수 있다.For example, the communication unit 210 may receive an input signal from a controller operated by a user. The controller may include a controller, a joystick and a joypad of a mouse, a keyboard and a game console, and is not limited to the disclosed embodiments. The user can generate a signal for changing the viewpoint of the 3D image by operating the button or the stick of the controller.

일 측면에 따르면, 3D 영상은 3D로 모델링된 가상의 그래픽 환경 내에서 특정한 시점의 장면을 3D로 렌더링한 영상일 수 있다. 다른 일 측면에 따르면, 3D 영상은 스테레오스코픽 영상(stereoscopic image)일 수 있다. 스테레오스코픽 영상은 사용자의 좌측 눈 및 우측 눈의 각각 제공될 수 있다. 3D 처리 장치(200)는 좌측 눈 및 우측 눈 각각에 대한 3D 영상을 생성함으로써 스테레오스코픽 영상을 생성할 수 있다.According to an aspect, a 3D image may be a 3D rendered scene of a scene at a specific point in a virtual graphic environment modeled in 3D. According to another aspect, the 3D image may be a stereoscopic image. A stereoscopic image may be provided for each of the left eye and right eye of the user. The 3D processing apparatus 200 can generate a stereoscopic image by generating a 3D image for each of the left eye and the right eye.

단계(320)에서, 프로세서(220)는 현재의 시점 및 입력 신호에 기초하여 타겟 시점을 결정한다. 현재의 시점은 현재 출력된 3D 영상의 시점일 수 있다.At step 320, the processor 220 determines the target time point based on the current time point and the input signal. The current time point may be the time point of the currently output 3D image.

일 측면에 따르면, 입력 신호는 시점의 위치를 변경하는 입력일 수 있다. 3D로 모델링된 가상의 그래픽 환경을 제공하는 컨텐츠가 1 인칭 시점, 3인칭 시점, 어깨 시점, 및 등 시점을 제공하는 경우, 현재의 시점의 위치와 다른 시점의 위치가 타겟 시점으로 결정될 수 있다. 1 인칭 시점, 3인칭 시점, 어깨 시점, 및 등 시점의 순서로 변경 순서가 결정되어 있고, 현재의 시점의 위치가 어깨 시점인 경우, 등 시점이 타겟 시점으로 결정될 수 있다. 시점의 변경 순서는 사용자에 의해 미리 설정될 수 있다. 3인칭 시점은 탑 시점(top view), 쿼터 시점(quarter view) 및 측면 시점(side view)를 포함할 수 있다.According to one aspect, the input signal may be an input that alters the position of the viewpoint. When a content providing a virtual graphic environment modeled in 3D provides a first person view, a third person view, a shoulder view, and an isochronous viewpoint, the position of the current viewpoint may be determined as the target viewpoint. The change order is determined in the order of the first person, the third person, the shoulder, and the backward point, and if the current position is the shoulder point, the backward point can be determined as the target point. The change order of the viewpoints can be preset by the user. The third person view may include a top view, a quarter view, and a side view.

다른 일 측면에 따르면, 입력 신호는 시점의 방향을 변경하는 입력일 수 있다. 예를 들어, 현재의 시점의 방향이 북쪽을 기준으로 우측으로 10도를 향하고 있고, 입력 신호가 우측으로 45도 회전하는 신호인 경우, 타겟 시점의 방향은 북쪽을 기준으로 우측 55도로 결정될 수 있다.According to another aspect, the input signal may be an input that changes the direction of the viewpoint. For example, if the direction of the current point of view is 10 degrees to the right with respect to the north and the input signal is a signal that rotates 45 degrees to the right, the direction of the target point of view may be determined to be 55 degrees to the right with respect to the north .

단계(330)에서, 프로세서(220)는 타겟 시점의 3D 영상을 생성한다. 프로세서(220)는 타겟 시점의 시야에 해당하는 3D 영상을 생성할 수 있다. 예를 들어, 프로세서(220)는 결정된 타겟 시점에 미리 설정된 값을 이용하여 생성되는 3D 영상이 상하로 흔들리는 정도를 조정할 수 있다. 3D 영상이 상하로 크게 움직이는 경우, 사용자는 멀미를 느낄 수 있으므로 사용자의 개인화(customize)를 통해 3D 영상이 상하로 흔들리는 정도를 조정할 수 있다.At step 330, the processor 220 generates a 3D image of the target time point. Processor 220 may generate a 3D image corresponding to the field of view of the target viewpoint. For example, the processor 220 may adjust the degree to which the 3D image generated by using the predetermined value at the determined target time point is shaken up and down. When the 3D image moves up and down, the user can feel motion sickness. Therefore, it is possible to adjust the degree of shaking of the 3D image by customizing the user.

단계(340)에서, 프로세서(220)는 현재의 시점 및 타겟 시점에 대응하는 시각 효과(visual effect)를 결정한다. 시각 효과는 현재의 시점의3D 영상에서 타겟 시점의 3D 영상으로 전환하기 위해 출력되는 영상일 수 있다. 시각 효과를 통해 사용자는 멀미를 덜 느낄 수 있다.At step 340, the processor 220 determines a visual effect corresponding to the current and target time points. The visual effect may be an image output to convert the 3D image of the current viewpoint to the 3D image of the target viewpoint. Visual effects allow users to feel less motion sickness.

일 측면에 따르면, 현재의 시점의 위치 및 타겟 시점의 위치가 상이한 경우, 시각 효과는 현재의 시점의3D 영상을 페이드 아웃(fade out)한 뒤, 타겟 시점의 3D 영상을 페이드 인(fade in)하는 영상일 수 있다. 다시 말하자면, 입력 신호가 시점의 위치를 변경하는 신호인 경우, 시각 효과는 페이드 아웃 및 페이드 인의 영상으로 결정될 수 있다.According to an aspect of the present invention, when the position of the current viewpoint and the position of the target viewpoint are different, the visual effect fades out the 3D image of the current viewpoint and then fades in the 3D image of the target viewpoint. Can be video. In other words, when the input signal is a signal that changes the position of the viewpoint, the visual effect can be determined to be an image of fade-out and fade-in.

다른 일 측면에 따르면, 시점의 방향을 변경하는 입력 신호의 경우, 현재의 시점의 위치에 따라, 시각 효과가 다르게 결정될 수 있다. 예를 들어, 현재의 시점의 위치가 1인칭 시점 또는 어깨 시점인 경우, 시각 효과가 없을 수 있다. 다른 예로, 현재의 시점의 위치가 등 시점인 경우, 시각 효과가 페이드 아웃 및 페이드 인의 영상으로 결정될 수 있다.According to another aspect, in the case of an input signal changing the direction of the viewpoint, the visual effect may be determined differently depending on the position of the current viewpoint. For example, if the current position is at the first person or shoulder point, there may be no visual effect. As another example, when the current position of the current viewpoint is the isochronance, the visual effect can be determined to be an image of fade-out and fade-in.

시각 효과를 결정하는 방법에 대해, 아래에서 도 7을 참조하여 상세히 설명된다.A method for determining a visual effect will be described in detail below with reference to Fig.

단계(350)에서, 프로세서(220)는 결정된 시각 효과를 출력한다. 예를 들어, 시각 효과는 페이드 아웃 및 페이드 인의 영상일 수 있다. 다른 예로, 시각 효과는 없을 수 있다. 또 다른 예로, 시각 효과의 지속 시간이 0으로 결정된 경우에도 시각 효과가 없는 것으로 간주될 수 있다. 시각 효과가 없는 경우, 아래의 단계(360)가 바로 수행될 수 있다.At step 350, the processor 220 outputs the determined visual effect. For example, visual effects may be images of fade-out and fade-in. As another example, there may be no visual effect. As another example, even if the duration of the visual effect is determined to be zero, it can be regarded as having no visual effect. If there is no visual effect, the following step 360 may be performed immediately.

단계(360)에서, 프로세서(220)는 타겟 시점의 3D 영상을 출력한다. 사용자는 시점이 변경된 3D 영상을 제공받을 수 있다.In step 360, the processor 220 outputs a 3D image of the target time point. The user can receive the 3D image whose viewpoint has been changed.

시점의 위치가 변경된 경우, 사용자 인터페이스(User Interface: UI) 및 3D 영상에 나타나는 오브젝트의 움직임이 변경된 시점의 위치에 대응하도록 변경될 수 있다. 시점이 변경된 후의 추가 동작에 대해, 아래의 도 8 내지 도 11을 참조하여 상세히 설명된다.When the position of the viewpoint is changed, it can be changed to correspond to the position of the point of time at which the user interface (UI) and the movement of the object appearing in the 3D image are changed. The additional operation after the viewpoint is changed will be described in detail with reference to Figs. 8 to 11 below.

도 4는 일 예에 따른 3차원 영상 처리 장치의 플랫폼을 판단하는 방법의 흐름도이다.4 is a flowchart of a method of determining a platform of a 3D image processing apparatus according to an exemplary embodiment.

아래의 단계들(410 내지 430)은 도 3을 참조하여 전술된 단계(310)가 수행되기 전에 수행될 수 있다.The following steps 410 to 430 may be performed before step 310 described above with reference to FIG. 3 is performed.

단계(410)에서, 프로세서(220)는 3D 처리 장치(200)의 플랫폼이 가상 현실 플랫폼(Virtual Reality platform)인지 또는 비-가상 현실 플랫폼(Non-Virtual Reality platform)인지 여부를 결정한다. 다른 예로, 프로세서(220)는 3D 영상을 제공하는 컨텐츠가 VR 플랫폼을 지원하는지 여부를 결정할 수 있다.At step 410 the processor 220 determines whether the platform of the 3D processing device 200 is a Virtual Reality platform or a Non-Virtual Reality platform. In another example, the processor 220 may determine whether the content providing the 3D image supports the VR platform.

단계(420)에서, 프로세서(220)는 3D 처리 장치(200)의 플랫폼 또는 컨텐츠의 플랫폼을 VR 플랫폼으로 결정한다. 플랫폼이 VR 플랫폼으로 결정된 경우, 도 3을 참조하여 전술된 단계들(310 내지 360)이 VR 플랫폼에 기초하여 수행될 수 있다.In step 420, the processor 220 determines the platform of the 3D processing apparatus 200 or the platform of the content as a VR platform. If the platform is determined to be a VR platform, the steps 310 to 360 described above with reference to FIG. 3 may be performed based on the VR platform.

예를 들어, 3D 영상을 제공하는 컨텐츠의 리소스(resource)에 VR 플랫폼에 관한 카메라 정보가 포함될 수 있다. 프로세서(220)는 컨텐츠의 리소스로부터 VR 플랫폼에 관한 카메라 정보를 획득할 수 있다. 컨텐츠의 리소스는 VR 플랫폼에 관한 카메라 정보 및 Non-VR 플랫폼에 관한 카메라 정보를 각각 별개로 포함할 수 있다. VR 플랫폼에 관한 카메라 정보는 시점 별로 카메라 고유 식별자(Identifier: ID)를 포함할 수 있다. 프로세서(220)는 결정된 타겟 시점에 대응하는 카메라 ID를 설정할 수 있다.For example, camera resources related to the VR platform may be included in a resource of a content providing a 3D image. The processor 220 may obtain camera information regarding the VR platform from resources of the content. The resources of the content may include camera information related to the VR platform and camera information related to the non-VR platform, respectively. The camera information about the VR platform may include a camera unique identifier (ID) for each viewpoint. The processor 220 may set a camera ID corresponding to the determined target time point.

도 3을 참조하여 전술된 단계(330)는, 결정된 플랫폼 및 타겟 시점에 대응하는 시야(visual field) 및 초점(focus)에 기초하여 타겟 시점의 3D 영상을 생성하는 단계를 포함할 수 있다. 프로세서(220)는 VR 플랫폼의 카메라 스케일을 조절하여 타겟 시점에 대응하는 시야 및 초점을 제공할 수 있다. 카메라 스케일은 출력되는 3D 영상의 스케일일 수 있다. 예를 들어, 1인칭 시점 또는 어깨 시점인 경우, 실제의 초점 및 시야에 대한 3D 영상이 제공됨으로써 사용자의 멀미를 감소시킬 수 있다. 다른 예로, 3인칭 시점 또는 등 시점인 경우, 출력되는 오브젝트와의 거리 비율에 맞는 초점 및 시야에 대한 3D 영상이 제공됨으로써 사용자의 멀미를 감소시킬 수 있다. 3인칭 시점 및 등 시점의 3D 영상은 사용자가 전체적인 장면을 잘 볼 수 있도록 시야가 확대될 수 있다. 움직이는 오브젝트에 대해 출력되는 3D 영상이 오브젝트를 너무 느리게 따라가거나, 상하로 흔들리는 경우 사용자가 멀미를 느낄 수 있다.Step 330, described above with reference to FIG. 3, may include generating a 3D image of the target viewpoint based on the determined platform and a visual field and focus corresponding to the target viewpoint. The processor 220 may adjust the camera scale of the VR platform to provide a view and focus corresponding to the target time. The camera scale may be the scale of the output 3D image. For example, in the case of the first person or the shoulder point, the 3D image of the actual focus and field of view can be provided, thereby reducing the nausea of the user. As another example, in the case of the third person view or the isochron view, 3D images of the focus and the view corresponding to the distance ratio with the output object are provided, thereby reducing the nausea of the user. The 3D view of the third person and the back view can be enlarged so that the user can see the entire scene well. If the 3D image output for a moving object follows the object too slowly or shakes up and down, the user may feel motion sickness.

VR 플랫폼으로 결정된 경우, 아래의 도 12를 참조하여 설명되는 단계들(1210 및 1220)이 추가로 수행될 수 있다. 단계들(1210 및 1220)에 대한 상세한 설명은 아래에서 도 12를 참조하여 후술하도록 한다.If it is determined to be a VR platform, steps 1210 and 1220 described below with reference to FIG. 12 can be additionally performed. Details of steps 1210 and 1220 will be described later with reference to FIG. 12 below.

단계(430)에서, 프로세서(220)는 3D 처리 장치(200)의 플랫폼 또는 컨텐츠의 플랫폼을 Non-VR 플랫폼으로 결정한다. 플랫폼이 Non-VR 플랫폼으로 결정된 경우, 단계들(310 내지 360)이 Non-VR 플랫폼에 기초하여 수행될 수 있다. 예를 들어, 3D 영상을 제공하는 컨텐츠의 리소스에 Non-VR 플랫폼에 관한 카메라 정보가 포함될 수 있다. 프로세서(220)는 컨텐츠의 리소스로부터 Non-VR 플랫폼에 관한 카메라 정보를 획득할 수 있다. Non-VR 플랫폼에 관한 카메라 정보는 시점 별로 카메라 ID를 포함할 수 있다. 프로세서(220)는 결정된 타겟 시점에 대응하는 카메라 ID를 설정할 수 있다.In step 430, the processor 220 determines the platform of the 3D processing apparatus 200 or the platform of the content as the Non-VR platform. If the platform is determined to be a Non-VR platform, steps 310 to 360 may be performed based on the Non-VR platform. For example, the resource of the content providing the 3D image may include camera information related to the non-VR platform. Processor 220 may obtain camera information regarding the Non-VR platform from the resources of the content. The camera information about the non-VR platform may include a camera ID for each viewpoint. The processor 220 may set a camera ID corresponding to the determined target time point.

3D 처리 장치(200)의 플랫폼이 Non-VR 플랫폼으로 결정된 경우에도, 전술된 단계(330)는 결정된 플랫폼 및 타겟 시점에 대응하는 시야 및 초점에 기초하여 타겟 시점의 3D 영상을 생성하는 단계를 포함할 수 있다. 결정된 플랫폼 및 타겟 시점에 대응하는 시야 및 초점에 관한 상세한 설명은 단계(420)에서 설명된 내용과 유사하므로, 이하에서 생략한다.Even if the platform of the 3D processing apparatus 200 is determined to be a non-VR platform, the above-described step 330 includes the step of generating a 3D image of the target time point based on the determined platform and the view and focus corresponding to the target time point can do. The detailed description of the field of view and focus corresponding to the determined platform and target time point is similar to that described in step 420 and will be omitted below.

도 5는 일 예에 따른 시점의 방향을 변경하는 방법을 도시한다.5 shows a method of changing the direction of the viewpoint according to an example.

3D로 모델링된 가상의 그래픽 환경 내에 오브젝트(512)가 위치할 수 있다. 오브젝트(512)는 사용자의 캐릭터일 수 있다. 현재의 시점(510)에서 오브젝트(512)의 시점의 방향(514)은 북쪽을 기준으로 0도일 수 있다. 시점의 방향(514)을 중심으로 오브젝트(512)의 시야(516)가 결정될 수 있다. 예를 들어, 시점의 위치가 1인칭 시점 또는 어깨 시점인 경우, 오브젝트(512)의 시야(516)는 출력되는 현재의 3D 영상에 대응할 수 있다.Objects 512 may be located within a virtual graphical environment modeled in 3D. The object 512 may be a character of the user. The direction 514 of the viewpoint of the object 512 at the current point in time 510 may be 0 degrees relative to the north. The field of view 516 of the object 512 can be determined about the direction 514 of the viewpoint. For example, if the position of the viewpoint is the first person or the shoulder view, then the view 516 of the object 512 may correspond to the current 3D image being output.

일 측면에 따르면, 시점의 방향(514)은 사용자의 머리 방향을 트래킹(tracking)하는 장치로부터 수신된 사용자의 시선의 방향에 대응할 수 있다. 예를 들어, 사용자가 시선의 방향을 변경하는 경우, 시점의 방향(514)이 사용자의 시선의 방향에 대응하도록 실시간으로 변경될 수 있다. 입력 신호를 수신할 때에 결정된, 사용자의 시선에 대응하는 시점의 방향이 시점의 방향(514)으로 결정될 수 있다. 사용자의 머리 방향을 트래킹하는 장치는 웨어러블 장치(wearable device)일 수 있다. 예를 들어, 트래킹 장치는 헤드 마운트 디스플레이(Head Mounted Display: HMD)일 수 있다.According to one aspect, the direction 514 of the viewpoint may correspond to the direction of the user ' s line of sight received from the device tracking the head direction of the user. For example, when the user changes the direction of the line of sight, the direction of the start point 514 may change in real time so as to correspond to the direction of the user's line of sight. The direction of the viewpoint corresponding to the user's gaze, which is determined when the input signal is received, can be determined as the viewpoint direction 514. The device for tracking the user's head direction may be a wearable device. For example, the tracking device may be a head mounted display (HMD).

입력 신호에 기초하여 시점이 변경될 수 있다. 입력 신호가 시점의 방향을 변경하는 신호인 경우, 오브젝트(512)의 시점 방향이 시점의 방향(514)에서 시점의 방향(524)으로 변경될 수 있다. 시점의 방향(524)은 타겟 시점(520)일 수 있다. 타겟 시점(520)에서 오브젝트(512)의 시점의 방향(524)은 시점의 방향(514)에서 미리 설정된 각도(530)가 회전된 방향일 있다. 미리 설정된 각도(530)는 사용자에 의해 설정될 수 있다. 사용자는 사용자의 3D 영상 적응도를 고려하여 각도의 값을 조정할 수 있다. 실시예에 따라, 좌측으로 회전하는 각도 및 우측으로 회전하는 각도가 상이하게 설정될 수 있다. 시점의 방향(524)을 중심으로 오브젝트(512)의 시야(526)가 결정될 수 있다. 예를 들어, 시점의 위치가 1인칭 시점인 경우, 오브젝트(512)의 시야(526)는 출력될 3D 영상에 대응할 수 있다.The viewpoint can be changed based on the input signal. The view direction of the object 512 can be changed from the view direction 514 to the view direction 524 when the input signal is a signal for changing the view direction. The direction 524 of the viewpoint may be the target viewpoint 520. [ The direction 524 of the viewpoint of the object 512 at the target viewpoint 520 is the direction in which the predetermined angle 530 in the viewpoint direction 514 is rotated. The preset angle 530 can be set by the user. The user can adjust the value of the angle in consideration of the 3D image adaptability of the user. According to the embodiment, the left-turning angle and the right-turning angle may be set differently. The view 526 of the object 512 about the direction 524 of the viewpoint can be determined. For example, if the position of the viewpoint is the first person viewpoint, the field of view 526 of the object 512 may correspond to the 3D image to be output.

도 6은 일 예에 따른 타겟 시점을 결정하는 방법을 흐름도이다.6 is a flow chart of a method for determining a target time point according to an example.

도 3을 참조하여 전술된 단계(320)는 아래의 단계들(610 내지 630)을 포함할 수 있다.Step 320 described above with reference to FIG. 3 may include the following steps 610 - 630.

단계(610)에서, 프로세서(220)는 입력 신호를 전송하는 컨트롤러의 ID를 식별한다. 예를 들어, 프로세서(220)는 컨트롤러와 3D 영상 처리 장치(200)가 연결된 경우, 컨트롤러로부터 ID를 수신함으로써 ID를 식별할 수 있다.In step 610, the processor 220 identifies the ID of the controller that is sending the input signal. For example, when the controller 220 and the 3D image processing apparatus 200 are connected, the processor 220 can identify the ID by receiving the ID from the controller.

단계(620)에서, 프로세서(220)는 ID에 기초하여 입력 신호의 명령(command)을 결정한다. 예를 들어, 명령은 시점의 위치를 변경하는 명령 또는 시점의 방향을 변경하는 명령일 수 있다.In step 620, the processor 220 determines a command of the input signal based on the ID. For example, the command may be a command to change the position of the viewpoint or a command to change the direction of the viewpoint.

일 측면에 따르면, 사용자는 컨트롤러의 조작법을 개인화할 수 있다. 예를 들어, 사용자는 컨트롤러의 버튼의 기능을 자신의 편의에 맞게 조정할 수 있다. 컨트롤러의 개인화를 통해 동일한 버튼인 경우에라도 컨트롤러 마다 서로 상이한 명령이 전송될 수 있다. 프로세서(220)는 ID를 식별함으로써 컨트롤러가 전송한 입력 신호가 어떠한 명령인지를 결정할 수 있다.According to one aspect, a user can personalize the operation of the controller. For example, the user can adjust the functions of the buttons of the controller to their convenience. Through the personalization of the controller, different commands can be transmitted for different controllers even in the case of the same button. The processor 220 can determine which command the input signal transmitted by the controller is by identifying the ID.

단계(630)에서, 프로세서(220)는 현재의 시점 및 명령에 기초하여 타겟 시점을 결정한다. 예를 들어, 프로세서(220)는 명령이 시점의 위치를 변경하는 명령인 경우, 현재의 시점의 위치를 변경일 수 있다. 식별된 컨트롤러에 대해 설정된 시점의 변경 순서에 따라, 타겟 시점의 위치가 결정될 수 있다.At step 630, the processor 220 determines a target time point based on the current time point and the command. For example, the processor 220 may change the position of the current time point if the command is a command to change the position of the time point. The position of the target time point can be determined according to the order of change at the time point set for the identified controller.

도 7은 일 예에 따른 시각 효과를 결정하는 방법의 흐름도이다.7 is a flow chart of a method for determining a visual effect in accordance with an example.

도 3을 참조하여 전술된 단계(340)는 아래의 단계들(710 및 720)을 포함할 수 있다.The above-described step 340 with reference to FIG. 3 may include the following steps 710 and 720.

단계(710)에서, 프로세서(220)는 현재의 시점 및 타겟 시점에 대응하는 시각 효과의 지속 시간을 결정한다. 예를 들어, 현재의 시점의 위치 및 타겟 시점의 위치가 동일하고, 시점의 방향이 상이한 경우 시각 효과의 지속 시간은 0으로 결정될 수 있다. 시각 효과의 지속 시간이 0인 경우는, 입력 신호가 수신될 때 타겟 시점의 3D 영상이 즉시 출력될 수 있다. 다른 예로, 현재의 시점의 위치 및 타겟 시점의 위치가 등 시점이고, 시점의 방향이 상이한 경우 시각 효과는 지속 시간은 미리 설정된 제1 시간으로 결정될 수 있다. 또 다른 예로, 현재의 시점의 위치 및 타겟 시점의 위치가 상이한 경우 시각 효과의 지속 시간은 미리 설정된 제2 시간으로 결정될 수 있다.At step 710, the processor 220 determines the duration of the visual effect corresponding to the current and target time points. For example, if the position of the current viewpoint and the position of the target viewpoint are the same, and the direction of the viewpoint is different, the duration of the visual effect may be determined to be zero. When the duration of the visual effect is zero, the 3D image of the target time point can be output immediately when the input signal is received. In another example, if the position of the current viewpoint and the position of the target viewpoint are iso-viewpoints, and the direction of the viewpoint is different, the duration of the visual effect may be determined to be the first predetermined time. As another example, if the position of the current viewpoint and the position of the target viewpoint are different, the duration of the visual effect may be determined as the second predetermined time.

일 측면에 따르면, 프로세서(220)는 입력 신호가 시점의 방향을 변경하는 신호인 경우, 현재의 시점에 기초하여 지속 시간을 결정할 수 있다. 예를 들어, 현재의 시점의 위치가 1인칭 시점 또는 어깨 시점인 경우, 지속 시간은 0으로 결정될 수 있다. 다른 예로, 현재의 시점의 위치가 등 시점인 경우, 지속 시간은 미리 설정된 시간으로 결정될 수 있다. 등 시점에 대해 미리 설정된 시간은 짧은 시간일 수 있다. 등 시점에 대해 미리 설정된 시간은 사용자에 의해 조정될 수 있다.According to one aspect, the processor 220 may determine the duration based on the current time when the input signal is a signal that changes the direction of the viewpoint. For example, if the position of the current point of view is the first person or the shoulder point, the duration may be determined to be zero. As another example, if the current point of time is the isochronous point, the duration may be determined as a preset time. The predetermined time for the isochronism may be a short time. The preset time for the isochronous point can be adjusted by the user.

단계(720)에서, 프로세서(220)는 현재의 시점 및 타겟 시점에 대응하는 시각 효과를 결정한다. 예를 들어, 현재의 시점의 위치 및 타겟 시점의 위치가 상이한 경우, 시각 효과는 페이드 아웃 및 페이드 인의 영상으로 결정될 수 있다.In step 720, the processor 220 determines the visual effect corresponding to the current and target time points. For example, when the position of the current viewpoint and the position of the target viewpoint are different, the visual effect may be determined to be an image of fade-out and fade-in.

도 8은 일 예에 따른 사용자 인터페이스를 출력하는 방법의 흐름도이다.8 is a flowchart of a method of outputting a user interface according to an example.

도 3을 참조하여 전술된 단계(320)가 수행된 후, 아래의 단계들(810 및 820)이 수행될 수 있다.After step 320 described above with reference to Figure 3 is performed, the following steps 810 and 820 may be performed.

단계(810)에서, 프로세서(220)는 타겟 시점에 대응하는 UI를 결정한다. 예를 들어, 현재의 시점의 위치와 타겟 시점의 위치가 상이한 경우, 사용자가 3D 영상을 조작하기 위한 또는 컨텐츠를 진행하기 위한 UI가 서로 상이할 수 있다.At step 810, the processor 220 determines a UI corresponding to the target time point. For example, when the position of the current point of view is different from the position of the target point of view, the UI for manipulating the 3D image or for moving the content may be different from each other.

단계(820)에서, 프로세서(220)는 결정된 UI를 타겟 시점의 3D 영상 상에 추가로 출력한다. 예를 들어, 타겟 시점에 대응하는 미리 설정된 위치에 UI가 출력될 수 있다.In step 820, the processor 220 additionally outputs the determined UI on the 3D image of the target time point. For example, the UI may be output at a predetermined position corresponding to the target time point.

도 9는 일 예에 따른 오브젝트의 움직임을 표현하는 애니메이션 세트를 결정하고, 오브젝트가 움직이는 속도를 설정하는 방법의 흐름도이다.9 is a flowchart of a method of determining an animation set representing the motion of an object according to an example and setting a moving speed of the object.

도 3을 참조하여 전술된 단계(320)가 수행된 후, 아래의 단계들(910 및 920)이 수행될 수 있다. 단계(910) 및 단계(920)는 병렬적으로 수행될 수 있다.After step 320 described above with reference to Figure 3 is performed, the following steps 910 and 920 may be performed. Steps 910 and 920 may be performed in parallel.

단계(910)에서, 프로세서(220)는 타겟 시점에 대응하도록 오브젝트의 움직임을 표현하는 애니메이션 세트를 결정한다. 오브젝트는 타겟 시점의 3D 영상 내에 위치하고, 오브젝트의 움직임은 컨트롤러로부터 수신한 제어 신호에 의해 제어될 수 있다.At step 910, the processor 220 determines an animation set that represents the motion of the object to correspond to the target time. The object is located in the 3D image of the target time point, and the movement of the object can be controlled by the control signal received from the controller.

예를 들어, 오브젝트는 게임의 캐릭터일 수 있다. 각각의 타겟 시점의 위치에 대해, 애니메이션 세트가 미리 설정될 수 있다. 프로세서(220)는 타겟 시점에 대해 미리 설정된 애니메이션 세트를 결정할 수 있다. 예를 들어, 애니메이션 세트는 해당하는 타겟 시점에서 오브젝트가 움직이는 8방향의 애니메이션들을 포함할 수 있다. 각각의 애니메이션은 ID를 가질 수 있다. 프로세서(220)는 해당하는 ID를 해당 움직임에 설정할 수 있다. 애니메이션 세트에 대해, 아래의 도 10을 참조하여 상세히 설명된다. For example, the object may be a character of the game. For each position of the target time point, the animation set may be preset. The processor 220 may determine a preset animation set for the target viewpoint. For example, the animation set may include eight-way animations in which the object moves at the corresponding target time. Each animation can have an ID. Processor 220 may set the corresponding ID to the corresponding motion. The animation set will be described in detail with reference to FIG. 10 below.

단계(920)에서, 프로세서(220)는 타겟 시점에 대응하도록 오브젝트가 움직이는 속도를 움직임의 방향 별로 설정한다. 예를 들어, 프로세서(220)는 타겟 시점에 대응하는 오브젝트의 움직임의 방향 별로 속도를 설정할 수 있다. 뒤로 가는 움직임의 속도보다 앞으로 가는 움직임의 속도가 더 빠르게 설정될 수 있다.In step 920, the processor 220 sets the speed at which the object moves to correspond to the target time point for each direction of motion. For example, the processor 220 may set the velocity for each direction of movement of the object corresponding to the target time. The speed of the forward movement can be set faster than the speed of the backward movement.

변경된 시점의 위치에 따라, 움직임 제어 신호에 대한 오브젝트의 이동 방향이 달라질 수 있다. 도 10 및 도 11을 참조하여 시점 변경에 대한 오브젝트의 이동 방향에 대해 상세히 설명된다.도 10는 일 예에 따른 애니메이션 세트를 도시한다.The moving direction of the object with respect to the motion control signal can be changed according to the changed position. The direction of movement of the object with respect to the viewpoint change will be described in detail with reference to FIGS. 10 and 11. FIG. 10 shows an animation set according to an example.

도시된 3D 영상은 등 시점 또는 3인칭 시점의 출력 영상일 수 있다. 등 시점 또는 3인칭 시점의 영상 내에 오브젝트(1010)가 출력될 수 있다. 3D 영상의 시점이 등 시점 또는 3인칭 시점인 경우, 가상의 그래픽 환경 내에서의 오브젝트(1010)의 이동 방향은 사용자의 시선의 방향에 영향을 받지 않을 수 있다. 3D 영상의 시점이 등 시점 또는 3인칭 시점인 경우, 생성되는 3D 영상은 가상의 그래픽 환경 내에서 사용자의 시선의 방향에 대응하는 장면일 수 있고, 오브젝트(1010)의 움직임은 컨트롤러로부터 수신한 제어 신호에 대응할 수 있다. 예를 들어, 사용자가 오브젝트(1010)를 중심으로 좌측 방향 및 우측 방향으로 시선을 변경하면서, 컨트롤러의 우측 이동 버튼을 입력하는 경우에도, 오브젝트(1010)는 3D 영상은 가상의 그래픽 환경 내에서 우측으로만 움직일 수 있다.The 3D image shown may be an iso-view or an output image at a third-person viewpoint. The object 1010 may be output in an image at an isochronous or third person view. When the viewpoint of the 3D image is the iso-viewpoint or the third-viewpoint viewpoint, the moving direction of the object 1010 in the virtual graphic environment may not be affected by the direction of the user's gaze. When the viewpoint of the 3D image is the iso-viewpoint or the third-person viewpoint, the generated 3D image may be a scene corresponding to the direction of the user's gaze in the virtual graphic environment, and the movement of the object 1010 may be controlled Signal. For example, even when the user changes the line of sight around the object 1010 in the left direction and the right direction and inputs the right movement button of the controller, the object 1010 can display the 3D image in the right side .

오브젝트(1010)의 시점의 방향(1020)은 북쪽일 수 있다. 오브젝트(1010)가 시점의 방향(1020)으로 움직이는 경우 제1 애니메이션(1031)이 출력될 수 있다. 오브젝트(1010)가 북동쪽으로 움직이는 경우 제2 애니메이션(1032)이 출력될 수 있다. 오브젝트(1010)가 동쪽으로 움직이는 경우 제3 애니메이션(1033)이 출력될 수 있다. 오브젝트(1010)가 남동쪽으로 움직이는 경우 제4 애니메이션(1034)이 출력될 수 있다. 오브젝트(1010)가 남쪽으로 움직이는 경우 제5 애니메이션(1035)이 출력될 수 있다. 오브젝트(1010)가 남서쪽으로 움직이는 경우 제6 애니메이션(1036)이 출력될 수 있다. 오브젝트(1010)가 서쪽으로 움직이는 경우 제7 애니메이션(1037)이 출력될 수 있다. 오브젝트(1010)가 북서쪽으로 움직이는 경우 제8 애니메이션(1038)이 출력될 수 있다. 3인칭 시점에 대한 오브젝트 세트는 제1 애니메이션(1031) 내지 제8 애니메이션(1038)을 포함할 수 있다.The direction 1020 of the viewpoint of the object 1010 may be north. The first animation 1031 may be output when the object 1010 moves in the view direction 1020. [ When the object 1010 moves northeast, the second animation 1032 may be output. When the object 1010 moves east, a third animation 1033 may be output. When the object 1010 moves southeast, a fourth animation 1034 may be output. A fifth animation 1035 may be output if the object 1010 moves south. The sixth animation 1036 may be output when the object 1010 moves southwest. The seventh animation 1037 may be output when the object 1010 moves to the west. When the object 1010 moves northwest, an eighth animation 1038 may be output. The object set for the third person viewpoint may include the first animation 1031 to the eighth animation 1038. [

도 11은 일 예에 사용자의 시선의 방향에 따라 변경된 오브젝트의 움직임을 도시한다.FIG. 11 shows the movement of the object changed according to the direction of the user's gaze in one example.

생성되는 3D 영상은 1인칭 시점 또는 어깨 시점의 출력 영상일 수 있다. 3D 영상의 시점이 1인칭 시점 또는 어깨 시점인 경우, 가상의 그래픽 환경(1100) 내에서의 오브젝트(1110)의 이동 방향(1135)은 사용자의 시선의 방향(1120, 1140)에 영향을 받을 수 있다. 3D 영상의 시점이 1인칭 시점 또는 어깨 시점인 경우, 생성되는 3D 영상(1130, 1150)은 오브젝트(1110)를 기준으로 사용자의 시선의 방향(1120, 1140)에 대응하는 장면일 수 있다.The generated 3D image may be a first person view or an output image at a shoulder view. The moving direction 1135 of the object 1110 in the virtual graphical environment 1100 can be influenced by the direction 1120 and 1140 of the user's gaze when the viewpoint of the 3D image is the first person or the shoulder point have. When the viewpoint of the 3D image is the first person view or the shoulder view, the generated 3D images 1130 and 1150 may be scenes corresponding to the directions 1120 and 1140 of the user's gaze on the basis of the object 1110.

가상의 그래픽 환경(1100) 내에 위치한 오브젝트(1110)는 사용자의 시선의 방향(1120)에 대응하는 가상의 방향을 향할 수 있다. 예를 들어, 사용자의 시선의 방향이 정면인 경우, 오브젝트(1100)는 가상의 그래픽 환경(1100) 내의 북쪽을 향할 수 있다. 사용자의 시선의 방향(1120)에 대응하는 가상의 방향은 초기의 설정에 따라 달라질 수 있다. 예를 들어, 실제의 사용자의 시선의 방향(1120)이 정면을 기준으로 우측인 경우라도, 가상의 그래픽 환경(1100) 내에서의 오브젝트(1100)의 방향은 북쪽으로 설정될 수 있다. 상기의 매칭은 설정에 의해 변경될 수 있다.The object 1110 located within the virtual graphical environment 1100 may be directed in a virtual direction corresponding to the direction 1120 of the user's gaze. For example, if the direction of the user's line of sight is frontal, the object 1100 may point north in the virtual graphical environment 1100. The virtual direction corresponding to the direction 1120 of the user's gaze can be changed according to the initial setting. For example, the direction of the object 1100 in the virtual graphical environment 1100 may be set to the north, even if the direction 1120 of the actual user's gaze is on the right side with respect to the front. The above matching can be changed by setting.

오브젝트(1110)가 북쪽을 향하고 있고, 사용자가 위쪽 이동 버튼을 입력하는 경우, 오브젝트는 그대로 북쪽을 향하여 이동하고, 3D 영상(1130)은 오브젝트가 이동하는 방향의 장면에 대해 생성된다. 상기와 같은 움직임 중간에, 사용자는 여전히 위쪽 이동 버튼을 입력하고 있으나, 사용자의 시선의 방향(1140)이 정면을 기준으로 우측 45도 방향으로 변경될 수 있다. 사용자의 시선의 방향(1140)이 변경된 경우, 오브젝트(1100)는 북쪽에 대해 우측 45도 방향, 즉 북동쪽을 향하여 이동한다. 사용자의 시선의 방향이 정면에서 우측 45도 방향으로 연속적으로 변경된 경우, 오브젝트(1135)는 곡선(1135)의 움직임을 나타낼 수 있다. 사용자의 시선의 방향이 급격하게 변경될수록 곡선(1135)의 곡률이 증가한다.When the object 1110 is oriented to the north and the user inputs the upward movement button, the object is moved toward the north, and the 3D image 1130 is generated for the scene in the direction in which the object moves. In the middle of the above movement, the user still inputs the upward movement button, but the direction 1140 of the user's gaze can be changed to the right 45 degrees with respect to the front face. When the direction 1140 of the user's gaze is changed, the object 1100 moves toward the right 45 degrees toward the north, i.e., toward the northeast. If the direction of the user's line of sight is continuously changed from the front to the right 45 degrees, the object 1135 may represent the movement of the curve 1135. The curvature of the curve 1135 increases as the direction of the user's gaze changes abruptly.

도 12는 일 예에 따른 현재의 시점을 설정하는 방법의 흐름도이다.12 is a flowchart of a method of setting a current time according to an example.

아래의 단계들(1210 및 1220)은 도 3을 참조하여 전술된 단계(310)가 수행되기 전에 수행될 수 있다.The following steps 1210 and 1220 may be performed before step 310, described above with reference to FIG. 3, is performed.

단계(1210)에서, 통신부(210)는 사용자의 머리 방향을 트래킹하는 장치로부터 사용자의 시선의 방향에 대한 정보를 수신한다. 예를 들어, 트래킹 장치가 HMD인 경우, HMD는 HMD를 기준으로 6축의 방향들을 센싱할 수 있다. HMD는 머리의 절대 위치 및 방향을 측정할 수 있다.In step 1210, the communication unit 210 receives information on the direction of the user ' s line of sight from the device that tracks the head direction of the user. For example, when the tracking apparatus is an HMD, the HMD can sense directions of six axes based on the HMD. The HMD can measure the absolute position and orientation of the head.

단계(1220)에서, 프로세서(220)는 사용자의 시선의 방향에 대한 정보에 기초하여 시선의 방향을 현재의 시점으로 설정한다. 예를 들어, 시선의 방향을 시점의 방향으로 설정할 수 있다. HMD를 착용한 사용자의 머리 방향이 우측으로 30도 회전하는 경우, 출력되는 3D 영상의 현재의 시점의 방향도 우측으로 30도 회전할 수 있다. 다시 말하자면, 프로세서(220)는 사용자의 머리 움직임을 트래킹함으로써 현재의 시점을 실시간적으로 조정할 수 있다.At step 1220, the processor 220 sets the direction of the line of sight to the current point of view based on information about the direction of the user's line of sight. For example, the direction of the line of sight can be set to the direction of the viewpoint. When the head direction of the user wearing the HMD rotates 30 degrees to the right, the direction of the current view point of the outputted 3D image can also be rotated 30 degrees to the right. In other words, the processor 220 can adjust the current time point in real time by tracking the head movement of the user.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described with reference to the drawings, various technical modifications and variations may be applied to those skilled in the art. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

200: 3D 영상 처리 장치
210: 통신부
220: 프로세서
230: 메모리
200: 3D image processing device
210:
220: Processor
230: Memory

Claims (30)

3차원(Dimensional: D) 영상을 처리하는 3D 영상 처리 장치에 의해 수행되는,
디스플레이를 통해 출력될 3D 영상의 시점(viewpoint)을 변경하는 입력 신호를 수신하는 단계;
현재의 시점 및 상기 입력 신호에 기초하여 타겟 시점을 결정하는 단계;
상기 타겟 시점의 3D 영상을 생성하는 단계;
상기 현재의 시점 및 상기 타겟 시점에 대응하는 시각 효과를 결정하는 단계;
상기 시각 효과를 출력하는 단계; 및
상기 시각 효과의 출력이 종료된 경우, 상기 타겟 시점의 3D 영상을 출력하는 단계
를 포함하는,
3D 영상 처리 방법.
A 3D image processing apparatus for processing a three-dimensional (D)
Receiving an input signal for changing a viewpoint of a 3D image to be output through a display;
Determining a target time point based on a current time point and the input signal;
Generating a 3D image of the target time point;
Determining a visual effect corresponding to the current viewpoint and the target viewpoint;
Outputting the visual effect; And
Outputting the 3D image of the target time point when the output of the visual effect is finished
/ RTI >
3D image processing method.
제1항에 있어서,
상기 시점을 변경하는 입력 신호는,
상기 시점의 위치를 변경하는 입력 신호 또는 상기 시점의 방향을 변경하는 입력 신호인,
3D 영상 처리 방법.
The method according to claim 1,
The input signal for changing the viewpoint is,
Which is an input signal for changing the position of the viewpoint or an input signal for changing the direction of the viewpoint,
3D image processing method.
제2항에 있어서,
상기 시점의 위치는 1인칭 시점(first person view), 3인칭 시점(third person view), 어깨 시점(shoulder view), 및 등 시점(back view)을 포함하는,
3D 영상 처리 방법.
3. The method of claim 2,
The position of the viewpoint may include a first person view, a third person view, a shoulder view, and a back view.
3D image processing method.
제1항에 있어서,
상기 시각 효과는 상기 현재의 시점의3D 영상에서 상기 타겟 시점의 3D 영상으로 전환하기 위해 출력되는 영상인,
3D 영상 처리 방법.
The method according to claim 1,
Wherein the visual effect is a video output for switching from the current 3D view to the 3D view of the target view,
3D image processing method.
제4항에 있어서,
상기 시각 효과는 상기 현재의 시점의3D 영상을 페이드 아웃(fade out)한 뒤, 상기 타겟 시점의 3D 영상을 페이드 인(fade in)하는 영상인,
3D 영상 처리 방법.
5. The method of claim 4,
Wherein the visual effect is a video that fades out the 3D image at the current time point and then fades in the 3D image at the target time point,
3D image processing method.
제1항에 있어서,
상기 시각 효과를 결정하는 단계는,
상기 현재의 시점 및 상기 타겟 시점에 대응하는 상기 시각 효과의 지속 시간(duration)을 결정하는 단계; 및
상기 현재의 시점 및 상기 타겟 시점에 대응하는 상기 시각 효과를 결정하는 단계
를 포함하는,
3D 영상 처리 방법.
The method according to claim 1,
The step of determining the visual effect comprises:
Determining a duration of the visual effect corresponding to the current viewpoint and the target viewpoint; And
Determining the visual effect corresponding to the current viewpoint and the target viewpoint
/ RTI >
3D image processing method.
제6항에 있어서,
상기 시각 효과의 지속 시간을 결정하는 단계는,
상기 입력 신호가 상기 시점의 방향을 변경하는 신호인 경우, 상기 현재의 시점에 기초하여 상기 지속 시간을 결정하는 단계
를 포함하는,
3D 영상 처리 방법.
The method according to claim 6,
Wherein determining the duration of the visual effect comprises:
Determining the duration based on the current time if the input signal is a signal changing direction of the viewpoint,
/ RTI >
3D image processing method.
제1항에 있어서,
상기 타겟 시점에 대응하는 사용자 인터페이스(User Interface: UI)를 결정하는 단계; 및
상기 UI를 상기 타겟 시점의 3D 영상 상에 추가로 출력하는 단계
를 더 포함하고,
3D 영상 처리 방법.
The method according to claim 1,
Determining a user interface (UI) corresponding to the target time point; And
Further outputting the UI on the 3D image at the target time point
Further comprising:
3D image processing method.
제1항에 있어서,
상기 타겟 시점에 대응하도록 오브젝트(object)의 움직임을 표현하는 애니메이션 세트를 설정하는 단계
를 더 포함하고,
상기 오브젝트는 상기 타겟 시점의 3D 영상 내에 위치하고,
상기 오브젝트의 움직임은 컨트롤러(controller)로부터 수신한 제어 신호에 의해 제어되는,
3D 영상 처리 방법.
The method according to claim 1,
Setting an animation set representing the motion of the object to correspond to the target time point
Further comprising:
The object is located within the 3D image of the target time point,
Wherein the movement of the object is controlled by a control signal received from a controller,
3D image processing method.
제9항에 있어서,
상기 타겟 시점에 대응하도록 상기 오브젝트가 움직이는 속도를 움직임의 방향 별로 설정하는 단계
를 더 포함하는,
3D 영상 처리 방법.
10. The method of claim 9,
Setting a speed at which the object moves so as to correspond to the target time point for each direction of motion
≪ / RTI >
3D image processing method.
제1항에 있어서,
상기 타겟 시점을 결정하는 단계는,
상기 입력 신호를 전송하는 컨트롤러의 식별자(Identification: ID)를 식별하는 단계;
상기 식별자에 기초하여 상기 입력 신호의 명령(command)을 결정하는 단계; 및
상기 현재의 시점 및 상기 명령에 기초하여 상기 타겟 시점을 결정하는 단계
를 포함하는,
3D 영상 처리 방법.
The method according to claim 1,
Wherein the step of determining the target time point comprises:
Identifying an identification (ID) of a controller that transmits the input signal;
Determining a command of the input signal based on the identifier; And
Determining the target time point based on the current time point and the command
/ RTI >
3D image processing method.
제1항에 있어서,
사용자의 머리 방향을 트래킹(tracking)하는 장치로부터 상기 사용자의 시선의 방향에 대한 정보를 수신하는 단계; 및
상기 사용자의 시선의 방향을 상기 현재의 시점으로 설정하는 단계
를 더 포함하는,
3D 영상 처리 방법.
The method according to claim 1,
Receiving information on the direction of the user's gaze from a device that tracks the head direction of the user; And
Setting the direction of the user's gaze to the current time point
≪ / RTI >
3D image processing method.
제12항에 있어서,
사용자의 머리 방향을 트래킹하는 장치는,
웨어러블 장치(wearable device)인,
3D 영상 처리 방법.
13. The method of claim 12,
An apparatus for tracking a user's head direction comprises:
A wearable device,
3D image processing method.
제1항에 있어서,
상기 3D 처리 장치의 플랫폼이 가상 현실 플랫폼(Virtual Reality platform)인지 또는 비-가상 현실 플랫폼(Non-Virtual Reality platform)인지 여부를 결정하는 단계
를 더 포함하고,
상기 타겟 시점의 3D 영상을 생성하는 단계는,
결정된 플랫폼 및 상기 타겟 시점에 대응하는 시야(visual field) 및 초점(focus)에 기초하여 상기 타겟 시점의 3D 영상을 생성하는 단계
를 포함하는,
3D 영상 처리 방법.
The method according to claim 1,
Determining whether the platform of the 3D processing apparatus is a virtual reality platform or a non-virtual reality platform
Further comprising:
Wherein the step of generating the 3D image of the target time point comprises:
Generating a 3D image of the target viewpoint based on a determined platform and a visual field and focus corresponding to the target viewpoint;
/ RTI >
3D image processing method.
제1항 내지 제14항 중 어느 한 항의 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능 기록 매체.
A computer-readable recording medium containing a program for performing the method of any one of claims 1 to 14.
3차원(Dimensional: D) 영상을 처리하는 장치는,
3D 영상을 처리하는 프로그램이 기록된 메모리; 및
상기 프로그램을 수행하는 프로세서
를 포함하고,
상기 프로그램은,
디스플레이를 통해 출력될 3D 영상의 시점(viewpoint)을 변경하는 입력 신호를 수신하는 단계;
현재의 시점 및 상기 입력 신호에 기초하여 타겟 시점을 결정하는 단계;
상기 타겟 시점의 3D 영상을 생성하는 단계;
상기 현재의 시점 및 상기 타겟 시점에 대응하는 시각 효과를 결정하는 단계;
상기 시각 효과를 출력하는 단계; 및
상기 시각 효과의 출력이 종료된 경우, 상기 타겟 시점의 3D 영상을 출력하는 단계
를 수행하는,
3D 영상 처리 장치.
An apparatus for processing a three-dimensional (D)
A memory in which a program for processing a 3D image is recorded; And
The processor
Lt; / RTI >
The program includes:
Receiving an input signal for changing a viewpoint of a 3D image to be output through a display;
Determining a target time point based on a current time point and the input signal;
Generating a 3D image of the target time point;
Determining a visual effect corresponding to the current viewpoint and the target viewpoint;
Outputting the visual effect; And
Outputting the 3D image of the target time point when the output of the visual effect is finished
Lt; / RTI >
3D image processing device.
제16항에 있어서,
상기 시점을 변경하는 입력 신호는,
상기 시점의 위치를 변경하는 입력 신호 또는 상기 시점의 방향을 변경하는 입력 신호인,
3D 영상 처리 장치.
17. The method of claim 16,
The input signal for changing the viewpoint is,
Which is an input signal for changing the position of the viewpoint or an input signal for changing the direction of the viewpoint,
3D image processing device.
제17항에 있어서,
상기 시점의 위치는 1인칭 시점(first person view), 3인칭 시점(third person view), 어깨 시점(shoulder view), 및 등 시점(back view)을 포함하는,
3D 영상 처리 장치.
18. The method of claim 17,
The position of the viewpoint may include a first person view, a third person view, a shoulder view, and a back view.
3D image processing device.
제16항에 있어서,
상기 시각 효과는 상기 현재의 시점의3D 영상에서 상기 타겟 시점의 3D 영상으로 전환하기 위해 출력되는 영상인,
3D 영상 처리 장치.
17. The method of claim 16,
Wherein the visual effect is a video output for switching from the current 3D view to the 3D view of the target view,
3D image processing device.
제19항에 있어서,
상기 시각 효과는 상기 현재의 시점의3D 영상을 페이드 아웃(fade out)한 뒤, 상기 타겟 시점의 3D 영상을 페이드 인(fade in)하는 영상인,
3D 영상 처리 장치.
20. The method of claim 19,
Wherein the visual effect is a video that fades out the 3D image at the current time point and then fades in the 3D image at the target time point,
3D image processing device.
제16항에 있어서,
상기 시각 효과를 결정하는 단계는,
상기 현재의 시점 및 상기 타겟 시점에 대응하는 상기 시각 효과의 지속 시간(duration)을 결정하는 단계; 및
상기 현재의 시점 및 상기 타겟 시점에 대응하는 상기 시각 효과를 결정하는 단계
를 포함하는,
3D 영상 처리 장치.
17. The method of claim 16,
The step of determining the visual effect comprises:
Determining a duration of the visual effect corresponding to the current viewpoint and the target viewpoint; And
Determining the visual effect corresponding to the current viewpoint and the target viewpoint
/ RTI >
3D image processing device.
제21항에 있어서,
상기 시각 효과의 지속 시간을 결정하는 단계는,
상기 입력 신호가 상기 시점의 방향을 변경하는 신호인 경우, 상기 현재의 시점에 기초하여 상기 지속 시간을 결정하는 단계
를 포함하는,
3D 영상 처리 장치.
22. The method of claim 21,
Wherein determining the duration of the visual effect comprises:
Determining the duration based on the current time if the input signal is a signal changing direction of the viewpoint,
/ RTI >
3D image processing device.
제16항에 있어서,
상기 프로그램은,
상기 타겟 시점에 대응하는 사용자 인터페이스(User Interface: UI)의 배치를 변경하는 단계
를 더 수행하고,
상기 UI는 상기 타겟 시점의 3D 영상 상에 추가로 출력되는,
3D 영상 처리 장치.
17. The method of claim 16,
The program includes:
A step of changing a layout of a user interface (UI) corresponding to the target time point
Lt; / RTI >
Wherein the UI is further output on a 3D image of the target time point,
3D image processing device.
제16항에 있어서,
상기 프로그램은,
상기 타겟 시점에 대응하도록 오브젝트(object)의 움직임을 표현하는 애니메이션 세트를 설정하는 단계
를 더 수행하고,
상기 오브젝트는 상기 타겟 시의 3D 영상 내에 위치하고,
상기 오브젝트의 움직임은 컨트롤러(controller)로부터 수신한 제어 신호에 의해 제어되는,
3D 영상 처리 장치.
17. The method of claim 16,
The program includes:
Setting an animation set representing the motion of the object to correspond to the target time point
Lt; / RTI >
The object is located within the 3D image of the target time,
Wherein the movement of the object is controlled by a control signal received from a controller,
3D image processing device.
제24항에 있어서,
상기 프로그램은,
상기 타겟 시점에 대응하도록 상기 오브젝트가 움직이는 속도를 움직임의 방향 별로 설정하는 단계
를 더 수행하는,
3D 영상 처리 방법.
25. The method of claim 24,
The program includes:
Setting a speed at which the object moves so as to correspond to the target time point for each direction of motion
Lt; / RTI >
3D image processing method.
제16항에 있어서,
상기 타겟 시점을 결정하는 단계는,
상기 입력 신호를 전송하는 컨트롤러의 식별자(Identification: ID)를 식별하는 단계;
상기 식별자에 기초하여 상기 입력 신호의 명령(command)을 결정하는 단계; 및
상기 현재의 시점 및 상기 명령에 기초하여 상기 타겟 시점을 결정하는 단계
를 포함하는,
3D 영상 처리 장치.
17. The method of claim 16,
Wherein the step of determining the target time point comprises:
Identifying an identification (ID) of a controller that transmits the input signal;
Determining a command of the input signal based on the identifier; And
Determining the target time point based on the current time point and the command
/ RTI >
3D image processing device.
제16항에 있어서,
상기 프로그램은,
사용자의 머리 방향을 트래킹(tracking)하는 장치로부터 상기 사용자의 시선의 방향에 대한 정보를 수신하는 단계; 및
상기 사용자의 시선의 방향을 상기 현재의 시점으로 설정하는 단계
를 더 수행하는,
3D 영상 처리 장치.
17. The method of claim 16,
The program includes:
Receiving information on the direction of the user's gaze from a device that tracks the head direction of the user; And
Setting the direction of the user's gaze to the current time point
Lt; / RTI >
3D image processing device.
제27항에 있어서,
사용자의 머리 방향을 트래킹하는 장치는,
웨어러블 장치(wearable device)인,
3D 영상 처리 장치.
28. The method of claim 27,
An apparatus for tracking a user's head direction comprises:
A wearable device,
3D image processing device.
제16항에 있어서,
상기 프로그램은,
상기 3D 영상 처리 장치의 플랫폼이 가상 현실 플랫폼(Virtual reality platform)인지 또는 비-가상 현실 플랫폼(Non-Virtual reality platform)인지 여부를 결정하는 단계
를 더 수행하고,
상기 타겟 시점의 3D 영상을 생성하는 단계는,
결정된 플랫폼 및 상기 타겟 시점에 대응하는 시야(visual field) 및 초점(focus)에 기초하여 상기 타겟 시점의 3D 영상을 생성하는 단계
를 포함하는,
3D 영상 처리 장치.
17. The method of claim 16,
The program includes:
Determining whether the platform of the 3D image processing apparatus is a virtual reality platform or a non-virtual reality platform,
Lt; / RTI >
Wherein the step of generating the 3D image of the target time point comprises:
Generating a 3D image of the target viewpoint based on a determined platform and a visual field and focus corresponding to the target viewpoint;
/ RTI >
3D image processing device.
데이터 처리 장치에 의해 실행되는 3차원(Dimensional: D) 영상 처리 어플리케이션에 있어서,
상기 데이터 처리 장치가,
디스플레이를 통해 출력될 3차원(Dimensional: D) 영상의 시점(viewpoint)을 변경하는 입력 신호를 수신하는 단계;
현재의 시점 및 상기 입력 신호에 기초하여 타겟 시점을 결정하는 단계;
상기 타겟 시점의 3D 영상을 생성하는 단계;
상기 현재의 시점 및 상기 타겟 시점에 대응하는 시각 효과를 결정하는 단계;
상기 시각 효과를 출력하는 단계; 및
상기 시각 효과의 출력이 종료된 경우, 상기 타겟 시점의 3D 영상을 출력하는 단계
를 실행하도록 상기 데이터 처리 장치를 제어하는,
3D 영상 처리 어플리케이션.
In a three-dimensional (D: D) image processing application executed by a data processing apparatus,
The data processing apparatus comprising:
Receiving an input signal for changing a viewpoint of a three-dimensional (D) image to be output through a display;
Determining a target time point based on a current time point and the input signal;
Generating a 3D image of the target time point;
Determining a visual effect corresponding to the current viewpoint and the target viewpoint;
Outputting the visual effect; And
Outputting the 3D image of the target time point when the output of the visual effect is finished
The data processing apparatus comprising:
3D image processing application.
KR1020170057034A 2017-05-04 2017-05-04 Method and apparatus for processing 3 dimensional image KR20180122869A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170057034A KR20180122869A (en) 2017-05-04 2017-05-04 Method and apparatus for processing 3 dimensional image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170057034A KR20180122869A (en) 2017-05-04 2017-05-04 Method and apparatus for processing 3 dimensional image

Publications (1)

Publication Number Publication Date
KR20180122869A true KR20180122869A (en) 2018-11-14

Family

ID=64328366

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170057034A KR20180122869A (en) 2017-05-04 2017-05-04 Method and apparatus for processing 3 dimensional image

Country Status (1)

Country Link
KR (1) KR20180122869A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210059396A (en) * 2019-11-15 2021-05-25 주식회사 더블유씨지 Apparatus and method for directing virtual reality video
WO2022260301A1 (en) * 2021-06-09 2022-12-15 주식회사 뉴코어 Vr content rendering apparatus and method for providing bird's-eye viewpoint

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210059396A (en) * 2019-11-15 2021-05-25 주식회사 더블유씨지 Apparatus and method for directing virtual reality video
WO2022260301A1 (en) * 2021-06-09 2022-12-15 주식회사 뉴코어 Vr content rendering apparatus and method for providing bird's-eye viewpoint
US11779841B2 (en) 2021-06-09 2023-10-10 Newcore Corp. Device and method for rendering VR content that provide bird's eye view perspectives

Similar Documents

Publication Publication Date Title
JP7181316B2 (en) Eye Tracking with Prediction and Latest Updates to GPU for Fast Foveal Rendering in HMD Environments
US11962954B2 (en) System and method for presenting virtual reality content to a user
JP7164630B2 (en) Dynamic Graphics Rendering Based on Predicted Saccade Landing Points
US11861059B2 (en) System and method for generating a virtual reality scene based on individual asynchronous motion capture recordings
CN112470483B (en) Multi-server cloud Virtual Reality (VR) streaming
EP3427130B1 (en) Virtual reality
CN106873767B (en) Operation control method and device for virtual reality application
JP6342038B1 (en) Program for providing virtual space, information processing apparatus for executing the program, and method for providing virtual space
CN106445157B (en) Method and device for adjusting picture display direction
CN115335894A (en) System and method for virtual and augmented reality
WO2020218131A1 (en) Image forming device and information presenting method
CN115298732A (en) System and method for multi-user virtual and augmented reality
KR20180122869A (en) Method and apparatus for processing 3 dimensional image
WO2019078833A1 (en) Stabalized and tracked enhanced reality images
US20240078767A1 (en) Information processing apparatus and information processing method
JP7423781B2 (en) VR amusement programs and equipment
JP2019032715A (en) Information processing method, device, and program for causing computer to execute the method
JP2019036122A (en) Information processing method, program and computer
CN117930983A (en) Display control method, device, equipment and medium
WO2018234318A1 (en) Reducing simulation sickness in virtual reality applications
JP2018120587A (en) Communication method through virtual space, program causing computer to execute method, and information processing device to execute program
JP2018200688A (en) Program to provide virtual space, information processing device to execute the same and method for providing virtual space

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right