WO2016204323A1 - User view point-linked image processing device and method therefor - Google Patents

User view point-linked image processing device and method therefor Download PDF

Info

Publication number
WO2016204323A1
WO2016204323A1 PCT/KR2015/006113 KR2015006113W WO2016204323A1 WO 2016204323 A1 WO2016204323 A1 WO 2016204323A1 KR 2015006113 W KR2015006113 W KR 2015006113W WO 2016204323 A1 WO2016204323 A1 WO 2016204323A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
image
parameter
virtual camera
posture
Prior art date
Application number
PCT/KR2015/006113
Other languages
French (fr)
Korean (ko)
Inventor
최광진
박영준
나경건
Original Assignee
(주)에프엑스기어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)에프엑스기어 filed Critical (주)에프엑스기어
Priority to PCT/KR2015/006113 priority Critical patent/WO2016204323A1/en
Publication of WO2016204323A1 publication Critical patent/WO2016204323A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]

Definitions

  • the present invention relates to an image processing apparatus and method, and more particularly, to detect a movement of a viewpoint of a user using various sensors and to change a part of an image provided to the user so as to correspond to the movement of the viewpoint of the user. It relates to an image processing apparatus and a method.
  • the user changes a portion of the image displayed through a keyboard or a touch operation, but such a change is inconvenient in that the user has to perform a separate input action.
  • an apparatus for synchronizing user views may include: a sensor unit configured to generate a motion data by detecting a change in a viewpoint of a user, a communication interface unit receiving an image package including image data from a media server; By using the image package, using a scene configuration unit for arranging a virtual camera in the virtual space and constituting a scene for the image data and the motion data, of the arranged virtual camera to correspond to a change in the viewpoint of the user And a virtual camera posture converting unit configured to convert postures.
  • the posture of the virtual camera may include a direction or a position of the virtual camera.
  • the sensor unit for detecting a change in the viewpoint of the user may include at least one of a gyro sensor, an acceleration sensor, an inertial measurement unit (IMU) sensor, a global positioning system (GPS) sensor, and a vision sensor. It may be characterized by including.
  • the image package further includes a camera parameter for posture conversion of a virtual camera, and the camera parameter is a parameter for an actual camera that captures an image of the image data. It can be characterized.
  • the virtual camera posture converting unit may convert the posture of the arranged camera by using the motion data and the camera parameter.
  • the image data may include at least one of a wide viewing angle streaming image and a stereoscopic image.
  • the user-view linked image processing apparatus further includes a projection geometry generation unit that generates projection geometry for outputting a wide viewing angle image by using camera parameters of an actual camera that captures the image of the image data.
  • the generation unit may generate the projection geometry by correcting the vertex or texture coordinates of the reference geometry by using the camera parameter and transforming the corrected reference geometry into a curved shape.
  • the camera parameter may include at least one of a camera lens parameter, a camera stabilization parameter, and a stereo camera rig misalignment correction parameter. .
  • the scene configuration unit may adjust the scene by dynamically adjusting the position of the virtual camera using the camera stabilization parameter.
  • the user-view linked image processing apparatus may further include an image rendering unit which renders at least a part of the scene viewed by the virtual camera in real time in the converted camera posture and displays it on a display unit.
  • a user view linked image providing media server comprises: an image package storage unit having an image package including image data and camera parameters for posture conversion of a virtual camera, and another image package terminal; It includes a communication interface for transmitting to the, wherein the camera parameter may be characterized in that the parameter for the actual camera that captured the image of the image data.
  • the posture of the virtual camera may include a direction or a position of the virtual camera.
  • the image data may include at least one of a wide viewing angle streaming image and a stereoscopic 3D in the user view linked image providing media server.
  • the camera parameter may include at least one of a camera lens parameter, a camera stabilization parameter, and a stereo camera rig misalignment correction parameter in the user viewpoint linked image providing media server. have.
  • a method of synchronizing user views with a user by generating a motion data by detecting a change in a user's viewpoint by a sensor, and transmitting image data from a media server by a communication interface unit.
  • Receiving an image package comprising a step of placing a scene and a virtual camera for the image data in a virtual space using the image package, and using the motion data, to correspond to a change in the viewpoint of the user And converting the pose of the arranged virtual camera.
  • the posture of the virtual camera may include a direction or a position of the virtual camera.
  • the image package further includes a camera parameter for posture conversion of the virtual camera, wherein the camera parameter is a parameter for an actual camera that captured the image of the image data. It can be characterized.
  • the converting the posture of the arranged virtual camera may include changing the posture of the virtual camera using the motion data and the camera parameter. Can be.
  • the image data may include at least one of a wide viewing angle streaming image and a stereoscopic 3D image.
  • the method may further include displaying, on a display unit, at least a part of the scene viewed by the virtual camera in real time in the converted virtual camera posture.
  • the part of the image displayed to correspond to the changed viewpoint may be changed. Accordingly, a separate input action using a hand is not required, and since a portion of an image displayed according to movement of a viewpoint is different, an intuitive user experience can be provided as compared with the prior art.
  • FIG. 1 is a block diagram of a user view (VIEW POINT) linked image processing apparatus according to an embodiment of the present invention.
  • FIG. 2 is a view for explaining the operation of the sensor unit 100 according to an embodiment.
  • FIG. 3 is a conceptual diagram illustrating a configuration of an image package 10 according to an embodiment of the present invention.
  • FIG. 4 is a view for explaining the operation of the scene and the virtual camera in a virtual space according to an embodiment of the present invention.
  • 5A to 5E are diagrams for describing projection geometry projection and texturing according to a vertex transformation method of projection geometry, according to an exemplary embodiment.
  • 6A through 6E are diagrams for describing projection geometry projection and texturing according to a texture coordinate transformation method of projection geometry, according to an exemplary embodiment.
  • FIG. 7 is a diagram illustrating a network environment including a viewpoint-linked video providing media server according to an embodiment of the present invention.
  • FIG. 8 is a flowchart of a user view linked image processing method according to an embodiment of the present invention.
  • Embodiments described herein may have aspects that are wholly hardware, partly hardware and partly software, or wholly software.
  • unit “module”, “device” or “system” and the like refer to hardware, a combination of hardware and software, or a computer related entity such as software.
  • parts, modules, devices, or systems herein refer to running processes, processors, objects, executables, threads of execution, programs, and / or computers. computer, but is not limited thereto.
  • both an application running on a computer and a computer may correspond to a part, module, device, system, or the like herein.
  • Embodiments have been described with reference to the flowchart presented in the drawings. Although the method is shown and described in a series of blocks for the sake of simplicity, the invention is not limited to the order of the blocks, and some blocks may occur in different order or simultaneously with other blocks than those shown and described herein. Various other branches, flow paths, and blocks may be implemented in order to achieve the same or similar results. In addition, not all illustrated blocks may be required for the implementation of the methods described herein. Furthermore, the method according to an embodiment of the present invention may be implemented in the form of a computer program for performing a series of processes, which may be recorded on a computer-readable recording medium.
  • the user-view linked image processing apparatus 1000 may include the sensor unit 100, the communication interface unit 200, the scene composition unit 300, and the virtual camera posture converting unit 400. Include. In another embodiment, the user-view linked image processing apparatus 1000 may further include at least one of the projection geometry generator 500, the image renderer 600, and the display 700.
  • the sensor unit 100 generates motion data by detecting a change in viewpoint of a user.
  • the sensor unit 100 may detect a direction in which the user's eyes are directed or a current location of the user, and track the changed direction or location.
  • the sensor unit 100 may include a gyro sensor, an acceleration sensor, an inertial measurement unit (IMU) sensor, a global positioning system (GPS) sensor, and a vision sensor, and mix at least one of the aforementioned sensors. It may be included.
  • the sensor unit 100 may detect a change in a user's viewpoint by using the vision sensor and the IMU sensor together. In this case, the sensor unit may use a method of unifying the coordinate system by calibrating the information obtained from the two sensors.
  • a charged coupled device (CCD) sensor a pinned photo diode (PPD), a charge and injection device (CID), an active pixel sensor (APS), and an active column sensor (ACS) may be used.
  • Optical motion tracking can be used.
  • the motion data includes orientation information in which the viewpoint of the user is changed in the real space.
  • the motion data may further include location information of the user's viewpoint.
  • the motion data is data which is the basis for changing the direction or the position to which the virtual camera existing in the virtual space faces.
  • the sensor unit 100 may measure the amount of the viewing direction (that is, the viewpoint).
  • a sensor may be attached to the user's head, and in another embodiment, the user's viewpoint may be detected using image data without being attached to the user's body.
  • the sensor unit 100 may include a pupil tracking sensor to locate the pupil tracking sensor in the vicinity of the user's eyeball, and detect the user's viewpoint change by capturing the pupil of the user.
  • the communication interface 200 receives a video package containing video data from the media server.
  • the media server is a server that provides an image package to the user-view linked image processing apparatus 1000 and may have various image contents.
  • the media server may be a server that YOUTUBE®, GOOGLE®, ITUNES®, etc. use to provide multimedia contents to the user.
  • the communication interface 200 may receive an image package from a media server through a network.
  • the network uses standard communication technologies / protocols.
  • the network 3000 may be configured for Ethernet, 802.11, worldwide interoperability for microwave access (WiMAX), 2G / 3G / 4G, digital subscriber line (DSL), asynchronous transfer mode (ATM).
  • the networking protocol used on the network 3000 may include multiprotocol label switching (MPLS), transmission control protocol / Internet protocol (TCP / IP), user datagrams.
  • MPLS multiprotocol label switching
  • TCP / IP transmission control protocol
  • UDP User datagram protocol
  • HTTP hypertext transport protocol
  • SMTP simple mail transfer protocol
  • FTP file transfer protocol
  • the data exchanged on the network may be in binary form (e.g., Portable Network Graphics (PNG)), hypertext markup language (HTML), extensible markup. or a description and / or format including image data within a language (XML) or the like.
  • some or all of the links may be secure sockets layer (SSL), transport layer security (TLS), virtual private networks (VPNs), Internet Protocol security (IPsec). It can be encrypted using conventional encryption techniques such as.
  • the image package 10 may include image data 11 and camera parameters 12.
  • the image package may be one electronic file.
  • the image data refers to media content content itself for providing to the user.
  • the image data may include at least one of a streaming image and a stereoscopic image (S3D), and the image may be a wide viewing angle image.
  • the image data may be rendered and used to visually present the image to the user.
  • the image package may further include a camera parameter for posture conversion of the virtual camera.
  • the camera parameter may be a parameter for an actual camera photographing the image data, and may include at least one of a camera lens parameter lens, a camera stabilization parameter, and a stereo camera rig misalignment correction parameter.
  • the stereo camera rig error correction parameter may be included in a camera parameter when the image data is a stereo image (S3D).
  • the camera parameter 12 may function as a kind of parameter for executing a transformation command of the pose of the virtual camera in response to a change in the viewpoint of the user.
  • the scene configuration unit 300 may place a virtual camera in a virtual space and configure a scene for the image data using the image package.
  • the scene composition unit 300 may texture the image data on the projection geometry 22 projected on the virtual space R.
  • the image data 11 is encoded when received by the communication interface 200, but may be decoded and textured by the scene composition unit.
  • the textured image is generally provided to the user through the display device. That is, according to the prior art, the position of the virtual camera is fixed but does not change according to the user's motion, and the image is displayed at the fixed time point.
  • the virtual camera posture converting unit 400 may convert the posture of the arranged virtual camera to correspond to the change of viewpoint of the user by using the motion data and the camera parameter. Since the camera parameter 12 includes a camera lens parameter or a camera stabilization parameter for an actual camera, the virtual camera pose converting unit 400 uses the camera parameter 12 and the motion data to determine the virtual camera in the virtual space. Position and direction can be controlled.
  • a portion of the image input to the virtual camera for the textured image may be region 23.
  • the image data 11 includes a wide viewing angle image or depending on the position of the virtual camera, the entire image may not be input to the virtual camera.
  • the sensor unit 100 detects the user's movement of the viewpoint and the virtual camera pose converting unit 400 performs the motion data and the camera parameters.
  • the posture of the virtual camera in the virtual space may be converted (move by vector M in FIG. 4) in response to the movement of the user.
  • the position of the virtual camera is shifted.
  • the position of the virtual camera does not move, and only the direction of the virtual camera may be changed.
  • the position and orientation may change together.
  • the portion of the image inputted to the virtual camera in the posture 21 becomes the area 30, and the virtual camera converter 400 determines that the virtual camera corresponds to the change of the user's field of view.
  • the virtual camera moves to the posture 21 ', and one area input to the virtual camera is moved to the area 24.
  • the area input to the virtual camera changes according to the conversion of the camera posture, and the user Moves his viewpoint to track and view the desired part of the image.
  • the user-view linked image processing apparatus 1000 may include a projection geometry generator configured to generate projection geometry for outputting a wide viewing angle image using camera parameters of an actual camera that captures an image of the image data. 500) may be further included.
  • the projection geometry generation unit 500 may generate the projection geometry by correcting the vertex or texture coordinates of the reference geometry by using the camera parameter and transforming the corrected reference geometry into a curved surface.
  • the camera parameter may include at least one of a lens parameter, a camera stabilization parameter, and a stereo camera rig error correction parameter.
  • the stereo camera rig error correction parameter may be included in a camera parameter when the image data is a stereo image (S3D).
  • 5A and 5E are diagrams for describing projection geometry projection and texturing according to a vertex transformation method of projection geometry, according to an exemplary embodiment.
  • the projection geometry generator 500 may generate the corrected projection geometry by converting the vertex of the reference projection geometry by using the camera lens parameter.
  • reference projection geometry 31 is shown together for comparison with the generated projection geometry 32.
  • the projection geometry 32 in which the vertices are converted has a shape where the edge is curved and is compressed based on the center.
  • the textured image appears as shown in FIG. 5B without distortion. For example, straight lines of the subject appear as straight lines in the textured image.
  • the scene configuration unit 300 arranges the projection geometry 32 in the virtual space.
  • the concave curved projection geometry shown in FIG. 5B may be unfolded as shown in FIGS. 5C and 5D.
  • FIG. 65 shows a state of texturing an image captured on the projected projection geometry
  • FIG. 5E shows a state of displaying the textured image from the front at the same angle of view as the camera's angle of view when the image is captured.
  • FIGS. 6A through 6E are diagrams for describing projection and texturing of projection geometry according to a texture coordinate transformation method of projection geometry, according to an exemplary embodiment.
  • the texture coordinates are coordinates in which the image is textured and are independent of the shape of the projection geometry.
  • the projection geometry 42 does not change the shape of the reference projection geometry.
  • the image textured on the projection geometry shows a shape inwardly distorted rather than rectangular.
  • FIG. 6C when the projection geometry 42 having the texture coordinates corrected is disposed on a spherical surface in the virtual space, and the image is rendered to the projection geometry 42 to render, the image is output as shown in FIG. 6D.
  • 6E shows a state in which the textured image is displayed from the front at the same angle of view as the camera angle when the image is captured. Through this process, the wide viewing angle image can be represented on the spherical surface of the virtual space without distortion.
  • the scene configuration unit 300 dynamically adjusts the position of the virtual camera in the virtual space by using a camera parameter (eg, a camera lens parameter or a camera stabilization parameter) to render a corrected image. Can be corrected.
  • the scene configuration unit 300 may correct the scene by converting the projection geometry while the virtual camera is fixed. For example, the projection geometry can be moved in the up, down, left, right, or yaw, pitch, and roll directions.
  • the scene configuration unit 300 may correct the scene by dynamically adjusting the position of the virtual camera using the camera stabilization parameter.
  • the adjustment of the position of the virtual camera may occur on a smaller scale than the movement of the viewpoint of the user, and the distortion correction is also aimed at adjusting the virtual camera.
  • the user-view linked image processing apparatus 1000 further includes an image rendering unit 700 which renders at least a part of the scene viewed by the virtual camera in the converted camera posture in real time and displays it on a display unit. It may include.
  • the image rendering unit 700 serves to allow a user to actually view an image through the display unit.
  • the user-view linked image processing apparatus 1000 may further include a display unit 800, and the display unit 800 may include any display device such as an LCD, an OLED, a PDP, and a touch screen. May be
  • the viewpoint-linked image providing media server 2000 may provide an image package to another device through a network.
  • the other device may include various terminals such as a smart phone 2001, a laptop 2002, a head mounted display (HMD) device 2003, a smart glass, and the like.
  • the other device may be included in the user-view linked image processing apparatus 1000 described above.
  • the posture of the virtual camera may include a direction or a position of the virtual camera, and the image data may be at least one of a wide viewing angle streaming image and a stereo image S3D.
  • the viewpoint-linked image providing media server includes an image package storage unit having an image package including image data and camera parameters for posture conversion of a virtual camera, and a communication interface unit transmitting the image package to another terminal.
  • the camera parameter is a parameter for an actual camera that captures an image of the image data, and the detailed description thereof is as described above.
  • a sensor in the user-interview-linked image processing method, is configured to detect motion of a user's viewpoint and generate motion data (S10).
  • the image includes image data from a media server by a communication interface unit.
  • the posture of the virtual camera may include a direction or a position of the virtual camera. That is, in response to the user's viewpoint change, the virtual camera may move or move closer to the textured scene.
  • the direction of the virtual camera may change in response to a change in the viewpoint of the user.
  • the image package may further include a camera parameter for posture conversion of the virtual camera, and the camera parameter may be a parameter for an actual camera that captures an image of the image data.
  • the image data may include a wide viewing angle streaming image.
  • the converting the pose of the arranged virtual camera may include: changing the pose of the virtual camera based on using the motion data and the camera parameter. Can be.
  • the step may be executed by the virtual camera pose converting unit.
  • the method may further include displaying, on a display unit, at least a part of the scene viewed by the virtual camera in real time in the transformed virtual camera posture.
  • the part of the image displayed to correspond to the changed viewpoint may be changed. Accordingly, a separate input action using a hand is not required, and since a portion of an image displayed according to movement of a viewpoint is different, an intuitive user experience can be provided as compared with the prior art.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Disclosed are a user view point-linked image processing device and a using method therefor, the device comprising: a sensor unit for generating motion data by sensing a change in the view point of a user; a communication interface unit for receiving an image package including image data from a media server; a scene formation unit for arranging a virtual camera in a virtual space and forming a scene with respect to the image data, by using the image package; and a virtual camera positioning change unit for changing the positioning of the arranged virtual camera by using the motion data, such that the positioning corresponds to the change in the view point of the user.

Description

사용자 시점 연동형 영상 처리 장치 및 그 방법User viewpoint linked image processing device and method
본 발명은 영상 처리 장치 및 방법에 관련된 것으로, 더욱 구체적으로는 다양한 센서를 이용하여 사용자의 시점 이동을 감지하고, 사용자의 시점 이동에 대응하도록 사용자에게 제공되는 영상의 부분을 변경하는 사용자 시점 연동형 영상 처리 장치 및 방법에 관련된다.The present invention relates to an image processing apparatus and method, and more particularly, to detect a movement of a viewpoint of a user using various sensors and to change a part of an image provided to the user so as to correspond to the movement of the viewpoint of the user. It relates to an image processing apparatus and a method.
일반적으로, 카메라와 같은 광학 장치를 이용하여 영상을 촬영하고, 촬영된 영상을 디스플레이함에 있어서, 광 시야각 영상과 같이 사용자의 시야에 모든 장면에 들어오지 않는 영상을 시청하는 경우, 현재 사용자의 시야에 들어오지 않는 화면을 보기 위해서 표시되는 영상의 부분을 이동시켜야 한다. In general, when taking an image using an optical device such as a camera and displaying the captured image, when viewing an image that does not enter every scene in the user's field of view, such as a wide viewing angle image, the image does not enter the field of view of the current user. You need to move the part of the image that is displayed to see the screen.
종래에는 이와 같은 경우에 사용자가 키보드 또는 터치 조작을 통해서 표시되는 영상의 부분을 변경하였으나, 이러한 변경은 사용자가 별도의 입력 행위를 해야 하는 점에서 불편하다. Conventionally, in this case, the user changes a portion of the image displayed through a keyboard or a touch operation, but such a change is inconvenient in that the user has to perform a separate input action.
선행기술 : 한국공개특허 10-2008-0022544Prior Art: Korean Patent Publication 10-2008-0022544
이와 같은 문제점을 해결하기 위해서, 사용자가 의도한 방향 또는 위치로 표시되는 영상의 부분을 변경함에 있어서, 별도의 조작행위가 요구되지 않는 방법이 필요하다.In order to solve such a problem, there is a need for a method in which a separate operation is not required in changing a part of an image displayed in a direction or a position intended by a user.
본 발명의 일 실시예에 따른 사용자 시점 연동형 영상 처리 장치는, 사용자의 시점 변화를 감지하여 모션 데이터를 생성하는 센서부, 미디어 서버로부터, 영상 데이터를 포함하는 영상 패키지를 수신하는 통신 인터페이스부, 상기 영상 패키지를 이용하여, 가상 공간상에 가상 카메라를 배치하고 상기 영상 데이터에 대한 장면을 구성하는 장면 구성부 및 상기 모션 데이터를 이용하여, 상기 사용자의 시점 변화에 대응하도록 상기 배치된 가상 카메라의 자세를 변환하는 가상 카메라 자세 변환부를 포함한다.In accordance with one embodiment of the present invention, an apparatus for synchronizing user views may include: a sensor unit configured to generate a motion data by detecting a change in a viewpoint of a user, a communication interface unit receiving an image package including image data from a media server; By using the image package, using a scene configuration unit for arranging a virtual camera in the virtual space and constituting a scene for the image data and the motion data, of the arranged virtual camera to correspond to a change in the viewpoint of the user And a virtual camera posture converting unit configured to convert postures.
또한 상기 사용자 시점 연동형 영상 처리 장치에서, 상기 가상 카메라의 자세는 가상 카메라의 방향 또는 위치를 포함하는 것을 특징으로 할 수 있다. In addition, in the user-view linked image processing apparatus, the posture of the virtual camera may include a direction or a position of the virtual camera.
또한 상기 사용자 시점 연동형 영상 처리 장치에서, 상기 사용자의 시점 변화를 감지하는 센서부는, 자이로 센서, 가속도 센서, IMU(Inertial Measurement Unit) 센서, GPS(Global Positioning System) 센서 및 비전센서 중 적어도 하나를 포함하는 것을 특징으로 할 수 있다.The sensor unit for detecting a change in the viewpoint of the user may include at least one of a gyro sensor, an acceleration sensor, an inertial measurement unit (IMU) sensor, a global positioning system (GPS) sensor, and a vision sensor. It may be characterized by including.
또한 상기 사용자 시점 연동형 영상 처리 장치에서, 상기 영상 패키지는, 가상 카메라의 자세 변환을 위한 카메라 파라미터를 더 포함하고, 상기 카메라 파라미터는, 상기 영상 데이터의 영상을 촬영한 실제 카메라에 대한 파라미터인 것을 특징으로 할 수 있다.In addition, in the user-view linked image processing apparatus, the image package further includes a camera parameter for posture conversion of a virtual camera, and the camera parameter is a parameter for an actual camera that captures an image of the image data. It can be characterized.
또한 상기 사용자 시점 연동형 영상 처리 장치에서, 상기 가상 카메라 자세 변환부는, 상기 모션 데이터 및 상기 카메라 파라미터를 이용하여 상기 배치된 카메라의 자세를 변환하는 것을 특징으로 할 수 있다.The virtual camera posture converting unit may convert the posture of the arranged camera by using the motion data and the camera parameter.
또한 상기 사용자 시점 연동형 영상 처리 장치에서, 상기 영상 데이터는 광 시야각 스트리밍 영상 및 스테레오 영상(Stereoscopic 3D) 중 적어도 하나를 포함하는 것을 특징으로 할 수 있다.In addition, in the user-view linked image processing apparatus, the image data may include at least one of a wide viewing angle streaming image and a stereoscopic image.
또한 상기 사용자 시점 연동형 영상 처리 장치는, 상기 영상 데이터의 영상을 촬영한 실제 카메라에 대한 카메라 파라미터를 이용하여 광 시야각 영상 출력을 위한 프로젝션 지오메트리를 생성하는 프로젝션 지오메트리 생성부를 더 포함하고, 상기 프로젝션 지오메트리 생성부는, 상기 카메라 파라미터를 이용하여 기준 지오메트리의 버텍스 또는 텍스처 좌표를 보정하고, 보정된 기준 지오메트리를 곡면 형태로 변형하여 상기 프로젝션 지오메트리를 생성하는 것을 특징으로 할 수 있다.In addition, the user-view linked image processing apparatus further includes a projection geometry generation unit that generates projection geometry for outputting a wide viewing angle image by using camera parameters of an actual camera that captures the image of the image data. The generation unit may generate the projection geometry by correcting the vertex or texture coordinates of the reference geometry by using the camera parameter and transforming the corrected reference geometry into a curved shape.
또한 상기 사용자 시점 연동형 영상 처리 장치에서, 상기 카메라 파라미터는, 카메라 렌즈 파라미터, 카메라 안정화(stabilization) 파라미터 및 스테레오 카메라 리그 오차(camera rig misalignment) 보정 파라미터 중 적어도 하나를 포함하는 것을 특징으로 할 수 있다.In the user-view linked image processing apparatus, the camera parameter may include at least one of a camera lens parameter, a camera stabilization parameter, and a stereo camera rig misalignment correction parameter. .
또한 상기 사용자 시점 연동형 영상 처리 장치에서, 상기 장면 구성부는, 상기 카메라 안정화 파라미터를 이용하여 상기 가상 카메라의 위치를 동적으로 조절하여 상기 장면을 보정하는 것을 특징으로 할 수 있다.In the user-view linked image processing apparatus, the scene configuration unit may adjust the scene by dynamically adjusting the position of the virtual camera using the camera stabilization parameter.
또한 상기 사용자 시점 연동형 영상 처리 장치는, 상기 변환되는 카메라 자세에서 상기 가상 카메라에의해 보여지는 상기 장면의 적어도 일부를 실시간 렌더링하여 표시부에 표시하는 영상 렌더링부를 더 포함하는 것을 특징으로 할 수 있다.The user-view linked image processing apparatus may further include an image rendering unit which renders at least a part of the scene viewed by the virtual camera in real time in the converted camera posture and displays it on a display unit.
본 발명의 다른 일 실시예에 따른 사용자 시점 연동형 영상 제공 미디어 서버는, 영상 데이터 및 가상 카메라의 자세 변환을 위한 카메라 파라미터를 포함하는 영상 패키지를 보유하는 영상 패키지 저장부 및 상기 영상 패키지를 타 단말기에 전송하는 통신 인터페이스부를 포함하되, 상기 카메라 파라미터는 상기 영상 데이터의 영상을 촬영한 실제 카메라에 대한 파라미터인 것을 특징으로 할 수 있다.In accordance with another aspect of the present invention, a user view linked image providing media server comprises: an image package storage unit having an image package including image data and camera parameters for posture conversion of a virtual camera, and another image package terminal; It includes a communication interface for transmitting to the, wherein the camera parameter may be characterized in that the parameter for the actual camera that captured the image of the image data.
또한 상기 사용자 시점 연동형 영상 제공 미디어 서버에서, 상기 가상 카메라의 자세는 가상 카메라의 방향 또는 위치를 포함하는 것을 특징으로 할 수 있다.In addition, in the user-view linked image providing media server, the posture of the virtual camera may include a direction or a position of the virtual camera.
또한 상기 사용자 시점 연동형 영상 제공 미디어 서버에서, 상기 영상 데이터는 광 시야각 스트리밍 영상 및 스테레오 영상(Stereoscopic 3D) 중 적어도 하나를 포함하는 것을 특징으로 할 수 있다.The image data may include at least one of a wide viewing angle streaming image and a stereoscopic 3D in the user view linked image providing media server.
또한 상기 사용자 시점 연동형 영상 제공 미디어 서버에서, 상기 카메라 파라미터는, 카메라 렌즈 파라미터, 카메라 안정화(stabilization) 파라미터 및 스테레오 카메라 리그 오차(camera rig misalignment) 보정 파라미터 중 적어도 하나를 포함하는 것을 특징으로 할 수 있다.The camera parameter may include at least one of a camera lens parameter, a camera stabilization parameter, and a stereo camera rig misalignment correction parameter in the user viewpoint linked image providing media server. have.
본 발명의 또 다른 일 실시예에 따른 사용자 시점 연동형 영상 처리 방법은, 센서에 의해, 사용자의 시점 변화를 감지하여 모션 데이터를 생성하는 단계, 통신 인터페이스부에 의해, 미디어 서버로부터, 영상 데이터를 포함하는 영상 패키지를 수신하는 단계, 상기 영상 패키지를 이용하여, 가상 공간상에 상기 영상 데이터에 대한 장면과 가상 카메라를 배치하는 단계 및 상기 모션 데이터를 이용하여, 상기 사용자의 시점 변화에 대응하도록 상기 배치된 가상 카메라의 자세를 변환하는 단계를 포함한다. In accordance with another aspect of the present invention, there is provided a method of synchronizing user views with a user, by generating a motion data by detecting a change in a user's viewpoint by a sensor, and transmitting image data from a media server by a communication interface unit. Receiving an image package comprising a step of placing a scene and a virtual camera for the image data in a virtual space using the image package, and using the motion data, to correspond to a change in the viewpoint of the user And converting the pose of the arranged virtual camera.
또한 상기 사용자 시점 연동형 영상 처리 방법에서, 상기 가상 카메라의 자세는, 가상 카메라의 방향 또는 위치를 포함하는 것을 특징으로 할 수 있다.In addition, in the user-view linked image processing method, the posture of the virtual camera may include a direction or a position of the virtual camera.
또한 상기 사용자 시점 연동형 영상 처리 방법에서, 상기 영상 패키지는, 가상 카메라의 자세 변환을 위한 카메라 파라미터를 더 포함하고, 상기 카메라 파라미터는, 상기 영상 데이터의 영상을 촬영한 실제 카메라에 대한 파라미터인 것을 특징으로 할 수 있다.In addition, in the user-view linked image processing method, the image package further includes a camera parameter for posture conversion of the virtual camera, wherein the camera parameter is a parameter for an actual camera that captured the image of the image data. It can be characterized.
또한 상기 사용자 시점 연동형 영상 처리 방법에서, 상기 배치된 가상 카메라의 자세를 변환하는 단계는, 상기 모션 데이터 및 상기 카메라 파라미터를 이용하여 상기 가상 카메라의 자세를 변화시키는 단계를 포함하는 것을 특징으로 할 수 있다.Also, in the user-view linked image processing method, the converting the posture of the arranged virtual camera may include changing the posture of the virtual camera using the motion data and the camera parameter. Can be.
또한 상기 사용자 시점 연동형 영상 처리 방법에서, 상기 영상 데이터는 광 시야각 스트리밍 영상 및 스테레오 영상(Stereoscopic 3D) 중 적어도 하나를 포함하는 것을 특징으로 할 수 있다.In the user view-linked image processing method, the image data may include at least one of a wide viewing angle streaming image and a stereoscopic 3D image.
또한 상기 사용자 시점 연동형 영상 처리 방법은, 상기 변환되는 가상 카메라 자세에서 상기 가상 카메라에의해 보여지는 상기 장면의 적어도 일부를 실시간 렌더링하여 표시부에 표시하는 단계를 더 포함하는 것을 특징으로 할 수 있다.The method may further include displaying, on a display unit, at least a part of the scene viewed by the virtual camera in real time in the converted virtual camera posture.
본 발명의 일 실시예에 따르면, 사용자가 고개를 돌리는 등 시점을 변경함에 따라, 변경된 시점에 대응되도록 표시되는 영상의 부분이 변경될 수 있다. 이에 따라서 손을 이용한 별도의 입력 행위가 요구되지 않으며, 시점의 이동에 따라 나타나는 영상의 부분이 다르기 때문에 종래 기술에 비하여 직관적인 사용자 경험을 제공할 수 있다.According to an embodiment of the present invention, as the user changes his viewpoint such as turning his / her head, the part of the image displayed to correspond to the changed viewpoint may be changed. Accordingly, a separate input action using a hand is not required, and since a portion of an image displayed according to movement of a viewpoint is different, an intuitive user experience can be provided as compared with the prior art.
도1은 본 발명의 일 실시예에 따른 사용자 시점(VIEW POINT) 연동형 영상 처리 장치의 블록도이다.1 is a block diagram of a user view (VIEW POINT) linked image processing apparatus according to an embodiment of the present invention.
도2는 일 실시예에 따른 센서부(100)의 동작을 설명하기 위한 도이다.2 is a view for explaining the operation of the sensor unit 100 according to an embodiment.
도3은 본 발명의 일 실시예에따른 영상 패키지(10)의 구성을 나타내는 개념도이다.3 is a conceptual diagram illustrating a configuration of an image package 10 according to an embodiment of the present invention.
도4는 본발명의 일 실시예에 따른 가상공간에서 장면과 가상 카메라의 동작을 설명하기 위한 도이다.4 is a view for explaining the operation of the scene and the virtual camera in a virtual space according to an embodiment of the present invention.
도5a 내지 도5e는 일 실시예에 따른 프로젝션 지오메트리의 버텍스 변환 방식에 따른 프로젝션 지오메트리 투영 및 텍스처링을 설명하기 위한 도이다.5A to 5E are diagrams for describing projection geometry projection and texturing according to a vertex transformation method of projection geometry, according to an exemplary embodiment.
도6a 내지 6e는 일 실시예에 따른 프로젝션 지오메트리의 텍스처 좌표 변환 방식에 따른 프로젝션 지오메트리 투영 및 텍스처링을 설명하기 위한 도이다.6A through 6E are diagrams for describing projection geometry projection and texturing according to a texture coordinate transformation method of projection geometry, according to an exemplary embodiment.
도7은 본 발명의 일 실시예에 따른 시점 연동형 영상 제공 미디어 서버를 포함하는 네트워크환경에 대한 도이다.7 is a diagram illustrating a network environment including a viewpoint-linked video providing media server according to an embodiment of the present invention.
도8은 본 발명의 일 실시예에 따른 사용자 시점 연동형 영상 처리 방법의 순서도이다.8 is a flowchart of a user view linked image processing method according to an embodiment of the present invention.
본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. As used herein, the terms "comprise" or "having" are intended to indicate that there is a listed feature, number, step, operation, component, part, or combination thereof, one or more other features or numbers, It is to be understood that the present invention does not exclude the possibility or addition of steps, actions, components, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미이다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미인 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다. 다만, 실시형태를 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그에 대한 상세한 설명은 생략한다. 또한, 도면에서의 각 구성요소들의 크기는 설명을 위하여 과장될 수 있으며, 실제로 적용되는 크기를 의미하는 것은 아니다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as meanings consistent with the meanings in the context of the related art, and shall not be construed in ideal or excessively formal sense unless clearly defined herein. . Like reference numerals in the drawings denote like elements. However, in describing the embodiments, when it is determined that detailed descriptions of related known functions or configurations may unnecessarily obscure the subject matter of the present invention, detailed descriptions thereof will be omitted. In addition, the size of each component in the drawings may be exaggerated for description, it does not mean the size that is actually applied.
본 명세서에 기술된 실시예는 전적으로 하드웨어이거나, 부분적으로 하드웨어이고 부분적으로 소프트웨어이거나, 또는 전적으로 소프트웨어인 측면을 가질 수 있다. 본 명세서에서 "부(unit)", "모듈(module)", "장치" 또는 "시스템" 등은 하드웨어, 하드웨어와 소프트웨어의 조합, 또는 소프트웨어 등 컴퓨터 관련 엔티티(entity)를 지칭한다. 예를 들어, 본 명세서에서 부, 모듈, 장치 또는 시스템 등은 실행중인 프로세스, 프로세서, 객체(object), 실행 파일(executable), 실행 스레드(thread of execution), 프로그램(program), 및/또는 컴퓨터(computer)일 수 있으나, 이에 제한되는 것은 아니다. 예를 들어, 컴퓨터에서 실행중인 애플리케이션(application) 및 컴퓨터의 양쪽이 모두 본 명세서의 부, 모듈, 장치 또는 시스템 등에 해당할 수 있다. Embodiments described herein may have aspects that are wholly hardware, partly hardware and partly software, or wholly software. As used herein, "unit", "module", "device" or "system" and the like refer to hardware, a combination of hardware and software, or a computer related entity such as software. For example, parts, modules, devices, or systems herein refer to running processes, processors, objects, executables, threads of execution, programs, and / or computers. computer, but is not limited thereto. For example, both an application running on a computer and a computer may correspond to a part, module, device, system, or the like herein.
실시예들이 도면에 제시된 순서도를 참조로 하여 설명되었다. 간단히 설명하기 위하여 상기 방법은 일련의 블록들로 도시되고 설명되었으나, 본 발명은 상기 블록들의 순서에 한정되지 않고, 몇몇 블록들은 다른 블록들과 본 명세서에서 도시되고 기술된 것과 상이한 순서로 또는 동시에 일어날 수도 있으며, 동일한 또는 유사한 결과를 달성하는 다양한 다른 분기, 흐름 경로, 및 블록의 순서들이 구현될 수 있다. 또한, 본 명세서에서 기술되는 방법의 구현을 위하여 도시된 모든 블록들이 요구되지 않을 수도 있다. 나아가, 본 발명의 일 실시예에 따른 방법은 일련의 과정들을 수행하기 위한 컴퓨터 프로그램의 형태로 구현될 수도 있으며, 상기 컴퓨터 프로그램은 컴퓨터로 판독 가능한 기록 매체에 기록될 수도 있다.Embodiments have been described with reference to the flowchart presented in the drawings. Although the method is shown and described in a series of blocks for the sake of simplicity, the invention is not limited to the order of the blocks, and some blocks may occur in different order or simultaneously with other blocks than those shown and described herein. Various other branches, flow paths, and blocks may be implemented in order to achieve the same or similar results. In addition, not all illustrated blocks may be required for the implementation of the methods described herein. Furthermore, the method according to an embodiment of the present invention may be implemented in the form of a computer program for performing a series of processes, which may be recorded on a computer-readable recording medium.
이하에서, 도면을 참조하여 본 발명의 실시예들에 대하여 상세히 살펴본다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도1은 본 발명의 일 실시예에 따른 사용자 시점(VIEW POINT) 연동형 영상 처리 장치의 블록도이다. 도1을 참조하면, 일 실시예에서 사용자 시점 연동형 영상 처리 장치(1000)는 센서부(100), 통신 인터페이스부(200), 장면 구성부(300) 및 가상 카메라 자세 변환부(400)를 포함한다. 또한 다른 실시예에서 사용자 시점 연동형 영상 처리 장치(1000)는 프로젝션 지오메트리 생성부(500), 영상 렌더링부(600) 및 표시부(700) 중 적어도 하나를 더 포함할 수도 있다.1 is a block diagram of a user view (VIEW POINT) linked image processing apparatus according to an embodiment of the present invention. Referring to FIG. 1, in an exemplary embodiment, the user-view linked image processing apparatus 1000 may include the sensor unit 100, the communication interface unit 200, the scene composition unit 300, and the virtual camera posture converting unit 400. Include. In another embodiment, the user-view linked image processing apparatus 1000 may further include at least one of the projection geometry generator 500, the image renderer 600, and the display 700.
센서부(100)는 사용자의 시점 변화를 감지하여 모션 데이터를 생성한다. 구체적으로, 상기 센서부(100)는 사용자의 시선이 향하는 방향 또는 사용자의 현재 위치를 감지하고, 변화되는 방향 또는 위치를 추적할 수 있다. 일 실시예에서, 센서부(100)는 자이로센서, 가속도 센서, IMU(inertial measurement unit) 센서, GPS(global positioning system) 센서 및 비전센서를 포함할 수 있으며, 상기 언급한 센서 중 적어도 하나를 혼합하여 포함할 수도 있다. 예컨대, 센서부(100)는 비전센서와 IMU센서를 함께 이용하여 사용자의 시점 변화를 감지할 수도 있다. 이 경우, 센서부는 두 센서로부터 획득된 정보를 보정(calibration)하여 좌표계를 통일하는 방식을 이용할 수도 있다. 상술한 비전센서는, CCD(Charged Coupled Device) 센서 또는 PPD(Pinned Photo Diode), CID(Charge and Injection Device), APS(Active Pixel Sensor), ACS(Active Column Sensor) 등 다양한 센서가 사용될 수 있으며, 광학 모션 추적 방식을 이용할 수 있다.The sensor unit 100 generates motion data by detecting a change in viewpoint of a user. In detail, the sensor unit 100 may detect a direction in which the user's eyes are directed or a current location of the user, and track the changed direction or location. In one embodiment, the sensor unit 100 may include a gyro sensor, an acceleration sensor, an inertial measurement unit (IMU) sensor, a global positioning system (GPS) sensor, and a vision sensor, and mix at least one of the aforementioned sensors. It may be included. For example, the sensor unit 100 may detect a change in a user's viewpoint by using the vision sensor and the IMU sensor together. In this case, the sensor unit may use a method of unifying the coordinate system by calibrating the information obtained from the two sensors. As the above-described vision sensor, various sensors such as a charged coupled device (CCD) sensor, a pinned photo diode (PPD), a charge and injection device (CID), an active pixel sensor (APS), and an active column sensor (ACS) may be used. Optical motion tracking can be used.
일 실시예에서, 상기 모션 데이터는, 현실공간에서 사용자의 시점이 변화한 방향(orientation) 정보를 포함한다. 또 다른 실시예에서 상기 모션 데이터는 사용자의 시점이 이동한 위치(location) 정보를 더 포함할 수도 있다. 상기 모션 데이터는 가상 공간상에 존재하는 가상 카메라가 향하는 방향 또는 위치를 변경하기 위해 기초가 되는 데이터이다.In one embodiment, the motion data includes orientation information in which the viewpoint of the user is changed in the real space. In another embodiment, the motion data may further include location information of the user's viewpoint. The motion data is data which is the basis for changing the direction or the position to which the virtual camera existing in the virtual space faces.
도2는 일 실시예에 따른 센서부(100)의 동작을 설명하기 위한 도이다. 도2를 참조하면, 현재 사용자가 바라보는 방향을 -z 축이라고 가정한다. 그리고 사용자가 고개를 돌리거나 위치를 이동하여 바라보는 방향을 변경하는 경우, 센서부(100)는 사용자가 바라보는 방향(즉, 시점)의 양을 측정할 수 있다. 2 is a view for explaining the operation of the sensor unit 100 according to an embodiment. Referring to FIG. 2, it is assumed that the current user's viewing direction is the -z axis. In addition, when the user turns his head or moves the position to change the viewing direction, the sensor unit 100 may measure the amount of the viewing direction (that is, the viewpoint).
이러한 측정을 위해서, 도2에 도시된 바와 같이, 사용자의 머리 부분에 센서가 부착될 수 있고, 다른 실시예에서는 사용자의 신체에 부착하지 않고 영상 데이터를 이용하여 사용자의 시점을 감지할 수 있다. 또 다른 일 실시예에서, 센서부(100)는 동공추적센서를 포함하여, 사용자의 안구에 근접한 곳에 동공추적센서를 위치시키고, 사용자의 동공을 촬영하여 사용자의 시점 변화를 감지할 수도 있다.For this measurement, as shown in FIG. 2, a sensor may be attached to the user's head, and in another embodiment, the user's viewpoint may be detected using image data without being attached to the user's body. In another exemplary embodiment, the sensor unit 100 may include a pupil tracking sensor to locate the pupil tracking sensor in the vicinity of the user's eyeball, and detect the user's viewpoint change by capturing the pupil of the user.
통신 인터페이스부(200)는, 미디어 서버로부터, 영상 데이터를 포함하는 영상 패키지를 수신한다. 상기 미디어 서버는 영상 패키지를 상기 사용자 시점 연동형 영상 처리 장치(1000)에 제공하는 서버로서, 다양한 영상 컨텐츠를 보유하고 있을 수 있다. 예컨대, 상기 미디어 서버는 YOUTUBE®, GOOGLE®, ITUNES® 등이 멀티미디어 컨텐츠를 사용자에게 제공하기 위해 이용하는 서버일 수 있다. 통신 인터페이스부(200)는 네트워크를 통해서 미디어 서버로부터 영상 패키지를 수신할 수 있다. 네트워크는 표준 통신 기술/프로토콜을 사용한다. 따라서, 상기 네트워크(3000)는 이더넷, 802.11, 와이맥스(worldwide interoperability for microwave access; WiMAX), 2G/3G/4G, 디지털 가입자 회선(digital subscriber line; DSL), 비동기 전송모드(asynchronous transfer mode; ATM), 인피니밴드(infiniband), 피시아이 익스프레스 고급 스위칭(PCI Express Advanced Switching)등과 같은 기술을 이용한 링크(links)를 포함할 수 있다. 이와 유사하게, 상기 네트워크(3000)상에서 이용되는 상기 네트워킹 프로토콜은 멀티 프로토콜 라벨 스위칭(multiprotocol label switching; MPLS), 전송 제어 프로토콜/인터넷 프로토콜(transmission control protocol/Internet protocol; TCP/IP), 사용자 데이터그램 프로토콜(User Datagram Protocol; UDP), 하이퍼 텍스트 통신 규칙(hypertext transport protocol; HTTP), 간이 전자 우편 전송 프로토콜(simple mail transfer protocol; SMTP), 파일 전송 프로토콜(file transfer protocol; FTP)등을 포함한다. 상기 네트워크 상에서 교환된 데이터는, 바이너리 형식(binary form; 예를 들면, 휴대망 그래픽스(Portable Network Graphics; PNG)), 하이퍼텍스트 마크업 언어(hypertext markup language; HTML), 확장성 생성 언어(extensible markup language; XML)등의 내에 있는 이미지 데이터를 포함하는 기술 및/또는 포맷을 이용하여 나타날 수 있다. 추가적으로, 링크의 전부 또는 일부는 보안 소켓 계층(secure sockets layer; SSL), 전송 계층 보안(transport layer security; TLS), 가상 사설망(virtual private networks; VPNs), 인터넷 프로토콜 보안(Internet Protocol security; IPsec) 등과 같은 종래의 암호화 기술을 이용하여 암호화될 수 있다.The communication interface 200 receives a video package containing video data from the media server. The media server is a server that provides an image package to the user-view linked image processing apparatus 1000 and may have various image contents. For example, the media server may be a server that YOUTUBE®, GOOGLE®, ITUNES®, etc. use to provide multimedia contents to the user. The communication interface 200 may receive an image package from a media server through a network. The network uses standard communication technologies / protocols. Thus, the network 3000 may be configured for Ethernet, 802.11, worldwide interoperability for microwave access (WiMAX), 2G / 3G / 4G, digital subscriber line (DSL), asynchronous transfer mode (ATM). And links using technologies such as infiniband, PCI Express Advanced Switching, and the like. Similarly, the networking protocol used on the network 3000 may include multiprotocol label switching (MPLS), transmission control protocol / Internet protocol (TCP / IP), user datagrams. User datagram protocol (UDP), hypertext transport protocol (HTTP), simple mail transfer protocol (SMTP), file transfer protocol (FTP), and the like. The data exchanged on the network may be in binary form (e.g., Portable Network Graphics (PNG)), hypertext markup language (HTML), extensible markup. or a description and / or format including image data within a language (XML) or the like. Additionally, some or all of the links may be secure sockets layer (SSL), transport layer security (TLS), virtual private networks (VPNs), Internet Protocol security (IPsec). It can be encrypted using conventional encryption techniques such as.
도3은 본 발명의 일 실시예에따른 영상 패키지(10)의 구성을 나타내는 개념도이다. 도3을 참조하면, 영상 패키지(10)는 영상 데이터(11) 및 카메라 파라미터(12)를 포함할 수 있다. 예컨대, 상기 영상 패키지는 하나의 전자적 파일일 수 있다. 3 is a conceptual diagram illustrating a configuration of an image package 10 according to an embodiment of the present invention. Referring to FIG. 3, the image package 10 may include image data 11 and camera parameters 12. For example, the image package may be one electronic file.
상기 영상 데이터는 사용자에게 제공하기 위한 미디어 컨텐츠 내용 자체를 의미한다. 예컨대, 영상 데이터는 스트리밍 영상 및 스테레오 영상(Stereoscopic 3D; S3D) 중 적어도 하나를 포함할 수 있으며, 상기 영상은 광 시야각 영상일 수 있다. 상기 영상 데이터는 렌더링되어 영상을 사용자에게 시각적으로 제공하는데 이용될 수 있다. 일 실시예에서, 상기 영상 패키지는, 가상 카메라의 자세 변환을 위한 카메라 파라미터를 더 포함할 수 있다. 상기 카메라 파라미터는 상기 영상 데이터의 영상을 촬영한 실제 카메라에 대한 파라미터로서, 카메라 렌즈 파라미터렌즈, 카메라 안정화(stabilization) 파라미터 및 스테레오 카메라 리그 오차(camera rig misalignment) 보정 파라미터 중 적어도 하나를 포함할 수 있다. 예컨대, 상기 스테레오 카메라 리그 오차 보정 파라미터는, 영상 데이터가 스테레오 영상(S3D) 인경 우 카메라 파라미터에 포함될 수 있다.The image data refers to media content content itself for providing to the user. For example, the image data may include at least one of a streaming image and a stereoscopic image (S3D), and the image may be a wide viewing angle image. The image data may be rendered and used to visually present the image to the user. In one embodiment, the image package may further include a camera parameter for posture conversion of the virtual camera. The camera parameter may be a parameter for an actual camera photographing the image data, and may include at least one of a camera lens parameter lens, a camera stabilization parameter, and a stereo camera rig misalignment correction parameter. . For example, the stereo camera rig error correction parameter may be included in a camera parameter when the image data is a stereo image (S3D).
일 예에서, 카메라 파라미터(12)는 사용자의 시점 변화에 반응하여 가상 카메라의 자세를 변환 명령을 실행하기 위한 일종의 매개변수로 기능할 수 있다. In one example, the camera parameter 12 may function as a kind of parameter for executing a transformation command of the pose of the virtual camera in response to a change in the viewpoint of the user.
도4는 본발명의 일 실시예에 따른 가상공간에서 장면과 가상 카메라의 동작을 설명하기 위한 도이다. 도4에 나타난 바와 같이, 장면 구성부(300)는 상기 영상 패키지를 이용하여, 가상 공간상에 가상 카메라를 배치하고, 상기 영상 데이터에 대한 장면을 구성할 수 있다.4 is a view for explaining the operation of the scene and the virtual camera in a virtual space according to an embodiment of the present invention. As shown in FIG. 4, the scene configuration unit 300 may place a virtual camera in a virtual space and configure a scene for the image data using the image package.
즉, 장면 구성부(300)는, 가상공간(R)상에 투영된 프로젝션 지오메트리(22)에 상기 영상 데이터를 텍스처링할 수 있다. 상기 영상 데이터(11)는 통신 인터페이스부(200)에서 수신시 인코딩되어있으나, 장면 구성부에 의해 디코딩되어 텍스처링될 수 있다. 이렇게 텍스처링된 영상은 표시장치를 통해서 사용자에게 제공되는 것이 일반적이다. 즉, 종래 기술에 따르면 가상 카메라의 위치는 고정되어 있을 뿐 사용자의 동작에 따라서 변화되지 않고, 고정된 시점에서 영상이 표시된다.That is, the scene composition unit 300 may texture the image data on the projection geometry 22 projected on the virtual space R. FIG. The image data 11 is encoded when received by the communication interface 200, but may be decoded and textured by the scene composition unit. The textured image is generally provided to the user through the display device. That is, according to the prior art, the position of the virtual camera is fixed but does not change according to the user's motion, and the image is displayed at the fixed time point.
본 발명의 일 실시예에 따른 가상 카메라 자세 변환부(400)는 상기 모션 데이터 및 상기 카메라 파라미터를 이용하여, 상기 사용자의 시점 변화에 대응하도록 상기 배치된 가상 카메라의 자세를 변환할 수 있다. 상기 카메라 파라미터 (12)는 실제 카메라에 대한 카메라 렌즈 파라미터 또는 카메라 안정화 파라미터를 포함하고 있으므로, 가상 카메라 자세 변환부(400)는 이 카메라 파라미터(12) 및 모션 데이터를 이용하여 가상 공간상에서 가상 카메라의 위치 및 방향을 제어할 수 있다.The virtual camera posture converting unit 400 according to an embodiment of the present invention may convert the posture of the arranged virtual camera to correspond to the change of viewpoint of the user by using the motion data and the camera parameter. Since the camera parameter 12 includes a camera lens parameter or a camera stabilization parameter for an actual camera, the virtual camera pose converting unit 400 uses the camera parameter 12 and the motion data to determine the virtual camera in the virtual space. Position and direction can be controlled.
일 예에서, 도4에 나타난 바와 같이, 텍스처링된 이미지에대한 가상 카메라에 입력되는 영상의 일 부분은 영역(23)일 수 있다. 예컨대 영상 데이터(11)가 광 시야각 영상을 포함하고 있는 경우 또는 가상 카메라의 위치에 따라서, 전체 영상이 가상 카메라에 입력되지 않을 수 있다.In one example, as shown in FIG. 4, a portion of the image input to the virtual camera for the textured image may be region 23. For example, when the image data 11 includes a wide viewing angle image or depending on the position of the virtual camera, the entire image may not be input to the virtual camera.
이 상태에서, 예컨대 사용자가 고개를 오른쪽 아래로 움직임으로서 시점이 이동한 경우, 센서부(100)는 이러한 사용자의 시점 이동을 감지하고 가상 카메라 자세 변환부(400)는 상기 모션 데이터 및 상기 카메라 파라미터를 이용하여, 사용자의 시점이 이동에 대응하여 가상공간상의 가상 카메라의 자세를 변환(도4에서는 벡터M만큼 이동)할 수 있다. 도4에서는 가상 카메라의 위치가 이동하는 것을 설명하였으나, 다른 실시예에서는 가상 카메라의 위치는 이동하지 않고, 가상 카메라가 바라보는 방향만이 변경될 수 있다. 또 다른 예에서는 위치와 방향이 함께 변할 수도 있다.In this state, for example, when the user's viewpoint moves by moving his or her head down to the right, the sensor unit 100 detects the user's movement of the viewpoint and the virtual camera pose converting unit 400 performs the motion data and the camera parameters. By using, the posture of the virtual camera in the virtual space may be converted (move by vector M in FIG. 4) in response to the movement of the user. In FIG. 4, the position of the virtual camera is shifted. However, in another embodiment, the position of the virtual camera does not move, and only the direction of the virtual camera may be changed. In another example, the position and orientation may change together.
도4를 참조하면, 가상 카메라가 자세(21)에서 가상 카메라에 입력되는 영상의 부분은 영역(30)이 되고, 위와 같은 사용자 시야의 변경에 대응하여 가상 카메라 변환부(400)가 가상 카메라의 자세를 변환하여 가상 카메라가 자세(21'로 이동하고, 가상 카메라에 입력되는 일 영역은 영역(24)로 이동된다. 이와 같은 카메라 자세의 변환에 따라서 가상 카메라에 입력되는 영역이 변화되어, 사용자는 자신의 시점을 이동하여 영상의 원하는 부분을 추적하여 볼 수 있게 된다.Referring to FIG. 4, the portion of the image inputted to the virtual camera in the posture 21 becomes the area 30, and the virtual camera converter 400 determines that the virtual camera corresponds to the change of the user's field of view. By changing the posture, the virtual camera moves to the posture 21 ', and one area input to the virtual camera is moved to the area 24. The area input to the virtual camera changes according to the conversion of the camera posture, and the user Moves his viewpoint to track and view the desired part of the image.
다른 일 실시예에서 상기 사용자 시점 연동형 영상 처리 장치(1000)는 상기 영상 데이터의 영상을 촬영한 실제 카메라에 대한 카메라 파라미터를 이용하여 광 시야각 영상 출력을 위한 프로젝션 지오메트리를 생성하는 프로젝션 지오메트리 생성부(500)를 더 포함할 수 있다. 상기 프로젝션 지오메트리 생성부(500)는, 상기 카메라 파라미터를 이용하여 기준 지오메트리의 버텍스 또는 텍스처 좌표를 보정하고, 보정된 기준 지오메트리를 곡면 형태로 변형하여 상기 프로젝션 지오메트리를 생성할 수 있다. 상기 카메라 파라미터는 상술한 바와 같이, 렌즈 파라미터, 카메라 안정화 파라미터, 및 스테레오 카메라 리그 오차 보정 파라미터 중 적어도 하나를 포함할 수 있다. 예컨대, 상기 스테레오 카메라 리그 오차 보정 파라미터는, 영상 데이터가 스테레오 영상(S3D) 인경 우 카메라 파라미터에 포함될 수 있다.In another embodiment, the user-view linked image processing apparatus 1000 may include a projection geometry generator configured to generate projection geometry for outputting a wide viewing angle image using camera parameters of an actual camera that captures an image of the image data. 500) may be further included. The projection geometry generation unit 500 may generate the projection geometry by correcting the vertex or texture coordinates of the reference geometry by using the camera parameter and transforming the corrected reference geometry into a curved surface. As described above, the camera parameter may include at least one of a lens parameter, a camera stabilization parameter, and a stereo camera rig error correction parameter. For example, the stereo camera rig error correction parameter may be included in a camera parameter when the image data is a stereo image (S3D).
도5a-5e는 일 실시예에 따른 프로젝션 지오메트리의 버텍스 변환 방식에 따른 프로젝션 지오메트리 투영 및 텍스처링을 설명하기 위한 도이다. 일 실시예에서, 프로젝션 지오메트리 생성부(500)는 카메라 렌즈 파라미터를 이용하여 기준 프로젝션 지오메트리의 버텍스를 변환함으로써 보정된 프로젝션 지오메트리를 생성할 수 있다. 도5a를 참조하면, 기준 프로젝션 지오메트리(31)가 생성된 프로젝션 지오메트리(32)와의 비교를 위해 함께 도시되었다. 도6a를 참조하면 버텍스가 변환된 프로젝션 지오메트리(32)는, 가장 자리가 곡면 형태로, 중심을 기준으로 압축된 형태를 보인다. 이렇게 생성된 프로젝션 지오메트리(32)에 텍스처링을 수행되면, 도5b에 나타난 바와 같이 텍스처링된 영상이 왜곡 없이 나타난다. 예컨대, 피사체의 직선이 텍스처링된 이미지에서도 직선으로 나타난다. 5A and 5E are diagrams for describing projection geometry projection and texturing according to a vertex transformation method of projection geometry, according to an exemplary embodiment. In one embodiment, the projection geometry generator 500 may generate the corrected projection geometry by converting the vertex of the reference projection geometry by using the camera lens parameter. 5A, reference projection geometry 31 is shown together for comparison with the generated projection geometry 32. Referring to FIG. 6A, the projection geometry 32 in which the vertices are converted has a shape where the edge is curved and is compressed based on the center. When texturing is performed on the generated projection geometry 32, the textured image appears as shown in FIG. 5B without distortion. For example, straight lines of the subject appear as straight lines in the textured image.
도5c 및 도5d를 참조하면, 장면 구성부(300)는 프로젝션 지오메트리(32)를 가상공간에 배치한다. 이 경우 가상공간의 임의의 구면에 상기 프로젝션 지오메트리를 투영함으로써, 도5b에 나타난 오목한 곡면 형태의 프로젝션 지오메트리가 도5c 및 도5d에서와 같이 펼쳐진 형태를 나타낼 수 있다. 도65는 투영된 프로젝션 지오메트리에 촬영된 영상을 텍스처링한 상태를 보여주고, 도5e는 영상을 촬영시 카메라의 화각과 동일한 화각으로 정면에서 상기 텍스처링된 영상을 디스플레이하는 상태를 보여준다.5C and 5D, the scene configuration unit 300 arranges the projection geometry 32 in the virtual space. In this case, by projecting the projection geometry to any spherical surface of the virtual space, the concave curved projection geometry shown in FIG. 5B may be unfolded as shown in FIGS. 5C and 5D. FIG. 65 shows a state of texturing an image captured on the projected projection geometry, and FIG. 5E shows a state of displaying the textured image from the front at the same angle of view as the camera's angle of view when the image is captured.
도6a 내지 6e는 일 실시예에 따른 프로젝션 지오메트리의 텍스처 좌표 변환 방식에 따른 프로젝션 지오메트리를 투영하는것 및 텍스처링을 설명하기 위한 도이다. 텍스처 좌표는 이미지가 텍스처링되는 좌표로서, 프로젝션 지오메트리의 형태와는 무관하다 따라서 도6a에 나타난 바와 같이, 프로젝션 지오메트리(42)는 기준 프로젝션 지오메트리의 형태는 변하지 않는다. 그러나 이러한 프로젝션 지오메트리(42)에 영상이 텍스처링되면, 도6b에 도시된 바와 같이, 프로젝션 지오메트리에 텍스처링된 이미지는 사각형 형태가 아닌 안쪽으로 찌그러진 형태를 보인다. 6A through 6E are diagrams for describing projection and texturing of projection geometry according to a texture coordinate transformation method of projection geometry, according to an exemplary embodiment. The texture coordinates are coordinates in which the image is textured and are independent of the shape of the projection geometry. As shown in FIG. 6A, the projection geometry 42 does not change the shape of the reference projection geometry. However, when the image is textured on the projection geometry 42, as shown in FIG. 6B, the image textured on the projection geometry shows a shape inwardly distorted rather than rectangular.
도6c를 참조하면, 텍스처 좌표가 보정된 프로젝션 지오메트리(42)를 가상 공간상의 구면에 배치하고, 프로젝션 지오메트리(42)에 영상을 텍스처링하여 렌더링을 수행하면 도6d와 같이 영상이 출력된다. 그리도 도6e는 영상을 촬영시 카메라의 화각과 동일한 화각으로 정면에서 상기 텍스처링된 영상을 디스플레이하는 상태를 보여준다. 이와 같은 과정을 통해서, 광 시야각 영상이 왜곡 없이 가상공간의 구면상에 표현될 수 있다.Referring to FIG. 6C, when the projection geometry 42 having the texture coordinates corrected is disposed on a spherical surface in the virtual space, and the image is rendered to the projection geometry 42 to render, the image is output as shown in FIG. 6D. 6E shows a state in which the textured image is displayed from the front at the same angle of view as the camera angle when the image is captured. Through this process, the wide viewing angle image can be represented on the spherical surface of the virtual space without distortion.
또 다른 일 실시예에서 장면 구성부(300)는 카메라 파라미터(예컨대, 카메라 렌즈 파라미터 또는 카메라 안정화 파라미터)를 이용하여 가상공간상의 가상 카메라의 위치를 동적으로 조절하여 보정된 영상이 렌더링될 수 있도록 장면을 보정할 수 있다. 일 실시예에서 장면 구성부(300)는 가상 카메라는 고정된 상태에서, 프로젝션 지오메트리를 변환하여 장면을 보정할 수 있다. 예컨대, 상하좌우, 또는 요, 피치, 롤 방향으로 프로젝션 지오메트리를 이동시킬 수 있다. In another embodiment, the scene configuration unit 300 dynamically adjusts the position of the virtual camera in the virtual space by using a camera parameter (eg, a camera lens parameter or a camera stabilization parameter) to render a corrected image. Can be corrected. In one embodiment, the scene configuration unit 300 may correct the scene by converting the projection geometry while the virtual camera is fixed. For example, the projection geometry can be moved in the up, down, left, right, or yaw, pitch, and roll directions.
또는 장면 구성부(300)는 상기 카메라 안정화 파라미터를 이용하여 상기 가상 카메라의 위치를 동적으로 조절하여 상기 장면을 보정할 수도 있다. 이 경우, 가상카메라의 위치가 조절되는 것은 사용자의 시점 이동에 비하여 더 작은 규모로 일어날 수 있으며, 가상 카메라의 조절 목적에 있어서도 왜곡 보정이 목적이지 사용자의 시점 이동에 따른 영상의 표시부분 변경과는 차이점이 있다Alternatively, the scene configuration unit 300 may correct the scene by dynamically adjusting the position of the virtual camera using the camera stabilization parameter. In this case, the adjustment of the position of the virtual camera may occur on a smaller scale than the movement of the viewpoint of the user, and the distortion correction is also aimed at adjusting the virtual camera. There is a difference
일 실시예에서, 사용자 시점 연동형 영상 처리 장치(1000)는 상기 변환되는 카메라 자세에서 상기 가상 카메라에의해 보여지는 상기 장면의 적어도 일부를 실시간 렌더링하여 표시부에 표시하는 영상 렌더링부(700)를 더 포함할 수 있다. 상기 영상 렌더링부(700)는 사용자가 표시부를 통해서 실제로 영상을 볼 수 있도록 하는 역할을 한다.In an embodiment, the user-view linked image processing apparatus 1000 further includes an image rendering unit 700 which renders at least a part of the scene viewed by the virtual camera in the converted camera posture in real time and displays it on a display unit. It may include. The image rendering unit 700 serves to allow a user to actually view an image through the display unit.
일 예에서, 사용자 시점 연동형 영상 처리 장치(1000)는 표시부(800)를 더 포함할 수도 있으며, 상기 표시부(800)는 LCD, OLED, PDP 등 임의의 디스플레이 장치를 포함하며, 터치 스크린이 구비될 수도 있다.In one example, the user-view linked image processing apparatus 1000 may further include a display unit 800, and the display unit 800 may include any display device such as an LCD, an OLED, a PDP, and a touch screen. May be
도7은 본 발명의 일 실시예에 따른 시점 연동형 영상 제공 미디어 서버를 포함하는 네트워크환경에 대한 도이다. 시점 연동형 영상 제공 미디어 서버(2000)는 네트워크를 통해서 영상 패키지를 타 장치에 제공할 수 있다. 상기 타 장치는 도8에 도시된 바와 같이, 스마트폰(2001), 랩톱(2002), HMD(헤드마운트디스플레이) 장치(2003), 스마트글래스 등 다양한 단말기를 포함할 수 있다. 일 실시예에서 상기 타 장치는 상술한 사용자 시점 연동형 영상 처리 장치(1000)에 포함될 수 있다. 상기 가상 카메라의 자세는 가상 카메라의 방향 또는 위치를 포함할 수 있으며, 상기 영상 데이터는 광 시야각 스트리밍 영상 및 스테레오 영상(S3D) 중 적어도 하나일 수 있다.7 is a diagram illustrating a network environment including a viewpoint-linked video providing media server according to an embodiment of the present invention. The viewpoint-linked image providing media server 2000 may provide an image package to another device through a network. As shown in FIG. 8, the other device may include various terminals such as a smart phone 2001, a laptop 2002, a head mounted display (HMD) device 2003, a smart glass, and the like. In another embodiment, the other device may be included in the user-view linked image processing apparatus 1000 described above. The posture of the virtual camera may include a direction or a position of the virtual camera, and the image data may be at least one of a wide viewing angle streaming image and a stereo image S3D.
즉, 상기 시점 연동형 영상 제공 미디어 서버는, 영상 데이터 및 가상 카메라의 자세 변환을 위한 카메라 파라미터를 포함하는 영상 패키지를 보유하는 영상 패키지 저장부 및 상기 영상 패키지를 타 단말기에 전송하는 통신 인터페이스부를 포함할 수 있다. 상기 카메라 파라미터는 상기 영상 데이터의 영상을 촬영한 실제 카메라에 대한 파라미터이며, 구체적인 설명은 상술한 바와 같다.That is, the viewpoint-linked image providing media server includes an image package storage unit having an image package including image data and camera parameters for posture conversion of a virtual camera, and a communication interface unit transmitting the image package to another terminal. can do. The camera parameter is a parameter for an actual camera that captures an image of the image data, and the detailed description thereof is as described above.
도8은 본 발명의 일 실시예에 따른 사용자 시점 연동형 영상 처리 방법의 순서도이다. 도8를 참조하면 사용자 시점 연동형 영상 처리 방법은 센서에 의해, 사용자의 시점 변화를 감지하여 모션 데이터를 생성하는 단계(S10), 통신 인터페이스부에 의해, 미디어 서버로부터, 영상 데이터를 포함하는 영상 패키지를 수신하는 단계(S20), 상기 영상 패키지를 이용하여, 가상 공간상에 상기 영상 데이터에 대한 장면과 가상 카메라를 배치하는 단계(S30) 및 상기 모션 데이터를 이용하여, 감지되는 상기 사용자의 시점 변화에 대응하도록 상기 배치된 가상 카메라의 자세를 변환하는 단계(S40)를 포함한다. 상기 가상 카메라의 자세는, 가상 카메라의 방향 또는 위치를 포함할 수 있다. 즉, 사용자의 시점 변화에 대응하여, 가상 카메라가 텍스처링되는 장면에 근접하게 이동하거나 멀어질 수 있다. 또한 사용자의 시점 변화에 대응하여 가상 카메라의 방향이 변화될 수 있다.8 is a flowchart of a user view linked image processing method according to an embodiment of the present invention. Referring to FIG. 8, in the user-interview-linked image processing method, a sensor is configured to detect motion of a user's viewpoint and generate motion data (S10). The image includes image data from a media server by a communication interface unit. Receiving a package (S20), using the image package, disposing a scene and a virtual camera for the image data in a virtual space (S30) and using the motion data, the user's viewpoint detected And converting the posture of the arranged virtual camera to correspond to the change (S40). The posture of the virtual camera may include a direction or a position of the virtual camera. That is, in response to the user's viewpoint change, the virtual camera may move or move closer to the textured scene. In addition, the direction of the virtual camera may change in response to a change in the viewpoint of the user.
일 실시예에서, 상기 영상 패키지는, 가상 카메라의 자세 변환을 위한 카메라 파라미터를 더 포함하고, 상기 카메라 파라미터는, 상기 영상 데이터의 영상을 촬영한 실제 카메라에 대한 파라미터일 수 있다. 또한 상기 영상 데이터는 광 시야각 스트리밍 영상을 포함할 수 있다.In an embodiment, the image package may further include a camera parameter for posture conversion of the virtual camera, and the camera parameter may be a parameter for an actual camera that captures an image of the image data. In addition, the image data may include a wide viewing angle streaming image.
일 실시예에서, 상기 배치된 가상 카메라의 자세를 변환하는 단계는, 상기 가상 카메라 자세 변환 데이터는, 상기 모션 데이터 및 상기 카메라 파라미터를 이용에 기반하여 상기 가상 카메라의 자세를 변화시키는 단계를 포함할 수 있다. 상기 단계는 상기 가상 카메라 자세 변환부에의해 실행될 수 있다.In one embodiment, the converting the pose of the arranged virtual camera may include: changing the pose of the virtual camera based on using the motion data and the camera parameter. Can be. The step may be executed by the virtual camera pose converting unit.
또한, 사용자 시점 연동형 영상 처리 방법은, 상기 변환되는 가상 카메라 자세에서 상기 가상 카메라에의해 보여지는 상기 장면의 적어도 일부를 실시간 렌더링하여 표시부에 표시하는 단계를 더 포함할 수 있다.The method may further include displaying, on a display unit, at least a part of the scene viewed by the virtual camera in real time in the transformed virtual camera posture.
이상에서 살펴본 본 발명은 도면에 도시된 실시예들을 참고로 하여 설명하였으나 이는 예시적인 것에 불과하며 당해 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 실시예의 변형이 가능하다는 점을 이해할 것이다. 그러나, 이와 같은 변형은 본 발명의 기술적 보호범위 내에 있다고 보아야 한다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해서 정해져야 할 것이다.Although the present invention described above has been described with reference to the embodiments shown in the drawings, this is merely exemplary, and it will be understood by those skilled in the art that various modifications and variations may be made therefrom. However, such modifications should be considered to be within the technical protection scope of the present invention. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.
본 발명의 일 실시예에 따르면, 사용자가 고개를 돌리는 등 시점을 변경함에 따라, 변경된 시점에 대응되도록 표시되는 영상의 부분이 변경될 수 있다. 이에 따라서 손을 이용한 별도의 입력 행위가 요구되지 않으며, 시점의 이동에 따라 나타나는 영상의 부분이 다르기 때문에 종래 기술에 비하여 직관적인 사용자 경험을 제공할 수 있다.According to an embodiment of the present invention, as the user changes his viewpoint such as turning his / her head, the part of the image displayed to correspond to the changed viewpoint may be changed. Accordingly, a separate input action using a hand is not required, and since a portion of an image displayed according to movement of a viewpoint is different, an intuitive user experience can be provided as compared with the prior art.

Claims (20)

  1. 사용자의 시점 변화를 감지하여 모션 데이터를 생성하는 센서부;A sensor unit configured to generate a motion data by detecting a change in viewpoint of a user;
    미디어 서버로부터, 영상 데이터를 포함하는 영상 패키지를 수신하는 통신 인터페이스부;A communication interface unit for receiving an image package including image data from a media server;
    상기 영상 패키지를 이용하여, 가상 공간상에 가상 카메라를 배치하고 상기 영상 데이터에 대한 장면을 구성하는 장면 구성부; 및A scene constitution unit for arranging a scene for the image data and arranging a virtual camera in a virtual space using the image package; And
    상기 모션 데이터를 이용하여, 상기 사용자의 시점 변화에 대응하도록 상기 배치된 가상 카메라의 자세를 변환하는 가상 카메라 자세 변환부를 포함하는 사용자 시점 연동형 영상 처리 장치.And a virtual camera posture converting unit configured to convert a posture of the arranged virtual camera to correspond to a change in the viewpoint of the user by using the motion data.
  2. 제1항에 있어서,The method of claim 1,
    상기 가상 카메라의 자세는 가상 카메라의 방향 또는 위치를 포함하는 것을 특징으로 하는 사용자 시점 연동형 영상 처리 장치.And a posture of the virtual camera includes a direction or a position of the virtual camera.
  3. 제1항에 있어서,The method of claim 1,
    상기 사용자의 시점 변화를 감지하는 센서부는,The sensor unit for detecting a change in the viewpoint of the user,
    자이로 센서, 가속도 센서, IMU(Inertial Measurement Unit) 센서, GPS(Global Positioning System) 센서 및 비전센서 중 적어도 하나를 포함하는 것을 특징으로 하는 사용자 시점 연동형 영상 처리 장치.And a gyro sensor, an acceleration sensor, an inertial measurement unit (IMU) sensor, a global positioning system (GPS) sensor, and a vision sensor.
  4. 제1항에 있어서,The method of claim 1,
    상기 영상 패키지는,The video package,
    가상 카메라의 자세 변환을 위한 카메라 파라미터를 더 포함하고, 상기 카메라 파라미터는, 상기 영상 데이터의 영상을 촬영한 실제 카메라에 대한 파라미터인 것을 특징으로 하는 사용자 시점 연동형 영상 처리 장치.And a camera parameter for converting a posture of a virtual camera, wherein the camera parameter is a parameter for an actual camera which captured the image of the image data.
  5. 제4항에 있어서,The method of claim 4, wherein
    상기 가상 카메라 자세 변환부는,The virtual camera attitude conversion unit,
    상기 모션 데이터 및 상기 카메라 파라미터를 이용하여 상기 배치된 카메라의 자세를 변환하는 것을 특징으로 하는 사용자 시점 연동형 영상 처리 장치.And a posture of the arranged camera using the motion data and the camera parameter.
  6. 제1항에 있어서,The method of claim 1,
    상기 영상 데이터는 광 시야각 스트리밍 영상 및 스테레오 영상(Stereoscopic 3D) 중 적어도 하나를 포함하는 것을 특징으로 하는 사용자 시점 연동형 영상 처리 장치.The image data includes at least one of a wide viewing angle streaming image and a stereoscopic image (Stereoscopic 3D).
  7. 제1항에 있어서,The method of claim 1,
    상기 영상 데이터의 영상을 촬영한 실제 카메라에 대한 카메라 파라미터를 이용하여 광 시야각 영상 출력을 위한 프로젝션 지오메트리를 생성하는 프로젝션 지오메트리 생성부를 더 포함하고,And a projection geometry generator configured to generate projection geometry for outputting a wide viewing angle image using camera parameters of an actual camera photographing the image data.
    상기 프로젝션 지오메트리 생성부는, 상기 카메라 파라미터를 이용하여 기준 지오메트리의 버텍스 또는 텍스처 좌표를 보정하고, 보정된 기준 지오메트리를 곡면 형태로 변형하여 상기 프로젝션 지오메트리를 생성하는 것을 특징으로 하는 사용자 시점 연동형 영상 처리 장치.The projection geometry generating unit corrects the vertex or texture coordinates of the reference geometry by using the camera parameter, and generates the projection geometry by modifying the corrected reference geometry into a curved shape. .
  8. 제4항 또는 제7항에 있어서,The method according to claim 4 or 7,
    상기 카메라 파라미터는, The camera parameter is,
    카메라 렌즈 파라미터, 카메라 안정화(stabilization) 파라미터 및 스테레오 카메라 리그 오차(camera rig misalignment) 보정 파라미터 중 적어도 하나를 포함하는 것을 특징으로 하는 사용자 시점 연동형 영상 처리 장치.And at least one of a camera lens parameter, a camera stabilization parameter, and a stereo camera rig misalignment correction parameter.
  9. 제1항에 있어서,The method of claim 1,
    상기 장면 구성부는,The scene configuration unit,
    상기 카메라 안정화 파라미터를 이용하여 상기 가상 카메라의 위치를 동적으로 조절하여 상기 장면을 보정하는 것을 특징으로 하는 사용자 시점 연동형 영상 처리 장치.And the camera stabilization parameter to dynamically adjust the position of the virtual camera to correct the scene.
  10. 제1항에 있어서,The method of claim 1,
    상기 변환되는 카메라 자세에서 상기 가상 카메라에의해 보여지는 상기 장면의 적어도 일부를 실시간 렌더링하여 표시부에 표시하는 영상 렌더링부를 더 포함하는 것을 특징으로 하는 사용자 시점 연동형 영상 처리 장치.And a video rendering unit which renders at least a part of the scene viewed by the virtual camera in real time in the converted camera posture and displays it on a display unit.
  11. 영상 데이터 및 가상 카메라의 자세 변환을 위한 카메라 파라미터를 포함하는 영상 패키지를 보유하는 영상 패키지 저장부; 및An image package storage unit which holds an image package including image data and camera parameters for posture conversion of a virtual camera; And
    상기 영상 패키지를 타 단말기에 전송하는 통신 인터페이스부를 포함하되, 상기 카메라 파라미터는 상기 영상 데이터의 영상을 촬영한 실제 카메라에 대한 파라미터인 것을 특징으로 하는 사용자 시점 연동형 영상 제공 미디어 서버.And a communication interface configured to transmit the image package to another terminal, wherein the camera parameter is a parameter for an actual camera which captured the image of the image data.
  12. 제12항에 있어서,The method of claim 12,
    상기 가상 카메라의 자세는 가상 카메라의 방향 또는 위치를 포함하는 것을 특징으로 하는 사용자 시점 연동형 영상 제공 미디어 서버.And a posture of the virtual camera includes a direction or a location of the virtual camera.
  13. 제11항에 있어서,The method of claim 11,
    상기 영상 데이터는 광 시야각 스트리밍 영상 및 스테레오 영상(Stereoscopic 3D) 중 적어도 하나를 포함하는 것을 특징으로 하는 사용자 시점 연동형 영상 제공 미디어 서버.And the image data comprises at least one of a wide viewing angle streaming image and a stereoscopic 3D image server.
  14. 제11항에 있어서,The method of claim 11,
    상기 카메라 파라미터는, The camera parameter is,
    카메라 렌즈 파라미터, 카메라 안정화(stabilization) 파라미터 및 스테레오 카메라 리그 오차(camera rig misalignment) 보정 파라미터 중 적어도 하나를 포함하는 것을 특징으로 하는 사용자 시점 연동형 영상 제공 미디어 서버.And at least one of a camera lens parameter, a camera stabilization parameter, and a stereo camera rig misalignment correction parameter.
  15. 센서에 의해, 사용자의 시점 변화를 감지하여 모션 데이터를 생성하는 단계;Generating, by the sensor, motion data by detecting a viewpoint change of a user;
    통신 인터페이스부에 의해, 미디어 서버로부터, 영상 데이터를 포함하는 영상 패키지를 수신하는 단계;Receiving, by the communication interface unit, an image package including image data from the media server;
    상기 영상 패키지를 이용하여, 가상 공간상에 상기 영상 데이터에 대한 장면과 가상 카메라를 배치하는 단계; 및Arranging a scene and a virtual camera for the image data in a virtual space using the image package; And
    상기 모션 데이터를 이용하여, 상기 사용자의 시점 변화에 대응하도록 상기 배치된 가상 카메라의 자세를 변환하는 단계를 포함하는 사용자 시점 연동형 영상 처리 방법.And converting a posture of the arranged virtual camera to correspond to a change in the viewpoint of the user by using the motion data.
  16. 제15항에 있어서,The method of claim 15,
    상기 가상 카메라의 자세는, 가상 카메라의 방향 또는 위치를 포함하는 것을 특징으로 하는 사용자 시점 연동형 영상 처리 방법.The posture of the virtual camera includes a direction or a position of the virtual camera.
  17. 제15항에 있어서,The method of claim 15,
    상기 영상 패키지는,The video package,
    가상 카메라의 자세 변환을 위한 카메라 파라미터를 더 포함하고, 상기 카메라 파라미터는, 상기 영상 데이터의 영상을 촬영한 실제 카메라에 대한 파라미터인 것을 특징으로 하는 사용자 시점 연동형 영상 처리 방법.And a camera parameter for converting a posture of a virtual camera, wherein the camera parameter is a parameter for an actual camera which captured the image of the image data.
  18. 제17항에 있어서,The method of claim 17,
    상기 배치된 가상 카메라의 자세를 변환하는 단계는, 상기 모션 데이터 및 상기 카메라 파라미터를 이용하여 상기 가상 카메라의 자세를 변화시키는 단계를 포함하는 것을 특징으로 하는 사용자 시점 연동형 영상 처리 방법.The converting the posture of the arranged virtual camera may include changing the posture of the virtual camera by using the motion data and the camera parameter.
  19. 제15항에 있어서,The method of claim 15,
    상기 영상 데이터는 광 시야각 스트리밍 영상 및 스테레오 영상(Stereoscopic 3D) 중 적어도 하나를 포함하는 것을 특징으로 하는 사용자 시점 연동형 영상 처리 방법.The image data includes at least one of a wide viewing angle streaming image and a stereoscopic image (Stereoscopic 3D).
  20. 제15항에 있어서,The method of claim 15,
    상기 변환되는 가상 카메라 자세에서 상기 가상 카메라에의해 보여지는 상기 장면의 적어도 일부를 실시간 렌더링하여 표시부에 표시하는 단계를 더 포함하는 것을 특징으로 하는 사용자 시점 연동형 영상 처리 방법.And real-time rendering at least a portion of the scene viewed by the virtual camera in the converted virtual camera posture and displaying the same on a display unit.
PCT/KR2015/006113 2015-06-17 2015-06-17 User view point-linked image processing device and method therefor WO2016204323A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2015/006113 WO2016204323A1 (en) 2015-06-17 2015-06-17 User view point-linked image processing device and method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2015/006113 WO2016204323A1 (en) 2015-06-17 2015-06-17 User view point-linked image processing device and method therefor

Publications (1)

Publication Number Publication Date
WO2016204323A1 true WO2016204323A1 (en) 2016-12-22

Family

ID=57545407

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/006113 WO2016204323A1 (en) 2015-06-17 2015-06-17 User view point-linked image processing device and method therefor

Country Status (1)

Country Link
WO (1) WO2016204323A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106951262A (en) * 2017-03-28 2017-07-14 联想(北京)有限公司 A kind of display processing method and device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110090149A1 (en) * 2003-09-15 2011-04-21 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US20110267348A1 (en) * 2010-04-29 2011-11-03 Dennis Lin Systems and methods for generating a virtual camera viewpoint for an image
WO2012046964A2 (en) * 2010-10-04 2012-04-12 Choi Gyu Ho Stereoscopic image display device for displaying a stereoscopic image by tracing a focused position
WO2012169698A1 (en) * 2011-06-10 2012-12-13 주식회사 넥서스칩스 Device and method for generating a stereoscopic augmented reality image by using a stereoscopic 3d image and gpu
WO2013183947A1 (en) * 2012-06-05 2013-12-12 엘지전자 주식회사 Method and apparatus for processing broadcast signals for 3d broadcast service

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110090149A1 (en) * 2003-09-15 2011-04-21 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US20110267348A1 (en) * 2010-04-29 2011-11-03 Dennis Lin Systems and methods for generating a virtual camera viewpoint for an image
WO2012046964A2 (en) * 2010-10-04 2012-04-12 Choi Gyu Ho Stereoscopic image display device for displaying a stereoscopic image by tracing a focused position
WO2012169698A1 (en) * 2011-06-10 2012-12-13 주식회사 넥서스칩스 Device and method for generating a stereoscopic augmented reality image by using a stereoscopic 3d image and gpu
WO2013183947A1 (en) * 2012-06-05 2013-12-12 엘지전자 주식회사 Method and apparatus for processing broadcast signals for 3d broadcast service

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106951262A (en) * 2017-03-28 2017-07-14 联想(北京)有限公司 A kind of display processing method and device
CN106951262B (en) * 2017-03-28 2023-07-21 联想(北京)有限公司 Display processing method and device

Similar Documents

Publication Publication Date Title
US10198870B2 (en) Information processing apparatus, information processing system, and information processing method
US9727137B2 (en) User view point related image processing apparatus and method thereof
Kasahara et al. JackIn head: immersive visual telepresence system with omnidirectional wearable camera for remote collaboration
US20180315364A1 (en) Information Processing Apparatus and Image Generation Method
CN104685868B (en) Method and apparatus for calibrating imaging device
WO2018182321A1 (en) Method and apparatus for rendering timed text and graphics in virtual reality video
CN110784651B (en) Anti-shake method and electronic equipment
WO2020140758A1 (en) Image display method, image processing method, and related devices
JP7248490B2 (en) Information processing device, device position and orientation estimation method
WO2018101652A1 (en) Device for providing realistic media image
US20180077383A1 (en) Information processing apparatus, communication system, information processing method, and program
EP4300943A1 (en) Subtitle rendering method and apparatus for virtual reality space, device, and medium
JP2023502552A (en) WEARABLE DEVICE, INTELLIGENT GUIDE METHOD AND APPARATUS, GUIDE SYSTEM, STORAGE MEDIUM
KR20130130283A (en) System for generating a frontal-view image for augmented reality based on the gyroscope of smart phone and method therefor
KR101784095B1 (en) Head-mounted display apparatus using a plurality of data and system for transmitting and receiving the plurality of data
CN115701125B (en) Image anti-shake method and electronic equipment
EP3293960A1 (en) Information processing device, information processing method, and program
WO2016204323A1 (en) User view point-linked image processing device and method therefor
JP7198149B2 (en) Information processing device and device information derivation method
EP4280615A1 (en) Image anti-shake method and electronic device
WO2022045779A1 (en) Restoration of the fov of images for stereoscopic rendering
CN114742977A (en) Video perspective method based on AR technology
WO2018195973A1 (en) Method for positioning cursor using handheld terminal, handheld terminal, and electronic device
JP7288792B2 (en) Information processing device and device information derivation method
WO2016195123A1 (en) Apparatus and method for processing wide viewing angle image

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15895710

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15895710

Country of ref document: EP

Kind code of ref document: A1