KR101964466B1 - Apparatus for displaying 3d image - Google Patents

Apparatus for displaying 3d image Download PDF

Info

Publication number
KR101964466B1
KR101964466B1 KR1020180122217A KR20180122217A KR101964466B1 KR 101964466 B1 KR101964466 B1 KR 101964466B1 KR 1020180122217 A KR1020180122217 A KR 1020180122217A KR 20180122217 A KR20180122217 A KR 20180122217A KR 101964466 B1 KR101964466 B1 KR 101964466B1
Authority
KR
South Korea
Prior art keywords
image
information
operation information
touch
unit
Prior art date
Application number
KR1020180122217A
Other languages
Korean (ko)
Inventor
탁영한
Original Assignee
탁영한
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 탁영한 filed Critical 탁영한
Priority to KR1020180122217A priority Critical patent/KR101964466B1/en
Application granted granted Critical
Publication of KR101964466B1 publication Critical patent/KR101964466B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Disclosed is an apparatus for providing a three-dimensional image. The apparatus comprises: a device operating unit for outputting a three-dimensional image and generating operation information by accepting a touch operation or a rotation operation of a user performed on the three-dimensional image; and an image implementing unit for converting the three-dimensional image according to the operation information and outputting the converted three-dimensional image through the device operating unit.

Description

3D 영상 제공 장치{APPARATUS FOR DISPLAYING 3D IMAGE}[0001] APPARATUS FOR DISPLAYING 3D IMAGE [0002]

본 발명은 3D 영상 제공 장치에 관한 것으로서, 더욱 상세하게는 사용자의 터치 조작을 반영한 3D 영상을 제공하는 3D 영상 제공 장치에 관한 것이다. The present invention relates to a 3D image providing apparatus, and more particularly, to a 3D image providing apparatus for providing a 3D image reflecting a touch operation of a user.

전자기기를 통해서 3D 영상을 재생하는 기술은 널리 알려져 있다. 이런 기술들은 특별히 3D 영상으로 재생되기 위해서 특별한 제작된 3D 영상 파일이 존재하거나 3D 영상을 재생하는 수단이 전자기기에 존재해야 한다. TV 방송 수신기에서 3D 영상을 재생하는 기술이 상용화되어 있으며, 모바일 게임에서도 3D 영상을 이용하기 위한 다양한 시도가 진행돼 왔다.BACKGROUND ART [0002] Techniques for reproducing 3D images through electronic devices are well known. In order to be able to reproduce 3D images in particular, these techniques require that a specially prepared 3D image file exists or a means for reproducing the 3D image exists in the electronic device. A technology for playing 3D images on TV broadcast receivers has been commercialized, and various attempts have been made to use 3D images in mobile games.

그러나 전자기기에서 사용되는 영상의 대부분은 여전히 2D 영상이다. 모바일 기기에서 스트리밍되거나 다운로드 되는 영상 파일들은 코덱을 사용하여 모바일 기기에 내장된 미디어 플레이어에서 재생되었다. 많은 개발자들은 2D 영상에 깊이를 부여하여 3D 영상으로 변환하는 컨버터기술을 개발하여 이를 상용화하고자 노력했다. 하지만 시간과 노력이 너무 많이 소요되고 있으며, 프로세서에 부하를 주는 문제가 해결되어야 하는 등 여전히 기술적 난관이 있다. 더욱이 3차원 영상 파일이 있어야 할뿐더러, 3D 파일을 지원하는 미디어 플레이어가 디바이스에 설치되어야 한다.However, most of the images used in electronic devices are still 2D images. Video files that are streamed or downloaded from a mobile device were played on a media player built into the mobile device using a codec. Many developers have tried to commercialize a converter technology that converts depth of 2D images into 3D images. However, it takes time and effort too much, and there is still a technical challenge, such as the problem of overloading the processor. In addition to having a 3D image file, a media player supporting a 3D file must be installed in the device.

이와 같이 이제까지의 접근 방법은 미디어 플레이어에서 3차원으로 동영상 파일을 재생하는 것이었다. 하지만 앞서 언급한 기술적인 난관이 있을 뿐만 아니라, 미디어 플레이어가 3D 영상을 재생할 때 전자기기에서 다른 콘텐츠의 이용이 불가능하다는 문제점이 있었다. 또한 미디어 플레이어의 한계상 영상의 재생 중에는 전자기기가 사용자의 반응에 인터렉티브하지 않게 되었다. So far, the approach has been to play movie files in the media player in three dimensions. However, not only is there a technical difficulty mentioned above, but also there is a problem that when a media player plays a 3D image, it is impossible to use other contents in an electronic device. Also, during reproduction of the image of the limit image of the media player, the electronic device is not interactive with the user's reaction.

미디어 플레이어는 사용자의 반응을 동영상의 재생과 중단으로 해석한다. 동영상을 입체적으로 재생하겠다는 목적으로 말미암아 인터랙티브하게 다양한 콘텐츠를 제시할 수 있는 전자기기의 장점이 후퇴하고 만다.The media player interprets the user's reaction as the playback and interruption of the video. Because of the purpose of playing video in three dimensions, the advantage of electronic devices that can present various contents interactively is receding.

본 발명의 일측면은 사용자의 조작에 따라 영상에 포함되는 3차원 객체를 역동적으로 움직이게 하는 3D 영상 제공 장치를 제공한다.One aspect of the present invention provides a 3D image providing apparatus for dynamically moving a 3D object included in an image according to a user's operation.

상기 과제를 해결하기 3D 영상 제공 장치는 3D 영상을 출력하며, 상기 3D 영상 상에서 행해지는 사용자의 터치 조작 또는 회전 조작을 수용하여 조작 정보를 생성하는 장치 조작부 및 상기 조작 정보에 따라 상기 3D 영상을 변환하여 상기 장치 조작부를 통해 출력하는 영상 구현부를 포함한다.According to an aspect of the present invention, there is provided a 3D image providing apparatus including a device operation unit for outputting a 3D image and receiving operation of touching or rotating a user performed on the 3D image to generate operation information, And outputting the image through the device operation unit.

한편, 상기 장치 조작부는, 현재 출력중인 3D 영상의 특정 영역 상의 터치(tap), 드래그 앤 드랍(drag and drop), 회전 슬라이드 이동 및 두 지점에 대한 터치 이후 간격 조정(확대 또는 축소) 중 적어도 하나를 포함하는 터치 조작을 감지하고, 상기 장치 조작부의 기울임에 해당하는 회전 조작을 감지하며, 상기 3D 영상에서 상기 터치 조작이 발생한 영역, 상기 터치 조작이 발생한 시간, 상기 터치 조작의 종류 및 상기 터치 조작 속도를 식별하여 상기 조작 정보를 생성하거나, 상기 회전 조작이 발생한 시간, 회전 방향 및 회전 각도를 식별하여 상기 조작 정보를 생성하고, 상기 영상 구현부는, 상기 3D 영상의 재생이 종료되는 경우, 상기 3D 영상의 총 재생 시간에 따른 총 조작 정보의 개수 또는 가장 최근에 학습된 사용자의 3D 영상 조작 패턴과 상기 3D 영상의 재생 중에 발생한 조작 정보에 따른 조작 패턴의 일치도 중 어느 하나를 기준으로 하여 상기 3D 영상의 재생 중에 발생한 조작 정보가 유의미한 조작 패턴에 해당하는지 여부를 판단하고, 상기 3D 영상의 재생 중에 발생한 조작 정보가 유의미한 조작 패턴에 해당하는 것으로 판단한 경우, 상기 3D 영상의 재생 중에 발생하는 조작 정보를 순서대로 나열하여 사용자의 3D 영상 조작 패턴으로 학습하며, 상기 조작 정보에 따라 상기 3D 영상을 변환하거나, 상기 사용자의 3D 영상 조작 패턴에 따라 상기 3D 영상을 변환하여 상기 장치 조작부를 통해 출력할 수 있다.On the other hand, the device operation unit may include at least one of a touch on a specific area of the currently output 3D image, a drag and drop, a rotation slide movement, and an after-touch interval adjustment (enlargement or reduction) And a control unit for sensing a rotation operation corresponding to the inclination of the device operation unit and detecting an area where the touch operation has occurred in the 3D image, a time at which the touch operation occurred, a type of the touch operation, And generates the operation information by identifying the time when the rotation operation occurred, the rotation direction, and the rotation angle, and the image implementing unit is configured to generate the operation information by identifying the 3D The number of total manipulation information according to the total reproduction time of the image or the number of the manipulation information of the 3D image manipulation pattern of the most recently learned user, Determining whether or not the operation information generated during the reproduction of the 3D image corresponds to a significant operation pattern based on any one of the match degree of the operation pattern according to the operation information generated during the life of the 3D image, The operation information generated during the reproduction of the 3D image is sequentially arranged and is learned by the 3D image manipulation pattern of the user and the 3D image is converted according to the manipulation information, The 3D image can be converted according to the image manipulation pattern and output through the apparatus operation unit.

본 발명에 따르면, 3차원 객체를 포함하는 3D 영상을 제공하되, 사용자의 터치 조작 또는 회전 조작에 따른 3차원 객체의 이동, 회전, 크기 조절 등의 기능을 제공할 수 있다. 이에, 사용자는 3차원 객체에서 필요로 하는 정보를 주도적으로 획득할 수 있을 것이다.According to the present invention, it is possible to provide a 3D image including a three-dimensional object, and to provide functions such as movement, rotation, and size adjustment of a three-dimensional object according to a touch operation or a rotation operation of the user. Thus, the user will be able to proactively acquire the information required in the three-dimensional object.

도 1은 본 발명의 일 실시예에 따른 3D 영상 제공 장치의 개념도이다.
도 2는 본 발명의 일 실시예에 따른 3D 영상 제공 장치에서 조작정보에 따라 구현하는 3D 영상의 일 예이다.
도 3은 본 발명의 일 실시예에 따른 3D 영상 제공 방법의 순서도이다.
도 4는 본 발명의 다른 실시예에 따른 3D 영상 제공 방법의 순서도이다.
1 is a conceptual diagram of a 3D image providing apparatus according to an embodiment of the present invention.
2 is an example of a 3D image implemented according to operation information in a 3D image providing apparatus according to an embodiment of the present invention.
3 is a flowchart of a 3D image providing method according to an embodiment of the present invention.
4 is a flowchart of a 3D image providing method according to another embodiment of the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예와 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.The following detailed description of the invention refers to the accompanying drawings, which illustrate, by way of illustration, specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different, but need not be mutually exclusive. For example, certain features, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention in connection with an embodiment. It is also to be understood that the position or arrangement of the individual components within each disclosed embodiment may be varied without departing from the spirit and scope of the invention. The following detailed description is, therefore, not to be taken in a limiting sense, and the scope of the present invention is to be limited only by the appended claims, along with the full scope of equivalents to which such claims are entitled, if properly explained. In the drawings, like reference numerals refer to the same or similar functions throughout the several views.

이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 3D 영상 제공 장치의 개념도이다.1 is a conceptual diagram of a 3D image providing apparatus according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 3D 영상 제공 장치는 장치 조작부(200) 및 영상 구현부(100)를 포함하여, 사용자의 조작 정보에 따른 3D 영상을 제공할 수 있다.Referring to FIG. 1, a 3D image providing apparatus according to an embodiment of the present invention may include a device operation unit 200 and an image implementing unit 100, and may provide 3D images according to user's operation information.

도 1에 도시된 장치 조작부(200) 및 영상 구현부(100)의 구성은 통합 모듈로 형성되거나, 하나 이상의 모듈로 이루어질 수 있다. 그러나, 이와 반대로 각 구성은 별도의 모듈로 이루어질 수도 있다.The configuration of the device operation unit 200 and the image implementing unit 100 shown in FIG. 1 may be formed of an integrated module or may be composed of one or more modules. However, conversely, each configuration may be a separate module.

본 발명에 따른 3D 영상 제공 장치는 통신이 가능하고 정보의 입출력이 가능한 장치로, 예를 들면, PC, 스마트폰, 테블릿 등으로 구현될 수 있다.The 3D image providing apparatus according to the present invention is a device capable of communication and capable of inputting and outputting information, for example, a PC, a smart phone, a tablet, and the like.

본 발명에 따른 3D 영상 제공 장치는 이동성을 갖거나 고정될 수 있다. 본 발명에 따른 장치는 서버(server) 또는 엔진(engine) 형태일 수 있으며, 디바이스(device), 기구(apparatus), 단말(terminal), UE(user equipment), MS(mobile station), 무선기기(wireless device), 휴대기기(handheld device) 등 다른 용어로 불릴 수 있다.The 3D image providing apparatus according to the present invention may be movable or fixed. An apparatus according to the present invention may be in the form of a server or an engine and may be a device, an apparatus, a terminal, a user equipment (UE), a mobile station (MS) wireless devices, handheld devices, and the like.

본 발명에 따른 3D 영상 제공 장치는 운영체제(Operation System; OS), 즉 시스템을 기반으로 다양한 소프트웨어를 실행하거나 제작할 수 있다. 운영체제는 소프트웨어가 장치의 하드웨어를 사용할 수 있도록 하기 위한 시스템 프로그램으로서, 안드로이드 OS, iOS, 윈도우 모바일 OS, 바다 OS, 심비안 OS, 블랙베리 OS 등 모바일 컴퓨터 운영체제 및 윈도우 계열, 리눅스 계열, 유닉스 계열, MAC, AIX, HP-UX 등 컴퓨터 운영체제를 모두 포함할 수 있다.The 3D image providing apparatus according to the present invention can execute or produce various software based on an operating system (OS), i.e., a system. The operating system is a system program for enabling software to use the hardware of the device. It is a system program for operating a mobile computer such as Android OS, iOS, Windows Mobile OS, Sea OS, Symbian OS, Blackberry OS, Windows series, Linux series, Unix series, MAC , AIX, HP-UX, and so on.

본 발명에 따른 3D 영상 제공 장치는 3D 영상 제공을 가능하게 하는 소프트웨어(애플리케이션)가 설치되어 실행될 수 있으며, 장치 조작부(200) 및 영상 구현부(100)의 구성은 장치에서 실행되는 소프트웨어에 의해 제어될 수 있다.The 3D image providing apparatus according to the present invention can be installed and executed by a software (application) that can provide a 3D image. The configuration of the apparatus operation unit 200 and the image implementing unit 100 can be controlled by software .

본 발명에 따른 3D 영상 제공 장치는 증강현실 또는 가상현실 환경에서 3차원 가상객체를 포함하는 3D 영상을 제공할 수 있으며, 사용자의 조작에 따라 3차원 가상객체의 이동, 회전 또는 크기 조절 기능을 제공할 수 있다.The 3D image providing apparatus according to the present invention can provide a 3D image including a 3D virtual object in an augmented reality or a virtual reality environment and can provide a function of moving, rotating, or resizing a 3D virtual object according to a user's operation can do.

예를 들면, 3D 영상 제공장치는 카메라를 제공하여 현실 객체의 영상을 입력 받고, 현실 객체의 영상과, 현실 객체의 영상에 대응하는 증강현실 영상을 생성하여 제공할 수 있다. 증강현실 영상은 카메라를 이용하여 획득하는 현실 객체 영상과 동기화되어 시각적으로 디스플레이되는 영상이다. 3D 영상 제공 장치는 카메라의 자세가 변하거나, 터치 입력이 가해지면 그에 따라 증강현실 영상 또한 역동적으로 변화시켜 제공할 수 있다.For example, the 3D image providing apparatus may provide a camera to receive an image of a real object, and generate and provide an augmented reality image corresponding to an image of the real object and an image of the real object. The augmented reality image is an image that is visually displayed in synchronization with a real object image acquired using a camera. When the attitude of the camera is changed or the touch input is applied, the 3D image providing apparatus can dynamically change and provide the augmented reality image accordingly.

또는, 3D 영상 제공 장치는 카메라를 제공하여 현실 객체의 영상을 입력 받고, 현실 객체에 대응하는 캐릭터를 가상현실 영상에서 조정할 수 있도록 제공할 수 있다. Alternatively, the 3D image providing apparatus may be provided with a camera to receive an image of a real object, and to provide a character corresponding to the real object in a virtual reality image.

아울러, 3D 영상 제공 장치는 카메라의 자세가 특정 자세로 변하거나, 특정 터치 입력이 가해지면 그에 따른 부가 정보를 제공할 수 있다. 예컨대, 3D 영상 제공장치는 증강현실 영상의 특정 부분에 대한 터치 입력을 수신하거나, 음악 정보에 따른 음악의 비트와 일치하는 타이밍의 터치 입력을 수신하는 경우, 증강현실 또는 가상현실 상에서 가치 있는 쿠폰을 제공할 수 있다.In addition, the 3D image providing apparatus can provide the additional information when the posture of the camera changes to a specific posture or a specific touch input is applied. For example, when receiving a touch input for a specific portion of an augmented reality image, or receiving a touch input of a timing coinciding with a beat of music according to music information, the 3D image providing apparatus transmits a valuable coupon in augmented reality or virtual reality .

이하, 도 1에 도시된 본 발명에 따른 3D 영상 제공 장치의 각 구성에서의 3D 영상 제공 방법에 대하여 자세히 설명한다.Hereinafter, a 3D image providing method in each configuration of the 3D image providing apparatus according to the present invention shown in FIG. 1 will be described in detail.

장치 조작부(200)는 사용자의 터치 조작 또는 회전 조작을 수용하고, 그에 대응하는 조작 정보를 생성하여 영상 구현부(100)로 전달할 수 있다.The device operation unit 200 receives a touch operation or a rotation operation of the user, generates operation information corresponding thereto, and transmits the operation information to the image implementing unit 100.

장치 조작부(200)는 상술한 바와 같은 3D 영상을 출력하거나 촬영된 영상 등을 출력하기 위한 디스플레이 모듈을 포함할 수 있다. 일예로, 장치 조작부(200)는 액정 디스플레이, 박막 트랜지스터 액정 디스플레이, 유기 발광 다이오드, 플렉시블 디스플레이, 3차원 디스플레이 중에서 적어도 하나를 포함할 수 있다. 장치 조작부(200)는 이러한 디스플레이 모듈을 통해 3D 영상은 물론 사용자의 식별 정보 등을 입력 받기 위한 UI(User Interface)를 출력할 수도 있다.The device operation unit 200 may include a display module for outputting 3D images as described above, or outputting photographed images and the like. For example, the device operation unit 200 may include at least one of a liquid crystal display, a thin film transistor liquid crystal display, an organic light emitting diode, a flexible display, and a three-dimensional display. The device operation unit 200 may output a UI (User Interface) for receiving 3D images as well as identification information of users through the display module.

장치 조작부(200)는 사용자의 터치 조작을 수용하여 물리적인 터치동작에 대응하는 전기적 신호를 생성하기 위한 터치 패드 모듈을 포함할 수 있다. 일예로, 장치 조작부(200)는 상술한 디스플레이 모듈과 상호 레이어 구조를 이루는 터치 스크린을 포함할 수 있다. 여기서, 터치 조작은 현재 출력중인 3D 영상의 특정 영역 상의 터치(tap), 드래그 앤 드랍(drag and drop), 회전 슬라이드 이동 및 두 지점에 대한 터치 이후 간격 조정(확대 또는 축소) 등에 해당할 수 있다. 장치 조작부(200)는 현재 출력중인 3D 영상에서 터치 조작이 발생한 영역, 터치 조작이 발생한 시간, 터치 조작의 종류 및 터치 조작 속도 등을 식별하여 조작 정보를 생성할 수 있다. The device operation unit 200 may include a touch pad module for receiving a user's touch operation and generating an electrical signal corresponding to a physical touch operation. For example, the device operation unit 200 may include a touch screen having a mutual layer structure with the above-described display module. Here, the touch operation may correspond to a touch on a specific area of a currently output 3D image, a drag and drop, a rotation slide movement, and an after-touch interval adjustment (enlargement or reduction) with respect to two points . The device operation unit 200 can generate the operation information by identifying the area where the touch operation has occurred, the time at which the touch operation occurred, the type of the touch operation, the touch operation speed, and the like in the 3D image currently being output.

장치 조작부(200)는 사용자의 회전 조작을 수용하여 장치 조작부(200) 자체의 움직임에 대응하는 전기적 신호를 생성하기 위한 센서 모듈을 포함할 수 있다. 일예로, 장치 조작부(200)는 자이로스코프 등과 같은 기울기 센서, 방위 센서 및 가속도 센서 등을 포함할 수 있다. 여기서, 회전 조작은 3축을 기준으로 하여 3D 영상을 출력중인 장치 조작부(200)의 기울임 등에 해당할 수 있다. 장치 조작부(200)는 회전 조작이 발생한 경우, 회전 조작이 발생한 시간, 회전 방향 및 회전 각도 등을 식별하여 조작 정보를 생성할 수 있다. The device operation unit 200 may include a sensor module for receiving the rotational operation of the user and generating an electrical signal corresponding to the movement of the device operation unit 200 itself. For example, the device operation unit 200 may include a tilt sensor such as a gyroscope, an orientation sensor, an acceleration sensor, and the like. Here, the rotation operation may correspond to the tilting of the apparatus operation unit 200 that is outputting the 3D image with reference to the three axes. The device operation unit 200 can generate operation information by identifying the time at which the rotation operation occurred, the rotation direction, and the rotation angle when the rotation operation has occurred.

이에 더하여, 장치 조작부(200)는 오디오 데이터 출력을 위한 음향 출력 모듈을 포함할 수 있다. 일예로, 장치 조작부(200)는 스피커, 비저 등을 포함할 수 있다. 장치 조작부(200)는 이러한 음향 출력 모듈을 통해 장치 조작부(200)에서 수행되는 기능과 관련된 음향 신호를 출력할 수 있다.In addition, the device operation unit 200 may include an audio output module for audio data output. For example, the device operation unit 200 may include a speaker, a visor, and the like. The device operation unit 200 can output an acoustic signal related to a function performed in the device operation unit 200 through such an acoustic output module.

이와 같이, 장치 조작부(200)는 3D 영상을 사용자에게 제공할 수 있으며, 3D 영상 상에서 행해지는 사용자의 터치 조작 또는 회전 조작을 수용하여 조작 정보를 생성하고 이를 후술하는 영상 구현부(100)로 전달할 수 있다. 영상 구현부(100)는 조작 정보에 따라 변하는 3D 영상을 구현하여 장치 조작부(200)를 통해 출력되도록 제어할 수 있다.In this way, the device operation unit 200 can provide the 3D image to the user, generate the operation information by accepting the touch operation or the rotation operation of the user performed on the 3D image, and transmit the operation information to the image implementing unit 100 . The image implementing unit 100 may implement a 3D image that changes according to the operation information and control the 3D image to be output through the apparatus operation unit 200. [

예를 들면, 장치 조작부(200)는 사용자로부터 사용자 식별 정보를 입력 받고, 사용자가 요청하는 3D 영상을 출력할 수 있다. 그리고, 장치 조작부(200)는 3D 영상 출력 중에 발생하는 터치 조작 또는 회전 조작을 감지하여 조작 정보를 생성할 수 있다. 조작 정보는 "05:00-회전 슬라이드 이동-슬라이딩 이동 속도"와 같은 터치 조작과 관련된 정보이거나, "07:00-롤링(rolling) 정방향-30'"와 같은 회전 조작과 관련된 정보일 수 있다.For example, the device operation unit 200 may receive user identification information from a user and output a 3D image requested by the user. Then, the device operation unit 200 can generate the operation information by sensing the touch operation or the rotation operation that occurs during 3D image output. The operation information may be information related to a touch operation such as " 05: 00-rotary slide movement-sliding movement speed ", or information related to a rotary operation such as "07: 00-rolling forward -30 ".

영상 구현부(100)는 조작 정보에 대응하는 3D 영상을 구현하여 장치 조작부(200)를 통해 출력할 수 있다. The image implementing unit 100 may implement a 3D image corresponding to the operation information and output the 3D image through the apparatus operation unit 200. [

영상 구현부(100)는 조작 정보 별 3D 영상 변형 데이터를 미리 저장할 수 있다. 예를 들면, 영상 구현부(100)는 "두 지점에 대한 터치 이후 간격 조정-해당 영역의 확대 제어", "더블탭-영상 속도 빠르게 제어", "롤링 정방향 회전-해당 영역의 분해 사시도 제공"등의 조작 정보 별 3D 영상 변형 데이터를 미리 저장할 수 있다.The image implementing unit 100 may previously store the 3D image deformation data for each operation information. For example, the image implementing unit 100 may be configured to perform the following operations: "Adjusting the interval after touching two points - Controlling enlargement of a corresponding area", "Double tap - Fast control of image speed", "Rolling forward rotation - The 3D image transformation data for each operation information can be stored in advance.

영상 구현부(100)는 장치 조작부(200)로부터 조작 정보를 전달 받는 경우, 조작 정보 별 3D 영상 변형 데이터를 참조하여 조작 정보에 대응하는 3D 영상 변형 데이터를 획득하고, 획득한 3D 영상 변형 데이터에 따라 현재 출력중인 3D 영상을 변형시킬 수 있다. 이와 관련하여, 도 2를 예로 들어 설명한다.When the operation information is received from the device operation unit 200, the image implementing unit 100 acquires the 3D image deformation data corresponding to the operation information with reference to the 3D image deformation data of each operation information, Accordingly, it is possible to transform the 3D image currently being output. In this regard, FIG. 2 will be described as an example.

도 2는 본 발명의 일 실시예에 따른 3D 영상 제공 장치에서 조작 정보에 따라 구현하는 3D 영상의 일 예이다.2 is an example of a 3D image implemented according to operation information in a 3D image providing apparatus according to an embodiment of the present invention.

도 2를 참조하면, 장치 조작부(200)는 사용자에 의한 터치 조작을 감지하여 조작 정보를 생성할 수 있다. 장치 조작부(200)는 "05:00-시계방향 회전 슬라이드 이동-이동속도 보통"과 같은 조작 정보를 생성하고, 이를 영상 구현부(100)로 전달할 수 있다.Referring to FIG. 2, the device operation unit 200 can generate operation information by sensing a touch operation by a user. The device operation unit 200 generates operation information such as "05: 00-clockwise rotation slide movement-movement speed normal ", and transmits the operation information to the image implementing unit 100. [

영상 구현부(100)는 조작 정보에 대응하는 3D 영상 변형 데이터를 획득할 수 있다. 영상 구현부(100)는 "시계방향 회전 슬라이드 이동-해당 영역에 출력되는 객체 시계방향 회전"의 3D 영상 변형 데이터를 획득하고, 현재 출력중인 3D 영상을 획득한 3D 영상 변형 데이터에 따라 변형시킬 수 있다.The image implementing unit 100 may acquire the 3D image deformation data corresponding to the operation information. The image implementing section 100 acquires the 3D image deformation data of "clockwise rotation slide movement - clockwise rotation of the object output to the corresponding region ", and transforms the 3D image currently being output to 3D image deformation data obtained have.

이에, 사용자는 현재 출력중인 영상에 포함되는 삼차원 객체인 자동차의 다른 면을 확인하고 싶은 경우, 화면을 터치 조작함으로써 자동차 다른 면의 영상을 제공받을 수 있을 것이다.If the user wishes to check the other side of the car, which is a three-dimensional object included in the image currently being output, the user may be provided with the image of the other side of the car by touching the screen.

한편, 영상 구현부(100)는 장치 조작부(200)로부터 터치 조작 및 회전 조작에 대한 조작 정보를 동시에 또는 미리 정해진 시간 간격 이내로 전달 받는 경우, 미리 설정된 조작 우선순위에 따라 하나의 조작 정보를 선택하고, 선택한 조작 정보에 대응하는 3D 영상 변형 데이터를 획득할 수 있다.On the other hand, when the operation unit 100 receives the operation information for the touch operation and the rotation operation from the device operation unit 200 simultaneously or within a predetermined time interval, the image implementation unit 100 selects one operation information according to a preset operation priority order , 3D image transformation data corresponding to the selected operation information can be obtained.

예를 들면, 영상 구현부(100)는 장치 조작부(200)로부터 3초 내외로 터치 조작 및 회전 조작에 해당하는 조작 정보를 전달 받는 경우, 터치 조작에 해당하는 조작 정보를 우선순위로 하여 3D 영상 변형 데이터를 획득할 수 있다. 회전 조작의 경우 사용자의 의도와 무관하게 주변 환경의 영향으로 발생할 수도 있기 때문이다.For example, when the operation unit 100 receives the operation information corresponding to the touch operation and the rotation operation within about 3 seconds from the device operation unit 200, the image implementation unit 100 sets the operation information corresponding to the touch operation as a priority, It is possible to obtain the transformed data. This is because the rotation operation may be caused by the influence of the surrounding environment regardless of the user's intention.

이와 같이, 영상 구현부(100)는 터치 조작 및 회전 조작 중 우선순위를 두어 그에 대응하는 3D 영상 변형 데이터를 획득함으로써, 사용자 의도를 보다 정확하게 반영하여 3D 영상을 변형시킬 수 있다.In this way, the image implementing unit 100 can prioritize the touch operation and the rotation operation and acquire the 3D image deformation data corresponding thereto, so that the 3D image can be transformed more accurately by reflecting the intention of the user.

또한, 영상 구현부(100)는 사용자 별 3D 영상 조작 패턴을 학습할 수 있다. 영상 구현부(100)는 사용자 별 3D 영상 조작 패턴을 학습하고, 추후 해당 사용자가 3D 영상을 시청하는 경우 별도의 조작이 발생하지 않더라도 미리 학습된 3D 영상 조작 패턴에 따라 3D 영상을 변형시켜 제공할 수 있다. Also, the image implementing unit 100 can learn a 3D image manipulation pattern for each user. The image implementing unit 100 learns 3D image manipulation patterns for each user and transforms 3D images according to previously learned 3D image manipulation patterns even if no other manipulation occurs when the user views 3D images later .

구체적으로는, 영상 구현부(100)는 장치 조작부(200)를 통해 3D 영상의 재생 전 사용자의 식별 정보를 입력 받을 수 있다.Specifically, the image implementing unit 100 can receive the user's identification information before reproduction of the 3D image through the device operating unit 200. [

영상 구현부(100)는 3D 영상의 재생이 종료되면, 3D 영상의 재생 중에 장치 조작부(200)로부터 수신된 조작 정보로부터 사용자의 3D 영상 조작 패턴을 학습할 수 있다.When the reproduction of the 3D image is completed, the image implementing unit 100 can learn the 3D image manipulation pattern of the user from the manipulation information received from the device manipulation unit 200 during the playback of the 3D image.

예를 들면, 영상 구현부(100)는 3D 영상의 재생 중에 조작 정보의 순서대로 사용자의 3D 영상 조작 패턴으로 학습할 수 있다. 즉, 사용자의 3D 영상 조작 패턴은 "시계방향 회전→확대→반시계 방향 회전→속도 빠르게 제어→…"와 같이 조작 정보의 발생 순서대로 생성될 수 있다.For example, the image implementing section 100 can learn the 3D image manipulation pattern of the user in the order of the manipulation information during 3D image playback. That is, the 3D image manipulation pattern of the user can be generated in the order of generation of the manipulation information such as "clockwise rotation? Magnification? Counterclockwise rotation? Speed fast control?

여기에서, 영상 구현부(100)는 3D 영상의 재생이 종료되면, 3D 영상의 재생 중에 장치 조작부(200)로부터 수신된 조작 정보가 유의미한 조작 패턴에 해당하는지 여부를 판단하고, 유의미한 조작 패턴에 해당하는 것으로 판단되는 경우, 해당 조작 패턴을 사용자의 3D 영상 조작 패턴으로 학습할 수 있다.Here, when the reproduction of the 3D image is completed, the image implementing unit 100 determines whether or not the operation information received from the device operation unit 200 during the reproduction of the 3D image corresponds to a significant operation pattern, It is possible to learn the operation pattern by the 3D image manipulation pattern of the user.

예를 들면, 영상 구현부(100)는 3D 영상의 총 재생 시간에 따른 총 조작 정보의 개수를 기준으로 하여 해당 3D 영상의 재생 중에 발생한 조작 정보가 유의미한 조작 패턴에 해당하는지 여부를 판단할 수 있다. 즉, 3D 영상의 총 재생 시간에 비례하여 유의미한 조작 패턴 판단의 기준이 되는 총 조작 정보의 최소 개수가 미리 설정될 수 있다. 영상 구현부(100)는 3D 영상의 총 재생 시간 동안 미리 설정된 개수 이상의 조작 정보를 획득한 경우, 해당 조작 정보를 유의미한 조작 패턴으로 판단하여 사용자의 3D 영상 조작 패턴으로 학습할 수 있다.For example, the image implementing unit 100 may determine whether the operation information generated during the reproduction of the 3D image corresponds to a significant operation pattern, based on the total number of operation information according to the total reproduction time of the 3D image . That is, the minimum number of total operation information that is a criterion for judging a significant operation pattern in proportion to the total reproduction time of the 3D image can be set in advance. If the image implementing unit 100 acquires more than a predetermined number of pieces of operation information during the total reproduction time of the 3D image, the image implementing unit 100 may determine the operation information as a meaningful operation pattern and learn the operation information using the 3D image operation pattern of the user.

또는, 영상 구현부(100)는 가장 최근에 학습된 사용자의 3D 영상 조작 패턴과 현재 종료된 3D 영상의 재생 중에 발생한 조작 정보에 따른 조작 패턴의 일치도를 산출하고, 산출한 일치도가 미리 설정된 유의미한 조작 패턴 판단의 기준이 되는 값 이상인 경우, 현재 종료된 3D 영상의 재생 중에 발생한 조작 정보를 유의미한 조작 패턴으로 판단하여 사용자의 3D 영상 조작 패턴으로 학습할 수 있다. 이때, 조작 패턴을 구성하는 조작 정보의 개수 별로 유의미한 조작 패턴 판단의 기준이 되는 값이 설정될 수 있다.Alternatively, the image implementing unit 100 may calculate the degree of agreement between the 3D image manipulation pattern of the most recently learned user and the manipulation information generated during the playback of the 3D image, and if the calculated degree of agreement is a predetermined significant manipulation The operation information generated during the reproduction of the 3D image which has been terminated can be determined as a meaningful operation pattern and can be learned by the 3D image operation pattern of the user. At this time, a value serving as a criterion for determining a meaningful operation pattern for each number of pieces of operation information constituting the operation pattern can be set.

여기에서, 영상 구현부(100)는 조작 정보 별로 가중치를 부여하여 최근 조작 패턴과의 일치도를 산출할 수 있다. 일예로, 영상 구현부(100)는 영상회전, 영상확대, 속도제어 순으로 가중치를 둘 수 있다. 영상 구현부(100)는 조작 패턴에서 영상회전에 해당하는 조작 정보가 일치하면 최대점인 10점을 부여하고, 영상확대에 해당하는 조작 정보가 일치하면 그 다음 점수인 8점을 부여하고, 속도제어에 해당하는 조작 정보가 일치하면 그 다음 점수인 6점을 부여할 수 있다. 즉, 가장 최근에 학습된 사용자의 3D 영상 조작 패턴이 "시계방향 회전→확대→반시계 방향 회전→속도 빠르게 제어"이고, 현재 종료된 3D 영상의 재생 중에 발생한 조작 정보가 "시계방향 회전→확대→축소→속도 빠르게 제어"인 경우, 영상 구현부(100)는 일치도를 10+8+6=24 점으로 부여할 수 있다. 이때, 조작 패턴을 구성하는 조작 정보의 개수가 3인 경우, 유의미한 조작 패턴 판단의 기준이 되는 값이 20으로 간주하면, 영상 구현부(100)는 현재 종료된 3D 영상의 재생 중에 발생한 조작 정보에 따른 조작 패턴인 "시계방향 회전→확대→축소→속도 빠르게 제어"를 사용자의 3D 영상 조작 패턴으로 학습할 수 있다.Here, the image implementing section 100 can calculate a match degree with the recent operation pattern by assigning a weight to each operation information. For example, the image implementing unit 100 may weight images in the order of image rotation, image enlargement, and speed control. If the operation information corresponding to the rotation of the image coincides with the operation pattern in the operation pattern, the image implementing section 100 gives the maximum point of 10 points. If the operation information corresponding to the image enlargement coincide, If the operation information corresponding to the control agrees, the next score of six points can be given. That is, the 3D image manipulation pattern of the most recently learned user is "clockwise rotation → enlargement → counterclockwise rotation → fast speed control", and the manipulation information generated during the reproduction of the 3D video which is currently finished is " → Reduce → Fast speed control ", the image implementing section 100 can assign a match degree of 10 + 8 + 6 = 24 points. If the number of pieces of operation information constituting the operation pattern is 3 and the value of 20 which is the basis of the determination of the significant operation pattern is regarded as 20, the image implementing section 100 stores the operation information generated during the reproduction of the 3D image The user can learn the operation pattern "clockwise rotation → enlargement → reduction → fast speed control" according to the user's 3D image manipulation pattern.

반면, 가장 최근에 학습된 사용자의 3D 영상 조작 패턴이 "시계방향 회전→확대→반시계 방향 회전→속도 빠르게 제어"이고, 현재 종료된 3D 영상의 재생 중에 발생한 조작 정보가 "확대→축소→확대→시계방향 회전"인 경우, 영상 구현부(100)는 일치도를 0+8+0+0=8 점으로 부여할 수 있다. 이와 같은 경우, 영상 구현부(100)는 현재 종료된 3D 영상의 재생 중에 발생한 조작 정보에 따른 조작 패턴인 "확대→축소→확대→시계방향 회전"을 사용자의 식별 정보로 다른 사용자가 입력한 조작 패턴으로 간주하여, 해당 조작 패턴을 버릴 수 있다. On the other hand, if the 3D image manipulation pattern of the most recently learned user is "clockwise rotation → enlargement → counterclockwise rotation → fast speed control", and the manipulation information generated during the reproduction of the 3D video which is currently terminated is " → clockwise rotation ", the image implementing section 100 can assign the degree of agreement to 0 + 8 + 0 + 0 = 8 points. In such a case, the image implementing section 100 may set the operation pattern corresponding to the operation information generated during the reproduction of the 3D image which has been terminated, as " enlarging, reducing, enlarging, It can be regarded as a pattern, and the corresponding operation pattern can be discarded.

이와 같은, 본 발명에 따른 3D 영상 제공 장치는 3차원 객체를 포함하는 3D 영상을 제공하되, 사용자의 터치 조작 또는 회전 조작에 따른 3차원 객체의 이동, 회전, 크기 조절 등의 기능을 제공할 수 있다. 이에, 사용자는 3차원 객체에서 필요로 하는 정보를 주도적으로 획득할 수 있을 것이다.The 3D image providing apparatus according to the present invention provides a 3D image including a 3D object, and can provide functions such as movement, rotation, and size adjustment of a 3D object according to a touch operation or a rotation operation of the user have. Thus, the user will be able to proactively acquire the information required in the three-dimensional object.

상술한 바와 같은 구성을 가지는 3D 영상 제공 장치는, 개발 환경 관리 시스템(설명의 편의상 도면에는 도시하지 않음) 상에서 구현될 수 있다.The 3D image providing apparatus having the above-described configuration can be implemented on a development environment management system (not shown in the drawings for the sake of convenience of explanation).

개발 환경은 다수의 개발자가 소프트웨어 개발을 위해 다수의 개발 시스템을 사용하며, 각 개발 시스템은 개발자의 제어에 따라 소프트웨어 컴포넌트 및 소프트웨어를 개발하고 직접 관리할 수 있다. 각 개발 시스템은 신뢰 플랫폼 모듈(TPM: Trusted Platform Module) 표준기술을 사용하며, 이에 따라 소프트웨어 컴포넌트가 사용 허가된 개발 시스템에서만 사용 가능하도록 한다. 신뢰 플랫폼 모듈(TPM)은 일종의 보안 장치로서, 데이터 암호화를 위한 보안키를 생성 및 관리할 수 있다.In a development environment, a plurality of developers use a plurality of development systems for software development, and each development system can develop and directly manage software components and software under the control of a developer. Each development system uses Trusted Platform Module (TPM) standard technology, so that the software components are only available to licensed development systems. The Trusted Platform Module (TPM) is a type of security device that can generate and manage security keys for data encryption.

개발 환경 관리 시스템은 소프트웨어 컴포넌트 사용에 대한 개발자의 권한을 제한하고, 개발자가 사용하는 개발 시스템에 대한 보안 인증을 수행할 수 있다. The development environment management system restricts the developer's authority on the use of software components and can perform security authentication on the development system used by the developer.

개발 환경 관리 시스템은 개발 시스템으로부터 소프트웨어 컴포넌트 생성 또는 수정 허가 요청 메시지를 수신하는 경우, 해당 개발 시스템의 권한 정보를 확인하여 소프트웨어 컴포넌트 생성 또는 수정 허가 요청 메시지를 처리할 수 있다.When the development environment management system receives the software component creation or modification permission request message from the development system, it can process the software component creation or modification permission request message by checking the rights information of the development system.

여기에서, 소프트웨어 컴포넌트는 소스코드, 디버깅 정보를 포함하는 바이너리, 디버깅 정보를 포함하지 않는 순수 바이너리, 코드에 대한 상세설명을 위한 문서, 코드의 이해를 위한 공정 수식모델 중 적어도 하나를 포함하여 구성될 수 있다.Here, the software component may include at least one of a source code, a binary including debugging information, a pure binary not including debugging information, a document for detailed description of the code, and a process equation model for understanding the code .

권한 정보는 소프트웨어 컴포넌트를 읽을 수 있는 읽기 권한, 소프트웨어 컴포넌트를 생성 및 수정하여 저장할 수 있는 저장 권한, 권한 정보를 조정할 수 있는 권한조정 권한 중 적어도 하나를 포함하여 구성될 수 있다.The rights information may be configured to include at least one of read permission to read software components, right to store and modify software components, and permission to adjust rights information.

개발 환경 관리 시스템은 권한 정보를 만족하는 어느 하나의 개발 시스템에 의해 소프트웨어 컴포넌트가 생성 또는 수정되는 경우, 이를 저장하여 다른 개발 시스템에서도 공유 가능하도록 제어할 수 있다. 이는 어느 하나의 개발 시스템에 의해 빌드한 모듈을 다른 개발 시스템에서 사용하여야 하는 경우가 있기 때문이다. When a software component is created or modified by one of the development systems satisfying the rights information, the development environment management system can store the software component and control it so that it can be shared by other development systems. This is because a module built by one of the development systems may be used in another development system.

개발 환경 관리 시스템은 이러한 소프트웨어 컴포넌트의 생성 또는 수정 이력을 저장한 데이터베이스를 구축할 수 있다. 이는 이력 정보를 통해 특정 변수의 값이 어떻게 달라졌는지 단계별로 추적할 수 있고, 그 특정 변수가 임의의 다른 변수의 값 변경에 어떠한 영향을 주었는지도 파악할 수 있기 때문이다.The development environment management system can build a database storing the history of creation or modification of such software components. This is because the history information can be used to track the change in the value of a particular variable step by step and it can be understood how the particular variable has affected the change of the value of any other variable.

구체적으로는, 개발 환경 관리 시스템은 소프트웨어 컴포넌트의 종류, 해당 소프트웨어 컴포넌트의 생성/수정 여부, 해당 소프트웨어 컴포넌트의 생성/수정 일자, 해당 소프트웨어 컴포넌트의 생성/수정 빈도, 해당 소프트웨어 컴포넌트를 생성/수정한 개발 시스템의 권한 정보를 포함하여 이력 정보를 생성할 수 있다. Specifically, the development environment management system can be classified into various types of software components such as types of software components, creation / modification of corresponding software components, creation / modification dates of corresponding software components, creation / modification frequency of corresponding software components, The history information including the authority information of the system can be generated.

개발 환경 관리 시스템은 이력 정보를 생성할 때마다 인덱스를 부여하여 이력 정보 데이터베이스에 저장할 수 있다.The development environment management system can store indexes in the history information database every time history information is generated.

이때, 개발 환경 관리 시스템은 소프트웨어 컴포넌트의 종류별로 이력 정보 데이터베이스를 구축할 수 있다. 즉, 개발 환경 관리 시스템은 소프트웨어 컴포넌트의 중요도에 따라 이력 정보 데이터베이스를 구축할 수 있으며, 중요도가 가장 높은 종류에 해당하는 소프트웨어 컴포넌트의 이력 정보 데이터베이스는 후술하는 바와 같이 저장 공간 관리를 위한 데이터베이스 갱신 대상에서 제외될 수 있을 것이다.At this time, the development environment management system can build a history information database for each type of software component. That is, the development environment management system can build a history information database according to the importance of the software components, and the history information database of the software components corresponding to the type having the highest importance is the database update target for storage space management It can be excluded.

또는, 개발 환경 관리 시스템은 소프트웨어 컴포넌트의 생성/수정 일자 별로 이력 정보 데이터베이스를 구축할 수 있다. 일예로, 개발 환경 관리 시스템은 특정 일자의 이력 정보 데이터베이스를 구축하여, 해당 이력 정보 데이터베이스를 데이터베이스 갱신 대상에서 제외시킬 수 있다.Alternatively, the development environment management system can construct a history information database for each creation / modification date of a software component. For example, the development environment management system can build a history information database of a specific date and exclude the history information database from the database update target.

또는, 개발 환경 관리 시스템은 권한 정보 별로 이력 정보 데이터베이스를 구축할 수 있다. 일예로, 개발 환경 관리 시스템은 최고 권한 정보로 간주되는 권한 정보를 조정할 수 있는 권한조정 권한에 해당하는 개발 시스템에 의한 소프트웨어 컴포넌트의 이력 정보 데이터베이스를 구축하여, 해당 이력 정보 데이터베이스를 데이터베이스 갱신 대상에서 제외시킬 수 있다.Alternatively, the development environment management system can build a history information database for each authority information. For example, the development environment management system constructs a history information database of the software components by the development system corresponding to the authority to adjust the authority information regarded as the highest authority information, and excludes the history information database from the database update target .

개발 환경 관리 시스템은 상술한 바와 같이 효율적인 저장 공간 관리를 위해 이력 정보 데이터베이스를 갱신할 수 있다.The development environment management system can update the history information database for efficient storage management as described above.

구체적으로는, 개발 환경 관리 시스템은 이력 정보 데이터베이스의 인덱스가 미리 설정된 인덱스에 도달하면 이력 정보 데이터베이스 갱신을 수행할 수 있다.More specifically, the development environment management system can update the history information database when the index of the history information database reaches a predetermined index.

예를 들면, 개발 환경 관리 시스템은 이력 정보 데이터베이스의 전체 인덱스를 오름차순으로 하여 3 개의 구간으로 나눌 수 있다. For example, the development environment management system can divide the entire index of the history information database into three sections in ascending order.

개발 환경 관리 시스템은 3 개의 구간 중 가장 낮은 인덱스를 포함하는 구간에 해당하는 이력 정보를 조건 없이 삭제할 수 있다. 해당 구간에 해당하는 이력 정보는 생성/수정 일자가 오랜 시간이 경과한 것으로 간주할 수 있으며, 이에 해당 이력 정보가 다시 참조될 가능성은 낮으므로 조건 없이 삭제할 수 있다.The development environment management system can delete the history information corresponding to the section including the lowest index among the three sections without any condition. The history information corresponding to the relevant section can be regarded as a generation / modification date has passed a long time, and the possibility of referring to the history information is low, so it can be deleted without any condition.

개발 환경 관리 시스템은 3 개의 구간 중 가운데 구간에 해당하는 이력 정보를 소프트웨어 컴포넌트의 종류에 따라 삭제 또는 유지 여부를 결정하여 갱신할 수 있다. 즉, 개발 환경 관리 시스템은 소프트웨어 컴포넌트의 종류에 따라 중요도를 분류할 수 있으며, 3 개의 구간 중 가운데 구간에 해당하는 이력 정보 중 중요도가 가장 높은 소프트웨어 컴포넌트의 종류에 해당하는 이력 정보만을 유지하고 나머지 이력 정보는 모두 삭제하는 방식으로 이력 정보 데이터베이스를 갱신할 수 있다.The development environment management system can update the history information corresponding to the middle section of the three sections by determining whether to delete or maintain the history information according to the type of the software component. That is, the development environment management system can classify the importance according to the type of the software component, and only the history information corresponding to the type of the software component having the highest importance among the history information corresponding to the middle section of the three sections is maintained, The history information database can be updated in such a manner that all information is deleted.

또는, 개발 환경 관리 시스템은 3 개의 구간 중 가운데 구간에 해당하는 이력 정보를 소프트웨어 컴포넌트의 생성/수정 빈도에 따라 삭제 또는 유지 여부를 결정하여 갱신할 수 있다. 즉, 3 개의 구간 중 가운데 구간에 해당하는 이력 정보 중 그 생성/수정 빈도가 미리 설정된 기준 빈도보다 높은 이력 정보는 모두 삭제하고 나머지 이력 정보는 유지하는 방식으로 이력 정보 데이터베이스를 갱신할 수 있다.Alternatively, the development environment management system can determine whether to delete or maintain the history information corresponding to the middle section of the three sections according to the generation / modification frequency of the software component, and update the history information. That is, it is possible to update the history information database in such a manner that history information having a generation / correction frequency higher than a preset reference frequency among the history information corresponding to the middle section of the three sections is deleted and the remaining history information is maintained.

또는, 개발 환경 관리 시스템은 3 개의 구간 중 가운데 구간에 해당하는 이력 정보를 개발 시스템의 권한 정보에 따라 삭제 또는 유지 여부를 결정하여 갱신할 수 있다. 즉, 3 개의 구간 중 가운데 구간에 해당하는 이력 정보 중 그 권한 정보가 최고 권한 정보로 간주되는 권한 정보를 조정할 수 있는 권한조정 권한인 이력 정보는 그대로 유지하고, 나머지 이력 정보는 모두 삭제하는 방식으로 이력 정보 데이터베이스를 갱신할 수 있다.Alternatively, the development environment management system can update the history information corresponding to the middle section of the three sections by determining whether to delete or maintain the history information according to the authority information of the development system. That is, among the history information corresponding to the middle section of the three sections, the history information, which is the authority to adjust the authority information in which the authority information is regarded as the highest authority information, is maintained and the remaining history information is deleted The history information database can be updated.

개발 환경 관리 시스템은 3 개의 구간 중 가장 높은 인덱스를 포함하는 구간에 해당하는 이력 정보를 그대로 유지할 수 있다. 해당 구간에 해당하는 이력 정보는 생성/수정 일자가 비교적 최근의 것으로 간주할 수 있으며, 이에 해당 이력 정보가 다시 참조될 가능성은 높으므로 그대로 유지할 수 있다.The development environment management system can maintain the history information corresponding to the section including the highest index among the three sections. The history information corresponding to the corresponding section can be regarded as a relatively recent date of generation / modification, and the possibility that the history information is referred to again is high, so that it can be maintained.

상술한 바와 같은 기능을 수행하는 3D 영상 제공 장치는, 백업 파일 분산화 모듈(설명의 편의상 도면에는 도시하지 않음)을 포함할 수 있다.The 3D image providing apparatus that performs the functions as described above may include a backup file distribution module (not shown in the drawing for convenience of explanation).

백업 파일 분산화 모듈은, 해킹 또는 랜섬웨어와 같은 외부의 공격으로부터 보호하여야 할 사용자 정보나 시스템 정보 등과 같은 중요 정보를 백업 파일로 생성한 후, 생성된 백업 파일을 동일한 데이터를 포함하는 1차 백업 파일과 2차 백업을 차례로 생성하여 저장하되, 1차 백업 파일과 2차 백업 파일의 저장 장소를 달리 하여 저장한다.The backup file distribution module generates important information such as user information or system information to be protected from an external attack such as hacking or Ransomware as a backup file and then transmits the generated backup file to a primary backup file And the secondary backup are sequentially generated and stored, but the primary backup file and the secondary backup file are stored in different storage locations.

다만, 백업 파일의 생성은 1차와 2차에 한정되는 것은 아니며, 시스템의 성능 등을 고려하여 3차 이상의 복수 개의 백업 파일을 생성하여도 무방하다.However, the generation of the backup file is not limited to the primary and secondary, and a plurality of backup files of the tertiary or higher order may be generated in consideration of the performance of the system and the like.

그리고, 백업 파일 분산화 모듈은, 기 설정된 주기로(예를 들어, 시스템 상 기본적으로 설정된 주기인 3시간 마다 1회 내지 5시간 마다 1회 등, 다만 해당 설정된 주기에 한정되는 것은 아니며 사용자로부터 지정 받은 주기로 설정되어도 무방하다) 저장되었던 1차 백업 파일과 2차 백업 파일의 저장 장소를 시스템 상의 기 설정된 장소 또는 새롭게 생성된 장소로 변경한다.In addition, the backup file distribution module is not limited to the predetermined period, for example, once every three hours or once every five hours, which is basically a period set in the system, It is possible to set the storage location of the stored primary backup file and the secondary backup file to a predetermined place or a newly created place on the system.

이때, 백업 파일의 이동 장소는, 시스템 상에서 기 설정되거나 사용자로부터 지정 받은 장소가 아니라, 임의의 랜덤 변수에 따라 생성된 폴더나 서브 폴더로 지정됨이 바람직하다.At this time, it is preferable that the moving location of the backup file is designated as a folder or a subfolder generated according to an arbitrary random variable, not the default location set in the system or the location designated by the user.

이에 따라, 해킹 또는 랜섬웨어와 같은 공격형 프로그램이 공격하고자 하는 파일이 위치하는 폴더의 존재 또는 해당 폴더의 위치를 예측하고 용이하게 공격하는 것을 원천적으로 방지함은 물론, 삭제되어서는 안 되는 고객 정보와 같은 중요한 데이터가 사용자의 실수로 삭제되거나 수정되는 것을 방지할 수 있다.Accordingly, an attacking program such as a hacking or a random software can prevent the existence of a folder in which a file intended to be attacked or the location of the folder to be predicted and easily attacked, as well as prevent customer information It is possible to prevent the same important data from being deleted or modified by the user inadvertently.

본 발명에서, 1차 백업 파일과 2차 백업 파일은, 동일한 내용의 데이터를 포함하고 있는 파일들로써, 상호 간에 우열이 존재하는 것은 아니며, 파일의 이동에 있어서도 1차 백업 파일의 이동 후 2차 백업 파일이 이동하거나, 2차 백업 파일의 이동 후 1차 백업 파일이 이동하여도 무방하다.In the present invention, the primary backup file and the secondary backup file are files containing data of the same content, and there is no mutual rank, and even in the movement of the file, the secondary backup The file may be moved, or the primary backup file may be moved after the secondary backup file is moved.

일 실시예에서, 백업 파일 분산화 모듈은, 외부로부터 침입이 감지될 경우, 기 생성되었던 1차 백업 파일과 2차 백업 파일로부터의 복제를 연속적으로 수행하여 각 백업 파일의 서브 백업 파일들을 다수 개 생성하며, 생성된 다수 개의 서브 백업 파일들을 역시 랜덤 변수에 따라 생성된 서로 다른 장소에 개별적으로 저장할 수 있다.In one embodiment, when an intrusion is detected from the outside, the backup file distribution module continuously replicates from the pre-created primary backup file and the secondary backup file to generate a plurality of sub-backup files of each backup file And the generated plurality of sub-backup files may also be separately stored in different places generated according to random variables.

이에 따라, 시스템 상에서 산발적으로 생성된 다수 개의 백업 파일을 임의의 장소로 나누어 저장함으로써, 일부 백업 파일이 공격에 의해 손실되거나 삭제되는 경우에도 시스템 상에 산발적으로 존재하는 백업 파일을 이용하여 필요한 자료 등을 용이하게 복구하도록 할 수 있다.Accordingly, even if some backup files are lost or deleted due to an attack by storing a plurality of backup files sporadically generated in the system by dividing them into arbitrary places, it is possible to use a backup file that exists sporadically in the system to store necessary data Can be easily restored.

다음으로, 백업 파일 분산화 모듈은, 다수 개의 백업 파일 중 현재 공격받고 있는 백업 파일이라고 판단된 파일을 시스템 상에서 영구적으로 삭제하게 된다.Next, the backup file distribution module permanently deletes, from among a plurality of backup files, a file that is determined to be a currently received backup file on the system.

이에 따라, 본 발명에서는, 해킹 또는 랜섬웨어의 공격 등으로 인해 시스템 상에서 정상적인 기능을 수행하지 못하거나, 해당 공격으로 인해 시스템 상에 존재하는 다른 파일까지도 위험에 노출시킬 수 있는 좀비 프로그램으로 변할 수 있는 파일을 미연에 시스템 상에서 삭제시킴으로써, 일부 파일로 인해 시스템 전체가 공격받는 것을 미연에 방지할 수 있다.Accordingly, in the present invention, it is possible to change into a zombie program that can not perform a normal function on the system due to a hacking or an attack of the Ransomware or expose other files existing on the system due to the attack By deleting a file on the system beforehand, it is possible to prevent an entire system from being attacked by some files in advance.

일 실시예에서, 백업 파일 분산화 모듈은, 백업 파일을 클라우드 서비스와 연동된 동기화 폴더에 저장한 경우, 해당 동기화 폴더에 백업 파일의 저장이 완료되고 저장한 백업 파일이 클라우드 상에 업로드 되면, 해당 동기화 폴더에 대한 동기화를 해제할 수 있다.In one embodiment, when the backup file is stored in the synchronization folder cooperating with the cloud service, when the backup file is stored in the synchronization folder and the backup file is uploaded to the cloud, You can turn off synchronization for the folder.

예를 들어, 사용자의 동기화를 위한 클라우드 서비스가 "Dropbox"라고 할 경우, "Dropbox"에서 제공하고 있는 "선택적 동기화 서비스"를 이용하여 상술한 바와 같은 백업 파일 분산화 모듈의 기능을 구현하게 된다.For example, when the cloud service for user synchronization is called "Dropbox ", the function of the backup file distribution module as described above is implemented by using the " selective synchronization service"

즉, 백업 파일 분산화 모듈은, 백업 파일을 저장하기 위한 공간으로서 "백업 폴더"를 시스템 상에 생성하면, 클라우드 서비스는 새롭게 생성된 "백업 폴더"를 클라우드 상에서 역시 동일하게 생성하게 된다.That is, when the backup file distribution module creates a "backup folder" as a space for storing backup files on the system, the cloud service creates the newly created "backup folder" on the cloud in the same manner.

다음으로, 백업 파일 분산화 모듈은, 해당 폴더에 백업 파일을 저장하게 될 것이고, 이에 따라 클라우드 상에도 해당 백업 파일이 업로드 된다.Next, the backup file distribution module will store the backup file in the corresponding folder, and accordingly, the corresponding backup file is also uploaded in the cloud.

마지막으로, 클라우드 상에 해당 백업 파일의 업로드가 완료되면, 백업 파일 분산화 모듈은, 백업 파일 업로드에 사용되었던 "백업 폴더"에 대한 동기화만을 선택적으로 해제하고, "백업 폴더"를 시스템 상에서 삭제한다.Finally, when uploading of the corresponding backup file on the cloud is completed, the backup file distribution module selectively cancels the synchronization for the "backup folder" used for uploading the backup file, and deletes the "backup folder"

이 경우, 시스템 전체에 대한 동기화를 해제하는 것이 아니라, 백업 파일의 업로드에 사용하기 위해 임시적으로 생성되었던 "백업 폴더"만에 대한 동기화를 해제함으로써, 클라우드 서비스와의 안정적인 동기화 서비스는 지속적으로 수행하는 반면, 백업 파일은 클라우스 상에 업로드시킨 후 시스템 상에서는 삭제함에 따라 크라우드 상에서 백업 파일은 안전하게 저장하는 한편 시스템을 침투한 공격에 지속적으로 노출되는 것은 원천적으로 방지할 수 있게 된다.In this case, rather than releasing synchronization to the entire system, the synchronization service to the cloud service is continuously performed by releasing synchronization with only the "backup folder" temporarily created for use in uploading the backup file On the other hand, as backup files are uploaded on Klaus and deleted on the system, the backup files can be securely stored on the crowd, and it is possible to prevent continuous exposure to attacks that infiltrate the system.

일 실시예에서, 백업 파일 분산화 모듈은, 클라우드 상에 업로드 하였던 백업 파일의 저장 장소를 변경할 순서가 된 경우, 선택적 동기화를 해제하였던 폴더의 동기화를 다시 수행하여 클라우드 서비스에 업로드 하였던 백업 파일을 다운받은 후, 다운받은 백업 파일을 상술한 바와 같이 랜덤 변수에 따라 새롭게 생성된 장소로 이동시킬 수 있다.In one embodiment, when the storage location of the backup file uploaded on the cloud becomes a change order, the backup file distribution module re-synchronizes the folder from which the selective synchronization has been canceled to download the backup file uploaded to the cloud service After that, the downloaded backup file can be moved to the newly created place according to the random variable as described above.

도 3은 본 발명의 일 실시예에 따른 3D 영상 제공 방법의 순서도이다. 3 is a flowchart of a 3D image providing method according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 3D 영상 제공 방법은 도 1에 도시된 본 발명에 따른 3D 영상 제공 장치와 실질적으로 동일한 구성에서 진행될 수 있다. 따라서, 도 1의 3D 영상 제공 장치와 동일한 구성요소는 동일한 도면부호를 부여하고, 반복되는 설명은 생략한다.The 3D image providing method according to an embodiment of the present invention can be performed in substantially the same configuration as the 3D image providing apparatus according to the present invention shown in FIG. Therefore, the same components as those of the 3D image providing apparatus of FIG. 1 are denoted by the same reference numerals, and a repeated description thereof will be omitted.

도 3을 참조하면, 장치 조작부(200)는 기본 3D 영상을 제공할 수 있으며(S35), 사용자에 의한 장치 조작이 발생하는 경우(S10), 그에 따른 조작 정보를 생성할 수 있다(S20).Referring to FIG. 3, the device operation unit 200 can provide a basic 3D image (S35). When a device operation by a user occurs (S10), the device operation unit 200 can generate operation information corresponding thereto (S20).

장치 조작부(200)는 현재 출력중인 3D 영상의 특정 영역 상의 터치(tap), 드래그 앤 드랍(drag and drop), 회전 슬라이드 이동 및 두 지점에 대한 터치 이후 간격 조정(확대 또는 축소) 등에 해당하는 터치 조작을 감지하고, 현재 출력중인 3D 영상에서 터치 조작이 발생한 영역, 터치 조작이 발생한 시간, 터치 조작의 종류 및 터치 조작 속도 등을 식별하여 조작 정보를 생성할 수 있다. The device operation unit 200 displays a touch corresponding to a touch on a specific area of a currently output 3D image, drag and drop, rotation slide movement, and interval adjustment after touching two points An area where the touch operation has occurred in the currently output 3D image, a time at which the touch operation has occurred, a type of the touch operation, a touch operation speed, and the like can be detected and the operation information can be generated.

또한, 장치 조작부(200)는 3D 영상을 출력중인 장치 조작부(200)의 기울임에 해당하는 회전 조작을 감지하고, 회전 조작이 발생한 시간, 회전 방향 및 회전 각도 등을 식별하여 조작 정보를 생성할 수 있다. In addition, the device operation unit 200 can detect the rotation operation corresponding to the tilt of the device operation unit 200 that is outputting the 3D image, and can generate the operation information by identifying the time at which the rotation operation occurred, the rotation direction, have.

영상 구현부(100)는 장치 조작부(200)에 의해 조작 정보가 생성되는 경우(S20), 조작 정보에 따라 3D 영상을 구현할 수 있다(S30).If the operation information is generated by the device operation unit 200 (S20), the image implementing unit 100 may implement a 3D image according to the operation information (S30).

영상 구현부(100)는 장치 조작부(200)로부터 조작 정보를 전달 받는 경우, 조작 정보 별 3D 영상 변형 데이터를 참조하여 조작 정보에 대응하는 3D 영상 변형 데이터를 획득하고, 획득한 3D 영상 변형 데이터에 따라 현재 출력중인 3D 영상을 변형시킬 수 있다. 이때, 영상 구현부(100)는 장치 조작부(200)로부터 터치 조작 및 회전 조작에 대한 조작 정보를 동시에 또는 미리 정해진 시간 간격 이내로 전달 받는 경우, 미리 설정된 조작 우선순위에 따라 하나의 조작 정보를 선택하고, 선택한 조작 정보에 대응하는 3D 영상 변형 데이터를 획득할 수 있다.When the operation information is received from the device operation unit 200, the image implementing unit 100 acquires the 3D image deformation data corresponding to the operation information with reference to the 3D image deformation data of each operation information, Accordingly, it is possible to transform the 3D image currently being output. At this time, when the image implementing unit 100 receives the operation information for the touch operation and the rotation operation from the device operation unit 200 simultaneously or within a predetermined time interval, the image implementing unit 100 selects one operation information according to the preset operation priority order , 3D image transformation data corresponding to the selected operation information can be obtained.

도 4는 본 발명의 다른 실시예에 따른 3D 영상 제공 방법의 순서도이다. 4 is a flowchart of a 3D image providing method according to another embodiment of the present invention.

본 발명의 다른 실시예에 따른 3D 영상 제공 방법은 도 1에 도시된 본 발명에 따른 3D 영상 제공 장치와 실질적으로 동일한 구성에서 진행될 수 있다. 따라서, 도 1의 3D 영상 제공 장치와 동일한 구성요소는 동일한 도면부호를 부여하고, 반복되는 설명은 생략한다.The 3D image providing method according to another embodiment of the present invention can be performed in substantially the same configuration as the 3D image providing apparatus according to the present invention shown in FIG. Therefore, the same components as those of the 3D image providing apparatus of FIG. 1 are denoted by the same reference numerals, and a repeated description thereof will be omitted.

도 4를 참조하면, 장치 조작부(200)는 기본 3D 영상을 제공할 수 있으며, 사용자에 의한 장치 조작이 발생하는 경우(S40), 그에 따른 조작 정보를 생성할 수 있다(S50).Referring to FIG. 4, the device operation unit 200 can provide a basic 3D image. If a device operation by a user occurs (S40), the device operation unit 200 can generate operation information corresponding thereto (S50).

장치 조작부(200)는 현재 출력중인 3D 영상의 특정 영역 상의 터치(tap), 드래그 앤 드랍(drag and drop), 회전 슬라이드 이동 및 두 지점에 대한 터치 이후 간격 조정(확대 또는 축소) 등에 해당하는 터치 조작을 감지하고, 현재 출력중인 3D 영상에서 터치 조작이 발생한 영역, 터치 조작이 발생한 시간, 터치 조작의 종류 및 터치 조작 속도 등을 식별하여 조작 정보를 생성할 수 있다. The device operation unit 200 displays a touch corresponding to a touch on a specific area of a currently output 3D image, drag and drop, rotation slide movement, and interval adjustment after touching two points An area where the touch operation has occurred in the currently output 3D image, a time at which the touch operation has occurred, a type of the touch operation, a touch operation speed, and the like can be detected and the operation information can be generated.

또한, 장치 조작부(200)는 3D 영상을 출력중인 장치 조작부(200)의 기울임에 해당하는 회전 조작을 감지하고, 회전 조작이 발생한 시간, 회전 방향 및 회전 각도 등을 식별하여 조작 정보를 생성할 수 있다. In addition, the device operation unit 200 can detect the rotation operation corresponding to the tilt of the device operation unit 200 that is outputting the 3D image, and can generate the operation information by identifying the time at which the rotation operation occurred, the rotation direction, have.

영상 구현부(100)는 장치 조작부(200)에 의해 조작 정보가 생성되는 경우(S50), 조작 정보가 유의미한 조작 정보인지 여부를 확인할 수 있다(S60).When the operation information is generated by the device operation unit 200 (S50), the image implementing unit 100 can check whether the operation information is meaningful operation information (S60).

영상 구현부(100)는 3D 영상의 총 재생 시간에 따른 총 조작 정보의 개수를 기준으로 하여 해당 3D 영상의 재생 중에 발생한 조작 정보가 유의미한 조작 패턴에 해당하는지 여부를 판단할 수 있다. 즉, 3D 영상의 총 재생 시간에 비례하여 유의미한 조작 패턴 판단의 기준이 되는 총 조작 정보의 최소 개수가 미리 설정될 수 있다.The image implementing unit 100 can determine whether the operation information generated during the reproduction of the 3D image corresponds to a significant operation pattern based on the total number of operation information according to the total reproduction time of the 3D image. That is, the minimum number of total operation information that is a criterion for judging a significant operation pattern in proportion to the total reproduction time of the 3D image can be set in advance.

또는, 영상 구현부(100)는 가장 최근에 학습된 사용자의 3D 영상 조작 패턴과 현재 종료된 3D 영상의 재생 중에 발생한 조작 정보에 따른 조작 패턴의 일치도를 산출하고, 산출한 일치도가 미리 설정된 유의미한 조작 패턴 판단의 기준이 되는 값 이상인 경우, 현재 종료된 3D 영상의 재생 중에 발생한 조작 정보를 유의미한 조작 패턴으로 판단하여 사용자의 3D 영상 조작 패턴으로 학습할 수 있다. 이때, 조작 패턴을 구성하는 조작 정보의 개수 별로 유의미한 조작 패턴 판단의 기준이 되는 값이 설정될 수 있다.Alternatively, the image implementing unit 100 may calculate the degree of agreement between the 3D image manipulation pattern of the most recently learned user and the manipulation information generated during the playback of the 3D image, and if the calculated degree of agreement is a predetermined significant manipulation The operation information generated during the reproduction of the 3D image which has been terminated can be determined as a meaningful operation pattern and can be learned by the 3D image operation pattern of the user. At this time, a value serving as a criterion for determining a meaningful operation pattern for each number of pieces of operation information constituting the operation pattern can be set.

영상 구현부(100)는 조작 정보가 유의미한 조작 정보로 판단되는 경우(S60), 조작 정보를 학습하고(S70), 조작 정보에 따라 3D 영상을 구현할 수 있다(S80).If the operation information is determined to be significant operation information (S60), the image implementing section 100 learns the operation information (S70) and can implement the 3D image according to the operation information (S80).

영상 구현부(100)는 3D 영상의 재생 중에 조작 정보의 순서대로 사용자의 3D 영상 조작 패턴으로 학습할 수 있다.The image implementing unit 100 can learn the 3D image manipulation pattern of the user in the order of the manipulation information during the playback of the 3D image.

영상 구현부(100)는 장치 조작부(200)로부터 조작 정보를 전달 받는 경우, 조작 정보 별 3D 영상 변형 데이터를 참조하여 조작 정보에 대응하는 3D 영상 변형 데이터를 획득하고, 획득한 3D 영상 변형 데이터에 따라 현재 출력중인 3D 영상을 변형시킬 수 있다. 이때, 영상 구현부(100)는 장치 조작부(200)로부터 터치 조작 및 회전 조작에 대한 조작 정보를 동시에 또는 미리 정해진 시간 간격 이내로 전달 받는 경우, 미리 설정된 조작 우선순위에 따라 하나의 조작 정보를 선택하고, 선택한 조작 정보에 대응하는 3D 영상 변형 데이터를 획득할 수 있다.When the operation information is received from the device operation unit 200, the image implementing unit 100 acquires the 3D image deformation data corresponding to the operation information with reference to the 3D image deformation data of each operation information, Accordingly, it is possible to transform the 3D image currently being output. At this time, when the image implementing unit 100 receives the operation information for the touch operation and the rotation operation from the device operation unit 200 simultaneously or within a predetermined time interval, the image implementing unit 100 selects one operation information according to the preset operation priority order , 3D image transformation data corresponding to the selected operation information can be obtained.

한편, 영상 구현부(100)는 기본 3D 영상을 제공할 수 있으며, 사용자에 의한 장치 조작이 발생하지 않는 경우(S40), 미리 학습된 조작 정보에 따라 3D 영상을 구현할 수 있다(S85).Meanwhile, the image implementing unit 100 may provide a basic 3D image. If the apparatus operation by the user does not occur (S40), a 3D image may be implemented according to the previously learned operation information (S85).

영상 구현부(100)는 사용자 별 3D 영상 조작 패턴을 학습하고, 추후 해당 사용자가 3D 영상을 시청하는 경우 별도의 조작이 발생하지 않더라도 미리 학습된 3D 영상 조작 패턴에 따라 3D 영상을 변형시켜 제공할 수 있다.The image implementing unit 100 learns 3D image manipulation patterns for each user and transforms 3D images according to previously learned 3D image manipulation patterns even if no other manipulation occurs when the user views 3D images later .

이와 같은, 본 발명의 3D 영상 제공 방법은 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.As described above, the 3D image providing method of the present invention can be implemented as an application or implemented in the form of program instructions that can be executed through various computer components and recorded on a computer-readable recording medium. The computer-readable recording medium may include program commands, data files, data structures, and the like, alone or in combination.

상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.The program instructions recorded on the computer-readable recording medium may be ones that are specially designed and configured for the present invention and are known and available to those skilled in the art of computer software.

컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.

프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of program instructions include machine language code such as those generated by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules for performing the processing according to the present invention, and vice versa.

이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it will be understood by those skilled in the art that various changes and modifications may be made therein without departing from the spirit and scope of the invention as defined in the appended claims. It will be possible.

100: 영상 구현부
200: 장치 조작부
100:
200:

Claims (2)

3D 영상을 출력하며, 상기 3D 영상 상에서 행해지는 사용자의 터치 조작 또는 회전 조작을 수용하여 조작 정보를 생성하는 장치 조작부; 및
상기 조작 정보에 따라 상기 3D 영상을 변환하여 상기 장치 조작부를 통해 출력하는 영상 구현부를 포함하되,
상기 장치 조작부는,
현재 출력중인 3D 영상의 특정 영역 상의 터치(tap), 드래그 앤 드랍(drag and drop), 회전 슬라이드 이동 및 두 지점에 대한 터치 이후 간격 확대 조정 및 간격 축소 조정 중 적어도 하나를 포함하는 터치 조작을 감지하고,
상기 장치 조작부의 기울임에 해당하는 회전 조작을 감지하며,
상기 3D 영상에서 상기 터치 조작이 발생한 영역, 상기 터치 조작이 발생한 시간, 상기 터치 조작의 종류 및 상기 터치 조작 속도를 식별하여 상기 조작 정보를 생성하거나, 상기 회전 조작이 발생한 시간, 회전 방향 및 회전 각도를 식별하여 상기 조작 정보를 생성하고,
상기 영상 구현부는,
상기 3D 영상의 재생이 종료되는 경우, 상기 3D 영상의 총 재생 시간에 따른 총 조작 정보의 개수 또는 가장 최근에 학습된 사용자의 3D 영상 조작 패턴과 상기 3D 영상의 재생 중에 발생한 조작 정보에 따른 조작 패턴의 일치도 중 어느 하나를 기준으로 하여 상기 3D 영상의 재생 중에 발생한 조작 정보가 유의미한 조작 패턴에 해당하는지 여부를 판단하고,
상기 3D 영상의 재생 중에 발생한 조작 정보가 유의미한 조작 패턴에 해당하는 것으로 판단한 경우, 상기 3D 영상의 재생 중에 발생하는 조작 정보를 순서대로 나열하여 사용자의 3D 영상 조작 패턴으로 학습하며,
상기 조작 정보에 따라 상기 3D 영상을 변환하거나, 상기 사용자의 3D 영상 조작 패턴에 따라 상기 3D 영상을 변환하여 상기 장치 조작부를 통해 출력하는 3D 영상 제공 장치.
A device operation unit for outputting a 3D image and generating operation information by receiving a touch operation or a rotation operation of a user performed on the 3D image; And
And an image implementation unit for converting the 3D image according to the operation information and outputting the converted 3D image through the apparatus operation unit,
The apparatus control unit includes:
Touch operation including at least one of a touch on a specific area of a currently output 3D image, a drag and drop, a rotation slide movement, and an after-touch interval adjustment for two points and an interval reduction adjustment is detected and,
A rotation operation corresponding to the tilting of the apparatus operation portion is sensed,
An area where the touch operation occurred in the 3D image, a time at which the touch operation occurred, a type of the touch operation, and the touch operation speed to generate the operation information, or the time at which the rotation operation occurred, To generate the operation information,
Wherein the image implementing unit includes:
The number of the total operation information according to the total reproduction time of the 3D image or the operation pattern according to the 3D information operation pattern of the most recently learned user and the operation information generated during the reproduction of the 3D image, And determines whether or not the operation information generated during the reproduction of the 3D image corresponds to a significant operation pattern,
When the operation information generated during the reproduction of the 3D image is determined to correspond to a meaningful operation pattern, the operation information generated during the reproduction of the 3D image is listed in order,
Converting the 3D image according to the operation information, or converting the 3D image according to the 3D image manipulation pattern of the user, and outputting the 3D image through the device operation unit.
삭제delete
KR1020180122217A 2018-10-13 2018-10-13 Apparatus for displaying 3d image KR101964466B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180122217A KR101964466B1 (en) 2018-10-13 2018-10-13 Apparatus for displaying 3d image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180122217A KR101964466B1 (en) 2018-10-13 2018-10-13 Apparatus for displaying 3d image

Publications (1)

Publication Number Publication Date
KR101964466B1 true KR101964466B1 (en) 2019-04-01

Family

ID=66104410

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180122217A KR101964466B1 (en) 2018-10-13 2018-10-13 Apparatus for displaying 3d image

Country Status (1)

Country Link
KR (1) KR101964466B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120115015A (en) * 2011-04-08 2012-10-17 엘지전자 주식회사 Mobile twrminal and 3d multi-angle view controlling method thereof
KR20140045023A (en) * 2012-10-07 2014-04-16 이승철 Interface to move the direction of the three-dimensional space on the screen page

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120115015A (en) * 2011-04-08 2012-10-17 엘지전자 주식회사 Mobile twrminal and 3d multi-angle view controlling method thereof
KR20140045023A (en) * 2012-10-07 2014-04-16 이승철 Interface to move the direction of the three-dimensional space on the screen page

Similar Documents

Publication Publication Date Title
CN105359097B (en) Beam file for shared file is permitted
CN113806036A (en) Output of virtual content
US11558562B2 (en) Apparatus and method for providing 360-degree panoramic background during video call
EP2745488B1 (en) Method and apparatus for accessing a virtual object
KR101964466B1 (en) Apparatus for displaying 3d image
KR101982540B1 (en) 3D simulation device
KR101994932B1 (en) Method, system and computer program for providing video captcha
EP3690688A1 (en) Unlocking method and virtual reality device
CN109636922B (en) Method and device for presenting augmented reality content
KR102138835B1 (en) Apparatus and method for providing information exposure protecting image
KR20200136761A (en) Display apparatus and control method thereof
KR20130048960A (en) Method, terminal, and recording medium for controlling screen output
CN114138250A (en) Method, device and equipment for generating steps of system case and storage medium
KR102375806B1 (en) Method and apparatus for providing video viewing rate information for each user
WO2022131347A1 (en) Information processing system, information processing method, and information processing program
KR102493345B1 (en) Method and system for seeking video using progress bar
JP7370461B2 (en) Methods, apparatus, systems, devices, and storage media for playing media data
US20230305303A1 (en) User Control in Augmented Reality
KR102195898B1 (en) Method and apparatus for editing screen of device.
KR102533209B1 (en) Method and system for creating dynamic extended reality content
CN113365132B (en) Image processing method and device, electronic equipment and storage medium
JP7277562B2 (en) Marker detection method using image matching, its device and its program
US20240100417A1 (en) Outputting braille or subtitles using computer game controller
KR102403719B1 (en) Electronic device and control method thereof
KR20230054491A (en) Improved targeting of individual objects among multiple objects in multiplayer online video games

Legal Events

Date Code Title Description
GRNT Written decision to grant