KR101860313B1 - 3차원 공간에서의 장면 편집 방법 및 시스템 - Google Patents

3차원 공간에서의 장면 편집 방법 및 시스템 Download PDF

Info

Publication number
KR101860313B1
KR101860313B1 KR1020170007294A KR20170007294A KR101860313B1 KR 101860313 B1 KR101860313 B1 KR 101860313B1 KR 1020170007294 A KR1020170007294 A KR 1020170007294A KR 20170007294 A KR20170007294 A KR 20170007294A KR 101860313 B1 KR101860313 B1 KR 101860313B1
Authority
KR
South Korea
Prior art keywords
smart device
dimensional space
dimensional
scene
image
Prior art date
Application number
KR1020170007294A
Other languages
English (en)
Other versions
KR20170104371A (ko
Inventor
리 유쉬엔
Original Assignee
프래미 인코퍼레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 프래미 인코퍼레이티드 filed Critical 프래미 인코퍼레이티드
Publication of KR20170104371A publication Critical patent/KR20170104371A/ko
Application granted granted Critical
Publication of KR101860313B1 publication Critical patent/KR101860313B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/61Scene description
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 3차원 공간 장면을 편집하는 방법 및 시스템에 관한 것으로, 사용자가 스마트 장치를 조작하여 직관적인 방식으로 3차원 공간에서 편집 위치를 결정할 수 있게 하고, 장치 내의 센서를 이용하여 3차원 공간의 위치 신호를 획득하며, 스크린을 터치하여 해당 객체를 직접 편집하여 객체의 위치, 크기, 회전각도 또는 회전방향을 기록할 뿐만 아니라, 소프트웨어적인 방법을 이용하여 3차원 장면 내의 이동 및 변화를 기록하여, 하나의 3차원 장면 내에서 동영상을 생성한다. 재생시에는 사용자가 스마트 장치를 조작하는 공간적 위치에 따라, 3차원 장면 내의 하나 이상의 객체에 대하여 해당 공간 내에서의 이동 및 변화를 재현하여, 사용자가 3차원 공간 내에서의 장면을 직관적으로 편집하고자 하는 목적을 달성할 수 있다.

Description

3차원 공간에서의 장면 편집 방법 및 시스템{METHOD AND SYSTEM FOR EDITING SCENE IN THREE-DIMENSIONAL SPACE}
본 발명은 3차원 공간에서의 편집 기술에 관한 것으로, 특히, 스마트 장치를 이용하여 3차원 공간에서 해당 장면의 객체를 편집하는 방법 및 시스템에 관한 것이다.
본 기술은 3차원 가상 공간 내에서 컴퓨터 이미지 처리 설계를 이용하여 해당 3차원 공간 내의 각종 이미지 객체를 디스플레이하여, 사용자가 상기 3차원 가상 공간을 브라우징할 때 객체가 3차원 공간에 있는 것처럼 볼 수 있어서, 일반적인 평면 이미지를 볼 때의 경험과 차이가 있다. 3차원 가상 공간 내에 각종 이미지를 형성하는 일반적인 방식은, 컴퓨터 소프트웨어를 이용하여 입체적인 객체를 생성하고 좌표를 전환하여 3차원 가상 공간의 객체를 형성하여, 최종적으로 특수 재생기를 사용하여 3차원 가상 이미지를 송출하는 것이다.
별도의 소프트웨어를 사용하지 않고 자체적으로 스마트 장치를 작동하여 직관적인 방식으로 3차원 공간에서 해당 장면을 편집하도록 하는 3차원 공간에서의 장면 편집 방법 및 시스템을 제공한다.
본 발명은 3차원 공간의 장면 편집 방법 및 시스템을 개시한다. 본 발명의 목적은 사용자로 하여금 자체적으로 스마트 장치를 작동하여 직관적인 방식으로 3차원 공간에서 해당 장면을 편집하도록 하는 것으로, 장면 내에서 하나 이상의 이미지 객체를 포함한다. 본 발명의 방법에 따르면, 사용자가 스마트 장치를 손에 들고 일정한 공간에서 하나의 편집 위치를 결정하면, 소프트웨어 프로그램이 장치 내의 센서를 이용하여 3차원 공간에서의 위치 신호를 획득하여 사용자가 터치 스크린을 사용하여 직접 해당 객체를 편집할 수 있게 한다. 객체의 위치, 크기, 회전각도 또는 회전방향을 기록할 뿐만 아니라, 소프트웨어적인 방법을 이용하여 3차원 장면 내의 이동 및 변화를 기록하여, 하나의 3차원 장면 내에서 동영상을 생성한다.
일 실시예에 따르면, 명세서에 개시한 3차원 공간의 장면 편집 방법의 주요 과정에는 다음을 포함한다: 스마트 장치를 이동하여 3차원 공간 내의 위치 신호를 생성하고, 이 위치에 하나의 객체를 불러오고, 스마트 장치를 이용하여 3차원 공간의 제1 위치에서 객체를 편집하고, 객체의 크기, 회전각도 및 회전방향 등과 같은 제1 위치에서의 객체 상태를 확정하고, 다음으로, 상기 3차원 공간의 제1 위치의 객체 상태를 저장한다.
다른 실시예에 있어서, 객체 편집시 스마트 장치를 제2 위치처럼 또 다른 위치로 이동할 수 있고, 이동과 동시에 객체의 제1 위치로부터 제2 위치까지의 이동 궤적이 확정되고 이러한 연속 상태 및 이동 궤적이 시스템 내에 저장된다.
또 다른 실시예에 따르면, 하나의 3차원 공간 내에서 다수의 객체를 불러올 수 있고, 각 객체의 편집은 전술한 바와 같다. 스마트 장치를 이동하여 동일한 3차원 공간 내에서의 위치 신호를 생성하고, 상기 제1 위치에 제1 객체 불러오기를 하여 제1 객체의 상태를 확정한다. 스마트 장치를 제2 위치로 이동하는 중에는 객체의 이동 및 변화를 제어할 수 있고, 생성된 연속 변화 및 제1 이동 궤적은 모두 시스템 내에 저장될 수 있다.
다음으로 제2 객체 불러오기를 하고 나서 스마트 장치를 조작하여 3차원 공간 내에서 제3 위치에서 제4 위치까지 이동하면, 동시에 제2 객체의 상태를 변경할 수 있고, 생성된 연속 상태 및 제2 이동 궤적이 시스템 내에 저장된다.
마지막으로, 제1 객체 및 제2 객체를 재생시키는 조건을 설정한다.
일 실시예에 따른 3차원 공간의 장면 편집 시스템의 주요 구성요소에는, 스마트 장치가 3차원 공간 내의 위치 신호를 획득하기 위한 3차원 공간의 위치 모듈; 3차원 공간 내의 이미지 객체 및 3차원 장면을 처리하고, 스마트 장치가 생성하는 위치 신호에 대응하여 하나의 디스플레이 이미지를 생성하기 위한 영상처리 모듈; 3차원 공간 내의 디스플레이 이미지를 출력하는 디스플레이 모듈; 이미지 객체의 사용자 인터페이스를 작동하게 하고, 3차원 공간에서의 이미지 객체의 상태를 결정하도록 하는 터치모듈; 및 최종 형성된 이미지 객체 및 관련 3차원 장면을 주로 저장하는 저장 모듈을 포함한다.
3차원 공간의 장면 편집 시스템은 스마트 장치 내의 메모리에 저장하는 편집 프로그램 패키지 및 재생 프로그램 패키지를 더 포함하고, 프로그램 패키지는 스마트 장치가 생성한 3차원 공간 내의 위치 신호를 획득하는 명령어; 위치 신호에 대응하는 3차원 장면의 이미지를 표시하는 명령어; 이미지 객체의 상이한 위치 상태 및 이동 궤적을 편집하는 명령어; 객체의 상이한 위치 상태 및 이동 궤적을 기록하는 명령어; 객체를 재현시의 재생 조건을 설정하는 명령어; 및 객체를 재현하는 명령어를 포함한다.
장치 내의 센서를 이용하여 3차원 공간의 위치 신호를 획득하며, 스크린을 터치하여 해당 객체를 직접 편집하여 객체의 위치, 크기, 회전각도 또는 회전방향을 기록할 뿐만 아니라, 소프트웨어적인 방법을 이용하여 3차원 장면 내의 이동 및 변화를 기록하여, 하나의 3차원 장면 내에서 동영상을 생성한다. 재생시에는 사용자가 스마트 장치를 조작하는 공간적 위치에 따라, 3차원 장면 내의 하나 이상의 객체에 대하여 해당 공간 내에서의 이동 및 변화를 재현하여, 사용자가 3차원 공간 내에서의 장면을 직관적으로 편집하고자 하는 목적을 달성할 수 있다.
도 1a 및 도 1b는 사용자가 스마트 장치를 조작하여 3차원 공간에서 편집을 진행하는 상황을 나타내는 개념도이다.
도 2a는 사용자가 스마트 장치를 조작하여 객체를 편집하여 축소 및 확대하는 상황을 나타내는 개념도이다.
도 2b는 사용자가 스마트 장치를 조작하여 객체를 편집하여 회전하는 상황을 나타내는 개념도이다.
도 2c는 사용자가 스마트 장치를 조작하여 객체를 편집하고 이동시키는 상황을 나타내는 개념도이다.
도 3은 본 발명의 실시예에 따라 3차원 공간의 장면을 편집하는 방법을 구현하는 스마트 장치의 기능 모듈을 나타내는 도면이다.
도 4는 본 발명의 제1 실시예에 따른 3차원 공간의 장면 편집 방법의 단계를 나타낸다.
도 5는 본 발명의 제2 실시예에 따른 3차원 공간의 장면 편집 방법의 단계를 나타낸다.
도 6는 본 발명의 제3 실시예에 따른 3차원 공간의 장면 편집 방법의 단계를 나타낸다.
도 7는 본 발명의 제4 실시예에 따른 3차원 공간의 장면 편집 방법의 단계를 나타낸다.
본 발명의 소정의 목적을 달성하고자 채택한 기술, 수단 및 효과를 더욱 이해할 수 있도록 하기 위하여 아래의 본 발명의 상세한 설명 및 도면을 참고한다. 본 발명의 목적 및 특징을 통하여 심도 있고 구체적인 이해를 도모할 수 있다. 그러나, 첨부된 도면은 단지 참고 및 해설을 위한 것일 뿐, 본 발명을 제한하는 것으로 사용되어서는 안 된다.
본 발명은 3차원 공간의 장면 편집 방법 및 시스템을 개시한다. 본 발명에 따른 기술은 스마트 장치에서 작동하는 소프트웨어 프로그램을 통하여 구현되어, 소프트웨어를 이용하여 사용자가 직관적으로 3차원 공간 내의 각종 정적 또는 동적 3차원 객체를 편집하도록 한다. 이로써, 사용자가 스마트 장치를 스스로 조작하여 직관적인 방식으로 3차원 공간에서 위치를 이동하여 편집 위치를 결정하고, 공간 센서(예컨대, 자이로스코프)가 생성한 위치 신호를 획득하면서, 사용자가 스크린을 터치하여 해당 객체를 직접 편집하고, 객체의 위치, 크기, 회전각도 또는 회전방향을 편집하고, 소프트웨어적으로 이러한 3차원 장면의 이동 및 변화를 기록하고, 하나의 3차원 장면 내에서 동영상을 생성하는 것을 포함한다. 3차원 장면 및 그 안의 객체 이미지를 재현하는 경우에는, 사용자가 스마트 장치에서 조작한 공간적 위치에 근거하여, 재생 프로그램은 3차원 장면 내의 하나 이상의 객체를 상기 공간 내에서의 이동 및 변화로 재현할 수 있다.
사용자로 하여금 직관적인 방식으로 3차원 공간 내의 이미지 객체를 편집하는 상황은 도 1a 및 도 1b의 개념도를 참고한다. 상황 개념도에서, 사용자(10)는 스마트 장치(101)를 조작하여 3차원 공간의 소정의 위치에서 편집을 할 수 있다. 스마트 장치(101)에 설치된 3차원 장면의 편집 프로그램은 모바일 어플리케이션(APP)으로 구현될 수 있다. 편집 전에 먼저 하나의 3차원 장면을 불러올 수 있는데, 이는 360도 3차원 공간을 포괄하는 각각의 3차원 장면이다. 스마트 장치(101)의 디스플레이 화면 상에 사용자의 조작에 따라 3차원 공간의 위치 신호를 생성할 수 있고 이에 대응되는 장면 이미지를 디스플레이할 수 있다. 따라서, 바라보고자 하는 소정의 방향의 이미지 콘텐트에 스마트 장치(101) 스크린의 크기 및 해상도가 영향을 미칠 수 있다는 점을 유의하여야 한다. 또한, 사용자는 바라보고자 하는 화면이 커버하는 이미지 비율을 결정할 수 있고, 객체 편집시 그 크기를 조절하는 기능을 사용할 수 있다.
도 1a는 사용자(10)가 스마트 장치(101)을 머리 위쪽(위치A)으로 이동하여 편집을 하는 것을 개념적으로 나타내고 있다. 스마트 장치(101)의 터치스크린은 편집을 위한 사용자 인터페이스로서, 이 때의 스마트 장치(101)의 디스플레이 화면에는 3차원 이미지 내에서의 사용자(관람자)의 머리 위쪽 부근의 전체적인 이미지를 나타내고 있다. 디스플레이 화면은 스마트 장치(101)의 디스플레이 화면의 크기 및 해상도와 관련있고, 사용자가 설정한 디스플레이 비율과 상관있다.
상기 예에서, 사용자(10) 머리 위쪽 부근의 A 위치는 편집 위치이고, 사용자가 편집 프로그램을 통하여 그 방향의 3차원 장면의 대응 이미지를 바라 보면서, 소프트웨어 툴을 통해 이미지 객체를 불러올 수 있다. 이 이미지 객체는 정적 또는 동적 이미지일 수 있다. 편집시에는 A 위치에서의 상기 이미지 객체의 상태를 확정하게 되는데, A 위치에서 디스플레이 되는 크기 및 회전각도를 포함한다. 만약 객체가 3차원 객체이면, 디스플레이되는 회전방향을 결정할 수 있다.
다른 실시예에서, 스마트 장치(101)를 직접 조작하고 소정의 위치(예컨대, A 위치)의 객체의 상태를 결정하는 것 이외에도, 상기 객체에 대한 상기 A 위치에서의 소정의 시간 동안의 상태 변화를 기록할 수 있고, 이 때, 상기 소정의 시간내의 크기, 회전각도 및/또는 회전방향과 같은 연속적인 변화를 포함한다.
또 다른 실시예에 따르면, 객체를 편집할 때 반드시 3차원 장면을 불러 올 필요는 없다. 또한, 객체 편집을 완료한 후에 3차원 장면을 객체와 통합하여 최종적인 이미지를 형성할 수 있다.
도 1b는 사용자(10)가 스마트 장치(101)를 수평 이동된 두 곳의 위치에서 조작하는 것을 나타내는 것으로, 디스플레이 화면이 좌측의 B 위치 및 우측의 C 위치를 향하면서 편집을 진행하는 상황을 나타내는 개념도이다. 사용자(10)는 한 손으로 스마트 장치(101)를 들고서 3차원 공간 내에서 이동하며 B 위치에서의 객체 편집을 확정하려는 경우, 편집 프로그램이 스마트 장치(101)의 위치 신호(예컨대, 자이로스코프가 생성한 위치 정보)를 획득하고, 디스플레이 화면이 상기 위치 신호에 대응하는 3차원 장면 이미지를 디스플레이하여, B 위치의 객체의 상태를 확정할 수 있다. 마찬가지로, 사용자(10)가 스마트 장치(101)를 도면상의 C 위치로 이동할 때, 편집 프로그램은 상기 C 위치에 해당되는 위치 신호를 획득하고, C 위치 방향의 3차원 장면의 이미지에 대응하여 이미지를 디스플레이함으로써, 사용자(10)가 상기 C 위치 부근의 장면을 편집할 수 있도록 한다.
상술한 상황 개념도에 따르면, 3차원 공간에서 객체를 편집하는 동시에 또는 그 후에, 가상현실의 이미지와 같은 3차원 장면을 불러올 수 있다. 사용자(10)가 공간 내에서 스마트 장치(101)를 상하좌우로 이동하여 디스플레이 화면 상에서 각 방향에 대응하는 장면 화면을 볼 수 있다. 객체 이미지를 편집할 때뿐만 아니라, 스마트 장치(101) 상의 촬영 모듈을 동시에 이용하여 사용자가 처해 있는 공간의 실제 3차원 이미지를 획득할 수 있다. 즉, 상기 실제 공간에서 직접적으로 이미지 객체를 편집할 수 있는 것으로, 실제와 가상을 통합하는 목적을 달성하게 된다.
다음으로, 도 2a는 사용자가 스마트 장치를 조작하여 객체를 편집하여 축소 및 확대하는 상황을 나타내는 개념도로서, 사용자가 직접 스마트 장치(101)의 터치스크린을 조작하여 손가락으로 해당 객체(21)를 편집하는 것을 보여주고 있다. 3차원 공간 내의 소정의 공간 위치에서 객체(21)를 편집함에 있어서, 손가락을 사용으로 객체(21)의 축소/확대가 제어되고, 대응하는 터치 신호가 반영되어 상기 3차원 공간 내의 소정의 장면 위치가 보여지는 때에 나타나는 크기를 결정된다.
도 2b는 사용자가 스마트 장치를 조작하여 객체를 회전시키는 것을 나타내는 개념도로서, 사용자가 스마트 장치(101)의 터치스크린을 통하여 손가락으로 객체(21)를 회전시키는 것을 나타낸다. 조작 생성된 터치 신호는 손가락으로 제어된 객체(21)의 회전각도에 반영되어, 상기 3차원 공간의 소정의 장면 위치에서의 회전각도가 결정된다.
도 2c는 사용자가 스마트 장치를 사용하여 객체를 이동 편집하는 상황 개념도로서, 사용자가 스마트 장치(101)를 손에 쥐고 3차원 공간 내의 제1 위치로 이동하는 것을 나타낸다. 객체를 불러올 때 상기 위치에서 보여지는 것은 제1 위치에서의 객체(21a)이다. 이어서, 사용자는 상기 객체를 디스플레이 화면의 소정의 위치 상에 고정시킬 수 있다. 예컨대, 손가락으로 스크린 상의 객체를 누른 상태로 공간 내에서 제2 위치로 이동하면 제2 위치의 객체(21b)가 표시된다. 이러한 편집 동작으로 상기 동일한 객체가 3차원 공간 내에서 이동 궤적을 형성한다. 즉, 객체가 3차원 공간에서 소정의 시간 동안 제1 위치에서 제2 위치로 이동되는 것이 결정된다.
이상의 여러 상황 개념도들은 다음과 같이 나타날 수 있다. 사용자가 스마트 장치(101)를 조작하여 3차원 공간 내에서 이동하고, 직관적으로 객체를 편집하고자 하는 위치에서 우선 잠시 움직이지 않는다. 이 때 객체의 크기, 회전각도 또는 회전방향 등의 상태를 편집할 수 있다; 다음으로, 스마트 장치(101)를 이동함으로써 객체의 상기 공간에서의 이동 궤적이 결정될 수 있다. 이동과 동시에 객체의 해당 이동중의 상태 변화도 결정된다. 크기, 회전각도 및/또는 회전방향을 동시에 변경하는 것을 포함한다. 이동은 위치 변경을 의미한다. 이러한 프로세스는 소프트웨어 프로그램을 통하여 기록되어 3차원 장면 내의 애니메이션을 생성한다.
본 발명의 실시예에 따르면, 시스템은 본 발명의 3차원 공간에서의 장면을 편집하는 방법을 구현하기 위한 것으로서, 소프트웨어와 하드웨어가 서로 통합된 것처럼 시스템이 구비되어 스마트 장치 내에서 응용될 수 있다. 이와 관련한 기능 모듈의 실시예는 도 3에 도시된다.
도시된 3차원 공간의 장면 편집 시스템은 3차원 공간 위치 모듈(33)을 포함한다. 3차원 공간 위치 모듈(33)은 스마트 장치를 이용하여 3차원 공간 내의 위치 신호를 획득한다. 실시예에 따라, 자이로스코프(gyroscope)를 사용하여 스마트 장치의 3차원 방향을 감지함으로써, 3차원 공간 내의 위치 신호를 생성한다.
시스템에는 3차원 공간 내에서 디스플레이되는 화면을 위한 이미지 처리 모듈(31)이 설치된다. 3차원 공간 내의 3차원 장면(301) 및 상기 장면 내의 이미지 객체(302)를 디스플레이하는 것을 포함한다. 3차원 장면 재현시, 상기 스마트 장치가 생성한 3차원 공간의 위치 신호에 대응하여 디스플레이 이미지를 생성한다. 이미지 객체(302)는 하나 이상의 객체일 수 있다. 편집시, 사용자가 스마트 장치를 조작하여 3차원 공간 내의 특정 위치에서의 각 객체 상태를 확정할 수 있고, 최종적으로 3차원 장면(301)과 이미지를 통합할 수 있다.
시스템은 3차원 공간 내의 디스플레이 이미지를 출력하고 스마트 장치의 디스플레이 화면을 포함하는 디스플레이 모듈(39)을 구비한다. 시스템은 이미지 객체를 조작하는 사용자 인터페이스를 제공하고, 사용자로 하여금 터치 방식으로 해당 장면을 편집하도록 하는 터치 모듈(37)을 포함한다. 이 때, 객체를 포함하고, 3차원 공간에서의 이미지 객체의 상태를 결정할 수 있는데, 도 2a 내지 도 2c에 나타난 각종 변화와 같다. 시스템은 조작을 완료한 후의 3차원 장면 및 이미지 객체의 3차원 공간 내에서의 소정의 시간 및 위치에서의 상태를 저장하기 위한 저장 모듈(35)을 구비한다.
일 실시예에 따르면, 상기 소프트웨어 혹은 하드웨어적으로 구현한 3차원 공간의 장면 편집 시스템에 있어서, 스마트 장치 내의 메모리에 저장하는 편집 프로그램 패키지 및 재생 프로그램 패키지를 더 포함한다. 프로그램 패키지는 단일한 소프트웨어 프로그램으로 구현되거나 상이한 다수의 프로그램으로 구현될 수 있다. 이러한 프로그램 패키지는, 스마트 장치에서 생성되고 편집 및 재생시 이미지 정보를 획득하는 목적으로 제공되는 3차원 공간 내의 위치 신호를 획득하는 명령어; 및 위치 신호에 대응하는 3차원 장면의 이미지를 표시하는 명령어를 포함한다. 상기 이미지 표시 명령어는 위치 신호에 따라 소정의 방향의 이미지를 생성할 수 있고, 상기 3차원 장면의 이미지의 표시 범위는 스마트 장치의 스크린의 크기 및 해상도에 따라 비율 관계가 있을 수 있다. 또한, 사용자가 보고자 하는 범위의 비율을 선택하게 할 수도 있다. 또한, 명령 패키지는 이미지 객체가 상이한 위치의 상태 및 이동 궤적을 편집하는 명령어를 포함한다. 즉, 사용자가 스마트 장치를 조작하여 생성한 터치 신호 및 3차원 공간에서 이동하여 생성한 위치 신호에 근거하여 객체의 상태 및 이동 편집된 상태를 획득할 수 있다. 마찬가지로, 객체에 대한 상이한 위치에서의 상태 변화 및 상기 이동 궤적의 명령은, 사용자가 스마트 장치를 조작하여 생성한 터치 신호 및 3차원 공간에서 이동하여 생성한 위치 신호에 따라 객체의 상태 및 이동을 동기화하여 기록할 수 있도록 한다. 명령 패키지는 객체 재현시의 재생 조건을 설정하는 명령어를 더 포함한다. 상기 명령어는 사용자로 하여금 객체가 어떻게 재생을 구현할 지에 관한 조건 및 다수의 객체 사이에 연관된 재생 조건을 결정할 수 있게 한다. 또한 상기 조건에 근거하여 객체를 재현하는 명령어를 더 포함한다.
본 발명의 3차원 공간에서의 장면 편집 방법의 실시예에 따른 주요 단계는, 사용자로 하여금 직접 스마트 장치를 조작하여 3차원 공간에서 이동하게 하는 것이지만, 사용자가 반드시 직접 이동해야 하는 것은 아니며 고정 장소에 서서 손에 쥐는 방식으로 스마트 장치를 조작할 수 있다. 도 4의 실시예에 따르면, 시작 단계 S401에서 우선 3차원 장면을 불러올 수 있다. 3차원 장면은 사전에 촬영된 사진의 장면일 수도 있고 사전에 제작된 가상의 장면일 수도 있으며, 스마트 장치의 촬영 모듈을 이용하여 촬영한 임시 3차원 공간 이미지일 수도 있다.
다음으로, S403 단계에서, 스마트 장치를 이동하면 공간 내에서 이동하는 상태가 감지되는 동시에 공간 좌표를 얻을 수 있다. 바람직하게는, 스마트 장치 내의 위치 센서(예컨대, 자이로스코프)가 3차원 공간 내의 위치 신호를 생성한다.
이동시 생성된 위치 신호에 따라 편집 프로그램상에 해당 3차원 입체 이미지가 나타나는 S405 단계에서, 장치의 디스플레이 화면상에 해당 위치의 3차원 장면 이미지가 나타남으로써, 사용자는 편집시 관련 위치의 장면을 볼 수 있게 된다. 다음으로, S407 단계에서, 소프트웨어 도구를 통하여 객체를 선택한 후, 해당 편집 툴을 이용하여 특정한 형상, 색상 및/또는 패턴의 객체를 생성할 수 있고 편집 위치를 결정할 수 있다, 예컨대, 제1 위치의 경우, 사용자가 스마트 장치를 사용하여 3차원 공간의 제1 위치를 편집한다. 터치 스크린을 조작하여 터치 신호를 생성하는 S409 단계에서, 위치(일반적으로 제1 위치, 및 디스플레이 화면상의 상대 위치), 크기 및 회전각도를 포함하는 객체의 형태를 설정한다. 3차원 객체일 경우에는 3차원 객체의 회전상태를 더 포함한다. 터치신호 연산을 통하여 공간 내에서의 3차원 객체의 데이터를 획득할 수 있고, 이 때 터치 스크린을 통하여 객체를 편집시 생성되는 터치 신호는 3차원 공간 내에서의 객체에 대한 상태를 정의하기 위한 것이다. S411 단계에서, 시스템은 제1 위치에서의 객체 상태를 획득하며, 이 때의 3차원 공간 내의 상태에는 객체의 크기, 회전각도 및 회전방향 중의 하나 또는 그 조합을 포함한다.
마지막으로 S413 단계에서는, 객체의 제1 위치의 상태를 확인할 때, 편집 프로그램은 3차원 공간의 제1 위치에서의 객체 상태를 저장하고, 3차원 이미지와 평면 또는 3차원 객체, 및 객체의 시간에 따른 각각의 공간 좌표값, 상태변화 및 시간 등을 저장하는 것을 포함할 수 있다.
또한, 상기 객체는 3차원 공간 내의 고정 위치에서 상태가 변화될 수 있고 공간 내에서 위치를 변경할 수도 있으며, 이동 궤적을 형성하는데, 그 실시예에 따른 단계는 도 5에 도시된 바와 같다.
상기 스마트 장치를 제1 위치로 이동하는 S501 단계에서,
시작하는 공간의 위치를 결정하고, 공간 좌표값(센서에서 생성됨)을 얻는다; 다음으로, 제1 객체를 불러오는 S503 단계에서, 제1 객체는 정적 또는 동적일 수 있고, 평면 또는 입체 이미지일 수 있다. S505 단계는 시스템이 제1 위치에서의 제1 객체의 상태를 기록하는 단계로서 해당 객체의 시작 상태이다.
스마트 장치를 이동하는 동시에 제1 객체의 상태를 변경하는 S507 단계를 지나, 시스템이 매 시간 소프트웨어 프로그램을 통하여 스마트 장치의 위치 및 제1 객체의 상태를 기록한다(S509 단계). 스마트 장치를 제2 위치로 이동할 때(S511 단계)에는 3차원 공간의 이동 궤적이 형성되는데, 이는 3차원 공간에서의 객체의 이동 궤적이다. 이어서, 시스템이 제1 객체의 제2 위치에서의 상태를 기록하는 S513 단계에서, 최종 종료 위치일 경우에는 시스템이 객체의 종료 상태 및 종료 시간(상대시간)을 기록하고, 동시에 개체에 대하여 3차원 공간의 제1 위치로부터 제2 위치까지의 연속 상태를 저장하며, 그 이동 궤적을 포함시킨다. S515 단계에서, 시스템은 사용자가 제1 객체를 터치하여 재생하는 조건을 설정할 수 있게 한다.
일 실시예는 제1 객체를 터치하여 재생하는 조건에서와 같다. 3차원 장면 내에서의 객체의 변화를 편집하고 기록한 것을 재현할 때, 사용자가 스마트 장치를 조작하여 해당 3차원 장면을 바라볼 때, 및 제1 객체의 시작 위치로 이동할 때, 3차원 공간에서의 제1 객체의 애니메이션을 재생시킬 수 있다. 또한 터치 스크린상에서 제1 객체를 터치할 수 있는데, 이는 제1 객체의 변화를 재생시키는 조건일 수 있다; 또는 해당 3차원 이미지를 바라본 후에 미리 설정된 시간이 되면 제1 객체가 형성한 애니메이션이 재생되기 시작한다.
또한, 본 명세서는 동일한 3차원 장면 내에 하나 이상의 객체를 갖도록 하는 방법에 관한 실시예를 제안한다. 본 실시예에 따라, 동일한 3차원 공간 내에 다수의 객체를 삽입하고자 할 때, 각 개체의 시작 시간, 종료 시간, 객체 상태(회전방향 및 크기) 및 이동 궤적을 개별적으로 설정할 수 있으며, 상이한 객체(예컨대, 제1 객체 및 제2 객체)를 재생시키는 조건을 최종 설정할 수 있다.
본 실시예 따른 3차원 공간의 장면 편집 방법에 관한 단계는 도 6에 도시된다. 본 단계는 도 5에서 나타난 제1 객체의 편집에 관한 단계가 완료된 후를 설명하고 있다. 제2 객체를 편집하기 위한 편집 위치로 스마트 장치를 이동하여 제3 위치로 설정할 수 있고, 상기 제3 위치(또는 제4 위치)는 상기 제1 객체의 제1 위치 및 제2 위치와 직간접적으로 관련된 위치를 배제하지 않는다(S601 단계).
제2 객체를 불러오는 S603 단계는 상기와 마찬가지로 정적 또는 동적 이미지일 수 있고 및 평면 또는 입체 이미지일 수 있다. 스마트 장치에서 실행되는 편집 프로그램을 사용하거나 터치 스크린으로 편집을 수행할 경우, 제2 객체의 크기 및 회전각도, 및/또는 3차원 객체의 회전방향 등의 상태를 편집하는 것을 포함한다. 프로그램은 터치 신호 및 3차원 공간의 위치 신호에 따라 제3 위치에서의 제2 객체의 상태를 획득하면, 시스템이 제2 객체의 제3 위치에서의 상태를 기록한다(S605 단계).
다음 S607 단계에서, 사용자는 동일한 3차원 장면 내에서 스마트 장치를 이동시킬 수 있고, 스마트 장치는 이동에 따른 공간 위치 신호를 동기화하여 3차원 장면의 이미지를 나타낼 수 있다. 이동 중에, 3차원 장면 내에서의 제2 객체의 위치 변경뿐만 아니라, 소정의 시간 동안 제2 객체가 이동한 궤적에 있어서 사용자가 편집 프로그램을 통하여 제2 객체의 상태를 동시에 변경할 수 있다. S609 단계에서, 시스템은 매 시간 스마트 장치의 위치 및 제2 객체의 상태를 기록할 수 있다. 다음으로, 사용자의 의도에 따라, 스마트 장치를 제4 위치로 이동한다. 즉, 제2 객체를 드래그하여 제4 위치로 이동시키는 동시에 제2 객체의 상태를 편집한다(S611 단계). 또한, 시스템이 제2 객체의 제4 위치에서의 상태를 기록하고 동시에 해당 위치의 위치 신호를 입력한다(S613 단계). 다음으로, 제2 객체를 재생시키는 조건을 설정하는 S615 단계에서, 객체에 대한 상이한 위치에서의 상태 변화 및 상이한 위치 사이의 이동 궤적을 기록하고 저장한다.
특히, 다수의 객체에 대하여 상기와 같이 편집 및 기록을 재생하여(예컨대, 동일한 3차원 장면 내에 제1 객체 및 제2 객체를 구비되어) 3차원 장면 내에서 변경하는 경우, 각 객체를 별도로 재생시키는 조건을 설정하는 것뿐만 아니라 객체 간의 재생 조건을 편집할 수도 있다. 가령, 제2 객체와 같은 각 개체의 재생 조건을 제2 객체의 시작 위치(예컨대, 제3 위치)로 스마트 장치가 이동되는 때로 설정하여, 해당 3차원 공간에서 제2 객체가 위치할 때 애니메이션을 즉시 재생시킬 수 있다; 또는, 터치 스크린 상에서 제2 객체를 터치할 때를 제2 객체의 변화가 재생되는 조건으로 할 수 있다; 또는, 사용자가 스마트 장치를 구동하여 해당 3차원 이미지를 바라본 후 미리 설정된 시간이 지나면, 제2 객체에 대하여 형성된 애니메이션이 즉시 재생된다.
일 실시예에서, 스마트 장치의 디스플레이 화면을 상기 실시예에서의 제1 위치에 사용하여 제1 객체를 디스플레이하는 경우, 제1 객체의 애니메이션을 재생시키거나 디스플레이하는 것 이외에도, 상대적인 시간에 제2 객체를 재생 또는 디스플레이 되도록 설정할 수 있다.
따라서, 동일한 3차원 장면 내에서 제1 객체 및 제2 객체 또는 다른 객체에 대하여 상호 개별적으로 시간 관계, 공간 관계 및 객체간의 재생 조건을 설정할 수 있다.
따라서, 사용자가 편집 완료된 특정 3차원 장면을 재생할 때, 또는 스마트 장치의 디스플레이 화면을 통하여 소정 범위의 3차원 장면의 이미지를 바라볼 때, 소정의 시간에 두 개 이상의 객체를 볼 수 있다. 또는 스마트 장치로 바라보는 3차원 장면의 관계에 따라, 소정의 시간 동안 소정의 객체의 소정의 방향을 보거나 해당 범위 내에서의 객체의 이동 및 변화를 볼 수 있다. 이는 평면 이미지를 보던 일반적인 경험과 상이한 것이다.
일 실시예에 따른 3차원 장면을 재생 방법에 있어서, 스마트 장치 내의 재생 프로그램은, 스마트 장치 내의 센서(예컨대, 자이로스코프)가 생성한 3차원 공간에서의 위치 신호를 획득하고, 스마트 장치의 공간 위치를 감지함으로써, 디스플레이 화면을 통하여 해당 위치의 3차원 장면 이미지를 디스플레이한다. 또는 소정의 객체의 시작위치를 포함하는 공간 위치로 이동할 수 있고, 각 객체는 설정된 재생 조건에 따라, 설정된 궤적 및 상태 변화에 따라 애니메이션을 재생한다. 상기 방법의 단계는 실시예에 따른 도 7에 도시된다.
S701 단계에서 시작하여, 재생 프로그램을 사용하여 3차원 장면 파일을 열고, 사용자는 스마트 장치를 조작할 수 있다. S703 단계에서, 스마트 장치를 이동하는 동시에 3차원 공간의 위치 신호를 생성할 수 있다. S705 단계에서, 모든 3차원 장면을 탐색하여, 디스플레이 화면을 통해 해당 위치 신호에 해당하는 3차원 장면의 이미지를 디스플레이한다.
이 때, S707 단계에서처럼, 재생 프로그램이 3차원 공간의 위치 신호를 획득하고, 3차원 공간의 위치 신호를 비교하여 3차원 공간에서 재생된 위치 및 이미지와 관련된 데이터를 저장하고, 각 객체의 재생 조건을 비교한다. S709 단계를 실행하여, 재생 프로그램은 재생 조건에 따라 제1 객체의 애니메이션을 재생할 수 있다. 또 다른 객체가 존재하는 경우, S711 단계에서와 같이, 동시에 제2 객체의 재생 조건을 참고하여 재생 조건에 따라 제2 객체의 애니메이션을 재생한다.
S713 단계에서, 재생시 사용자는 언제든지 임의로 스마트 장치를 이동할 수 있다. 재생 프로그램은 해당 위치 신호의 3차원 장면 및 객체의 애니메이션을 디스플레이한다. 특히, 3차원 장면 내의 다수의 객체는 독립적으로 작동되는 객체이고 재생 조건을 별도로 갖는다. 따라서 특정 시간의 특정한 장면 내에서 상이한 재생 조건의 다수의 객체를 볼 수 있다. 각각의 객체의 재생 조건은 상호 관련이 있을 수 있고, 사용자는 각각의 개체가 구동되는 시간 관계 또는 공간 관계를 설정할 수 있다. 시간 관계를 이용한 재생 조건에서, 제1 객체가 재생된 후 또는 재생을 완료한 후의 미리 설정된 시간을 설정하여 제2 객체를 재생시킬 수 있고, 기타 객체 또한 마찬가지로 실행될 수 있다. 공간 관계를 이용한 재생 조건의 실시예에서, 제1 객체가 3차원 공간의 소정의 위치에 위치하게 되는 경우 제2 객체를 재생시키도록 설정할 수 있고, 기타의 객체 또한 마찬가지로 설정할 수 있다. 시간 및 공간 관계는 각 개체의 재생 조건을 조합하여 설정될 수 있다.
이에, 본 발명의 실시예에 따른 3차원 공간에서의 장면을 편집하는 방법 및 시스템을 제안한다. 사용자는 직관적으로 스마트 장치를 조작하여 3차원 공간 내에서 이동함과 동시에, 직관적으로 소정의 공간 위치에서 개체를 편집할 수 있다. 객체를 편집하기 전에 먼저 3차원 장면 불러오기를 하여, 객체 편집시 직관적으로 스마트 장치의 3차원 공간에서의 위치에 따라 동기화 및 디스플레이되는 화면을 편집할 수 있다. 이미지 재현시에도 사용자가 직관적으로 스마트 장치를 해당 공간의 임의의 위치에서 조작하여 이미지를 감상할 수 있다.
상기 내용은 단지 본 발명의 바람직한 실시예를 위한 것일 뿐이며, 본 발명의 권리 범위를 제한하는 것은 아니다. 따라서 본 발명의 상세한 설명 및 도시된 내용이 적용되는 구조 변화 등은 모두 본 발명의 범위 내에 포함되어야 함에 유의하여야 할 것이다.
10: 사용자 101: 스마트 장치
A, B, C: 위치 21: 객체
21a: 제1 위치 객체 21b: 제2 위치 객체
31: 영상처리 모듈 33: 3차원 공간 위치 모듈
35: 저장 모듈 37: 터치 모듈
39: 디스플레이 모듈 301: 3차원 장면
302: 이미지 객체
S401 내지 S413: 3차원 공간의 장면 편집 단계
S501 내지 S515: 3차원 공간의 장면 편집 단계
S601 내지 S615: 3차원 공간의 장면 편집 단계
S701 내지 S713: 3차원 공간의 장면 편집 단계

Claims (10)

  1. 삭제
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 스마트 장치를 이동하여 3차원 공간 내의 위치 신호를 생성하는 단계;
    제1 객체를 불러오는 단계;
    상기 3차원 공간의 제1 위치에서 상기 스마트 장치를 이용하여 상기 제1 객체를 편집하여, 상기 제1 위치에서의 상기 제1 객체 상태를 확정하는 단계;
    상기 스마트 장치를 제2 위치로 이동하여, 상기 제1 객체의 상기 제1 위치로부터 상기 제2 위치까지의 이동 궤적을 확정하는 단계;
    상기 제1 객체의 상기 제1 위치로부터 상기 제2 위치까지의 제1 이동 궤적 및 상기 제1 객체의 상기 제1 위치로부터 상기 제2 위치까지 이동하는 연속 상태를 확정하는 단계;
    제2 객체를 불러오는 단계;
    상기 3차원 공간의 제3 위치에서 상기 스마트 장치를 이용하여 상기 제2 객체를 편집하여, 상기 제3 위치에서의 상기 제2 객체의 상태를 확정하는 단계;
    상기 스마트 장치를 제4 위치로 이동하여, 상기 제2 객체의 상기 제3 위치로부터 상기 제4 위치까지 이동하는 연속 상태를 확정하는 단계;
    상기 제2 객체의 상기 제3 위치로부터 상기 제4 위치까지의 제2 이동 궤적 및 상기 제2 객체의 상기 제3 위치로부터 상기 제4 위치까지 이동하는 연속 상태를 저장하는 단계; 및
    상기 제 1 객체 및 제2 객체를 재생시키는 조건을 설정하는 단계를 포함하는 3차원 공간의 장면 편집 방법.
  7. 제6항에 있어서, 상기 3차원 공간 내에서의 상기 제1 객체 또는 제2 객체의 크기, 회전각도 및 회전방향 중의 하나 또는 조합을 포함하는 3차원 공간의 장면 편집 방법.
  8. 제6항에 있어서, 상기 스마트 장치의 터치스크린상에서 제1 객체 또는 제2 객체를 터치하는 경우;
    상기 스마트 장치의 디스플레이 화면을 이용하여 상기 제1 위치에서 상기 제1 객체를 표시하거나, 상기 제3 위치에서 상기 제2 객체를 표시하는 경우;
    상기 3차원 장면을 바라보기 시작한 후 미리 설정한 시간이 지나서 제1 개체 또는 제2 객체를 재생시키는 경우; 또는
    상기 제1 객체의 재생이 시작되어 일정 시간이 흐른 후에 상기 제2 객체가 재생되기 시작하는 경우가,
    상기 제 1 객체 및 제2 객체를 재생시키는 조건인 3차원 공간의 장면 편집 방법.
  9. 3차원 공간 내의 위치 신호를 획득하기 위한 3차원 위치 모듈;
    3차원 공간 내의 이미지 객체 및 3차원 장면을 처리하고, 스마트 장치가 생성한 상기 3차원 공간의 위치 신호에 대응하여 디스플레이 이미지를 생성하는 영상처리 모듈;
    상기 3차원 공간 내의 상기 디스플레이 이미지를 출력하는 디스플레이 모듈;
    상기 이미지 객체를 조작하는 사용자 인터페이스를 제공하고, 상기 이미지 객체의 3차원 공간에서의 상태를 확정하는 터치 모듈;
    상기 3차원 공간의 상기 3차원 장면을 저장하고, 상기 3차원 공간 내에서의 상기 이미지 객체에 대한 소정의 시간 및 소정의 위치에서의 상황을 저장하기 위한 저장 모듈; 및
    스마트 장치 내의 메모리에 저장하는 편집 프로그램 패키지 및 재생 프로그램 패키지;를 포함하고,
    상기 메모리 내에 저장된 프로그램 패키지는
    스마트 장치가 생성한 상기 3차원 공간 내의 위치 신호를 획득하는 명령어;
    상기 위치 신호에 대응하는 3차원 장면의 이미지를 표시하는 명령어;
    상기 이미지 객체의 상이한 위치 상태 및 이동 궤적을 편집하는 명령어;
    상기 객체의 상이한 위치 상태 및 이동 궤적을 기록하는 명령어;
    상기 객체를 재현할 때에의 재생 조건을 설정하는 명령어; 및
    상기 객체를 재현시키는 명령어;를 포함하는,
    스마트 장치 내에서 작동하는 3차원 공간의 장면 편집 시스템.
  10. 삭제
KR1020170007294A 2016-03-07 2017-01-16 3차원 공간에서의 장면 편집 방법 및 시스템 KR101860313B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW105106885A TWI567691B (zh) 2016-03-07 2016-03-07 立體空間的場景編輯方法與系統
TW105106885 2016-03-07

Publications (2)

Publication Number Publication Date
KR20170104371A KR20170104371A (ko) 2017-09-15
KR101860313B1 true KR101860313B1 (ko) 2018-07-02

Family

ID=57960349

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170007294A KR101860313B1 (ko) 2016-03-07 2017-01-16 3차원 공간에서의 장면 편집 방법 및 시스템

Country Status (5)

Country Link
US (1) US9928665B2 (ko)
EP (1) EP3217258B1 (ko)
JP (1) JP2017162451A (ko)
KR (1) KR101860313B1 (ko)
TW (1) TWI567691B (ko)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL301087A (en) 2017-05-01 2023-05-01 Magic Leap Inc Adapting content to a three-dimensional spatial environment
DK180470B1 (en) 2017-08-31 2021-05-06 Apple Inc Systems, procedures, and graphical user interfaces for interacting with augmented and virtual reality environments
KR20230108356A (ko) 2017-12-22 2023-07-18 매직 립, 인코포레이티드 혼합 현실 시스템에서 가상 콘텐츠를 관리하고 디스플레이하기위한 방법들 및 시스템
DK201870346A1 (en) 2018-01-24 2019-09-12 Apple Inc. Devices, Methods, and Graphical User Interfaces for System-Wide Behavior for 3D Models
JP6745852B2 (ja) * 2018-01-24 2020-08-26 アップル インコーポレイテッドApple Inc. 3dモデルのシステム全体の挙動のためのデバイス、方法、及びグラフィカルユーザーインターフェース
CA3089646A1 (en) 2018-02-22 2019-08-20 Magic Leap, Inc. Browser for mixed reality systems
CA3091026A1 (en) * 2018-02-22 2019-08-29 Magic Leap, Inc. Object creation with physical manipulation
JP6924799B2 (ja) * 2019-07-05 2021-08-25 株式会社スクウェア・エニックス プログラム、画像処理方法及び画像処理システム
KR102276789B1 (ko) * 2020-12-10 2021-07-14 브이로거 주식회사 동영상 편집 방법 및 장치
JP7052128B1 (ja) * 2021-07-20 2022-04-11 株式会社あかつき 情報処理システム、プログラム及び情報処理方法

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2842283B2 (ja) * 1995-03-08 1998-12-24 日本電気株式会社 映像提示方法および装置
JP3558104B2 (ja) * 1996-08-05 2004-08-25 ソニー株式会社 3次元仮想物体表示装置および方法
JP4251673B2 (ja) * 1997-06-24 2009-04-08 富士通株式会社 画像呈示装置
US6798429B2 (en) * 2001-03-29 2004-09-28 Intel Corporation Intuitive mobile device interface to virtual spaces
TWI370909B (en) * 2008-04-02 2012-08-21 Univ Nat Chiao Tung Inquiry system and method for location-based image, video, and information
KR101545736B1 (ko) * 2009-05-04 2015-08-19 삼성전자주식회사 휴대용 단말기에서 3차원 컨텐츠를 생성하기 위한 장치 및 방법
US8232990B2 (en) 2010-01-05 2012-07-31 Apple Inc. Working with 3D objects
JP5573238B2 (ja) * 2010-03-04 2014-08-20 ソニー株式会社 情報処理装置、情報処理法方法およびプログラム
KR101688153B1 (ko) 2010-08-11 2016-12-20 엘지전자 주식회사 3차원 영상의 편집 방법 및 이를 이용하는 이동 단말기
CN201845173U (zh) * 2010-08-24 2011-05-25 台湾色彩与影像科技股份有限公司 立体实物摄影装置
TWI620146B (zh) * 2011-12-05 2018-04-01 財團法人工業技術研究院 立體物件建構方法及系統
JP5942456B2 (ja) * 2012-02-10 2016-06-29 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
US9153062B2 (en) 2012-02-29 2015-10-06 Yale University Systems and methods for sketching and imaging
US20150170260A1 (en) * 2012-02-29 2015-06-18 Google Inc. Methods and Systems for Using a Mobile Device to Visualize a Three-Dimensional Physical Object Placed Within a Three-Dimensional Environment
KR101868352B1 (ko) 2012-05-14 2018-06-19 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
TW201349844A (zh) * 2012-05-23 2013-12-01 Univ Nat Taiwan 產生裸眼3d效果之方法
WO2014042481A1 (ko) * 2012-09-14 2014-03-20 Go Jae Yong 자기장 센서를 이용하여 사용자 입력을 판단하는 전기 장치
TWI466062B (zh) * 2012-10-04 2014-12-21 Ind Tech Res Inst 重建三維模型的方法與三維模型重建裝置
KR20140068416A (ko) 2012-11-28 2014-06-09 한국전력공사 스마트 기기를 활용한 3차원 이미지 생성장치 및 그 방법
US20140232634A1 (en) * 2013-02-19 2014-08-21 Apple Inc. Touch-based gestures modified by gyroscope and accelerometer
US9928634B2 (en) * 2013-03-01 2018-03-27 Microsoft Technology Licensing, Llc Object creation using body gestures
US9984502B2 (en) * 2013-08-27 2018-05-29 International Business Machines Corporation Creating three dimensional models with acceleration data
JP6102648B2 (ja) * 2013-09-13 2017-03-29 ソニー株式会社 情報処理装置及び情報処理方法
US9607437B2 (en) * 2013-10-04 2017-03-28 Qualcomm Incorporated Generating augmented reality content for unknown objects
KR20150057100A (ko) * 2013-11-18 2015-05-28 삼성전자주식회사 3d 객체 편집을 위한 전자 장치 및 방법
US10303324B2 (en) 2014-02-10 2019-05-28 Samsung Electronics Co., Ltd. Electronic device configured to display three dimensional (3D) virtual space and method of controlling the electronic device
TWI514252B (zh) * 2014-02-11 2015-12-21 Xyzprinting Inc 立體模型合成方法與立體模型合成裝置
JP5835383B2 (ja) * 2014-03-18 2015-12-24 株式会社リコー 情報処理方法、情報処理装置、およびプログラム
CA2893586C (en) 2014-06-17 2021-01-26 Valorisation-Recherche, Limited Partnership 3d virtual environment interaction system
TWI542194B (zh) * 2014-07-02 2016-07-11 坦億有限公司 立體影像處理系統、裝置與方法
EP2977961B1 (de) 2014-07-24 2018-06-27 Deutsche Telekom AG Verfahren und Kommunikationseinrichtung zum Erstellen und/oder Ändern virtueller Objekte
TWI621097B (zh) * 2014-11-20 2018-04-11 財團法人資訊工業策進會 行動裝置、操作方法及非揮發性電腦可讀取記錄媒體

Also Published As

Publication number Publication date
EP3217258B1 (en) 2019-05-22
KR20170104371A (ko) 2017-09-15
US9928665B2 (en) 2018-03-27
JP2017162451A (ja) 2017-09-14
TWI567691B (zh) 2017-01-21
TW201732740A (zh) 2017-09-16
EP3217258A1 (en) 2017-09-13
US20170256099A1 (en) 2017-09-07

Similar Documents

Publication Publication Date Title
KR101860313B1 (ko) 3차원 공간에서의 장면 편집 방법 및 시스템
US20160323507A1 (en) Method and apparatus for generating moving photograph
JP7196834B2 (ja) 画像処理装置および方法、並びにプログラム
WO2018086532A1 (zh) 一种监控视频的显示控制方法及装置
EP3449390A1 (en) Augmented media
JP4458886B2 (ja) 複合現実感画像の記録装置及び記録方法
US20160344946A1 (en) Screen System
JP2007060028A (ja) 映像処理装置及びオブジェクト処理方法
US8028232B2 (en) Image processing using a hierarchy of data processing nodes
KR101918158B1 (ko) 360도 vr 영상 제작을 위한 이벤트 기반의 3차원 동적 콘티 생성 방법 및 장치
JP2021197082A (ja) 情報処理装置、情報処理装置の制御方法及びプログラム
EP4125044A2 (en) Image processing apparatus, image processing method, and program
GB2549723A (en) A system and method for video editing in a virtual reality enviroment
JP2017084215A (ja) 情報処理システム、その制御方法、及びプログラム
US11758112B2 (en) Information processing apparatus, control method, and storage medium
JP7070547B2 (ja) 画像処理装置および方法、並びにプログラム
JP2020074108A (ja) 情報処理システム、その制御方法、及びプログラム
JP2012141753A5 (ko)
CN109792554B (zh) 再现装置、再现方法和计算机可读存储介质
CN108242082A (zh) 立体空间的场景编辑方法与系统
KR102648288B1 (ko) 편집 환경에서 다수의 미디어 요소들을 갖는 미디어 콘텐츠를 제시하기 위한 방법들 및 시스템들
KR102483078B1 (ko) 입체 영상을 포함하는 배경과 촬영 중 객체 간의 실시간 뎁스 기반 영상 합성 방법, 장치 및 컴퓨터-판독가능 기록매체
JP2017084214A (ja) 情報処理システム、その制御方法、及びプログラム
WO2020149146A1 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP2006108943A (ja) 編集装置及び編集方法並びにプログラム

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant