CN108242082A - 立体空间的场景编辑方法与系统 - Google Patents
立体空间的场景编辑方法与系统 Download PDFInfo
- Publication number
- CN108242082A CN108242082A CN201611219623.3A CN201611219623A CN108242082A CN 108242082 A CN108242082 A CN 108242082A CN 201611219623 A CN201611219623 A CN 201611219623A CN 108242082 A CN108242082 A CN 108242082A
- Authority
- CN
- China
- Prior art keywords
- solid space
- scene
- intelligent device
- state
- space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
Abstract
一种立体空间的场景编辑方法与系统,相关技术让使用者可以自行操作智能型装置以直觉的方式在立体空间中决定一编辑位置,其中利用装置内传感器取得立体空间的定位信号,以触控显示屏幕直接编辑当中的对象,除了对象的位置、大小、旋转角度或是转向外,还可以通过软件手段录制在此立体场景内的移动与变化,形成一个立体场景内的动态影像。可于播放时,根据使用者操作智能型装置在空间的位置,重现立体场景内的一或多个对象在此空间内的移动与变化,实现使用者能在立体空间内直觉地编辑立体空间的场景的目的。
Description
技术领域
本发明关于一种立体空间的编辑技术,特别涉及利用智能型装置在一立体空间中编辑当中场景对象的方法与系统。
背景技术
在立体虚空间内,现有技术会利用计算机图像处理设计显示在此立体空间内的各种影像对象,让使用者浏览此立体虚空间时,可以观看到对象在一个立体空间的样子,有别于一般平面影像的观看经验。
然而一般形成立体虚空间内的各种影像的方式是利用计算机软件产生立体对象,通过坐标转换形成在立体虚空间的对象,最后可以特殊播放器播出立体虚拟图像。
发明内容
本发明公开一种立体空间的场景编辑方法与系统,其技术目的的一个是让使用者可以自行操作智能型装置以直觉的方式在立体空间中编辑当中的场景,包括一或多个场景内的影像对象。方式是让使用者手持智能型装置在一个空间内决定一编辑位置,其中软件程序利用装置内传感器取得立体空间的定位信号,并提供使用者使用触控显示屏幕直接编辑当中的对象,除了对象的位置、大小、旋转角度或是转向外,还可以通过软件手段录制在此立体场景内的移动与变化,形成一个立体场景内的动态影像。
根据实施例的一个,本发明说明书所公开的立体空间的场景编辑方法主要流程包括移动一智能型装置,以产生立体空间内的定位信号,并在此位置引入一对象,在立体空间的第一位置以智能型装置编辑对象,决定对象在第一位置的状态,如对象的大小、旋转角度以及转向等,之后存储对象在此立体空间的第一位置的状态。
进一步地,在编辑对象时,可移动智能型装置至另一位置,如第二位置,移动过程即决定对象自第一位置移动至第二位置的移动轨迹,这个连续状态与移动轨迹也存储至系统中。
进一步地,一个立体空间内可引入多个对象,每个对象的编辑如前例,移动智能型装置产生一立体空间内的定位信号,在此第一位置引入第一对象,决定第一对象的状态,在移动智能型装置至第二位置时,过程中可以控制对象移动与变化,所产生的连续变化与第一移动轨迹,都可存储至系统中。
进一步地,接着再引入第二对象,操作智能型装置在立体空间中移动,由第三位置移动到第四位置,同时可以改变第二对象的状态,所产生的连续状态与第二移动轨迹存储至系统中。
最后,设定第一对象与第二对象触发播放的条件。
具体地,根据立体空间的场景编辑系统的实施例的一个,系统主要组件包括一立体空间定位模块,用以取得智能型装置在一立体空间内的定位信号;一图像处理模块,用以处理立体空间内的影像对象与立体场景,并能对应智能型装置产生的定位信号产生一显示影像;以显示模块输出立体空间内的显示影像;以触控模块提供操作影像对象的使用者接口,用以决定影像对象在立体空间的状态;以及一存储模块,主要存储最后形成的影像对象,以及相关立体场景。
进一步地,立体空间的场景编辑系统还包括存储于智能型装置内一内存的一编辑程序集以及一播放程序集,程序集包括:取得智能型装置产生的立体空间内的定位信号的指令、显示对应定位信号的立体场景的影像的指令、编辑影像对象在不同位置的状态与移动轨迹的指令、录制对象在不同位置的状态改变与移动轨迹的指令、设定对象于重现时触发播放的条件的指令,及触发对象重现的指令。
附图说明
图1A与图1B显示使用者操作智能型装置在立体空间进行编辑的情境示意图;
图2A显示使用者操作智能型装置编辑对象缩放的情境示意图;
图2B显示使用者操作智能型装置编辑对象旋转的情境示意图;
图2C显示使用者操作智能型装置编辑对象移动的情境示意图;
图3显示实现本发明立体空间的场景编辑方法的智能型装置的功能模块实施例图;
图4显示本发明立体空间的场景编辑方法的实施例流程之一;
图5显示本发明立体空间的场景编辑方法的实施例流程之二;
图6显示本发明立体空间的场景编辑方法的实施例流程之三;
图7显示本发明立体空间的场景编辑方法的实施例流程之四。
具体实施方式
本发明说明书提出一种立体空间的场景编辑方法与系统,发明所涉及的技术是通过运作于智能型装置的软件程序实现,以软件手段提供使用者直觉地编辑一个立体空间内的各种静态或动态立体对象,包括让使用者自行操作智能型装置以直觉的方式在立体空间中移动位置,藉此决定一编辑位置,同时也取得当中空间传感器(如陀螺仪)产生的定位信号,使用者可以触控显示屏幕直接编辑当中的对象,编辑对象的位置、大小、旋转角度或是转向,再以软件手段录制在此立体场景内的移动与变化,形成一个立体场景内的动态影像。之后在重现此立体场景与其中对象影像时,播放程序可根据使用者操作智能型装置在空间位置,重现立体场景内的一或多个对象在此空间内的移动与变化。
让使用者以直觉的方式编辑立体空间内的影像对象的情境可参考图1A与图1B所示的示意图,在情境示意图中,使用者10可以操作智能型装置101在立体空间的任何位置进行编辑,智能型装置101安装有立体场景的编辑程序,可以行动应用软件(APP)实现,编辑前可以先引入一立体场景,这是一个涵盖360度立体空间每个角落的立体场景,智能型装置101显示屏幕上可以根据使用者操作产生的立体空间定位信号而显示出对应的场景影像。因此,值得注意的是,智能型装置101的屏幕大小、屏幕分辨率都可以影响所要观看的某个方位的影像内容,另也可让使用者操作决定所要观看的画面涵盖影像比例,让使用者在编辑其中对象时有个控制大小的功能。
图1A示意显示使用者10将智能型装置101移动到头顶的处(位置A)进行编辑,智能型装置101的触控屏幕即为编辑的使用者接口,这时智能型装置101的显示屏幕将显示整个立体影像中在使用者(为观看者)头顶附近的影像,显示画面将根据智能型装置101的显示屏幕大小与分辨率有关,也跟使用者设定显示比例有关。
此例中,使用者10头顶附近的位置A为一编辑位置,使用者通过其中编辑程序看到此方位的立体场景的对应影像,此时可以通过软件工具引入一影像对象,此影像对象可为静态或动态影像,编辑时将决定此影像对象在位置A的状态,包括在位置A显示的尺寸大小、旋转角度,若对象为立体对象,也可决定其显示的转向。
在另一实施例中,除了直接操作智能型装置101而决定某位置(如位置A)的对象状态外,亦可录制此对象在此位置A在一段时间内的状态变化,包括在这段时间内的大小、旋转角度与/或转向等的连续变化。
另有实施例是在编辑对象时无需引入立体场景,而可在完成对象编辑后才将立体场景结合对象形成最后影像。
图1B显示使用者10操作智能型装置101在水平的两个位置,如显示画面向左的位置B与向右的位置C,进行编辑的情境示意图。使用者10一手拿着智能型装置101在立体空间内移动,当决定在位置B编辑对象时,其中编辑程序取得智能型装置101的定位信号(如陀螺仪产生的位置信息),显示屏幕显示出对应此定位信号的立体场景影像,能决定位置B的对象状态。相应地,当使用者10将智能型装置101移动到图中的位置C,编辑程序取得此位置C的对应定位信号,能对应显示出位置C方位的立体场景影像,让使用者10可以进行此位置C附近的场景编辑。
以上所述的情境示意图,可在编辑立体空间中对象的同时或是之后引入一立体场景,如一种虚拟现实的影像,可以让使用者10操作智能型装置101在空间中上下左右移动,都可以从显示屏幕上看到对应每个方位的场景画面。另也不排除在编辑对象影像时,同时利用智能型装置101上的摄影模块取得所处空间的实际立体影像,也就是直接在此真实空间中编辑影像对象,达到虚实整合的目的。
图2A接着显示使用者操作智能型装置编辑对象缩放的情境示意图。此例显示使用者直接操作智能型装置101的触控屏幕,利用手指编辑当中的对象21,实施例表示在立体空间中的某个空间位置上编辑对象21,如此以手指控制对象21的缩放,对应的触控信号反映出决定在此立体空间某场景位置显示时的大小。
图2B显示使用者操作智能型装置旋转对象的示意图,此例显示使用者通过智能型装置101的触控屏幕利用手指操作旋转对象21,操作产生的触控信号反映出以手指控制对象21的旋转角度,也就是决定在此立体空间某场景位置的旋转角度。
图2C显示使用智能型装置编辑对象移动的情境示意图,此图例显示使用者手持智能型装置101先移动到立体空间内的第一位置,此时引入一对象,在此位置表示为第一位置对象21a。接着,使用者可以让此对象固定在显示屏幕的某个位置上,比如可以手指按住屏幕上的对象,手指按住的同时在空间中移动到第二位置,表示为第二位置对象21b,这个编辑动作形成此同一对象在这个立体空间中的移动轨迹,也就是决定了对象在此立体空间在某一时间内由第一位置移动到第二位置。
以上几个情境示意图表示出,使用者操作智能型装置101在一个立体空间内移动,并能直觉地在所要编辑对象的位置上先暂停不动,此时可以编辑对象的大小、旋转角度或是转向等状态;接着可以通过移动智能型装置101而决定对象在此空间的移动轨迹,移动同时仍可同时决定对象在此移动中的状态变化,包括同时改变大小、旋转角度与/或转向,移动也意谓着改变位置。这个过程将可以通过软件程序录制起来,成为在一立体场景内的动画。
根据发明实施例,是以一系统实现本发明立体空间的场景编辑方法,系统如一软件与硬件搭配产生,可应用在智能型装置内,相关的功能模块实施例图可参考图3。
图标的立体空间的场景编辑系统包括有一立体空间定位模块33,立体空间定位模块33用以取得智能型装置在一立体空间内的定位信号,实施例如一陀螺仪(gyroscope),用以感测智能型装置的立体方位,因而产生立体空间内的定位信号。
系统设有一图像处理模块31,用以处理立体空间内显示的画面,包括显示一个空间内的立体场景301,以及在此场景内的影像对象302,另可于重现立体场景时,将对应智能型装置产生的立体空间的定位信号产生一显示影像。影像对象302可以有一或多个对象,编辑时可由使用者操作智能型装置决定每一个对象在空间内特定位置的状态,最后与立体场景301合成影像。
系统具有显示模块39,显示模块39用以输出立体空间内的显示影像,包括智能型装置的显示屏幕。系统包括触控模块37,用以提供操作影像对象的使用者接口,让使用者以触控的方式编辑当中的场景,包括对象,能决定影像对象于立体空间的状态,如图2A至图2C显示的各种变化。系统具有一存储模块35,用以存储完成操作后的立体场景,以及影像对象在立体空间内的一时间与一位置的状态。
根据一实施例,前述以软件或搭配硬件实现的立体空间的场景编辑系统,系统还包括存储于智能型装置内存储器的一编辑程序集以及一播放程序集,程序集可以单一软件程序实现,或是以不同的多个软件程序实现,而这些程序集包括:取得智能型装置产生的立体空间内的定位信号的指令,立体空间的定位信号能够提供编辑与播放时对应取得影像信息之用;显示对应定位信号的立体场景的影像的指令,此指令可以根据定位信号对应产生某方位的影像,而此立体场景的影像显示范围会与智能型装置的屏幕大小与分辨率有关,其中具有一比例关系,甚至可以让使用者选择要看的范围比例。指令集包括有编辑影像对象在不同位置的状态与一移动轨迹的指令,也就是能够根据使用者操作智能型装置产生的触控信号以及在立体空间移动产生的定位信号取得对象的状态与移动的编辑状态;同理,在录制对象在不同位置的状态改变与该移动轨迹的指令,就是能够根据使用者操作智能型装置产生的触控信号以及在立体空间移动产生的定位信号而同步录制对象的状态与移动。指令集还包括设定对象于重现时触发播放的条件的指令,此指令让使用者可以决定对象如何重现播放的条件,甚至包括多个对象之间具有关联性的播放条件,以及包括根据以上条件而触发对象重现的指令。
在本发明立体空间的场景编辑方法的实施例中,主要的方法步骤是让使用者直接操作一智能型装置在一立体空间中移动,而使用者本身无须移动,就站在一的定点上,以手持方式操作智能型装置。在图4的实施例中,如开始步骤S401,可以先引入一立体场景,立体场景可为一事先拍摄好的真实场景,或是事件置做好的虚拟场景,还可以为实时利用智能型装置摄影模块拍摄的实时立体空间影像。
接着,如步骤S403,移动智能型装置,可以感测出装置在空间中的移动状态,同时取得一组空间坐标,较佳是以智能型装置内的定位传感器(如陀螺仪)产生立体空间内的定位信号。
在步骤S405中,移动时产生的定位信号成为编辑程序上显示对应立体影像的依据,此时由装置的显示屏幕上显示对应位置的立体场景影像,让使用者可以在编辑时就观看到相关位置的场景。接着,如步骤S407,通过软件手段选择一对象,或可利用其中编辑工具产生一特定形状、颜色与/或图案的对象,并决定一编辑位置,如表示为第一位置,让使用者再此立体空间的第一位置以智能型装置编辑对象,如步骤S409,操作触控屏幕产生触控信号,设定对象的型态,包括:位置(泛指第一位置,以及显示屏幕上的相对位置)、大小与旋转角度,若以立体对象为例,还包括立体对象的转向状态,通过触控信号演算可得到立体对象所占空间的信息,这些通过触控屏幕编辑对象产生的触控信号即用以定义对象于立体空间内的状态,系统藉此取得对象于第一位置的状态,立体空间内的状态包括对象的大小、旋转角度与转向其中的一个或其组合,如步骤S411。
最后,如步骤S413,当确认对象在第一位置的状态时,编辑程序将协助存储对象于立体空间的第一位置的状态,可包括存储立体影像、平面或立体对象,以及对象在每一时刻中的空间坐标值、状态改变与时间等。
而前述对象在立体场景内可以在固定位置产生状态变化,亦可在此空间内改变位置,形成移动轨迹,实施例如图5所示的流程。
开始如步骤S501,移动智能型装置到第一位置,也就决定一启始空间位置,并取得一组空间坐标值(由传感器产生);接着如步骤S503,引入第一对象,第一对象可以为静态或动态,以及平面或是立体影像,并如步骤S505,系统记录第一对象在第一位置的状态,也就是此对象的启始状态。
再如步骤S507,移动智能型装置,同时改变第一对象状态,并由系统通过软件程序记录每个时间点的智能型装置位置与第一对象状态(步骤S509),并移动智能型装置到第二位置(步骤S511),移动的过程形成一立体空间的移动轨迹,这为对象在此立体空间的移动轨迹,如步骤S513,系统接着记录第一对象在第二位置的状态,若这是最后结束位置,系统即记录对象的结束状态与结束时间(相对时间),同时存储了对象于立体空间的第一位置移动至第二位置的连续状态,包括移动轨迹。在步骤S515中,系统提供使用者设定第一对象触发播放的条件。
在一实施例中,此例第一对象触发播放的条件例如,当重现前述编辑与录制对象在立体场景内的变化时,当使用者操作智能型装置观看这个立体场景,当移动到第一对象启始位置时,可以触发播放第一对象在此立体空间的动画;另可以通过触控屏幕上触碰第一对象,这时可为触发播放第一对象变化的条件;或是开始观看此立体影像后,当达到一预设时间时,即开始播放第一对象形成的动画。
说明书另提出在同一立体场景内具有不只一个对象的方法实施例,在此实施方式中,当有多对象要编入同一立体空间内,可以分别设定各对象的启始时间、结束时间、对象状态(转向与大小)与移动轨迹,并于最后设定不同对象(如第一对象与第二对象)触发播放的条件。
实施例可参阅图6所示的立体空间的场景编辑方法流程,此流程描述当如图5所示的流程完成第一对象的编辑后,可以接续移动智能型装置到为了编辑第二对象的编辑位置,可设为第三位置,此第三位置(或第四位置)并不排除与前述第一对象的第一位置与第二位置有直接或间接的关联(步骤S601)。
此时,如步骤S603,引入第二对象,同样可为静态或动态影像,以及可为平面或立体影像。当使用了智能型装置执行的编辑程序,以及通过触控屏幕执行编辑,包括编辑第二对象的大小、旋转角度,以及/或立体对象的转向等状态,程序可以根据触控信号以及立体空间的定位信号得到第二对象在第三位置的状态,由系统记录第二对象在第三位置的状态(步骤S605)。
之后,如步骤S607,使用者可以在同一立体场景内移动智能型装置,智能型装置可以同步根据移动产生的空间定位信号显示立体场景的影像,移动过程中除了改变第二对象在此立体场景内的位置外,期间形成的移动轨迹也为第二对象在此时间内的空间移动轨迹,而同时还可让使用者可以通过编辑程序改变第二对象状态。过程中,如步骤S609,系统可记录每个时间点的智能型装置位置与第二对象状态,依照使用者的设计,接着移动智能型装置到第四位置,也就是带着第二对象移动到第四位置,同时也编辑第二对象的状态(步骤S611),再由系统记录第二对象在第四位置的状态,同时也并入此位置的定位信号(步骤S613)。
之后,如步骤S615,设定第二对象触发播放的条件,之后将录制与存储对象在不同位置的状态变化与不同位置之间的移动轨迹。
值得一提的是,当重现前述编辑与录制多对象(如同一立体场景内具有第一对象、第二对象)在立体场景内的变化时,除了设定个别对象的触发播放条件外,还可编辑对象之间的播放条件。个别对象,如第二对象,的触发播放条件例如,可设定当移动智能型装置到第二对象启始位置(如第三位置)时,即刻触发播放第二对象在此立体空间的动画;或是,当通过触控屏幕上触碰第二对象时,也就是触发播放第二对象变化的条件;或是,当使用者启动智能型装置开始观看此立体影像后,当达到一预设时间时,即开始播放第二对象形成的动画。
可在一实施例中,当使用智能型装置的显示屏幕在如前述范例中的第一位置显示第一对象时,除了触发播放或显示第一对象的动画外,也可设定在此时间点的另一相对时间点开始播放或显示第二对象。因此,第一对象与第二对象,或是还有其他对象在同一立体场景内,可以设定各对象之间的时间关系、空间关系,以及对象之间触发播放的条件。
因此,当使用者播放特定完成编辑的立体场景时,使用者通过智能型装置显示屏幕观看某个范围的立体场景影像时,可能可以在某个时间点看到两个或以上对象,或是因为移动智能型装置观看立体场景的关系,而在某个时间点看到某个对象的某个部位,或是看到对象在此范围内的移动与变化,这都与一般观看平面影像的经验不同。
根据播放立体场景的实施例的一个,智能型装置内播放程序取得由装置内传感器(如陀螺仪)产生的立体空间的定位信号,以检测到智能型装置的空间位置,播放程序即通过显示屏幕显示对应位置的立体场景影像,或可移动到包含某对象启始位置的空间位置,各对象根据所设定的触发播放条件开始依照设定的轨迹与状态变化播放动画。相关方法如图7所示的实施例流程。
开始如步骤S701,以一播放程序开启一立体场景播放档,使用者可以操作智能型装置,如步骤S703,移动智能型装置同时会产生立体空间定位信号,以浏览整个立体场景,通过显示屏幕显示对应定位信号的立体场景影像,如步骤S705。
此时,播放程序取得立体空间的定位信号,如步骤S707,程序比对立体空间定位信号与存储于立体场景播放文件的位置与影像关联信息,以及比对各对象的触发播放的条件,以执行步骤S709,播放程序能根据触发播放的条件播放第一对象动画;以及,若有其他对象存在,如步骤S711,同时也参考第二对象的触发播放条件,以根据触发播放的条件播放第二对象动画。
在播放的任何时刻,如步骤S713,使用者可随意移动智能型装置,播放程序即显示对应定位信号的立体场景与对象动画。其中特别的是,立体场景内多个对象可为独立运行的对象,有个别的触发播放条件,因此在特定时刻的特定场景内可能可以看到不同播放条件下的多个对象。每个对象的触发播放条件也可能彼此有关联,使用者可以设定每个对象启动的时间关系或空间关系,利用时间关系的触发条件实施例中,可设定第一对象开始播放后或是完成播放后的一预设时间后触发播放第二对象,其他对象也可同理执行。利用空间关系的触发条件实施例中,可设定当第一对象到达立体空间的某一个位置时,触发第二对象播放,其他对象也可同理设定。时间与空间关系可以搭配而设定每个对象触发播放的条件。
是以,根据说明书所载实施例,本发明提出一种立体空间的场景编辑方法与系统,能够让使用者直觉地操作智能型装置在一立体空间内移动,而同时直觉地在某个空间位置编辑对象。当编辑对象前即可先引入一立体场景,使得编辑对象时能够直觉地根据智能型装置于立体空间的位置同步显示的画面进行编辑。重现影像时也是能够让使用者直觉地操作智能型装置在此空间内的任意位置中观赏影像。
而以上所述仅为本发明的较佳可行实施例,非因此即局限本发明的专利范围,故举凡运用本发明说明书及图示内容所为的等效结构变化,均同理包含于本发明的范围内,合予陈明。
Claims (10)
1.一种立体空间的场景编辑方法,其特征在于所述的方法包括:
移动一智能型装置产生一立体空间内的定位信号;
引入一物件;
于该立体空间的一第一位置以该智能型装置编辑该对象,决定该对象于该第一位置的状态;以及
存储该对象于该立体空间的该第一位置的状态。
2.如权利要求1所述的立体空间的场景编辑方法,其特征在于所述的对象于该立体空间内的状态包括该对象的大小、旋转角度与转向其中的一个或其组合。
3.如权利要求2所述的立体空间的场景编辑方法,其特征在于,于该智能型装置的一触控屏幕编辑该对象产生的触控信号定义该对象于该立体空间内的状态。
4.如权利要求2所述的立体空间的场景编辑方法,其特征在于,于编辑该对象时,移动该智能型装置至一第二位置,以决定该对象自该第一位置移动至该第二位置的一移动轨迹,以存储该对象于该立体空间的该第一位置移动至该第二位置的连续状态,包括该移动轨迹。
5.如权利要求1至4其中的一个所述的立体空间的场景编辑方法,其特征在于,于编辑该对象前先引入一立体场景,使得编辑该对象时,根据该智能型装置于该立体空间的位置同步显示对应该立体空间的定位信号的立体场景影像。
6.一种立体空间的场景编辑方法,其特征在于所述的方法包括:
移动一智能型装置产生一立体空间内的定位信号;
引入一第一物件;
于该立体空间的一第一位置以该智能型装置编辑该第一对象,决定该第一对象于该第一位置的状态;移动该智能型装置至一第二位置,并决定该第一对象由该第一位置移动至该第二位置的连续状态;
存储该第一对象自该第一位置移动至该第二位置的一第一移动轨迹,以及该第一对象由该第一位置移动至该第二位置的连续状态;
引入一第二物件;
于该立体空间的一第三位置以该智能型装置编辑该第二对象,决定该第二对象于该第三位置的状态;移动该智能型装置至一第四位置,并决定该第二对象由该第三位置移动至该第四位置的连续状态;
存储该第二对象自该第三位置移动至该第四位置的一第二移动轨迹,以及该第二对象由该第三位置移动至该第四位置的连续状态;以及
设定该第一对象与该第二对象触发播放的条件。
7.如权利要求6所述的立体空间的场景编辑方法,其特征在于所述的第一对象或该第二对象于该立体空间内的状态包括大小、旋转角度与转向其中的一个或其组合。
8.如权利要求6所述的立体空间的场景编辑方法,其特征在于所述的第一对象与该第二对象触发播放的条件包括:于该智能型装置的一触控屏幕上触碰该第一对象或该第二对象时;使用该智能型装置的一显示屏幕在该第一位置显示该第一对象时,或在该第三位置显示该第二对象时;或开始观看该立体场景后达一预设时间,即触发播放该第一对象或该第二对象;或于开始播放该第一对象达一时间后开始播放该第二对象。
9.一种立体空间的场景编辑系统,是运作于一智能型装置内,其特征在于所述的系统包括:
一立体空间定位模块,用以取得该智能型装置在一立体空间内的定位信号;
一图像处理模块,用以处理该立体空间内的一影像对象与一立体场景,对应该智能型装置产生的该立体空间的定位信号产生一显示影像;
一显示模块,用以输出该立体空间内的该显示影像;
一触控模块,提供操作该影像对象的使用者接口,用以决定该影像对象于该立体空间的状态;以及
一存储模块,用以存储该立体空间的该立体场景,以及该影像对象在该立体空间内之的一时间与一位置的状态。
10.如权利要求9所述的立体空间的场景编辑系统,其特征在于所述的系统还包括存储于该智能型装置内一内存的一编辑程序集以及一播放程序集,该内存内存储的程序集包括:
取得该智能型装置产生的该立体空间内的定位信号的指令;
显示对应该定位信号的该立体场景的影像的指令;
编辑该影像对象在不同位置的状态与一移动轨迹的指令;
录制该对象在不同位置的状态改变与该移动轨迹的指令;
设定该对象于重现时触发播放的条件的指令;以及
触发该对象重现的指令。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611219623.3A CN108242082A (zh) | 2016-12-26 | 2016-12-26 | 立体空间的场景编辑方法与系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611219623.3A CN108242082A (zh) | 2016-12-26 | 2016-12-26 | 立体空间的场景编辑方法与系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108242082A true CN108242082A (zh) | 2018-07-03 |
Family
ID=62702007
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611219623.3A Pending CN108242082A (zh) | 2016-12-26 | 2016-12-26 | 立体空间的场景编辑方法与系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108242082A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113396443A (zh) * | 2019-02-01 | 2021-09-14 | 斯纳普公司 | 增强现实系统 |
US11972529B2 (en) | 2019-02-01 | 2024-04-30 | Snap Inc. | Augmented reality system |
Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08249496A (ja) * | 1995-03-08 | 1996-09-27 | Nec Corp | 映像提示方法および装置 |
JPH11180252A (ja) * | 1997-12-17 | 1999-07-06 | Nippon Seiko Kk | シートベルト用車体加速度センサー |
CN101883148A (zh) * | 2010-06-24 | 2010-11-10 | 华为终端有限公司 | 一种添加日程的方法及装置 |
CN102194254A (zh) * | 2010-03-04 | 2011-09-21 | 索尼公司 | 信息处理设备、信息处理方法,和程序 |
CN102376101A (zh) * | 2010-08-11 | 2012-03-14 | Lg电子株式会社 | 用于编辑三维图像的方法和利用该方法的移动终端 |
CN103425427A (zh) * | 2012-05-14 | 2013-12-04 | Lg电子株式会社 | 移动终端及其控制方法 |
CN103700128A (zh) * | 2013-12-30 | 2014-04-02 | 无锡触角科技有限公司 | 移动设备及其增强显示方法 |
KR20140068416A (ko) * | 2012-11-28 | 2014-06-09 | 한국전력공사 | 스마트 기기를 활용한 3차원 이미지 생성장치 및 그 방법 |
CA2842264A1 (en) * | 2013-02-13 | 2014-08-13 | Blackberry Limited | A device with enhanced augmented reality functionality |
CN104081317A (zh) * | 2012-02-10 | 2014-10-01 | 索尼公司 | 图像处理装置和计算机程序产品 |
US20150077525A1 (en) * | 2013-09-13 | 2015-03-19 | Sony Corporation | Information processing apparatus and information processing method |
US20150227285A1 (en) * | 2014-02-10 | 2015-08-13 | Samsung Electronics Co., Ltd. | Electronic device configured to display three dimensional (3d) virtual space and method of controlling the electronic device |
US20150363980A1 (en) * | 2014-06-17 | 2015-12-17 | Valorisation-Recherche, Limited Partnership | 3d virtual environment interaction system |
EP2977961A1 (de) * | 2014-07-24 | 2016-01-27 | Deutsche Telekom AG | Verfahren und Kommunikationseinrichtung zum Erstellen und/oder Ändern virtueller Objekte |
CN102593803B (zh) * | 2010-12-30 | 2016-03-23 | 通用电气公司 | 用于防止等离子体枪电极之间的电迁移的系统、方法及设备 |
CN105637564A (zh) * | 2013-10-04 | 2016-06-01 | 高通股份有限公司 | 产生未知对象的扩增现实内容 |
CN105719350A (zh) * | 2014-11-20 | 2016-06-29 | 财团法人资讯工业策进会 | 移动装置及操作方法 |
WO2016111514A1 (en) * | 2015-01-06 | 2016-07-14 | Samsung Electronics Co., Ltd. | Method of displaying content and electronic device implementing same |
-
2016
- 2016-12-26 CN CN201611219623.3A patent/CN108242082A/zh active Pending
Patent Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08249496A (ja) * | 1995-03-08 | 1996-09-27 | Nec Corp | 映像提示方法および装置 |
JPH11180252A (ja) * | 1997-12-17 | 1999-07-06 | Nippon Seiko Kk | シートベルト用車体加速度センサー |
CN102194254A (zh) * | 2010-03-04 | 2011-09-21 | 索尼公司 | 信息处理设备、信息处理方法,和程序 |
CN101883148A (zh) * | 2010-06-24 | 2010-11-10 | 华为终端有限公司 | 一种添加日程的方法及装置 |
CN102376101A (zh) * | 2010-08-11 | 2012-03-14 | Lg电子株式会社 | 用于编辑三维图像的方法和利用该方法的移动终端 |
CN102593803B (zh) * | 2010-12-30 | 2016-03-23 | 通用电气公司 | 用于防止等离子体枪电极之间的电迁移的系统、方法及设备 |
CN104081317A (zh) * | 2012-02-10 | 2014-10-01 | 索尼公司 | 图像处理装置和计算机程序产品 |
CN103425427A (zh) * | 2012-05-14 | 2013-12-04 | Lg电子株式会社 | 移动终端及其控制方法 |
KR20140068416A (ko) * | 2012-11-28 | 2014-06-09 | 한국전력공사 | 스마트 기기를 활용한 3차원 이미지 생성장치 및 그 방법 |
CA2842264A1 (en) * | 2013-02-13 | 2014-08-13 | Blackberry Limited | A device with enhanced augmented reality functionality |
US20150077525A1 (en) * | 2013-09-13 | 2015-03-19 | Sony Corporation | Information processing apparatus and information processing method |
CN105637564A (zh) * | 2013-10-04 | 2016-06-01 | 高通股份有限公司 | 产生未知对象的扩增现实内容 |
CN103700128A (zh) * | 2013-12-30 | 2014-04-02 | 无锡触角科技有限公司 | 移动设备及其增强显示方法 |
US20150227285A1 (en) * | 2014-02-10 | 2015-08-13 | Samsung Electronics Co., Ltd. | Electronic device configured to display three dimensional (3d) virtual space and method of controlling the electronic device |
US20150363980A1 (en) * | 2014-06-17 | 2015-12-17 | Valorisation-Recherche, Limited Partnership | 3d virtual environment interaction system |
EP2977961A1 (de) * | 2014-07-24 | 2016-01-27 | Deutsche Telekom AG | Verfahren und Kommunikationseinrichtung zum Erstellen und/oder Ändern virtueller Objekte |
CN105719350A (zh) * | 2014-11-20 | 2016-06-29 | 财团法人资讯工业策进会 | 移动装置及操作方法 |
WO2016111514A1 (en) * | 2015-01-06 | 2016-07-14 | Samsung Electronics Co., Ltd. | Method of displaying content and electronic device implementing same |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113396443A (zh) * | 2019-02-01 | 2021-09-14 | 斯纳普公司 | 增强现实系统 |
US11972529B2 (en) | 2019-02-01 | 2024-04-30 | Snap Inc. | Augmented reality system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3217258B1 (en) | Method and system for editing scene in three-dimensional space | |
US10569172B2 (en) | System and method of configuring a virtual camera | |
US10864433B2 (en) | Using a portable device to interact with a virtual space | |
US10671239B2 (en) | Three dimensional digital content editing in virtual reality | |
CN105357585B (zh) | 对视频内容任意位置和时间播放的方法及装置 | |
US9256288B2 (en) | Apparatus and method for selecting item using movement of object | |
CN102830795B (zh) | 利用运动传感装置的远程控制 | |
JP5638896B2 (ja) | 表示制御プログラム、表示制御装置、表示制御システム、および表示制御方法 | |
JP2011081480A (ja) | 画像入力システム | |
JP7458889B2 (ja) | 画像表示装置、制御方法、およびプログラム | |
US20120287159A1 (en) | Viewing of real-time, computer-generated environments | |
KR20120037858A (ko) | 입체영상표시장치 및 그 ui 제공 방법 | |
WO2018173791A1 (ja) | 画像処理装置および方法、並びにプログラム | |
US20160344946A1 (en) | Screen System | |
JP4458886B2 (ja) | 複合現実感画像の記録装置及び記録方法 | |
CN103927093B (zh) | 一种信息处理方法及电子设备 | |
CN108242082A (zh) | 立体空间的场景编辑方法与系统 | |
EP4125044A2 (en) | Image processing apparatus, image processing method, and program | |
JP2018036942A (ja) | 3次元ユーザインタフェース装置および3次元操作用プログラム | |
JP7070547B2 (ja) | 画像処理装置および方法、並びにプログラム | |
KR101743888B1 (ko) | 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 컴퓨터 구현 방법 | |
CN108268434A (zh) | 立体场景中超链接编辑方法与系统 | |
KR101263881B1 (ko) | 무인 방송 제어 시스템 | |
WO2023002792A1 (ja) | 情報処理装置、情報処理方法およびコンピュータプログラム | |
JP2023016227A (ja) | 情報処理装置、情報処理方法およびコンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20180703 |
|
WD01 | Invention patent application deemed withdrawn after publication |