CN113678096A - 用于在计算机图形软件环境中处理命令的系统和方法 - Google Patents
用于在计算机图形软件环境中处理命令的系统和方法 Download PDFInfo
- Publication number
- CN113678096A CN113678096A CN202080028236.XA CN202080028236A CN113678096A CN 113678096 A CN113678096 A CN 113678096A CN 202080028236 A CN202080028236 A CN 202080028236A CN 113678096 A CN113678096 A CN 113678096A
- Authority
- CN
- China
- Prior art keywords
- user command
- input device
- user
- touch
- environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000012545 processing Methods 0.000 title claims abstract description 14
- 230000009471 action Effects 0.000 claims abstract description 58
- 230000003993 interaction Effects 0.000 claims abstract description 31
- 238000013461 design Methods 0.000 claims description 29
- 238000004891 communication Methods 0.000 claims description 18
- 238000013500 data storage Methods 0.000 claims description 3
- 241000699666 Mus <mouse, genus> Species 0.000 description 22
- 238000013519 translation Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000011960 computer-aided design Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000010408 sweeping Methods 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000004886 process control Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03541—Mouse/trackball convertible devices, in which the same ball is used to track the 2D relative movement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03547—Touch pads, in which fingers can move on a surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
用于在计算机图形(CG)环境中处理控制命令的方法和系统,包括根据当前视图设置来显示CG环境。接收通过用户与触控式第一输入设备的交互所生成的第一用户命令。该命令限定了对当前视图设置的调整。根据由第一用户命令所限定的视图调整来调整CG环境的显示。接收通过用户与不同于触控式第一输入设备的第二输入设备的交互所生成的第二用户命令。第二用户命令限定了在CG环境内的CG创建/编辑动作。然后显示对由第二用户命令所限定的CG创建/编辑动作的应用。第一输入设备和第二输入设备可以在物理上是分开的,并且第一用户命令和第二用户命令可以在逻辑上是分开的。
Description
相关专利申请
本申请要求于2019年2月13日提交的题为“SYSTEMANDMETHODFORPROCESSINGCOMMANDSINACOMPUTER-GRAPHICSSOFTWAREENVIRONMENT(用于在计算机图形软件环境中处理命令的系统和方法)”的美国临时专利申请no.62/804,933的优先权,其公开内容通过引用全文并入文本。
技术领域
本公开内容总体上涉及用于接收通过用户与用户输入设备的交互所生成的控制命令以及用于在计算机图形(CG)环境中处理该控制命令的系统和方法。
背景技术
计算机图形涉及使用计算机系统来帮助创建、修改、分析或优化图形或设计。通常情况下,用户使用CG软件来进行CG创建环节。CG软件生成CG环境,该环境包括CG空间,在该空间中可以进行CG对象的创建和编辑。CG环境显示在电子显示设备上,通常是实时的,以向用户提供视觉反馈。
在该环节期间,用户通常将与不同的用户输入设备交互,诸如计算机鼠标、键盘和/或其他计算机外围设备。用户与用户输入设备的交互被转换为控制命令,这些命令限定了如何修改CG环境。对CG环境的修改包括改变环境的视图设置和在环境中实际创建/编辑CG对象。
通过与用户输入设备的交互来准确且有效地生成控制命令可以确保准确且有效地创建/编辑CG对象。然而,控制命令的有效生成可以受到标准用户输入设备诸如键盘和鼠标的限制。
额外的计算机外围设备可用于提供不同的用户交互机制,其目的是改善控制命令的生成。
美国出版物No.20080001919提供了一种用于在计算机相关环境中手动输入控制信号的设备,该设备包括:用于将该设备支撑在表面上的基部;第一输入构件,其安装在基部上,用于绕从基部大致向上延伸的轴线进行旋转运动,该第一输入构件具有从基部近侧的端部区域到基部远侧的端部区域的轴向范围,并包围着中央空间,在该空间内安置有用于检测和解释第一输入构件相对于基部的旋转运动的传感器布置结构,该第一输入构件在其近侧端部区域和远侧端部区域中的每一者处都具有开口;以及一对第二输入构件,其设置在第一输入构件的所述远侧端部区域处或附近,所述第二输入构件中的每一者包括适于通过应用手指压力来致动的开关或继电器。第一输入构件的旋转运动和/或第二输入构件的致动适于在计算机环境中生成对应的控制信号。类似的设备诸如SpacePilot Pro也是可用的。
用户将继续寻求新的或改进的系统和方法,以便在使用CG环境来工作时与输入设备交互以生成控制命令,从而实现较高的有效性、准确性、直观性、用户友好性和/或效率。
发明内容
根据一个方面,提供了一种用于在计算机图形(CG)环境中处理控制命令的方法。该方法包括:根据当前的视图设置显示CG环境;接收通过用户与触控式第一输入设备的交互所生成的第一用户命令,该第一用户命令限定了对当前视图设置的调整;根据由第一用户命令限定的视图调整来调整CG环境的显示;接收通过用户与不同于触控式第一输入设备的第二输入设备的交互所生成的第二用户命令,该第二用户命令限定了CG环境内的CG创建/编辑动作;以及在CG环境内显示对由第二用户命令限定的CG创建/编辑动作的应用。
根据另一方面,提供了一种用于处理用于计算机辅助设计环境的控制命令的系统。该系统包括用于存储多个指令的存储器和数据存储设备。处理器耦接到存储器,并被配置为:提供CG环境;接收通过用户与触控式第一输入设备的交互所生成的第一用户命令,该第一用户命令限定了对当前视图设置的调整;根据由第一用户命令限定的视图调整来调整CG环境的显示;接收通过用户与不同于触控式第一输入设备的第二输入设备的交互所生成的第二用户命令,该第二用户命令限定了用于在CG环境内创建/编辑设计对象的对象创建/编辑动作;以及在CG环境内显示对由第二用户命令限定的对象创建/编辑动作的应用。
附图说明
为了较好地理解本文所描述的实施方式,并较清楚地表明它们是如何实施的,现在将仅以示例的方式参考示出了至少一个示例实施方式的附图,并且其中:
图1例示了根据一个示例实施方式的计算机实现的CG系统的操作模块的示意图;
图2例示了根据可替代的示例实施方式的CG系统的操作模块的示意图;
图3例示了流程图,其示出了根据示例实施方式用于在CG环境内处理控制命令的方法的操作步骤。
图4和图5例示了用于基本上同时应用设计对象创建/编辑和视图设置调整的示例性方法的操作步骤的流程图。
图6至图15是在正在进行的CG环节期间的不同时间处进行的捕获,其示出了用户与输入设备和显示的CG环境的交互。
将理解的是,为了例示的简单性和清晰性,图中所示的元件不一定是按比例绘制的。例如,为了清晰起见,一些元件的尺寸可能相对于其他元件被夸大了。
具体实施方式
将理解的是,为了例示的简单性和清晰性,在认为适当的地方,附图标记可以在图中重复,以表示对应的或类似的元件或步骤。此外,为了提供对本文所描述的示例实施方式的透彻理解,还列出了许多具体细节。然而,本领域的普通技术人员将理解的是,本文所述的实施方式可以在没有这些具体细节的情况下实施。在其他情况下,众所周知的方法、过程和部件没有被详细描述,以避免模糊本文所述的实施方式。此外,这种描述不应视为以任何方式限制本文所描述的实施方式的范围,而仅是描述本文所描述的不同实施方式的实现方式。
本文所描述的一个或更多个系统和方法可以在可编程计算机上执行的计算机程序中实现,每个可编程计算机包括至少一个处理器、数据存储系统(包括易失性和非易失性存储器和/或存储元件)、至少一个输入设备和至少一个输出设备。例如但不限于此,可编程计算机可以是可编程逻辑单元、大型计算机、服务器、个人计算机、基于云的程序或系统、笔记本计算机、个人数据助理、移动电话、智能手机、平板设备或游戏机。
每个程序优选地以高级程序化或面向对象的编程、功能编程语言和/或脚本语言来实现,以便与计算机系统通信。然而,如果需要的话,这些程序可以以汇编或机器语言来实现。在任何情况下,语言可以是编译或解释型语言。每个这样的计算机程序优选地存储在存储介质上或存储在可以由通用或专用的可编程计算机读取的设备上,以用于在存储介质或设备被计算机读取时配置和操作计算机以执行本文所述的过程。
此外,所述实施方式的系统、进程和方法能够分布在计算机程序产品中,该计算机程序产品包括承载着用于一个或更多个处理器的计算机可使用指令的计算机可读介质。该介质可以以不同的形式提供,包括:一个或更多个磁盘、光盘、磁带、芯片、有线传输、卫星传输、互联网传输或下载、磁性和电子存储介质、数字和模拟信号等。计算机可使用指令也可以以不同的形式,包括编译和非编译代码。
本文的“CG环境”是指数字表示的环境,用户在该环境中创建和编辑数字表示的CG对象。该CG环境将包括可以以视觉方式表示的创建空间。这可以是二维或三维的空间。被创建的CG对象在CG环境的创建空间中以视觉方式表示。CG环境还可以包括不同的图形用户接口,其允许用户在创建/编辑CG对象时选择不同的选项。CG环境可以用于编辑视频、照片、图示或计算机生成的对象。CG环境包括计算机辅助设计(CAD环境)。
本文的“触控式输入设备”是指一种可操作以捕获接触该设备的捕获表面的用户所做的手势的电子设备。该接触可以由用户的手指直接接触捕获表面进行或由用户操纵工具诸如触控笔来接触捕获表面进行。触控式输入设备可以包括触摸屏,其具有允许用户通过触摸屏幕做出手势的触控层和位于触控层下方的电子视觉显示器。
本文的“调整CG环境的视图设置”或其变型是指如何以视觉方式表示CG环境的创建空间,诸如在显示在电子显示设备上时。
本文的“CG创建/编辑”或其变型是指用户在CG工作流程内执行的动作。创建/编辑动作可以是生成表示CG模型或设计(以下称为“CG对象”)的数据。除了存储CG数据外,这些数据还可以用于在CG环境内生成CG模型或设计的视觉表示。CG创建/编辑可以包括:创建CG对象;添加到已创建的CG对象;修改CG对象(视觉可感知的属性或非视觉属性);以及删除已创建的CG对象。CG创建/编辑动作还可以包括在CG环境内选择CG对象或提供注释。
现在参考图1,其中例示的是根据一个示例实施方式的计算机实现的(计算机图形)CG系统1的操作模块的示意图。CG系统1包括用于执行CG软件的已知硬件和软件模块,该软件可以是已知的CAD软件,诸如Tinkercad、Solidworks、AutoCAD、Adobe Illustrator、Adobe Photoshop等。还考虑了与触摸输入的控制命令一起使用的专有CG软件。为了不模糊本文所描述的实施方式,本文没有例示这种硬件和软件模块。例如,CG系统1可以在台式计算机、平板设备、笔记本计算机、工作站或基于云的系统上实现。
CG系统1被配置为处理控制命令,用于在CG环境内导航和创建/编辑设计对象,其中控制命令中的至少一些是通过用户与触控式输入设备8交互输入的。
根据一个示例实施方式并如所例示的,CG系统1包括第一通信模块16、第二通信模块24、视图调整模块32、对象编辑模块40和显示模块48。CG系统1能够可选地包括手势转换模块56,如本文其他地方所述。模块中的一个或更多个模块可以被实现为软件模块,这些模块已经形成在CG系统1上执行的CG软件的一部分。
第一通信模块16被配置为接收使用触控式输入设备8生成的一个或更多个第一用户命令。使用触控式设备8生成的用户命令限定了CG环境的视图应该如何调整。
更特别地,第一用户命令是通过与触控式输入设备8交互的用户生成的。用户通过在触控式输入设备18的捕获表面64上执行手指或手部手势来与触控式输入设备8进行交互。这些手势可以包括以下中的一种或更多种:
·单次敲击;
·多次敲击(连续重复的敲击);
·单点滑动/拖拽/划扫;
·多点滑动/拖拽/划扫;
·缩捏;
·拉开;
·等等。
捕获表面64可以是多点捕获表面。
触控式输入设备8包括捕获表面64、手势捕获模块72和输入侧通信模块80。根据一些示例实施方式,触控式输入设备8能够可选地包括手势转换模块88。
手势捕获模块72被配置为捕获用户在捕获表面64上所做的手势并生成表示该手势的原始数据。
手势转换模块88被配置为接收表示所捕获的手势的原始数据并确定与这些所捕获的手势相对应的视图调整命令。例如,基于所捕获的手势的属性,手势转换模块88可以确定对应的视图调整的类型、该类型的视图调整的方向以及该类型的视图调整的幅度。
通过用户与触控式输入设备8的交互所生成的第一用户命令所限定的视图调整可以包括CG创建空间的旋转、CG创建空间的平移和CG创建空间的缩放。视图调整还可以包括调整到预定设置,诸如切换到预定视图(例如:正视图、仰视图、平面图等)或缩放以适应显示区域。
触控式输入设备8的输入侧通信模块80被配置为传输通过用户与捕获表面64的交互所生成的第一用户命令。通过用户与触控式64的交互所生成的第一用户命令可以以从手势捕获模块72输出的原始手势数据的形式传输。
在触控式输入设备8包括手势转换模块88并且原始手势数据被转换成视图调整命令的情况下,输入侧通信模块80可以可操作以将转换后的视图调整命令作为第一用户命令来传输。
可替代地,第一用户命令可以由输入侧通信模块80以中间格式来传输。在该第一用户命令内,捕获到的原始手势数据已经经过了一些处理/转换以生成中间格式。然而,该中间格式需要进一步处理以获得视图调整命令。
从触控式输入设备8传输的第一用户命令被CG系统1的第一通信模块16接收。在接收到的第一用户命令已经是限定视图调整命令的格式的情况下,这些命令可以被转发给CG系统1的视图调整模块32。
在接收到的第一用户命令还不是限定视图调整命令的格式的情况下,CG系统1设置有系统侧手势转换模块56。手势转换模块56对接收到的第一用户命令进行任何必要的转换,以输出可由视图调整模块32使用的视图调整命令。系统侧手势转换模块56可以被实现为安装在CG系统1上的驱动程序和/或被实现为实现CG环境的CG软件的软件附加组件。
视图调整模块32被配置为根据接收到的第一用户命令所限定的视图调整来调整CG环境内的视图设置。通常情况下,设计中的对象在显示的CG环境内将是可视的,并且视图调整将改变设计对象被观察的方式。然而,将理解的是,视图调整改变了以下中的一者或更多者:CG环境内以视觉方式表示的CG创建空间的轴的定向;以视觉方式表示的CG创建空间的一个或更多个轴的缩放;以及沿以视觉方式表示的CG创建空间的一个或更多个轴的线性位置。相应地,即使在设计中的对象不可见或不存在于设计空间内,CG环境内的视图也会被调整。
继续参考图1,第二通信模块24被配置为接收至少一个第二用户命令。第二用户命令是通过用户与不同于触控式输入设备8的输入设备交互所生成的。第二用户命令可以通过非触控式输入设备60生成。第二用户命令可以是不基于文本输入的CG创建/编辑动作(即不是由用户使用基于文本的编程代码或脚本限定的动作)。
第二用户命令可以通过用户与通常在CG创建环节期间所使用的输入设备诸如鼠标或键盘的交互来生成。适合于接收用户交互并生成第二用户命令的其他类型的输入设备也在考虑之列。这些设备可以包括语音识别子系统(例如:麦克风和信号处理器)、手部手势捕获设备、眼球追踪设备、平板计算机和触控笔子系统、专门的CG设计控制设备(例如:SpacePilot等)。
第二用户命令限定了对象创建/编辑动作。该用户命令被传送到对象编辑模块40,该对象编辑模块根据第二用户命令在CG环境内执行创建/编辑动作。创建/编辑动作创建或编辑CG对象,该动作可以包括存储以数字方式表示已创建/编辑的设计对象的CG数据。创建或编辑动作也可以在显示的CG环境内以视觉方式基本上实时地表示。
显示模块48被配置为在电子显示设备96诸如计算机监视器或电视上显示CG环境。显示模块48响应于对CG环境的任何改变诸如创建或编辑显示的设计对象或调整CG环境的视图设置来更新显示的CG环境。更特别地,显示模块48可以根据由第一用户命令限定并由视图调整模块32应用的调整来更新显示的CG环境。同样地,显示模块48可以根据第二用户命令中限定的并由对象编辑模块40应用的创建/编辑来更新显示的CG环境。
将理解的是,通过用户与触控式输入设备8的交互而生成并由第一通信模块16接收的一个或更多个第一用户命令与通过用户与另一输入设备的交互而生成并由第二通信模块24接收的第二用户命令无关。也就是说,第一用户命令与第二用户命令被分开接收。例如,它们可以通过独立/分开的数据通信信道来接收。换句话说,来自触控式输入设备的第一用户命令和来自其他输入设备的第二用户命令在逻辑上彼此分开。本文的逻辑上分开是指CG系统1能够接收和处理第一用户命令和第二用户命令,而不会在用户命令之间发生冲突。
第一用户命令独立于第二用户命令,这允许这些命令被彼此独立地解释和对待。例如,并如本文其他地方所述,第一用户命令和第二用户命令可以在CG系统1处被同时接收,并且根据第一用户命令进行的视图调整和根据第二用户命令进行的对象创建/编辑也可以同时进行。
根据一个示例实施方式,由第二输入设备生成的第二用户命令是计算机鼠标协议。第二用户命令可以是(例如:笔记本计算机的)计算机鼠标或触控板。可替代地,第二用户命令被提供为就像它们是由计算机鼠标生成的一样。计算机鼠标协议通常将限定光标/指针在图形用户界面中诸如在操作系统中是如何移动的。
据观察,目前可用的各种输入设备,除了标准的计算机鼠标或触控板之外,包括专门为CG设计项目设计的各种外围设备,都会生成以计算机鼠标协议的命令。例如,具有触摸屏的显示器将生成以计算机鼠标协议的命令。也就是说,这些命令被生成就像它们是通过与计算机鼠标的交互所生成的一样。进一步观察到,在这种情况下,由输入设备生成的命令将与计算机鼠标发出的命令相冲突。例如,同时输入与触摸屏显示器以及与相同计算设备的计算机鼠标的交互将产生冲突,因为它们将被解释为来自单个鼠标的命令。
根据该示例实施方式,第一用户命令是以不同于计算机鼠标协议的协议接收的。相应地,第一用户命令将不会与以计算机鼠标协议提供的第二用户命令相冲突。将理解的是,生成第二用户命令的其他输入设备可以是触控式设备(例如:轨迹板、笔记本计算机或台式机的触摸屏显示器、平板计算机和触控笔),但生成以计算机鼠标协议的第二用户命令。
将理解的是,具有以计算机鼠标协议的第二用户命令和以另一协议的第一用户命令避免了第一用户命令和第二用户命令之间的冲突,并允许第一用户命令和第二用户命令被同时解释。
根据不同的示例实施方式,触控式输入设备8在物理上与第二输入设备60分开。用户可以使用第一只手与触控式输入设备8交互,并可以使用另一只手与第二输入设备8交互。
根据不同的示例实施方式,触摸屏输入设备8在CG系统1的外部。触控式输入设备8可以通过无线通信诸如Wi-Fi、蓝牙或近场通信将第一用户命令传输到CG系统1。
在一个示例实施方式中,第二输入设备60可以嵌入在实现CG环境的计算设备(例如:台式计算机或笔记本计算机)中。例如,第二输入设备60可以是台式计算机或笔记本计算机的触摸屏监视器。在这样的实施方式中,触控式输入设备在计算设备的外部。
现在参考图2,其中例示的是根据可替代的示例实施方式的CG系统1的操作模块的示意图。根据该示例实施方式,触控式输入设备8经由中间网络112与CG系统1进行通信。中间网络112是指网络基础设施,它可以被不同于触控式输入设备8和CG系统1的多个计算机实现的系统使用。例如,中间网络112可以是局域网或广域网(例如:互联网、基于云的网络)。
根据替代性实施方式,第一用户命令可以从触控式输入设备8上传到位于中间网络112中的外部设备。外部设备可以是专用服务器或基于云的服务器。该外部设备也与CG系统1通信,并且接着在外部设备处接收到的第一用户命令被路由到CG系统1。例如,第一用户命令可以使用互联网协议(例如:HTTP)从触摸屏输入设备8传输到CG系统1。
将理解的是,外部设备可以位于触控式输入设备8和CG系统1的远程处。相比之下,触控式输入设备8和CG系统1则位于彼此的附近。将理解的是,触摸屏输入设备8、第二输入设备60和电子显示设备96通常将在使用CG环境来工作的用户触手可及的范围内,因为用户将与触控式输入设备8、第二输入设备60交互并将查看电子显示设备96。然而,用户将不在外部设备的范围内。
根据其中第一命令通过中间网络112进行传达这样的替代性实施方式,CG系统1在第一计算设备上实现,并且触摸屏输入设备8可以在第二计算设备上实现。例如,第一计算设备可以运行第一操作系统,该第一操作系统还执行提供CG环境的CG软件。触摸屏输入设备8可以运行第二操作系统,该第二操作系统执行用于捕获触摸屏手势和用于通过中间网络112使第一用户命令传达至CG系统1的软件模块。触摸屏手势的转换也可以在运行于触摸屏输入设备8的操作系统中的软件模块中实现。
触摸屏输入设备8可以是具有触摸屏64的移动计算设备,诸如智能手机、平板计算机或游戏机。触摸屏输入设备8的操作系统可以是移动操作系统,诸如iOS或Android。触摸屏设备8的模块可以实现为在移动操作系统内运行的移动应用。
有利地,经由中间网络112传达第一用户命令,并且使触摸屏输入设备8为独立的计算设备8,这允许用户可互换地使用具有适当的捕获表面64的任何输入设备8来生成用于调整CG环境内的视图的第一用户命令。例如,可以在连接到中间网络112的服务器、web或基于云的系统上实现的基于web的平台内创建和存储与特定用户相关联的用户账户。相应地,用户可以使用该用户账户使用任何合适的触摸屏输入设备8登录到平台。由用户在登录到用户账户时所生成的第一用户命令与该账户相关联。
用户账户还可以与在CG系统1上实现CG环境的CG软件关联。例如,在CG环境中工作的用户也将使用给定的用户账户登录到服务器、web或基于云的平台。相应地,用户将使用给定的用户账户从触摸屏输入设备8登录。用户也将使用相同的给定用户账户从CG系统1中登录。然后,基于触控式输入设备8和CG系统1两者对相同用户账户的关联,从触控式输入设备8接收到的第一用户命令可以被路由到CG系统1。
现在参考图3,其中例示的是流程图,该流程图示出了用于在CG环境中处理控制命令的方法200的操作步骤。
在步骤208,根据当前的视图设置显示CG环境。CG环境可以是空的,或者可以包含一个或更多个正在进行的CG设计对象。任何正在进行的CG设计对象也以其相应的当前状态显示。
在步骤216,接收至少一个用户命令。该至少一个用户命令可以包括至少一个第一用户命令,至少一个第一用户命令限定了待对CG环境内的当前视图设置进行的至少一个调整。可替代地或者另外地,该至少一个用户命令可以包括至少一个第二用户命令,至少一个第二用户命令限定了至少一个创建/编辑动作。将理解的是,该至少一个用户命令可以包括第一用户命令和第二用户命令两者。如本文其他地方所述,第一用户命令是在第一通信模块16处接收的,第二用户命令是在第二通信模块24处接收的。
在步骤224,将在步骤216接收到的至少一个用户命令在CG环境内应用并显示。在至少一个用户命令包括第一用户命令的情况下,根据第一用户命令中限定的调整来调整CG环境内的视图设置。在调整完成后,调整后的视图设置成为CG环境的当前视图设置。
在至少一个用户命令包括第二用户命令的情况下,根据由第二用户命令限定的创建/编辑动作来创建或编辑CG环境的对象。
应用对视图设置的调整是由视图调整模块32进行的,用对象创建/编辑动作是由对象编辑模块40进行的。
对象的创建/编辑也显示在电子显示设备上,并由显示模块48执行。在完成创建/编辑后,对象在被应用了创建或编辑之后的状态成为对象的当前状态。
对于另外接收到的第一用户命令或第二用户命令,可以重复方法200。
根据不同的示例实施方式,可以在基本上相同的时间接收第一用户命令和第二用户命令。本文中的在基本上相同的时间接收第一用户命令和第二用户命令是指用户命令在另一用户命令中限定的动作(视图调整或创建/编辑动作)的应用仍进行的同时被接收的情况。
在一种情况下,接收第一用户命令,根据第一用户命令调整视图设置,在完成视图调整之前在CG系统1处接收第二用户命令。例如,用户触摸屏手势可以是划扫和保持手势,以限定相机的连续旋转,以应用旋转视图设置调整。当相机仍在旋转时,接收第二用户命令以创建/编辑CG对象。
在另一种情况下,接收第二用户命令,根据第二用户命令编辑或创建对象,在完成编辑/创建动作之前在CG系统1处接收第一用户命令。
根据其中在基本上相同的时间接收第一用户命令和第二用户命令的不同的示例实施方式,可以在基本上相同的时间应用第一用户命令和第二用户命令两者中所限定的动作。动作的应用也可以在相同的时间且实时地显示,以向用户提供视觉反馈。将理解的是,第一用户命令和第二用户命令是独立接收的,并且在逻辑上彼此分开。因此,第一用户命令和第二用户命令在基本上相同的时间被接收到时也是分开处理的。然而,应用由这些命令限定的动作对用户来说将表现为在相同的时间且实时地发生的。
现在参考图4,其中例示的是根据一个实施方式的用于在基本上相同的时间应用视图设置调整和设计对象创建/编辑的方法200a的操作步骤的流程图。图4例示了一种方法的步骤,在该方法中第一用户命令在第二用户命令之前或在与第二用户命令相同的时间被接收。
在步骤216a,接收限定了对视图设置进行调整的第一用户命令。
在步骤224a,执行根据第一用户命令对视图设置的调整。对视图设置的调整也可以基本上实时地显示在电子显示设备96上。
在步骤232,确定是否已经完成对视图设置的调整。例如,在最初的第一用户命令限定了正在进行的视图调整(例如:连续旋转)的情况下,可以接收限定调整的结束的另一用户命令。
如果对视图设置的调整完成,方法200a的迭代结束,并且调整后的视图设置成为CG环境的当前视图设置。
如果对视图设置的调整尚未完成,方法200a进行至步骤216b,以确定是否已接收到限定了对象创建/编辑动作的第二用户命令。
如果没有接收到第二用户命令,方法200a返回到步骤232,以监测视图设置调整的完成或第二用户命令的接收。
如果在步骤216b处接收到第二用户命令,方法200a进行至步骤224b,以在与正在进行的视图调整相同的时间应用对设计对象的创建/编辑。对设计对象的创建/编辑与对视图设置的调整在基本上相同的时间显示。当用户进行交互以生成在步骤216a处接收到的第一用户命令和在步骤216b处接收到的第二用户命令时,创建/编辑及对视图设置的调整可以基本上实时地显示。
方法200a的迭代在完成视图设置调整和对象创建/编辑动作后结束。将理解的是,尽管方法200a的示例示出了在正在进行对视图设置的调整时接收和应用单个第二用户命令,但在方法200a的其他迭代中,在正在进行对视图设置的调整时可以接收和应用多个第二用户命令。
现在参考图5,其中例示的是根据一个实施方式的用于在基本上相同的时间应用设计对象创建/编辑和视图设置调整的方法200b的操作步骤的流程图。图5例示了一种方法的步骤,在该方法中第二用户命令在第一用户命令之前或在与第一用户命令相同的时间被接收。
在步骤216b,接收限定了创建/编辑动作的第二用户命令。
在步骤224b,执行根据接收到的第二用户命令对创建/编辑动作的应用。对创建/编辑动作的应用也可以基本上实时地显示在电子显示设备96上。
在步骤240,确定是否已经完成对创建/编辑动作的应用。例如,在最初的第二用户命令限定了正在进行的创建/编辑动作的情况下,可以接收限定创建/编辑动作的结束的另一用户命令。例如,最初的第二用户命令可以是用于创建设计对象的鼠标点击和鼠标拖拽。待创建的建议对象的大小和形状显示在CG环境内,并基于用户做出的进一步的鼠标拖拽手势被修改。对象的创建/编辑只有在与用户释放所点击的鼠标按钮对应的另外的第二用户命令时才会应用。
如果在步骤240处完成了创建/编辑动作,方法200b的迭代就结束了,并且已创建/编辑的设计对象成为CG环境内设计对象的当前状态。
如果在步骤240处尚未完成创建/编辑动作,方法200b的迭代进行至步骤216a,以确定是否已经接收到限定了对CG环境进行视图调整的第一用户命令。
如果没有接收到第一用户命令,方法200b返回到步骤240,以监测应用对象/编辑动作的完成和/或第一用户命令的接收。
如果在步骤216a处接收到第一用户命令,方法200b进行至步骤224a,以在与正在进行的创建/编辑动作相同的时间应用视图调整。对视图调整的应用在与对设计对象的创建/编辑基本上相同的时间被显示。当用户进行交互以生成在步骤216a处接收到的第一用户命令和在步骤216b处接收到的第二用户命令时,创建/编辑及对视图设置的调整可以基本上实时地显示。
方法200b的迭代在完成视图设置调整和对象创建/编辑动作时结束。将理解的是,尽管方法200b的示例示出了在应用正在进行的对象的创建/编辑时接收和应用单个第一用户命令,但在方法200b的其他迭代中,在正在进行对视图设置的调整时可以接收和应用多个第一用户命令。
图6是在正在进行的CG环节期间在第一时间点处的捕获。将看到的是,该示例中的CG系统是具有触摸板和键盘的笔记本计算机。该示例中的触摸屏输入设备是与笔记本计算机进行无线通信的智能手机。用户使用他们的左手与触摸屏输入的触摸屏交互。更特别地,用户在触摸屏的右边缘附近按压。用户的右手悬浮在触摸板上方,并且目前没有与触摸板交互。
图7是在正在进行的CG环节期间的第二时间点处进行的捕获。用户通过将按压的手指朝向触摸屏的左边缘拖拽,来使用其左手继续触摸屏手势。该手势生成限定了视图设置的旋转的第一用户命令。笔记本计算机的作为CG系统电子显示设备的屏幕现在显示出,视图设置已经根据该旋转被调整。
图8是在正在进行的CG环节期间的第三时间点处进行的捕获。用户现在已经做出多点按压触摸屏的手势,其中触摸屏上的两个接触点是叉开的。用户的右手仍然悬浮在触摸板上方,并且目前没有与触摸板交互。
图9是在正在进行的CG环节期间的第四时间点处进行的捕获。用户通过移动接触触摸屏的两个手指靠近在一起来继续图8的多点按压。将理解的是,从图8到图9,已经做出缩捏的手势。该缩捏的手势生成限定了缩小视图调整的第一用户命令。笔记本计算机的屏幕现在显示出,视图设置已经根据该缩小动作被调整。
图10是在正在进行的CG环节期间的第五时间点处进行的捕获。用户现在已经做出多点按压触摸屏的手势,其中两个接触点靠近在一起。用户的右手仍然悬浮在触摸板上方,并且目前没有与触摸板进行交互。
图11是在正在进行的CG环节期间的第六个时间点处进行的捕获。将理解的是,从图10到图11,使用接触触摸屏的两个手指做出拖拽手势,由此图像朝向屏幕的顶部延伸。该多点拖拽手势生成限定了平移视图调整的第一用户命令。笔记本计算机的屏幕现在显示出,视图设置已被调整为向下移动视图(CG空间中的对象在电子显示设备内向上移动)。
图12是在正在进行的CG环节期间的第七时间点处进行的捕获。用户现在用他们的右手与笔记本的触摸板进行交互,从而生成了第二用户命令。笔记本计算机的屏幕显示出,用户在执行对象创建/编辑的动作以在CG环境内画一条线。
图13是在正在进行的CG环节期间的第八时间点处进行的捕获。将理解的是,从图12到图13,用户在保持其在图12中开始的右手手势的同时,用其左手在触摸屏输入设备上执行了一手势。也就是说,在用户生成第二用户命令以画一条线时,用户已经同时与触摸屏输入设备交互,以生成了限定视图调整的第一用户命令。将理解的是,笔记本计算机的屏幕显示了视图设置相对于图12的旋转,而画线(对象创建/编辑动作)正在进行。
图14是在正在进行的CG环节期间的第九时间点处进行的捕获。用户现在用其右手与笔记本的触摸板进行交互,从而生成了另一第二用户命令。笔记本计算机的屏幕显示出,用户在执行对象/编辑动作,以在CG环境内画一个框。
图15是在正在进行的CG环节期间的第九时间点处进行的捕获。将理解的是,从图14到图15,用户在保持其在图14中开始的右手手势的同时,用其右手对触摸屏输入设备执行了手势。也就是说,在用户在生成第二用户命令以画一个框时,用户已经同时与触摸屏输入设备交互,以生成限定视图调整的另一用户命令。将理解的是,笔记本计算机的屏幕显示了视图设置相对于图14的旋转。作为该旋转的结果,待创建的框对象现在位于桌子形状的CG对象的不同位置。
将理解的是,图6至图15中描述的手势表示在触摸屏上做出的典型手势。然而,将理解的是,也可以考虑其他类型的手势。
本文描述的不同示例实施方式表明,通过与触控式输入设备8的交互所生成的第一用户命令限定视图调整动作。然而,将理解的是,经由触控式输入设备8生成的第一用户命令也可以限定CG环境内的另一类型的动作,诸如创建/编辑动作。
类似地,通过第二输入设备60生成的第二用户命令可以限定不同于创建/编辑动作的动作类型。该其他类型的动作可以包括视图调整动作。
本文描述的不同示例实施方式提供了在CG设计期间的多模态交互,其中一种交互模式是经由在触控式输入设备上做出的用户手势。由这些手势限定的用户命令可以与第二输入设备相结合,该第二输入设备可以是通常用于CG设计的输入设备,诸如鼠标、键盘或输入外围设备。多模态交互可以允许在基本上相同的时间进行同步的设计动作,诸如视图调整动作和创建/编辑动作,同时避免控制命令冲突。
虽然上述描述提供了实施方式的示例,但将理解的是,所述实施方式的一些特征和/或功能易于在不脱离所述实施方式的精神和操作原则的情况下进行修改。因此,上面所描述的内容意在是例示性的和非限制性的,本领域的技术人员将理解的是,在不脱离如本发明所附的权利要求书中所限定的本发明范围的情况下可以做出其他的变型和修改。
Claims (25)
1.一种用于在计算机图形(CG)环境中处理控制命令的方法,所述方法包括:
根据当前视图设置显示CG环境;
接收通过用户与触控式第一输入设备的交互所生成的第一用户命令,所述第一用户命令限定了对当前视图设置的调整;
根据由所述第一用户命令限定的视图调整,调整所述CG环境的显示;
接收通过用户与不同于所述触控式第一输入设备的第二输入设备的交互所生成的第二用户命令,所述第二用户命令限定了在所述CG环境内的CG创建/编辑动作;以及
在所述CG环境内,显示对由所述第二用户命令限定的CG创建/编辑动作的应用。
2.根据权利要求1所述的方法,其中,所述触控式第一输入设备与所述第二输入设备在物理上是分开的;并且
其中,所述第一用户命令与所述第二用户命令在逻辑上是分开的。
3.根据权利要求1或2所述的方法,其中,所述第一用户命令和所述第二用户命令在基本上相同的时间生成;并且
其中,在显示对由所述第二用户命令限定的对象创建/编辑动作的应用的同时,根据由所述第一用户命令限定的调整来调整视图设置。
4.根据权利要求1至3中任一项所述的方法,其中,所述第二用户命令由所述第二输入设备以计算机鼠标协议生成;并且
其中,所述第一用户命令以不同于所述计算机鼠标协议的协议被接收。
5.根据权利要求1至4中任一项所述的方法,其中,所述CG环境在计算设备上实现;
其中,所述第二输入设备被嵌入在可编程计算设备中;并且
其中,所述触控式第一输入设备在所述计算设备的外部。
6.根据权利要求1至5中任一项所述的方法,其中,通过独立的通信信道接收所述第一用户命令和所述第二用户命令。
7.根据权利要求1至6中任一项所述的方法,其中,以无线方式从触控式输入设备接收所述第一用户命令。
8.根据权利要求7所述的方法,其中,使用互联网协议将所述第一用户命令从所述触控式输入设备上传至外部设备,并且其中,使用互联网协议从所述外部设备接收所述第一用户命令。
9.根据权利要求1至8中任一项所述的方法,其中,接收通过用户与所述触控式输入设备的交互所生成的所述第一用户命令包括:
接收用户与所述触控式输入设备交互所做出的至少一个捕获到的手势;
将所述至少一个捕获到的手势转换成限定了对视图设置的调整的所述第一用户命令。
10.根据权利要求9所述的方法,其中,所述至少一个捕获到的手势是多点手势。
11.根据权利要求1至10中任一项所述的方法,其中,在所述CG环境内显示设计对象是在运行于第一操作系统上的第一计算设备上实现的;并且
其中,所述触控式输入设备是在运行于第二操作系统上的第二计算机设备上实现的。
12.根据权利要求11所述的方法,其中,所述第二计算设备是移动设备。
13.一种用于处理用于计算机图形(CG)环境的控制命令的系统,所述系统包括:
用于存储多个指令的存储器;
数据存储设备;以及
耦接到所述存储器的处理器,所述处理器在执行所述多个指令时被配置为:
提供CG环境;
接收通过用户与触控式第一输入设备的交互所生成的第一用户命令,所述第一用户命令限定了对当前视图设置的调整;
根据由所述第一用户命令限定的视图调整,调整所述CG环境的显示;
接收通过用户与不同于所述触控式第一输入设备的第二输入设备的交互所生成的第二用户命令,所述第二用户命令限定了用于在所述CG环境内创建/编辑设计对象的对象创建/编辑动作;以及
在所述CG环境内,显示对由所述第二用户命令限定的对象创建/编辑动作的应用。
14.根据权利要求13所述的系统,其中,所述触控式第一输入设备与所述第二输入设备在物理上是分开的;并且
其中,所述第一用户命令与所述第二用户命令在逻辑上是分开的。
15.根据权利要求13或14所述的系统,其中,所述第一用户命令和所述第二用户命令在基本上相同的时间生成;并且
其中,在显示对由所述第二用户命令限定的对象创建/编辑动作的应用的同时,根据由所述第一用户命令限定的调整来调整视图设置。
16.根据权利要求13至15中任一项所述的系统,其中,由所述第二输入设备以计算机鼠标协议生成所述第二用户命令;并且
其中,所述第一用户命令以不同于所述计算机鼠标协议的协议被接收。
17.根据权利要求13至16中任一项所述的系统,其中,所述第二输入设备被嵌入在系统中;并且
其中,所述触控式第一输入设备在所述系统的外部。
18.根据权利要求13至17中任一项所述的系统,其中,所述第一用户命令和所述第二用户命令通过独立的通信信道被接收。
19.根据权利要求13至18中任一项所述的系统,其中,所述第一用户命令以无线方式从触控式输入设备被接收。
20.根据权利要求19所述的系统,其中,所述第一用户命令被使用互联网协议从所述触控式输入设备上传至外部设备,并且其中,所述第一用户命令被使用互联网协议从所述外部设备接收。
21.根据权利要求13至20中任一项所述的系统,其中,接收通过用户与所述触控式输入设备的交互所生成的所述第一用户命令包括:
接收用户与所述触控式输入设备交互所做出的至少一个捕获到的手势;
将所述至少一个捕获到的手势转换成限定了对视图设置的调整的所述第一用户命令。
22.根据权利要求21所述的系统,其中,所述至少一个捕获到的手势是多点手势。
23.根据权利要求13至22中任一项所述的系统,其中,所述触控式输入设备是在运行于单独操作系统上的单独计算机设备上实现的。
24.根据权利要求23所述的系统,其中,所述第二计算设备是移动设备。
25.一种非暂时性计算机可读存储器,在所述非暂时性计算机可读存储器上存储有数据和指令,所述数据和指令用于由计算机执行,以用于执行根据权利要求1至12中任一项所述的方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962804933P | 2019-02-13 | 2019-02-13 | |
US62/804,933 | 2019-02-13 | ||
PCT/CA2020/050184 WO2020163952A1 (en) | 2019-02-13 | 2020-02-12 | System and method for processing commands in a computer-graphics software environment |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113678096A true CN113678096A (zh) | 2021-11-19 |
Family
ID=72043792
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080028236.XA Pending CN113678096A (zh) | 2019-02-13 | 2020-02-12 | 用于在计算机图形软件环境中处理命令的系统和方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11537218B2 (zh) |
CN (1) | CN113678096A (zh) |
WO (1) | WO2020163952A1 (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070262964A1 (en) * | 2006-05-12 | 2007-11-15 | Microsoft Corporation | Multi-touch uses, gestures, and implementation |
US20080276184A1 (en) * | 2006-06-14 | 2008-11-06 | Jean Buffet | Computerized collaborative work |
CN101983396A (zh) * | 2008-03-31 | 2011-03-02 | 皇家飞利浦电子股份有限公司 | 基于用户指令修改表示的方法 |
CN103492978A (zh) * | 2010-10-05 | 2014-01-01 | 西里克斯系统公司 | 用于远程化的应用的触摸支持 |
CN104145232A (zh) * | 2012-01-04 | 2014-11-12 | 托比技术股份公司 | 用于注视交互的系统 |
CN104820585A (zh) * | 2014-01-30 | 2015-08-05 | 卡雷风险投资有限责任公司 | 用于计算机生成的内容的多用户编辑的设备以及方法 |
US20160110738A1 (en) * | 2014-10-21 | 2016-04-21 | Ovn Corporation | Method for exchanging creative work by electronic device and electronic device using the same |
US10063660B1 (en) * | 2018-02-09 | 2018-08-28 | Picmonkey, Llc | Collaborative editing of media in a mixed computing environment |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE602004006227T2 (de) | 2004-03-17 | 2008-01-03 | 3Dconnexion Gmbh | Benutzerschnittstellenvorrichtung |
CN102984569A (zh) * | 2012-11-29 | 2013-03-20 | 中兴通讯股份有限公司 | 一种控制电视界面焦点的方法、装置和系统 |
CN106708277A (zh) * | 2015-11-18 | 2017-05-24 | 英业达科技有限公司 | 分享输入装置的电子设备及其方法 |
-
2020
- 2020-02-12 CN CN202080028236.XA patent/CN113678096A/zh active Pending
- 2020-02-12 US US17/427,833 patent/US11537218B2/en active Active
- 2020-02-12 WO PCT/CA2020/050184 patent/WO2020163952A1/en active Application Filing
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070262964A1 (en) * | 2006-05-12 | 2007-11-15 | Microsoft Corporation | Multi-touch uses, gestures, and implementation |
US20080276184A1 (en) * | 2006-06-14 | 2008-11-06 | Jean Buffet | Computerized collaborative work |
CN101983396A (zh) * | 2008-03-31 | 2011-03-02 | 皇家飞利浦电子股份有限公司 | 基于用户指令修改表示的方法 |
CN103492978A (zh) * | 2010-10-05 | 2014-01-01 | 西里克斯系统公司 | 用于远程化的应用的触摸支持 |
CN104145232A (zh) * | 2012-01-04 | 2014-11-12 | 托比技术股份公司 | 用于注视交互的系统 |
CN104820585A (zh) * | 2014-01-30 | 2015-08-05 | 卡雷风险投资有限责任公司 | 用于计算机生成的内容的多用户编辑的设备以及方法 |
US20160110738A1 (en) * | 2014-10-21 | 2016-04-21 | Ovn Corporation | Method for exchanging creative work by electronic device and electronic device using the same |
US10063660B1 (en) * | 2018-02-09 | 2018-08-28 | Picmonkey, Llc | Collaborative editing of media in a mixed computing environment |
Also Published As
Publication number | Publication date |
---|---|
WO2020163952A1 (en) | 2020-08-20 |
US20220147163A1 (en) | 2022-05-12 |
US11537218B2 (en) | 2022-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11687230B2 (en) | Manipulating 3D virtual objects using hand-held controllers | |
CN104133581B (zh) | 物理对象检测和触摸屏交互 | |
US9600090B2 (en) | Multi-touch integrated desktop environment | |
EP2736016B1 (en) | Contour segmentation apparatus and method based on user interaction | |
US8988366B2 (en) | Multi-touch integrated desktop environment | |
CN109885222A (zh) | 图标处理方法、装置、电子设备及计算机可读介质 | |
US9262005B2 (en) | Multi-touch integrated desktop environment | |
WO2009119716A1 (ja) | 情報処理システム、情報処理装置、方法及びプログラム | |
JP6563649B2 (ja) | モデル化オブジェクトをコピーおよび操作する機構を備えるタッチセンサ式ディスプレイ付きデバイス | |
CN112180841A (zh) | 人机交互方法、装置、设备及存储介质 | |
CN113678096A (zh) | 用于在计算机图形软件环境中处理命令的系统和方法 | |
CN106484175A (zh) | 电子设备的用户接口、输入的处理方法以及电子设备 | |
JP6021460B2 (ja) | 描画方法、プログラム、及び装置 | |
JP2014241078A (ja) | 情報処理装置 | |
US11334220B2 (en) | Method, apparatus, and computer-readable medium for propagating cropped images over a web socket connection in a networked collaboration workspace | |
KR102094478B1 (ko) | 제어 패드를 이용하는 표시 제어 방법, 제어 패드를 이용하는 표시 제어 장치, 및 이를 실행하기 위한 컴퓨터 프로그램을 배포하는 서버 | |
CN102622178B (zh) | 基于触屏电子设备使平面图像扭曲的方法 | |
TW201211839A (en) | Command manipulation method of dual touch control input mode | |
US20160231897A1 (en) | Multi-touch gui featuring directional compression and expansion of graphical content | |
JP5120290B2 (ja) | 3次元座標入力方法,コンピュータプログラム及び3次元座標入力装置 | |
JP6945270B2 (ja) | スクリーン上の少なくとも1つのポインティング要素でツールを設定するためのコンピュータ実行方法 | |
KR20150025090A (ko) | 제스처 기반 인터랙션의 적응형 변환을 위한 프레임워크 시스템 | |
US10943374B2 (en) | Reshaping objects on a canvas in a user interface | |
JP7030529B2 (ja) | 電子機器、情報処理方法、プログラム及び記憶媒体 | |
KR101961338B1 (ko) | 애플리케이션의 인터랙티비티를 디자인하는 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |