WO2015058566A1 - 屏幕图像的截取方法及设备 - Google Patents

屏幕图像的截取方法及设备 Download PDF

Info

Publication number
WO2015058566A1
WO2015058566A1 PCT/CN2014/083045 CN2014083045W WO2015058566A1 WO 2015058566 A1 WO2015058566 A1 WO 2015058566A1 CN 2014083045 W CN2014083045 W CN 2014083045W WO 2015058566 A1 WO2015058566 A1 WO 2015058566A1
Authority
WO
WIPO (PCT)
Prior art keywords
screen
sliding operation
coordinates
user
intercepted
Prior art date
Application number
PCT/CN2014/083045
Other languages
English (en)
French (fr)
Inventor
李继刚
刘磊
严腾飞
Original Assignee
北京奇虎科技有限公司
奇智软件(北京)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 北京奇虎科技有限公司, 奇智软件(北京)有限公司 filed Critical 北京奇虎科技有限公司
Publication of WO2015058566A1 publication Critical patent/WO2015058566A1/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Definitions

  • the present invention relates to the field of operating system technologies, and in particular, to a method and a device for intercepting a screen image. Background technique
  • the computer terminal equipment used by people has evolved from the original function to the current needs of users. For example, the advent of smartphones has redefined the concept of mobile phones. As a terminal device, mobile phones can only be used to send text messages, and today they have been able to run millions of feature-rich applications. Smartphones have become a combination of technology in many different fields.
  • the continuous improvement of the hardware performance of terminal devices has enabled many terminal devices to run large-scale operating systems, and the ever-increasing application requirements of users have made it necessary to run operating systems on terminal devices.
  • Some of today's operating systems have been able to implement cross-platform applications, such as the Android Andro id operating system, which can already be run on a variety of device platforms such as smartphones, handheld tablets, and smart TVs.
  • the operating system carried on the terminal device can manage the software and hardware resources of the device, control the operation of other programs, and provide services and support for the operation of other programs.
  • the interaction between the user and the device basically needs to be completed by means of the support of the operating system.
  • the operating system carried by the terminal device needs to continuously improve the convenience of operation and meet the needs of the user. .
  • Screen capture is a basic feature provided by many computer terminal devices.
  • the screen capture operation needs to be performed at the same time by pressing a plurality of combination keys, and different devices may use different screen combination keys or key sequences, and the operation mode is relatively cumbersome, and the screen capture mode is adopted. It is relatively simple and cannot meet the needs of users' increasing operational convenience. Therefore, a problem that needs to be solved by those skilled in the art is to realize a simple and convenient screen intercepting method or device, which can intercept screen images more efficiently.
  • the present invention has been made in order to provide an intercepting apparatus and a corresponding screen image intercepting method for overcoming the above problems or at least partially solving or slowing down the above-described problems.
  • a method for intercepting a screen image including: monitoring a sliding operation of a user operating portion on a touch screen of the terminal device;
  • the operation feature includes: a number of user operation parts; and a feature point coordinate of the track passing through the sliding operation; Determining an area to be intercepted on the screen image according to the number of the user operating parts and the feature point coordinates of each of the passing trajectories;
  • an apparatus for intercepting a screen image comprising: a monitor configured to monitor a sliding operation of a user operating portion on a touch screen of the terminal device; an operation feature acquirer configured to be Obtaining an operation feature of the sliding operation when the sliding operation occurs; the operating feature includes: a number of user operating parts; and a feature point coordinate of the track passing through the sliding operation;
  • the intercepting region determiner is configured to determine an area to be intercepted on the screen image according to the number of user operating parts and the feature point coordinates of each of the passing trajectories;
  • An image interceptor configured to intercept a screen image of an area to be intercepted on the screen.
  • the interception of the screen image according to the present invention can monitor the sliding operation of the user operating part on the touch screen of the terminal device, and acquire the operating features of the sliding operation on the touch screen, including the number of user operating parts, the feature point coordinates of the trajectory, etc. According to each feature point coordinate, the area to be intercepted on the screen image is determined.
  • the area intercepted on the screen image can be determined in real time according to the sliding operation of the user operating part on the touch screen of the terminal device, and the image within a selected range of the user sliding operation on the screen can be intercepted. This achieves a more flexible and convenient screen image capture method, which improves the efficiency and flexibility of screen image capture.
  • FIG. 1 is a flow chart showing a method of intercepting a screen image according to an embodiment of the present invention
  • FIG. 2 is a schematic view showing a sliding track according to an embodiment of the present invention
  • FIG. 3 shows a schematic diagram of adjusting an area to be intercepted according to an embodiment of the present invention
  • FIG. 4 shows a schematic diagram of a capture device for a screen image in accordance with one embodiment of the present invention
  • FIG. 5 shows a block diagram of an intelligent electronic device for performing the method according to the present invention
  • Figure 6 shows a memory list for holding or carrying program code implementing the method according to the invention Meta-schematic. detailed description
  • FIG. 1 is a flowchart of a method for intercepting a screen image according to an embodiment of the present invention. As shown in the figure, a method for intercepting a screen image provided by an embodiment of the present invention may include the following steps.
  • a touch screen On today's terminal devices, devices such as smart phones and handheld tablets mostly abandon the input mode of the physical keyboard, but use a touch screen, referred to as a touch screen, as an input method of the terminal device.
  • the touch screen can increase the display area of the terminal device, so that it can provide a better display effect.
  • the input through the touch screen can also make the operation of selecting and clicking functions more convenient and intuitive. Intercepting the screen image on the terminal device is a basic function of the terminal device, but due to size limitation, the number of buttons on the general terminal device is limited, and each button has an important system function corresponding, for example, some On the smartphone, only the main menu button, the volume up/down button, and the power button are used.
  • Each button corresponds to the corresponding system function.
  • the screen capture function does not have a separate button corresponding to the pr int s on the computer keyboard.
  • the creen-key screen capture is not easy, so the screen capture is usually implemented on the terminal device, and a combination key is required. This type of operation is relatively inconvenient.
  • the sliding operation of the user operation part on the touch screen of the terminal device can be monitored.
  • the user operation part refers to a body part that the user performs operations such as clicking, sliding, etc. on the touch screen, and generally can be a user's finger, that is, the sliding operation of the finger on the touch screen of the terminal device can be monitored.
  • the number of operation parts used by the user to operate on the touch screen can be one or more, for example, the user can slide on the touch screen by two fingers.
  • an implementation manner is to define a sub-class of the touch monitoring interface OnTouchLi s tener
  • the subclass of the OnTouchL ist ener is delegated and called to monitor the sliding operation of the user operation part on the touch screen of the terminal device, that is, the task of monitoring the sliding operation on the touch screen is given to the subclass Process it.
  • the onTouchEvent method can be processed through a preset custom touch screen event to monitor the sliding operation of the user's operating part on the touch screen of the terminal device.
  • the touch screen event processing onTouchEvent method can monitor an event that the user's operating part is pressed, swiped, and left on the touch screen during the sliding process on the touch screen of the terminal device.
  • a MotionEvent object is created when the user touches the screen.
  • a Motion vent object can be understood as a time series associated with a user's touch, starting with the user touching the screen for the first time, experiencing any movement of the finger on the surface of the screen until the finger leaves the screen.
  • the first press of the finger (ACT I0N - D0WN operation), the slide (ACT I0N - M0VE operation) and the lift (ACTION - UP operation) will create a Mot ionEvent object.
  • a large number of events are generated during the movement, each event will generate the corresponding MotionEvent object record operation, the location of the touch, the pressure used, the area of the touch, when it occurs, and when the initial ACTION-DOWN occurs, etc. relevant information.
  • MotionEvent contains detailed information about where and when the touch occurred.
  • the MotionEvent object is passed to the onTouchEvent method. In this method, the sliding operation of the user's operating part on the touch screen of the terminal device can be monitored, the MotionEvent object is analyzed, and the operation to be performed is determined.
  • S120 Acquire an operation feature of the sliding operation when the sliding operation occurs; the operation feature includes: a number of user operation parts; a feature point coordinate of the trajectory passing through;
  • the sliding operation of the user on the touch screen can produce different shapes.
  • the operating features of the sliding operation can be obtained to obtain feature points which can be generated by the operation of forming a specific area or shape on the touch screen.
  • the operational characteristics of the sliding operation may include the number of user operated parts, for example, the user uses several fingers for the sliding operation; and the feature point coordinates of the trajectory that the sliding operation passes, such as when the user draws a line on the touch screen with one finger.
  • the two end points of the linear trajectory can be used as the feature points of the trajectory, and the coordinates of the two end points of the linear trajectory can be used as the feature point coordinates of the trajectory.
  • two linear tracks can be drawn on the touch screen.
  • the user can obtain the two operating parts on the touch screen. Sliding forms the coordinates of the four endpoints of the two linear trajectories.
  • an operation part for example, a finger
  • a polygon can be drawn on the touch screen; or a trajectory with a vertex, and the vertices on the track are connected, and often Get a polygon.
  • the coordinates of three or more vertices of the generated sliding trajectory can be acquired as the feature point coordinates of the trajectory. As shown in FIG.
  • ACTION-DOWN This event is triggered when the touch screen detects that a finger has been pressed;
  • ACTION-POINTER-DOWN This event is triggered when the touch screen detects that multiple fingers are pressed at the same time;
  • ACTI0N-UP This event is triggered by the finger leaving the touch screen
  • ACTI0N-P0INTER-UP Corresponding to ACTI0N_P0INTER_D0WN, an event triggered by multiple fingers leaving;
  • ACTION-MOVE This event is triggered when a finger swipes across the screen
  • getPointerld O Gets the Id of the touch event, the event Id generated by the same finger is the same (only for a series of events from the touch screen to leaving the touch screen);
  • getX O returns the coordinates of the X position of the touch position
  • getY O returns the coordinates of the touch position in the Y direction
  • Get Act ion Get the type of event, such as ACTION_DO, ACTION-POINTER-DOWN, ACTION-UP and other events.
  • the triggered event is processed, and the above function is called during the processing to obtain The feature point coordinates of the trajectory.
  • the operational characteristics of the sliding operation are acquired by the event processing interface OnTouch of the subclass of OnTouchLi s tener in the form of a delegate.
  • obtaining an operation feature of the sliding operation by using a preset custom onTouchEvent method.
  • the operation part may be obtained by using a preset custom onTouchEvent method.
  • onTouchEvent Motion ionEvent event
  • the counter count is incremented by 1, and the generated event Mo ti onE ven t is added to the event queue. If the ACT 10N.M0VE event is received, the counter is used. If count is 2, then the user's operation is a two-finger touch screen; when receiving ACTI0N_P0INTER_UP or ACTI0N_M0VE, the counter count is decremented by 1, and the corresponding MotionEvent event is added to the event queue.
  • the event queue has two fingers pressing the touch screen event and two fingers leaving the touch screen.
  • the getAct ion function can be called to determine which two are the events of pressing the touch screen, and which two are the fingers leaving. Touch screen event. Then call the getPointerld function to find the same finger Press the touchscreen event and leave the touchscreen event.
  • B (X1, Y1), C (X2, Y2) are respectively a finger pressing the touch screen and leaving the touch screen
  • a (X3, Y3) D (X4, Y4) is the event of pressing the touch screen of another finger and leaving the touch screen
  • B, C, A, D can be used as feature points, and then get these four by calling getX and getY functions.
  • the coordinates of the points (Xl, Yl), (X2, Y2), (X3, Y3) and (X4, Y4) are the coordinates of the four feature points.
  • S130 Determine, according to the feature point coordinates of each of the trajectories, a region to be intercepted on the screen image;
  • the area to be intercepted on the screen image can be determined according to the coordinates of each feature point. This process can take different implementations depending on the number of user operating parts, the different sliding operations, and the location of the acquired feature points.
  • two linear tracks can be drawn on the touch screen, and at this time, the user can obtain the touch screen through the two operating parts.
  • the four endpoint coordinates of the two linear tracks are formed as the feature point coordinates.
  • it is often possible to form a quadrilateral which can be used as the area to be intercepted.
  • a quadrilateral can be determined according to the four end points of B, C, and D, that is, the quadrilateral ABCD is determined as the area to be intercepted.
  • the quadrilateral ABCD is not a regular quadrilateral, but in practical applications, users often want to be able to intercept the regular graphics.
  • After determining the coordinates of the vertices of the quadrilateral if it is not a regular quadrilateral, it can also form a regular rectangle by aligning the left side of the feature point, and the coordinates of the four points of B, C, and D in the figure. You can get the four points A', B', C', and D' by righting, and get the rule rectangle of A'B' C 'D' as the area to be intercepted.
  • the coordinates of three or more vertices of the generated sliding trajectory can be acquired as the feature point coordinates of the trajectory, and the region to be intercepted on the screen image can also be determined according to the coordinates of the feature points. As shown in FIG.
  • the area to be intercepted determined according to the feature point coordinates of the trajectory is an irregular polygon
  • the feature point coordinates are corrected, the feature point coordinates are adjusted to the vertex coordinates of the regular polygon, and the to-be-intercepted region is determined according to the adjusted coordinates.
  • the polygon ABCD is a region to be intercepted determined by the feature point coordinates, and the region is an irregular quadrilateral.
  • a regular quadrilateral can be obtained by internal interception.
  • the regular quadrilateral intercepted by this implementation tends to be small and cannot satisfy the user's needs.
  • Another method for correcting the irregular polygon is provided as follows.
  • B (X1, Y1) , C (X2, Y2) , ⁇ ( ⁇ 3, ⁇ 3), D ( ⁇ 4, ⁇ 4) are unadjusted quadrilateral vertices, and the coordinates of each point are:
  • Polygon ABCD is an irregular quadrilateral. At this time, it can be taken according to the coordinates of each point.
  • the corrected coordinates are determined by Xs, Xd, Ys, Yd.
  • the coordinates of the four points A', B', C', and D' in the figure are respectively
  • the quadrilateral A' B' C D' obtained after adjusting the coordinates is a regular rectangle.
  • the above is an example of performing horizontal interception on the screen.
  • the irregularly shaped to-be-intercepted area may be adjusted in a similar manner, and details are not described herein.
  • S140 Intercept the screen image of the area to be intercepted on the screen.
  • the screen image of the area to be intercepted on the screen can be intercepted.
  • two operating parts for example, two fingers
  • two linear tracks can be drawn on the touch screen, and at this time, the user can obtain the two operating parts on the touch screen.
  • the four end coordinates of the two linear tracks formed by the sliding are used as feature point coordinates.
  • a quadrilateral area can be determined based on the feature point coordinates, and the screen image of the quadrilateral area is intercepted on the screen.
  • the user may prefer to obtain a graphic with a relatively regular rule.
  • the screen image may be intercepted according to the area to be intercepted adjusted to the regular polygon.
  • bitmap of the entire screen In the process of interception, you can first obtain the bitmap of the entire screen. For example, in the Android operating system, you can obtain the bitmap of the entire screen by calling the function getDrawingCache. The bitmap of the screen, and the coordinates of the area to be intercepted, etc., to obtain an image of the corresponding area in the bitmap of the entire screen, for example, in the Andro id operating system, the entire screen can be obtained by calling the function Bi tmap. crea teBi tmap The image of the corresponding area in the bitmap.
  • the screen of the terminal device is narrow, it is also possible to capture only a part of the screen horizontally, or in the case where the user laterally holds the terminal device, only a part of the screen is intercepted in the longitudinal direction, and all of the X direction is intercepted.
  • the sliding operation of the user operating part on the touch screen of the terminal device, horizontally or vertically through the screen can be monitored; when the horizontal or vertical sliding operation of the screen occurs, the track and the edge of the screen are acquired.
  • the coordinates of the intersection point when the user operates with two fingers, the coordinates of the four vertices can also be determined, and the area to be intercepted i or of a polygon is determined according to the coordinates of the vertices, and then the screen image is intercepted according to the area to be intercepted. .
  • a plurality of to-be-intercepted areas on the screen image such as two fingers on the screen, may be The screen is cut into three areas to obtain three areas to be intercepted. The screen images of multiple areas to be intercepted on the screen can then be intercepted.
  • the screen can be triggered as long as the user's two fingers slide in parallel for more than a certain distance (for example, 2/3 of the screen width).
  • the method for intercepting a screen image provided by the embodiment of the present invention is described above.
  • the method can monitor the sliding operation of the user operating part on the touch screen of the terminal device, and acquire the operating features of the sliding operation on the touch screen, including the user operating part.
  • the number, the feature point coordinates of the trajectory, etc. determine the area to be intercepted on the screen image according to the coordinates of each feature point.
  • the area intercepted on the screen image can be determined in real time according to the sliding operation of the user operating part on the touch screen of the terminal device, and the image in the selected range of the user sliding operation on the screen can be intercepted. This achieves a more flexible and convenient screen image capture method, which improves the efficiency and flexibility of screen image capture.
  • the present invention further provides a screen image intercepting device.
  • FIG. 4 it is a schematic diagram of a screen image capturing device according to an embodiment of the present invention, as shown in the figure. , the device can include:
  • the monitor 410 is configured to monitor a sliding operation of the user operating part on the touch screen of the terminal device; the operating feature acquirer 420 is configured to acquire an operating feature of the sliding operation when the sliding operation occurs; wherein the operating features include: The number of operating points; the feature point coordinates of the trajectory through which the sliding operation passes;
  • the intercepting region determiner 430 is configured to determine an area to be intercepted on the screen image according to the feature point coordinates of each of the trajectories;
  • the image interceptor 440 is configured to intercept a screen image of an area to be intercepted on the screen.
  • the number of user operation parts may be two;
  • the feature point coordinates may include: endpoint coordinates of the linear track;
  • the operation feature acquirer 420 can acquire the coordinates of the four end points of the two linear tracks when the user slides on the touch screen to form two linear tracks through the two operation parts;
  • the intercept region determiner 430 can determine the region to be intercepted on the screen image based on the acquired coordinates of the four endpoints.
  • the truncation region determiner 430 can also determine a rectangular region on the screen image as the region to be intercepted according to the coordinates of the four endpoints.
  • the number of user operation parts may be one; the operation feature acquirer
  • 420 may acquire coordinates of three or more vertices of the generated sliding trajectory when a sliding operation occurs on the touch screen at an operating portion;
  • the clipping region determiner 430 can determine the region to be intercepted on the screen image based on the coordinates of the three or more vertices.
  • the truncated region determiner 430 can also determine a rectangular region as the region to be intercepted on the screen image according to the coordinates of the four endpoints when the coordinates of the four vertices are acquired.
  • the monitor 410 can also monitor the sliding operation of the user operating part on the touch screen of the terminal device, horizontally or vertically through the screen;
  • the operation feature acquirer 420 can acquire the coordinates of the intersection of the track and the edge of the screen when the sliding operation of the horizontal or vertical through the screen occurs;
  • the intercepting region determiner 430 can select a plurality of regions to be intercepted on the screen image according to the coordinates of the intersection of each trajectory and the edge of the screen, and the coordinates of the vertices of the screen;
  • the image interceptor 440 can be used to intercept screen images of multiple to-be-intercepted areas on the screen;
  • the interception is performed according to the screen image of the area to be intercepted selected by the user in the plurality of to-be-intercepted areas.
  • the monitor 410 can monitor the sliding operation of the user operation part on the touch screen of the terminal device by defining a subclass of the touch monitoring interface OnTouchL is tener in the form of a delegation process, and entrusting and calling the subclass of the OnTouchLi s tener. ;
  • the operation feature acquirer 420 may, in the form of a delegation process, delegate and call the event processing interface OnTouch of the subclass of the OnTouchLi s tener of the OnTouchLi s tener in the form of a delegate operation to acquire an operation feature of the sliding operation.
  • the monitor 410 can also process the onTouchEvent method by using a preset custom touch screen event, and monitor the sliding operation of the user operation part on the touch screen of the terminal device;
  • the operation feature acquirer 420 can acquire the operation features of the sliding operation by a preset custom onTouchEvent method when a sliding operation occurs.
  • monitor 410 can be specifically configured to:
  • the operation feature acquirer 420 is specifically configured to:
  • the number of user operation parts and the feature point coordinates of the traversed track are obtained when the operation part is pressed, slid, and left on the touch screen by a preset custom onTouchEvent method. .
  • intercept region determiner 430 can also be used to:
  • the feature point coordinates are adjusted to vertex coordinates of the regular polygon, and the to-be-intercepted region is determined according to the adjusted coordinates.
  • the interception device for the screen image provided by the embodiment of the present invention is introduced.
  • the device can determine the area intercepted on the screen image in real time according to the sliding operation of the user operation part on the touch screen of the terminal device, and the screen can be Some of the images in the selected range of user swipe operations are intercepted. This achieves a more flexible and convenient screen image capture method, which improves the efficiency and flexibility of screen image capture.
  • modules in the devices of the embodiments can be adaptively changed and placed in one or more devices different from the embodiment.
  • the modules or units or components of the embodiments may be combined into one module or unit or component, and further they may be divided into a plurality of sub-modules or sub-units or sub-components.
  • any combination of the features disclosed in the specification, including the accompanying claims, the abstract and the drawings, and any methods so disclosed may be employed in any combination. Or combine all the processes or units of the device.
  • Each feature disclosed in the specification (including the accompanying claims, the abstract and the drawings) may be replaced by alternative features that provide the same, equivalent or similar purpose, unless otherwise stated.
  • the various component embodiments of the present invention may be implemented in hardware, or in a software module running on one or more processors, or in a combination thereof.
  • a microprocessor or digital signal processor may be used in practice to implement some or all of the functionality of some or all of the components of the screen image of the screen image in accordance with embodiments of the present invention.
  • the present invention can also be implemented as a device or device program (e.g., a computer program and a computer program product) for performing some or all of the methods described herein.
  • a program implementing the present invention may be stored on a computer readable medium or may be in the form of one or more signals. Such signals may be downloaded from an Internet website, provided on a carrier signal, or provided in any other form.
  • FIG. 5 illustrates an intelligent electronic device that can implement a method of intercepting a screen image in accordance with the present invention.
  • the intelligent electronic device conventionally includes a processor 51 0 and a computer program product or computer readable medium in the form of a memory 520.
  • the memory 520 may be an electronic memory such as a flash memory, an EEPROM (Electrically Erasable Programmable Read Only Memory), an EPROM, a hard disk, or a ROM.
  • Memory 520 has a memory space 530 for program code 531 for performing any of the method steps described above. For example, use each program code 5 31. These programs; the code can be read from or written to one or more computer program products.
  • the storage unit may have a storage section or a storage space or the like arranged similarly to the storage 520 in the intelligent electronic device of FIG. Cheng
  • the sequence code can be compressed, for example, in an appropriate form.
  • the storage unit comprises a program 53 for performing the steps of the method according to the invention, ie a code readable by a processor, such as 510, which, when executed by the intelligent electronic device, causes the intelligent electronic device to execute Each of the steps in the method described above.
  • an embodiment or “one or more embodiments” as used herein means that the particular features, structures, or characteristics described in connection with the embodiments are included in at least one embodiment of the invention.
  • the examples of the words “in one embodiment” are not necessarily all referring to the same embodiment.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了屏幕图像的截取方法及设备,其中,所述方法包括:监控用户操作部位在终端设备的触屏上的滑动操作;当发生所述滑动操作时,获取所述滑动操作的操作特征;所述操作特征包括:用户操作部位的个数;所述滑动操作所经过轨迹的特征点坐标;根据用户操作部位的个数以及各所述经过轨迹的特征点坐标,确定在屏幕图像上的待截取区域;对屏幕上待截取区域的屏幕图像进行截取。通过本发明,提高了屏幕图像截取的效率和灵活性。

Description

屏幕图像的截取方法及设备
技术领域
本发明涉及操作系统技术领域, 具体涉及屏幕图像的截取方法及设备。 背景技术
人们所使用的计算机终端设备,从原来的功能单一,发展到现在能满足用 户的多种需求。 例如智能手机的出现, 已经使手机的概念被重新定义。 作为一 种终端设备, 手机从原本只能打电话发短信,发展到今天已经能够运行数以百 万计的功能丰富的应用,智能手机已经成为多个不同领域技术相结合的科技产 物。
终端设备硬件效能的不断提升,使得很多终端设备有能力运行大型操作系 统, 而用户不断提升的应用需求,也使在终端设备上运行操作系统成为一种需 要。 当今的一些操作系统, 已经能够实现跨平台的应用, 如安卓 Andro id操作 系统, 已经可以在智能手机、 手持平板电脑、 智能电视等等多种设备平台上运 行。 在终端设备上所搭载的操作系统, 可以管理设备的软硬件资源, 控制其他 程序的运行, 并为其他程序的运行提供服务和支持。在搭载操作系统的终端设 备上, 用户与设备的交互基本上都需要借助于操作系统的支持才能完成,作为 软件资源, 终端设备所搭载的操作系统需要不断提升操作的便利性, 满足用户 的需要。
截屏功能是很多计算机终端设备提供的一项基本功能。然而在现有的屏幕 图像的截取方式中,要实现截屏操作需要同时按下多个组合键才能实现, 不同 的设备可能对应使用不同的截屏组合键或者按键顺序,操作方式比较繁瑣, 截 屏的方式比较单一, 无法适应用户不断提升的操作便利性的需求。 因此, 需要 本领域技术人员解决的问题就在于, 实现一种简单方便的屏幕截取方法或设 备, 能够更高效的对屏幕图像进行截取。 发明内容
鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地 解决或者减緩上述问题的屏幕图像的截取设备和相应的屏幕图像的截取方法。
依据本发明的一个方面, 提供了一种屏幕图像的截取方法, 包括: 监控用户操作部位在终端设备的触屏上的滑动操作;
当发生所述滑动操作时, 获取所述滑动操作的操作特征; 所述操作特征包 括: 用户操作部位的个数; 所述滑动操作所经过轨迹的特征点坐标; 根据用户操作部位的个数以及各所述经过轨迹的特征点坐标,确定在屏幕 图像上的待截取区域;
对屏幕上待截取区域的屏幕图像进行截取。
根据本发明的另一方面, 提供了一种屏幕图像的截取设备, 包括: 监控器, 被配置为监控用户操作部位在终端设备的触屏上的滑动操作; 操作特征获取器,被配置为当发生所述滑动操作时,获取所述滑动操作的 操作特征; 所述操作特征包括: 用户操作部位的个数; 所述滑动操作所经过轨 迹的特征点坐标;
截取区域确定器,被配置为根据用户操作部位的个数以及各所述经过轨迹 的特征点坐标, 确定在屏幕图像上的待截取区域;
图像截取器, 被配置为对屏幕上待截取区域的屏幕图像进行截取。
根据本发明的屏幕图像的截取可以监控用户操作部位在终端设备的触屏 上的滑动操作, 获取触屏上滑动操作的操作特征, 包括用户操作部位的个数, 所经过轨迹的特征点坐标等,根据各特征点坐标,确定在屏幕图像上的待截取 区域。可以根据用户操作部位在终端设备的触屏上的滑动操作, 实时的确定在 屏幕图像上截取的区域,可以将屏幕上的一部分用户滑动操作选定的范围内的 图像截取下来。 由此实现了一种更为灵活和方便的屏幕图像截取方法,提高了 屏幕图像截取的效率和灵活性。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术 手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、 特征和优点能够更明显易懂, 以下特举本发明的具体实施方式。 附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领 域普通技术人员将变得清楚明了。 附图仅用于示出优选实施方式的目的, 而并 不认为是对本发明的限制。 而且在整个附图中, 用相同的参考符号表示相同的 部件。 在附图中:
图 1示出了根据本发明一个实施例的屏幕图像的截取方法的流程图; 图 2示出了根据本发明一个实施例的滑动轨迹示意图;
图 3示出了根据本发明一个实施例的调整待截取区域的示意图;
图 4示出了根据本发明一个实施例的屏幕图像的截取设备的示意图; 图 5示出了用于执行根据本发明的方法的智能电子设备的框图;
以及,
图 6示出了用于保持或者携带实现根据本发明的方法的程序代码的存储单 元示意图。 具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了 本公开的示例性实施例, 然而应当理解, 可以以各种形式实现本公开而不应被 这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本 公开, 并且能够将本公开的范围完整的传达给本领域的技术人员。
实施例一
请参见图 1 , 为根据本发明一个实施例的屏幕图像的截取方法的流程图; 如图所示, 本发明实施例提供的屏幕图像的截取方法可以包括以下步骤。
S110: 监控用户操作部位在终端设备的触屏上的滑动操作;
当今的终端设备上, 诸如智能手机、 手持式平板电脑等设备, 大多抛弃了 实体键盘的输入方式, 而是用触摸式屏幕, 简称触屏, 作为终端设备的输入方 式。一方面触屏能够增大终端设备的显示面积,使其能够提供更好的显示效果, 另一方面,通过触屏进行输入也可以使对功能的选取、点击等操作变得更加快 捷和直观。 在终端设备上进行屏幕图像的截取, 是终端设备的一项基本功能, 但由于尺寸限制,一般的终端设备上的按键数量有限, 而且每个按键都有重要 的系统功能相对应, 例如有的智能手机上只有主菜单键、音量增大 /减小按键、 电源键,每个按键都对应实现相应的系统功能,截屏的功能并没有独立的按键 对应, 要实现类似电脑键盘上的 pr int s creen—键截屏并不容易, 因此一般在 终端设备上实现截屏, 需要使用组合键。 这种操作方式相对不便。
在本发明实施例提供的屏幕图像的截取方法中,首先可以监控用户操作部 位在终端设备的触屏上的滑动操作。 其中, 用户操作部位, 是指用户在触屏上 进行点击、 滑动等操作的身体部位, 一般情况下可以是用户的手指, 即可以监 控手指在终端设备的触屏上的滑动操作。用户在触屏上进行操作所使用的操作 部位数量, 可以为一个或者多个,如用户可以通过两根手指在触屏上进行滑动 操作。
具体在实现监控用户操作部位在终端设备的触屏上的滑动操作时,可以有 多种方式, 如在 Android操作系统中, 一种实现方式是通过定义触摸监听接口 OnTouchLi s tener的子类, 以委托处理的形式, 委托和调用 所述 OnTouchL i s t ener的子类监控用户操作部位在终端设备的触屏上的滑动操作, 也就是说, 将监控触屏上的滑动操作的任务交给该子类进行处理。
另外还可以通过预置的自定义触屏事件处理 onTouchEvent方法,监控用户 操作部位在终端设备的触屏上的滑动操作。这种实现方式下,通过预置的自定 义触屏事件处理 onTouchEvent方法,可以监控用户操作部位在终端设备的触屏 上的滑动过程中, 其操作部位在所述触屏上按下、 滑动以及离开的事件。 当用 户触摸屏幕时系统将创建一个 Mot ionEvent对象。 Mot ionE vent对象可以理解为 是与用户触摸相关的时间序列, 该序列从用户首次触摸屏幕开始, 经历手指在 屏幕表面的任何移动, 直到手指离开屏幕时结束。 手指的初次按下 (ACT I0N—D0WN操作), 滑动(ACT I0N—M0VE操作)和抬起(ACTION—UP操作)都会创 建 Mot ionEvent对象。 移动过程中会产生大量事件, 每个事件都会产生对应的 Mot ionEvent对象记录发生的操作、 触摸的位置、 使用的多大压力、 触摸的面 积、 何时发生, 以及最初的 ACTION-DOWN何时发生等相关的信息。 Mot ionEvent 包含关于发生触摸的位置和时间等细节信息。 Mot ionEvent对象被传递到 onTouchEvent方法中。在这个方法中可以监控用户操作部位在终端设备的触屏 上的滑动操作, 分析 Mot ionEvent对象并决定要执行的操作。
S120: 当发生所述滑动操作时, 获取所述滑动操作的操作特征; 所述操作 特征包括: 用户操作部位的个数; 所经过轨迹的特征点坐标;
用户在触屏上的滑动操作, 可以产生不同的形状, 在步骤 S120中, 可以获 取滑动操作的操作特征,来得到能够在触屏上形成特定区域或形状的操作所产 生的特征点。滑动操作的操作特征可以包括用户操作部位的个数, 例如用户使 用了几个手指进行滑动操作; 以及滑动操作所经过轨迹的特征点坐标,如当用 户使用一个手指在触屏上画出一道线状轨迹时,可以将线状轨迹的两个端点作 为轨迹的特征点,线状轨迹的两个端点的坐标就可以作为这条轨迹的特征点坐 标。
当用户使用两个操作部位(例如两根手指)在触屏上进行滑动操作时, 可 以在触屏上划出两条线状轨迹, 此时, 可以获取用户通过两个操作部位在触屏 上滑动形成两条线状轨迹的四个端点坐标。或者,当用户使用一个操作部位(例 如一根手指)在触屏上进行滑动操作时, 可以在触屏上划出多边形; 或者带有 顶点的轨迹, 将轨迹上的顶点连接起来, 往往也可以得到一个多边形。 此时, 可以获取所产生的滑动轨迹的三个或三个以上的顶点的坐标,作为轨迹的特征 点坐标。 如图 2所示, 为滑动轨迹示意图, 当用户通过一根手指, 在触屏上以 ABCD的方向划出一条轨迹时, 可以在轨迹上形成四个顶点 A、 B、 C、 D, 这四个 顶点连接起来, 可以形成一个矩形区域, 在本步骤中, 可以获取这四个顶点的 坐标作为特征点坐标。
下面以 Android操作系统为例,对本步骤进行详细的描述。在 Android操作 系统中, 有如下的事件定义:
ACTION-DOWN: 当触屏检测到有手指按下之后就触发到这个事件; ACTION-POINTER-DOWN: 当触屏检测到有多个手指同时按下之后, 就触发 了这个事件;
ACTI0N-UP: 手指离开触屏会触发这个事件;
ACTI0N-P0INTER-UP: 对应 ACTI0N_P0INTER_D0WN, 多个手指离开才会触发 的事件;
ACTION-MOVE: 手指在屏幕上滑动会触发此事件
以及如下可以调用的函数:
getPointerld O 获取触摸事件的 Id,同一手指产生的事件 Id是相同的(只 对从接触屏幕到离开触屏这之间产生的一系列事件 ) ;
getX O 返回触摸位置的 X方向的坐标;
getY O 返回触摸位置 Y方向的坐标;
get Act ion ()获取事件的类型, 如 ACTION—DO 、 ACTION-POINTER-DOWN, ACTION—UP等事件。
可以在运行 Android操作系统的终端设备中, 用户在触屏上进行滑动操作 时, 操作部位按下、 滑动以及离开触屏时, 对所触发的上述事件进行处理, 处 理过程中调用上述函数, 获取轨迹的特征点坐标。
如当发生所述滑动操作时, 以委托的形式, 通过 OnTouchLi s tener的子类 的事件处理接口 OnTouch获取滑动操作的操作特征。 或者当发生所述滑动操作 时, 通过预置的自定义 onTouchEvent方法获取滑动操作的操作特征, 具体的, 当发生所述滑动操作时,可以通过预置的自定义 onTouchEvent方法获取所述操 作部位在所述触屏上按下、 滑动以及离开时, 用户操作部位的个数, 以及所经 过轨迹的特征点坐标等操作特征。
下面以两根手指划出两条线形轨迹的双指操作为例,详细介绍一下后一种 实现方式。
首先可以重写 View类中的 onTouchEvent ( Mot ionEvent event)方法, 作为 自定义 onTouchEvent方法。 用一个 count作为计数器, 当接收到 ACTION-DOWN 和 ACTI0N_P0INTER_D0WN这些事件的时候, 计数器 count加 1 , 同时把产生的事 件 Mo t i onE ven t加入事件队列, 在接收到 ACT 10N.M0VE事件的时候如果计数器 count为 2的话, 则知道用户此次的操作为双指触屏; 当接收到 ACTI0N_P0INTER_UP或者 ACTI0N_M0VE的时候计数器 count减 1 , 并把相应的 Mot ionEvent事件添加到事件队列, 当计数器 count为 0的时候, 此时可对事件 队列进行操作。事件队列此时有两个手指按下触屏的事件和两个个手指离开触 屏的事件, 此时可以调用 getAct ion函数确定哪两个是按下触屏的事件, 哪两 个是手指离开触屏的事件。然后调用 getPointerld函数来找到同一手指产生的 按下触屏事件和离开触屏事件。
如图 3所示, 为调整待截取区域的示意图, 假设 B (X1,Y1) , C (X2,Y2)分别 为一个手指的按下触屏和离开触屏的事件, A (X3, Y3) , D (X4, Y4)分别为另一个 手指的按下触屏和离开触屏的事件, 则 B, C, A, D可以作为特征点, 然后通过 调用 getX和 getY函数, 来获取这四个点的坐标 (Xl, Yl) , (X2, Y2) , (X3, Y3) 和(X4, Y4) , 作为这四个特征点的坐标。
S130: 根据各所述经过轨迹的特征点坐标,确定在屏幕图像上的待截取区 域;
在获取到各特征点的坐标后,可以根据各特征点的坐标,确定在屏幕图像 上的待截取区域。这个过程可以根据用户操作部位数量的不同, 滑动操作的不 同, 以及所获取的特征点的位置的不同, 釆取不同的实现方式。
如当用户使用两个操作部位(例如两根手指)在触屏上进行滑动操作时, 可以在触屏上划出两条线状轨迹, 此时, 可以获取用户通过两个操作部位在触 屏上滑动形成两条线状轨迹的四个端点坐标作为特征点坐标。将这四个顶点坐 标连接起来, 往往可以形成一个四边形, 可以将这个四边形作为待截取区域。 如图 3中, 当上述滑动操作形成 AD, BC两条轨迹时, 可以根据 、 B、 C、 D四个 端点确定一个四边形, 即将四边形 ABCD确定为待截取区域。 图中, 四边形 ABCD 并不是一个规则的四边形, 而在实际应用中, 用户往往希望能够截取规则的图 形。 在确定出四边形的顶点坐标后, 如果不是规则的四边形, 还可以通过对特 征点左边的爹正, 使其连接后形成规则的矩形, 如图中的 、 B、 C, D四个点的 坐标,可以通过爹正,得到 A' 、 B' 、 C ' 、 D' 四个点,从而得到 A' B' C ' D' 这一规则的矩形作为待截取区域。
如前所述, 当用户使用一个操作部位(例如一根手指)在触屏上进行滑动 操作时, 也可以在触屏上划出多边形; 或者带有顶点的轨迹, 将轨迹上的顶点 连接起来, 往往也可以得到一个多边形。 此时, 可以获取所产生的滑动轨迹的 三个或三个以上的顶点的坐标,作为轨迹的特征点坐标, 4艮据这些特征点坐标 也可以确定在屏幕图像上的待截取区域。 如图 2中, 用户通过一根手指, 在触 屏上以 ABCD的方向划出一条轨迹时, 可以在轨迹上形成四个顶点 A、 B、 C、 D, 这四个顶点的特征点坐标所围成的区域, 也可以作为屏幕图像上的待截取区 域。 当然, 在使用单指进行滑动操作时, 往往不能形成规则的多边形, 此时也 可以通过修正顶点坐标, 获得规则的多边形作为待截取区域。如在使用单指进 行滑动操作, 并获取到四个顶点的坐标时, 可以根据四个端点坐标, 在所述屏 幕图像上的确定一矩形区域作为所述待截取区域。
当根据经过轨迹的特征点坐标确定的待截取区域是不规则多边形时,可以 对特征点坐标进行修正,将特征点坐标调整为规则多边形的顶点坐标, 并根据 调整后的坐标确定所述待截取区域。 如图 3所示, 多边形 ABCD为特征点坐标确 定的待截取区域, 该区域为一个不规则的四边形。 对于不规则的四边形, 可以 通过内部截取的方式,获取一个规则四边形,但这种实现方式截取的规则四边 形往往较小, 不能满足用户需要,在此提供另一种修正不规则多边形的方法如 下。
B (X1, Y1) , C (X2, Y2) , Α (Χ3, Υ3) , D (Χ4, Υ4)为未调整的四边形顶点, 设各 点的坐标为:
Β (100, 900) , C (1100, 1300) , A (200, 100) , D (900, 300)
多边形 ABCD为不规则四边形。 此时, 可以根据各点坐标, 取
Xs = (Xl+X3) /2 = 150
Xd= (X2+X4) /2 = 1000
Ys= (Yl+Y2) /2 = 1100
Yd= (Y3+Y4) /2 =200
修正后的坐标由 Xs , Xd, Ys , Yd来确定, 如图中的 A ' 、 B' 、 C ' 、 D ' 四 个点的坐标分别为
A, ( Xs, Yd ) 即(150, 200)
B, ( Xs, Ys ) 即 (150, 1100)
C, ( Xd, Ys ) 即(1000, 1100)
D, ( Xd, Yd ) 即(1000, 200)
则调整坐标后得到的四边形 A' B' C D' 为一个规则的矩形。
以上是在屏幕上进行横向截取的示例,在屏幕上进行纵向截取时,也可以 使用类似的方式, 对形成的不规则的待截取区域进行调整, 在此不再赘述。
S140: 对屏幕上待截取区域的屏幕图像进行截取。
确定在屏幕图像上的待截取区域后,可以对屏幕上待截取区域的屏幕图像 进行截取。 如上述使用两个操作部位 (例如两根手指)在触屏上进行滑动操作 时, 可以在触屏上划出两条线状轨迹, 此时, 可以获取用户通过两个操作部位 在触屏上滑动形成的两条线状轨迹的四个端点坐标作为特征点坐标。根据特征 点坐标可以确定一个四边形区域, 则在屏幕上,对该四边形区域的屏幕图像进 行截取。 当然, 用户可能更希望得到比较规则的图形, 当待截取区域为不规则 的多边形时,还可以根据调整为规则多边形的待截取区域,对屏幕图像进行截 取。
在截取的过程中, 可以首先获取整个屏幕的位图, 例如在 Android操作系 统中, 可以通过调用函数 getDrawingCache , 获取整个屏幕的位图, 在利用整 个屏幕的位图, 以及待截取区域的坐标等, 获取整个屏幕的位图中对应区域的 图像, 例如在 Andro id操作系统中, 可以通过调用函数 Bi tmap. crea teBi tmap, 即可得到整个屏幕的位图中对应区域的图像。
实施例二
对于终端设备屏幕较窄的情况,也可以仅水平截取屏幕的一部分,或者在 用户横向握持终端设备的情况下, 仅在纵向上截取屏幕的一部分, X方向上全 部截取。 在此种方案下, 可以监控用户操作部位在终端设备的触屏上, 横向或 纵向贯穿屏幕的滑动操作; 当发生所述横向或纵向贯穿屏幕的滑动操作时, 获 取所述轨迹与屏幕边缘的交点坐标; 这样, 当用户使用双指进行操作时, 同样 可以确定四个顶点坐标, 并才艮据顶点坐标确定一个多边形的待截取区 i或, 进而 根据该待截取区域, 对屏幕图像进行截取。
此外, 在这种实施方式下, 还可以根据各轨迹与屏幕边缘的交点坐标, 以 及结合屏幕的顶点坐标,在屏幕图像上的多个待截取区域, 例如双指在屏幕上 划过时, 可以将屏幕切割为三块区域, 从而获得三块待截取区域。 然后可以对 屏幕上的多个待截取区域的屏幕图像进行截取。当然也可以在截取时提示用户 对截取的区域进行选择,根据用户在多个待截取区域选择的待截取区域的屏幕 图像进行截取。 另外, 还可以在只要用户双指平行滑动超过一定距离(例如屏 幕宽度的 2/ 3 ) 的情况下, 即可触发截取屏幕。
以上介绍了本发明实施例提供的屏幕图像的截取方法,通过该方法,可以 监控用户操作部位在终端设备的触屏上的滑动操作,获取触屏上滑动操作的操 作特征, 包括用户操作部位的个数, 所经过轨迹的特征点坐标等, 根据各特征 点坐标,确定在屏幕图像上的待截取区域。可以根据用户操作部位在终端设备 的触屏上的滑动操作, 实时的确定在屏幕图像上截取的区域, 可以将屏幕上的 一部分用户滑动操作选定的范围内的图像截取下来。由此实现了一种更为灵活 和方便的屏幕图像截取方法, 提高了屏幕图像截取的效率和灵活性。
与本发明实施例提供的屏幕图像的截取方法对应,本发明还提供了屏幕图 像的截取装置, 请参见图 4 , 为根据本发明一个实施例的屏幕图像的截取设备 的示意图, 如图所示, 该装置可以包括:
监控器 410 ,被配置为监控用户操作部位在终端设备的触屏上的滑动操作; 操作特征获取器 420 , 被配置为当发生滑动操作时, 获取滑动操作的操作 特征; 其中操作特征包括: 用户操作部位的个数; 滑动操作所经过轨迹的特征 点坐标;
截取区域确定器 430 , 被配置为根据各经过轨迹的特征点坐标, 确定在屏 幕图像上的待截取区域; 图像截取器 440 , 被配置为对屏幕上待截取区域的屏幕图像进行截取。 在另一实现方式下, 用户操作部位的个数可以为两个; 特征点坐标可以包 括: 线状轨迹的端点坐标;
操作特征获取器 420可以获取用户通过两个操作部位在触屏上滑动形成两 条线状轨迹时, 两条线状轨迹的四个端点坐标;
截取区域确定器 430可以根据获取到的四个端点坐标, 确定在屏幕图像上 的待截取区域。
在这种实现方式下, 截取区域确定器 430还可以根据四个端点坐标, 在所 述屏幕图像上的确定一矩形区域作为待截取区域。
在又一种实现方式下, 用户操作部位的个数可以为一个; 操作特征获取器
420可以在当一个操作部位在触屏上发生滑动操作时, 获取所产生的滑动轨迹 的三个或三个以上的顶点的坐标;
截取区域确定器 430可以根据所述三个或三个以上的顶点的坐标, 确定在 屏幕图像上的待截取区域。
在这种实现方式下,截取区域确定器 430还可以当获取到四个顶点坐标时, 根据四个端点坐标, 在屏幕图像上确定一矩形区域作为待截取区域。
监控器 410还可以监控用户操作部位在终端设备的触屏上, 横向或纵向贯 穿屏幕的滑动操作;
此时操作特征获取器 420可以在发生横向或纵向贯穿屏幕的滑动操作时, 获取轨迹与屏幕边缘的交点坐标;
而截取区域确定器 430可以根据各轨迹与屏幕边缘的交点坐标, 以及结合 屏幕的顶点坐标, 在屏幕图像上的多个待截取区域;
对应的, 图像截取器 440可以用于对屏幕上的多个待截取区域的屏幕图像 进行截取;
或,
根据用户在多个待截取区域选择的待截取区域的屏幕图像进行截取。
具体的, 监控器 410可以通过定义触摸监听接口 OnTouchL i s tener的子类, 以委托处理的形式, 委托和调用所述 OnTouchLi s tener的子类监控用户操作部 位在终端设备的触屏上的滑动操作;
此时, 操作特征获取器 420可以在发生滑动操作时, 以委托处理的形式, 委托和调用所述 OnTouchLi s tener的子类 OnTouchLi s tener的子类的事件处理 接口 OnTouch获取滑动操作的操作特征。
此外监控器 410还可以通过预置的自定义触屏事件处理 onTouchEvent方 法, 监控用户操作部位在终端设备的触屏上的滑动操作; 这种实现方式下, 操作特征获取器 420可以在发生滑动操作时, 通过预置 的自定义 onTouchEvent方法获取所述滑动操作的操作特征。
进一步的, 监控器 410 , 具体可以用于:
通过预置的自定义触屏事件处理 onTouchEvent方法,监控用户操作部位在 终端设备的触屏上的滑动过程中, 所述操作部位在所述触屏上按下、滑动以及 离开的事件;
所述操作特征获取器 420 , 具体用于:
当发生所述滑动操作时,通过预置的自定义 onTouchEvent方法获取所述操 作部位在所述触屏上按下、 滑动以及离开时, 用户操作部位的个数, 以及所经 过轨迹的特征点坐标。
此外, 截取区域确定器 430还可以用于:
当根据所述经过轨迹的特征点坐标确定的所述待截取区域为不规则多边 形时,将所述特征点坐标调整为规则多边形的顶点坐标, 并根据调整后的坐标 确定所述待截取区域。
以上对本发明实施例提供的屏幕图像的截取设备进行了介绍,通过该设备 根据用户操作部位在终端设备的触屏上的滑动操作,实时的确定在屏幕图像上 截取的区域,可以将屏幕上的一部分用户滑动操作选定的范围内的图像截取下 来。 由此实现了一种更为灵活和方便的屏幕图像截取方法,提高了屏幕图像截 取的效率和灵活性。
在此提供的算法和显示不与任何特定计算机、虚拟系统或者其它设备固有 相关。 各种通用系统也可以与基于在此的示教一起使用。 根据上面的描述, 构 造这类系统所要求的结构是显而易见的。此外, 本发明也不针对任何特定编程 语言。 应当明白, 可以利用各种编程语言实现在此描述的本发明的内容, 并且 上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中, 说明了大量具体细节。 然而, 能够理解, 本发 明的实施例可以在没有这些具体细节的情况下实践。在一些实例中, 并未详细 示出公知的方法、 结构和技术, 以便不模糊对本说明书的理解。
类似地,应当理解, 为了精简本公开并帮助理解各个发明方面中的一个或 多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一 起分组到单个实施例、 图、 或者对其的描述中。 然而, 并不应将该公开的方法 解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确 记载的特征更多的特征。 更确切地说, 如下面的权利要求书所反映的那样, 发 明方面在于少于前面公开的单个实施例的所有特征。 因此, 遵循具体实施方式 的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为 本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适 应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实 施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它 们分成多个子模块或子单元或子组件。 除了这样的特征和 /或过程或者单元中 的至少一些是相互排斥之外, 可以釆用任何组合对本说明书(包括伴随的权利 要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所 有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、 摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征 来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它 实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意 味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求 书中, 所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器 上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解, 可以在实践中使用微处理器或者数字信号处理器 (DSP )来实现根据本发明实 施例的屏幕图像的截取设备中的一些或者全部部件的一些或者全部功能。本发 明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装 置程序(例如, 计算机程序和计算机程序产品)。 这样的实现本发明的程序可 以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的 信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他 形式提供。
例如, 图 5示出了可以实现根据本发明的屏幕图像的截取方法的智能电子 设备。该智能电子设备传统上包括处理器 51 0和以存储器 520形式的计算机程序 产品或者计算机可读介质。 存储器 520可以是诸如闪存、 EEPR0M (电可擦除可 编程只读存储器) 、 EPR0M、 硬盘或者 ROM之类的电子存储器。 存储器 520具有 用于执行上述方法中的任何方法步骤的程序代码 531的存储空间 530。例如, 用 各个程序代码 5 31。 这些程;代码可以从一个 ί者多个计算机程序^品中读出 或者写入到这一个或者多个计算机程序产品中。这些计算机程序产品包括诸如 硬盘, 紧致盘(CD )、 存储卡或者软盘之类的程序代码载体。 这样的计算机程 序产品通常为如参考图 6所述的便携式或者固定存储单元。 该存储单元可以具 有与图 5的智能电子设备中的存储器 520类似布置的存储段或者存储空间等。程 序代码可以例如以适当形式进行压缩。通常,存储单元包括用于执行根据本发 明的方法步骤的程序 53Γ , 即可以由例如诸如 510之类的处理器读取的代码, 这些代码当由智能电子设备运行时,导致该智能电子设备执行上面所描述的方 法中的各个步骤。
本文中所称的 "一个实施例" 、 "实施例"或者 "一个或者多个实施例" 意味着, 结合实施例描述的特定特征、 结构或者特性包括在本发明的至少一个 实施例中。 此外, 请注意, 这里 "在一个实施例中" 的词语例子不一定全指同 一个实施例。
在此处所提供的说明书中, 说明了大量具体细节。 然而, 能够理解, 本发 明的实施例可以在没有这些具体细节的情况下被实践。在一些实例中, 并未详 细示出公知的方法、 结构和技术, 以便不模糊对本说明书的理解。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并 且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施 例。在权利要求中, 不应将位于括号之间的任何参考符号构造成对权利要求的 限制。单词 "包含"不排除存在未列在权利要求中的元件或步骤。位于元件之 前的单词 "一"或 "一个"不排除存在多个这样的元件。本发明可以借助于包 括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干 装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体 体现。 单词第一、 第二、 以及第三等的使用不表示任何顺序。 可将这些单词解 释为名称。
此外,还应当注意, 本说明书中使用的语言主要是为了可读性和教导的目 的而选择的, 而不是为了解释或者限定本发明的主题而选择的。 因此, 在不偏 离所附权利要求书的范围和精神的情况下,对于本技术领域的普通技术人员来 说许多修改和变更都是显而易见的。对于本发明的范围,对本发明所做的公开 是说明性的, 而非限制性的, 本发明的范围由所附权利要求书限定。

Claims

权 利 要 求
1、 一种屏幕图像的截取方法, 包括:
监控用户操作部位在终端设备的触屏上的滑动操作;
当发生所述滑动操作时,获取所述滑动操作的操作特征; 所述操作特征包 括: 用户操作部位的个数; 所述滑动操作所经过轨迹的特征点坐标;
根据用户操作部位的个数以及各所述经过轨迹的特征点坐标,确定在屏幕 图像上的待截取区域;
对屏幕上待截取区域的屏幕图像进行截取。
2、 如权利要求 1所述的方法, 所述用户操作部位的个数为两个; 所述特征 点坐标包括: 线状轨迹的端点坐标;
所述当发生所述滑动操作时, 获取所述滑动操作的操作特征, 包括: 获取用户通过两个操作部位在所述触屏上滑动形成两条线状轨迹时,所述 两条线状轨迹的四个端点坐标;
所述根据各所述经过轨迹的特征点坐标, 确定在屏幕图像上的待截取区 域, 包括:
根据所述四个端点坐标, 确定在屏幕图像上的待截取区域。
3、 如权利要求 2所述的方法, 所述根据所述四个端点坐标, 确定在屏幕图 像上的待截取区域, 包括:
根据所述四个端点坐标,在所述屏幕图像上确定一矩形区域作为所述待截 取区域。
4、 如权利要求 1所述的方法, 所述用户操作部位的个数为一个; 所述当发 生所述滑动操作时, 获取所述滑动操作的操作特征, 包括:
当所述一个操作部位在触屏上发生所述滑动操作时,获取所产生的滑动轨 迹的三个或三个以上的顶点的坐标;
所述根据各所述经过轨迹的特征点坐标, 确定在屏幕图像上的待截取区 域, 包括:
根据所述三个或三个以上的顶点的坐标, 确定在屏幕图像上的待截取区 域。
5、如权利要求 4所述的方法,所述 4艮据所述三个或三个以上的顶点的坐标, 确定在屏幕图像上的待截取区域, 包括:
当获取到四个所述顶点坐标时,根据所述四个端点坐标,在所述屏幕图像 上确定一矩形区域作为所述待截取区域。
6、如权利要求 1所述的方法, 所述监控用户操作部位在终端设备的触屏上 的滑动操作, 包括: 监控用户操作部位在终端设备的触屏上, 横向或纵向贯穿屏幕的滑动操 作;
所述当发生所述滑动操作时, 获取所述滑动操作的操作特征, 包括: 当发生所述横向或纵向贯穿屏幕的滑动操作时,获取所述滑动操作所经过 轨迹与屏幕边缘的交点坐标;
所述根据各所述经过轨迹的特征点坐标, 确定在屏幕图像上的待截取区 域, 包括:
根据各所述轨迹与屏幕边缘的交点坐标, 以及结合屏幕的顶点坐标,确定 在屏幕图像上的多个待截取区域;
所述对屏幕上待截取区域的屏幕图像进行截取, 包括:
对屏幕上的所述多个待截取区域的屏幕图像进行截取;
或,
根据用户在所述多个待截取区域选择的待截取区域的屏幕图像进行截取。
7、如权利要求 1-6任一项所述的方法, 所述监控用户操作部位在终端设备 的触屏上的滑动操作, 包括:
通过定义触摸监听接口 OnTouchLi s tener的子类, 以委托处理的形式, 委 托和调用所述 OnTouchLi s tener的子类监控用户操作部位在终端设备的触屏上 的滑动操作;
所述当发生所述滑动操作时, 获取所述滑动操作的操作特征, 包括: 当发生所述滑动操作时, 以委托处理的形式, 委托和调用所述
OnTouchLi s tener的子类的事件处理接口 OnTouch获取所述滑动操作的操作特 征。
8、如权利要求 1-6任一项所述的方法, 所述监控用户操作部位在终端设备 的触屏上的滑动操作, 包括:
通过预置的自定义触屏事件处理 onTouchEvent方法,监控用户操作部位在 终端设备的触屏上的滑动操作;
所述当发生所述滑动操作时, 获取所述滑动操作的操作特征, 包括: 当发生所述滑动操作时,通过预置的自定义 onTouchEvent方法获取所述滑 动操作的操作特征。
9、 如权利要求 8所述的方法, 所述通过预置的自定义触屏事件处理 onTouchEvent方法,监控用户操作部位在终端设备的触屏上的滑动操作,包括: 通过预置的自定义触屏事件处理 onTouchEvent方法,监控用户操作部位在 终端设备的触屏上的滑动过程中, 所述操作部位在所述触屏上按下、滑动以及 离开的事件; 所述当发生所述滑动操作时,通过预置的自定义 onTouchEvent方法获取所 述滑动操作的操作特征, 包括:
当发生所述滑动操作时,通过预置的自定义 onTouchEvent方法获取所述操 作部位在所述触屏上按下、 滑动以及离开时, 用户操作部位的个数, 以及所经 过轨迹的特征点坐标。
10、 一种屏幕图像的截取设备, 包括:
监控器, 被配置为监控用户操作部位在终端设备的触屏上的滑动操作; 操作特征获取器,被配置为当发生所述滑动操作时, 获取所述滑动操作的 操作特征; 所述操作特征包括: 用户操作部位的个数; 所述滑动操作所经过轨 迹的特征点坐标;
截取区域确定器,被配置为根据用户操作部位的个数以及各所述经过轨迹 的特征点坐标, 确定在屏幕图像上的待截取区域;
图像截取器, 被配置为对屏幕上待截取区域的屏幕图像进行截取。
11、 一种计算机程序, 包括计算机可读代码, 当所述计算机可读代码在服 务器上运行时, 导致所述服务器执行根据权利要求 1-9中的任一个所述的屏幕 图像的截取方法。
12、 一种计算机可读介质, 其中存储了如权利要求 11所述的计算机程序。
PCT/CN2014/083045 2013-10-22 2014-07-25 屏幕图像的截取方法及设备 WO2015058566A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201310498666.XA CN103530055A (zh) 2013-10-22 2013-10-22 屏幕图像的截取方法及设备
CN201310498666.X 2013-10-22

Publications (1)

Publication Number Publication Date
WO2015058566A1 true WO2015058566A1 (zh) 2015-04-30

Family

ID=49932110

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2014/083045 WO2015058566A1 (zh) 2013-10-22 2014-07-25 屏幕图像的截取方法及设备

Country Status (2)

Country Link
CN (1) CN103530055A (zh)
WO (1) WO2015058566A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106354390A (zh) * 2016-08-30 2017-01-25 广东小天才科技有限公司 目标图像的截取的方法和装置
US11192840B2 (en) 2018-04-03 2021-12-07 Blue Cube Ip Llc Method for recycling catalyst in the production of chlorinated alkanes

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103530055A (zh) * 2013-10-22 2014-01-22 北京奇虎科技有限公司 屏幕图像的截取方法及设备
CN105700801B (zh) * 2014-11-28 2020-11-03 腾讯科技(深圳)有限公司 一种界面截取方法和设备
CN104573608B (zh) * 2015-01-23 2018-06-19 苏州海博智能系统有限公司 一种编码信息扫描方法及装置
CN104951229B (zh) * 2015-05-27 2017-03-29 努比亚技术有限公司 屏幕截图方法和装置
CN104898926B (zh) * 2015-05-29 2018-04-27 努比亚技术有限公司 移动终端的屏幕截图方法及装置
CN105183317A (zh) * 2015-09-07 2015-12-23 联想(北京)有限公司 一种压力触控对文件处理的方法及电子设备
CN105224315B (zh) * 2015-09-11 2018-10-19 北京金山安全软件有限公司 一种获取屏幕截图的方法及装置
CN105912256A (zh) * 2016-04-08 2016-08-31 微鲸科技有限公司 触摸屏幕的控制方法和触摸设备
CN106598365A (zh) * 2016-09-27 2017-04-26 北京枭龙科技有限公司 一种提高触摸板识别率的方法及装置
CN109597548B (zh) * 2018-11-16 2020-05-12 北京字节跳动网络技术有限公司 菜单显示方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101075172A (zh) * 2006-08-23 2007-11-21 腾讯科技(深圳)有限公司 截图方法、截图装置及即时通讯客户端
WO2010083712A1 (zh) * 2009-01-22 2010-07-29 中兴通讯股份有限公司 一种对流媒体实现实时截图的移动终端及方法
CN103019597A (zh) * 2012-12-10 2013-04-03 中兴通讯股份有限公司 一种内置截图功能的智能终端及其实现方法
CN103530055A (zh) * 2013-10-22 2014-01-22 北京奇虎科技有限公司 屏幕图像的截取方法及设备

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102968274A (zh) * 2012-11-22 2013-03-13 广东欧珀移动通信有限公司 一种在移动设备中自由截屏的方法和系统
CN103092520A (zh) * 2013-01-25 2013-05-08 广东欧珀移动通信有限公司 一种屏幕图像截取方法、装置及触摸屏移动设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101075172A (zh) * 2006-08-23 2007-11-21 腾讯科技(深圳)有限公司 截图方法、截图装置及即时通讯客户端
WO2010083712A1 (zh) * 2009-01-22 2010-07-29 中兴通讯股份有限公司 一种对流媒体实现实时截图的移动终端及方法
CN103019597A (zh) * 2012-12-10 2013-04-03 中兴通讯股份有限公司 一种内置截图功能的智能终端及其实现方法
CN103530055A (zh) * 2013-10-22 2014-01-22 北京奇虎科技有限公司 屏幕图像的截取方法及设备

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106354390A (zh) * 2016-08-30 2017-01-25 广东小天才科技有限公司 目标图像的截取的方法和装置
CN106354390B (zh) * 2016-08-30 2019-09-17 广东小天才科技有限公司 目标图像的截取的方法和装置
US11192840B2 (en) 2018-04-03 2021-12-07 Blue Cube Ip Llc Method for recycling catalyst in the production of chlorinated alkanes

Also Published As

Publication number Publication date
CN103530055A (zh) 2014-01-22

Similar Documents

Publication Publication Date Title
WO2015058566A1 (zh) 屏幕图像的截取方法及设备
CN105068727B (zh) 一种绘图工具的实现方法和装置
RU2582854C2 (ru) Способ и устройство для обеспечения быстрого доступа к функциям устройства
US8860730B2 (en) Information processing apparatus, animation method, and program
US20180364865A1 (en) Touch control method, user equipment, input processing method, mobile terminal and intelligent terminal
US9535576B2 (en) Touchscreen apparatus user interface processing method and touchscreen apparatus
CN105159505B (zh) 一种界面操作方法及终端
WO2016138661A1 (zh) 终端的用户界面的处理方法、用户界面和终端
WO2022048633A1 (zh) 显示方法、装置和电子设备
CN107562323A (zh) 图标移动方法、装置及终端
WO2017185459A1 (zh) 一种图标移动方法以及装置
WO2012095058A1 (zh) 触摸屏及其输入控制方法
WO2012051770A1 (zh) 一种识别硬件手势的方法及移动终端
CN107704157B (zh) 一种多屏界面操作方法、装置及存储介质
CN108762619A (zh) 浮标显示方法、装置、终端及存储介质
WO2021203815A1 (zh) 页面操作方法、装置、终端及存储介质
WO2017076017A1 (zh) 应用操作的方法及装置
CN104063128A (zh) 一种信息处理方法及电子设备
CN104898880B (zh) 一种控制方法及电子设备
US20170046044A1 (en) Display control method and electronic device
CN106407027B (zh) 一种移动终端的信息显示方法及移动终端
CN106126034A (zh) 一种按键功能设置方法及移动终端
CN105302459B (zh) 终端的单手控制方法及装置
CN105739817A (zh) 一种图标隐藏的方法、装置及移动终端
WO2024146348A1 (zh) 信息的显示方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14855173

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14855173

Country of ref document: EP

Kind code of ref document: A1