CN105892857B - 图像定位方法及装置 - Google Patents
图像定位方法及装置 Download PDFInfo
- Publication number
- CN105892857B CN105892857B CN201610196790.4A CN201610196790A CN105892857B CN 105892857 B CN105892857 B CN 105892857B CN 201610196790 A CN201610196790 A CN 201610196790A CN 105892857 B CN105892857 B CN 105892857B
- Authority
- CN
- China
- Prior art keywords
- image
- display area
- controllable
- straight line
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
Abstract
本发明公开了一种图像定位方法及装置,其中所述方法包括:检测针对图像的显示区域的触发操作事件;根据所述触发操作事件显示至少一个可操控的触摸滑块;根据所述至少一个可操控的触摸滑块的终点坐标确定图像的目标显示区域。本发明通过显示至少一个可操控的触摸滑块,使用户能够移动滑块,从而完成对图像目标区域的精确定位。
Description
技术领域
本发明实施例涉及图像处理技术领域,尤其涉及一种图像定位方法及装置。
背景技术
随着电子技术、计算机技术的不断推广和应用,计算机技术在医学领域的应用也日趋明显,尤其是在医学数字图像处理方面体现的尤为突出。数字医学影像通过无创伤的数据采集获得人体内部解剖学或生理功能信息,并以图像形式提取并显示出来,因而医学图像在这种背景下应运而生。
针对获取的医学图像,医生往往需要定位到医学图像中的某个细节区域,根据该细节进一步判定病人的病情,然而当医生用手指在显示屏上对医学图像进行定位操作时,由于手指会掩盖一部分图像,致使医生无法看到手指下图像的部分,导致无法精准定位图像。
发明内容
本发明提供一种图像定位方法及装置,以精确定位图像。
第一方面,本发明实施例提供了一种图像定位方法,该方法包括:
检测针对图像的显示区域的触发操作事件;
根据所述触发操作事件显示至少一个可操控的触摸滑块;
根据所述至少一个可操控的触摸滑块的终点坐标确定图像的目标显示区域。
第二方面,本发明实施例还提供了一种图像定位装置,该装置包括:
触发事件检测模块,用于检测针对图像的显示区域的触发操作事件;
滑块显示模块,用于根据所述触发操作事件显示至少一个可操控的触摸滑块;
目标区域显示模块,用于根据所述至少一个可操控的触摸滑块的终点坐标确定图像的目标显示区域。
本发明通过检测针对图像的显示区域的触发操作事件;根据所述触发操作事件显示至少一个可操控的触摸滑块;根据所述至少一个可操控的触摸滑块的终点坐标确定图像的目标显示区域,所述滑块可由用户操控移动,使其移动至目标显示区域,从而完成对图像目标区域的精确定位。
附图说明
图1是本发明实施例一中的一种图像定位方法的流程图;
图2A是本发明实施例二中的一种图像定位方法的流程图;
图2B是本发明实施例二中的一种图像定位方法中的触摸滑块位置分布示意图;
图3是本发明实施例三中的一种图像定位装置的结构图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1为本发明实施例一提供的一种图像定位方法的流程图,本实施例可适用于各种图像(尤其是医学图像、地图等)的定位操作,该方法可以由图像定位装置,或集成了图像定位装置的终端设备(例如,移动终端、固定终端等)来执行,具体包括如下步骤:
步骤101、检测针对图像的显示区域的触发操作事件;
具体的,当用户想要针对某个图像的某个特定区域进行处理或细致查看时,则将该图像显示在终端设备的显示屏幕上,同时启动图像定位装置,或者,用户在该装置的显示界面中打开图像,该装置可检测到用户针对图像的显示区域的触发操作事件。其中,所述触发操作事件可为点击、双击、画圈和画直线段中的至少一种。
步骤102、根据所述触发操作事件显示至少一个可操控的触摸滑块;
其中,可操控的触摸滑块是指可供用户进行操作的滑块,即用户可沿任意方向移动该滑块,该滑块的形状可为正方形、长方形、圆形、椭圆形或三角形等,对此不作具体限定。
步骤103、根据所述至少一个可操控的触摸滑块的终点坐标确定图像的目标显示区域。
具体的,当该图像定位装置检测到用户对图像的触发操作事件后,则显示至少一个可操控的触摸滑块,用户可移动该滑块的位置,将该滑块移动至图像的目标显示区域。所述装置实时检测触摸滑块的运动轨迹,当检测到所述滑块超过预设时间不再移动时,则确定所述滑块的当前位置即为终点坐标,则根据所述滑块的终点坐标确定图像的目标显示区域。
本实施例通过检测针对图像的显示区域的触发操作事件;根据所述触发操作事件显示至少一个可操控的触摸滑块;根据所述至少一个可操控的触摸滑块的终点坐标确定图像的目标显示区域,所述滑块可由用户操控移动,使其移动至目标显示区域,从而完成对图像目标区域的精确定位。
在上述技术方案的基础上,当所述触发操作事件为画直线段时,根据所述触发操作事件显示至少一个可操控的触摸滑块可优选为:
根据用户对所述直线段的端点的选中操作显示至少一个可操控的触摸滑块。
其中,为了快捷高效的定位图像的目标显示区域,用户可在接近目标显示区域的大概位置处画一直线段,然后选中该直线段的任一端点,则显示至少一个可操控的触摸滑块。另外,还可通过检测用户触发直线段上任意一点(例如,中点)来触发显示触摸滑块。由于用户所画的直线段接近目标显示区域,显示的滑块也接近目标显示区域,可减少用户对滑块的移动时间,从而加快定位效率。
在上述技术方案的基础上,为便于定位,可将显示的滑块个数优选为4个,具体的,根据所述触发操作事件显示至少一个可操控的触摸滑块包括:
根据所述触发操作事件在水平方向上各显示两个可操控的触摸滑块,同时在垂直方向上各显示两个可操控的触摸滑块。
为便于用户操控,优选的,所述水平方向上的两个可操控的触摸滑块间通过直线连接,和/或,所述垂直方向上的两个可操控的触摸滑块通过直线连接。
在上述技术方案的基础上,为便于用户清楚的查看目标显示区域的子图像的细节,在根据所述至少一个可操控的触摸滑块的终点坐标确定图像的目标显示区域之后,还包括如下步骤:
锁定所述目标显示区域的子图像,根据用户操作指令进行缩小或放大处理。
在上述技术方案的基础上,为便于用户度量目标显示区域的子图像,所述方法还包括:
锁定所述目标显示区域的子图像,显示所述子图像的尺寸。
实施例二
图2A为本发明实施例二提供的图像定位方法流程图,本实施例在上述各实施例的基础上,优选是将所述触摸滑块的形状进一步优化为方形图标,在水平方向上各显示两个可操控的触摸滑块,同时在垂直方向上各显示两个可操控的触摸滑块,并且所述水平方向上的两个可操控的触摸滑块间通过直线连接,所述垂直方向上的两个可操控的触摸滑块通过直线连接,如图2A所示,具体包括如下步骤:
步骤201、检测用户在图像的显示区域的运动轨迹,若所述运动轨迹为直线段,且检测到用户对所述直线段的端点的选中操作,则执行步骤202;
步骤202、在水平方向上显示两个可操控的方形图标,同时在垂直方向上显示两个可操控的方形图标,所述水平方向上的两个可操控的方形图标通过直线连接,所述垂直方向上的两个可操控的方形图标通过直线连接;
如图2B所示,其中,21为用户所画的直线段,211为用户触发的直线段的端点,22为连接水平方向上的两个可操控的方形图标的直线,23为连接垂直方向上的两个可操控的方形图标的直线。
步骤203、根据所述四个方形图标的终点坐标确定图像的目标显示区域。
具体的,用户可沿水平方向左右移动方形图标22,以锁定目标图像显示区域的左右位置,再沿垂直方向上下移动方形图标23,以锁定目标图像显示区域的上下位置。
在锁定所述目标显示区域的子图像之后,可根据用户操作指令缩小或放大所述子图像,或者显示缩小或放大后的所述子图像的尺寸。
此外,本实施例将触摸滑块限定为方形图标仅为举例说明,所述触摸滑块还可为圆形图标、三角图标等等。
本实施例通过检测用户对图像的显示区域的画直线操作,并根据用户对直线端点的选中操作,在水平方向和垂直方向上分别显示两个直线连接的方形图标;根据用户对方向图标的移动操作,即可确定目标显示区域,从而完成对图像目标区域的精确定位,以及测量。
实施例三
图3所示为本发明实施例三提供的一种图像定位装置的结构示意图,本实施例所述装置可采用软件或硬件的方式实现,可适用于医学图像定位或地图定位情况,该装置的具体结构如下:触发事件检测模块31、滑块显示模块32和目标区域显示模块33;
所述触发事件检测模块31用于检测针对图像的显示区域的触发操作事件;
所述滑块显示模块32用于根据所述触发操作事件显示至少一个可操控的触摸滑块;
所述目标区域显示模块33用于根据所述至少一个可操控的触摸滑块的终点坐标确定图像的目标显示区域。
本实施例所述的图像定位装置用于执行上述各实施例所述的图像定位方法,其技术原理和产生的技术效果类似,这里不再累述。
在上述实施例的基础上,所述触发操作事件包括点击、双击、画圈和画直线段中的至少一种。
在上述实施例的基础上,所述滑块显示模块32具体用于当所述触发操作事件为画直线段时,根据用户对所述直线段的端点的选中操作显示至少一个可操控的触摸滑块。
在上述实施例的基础上,所述滑块显示模块32具体用于根据所述触发操作事件在水平方向上各显示两个可操控的触摸滑块,同时在垂直方向上各显示两个可操控的触摸滑块。
在上述实施例的基础上,所述水平方向上的两个可操控的触摸滑块间通过直线连接,和/或,所述垂直方向上的两个可操控的触摸滑块通过直线连接。
在上述实施例的基础上,所述装置还包括:子图像处理模块34;
所述子图像处理模块34用于在所述滑块显示模块32根据所述至少一个可操控的触摸滑块的终点坐标确定图像的目标显示区域之后,锁定所述目标显示区域的子图像,根据用户操作指令进行缩小或放大处理。
在上述实施例的基础上,所述装置还包括:尺寸测量模块35;
所述尺寸测量模块35用于锁定所述目标显示区域的子图像,显示所述子图像的尺寸。
上述各实施例所述的图像定位装置用于执行上述各实施例所述的图像定位方法,其技术原理和产生的技术效果类似,这里不再累述。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (4)
1.一种图像定位方法,其特征在于,包括:
检测针对图像的显示区域的触发操作事件;
根据所述触发操作事件显示至少一个可操控的触摸滑块;
根据所述至少一个可操控的触摸滑块的终点坐标确定图像的目标显示区域;所述终点坐标为当检测到所述滑块超过预设时间不再移动时,确定的所述滑块的当前位置;
其中,所述触发操作事件包括点击、双击、画圈和画直线段中的至少一种;
其中,检测针对图像的显示区域的触发操作事件,包括:检测针对图像的显示区域的触发操作事件的运动轨迹;
根据所述触发操作事件显示至少一个可操控的触摸滑块,包括:若所述运动轨迹为直线段,且检测到用户对所述直线段的端点的选中操作,则在水平方向上显示两个可操控的方形图标,同时在垂直方向上显示两个可操控的方形图标,所述水平方向上的两个可操控的方形图标通过直线连接,所述垂直方向上的两个可操控的方形图标通过直线连接;
根据所述至少一个可操控的触摸滑块的终点坐标确定图像的目标显示区域,包括:根据用户沿水平方向左右移动方形图标的操作锁定目标图像显示区域的左右位置,根据用户垂直方向上下移动方形图标的操作锁定目标图像显示区域的上下位置。
2.根据权利要求1所述的方法,其特征在于,根据所述至少一个可操控的触摸滑块的终点坐标确定图像的目标显示区域之后,还包括:
锁定所述目标显示区域的子图像,根据用户操作指令进行缩小或放大处理。
3.根据权利要求1所述的方法,其特征在于,还包括:
锁定所述目标显示区域的子图像,显示所述子图像的尺寸。
4.一种图像定位装置,其特征在于,包括:
触发事件检测模块,用于检测针对图像的显示区域的触发操作事件;
滑块显示模块,用于根据所述触发操作事件显示至少一个可操控的触摸滑块;
目标区域显示模块,用于根据所述至少一个可操控的触摸滑块的终点坐标确定图像的目标显示区域;所述终点坐标为当检测到所述滑块超过预设时间不再移动时,确定的所述滑块的当前位置;
其中,所述触发操作事件包括点击、双击、画圈和画直线段中的至少一种;
其中,所述触发事件检测模块,具体用于:检测针对图像的显示区域的触发操作事件的运动轨迹;
所述滑块显示模块,具体用于:根据所述触发操作事件显示至少一个可操控的触摸滑块,包括:若所述运动轨迹为直线段,且检测到用户对所述直线段的端点的选中操作,则在水平方向上显示两个可操控的方形图标,同时在垂直方向上显示两个可操控的方形图标,所述水平方向上的两个可操控的方形图标通过直线连接,所述垂直方向上的两个可操控的方形图标通过直线连接;
所述目标区域显示模块,具体用于:根据所述至少一个可操控的触摸滑块的终点坐标确定图像的目标显示区域,包括:根据用户沿水平方向左右移动方形图标的操作锁定目标图像显示区域的左右位置,根据用户垂直方向上下移动方形图标的操作锁定目标图像显示区域的上下位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610196790.4A CN105892857B (zh) | 2016-03-31 | 2016-03-31 | 图像定位方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610196790.4A CN105892857B (zh) | 2016-03-31 | 2016-03-31 | 图像定位方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105892857A CN105892857A (zh) | 2016-08-24 |
CN105892857B true CN105892857B (zh) | 2020-06-30 |
Family
ID=57011783
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610196790.4A Active CN105892857B (zh) | 2016-03-31 | 2016-03-31 | 图像定位方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105892857B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018145244A1 (zh) * | 2017-02-07 | 2018-08-16 | 深圳迈瑞生物医疗电子股份有限公司 | 超声医学检测设备及成像控制方法、成像系统、控制器 |
CN111290810B (zh) * | 2020-01-19 | 2021-10-15 | 维沃移动通信有限公司 | 一种图像显示方法及电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102662586A (zh) * | 2012-03-31 | 2012-09-12 | 奇智软件(北京)有限公司 | 一种基于用户界面的操作触发方法、装置及终端设备 |
CN103677721A (zh) * | 2013-12-27 | 2014-03-26 | 腾讯科技(深圳)有限公司 | 对终端显示界面进行缩放的方法及终端设备 |
CN104199594A (zh) * | 2014-09-28 | 2014-12-10 | 厦门幻世网络科技有限公司 | 一种基于触摸屏的目标位置定位方法及其装置 |
CN104317494A (zh) * | 2014-10-11 | 2015-01-28 | 广东欧珀移动通信有限公司 | 移动光标的方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5927907B2 (ja) * | 2011-12-26 | 2016-06-01 | ブラザー工業株式会社 | 画像形成装置、画像形成装置の制御方法およびプログラム |
-
2016
- 2016-03-31 CN CN201610196790.4A patent/CN105892857B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102662586A (zh) * | 2012-03-31 | 2012-09-12 | 奇智软件(北京)有限公司 | 一种基于用户界面的操作触发方法、装置及终端设备 |
CN103677721A (zh) * | 2013-12-27 | 2014-03-26 | 腾讯科技(深圳)有限公司 | 对终端显示界面进行缩放的方法及终端设备 |
CN104199594A (zh) * | 2014-09-28 | 2014-12-10 | 厦门幻世网络科技有限公司 | 一种基于触摸屏的目标位置定位方法及其装置 |
CN104317494A (zh) * | 2014-10-11 | 2015-01-28 | 广东欧珀移动通信有限公司 | 移动光标的方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN105892857A (zh) | 2016-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9823821B2 (en) | Information processing apparatus, display control method, and program for superimposing virtual objects on input image and selecting an interested object | |
US10511778B2 (en) | Method and apparatus for push interaction | |
JP5921835B2 (ja) | 入力装置 | |
US10001844B2 (en) | Information processing apparatus information processing method and storage medium | |
US10456072B2 (en) | Image interpretation support apparatus and method | |
US9836130B2 (en) | Operation input device, operation input method, and program | |
US8659549B2 (en) | Operation control device and operation control method | |
US9122916B2 (en) | Three dimensional fingertip tracking | |
JP2013225245A (ja) | 画像処理装置、画像処理方法及びプログラム | |
KR20160117207A (ko) | 화상 해석 장치 및 화상 해석 방법 | |
KR20140146352A (ko) | 유저 인터페이스 장치 및 유저 인터페이스 장치의 동작 방법 | |
KR101631011B1 (ko) | 제스처 인식 장치 및 제스처 인식 장치의 제어 방법 | |
US9069415B2 (en) | Systems and methods for finger pose estimation on touchscreen devices | |
KR20120134488A (ko) | 제스처 인식 기반 사용자 상호 작용 방법 및 이를 위한 장치 | |
JP2011159034A (ja) | 情報処理装置および情報処理方法 | |
CN105892857B (zh) | 图像定位方法及装置 | |
US20150153834A1 (en) | Motion input apparatus and motion input method | |
JP2010272036A (ja) | 画像処理装置 | |
WO2015064991A2 (ko) | 비접촉 동작 제어가 가능한 스마트 디바이스 및 이를 이용한 비접촉 동작 제어 방법 | |
JP6289655B2 (ja) | 画面操作装置及び画面操作方法 | |
KR101337429B1 (ko) | 입력 장치 | |
EP3503026A1 (en) | Device, system and method for interacting with vessel images | |
WO2012114791A1 (ja) | ジェスチャー操作システム | |
WO2018161421A1 (zh) | 终端设备的触摸显示屏幕的性能测试方法和性能测试装置 | |
WO2021148045A1 (zh) | 心电波形的数据测量方法、心电图机和可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |