CN102479050A - 通过触摸板上的拖动操作使对象移动的方法及装置 - Google Patents

通过触摸板上的拖动操作使对象移动的方法及装置 Download PDF

Info

Publication number
CN102479050A
CN102479050A CN2011103431354A CN201110343135A CN102479050A CN 102479050 A CN102479050 A CN 102479050A CN 2011103431354 A CN2011103431354 A CN 2011103431354A CN 201110343135 A CN201110343135 A CN 201110343135A CN 102479050 A CN102479050 A CN 102479050A
Authority
CN
China
Prior art keywords
mentioned
angle
inclination
contact condition
shows
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2011103431354A
Other languages
English (en)
Other versions
CN102479050B (zh
Inventor
横山智史
上之原勇人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of CN102479050A publication Critical patent/CN102479050A/zh
Application granted granted Critical
Publication of CN102479050B publication Critical patent/CN102479050B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1407General aspects irrespective of display type, e.g. determination of decimal point position, display with fixed or driving decimal point, suppression of non-significant zeros
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04112Electrode mesh in capacitive digitiser: electrode for touch sensing is formed of a mesh of very fine, normally metallic, interconnected lines that are almost invisible to see. This provides a quite large but transparent electrode surface, without need for ITO or similar transparent conductive material
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/048023D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

本发明提供一种通过触摸板上的拖动操作使对象移动的方法及装置,其通过将拖动操作区别为接触状态和接近状态、或在拖动操作组合双击操作、触摸板的倾斜等,从而利用一系列拖动操作使对象在不同的层上移动。其中,一种以能够与三维触摸板数据通信的方式连接的装置,使所显示的对象在多个层之间移动。检测对在第一层上显示的一个对象的接触状态。在检测到对一个对象从接触状态转变为接近状态时,在到达比第一层更靠近前侧显示的第二层所显示的位置时,使一个对象移动到第二层上并显示。

Description

通过触摸板上的拖动操作使对象移动的方法及装置
技术领域
本发明涉及一种通过触摸板上的拖动操作使对象移动的方法及装置,该触摸板能够检测到手指的接触及接近、或接触及接近时手指的位置。
背景技术
近年来,开发出许多安装有触摸板的信息处理装置。触摸板能够通过直接接触到显示器而直观地操作信息。但是,不仅无法将想要接触的按键进行集中、预览等,按键的显示尺寸也受到限制。
因此,开发出如专利文献1那样的、检测手指接触到触摸板之前的接近状态来进行输入操作的显示输入装置。通过检测手指的接近状态,从而能够根据接近位置切换焦点,放大显示按键。例如在非专利文献1中公开了一种可检测手指接触之前的接近状态的三维触摸板。非专利文献1中公开的三维触摸板通过检测在触摸板与手指之间产生的静电容量来检测手指的位置,能够以较轻的操作进行输入。
专利文献1:国际公开第2010/064387号单行本
非专利文献1:冈野佑一、鹫野浩之、川又武典,“可检测手指的接近/接触的三维触摸板”,信息处理学会,人机交互研究会报告,2009年5月
发明内容
但是,在非专利文献1中,在具有层构造的应用中,使对象移动至想要去的层上较为困难。而且,即使是相同对象的移动,在利用拖动的移动和层间的移动采用的操作方法不同,无法利用一系列操作使对象移动。
例如在微软(注册商标)公司制造的power point(注册商标)、阿道比(注册商标)公司制造的photoshop(注册商标)等,要使对象向不同的层移动,需要在选择右键单击操作的菜单后,选择“顺序”项目,不仅操作繁杂,而且存在无法向任意层上移动的问题。
而且,在组合了三维显示器(3D显示器)而成的三维触摸板中,在操作对象的手指的位置与所显示的对象位置产生视觉偏差,还出现了感到操作上的不协调感这样的问题。
本发明是鉴于上述事情而做出的,其目的在于提供一种通过使拖动操作区别为接触状态和接近状态、或在拖动操作上组合双击操作、触摸板的倾斜等,从而利用一系列的拖动操作使对象移动至不同的层上的方法及装置。
为了达到上述目的,第一方案的方法,其能够由以能够与三维触摸板数据进行通信的方式连接的信息处理装置执行,使显示的对象在多个层之间移动,其中,包括如下步骤:检测对在第一层上显示的一个对象的接触状态;在检测到对上述一个对象从接触状态转变到接近状态时,在到达比上述第一层更靠近前侧显示的第二层所显示的位置时,使上述一个对象移动到上述第二层上并显示。
第二方案的方法是在第一方案中,在检测到对上述一个对象再次从接近状态转变为接触状态时,在检测到转变为接触状态的时刻所接触的层上,显示上述一个对象。
第三方案的方法是在第一或第二方案中,包括如下步骤:对自检测到对上述一个对象转变为接近状态的时刻起的时间进行计时;判断自开始计时起是否经过了预定时间;在判断为经过了预定时间时,使上述一个对象返回在检测到转变为接近状态的时刻所显示的位置并显示。
接着,为了达到上述目的,第四方案的方法,其能够由以能与三维触摸板进行数据通信的方式连接的信息处理装置执行,在三维显示器使显示进深感的对象移动,其中,包括如下步骤:检测对所显示的对象的接触状态;在对在进深方向的第一位置上显示的一个对象检测到双击操作时,使上述一个对象移动到上述三维显示器的显示画面的表面的位置并显示;在检测到对上述一个对象从接触状态转变为接近状态时,将显示上述一个对象的位置变更为所显示的对象中的、在进深方向的最靠近近前侧显示的对象所显示的位置并进行显示。
第五方案的方法是在第四方案中,在检测到对上述一个对象再次从接近状态转变为接触状态时,使显示上述一个对象的位置变更为上述三维显示器的显示画面的表面的位置并予以显示。
第六方案的方法是在第五方案中,在检测到对上述一个对象再次从接近状态转变为接触状态时,按与变更显示上述一个对象的位置的移动量相同的量,变更显示其他对象的位置并予以显示。
接着,为了达到上述目的,第七方案的方法,其能够由以能与二维触摸板和检测该二维触摸板的倾斜角度的倾斜角度传感器进行数据通信的方式连接的信息处理装置执行,使显示的对象在多个层之间移动,其中,包括如下步骤:检测对在第一层上显示的一个对象的接触状态;使检测到对上述一个对象转变到接触状态的时刻的倾斜角度为0(零),取得由上述倾斜角度传感器检测出的倾斜角度;在取得的倾斜角度从0(零)变为正值时,在沿着倾斜角度向高度高的方向拖动操作时,在到达在上述第一层的前面显示的第二层所显示的位置的时刻,使上述一个对象移动到上述第二层上来显示;在所取得的倾斜角度从0(零)变为负值时,在沿着倾斜角度向高度低的方向拖动操作时,在到达在上述第一层的背面显示的第三层所显示的位置的时刻,使上述一个对象移动到上述第三的层上来显示。
第八方案的方法是在第七方案中,在取得的倾斜角度再次返回0(零)时,在倾斜角度再次返回0(零)的时刻所接触的层上,显示上述一个对象。
接着,为了达到上述目的,第九方案的方法,其能够由以能与二维触摸板和检测该二维触摸板的倾斜角度的倾斜角度传感器进行数据通信的方式连接的信息处理装置执行,在三维显示器使显示进深感的对象移动,其中,包括如下步骤:检测对所显示的对象的接触状态;在对在进深方向的第一位置上显示的一个对象检测到双击操作时,使上述一个对象移动到上述三维显示器的显示画面的表面的位置并显示;使检测到对上述一个对象转变为接触状态的时刻的倾斜角度为0(零),取得由上述倾斜角度传感器检测的倾斜角度;将倾斜了与取得的倾斜角度正负相反的角度的对象在上述三维显示器上显示,使上述一个对象沿着上述倾斜角度移动并显示。
接着,为了达到上述目的,第十方案的装置,其以能够与三维触摸板数据进行通信的方式连接,使显示的对象在多个层之间移动,其中,包括:接触状态检测部,其检测对在第一层上显示的一个对象的接触状态;对象显示部,其在检测到对上述一个对象从接触状态转变到接近状态时,在到达比上述第一层更靠近前侧显示的第二层所显示的位置时,使上述一个对象移动到上述第二层上并显示。
第十一方案的装置是在第十方案中,上述对象显示部在检测到对上述一个对象再次从接近状态转变为接触状态时,在检测到转变为接触状态的时刻缩接触的层上,显示上述一个对象。
第十二方案的装置是在第十或第十一方案中,包括:计时部,其对自检测到对上述一个对象转变为接近状态的时刻起的时间进行计时;判断部,其判断自开始计时起是否经过了预定时间,上述对象显示部在通过该判断部判断为经过了预定时间时,使上述一个对象返回在检测到转变为接近状态的时刻所显示的位置并显示。
接着,为了达到上述目的,第十三方案的装置,其以能够与三维触摸板数据通信的方式连接,在三维显示器使显示进深感的对象移动,其中,包括:接触状态检测部,其检测对所显示的对象的接触状态;对象显示部,其在对在进深方向的第一位置显示的一个对象检测到双击操作时,使上述一个对象移动到上述三维显示器的显示画面的表面的位置并显示,上述对象显示部在检测到对上述一个对象从接触状态转变为接近状态时,将显示上述一个对象的位置变更为所显示的对象中的、在进深方向的最靠近近前侧显示的对象所显示的位置并进行显示。
第十四方案的装置是在第十三方案中,上述对象显示部在检测到对上述一个对象再次从接近状态转变为接触状态时,将显示上述一个对象的位置变更为上述三维显示器的显示画面的表面的位置并予以显示。
第十五方案的装置是在第十四方案中,上述对象显示部在检测到对上述一个对象再次从接近状态转变为接触状态时,按与变更显示上述一个对象的位置的移动量相同的量,变更显示其他对象的位置并予以显示。
接着,为了达到上述目的,第十六方案的装置,其以能够与二维触摸板和检测该二维触摸板的倾斜角度的倾斜角度传感器进行数据通信的方式连接,使显示的对象在多个层之间移动,其中,包括:接触状态检测部,其检测对在第一层上显示的一个对象的接触状态;倾斜角度取得部,其使检测到对上述一个对象转变到接触状态的时刻的倾斜角度为0(零),取得由上述倾斜角度传感器检测的倾斜角度;对象显示部,在取得的倾斜角度从0(零)变为正值时,在沿着倾斜角度向高度高的方向拖动操作时,在到达在上述第一层的前面显示的第二层所显示的位置的时刻,使上述一个对象移动到上述第二层上来显示,在取得的倾斜角度从0(零)变为负值时,在沿着倾斜角度向高度低的方向拖动操作时,在到达在上述第一层的背面显示的第三层所显示的位置的时刻,使上述一个对象移动到上述第三的层上来显示。
第十七方案的装置是在第十六方案中,上述对象显示部在取得的倾斜角度再次返回0(零)时,在倾斜角度再次返回0(零)的时刻接触的层上,显示上述一个对象。
接着,为了达到上述目的,第十八方案的装置,其能够由以能与二维触摸板和检测该二维触摸板的倾斜角度的倾斜角度传感器进行数据通信的方式连接的信息处理装置执行其中,包括:接触状态检测部,其检测对所显示的对象的接触状态;对象显示部,其在对在进深方向的第一位置显示的一个对象检测到双击操作时,使上述一个对象移动到上述三维显示器的显示画面的表面的位置并显示;倾斜角度取得部,其使检测到对上述一个对象转变为接触状态的时刻的倾斜角度为0(零),取得由上述倾斜角度传感器检测的倾斜角度,上述对象显示部将倾斜了与取得的倾斜角度正负相反的角度的对象在上述三维显示器上显示,使上述一个对象沿着上述倾斜角度移动并显示。
根据本发明,不需使一系列的操作中断就能在所希望的相对位置显示所希望的对象。而且,在显示出进深感的三维触摸板中,能够容易修正对对象进行操作的手指的位置与所显示的对象位置的视觉偏差,能够没有不协调感地进行操作。
附图说明
图1是表示本发明实施方式1的信息处理装置的结构的框图。
图2是示意表示本发明实施方式1的三维触摸板的结构的框图。
图3是表示本发明实施方式1的信息处理装置的功能框图。
图4是表示本发明实施方式1的信息处理装置的CPU的处理步骤的流程图。
图5是表示本发明实施方式1的三维触摸板显示状态的示意图。
图6是表示以往的三维触摸板的对象的移动状态的示意图。
图7是表示本发明实施方式1的三维触摸板拖动操作的状态的示意图。
图8是表示本发明实施方式1的三维触摸板的接近拖动解除时对象的移动的示意图。
图9是表示本发明实施方式2的信息处理装置的结构的框图。
图10是表示本发明实施方式2的信息处理装置的CPU的处理步骤的流程图。
图11是表示本发明实施方式2的三维触摸板显示状态的示意图。
图12是表示本发明实施方式2的三维触摸板的操作例的示意图。
图13是本发明实施方式2的三维触摸板的由拖动操作导致的对象移动的示意图。
图14是表示本发明实施方式3的信息处理装置的结构的框图
图15是表示本发明实施方式3的信息处理装置的倾斜角度传感器的概略结构的示意图。
图16是表示本发明实施方式3的信息处理装置的功能框图。
图17是表示本发明实施方式3的信息处理装置的CPU的处理步骤的流程图。
图18是表示本发明实施方式3的二维触摸板的拖动操作的状态的示意图。
图19是表示本发明实施方式4的信息处理装置的结构的框图
图20是表示本发明实施方式4的信息处理装置的CPU的处理步骤的流程图。
图21是表示本发明实施方式4的二维触摸板的操作例的示意图。
图22是表示本发明实施方式4的二维触摸板的对象移动例的示意图。
图23是表示本发明实施方式4的二维触摸板的对象移动例的示意图。
图24是表示本发明实施方式4的三维显示器的对象显示例的示意图。
具体实施方式
以下,基于附图具体说明本发明实施方式的以可与三维触摸板进行数据通信的方式连接而成的、使所显示的对象在多个层之间移动的装置,或使显示有进深感的对象移动的装置。当然,以下的实施方式并不限定权利要求书记载的方案,实施方式中说明的特征事项的组合并不一定全部是解决方案的必要特征。
此外,本发明可由多个不同的方式实施,不应限于解释实施方式的记载内容。在实施方式中对相同要素标记相同的标号。
在以下的实施方式中,说明了在计算机系统导入了计算机程序的装置,但对于本领域技术人员而言显而易见,本发明也可作为可用计算机执行一部分的计算机程序来实施。因此,本发明可采用作为以可与三维触摸板数据通信的方式连接而成的、使所显示的对象在多个层间移动的装置、或使显示有进深感的对象移动的装置这样硬件的实施方式、作为软件的实施方式、或作为软件和硬件的结合的实施方式。计算机程序可以记录在硬盘、DVD、CD、光存储装置、磁存储装置等任意的可由计算机读取的存储介质
根据本发明的实施方式,不需使一系列的操作中断就能在所希望的相对位置显示所希望的对象。而且,在显示出进深感的三维触摸板中,能够容易修正对对象进行操作的手指的位置与所显示的对象位置的视觉偏差,能够没有不协调感地进行操作。
(实施方式1)
图1是表示本发明实施方式1的信息处理装置的结构的框图。本发明的实施方式1的信息处理装置1至少包括CPU(中央运算装置)11、存储器12、存储装置13、I/O接口14、视频接口15、可移动式磁盘驱动器16、通信接口17及将上述硬件连接的内部总线18。
CPU11经由内部总线18与信息处理装置1的上述硬件各部连接,控制上述硬件各部的动作,并按照存储装置13中存储的计算机程序100执行各种软件的功能。存储器12由SRAM、SDRAM等易失性存储器构成,在执行计算机程序100时打开装入模块,存储在执行计算机程序100时发生的临时数据等。
存储装置13由内置的固定型存储装置(硬盘)、ROM等构成。存储装置13中存储的计算机程序100被可移动式磁盘驱动器16从记录了程序及数据等信息的DVD、CD-ROM等可移动式记录介质90下载,在执行时被从存储装置13向存储器12打开来执行。当然,也可以是从经由通信接口17连接的外部计算机下载的计算机程序。
通信接口17与内部总线18连接,可通过与因特网、LAN、WAN等外部网络连接,而与外部计算机等进行数据收发。
I/O接口14与三维触摸板21连接,接受数据的输入。视频接口15连接在同三维触摸板21成为一体的二维触摸板22上,显示预定的图像。用户用手指操作在二维显示器22显示的对象。
图2是表示本发明实施方式1的三维触摸板21的结构的框图。如图2所示,实施方式1的三维触摸板21至少包括:触摸板部(二维显示器)211、振荡电路41、检测位置控制电路42、运算电路43、X轴输入侧开关44、Y轴输入侧开关45、X轴输出侧开关46、Y轴输出侧开关47、控制电路48。
触摸板部211是将用于检测X轴方向的位置的X轴电极线、用于检测Y轴方向的位置的Y轴电极线配置成矩阵状的触摸板。振荡电路41是产生脉冲信号的振荡电路。检测位置控制电路42是控制将触摸板部211的X轴电极线或Y轴电极线中的哪个电极线连接的控制电路。
运算电路43是检测来自触摸板部211的信号,运算手指的接触位置或接近位置的电路。X轴输入侧开关44是用于向X轴电极线的输入端输入脉冲信号的开关,Y轴输入侧开关45是用于向Y轴电极线的输入端输入脉冲信号的开关。X轴输出侧开关46是用于将X轴电极线的输出端与运算电路43连接的开关,Y轴输出侧开关47是用于将Y轴电极线的输出端与运算电路43连接的开关。
控制电路48控制三维触摸板21的整体工作,并对检测位置控制电路42指示在连接预定条数的多个电极的状态下检测手指的接触位置或接近位置。在进行位置检测时,进行如下指示:做成为单独连接所检测的位置附近的电极,并连接了预定条数的其他电极的状态。
以下,说明以能够与上述结构的三维触摸板21数据通信的方式连接而成的、使所显示的对象在多个层间移动的装置的工作。图3是本发明实施方式1的信息处理装置1的功能框图。
在图3中,信息处理装置1的接触状态检测部101接收来自三维触摸板21的输出信号,基于输出信号而提取与显示的对象的位置信息、层信息、手指的接触状态相关的信息。与手指的接触状态相关的信息,指的是例如与手指为接触状态、为接近状态、为分离状态等相关的信息,能够以根据来自三维触摸板21的各传感器的输出信号进行判断。
对象显示部102根据与手指的接触状态相关的信息,变更对象的显示方法。例如,在检测到使在第一层上显示的一个对象从接触状态转变为接近状态时,在到达显示有比第一层显示得更靠近前侧的第二层的位置时,使一个对象在第二层上移动而显示。
此外,在再次检测到对于一个对象从接近状态转变为接触状态时,在检测到移至接触状态的时刻,在正在接触的层上显示一个对象。
计时部103对自检测到一个对象转变为接近状态的时刻起的时间进行计时。判断部104判断在计时部103开始计时后是否经过了预定时间。对象显示部102在判断部104判断开始计时后经过了预定时间时,使一个对象返回在检测到转变为接近状态的时刻所显示的位置并显示。在此,预定时间例如是100ms左右。
另外,在本实施方式1中,基于向接近状态转变起是否经过了预定时间来判断拖动操作完成,但并不特别限于此。例如,也可以基于从画面到手指的距离是否大于预定的距离,来判断拖动操作是否完成。此时,例如接近状态的与画面垂直方向的分辨率大多是256灰度,因此可以基于是否大于预定的灰度,判断从画面到手指的距离是否大于预定的距离,即判断拖动操作是否完成。
图4是表示本发明实施方式1的信息处理装置1的CPU11的处理步骤的流程图。在图4中,在三维触摸板21设置二维显示器22,使对象在至少近前侧显示的前面层与背面层的2个层之间移动。图5是表示本发明的实施方式1的三维触摸板21的显示状态的示意图。
如图5所示,在背面层(第一层)51配置并显示对象53,用手指对对象53进行拖动操作(以下,称为“通常拖动”),从而将对象移动到前面层(第二层)52上。图6是表示以往的三维触摸板的对象53的移动状态的示意图。
如图6所示,用手指61通常拖动在背面层51上显示的对象53,将其移动到前面层52上。此时,在以往的三维触摸板中,对象53无法移动到前面层52上,移动后的对象62与前面层52重合的部分显示前面层52,而不显示移动后的对象62。
因此,本实施方式1中,通过检测手指的接近状态,可以进行接近状态下的拖动操作(以下,称为“接近拖动”)。即,在接近拖动中使对象53移动到前面层(第二层)52上时,在前面层52上显示移动后的对象62。
返回图4,信息处理装置1的CPU11接收来自三维触摸板21的输出信号(步骤S401),基于接收的输出信号,判断是否是手指与显示在第一层上的对象接触的接触状态(步骤S402)。CPU11在判断为不是接触状态时(步骤S402:否),CPU11为等待装置直到成为接触状态。
CPU11在判断为是接触状态时(步骤S4021:是),CPU11判断开始了通常拖动,判断是否转变为接近状态(步骤S403)。CPU11在判断为未转变为接近状态时(步骤S403:否),CPU11成为向接近状态转变的等待状态。
CPU11在判断为转变为接近状态时(步骤S403:是),CPU11判断开始了接近拖动,用内置的计时器等开始计时(步骤S404),判断是否经过了预定时间(步骤S405)。CPU11在判断为未经过预定时间时(步骤S405:否),CPU11判断是否接近拖动到第二层显示的位置(步骤S407)。CPU11在判断为未接近拖动到第二层显示的位置时(步骤S407:否),CPU11成为等待状态。
CPU11在判断为接近拖动到第二层显示的位置时(步骤S407:是),CPU11在第二层上显示对象(步骤S408),判断是否再次转变为接触状态(步骤S409)。CPU11在判断为未再次转变时(步骤S409:否),CPU11成为再次转变的等待状态。
CPU11判断为已再次转变时(步骤S409:是),CPU11判断是否返回通常拖动,在检测到转变为接触状态的时刻在接触的层上显示对象(步骤S410)。图7是表示本发明实施方式1的三维触摸板21的拖动操作的状态的示意图。图7的(a)是本发明实施方式1的三维触摸板21的利用拖动操作进行的对象移动的示意图,图7的(b)是本发明实施方式1的三维触摸板21的实际拖动操作的示意图。
如图7的(a)所示,首先在区间71进行通常拖动,在低位层(第一层)75上使对象53移动。接着在区间72进行接近拖动。在接近拖动中达到高位层(第二层)74时(已到达时),使对象53在高位层(第二层)74上移动。并且,在区间73返回通常拖动时,在高位层(第二层)74上使对象53移动。
另外,对象53在最初高位层74上移动,在接近拖动中达到低位层75时(以到达时),与图7相反地使对象53在低位层75上移动。然后,返回通常拖动时,使对象53向低位层75上移动。
用户手指的实际动作示于图7的(b)。如图7的(b)所示,用户首先用手指接触作为移动目标的对象,不会直接离开三维触摸板21的表面而是利用通常拖动使对象移动(区间71)。接着,接近其他的层,在要使对象移动到接近的层上时,将手指从三维触摸板21的表面离开,进行接近拖动(区间72)。然后,在其他的层上,再次使手指接触三维触摸板21的表面而返回通常拖动,能够使对象在其他的层上移动(区间73)。
返回图4,信息处理装置1的CPU11在判断为经过了预定时间时(步骤S405:是),CPU71返回在检测到转变为接近状态的时刻所显示的位置而显示对象(步骤S406)。图8是表示本发明实施方式1的三维触摸板21的接近拖动解除时对象的移动的示意图。
首先,对象53通过通常拖动在背面层51上移动,在对象53移动到位置81的时刻开始接近拖动。此时,在预定时间内从接近状态未转变到接触状态时,即从接近拖动未返回通常拖动时,CPU11判断为不是接近拖动,使对象53返回在检测到转变为接近状态的时刻显示的位置81而进行显示。
如上所述,根据本实施方式1,通过组合接近拖动,不需使一系列的操作中断,就能使所希望的对象移动以在所希望的层上显示。
(实施方式2)
图9是表示本发明实施方式2的信息处理装置1的结构的框图。本实施方式2的信息处理装置1的结构与实施方式1相同,因此标注相同标号,省略详细说明。本实施方式2中,利用拖动操作使在使用三维显示器而具有进深感的显示画面上的对象移动这一点与实施方式1不同。
即I/O接口14与实施方式1同样地与三维触摸板21连接,接受数据的输入。另外,视频接口15与实施方式1不同,连接在同三维触摸板21成为一体的三维显示器23连接,显示具有进深感的三维图像。用户用手指操作三维显示器23上显示的对象。
以下,说明上述结构的以能够与三维触摸板21数据通信的方式连接而成的、使显示的对象移动的装置的工作。实施方式2的信息处理装置1的功能框图与实施方式1相同,但接触状态检测部101、对象显示部102的功能不同。
即,信息处理装置1的接触状态检测部101接收来自三维触摸板21的输出信号,基于输出信号提取与所显示的对象的位置信息、进深信息、手指的接触状态相关的信息。进深信息是指与在三维显示器23显示的对象的进深方向的位置相关的信息,与手指的接触状态相关的信息,除了例如手指为接触状态、为接近状态、为分离状态等相关的信息之外,还包括与是否进行了双击操作相关的信息。
对象显示部102根据与手指的接触状态相关的信息变更对象的显示方法。例如,在检测到双击操作时,无论作为对象的一个对象在进深方向的哪个位置显示,都移动到三维显示器23的显示画面的表面位置来显示。并且,在检测到使在三维显示器23的显示画面的表面位置显示的一个对象从接触状态转变为接近状态时,将显示一个对象的位置变更为显示在所显示的对象中的、在进深方向的最靠近近前侧显示的对象所显示的位置并予以显示。
此外,在检测到一个对象从接近状态再次转变为接触状态时,将显示一个对象的位置变更为显示在三维显示器23的显示画面的表面位置。同时,按沿进深方向变更显示一个对象的位置的移动量,变更显示其他对象的进深方向位置地进行显示。由此,在进行通常拖动时,能够总是在三维显示器23的显示画面的表面显示作为目标的对象,在进行接近拖动时,能够在显示于进深方向的最靠近近前侧的对象所显示的位置,显示一个对象。因此,能够减轻实际的手指的操作感觉与在显示画面显示的对象的进深方向的位置之间的视觉上不协调感。
图10是表示本发明实施方式2的信息处理装置1的CPU11的处理步骤的流程图。图10中,在三维触摸板21设有三维显示器23,显示具有进深感的画面。并且,减轻所显示的对象的进深方向位置与实际的手指的操作感觉之间的视觉上不协调感地使对象移动。图11是表示本发明实施方式2的三维触摸板21的显示状态的示意图。
如图11所示,在使三维触摸板21的进深方向为Z轴方向时,手指的位置总是在三维显示器23的显示画面的表面的位置111上,与此相对,所显示的对象112、113偏离Z轴方向。因此,例如对象112即使未接触手指也能够操作,而对象113则是手指不穿过就无法操作。
因此,本实施方式2中,通过检测手指的双击操作,使对象移动到三维显示器23的显示画面的表面的位置111。通过这样做,能够使用户一边总是目视确认哪一对象是成为以后的操作目标的对象一边进行操作。
返回图10,信息处理装置1的CPU11接收来自三维触摸板21的输出信号(步骤S1001),基于接收的输出信号,判断对所显示的对象是否有手指进行了双击操作(步骤S1002)。
CPU11在判断为未进行双击操作时(步骤S1002:否),CPU11成为双击操作等待状态。CPU11在判断为进行了双击操作时(步骤S1002:是),CPU11判断为处于通常拖动中,使一个对象移动到三维显示器23的显示画面的表面的位置而显示(步骤S1003)。图12是表示本发明的实施方式2的三维触摸板21的操作例的示意图。
如图12所示,在使三维触摸板21的进深方向为Z轴方向时,在例如图11所示的对象112上进行双击操作,从而即使手指不接触也能进行操作的对象112移动到三维显示器23的显示画面的表面的位置111,能够以用手指直接操作对象112的感觉进行操作。
同样,通过在手指不穿过则无法操作的对象113上进行双击操作,对象113被移动到三维显示器23的显示画面的表面的位置111,能够以由手指直接操作对象113的感觉进行操作。
返回图10,信息处理装置1的CPU11判断是手指接触所显示的对象的接触状态,判断是否转变为接近状态(步骤S1004)。CPU11在判断为未转变为接近状态时(步骤S1004:否),CPU11成为等待向接近状态转变的等待状态。CPU11判断为已转变为接近状态时(步骤S1004:是),CPU11判断已开始接近拖动,在与最靠近近前侧显示的对象相同的进深方向位置、即相同的Z轴方向的位置显示成为接近拖动目标的对象(步骤S1005),判断是否再次转变为接触状态(步骤S1006)。CPU11判断为未再次转变时(步骤S1006:否),CPU11成为再次转变的等待状态。
CPU11判断为已再次转变时(步骤S1006:是),CPU11判断为返回通常拖动,使一个对象移动到三维显示器23的显示画面的表面的位置而显示(步骤S1007)。CPU11使其他的对象也移动与步骤S1007的移动量相同的量地进行显示(步骤S1008)。图13是本发明实施方式2的三维触摸板21的利用拖动操作的对象移动的示意图。
首先,在区间121进行通常拖动,在三维显示器23的显示画面的比表面位置111更靠里侧的位置使对象112移动。另外,通过进行双击操作,从而在使一个对象113向三维显示器23的显示画面的表面位置111移动而显示后进行通常拖动。
接着在区间122进行接近拖动。通过进行接近拖动,对象113在与最靠近近前侧显示的对象相同的进深方向位置、即相同的Z轴方向的位置显示。因此,用户随着将手指从近前侧离开(提起)的动作,能够得到对象113被向近前侧拉起这样的操作感觉。然后,在区间123返回通常拖动时,即用户将手指再次接触三维显示器23的显示画面的表面时,使一个对象113从与在最靠近近前侧显示的对象相同的进深方向的位置向三维显示器23的显示画面的表面的位置111移动而显示。
此时,采用使对象113从与在最靠近近前侧显示的对象相同进深方向的位置向三维显示器23的显示画面的表面的位置111移动的移动量ΔZ,使一个对象113以外的其他对象移动而显示。由此,能够事先防止由于因操作使对象移动导致产生进深方向的距离感。
如上所述,根据本实施方式2,通过组合双击操作、接近拖动,不需中断一系列操作,就能自然地将对所希望的对象的操作感觉和实际手指的操作感觉链接,能够减轻视觉上的不协调感。
(实施方式3)
图14是表示本发明实施方式3的信息处理装置的结构的框图。信息处理装置1的结构与实施方式1相同,标记相同的符号而省略详细说明。在本实施方式3中,通过使用二维显示器和倾斜角度传感器,从而不需中断一系列操作,就能利用拖动操作移动使得所希望的对象在所希望的层上显示,这一点与实施方式1及2不同。
在图14中,I/O接口14与二维触摸板24连接,接受数据的输入。此外,视频接口15与实施方式1不同,连接在同二维触摸板24成为一体的二维显示器25上,显示预定的图像。用户用手指操作在二维显示器25显示的对象。
此外,倾斜角度传感器30与内部总线18连接,能够检测拖动操作时的二维触摸板24的倾斜角度。可以根据倾斜角度,将成为拖动操作对象的一个对象移动到所希望的层上显示。
倾斜角度传感器30是一种加速度传感器,是以测量加速度为目的的惯性传感器。本实施方式3中,使用静电电容型加速度传感器。当然,也可以是使用其他的检测原理的传感器。图15是表示本发明的实施方式3的信息处理装置1的倾斜角度传感器30的概略结构的示意图。
如图15所示,倾斜角度传感器30由因加速度而动作的可动部301、限制可动部301的动作的4根弹簧302、用于利用可动部301的动作(移动距离)而产生静电电容变化的梳齿状的可动电极304、固定电极303构成。以1根可动电极304被2条固定电极303夹持的方式形成电极的单位格。
在对单位格的2条固定电极303施加分别反相的时钟信号时,在由于加速度使可动电极304接近某一方固定电极303时,在可动电极304产生与施加于接近的固定电极303的时钟信号同相的电荷变化。将产生的电荷变化放大,进行同步检波和整流,从而可得到与可动部301的移动距离、即加速度成正比的电压输出。本实施方式3中,测量重力作为加速度,计算倾斜角度传感器30的斜率。
以下,说明上述结构的以可与二维触摸板24数据通信的方式连接而成的、使所显示的对象在多个层之间移动的装置的工作。图16是本发明实施方式3的信息处理装置1的功能框图。
在图16中,信息处理装置1的接触状态检测部101接收来自二维触摸板24的输出信号,根据输出信号提取与所显示的对象的位置信息、层信息、手指的接触状态相关的信息。与手指的接触状态的信息是与例如手指为接触状态、为接近状态、为分离状态等相关的信息,可根据来自二维触摸板24的各传感器的输出信号来判断。
倾斜角度取得部105接收来自倾斜角度传感器30的输出信号,取得倾斜角度。
另外,倾斜角度传感器30将手指接触二维触摸板24的时刻(检测到对一个对象为接触状态的时刻)的倾斜角度为0(零),检测从此起的倾斜角度,判断正负。通过这样做,即使在使二维触摸板24最初倾斜地使用该二维触摸板24时,也能使所希望的对象移动到所希望的层上显示。
对象显示部102根据与手指的接触状态相关的信息及倾斜角度,变更对象的显示方法。例如,在对于第一层上显示的一个对象为接触状态时,并取得正的倾斜角度时,在到达在第一层的近前侧显示的第二层所显示的位置时,使一个对象移动到第二层上显示。
相反,在对第一层上显示的一个对象为接触状态时,并取得负的倾斜角度时,在到达在第一层的里侧显示的第三层所显示的位置时,使一个对象移动到第三层上显示。
图17是表示本发明实施方式3的信息处理装置1的CPU11的处理步骤的流程图。图17中,在二维触摸板24设有二维显示器25,使对象至少在近前侧显示的前面层与背面层这两个层之间移动。
如图17所示,信息处理装置1的CPU11接收来自二维触摸板24的输出信号(步骤S1701),基于接收的输出信号,判断是否是手指接触在第一层上显示的对象的接触状态(步骤S1702)。CPU11在判断为不是接触状态时(步骤S1702:否),CPU11成为等待状态直到成为接触状态。
CPU11在判断为是接触状态时(步骤S1702:是),CPU11判断开始了通常拖动,从倾斜角度传感器30取得倾斜角度(步骤S 1703)。CPU11判断所取得的倾斜角度是否为正(步骤S1704),在判断为倾斜角度是正时(步骤S1704:是),CPU11在到达在第一层的近前侧显示的第二层所显示的位置时,在第二层上显示对象(步骤S1705)。
CPU11在判断为倾斜角度不是正时(步骤S1704:否),CPU11在到达在第一层的里侧显示的第三层所显示的位置时,在第三层上显示对象(步骤S1706)。CPU11判断倾斜角度是否再次返回0(零)(步骤S1707)。
CPU11判断为倾斜角度未再次返回0(零)时(步骤S1707:否),CPU11判断手指是否从二维触摸板24的表面离开(步骤S1708)。CPU11在判断为手指未离开时(步骤S1708:否),CPU11使处理返回步骤S1707,反复进行上述的处理。CPU11在判断为倾斜角度再次返回0(零)时(步骤S1707:是),或CPU11判断为手指已离开时(步骤S1708:是),CPU11在判断为倾斜角度再次返回0(零)的时刻接触的层上显示对象(步骤S1709)。
图18是表示本发明的实施方式3的二维触摸板24的拖动操作的状态的示意图。图18的(a)是本发明的实施方式3的二维触摸板24的利用拖动操作的对象移动的示意图,图18的(b)是本发明实施方式3的二维触摸板24的实际拖动操作的示意图。
如图18的(a)所示,首先在区间181进行通常拖动,在低位层(第一层)185上使对象183移动。接着在区间182使二维触摸板24自身倾斜而进行通常拖动。由于倾斜角度是正,因此在达到高位层(第二层)184时,对象183在高位层(第二层)184上移动。此外,在倾斜角度为负时,在达到低位层185里侧的第三层时,对象183在第三层上移动。
用户的手指的实际动作如图18的(b)所示。如图18的(b)所示,用户首先用手指接触作为移动目标的对象,不会直接从二维触摸板24的表面离开而使通过通常拖动移动对象(区间181)。接着,接近其他层,在想要使对象移动到接近的层上时,使二维触摸板24向近前侧倾斜地进行通常拖动(区间182)。由此,实际通过使二维触摸板24倾斜,能够使对象移动到所希望的层上。
另外,作为来自二维触摸板24的输出信号,在取得例如与是接触状态、是接近状态、是分离状态等相关的信息时,手指与二维触摸板24之间的距离也能够通过静电压的变动而推算,因此也能推算手指动作的倾斜角度。因此,不使二维触摸板24倾斜,使手指的动作倾斜,就能起到同样的效果。
如上所述,根据本实施方式3,通过检测倾斜角度,不需中断一系列的操作就能使对象移动以使所希望的对象显示在所希望的层上。
(实施方式4)
图19是表示本发明实施方式4的信息处理装置的结构的框图。信息处理装置1的结构与实施方式1相同,因此标注相同标号而省略详细说明。本实施方式4中,通过使用三维显示器和倾斜角度传感器30,利用具有进深感的显示画面上的拖动操作,使对象变更高度地移动,这一点与实施方式1~3不同。
在图19中,I/O接口14与二维触摸板24连接,接受数据的输入。此外,与实施方式1不同,视频接口15连接在同二维触摸板24成为一体的三维显示器26,显示具有进深感的三维图像。用户用手指操作在三维显示器26显示的对象。
此外,倾斜角度传感器30与内部总线18连接,能够检测拖动操作时的倾斜角度。根据倾斜角度,能够使作为拖动操作的对象的一个对象移动到所希望的进深方向的位置而显示。
以下,说明上述结构的以可与二维触摸板24进行数据通信的方式连接而成的、使所显示的对象移动的装置的工作。实施方式4的信息处理装置1的功能框图与实施方式3相同,但接触状态检测部101、对象显示部102的功能不同。
即,信息处理装置1的接触状态检测部101接收来自二维触摸板24的输出信号,根据输出信号提取与所显示的对象的位置信息、进深信息、手指的接触状态相关的信息。进深信息是指与在三维显示器23显示的对象的进深方向的位置相关的信息,与手指的接触状态相关的信息,除了例如手指为接触状态、为接近状态、为分离状态等相关的信息之外,还包括与是否进行了双击操作相关的信息。
倾斜角度取得部105接收来自倾斜角度传感器30的输出信号,取得倾斜角度。
另外,倾斜角度传感器30将手指接触二维触摸板24的时刻的倾斜角度为0(零),检测自此起的倾斜角度来判断正负。通过这样做,即使使二维触摸板24从最初倾斜地使用该二维触摸板24,也能使作为拖动操作对象的一个对象移动到所希望的进深方向的位置来显示。
对象显示部102根据与手指的接触状态相关的信息及倾斜角度变更对象的显示方法。例如,在检测到双击操作时,无论作为对象的一个对象在进深方向的哪个位置显示,都移动到三维显示器26的显示画面的表面位置而显示。并且,在对于例如第一层上显示的一个对象为接触状态的情况下,取得正的倾斜角度时,显示以与所取得的倾斜角度正负相反的角度倾斜的对象。因此,即使二维触摸板24倾斜,用户看到三维显示器26上显示的对象也与最初显示的状态无变化。
图20是表示本发明实施方式4的信息处理装置1的CPU11的处理步骤的流程图。图20中,在二维触摸板24设有三维显示器26。并且,减轻了所显示的对象的进深方向的位置与实际的手指的操作感觉之间的视觉上不协调感地移动对象。
如图20所示,信息处理装置1的CPU11接收来自二维触摸板24的输出信号(步骤S2001),基于接收的输出信号,判断手指是否对所显示对象进行了双击操作(步骤S2002)。CPU11在判断为未进行双击操作时(步骤S2002:否),CPU11成为操作等待状态。
CPU11在判断为进行了双击操作时(步骤S2002:是),CPU11判断为进行通常拖动,使一个对象移动到三维显示器26的显示画面的表面位置来显示(步骤S2003)。图21是表示本发明的实施方式4的二维触摸板24的操作例的示意图。
如图21所示,在使二维触摸板24的进深方向为Z轴方向时,通过在例如图11所示的对象Y12上进行双击操作,从而即使手指不接触也能操作的对象112被移动到三维显示器26的显示画面的表面位置111,能够以用手指直接操作对象112的感觉进行操作。
返回图20,信息处理装置1的CPU11判断为开始了通常拖动,从倾斜角度传感器30取得倾斜角度(步骤S2004)。CPU11显示以与取得的倾斜角度正负相反的角度倾斜的对象(步骤S2005),继续通常拖动。CPU11使对象沿着所取得的倾斜角度移动而显示(步骤S2006)。
图22及图23是表示本发明的实施方式4的二维触摸板24的对象移动例的示意图。在使二维触摸板24倾斜时,三维显示器26的显示画面的表面111也倾斜。如图22的(b)所示,在倾斜角度θ>0(正)时,利用通常拖动将对象112沿着三维显示器26的显示画面的表面111移动,如图22的(a)所示,在移动到位于背面的原来的层221的近前侧的层、即前面的层222所显示的位置时,对象112显示为移动到前面的层222。此外,如图23的(b)所示,在倾斜角度θ<0(负)时,利用通常拖动使对象112沿着三维显示器26的显示画面的表面111移动,如图23的(a)所示,在移动到位于背面比原来的层221更靠里侧的层,即背面的层223所显示的位置时,对象112显示为移动到背面的层223。
图24是表示本发明的实施方式4的三维显示器26的对象显示例的示意图。如图24的(a)所示,在三维显示器26的下方显示由三维模型构成的对象241。
在该状态下使三维显示器26倾斜角度θ时,通常如图24的(b)所示,对象241也倾斜角度θ,三维显示器26的表面与对象241的位置关系不发生变化。
但是,在本实施方式4中,如图24的(c)所示,三维显示器26倾斜角度θ时,计算使对象241倾斜与倾斜角度θ相反的角度-θ的相对显示坐标值,显示在三维显示器26上。因此,即使在三维显示器26倾斜了角度θ时,也能被用户视认为对象241不倾斜地以当初的状态进行显示。
因此,在使二维触摸板24倾斜时,能够被用户视认为在三维显示器26上成为拖动操作目标的对象直接向对象241的高度方向移动,能够减轻视觉上不协调感。
如上所述,根据本实施方式4,通过组合双击操作、触摸板的倾斜,从而不需中断一系列的操作,就能自然地链接对所希望的对象的操作感觉和实际手指的操作感觉,能够减轻视觉上不协调感。
另外,本发明不限于上述实施例,只要在本发明的要旨范围内可进行多种变更、改进等。

Claims (18)

1.一种方法,其能够由以能与三维触摸板进行数据通信的方式连接的信息处理装置执行,使显示的对象在多个层之间移动,其中,包括如下步骤:
检测对在第一层上显示的一个对象的接触状态;
在检测到对上述一个对象从接触状态转变到接近状态时,在到达比上述第一层更靠近前侧显示的第二层所显示的位置时,使上述一个对象移动到上述第二层上并进行显示。
2.根据权利要求1所述的方法,其特征在于,
在检测到对上述一个对象再次从接近状态转变为接触状态时,在检测到转变为接触状态的时刻所接触的层上,显示上述一个对象。
3.根据权利要求1或2所述的方法,其特征在于,包括如下步骤:
对自检测到对上述一个对象转变为接近状态的时刻起的时间进行计时;
判断自开始计时起是否经过了预定时间;
在判断为经过了预定时间时,使上述一个对象返回到在检测出转变为接近状态的时刻所显示的位置并显示。
4.一种方法,其能够由以能与三维触摸板进行数据通信的方式连接的信息处理装置执行,在三维显示器使显示进深感的对象移动,其中,包括如下步骤:
检测对所显示的对象的接触状态;
当对在进深方向的第一位置上显示的一个对象检测到双击操作时,使上述一个对象移动到上述三维显示器的显示画面的表面的位置并显示;
在检测到对上述一个对象从接触状态转变为接近状态时,将显示上述一个对象的位置变更为:所显示的对象中的、在进深方向的最靠近前侧显示的对象所显示的位置并进行显示。
5.根据权利要求4所述的方法,其特征在于,
在检测到对上述一个对象再次从接近状态转变为接触状态时,将显示上述一个对象的位置变更为上述三维显示器的显示画面的表面的位置并予以显示。
6.根据权利要求5所述的方法,其特征在于,
在检测到对上述一个对象再次从接近状态转变为接触状态时,按与变更显示上述一个对象的位置的移动量相同的量,变更显示其他对象的位置并予以显示。
7.一种方法,其能够由以能与二维触摸板和检测该二维触摸板的倾斜角度的倾斜角度传感器进行数据通信的方式连接的信息处理装置执行,使显示的对象在多个层之间移动,其中,包括如下步骤:
检测对在第一层上显示的一个对象的接触状态;
使检测到对上述一个对象转变到接触状态的时刻的倾斜角度为0,取得由上述倾斜角度传感器检测到的倾斜角度;
在取得的倾斜角度从0变为正值时,在沿着倾斜角度向高度高的方向拖动操作时,在到达比上述第一层更靠前面显示的第二层所显示的位置的时刻,使上述一个对象移动到上述第二层上来显示;
在取得的倾斜角度从0变为负值时,在沿着倾斜角度向高度低的方向拖动操作时,在到达于上述第一层的背面显示的第三层所显示的位置的时刻,使上述一个对象移动到上述第三的层上来显示。
8.根据权利要求7所述的方法,其特征在于,
在取得的倾斜角度再次返回0时,在倾斜角度再次返回0的时刻所接触的层上,显示上述一个对象。
9.一种方法,其能够由以能与二维触摸板和检测该二维触摸板的倾斜角度的倾斜角度传感器进行数据通信的方式连接的信息处理装置执行,在三维显示器使显示进深感的对象移动,其中,包括如下步骤:
检测对所显示的对象的接触状态;
在对在进深方向的第一位置上显示的一个对象检测到双击操作时,使上述一个对象移动到上述三维显示器的显示画面的表面的位置并显示;
使检测到对上述一个对象转变为接触状态的时刻的倾斜角度为0,取得由上述倾斜角度传感器检测出的倾斜角度;
将倾斜了与所取得的倾斜角度正负相反的角度的对象在上述三维显示器上显示,使上述一个对象沿着上述倾斜角度移动并显示。
10.一种装置,其以能够与三维触摸板进行数据通信的方式连接,使显示的对象在多个层之间移动,其中,包括:
接触状态检测部,其检测对在第一层上显示的一个对象的接触状态;
对象显示部,其在检测到对上述一个对象从接触状态转变到接近状态时,在到达比上述第一层更靠近前侧显示的第二层所显示的位置时,使上述一个对象移动到上述第二层上并显示。
11.根据权利要求10所述的装置,其特征在于,
上述对象显示部在检测到对上述一个对象再次从接近状态转变为接触状态时,在检测到转变为接触状态的时刻所接触的层上,显示上述一个对象。
12.根据权利要求10或11所述的装置,其特征在于,包括:
计时部,其对自检测到对上述一个对象转变为接近状态的时刻起的时间进行计时;和
判断部,其判断自开始计时起是否经过了预定时间,
上述对象显示部在通过该判断部判断为经过了预定时间时,使上述一个对象返回在检测到转变为接近状态的时刻所显示的位置并显示。
13.一种装置,其以能够与三维触摸板数据通信的方式连接,在三维显示器使显示进深感的对象移动,其中,包括:
接触状态检测部,其检测对所显示的对象的接触状态;
对象显示部,其在对在进深方向的第一位置所显示的一个对象检测到双击操作时,使上述一个对象移动到上述三维显示器的显示画面的表面的位置并显示,
上述对象显示部在检测到对上述一个对象从接触状态转变为接近状态时,将显示上述一个对象的位置变更为:所显示的对象中的、在进深方向最靠近前侧显示的对象所显示的位置并进行显示。
14.根据权利要求13所述的装置,其特征在于,
上述对象显示部在检测到对上述一个对象再次从接近状态转变为接触状态时,将显示上述一个对象的位置变更为上述三维显示器的显示画面的表面的位置并予以显示。
15.根据权利要求14所述的装置,其特征在于,
上述对象显示部在检测到对上述一个对象再次从接近状态转变为接触状态时,按与变更显示上述一个对象的位置的移动量相同的量,变更显示其他对象的位置并予以显示。
16.一种装置,其以能够与二维触摸板和检测该二维触摸板的倾斜角度的倾斜角度传感器进行数据通信的方式连接,使显示的对象在多个层之间移动,其中,包括:
接触状态检测部,其检测对在第一层上显示的一个对象的接触状态;
倾斜角度取得部,其使检测到对上述一个对象转变到接触状态的时刻的倾斜角度为0,取得由上述倾斜角度传感器检测的倾斜角度;
对象显示部,在所取得的倾斜角度从0变为正值的情况下,在沿着倾斜角度向高度高的方向拖动操作时,在到达在上述第一层的前面显示的第二层所显示的位置的时刻,使上述一个对象移动到上述第二层上来显示,在取得的倾斜角度从0变为负值的情况下,在沿着倾斜角度向高度低的方向拖动操作时,在到达在上述第一层的背面显示的第三层所显示的位置的时刻,使上述一个对象移动到上述第三层上来显示。
17.根据权利要求16所述的装置,其特征在于,
上述对象显示部在所取得的倾斜角度再次返回0时,在倾斜角度再次返回0的时刻所接触的层上,显示上述一个对象。
18.一种装置,其以能够与二维触摸板和检测该二维触摸板的倾斜角度的倾斜角度传感器进行数据通信的方式连接,在三维显示器使显示进深感的对象移动,其中,包括:
接触状态检测部,其检测对所显示的对象的接触状态;
对象显示部,其在对在进深方向的第一位置显示的一个对象检测到双击操作时,使上述一个对象移动到上述三维显示器的显示画面的表面的位置并显示;
倾斜角度取得部,其使检测到对上述一个对象转变为接触状态的时刻的倾斜角度为0,取得由上述倾斜角度传感器检测的倾斜角度,
上述对象显示部将倾斜了与所取得的倾斜角度正负相反的角度的对象在上述三维显示器上显示,使上述一个对象沿着上述倾斜角度移动并显示。
CN201110343135.4A 2010-11-22 2011-10-27 通过触摸板上的拖动操作使对象移动的方法及装置 Active CN102479050B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-259804 2010-11-22
JP2010259804A JP5649169B2 (ja) 2010-11-22 2010-11-22 タッチパネルにおけるドラッグ操作でオブジェクトを移動させる方法、装置及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
CN102479050A true CN102479050A (zh) 2012-05-30
CN102479050B CN102479050B (zh) 2015-02-18

Family

ID=46063907

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201110343135.4A Active CN102479050B (zh) 2010-11-22 2011-10-27 通过触摸板上的拖动操作使对象移动的方法及装置

Country Status (4)

Country Link
US (7) US9041664B2 (zh)
JP (1) JP5649169B2 (zh)
KR (1) KR101783052B1 (zh)
CN (1) CN102479050B (zh)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5649169B2 (ja) 2010-11-22 2015-01-07 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation タッチパネルにおけるドラッグ操作でオブジェクトを移動させる方法、装置及びコンピュータプログラム
US9537848B2 (en) * 2011-07-07 2017-01-03 Bottomline Technologies, Inc. Application security system and method
US9229556B2 (en) * 2012-04-12 2016-01-05 Samsung Electronics Co., Ltd. Apparatus and method for sensing 3D object
JP5751233B2 (ja) * 2012-10-02 2015-07-22 株式会社デンソー 操作デバイス
US9886192B2 (en) * 2013-03-29 2018-02-06 Rakuten, Inc. Terminal device, control method for terminal device, program, and information storage medium
JP6476662B2 (ja) 2013-09-20 2019-03-06 株式会社デンソーウェーブ ロボット操作装置、ロボットシステム、及びロボット操作プログラム
KR20150091724A (ko) * 2014-02-03 2015-08-12 한국전자통신연구원 착용형 안경장치
JP6690265B2 (ja) * 2015-03-19 2020-04-28 株式会社デンソーウェーブ ロボット操作装置、ロボット操作方法
US11762989B2 (en) 2015-06-05 2023-09-19 Bottomline Technologies Inc. Securing electronic data by automatically destroying misdirected transmissions
US20170163664A1 (en) 2015-12-04 2017-06-08 Bottomline Technologies (De) Inc. Method to secure protected content on a mobile device
US11163955B2 (en) 2016-06-03 2021-11-02 Bottomline Technologies, Inc. Identifying non-exactly matching text
US10824293B2 (en) * 2017-05-08 2020-11-03 International Business Machines Corporation Finger direction based holographic object interaction from a distance
CN112286434B (zh) * 2017-10-16 2021-12-10 华为技术有限公司 一种悬浮按钮显示方法及终端设备
US11416713B1 (en) 2019-03-18 2022-08-16 Bottomline Technologies, Inc. Distributed predictive analytics data set
US11947791B2 (en) * 2019-05-06 2024-04-02 Apple Inc. Devices, methods, and systems for manipulating user interfaces
US11042555B1 (en) 2019-06-28 2021-06-22 Bottomline Technologies, Inc. Two step algorithm for non-exact matching of large datasets
US11269841B1 (en) 2019-10-17 2022-03-08 Bottomline Technologies, Inc. Method and apparatus for non-exact matching of addresses
US11449870B2 (en) 2020-08-05 2022-09-20 Bottomline Technologies Ltd. Fraud detection rule optimization
JP6957712B1 (ja) * 2020-10-08 2021-11-02 エヌエイチエヌ コーポレーション プログラムおよび視野制御方法
US11544798B1 (en) 2021-08-27 2023-01-03 Bottomline Technologies, Inc. Interactive animated user interface of a step-wise visual path of circles across a line for invoice management
US11694276B1 (en) 2021-08-27 2023-07-04 Bottomline Technologies, Inc. Process for automatically matching datasets

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1462416A (zh) * 2000-08-04 2003-12-17 动态数字视距研究有限公司 图像变换和编码技术
CN101308441A (zh) * 2004-10-12 2008-11-19 日本电信电话株式会社 三维显示控制方法和三维显示控制装置
CN101495951A (zh) * 2006-07-31 2009-07-29 索尼爱立信移动通讯有限公司 三维触摸板输入装置
CN101673179A (zh) * 2008-09-10 2010-03-17 Lg电子株式会社 移动终端和使用该移动终端的对象显示方法
US20100095206A1 (en) * 2008-10-13 2010-04-15 Lg Electronics Inc. Method for providing a user interface using three-dimensional gestures and an apparatus using the same

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10009A (en) * 1853-09-13 Cutting boots and shoes
JP3655529B2 (ja) 2000-03-30 2005-06-02 理想科学工業株式会社 孔版印刷装置
JP2003085590A (ja) * 2001-09-13 2003-03-20 Nippon Telegr & Teleph Corp <Ntt> 3次元情報操作方法およびその装置,3次元情報操作プログラムならびにそのプログラムの記録媒体
JP4049600B2 (ja) 2002-03-22 2008-02-20 旭化成ケミカルズ株式会社 造膜助剤及びこれを含有する水性組成物
US7847789B2 (en) 2004-11-23 2010-12-07 Microsoft Corporation Reducing accidental touch-sensitive device activation
CN101763005B (zh) 2007-04-18 2013-03-27 京瓷办公信息系统株式会社 操作装置以及图像形成装置
JP4950836B2 (ja) 2007-10-24 2012-06-13 富士フイルム株式会社 撮像装置およびその動作制御方法
JP2009183592A (ja) * 2008-02-08 2009-08-20 Ge Medical Systems Global Technology Co Llc 操作情報入力装置および超音波撮像装置
US8077157B2 (en) 2008-03-31 2011-12-13 Intel Corporation Device, system, and method of wireless transfer of files
JP5191863B2 (ja) 2008-10-30 2013-05-08 株式会社吉野工業所 薄肉注出容器
CN104298398A (zh) 2008-12-04 2015-01-21 三菱电机株式会社 显示输入装置
JP5218143B2 (ja) 2009-02-20 2013-06-26 日本電気株式会社 光送信装置及び光受信装置並びに光通信システム
WO2010098050A1 (ja) * 2009-02-25 2010-09-02 日本電気株式会社 電子機器のインターフェース、電子機器、並びに電子機器の操作方法、操作プログラム及び操作システム
JP5158606B2 (ja) * 2009-04-23 2013-03-06 Necカシオモバイルコミュニケーションズ株式会社 端末装置、表示方法、及びプログラム
JP5471137B2 (ja) 2009-08-05 2014-04-16 ソニー株式会社 表示装置、表示方法及びプログラム
KR101608532B1 (ko) * 2009-08-11 2016-04-01 엘지전자 주식회사 이동 통신 단말기에서의 데이터 표시방법 및 이를 적용한 이동 통신 단말기
US9104275B2 (en) 2009-10-20 2015-08-11 Lg Electronics Inc. Mobile terminal to display an object on a perceived 3D space
JP5768347B2 (ja) * 2010-09-07 2015-08-26 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
US9207859B2 (en) * 2010-09-14 2015-12-08 Lg Electronics Inc. Method and mobile terminal for displaying fixed objects independent of shifting background images on a touchscreen
JP5649169B2 (ja) 2010-11-22 2015-01-07 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation タッチパネルにおけるドラッグ操作でオブジェクトを移動させる方法、装置及びコンピュータプログラム
JP5786393B2 (ja) 2011-03-18 2015-09-30 株式会社村田製作所 水晶デバイスの製造方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1462416A (zh) * 2000-08-04 2003-12-17 动态数字视距研究有限公司 图像变换和编码技术
CN101308441A (zh) * 2004-10-12 2008-11-19 日本电信电话株式会社 三维显示控制方法和三维显示控制装置
CN101495951A (zh) * 2006-07-31 2009-07-29 索尼爱立信移动通讯有限公司 三维触摸板输入装置
CN101673179A (zh) * 2008-09-10 2010-03-17 Lg电子株式会社 移动终端和使用该移动终端的对象显示方法
US20100095206A1 (en) * 2008-10-13 2010-04-15 Lg Electronics Inc. Method for providing a user interface using three-dimensional gestures and an apparatus using the same

Also Published As

Publication number Publication date
JP2012113389A (ja) 2012-06-14
KR20120059369A (ko) 2012-06-08
KR101783052B1 (ko) 2017-10-23
US20150293692A1 (en) 2015-10-15
US20180150200A1 (en) 2018-05-31
US9041664B2 (en) 2015-05-26
US20190050127A1 (en) 2019-02-14
US9298359B2 (en) 2016-03-29
US20190324619A1 (en) 2019-10-24
US20150293658A1 (en) 2015-10-15
US10656821B2 (en) 2020-05-19
US20120127102A1 (en) 2012-05-24
US10140010B2 (en) 2018-11-27
US9875011B2 (en) 2018-01-23
US20150293657A1 (en) 2015-10-15
JP5649169B2 (ja) 2015-01-07
CN102479050B (zh) 2015-02-18
US10379727B2 (en) 2019-08-13
US9898181B2 (en) 2018-02-20

Similar Documents

Publication Publication Date Title
CN102479050B (zh) 通过触摸板上的拖动操作使对象移动的方法及装置
CN103502924B (zh) 移动信息终端及操作状态判定方法
CN101512461B (zh) 双面轨迹板
JP6109847B2 (ja) 3自由度以上を有するユーザインターフェースを伴う電子デバイスであって、前記ユーザインターフェースが、タッチセンサ式表面および非接触検出手段を含む、電子デバイス
US8400410B2 (en) Ferromagnetic user interfaces
CN109240587B (zh) 三维人机界面
CN202433853U (zh) 信息处理设备
CN103246370B (zh) 用于输入设备上的摇动和静态触摸对象检测的系统和方法
CN105190495A (zh) 基于电容感测的力测定
CN103502914A (zh) 移动信息终端以及配置区域取得方法
CN102109925A (zh) 触摸板设备、以及用于该设备的控制方法和程序
CN102375597A (zh) 信息处理装置、信息处理方法和计算机程序
CN102890558A (zh) 基于传感器检测移动手持设备手持运动状态的方法
CN105027058A (zh) 信息显示装置、信息显示方法以及信息显示程序
CN103026329A (zh) 用于控制用户界面的方法和装置
CN102346637A (zh) 信息处理装置、信息处理方法及计算机程序
CN107092434A (zh) 重叠目标选择方法及装置、存储介质、电子设备
WO2019070464A1 (en) SELECTIVE SCAN FOR TOUCH DISPLAY DEVICE
CN105474164A (zh) 间接输入的歧义消除
WO2014088158A1 (ko) 모바일 단말기의 터치 입력장치와 그 방법
KR101598807B1 (ko) 펜의 기울기를 측정하는 방법 및 그 디지타이저
CN105630364A (zh) 一种信息处理方法及电子设备
KR20150013472A (ko) 3d 입력을 제공하기 위한 방법 및 장치
CN104007849A (zh) 虚拟导航装置、导航方法及其电脑程式产品

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant