KR101739782B1 - 멀티 터치 단말에 사용되는 터치 제어 방법 및 설비 - Google Patents

멀티 터치 단말에 사용되는 터치 제어 방법 및 설비 Download PDF

Info

Publication number
KR101739782B1
KR101739782B1 KR1020147028782A KR20147028782A KR101739782B1 KR 101739782 B1 KR101739782 B1 KR 101739782B1 KR 1020147028782 A KR1020147028782 A KR 1020147028782A KR 20147028782 A KR20147028782 A KR 20147028782A KR 101739782 B1 KR101739782 B1 KR 101739782B1
Authority
KR
South Korea
Prior art keywords
touch
manipulation
button
user
touch button
Prior art date
Application number
KR1020147028782A
Other languages
English (en)
Other versions
KR20160023532A (ko
Inventor
신 리앙 마오
티안 웨이 주
얼 시 첸
Original Assignee
상하이 도우우 네트워크 테크놀로지 씨오.,엘티디
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=51598292&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=KR101739782(B1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by 상하이 도우우 네트워크 테크놀로지 씨오.,엘티디 filed Critical 상하이 도우우 네트워크 테크놀로지 씨오.,엘티디
Publication of KR20160023532A publication Critical patent/KR20160023532A/ko
Application granted granted Critical
Publication of KR101739782B1 publication Critical patent/KR101739782B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04892Arrangements for controlling cursor position based on codes indicative of cursor displacements from one discrete location to another, e.g. using cursor control keys associated to different directions or using the tab key
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/22Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory
    • G09G5/30Control of display attribute
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

본 발명은 멀티 터치 단말에 사용되는 터치 제어 방법 및 설비를 제공하는 것을 목적으로 한다. 터치 제어 설비는 사용자의 멀티 터치 단말의 터치 스크린 상에서의 제1 터치 버튼에 대한 제1 조작 및 제2 터치 버튼에 대한 제2 조작을 취득하며, 이어 상기 제1 조작에 대응되는 조작 실행 객체에 의하여 상기 제2 조작에 대응되는 객체 조작을 진행한다. 종래 기술에 비하여, 본 발명에서는 멀티 터치 스크린 상에서 두 개의 조작 버튼을 구현하는 것을 통하여 사용자로 하여금 더욱 복잡한 인간-컴퓨터 상호 작용을 진행하도록 하는 바, 예를 들면, 버튼 1을 통하여 캐릭터 방향과 이동을 선택하고, 버튼 2를 통하여 캐릭터가 실행할 수 있는 조작을 선택 및 실행하여, 멀티 터치 스크린의 조작 편리성 및 다양성을 향상시키고, 인간-컴퓨터 상호 작용 효율을 향상시키며, 사용자의 사용 체험을 향상시킨다.

Description

멀티 터치 단말에 사용되는 터치 제어 방법 및 설비{Method and Apparatus of Touch control for Multi-Point Touch Terminal}
본 발명은 컴퓨터 분야에 관한 것으로서, 특히 멀티 터치 단말에 사용되는 터치 제어 방법에 관한 것이다.
현재, 터치 스크린에 대한 조작은 일반적으로 싱글 터치 조작을 기반으로 하며, 그리고 종래의 멀티 터치 기술에 있어서도, 터치 조작을 진행하는 멀티 터치도 기본상 하나의 조작을 구성하는 바, 예를 들면, 특허문헌 1에 개시된 핸드폰의 슬라이딩 언록 조작이 있으며, 그러므로 복잡한 터치 조작을 진행할 수 없어 상호 작용성이 떨어지고 사용자 체험에 영향을 미친다.
한국공개특허공보 제2010-0005438호
본 발명은 멀티 터치 단말에 사용되는 터치 제어 방법 및 설비를 제공하는 것을 목적으로 한다.
본 발명의 일 방면에 의하면, 멀티 터치 단말에 사용되는 터치 제어 방법을 제공하는 바, 상기 발법에는,
a. 사용자의 멀티 터치 단말의 터치 스크린 상에서의 제1 터치 버튼에 대한 제1 조작 및 제2 터치 버튼에 대한 제2 조작을 취득하며;
b. 상기 제1 조작에 대응되는 조작 실행 객체에 의하여 상기 제2 조작에 대응되는 객체 조작을 진행하는; 것이 포함된다.
본 발명의 다른 일 방면에 의하면, 멀티 터치 단말에 사용되는 터치 제어 설비를 제공하는 바, 상기 설비에는,
사용자의 멀티 터치 단말의 터치 스크린 상에서의 제1 터치 버튼에 대한 제1 조작 및 제2 터치 버튼에 대한 제2 조작을 취득하는 제1 장치;
상기 제1 조작에 대응되는 조작 실행 객체에 의하여 상기 제2 조작에 대응되는 객체 조작을 진행하는 제2 장치;가 포함된다.
종래 기술에 비하여, 본 발명에서는 사용자의 멀티 터치 단말의 터치 스크린 상에서의 제1 터치 버튼에 대한 제1 조작 및 제2 터치 버튼에 대한 제2 조작을 취득한 후, 상기 제1 조작에 대응되는 조작 실행 객체에 의하여 상기 제2 조작에 대응되는 객체 조작을 진행하기 때문에, 멀티 터치 스크린 상에서 두 개의 조작 버튼을 구현하는 것을 통하여 사용자들이 더욱 복잡한 인간-컴퓨터 상호 작용을 진행하는 것을 지원하는 바, 예를 들면, 버튼1을 통하여 객체의 방향과 이동을 선택하고, 버튼2를 통하여 객체가 실행할 수 있는 조작을 선택 및 실행함으로써, 멀티 터치 스크린의 조작 편리성 및 다양성을 향상시키고, 인간-컴퓨터 상호 작용 효율을 향상시키며, 사용자의 사용 체험을 향상시킨다.
그리고, 본 발명에서는 또한 상기 사용자가 상기 터치 스크린의 목표 제어 구역을 터치하였는지 여부를 감지할 수 있으며, 만일 터치하였다면, 상기 제1 터치 버튼 또는 상기 제2 터치 버튼을 디스플레이하여 사용자로 하여금 조작을 진행할 수 있도록 하여, 인간-컴퓨터 상호 작용 제어의 정확성을 향상시켜, 나아가 멀티 터치 스크린의 조작 편리성 및 다양성을 향상시키고, 인간-컴퓨터 상호 작용 효율을 향상시키며, 사용자의 사용 체험을 향상시킨다.
그리고, 본 발명에서는 또한 상기 사용자가 상기 터치 스크린의 목표 제어 구역에 대한 터치를 정지하면, 상기 제1 터치 버튼 또는 상기 제2 터치 버튼을 숨기며; 또는 본 발명에서는 또한 상기 제1 터치 버튼 또는 상기 제2 터치 버튼의 상기 터치 스크린에서의 위치가 여러 가지 사전 설정된 조건에 대응되도록 하며; 이로써 화면이 더욱 친절하도록 하여 인간-컴퓨터 상호 작용 효율을 향상시키고, 사용자의 사용 체험을 향상시킨다.
그리고, 본 발명에서는 또한 상기 제1 조작을 통하여 상기 조작 실행 객체의 이동을 제어하며; 나아가, 상기 제2 조작에는 상기 객체 조작의 조작 작용 구역을 조절하고 또한 상기 제1 조작과 함께 여러 가지 조작을 실행하는 것을 포함하며; 이로써 복잡한 인간-컴퓨터 상호 작용에 대한 지원을 구현하고, 멀티 터치 스크린의 조작 편리성 및 다양성을 향상시키고, 인간-컴퓨터 상호 작용 효율을 향상시키며, 사용자의 사용 체험을 향상시킨다.
그리고, 본 발명에서는 상기 객체 조작이 실행 완료된 후, 상기 객체 조작에 대응되는 후속 조작을 실행하여, 전반적인 조작이 더욱 완전하도록 하며, 멀티 터치 스크린의 조작 편리성 및 다양성을 향상시키고, 인간-컴퓨터 상호 작용 효율을 향상시키며, 사용자의 사용 체험을 향상시킨다.
하기 도면을 참조한 비제한적 실시예에 대한 상세한 설명을 통하여, 본 발명의 기타 특징, 목적 및 장점은 더욱 명료해질 것이다.
도 1은 본 발명의 일 방면에 의한 멀티 터치 단말에 사용되는 터치 제어 설비 도면.
도 2는 본 발명의 일 바람직한 실시예에 의한 멀티 터치 단말에 사용되는 터치 제어 설비 도면.
도 3은 본 발명의 다른 일 방면에 의한 멀티 터치 단말에 사용되는 터치 제어 방법 흐름도.
도 4는 본 발명의 일 바람직한 실시예에 의한 멀티 터치 단말에 사용되는 터치 제어 방법 흐름도.
도 5 내지 도 7은 각각 본 발명의 일 바람직한 실시예에 의한 멀티 터치 단말에 사용되는 터치 스크린 도면.
도면 중에서, 동일하거나 유사한 참조 부호는 동일하거나 유사한 부품을 대표한다.
아래, 첨부된 도면을 참조하여 본 발명에 대하여 더억 상세한 설명을 진행하도록 한다.
도 1은 본 발명의 일 방면에 의한 멀티 터치 단말에 사용되는 터치 제어 설비 도면으로서, 그 중에서, 상기 터치 제어 설비에는 제1 장치(1), 제2 장치(2)가 포함된다. 구체적으로 말하면, 상기 제1 장치(1)는 사용자의 멀티 터치 단말의 터치 스크린 상에서의 제1 터치 버튼에 대한 제1 조작 및 제2 터치 버튼에 대한 제2 조작을 취득하며; 상기 제2 장치(2)는 상기 제1 조작에 대응되는 조작 실행 객체에 의하여 상기 제2 조작에 대응되는 객체 조작을 진행한다.
여기에서, 상기 터치 제어 설비에는 사용자 설비, 네트워크 설비 또는 사용자 설비와 네트워크 설비가 네트워크를 통하여 서로 연결되어 구성된 설비가 포함되나 이에 제한되지 않는다. 상기 사용자 설비에는 터치 패널을 통하여 사용자와 인간-컴퓨터 상호 작용을 진행할 수 있는 임의의 전자 제품, 예를 들면, 스마트폰, PAD 등이 포함되나 이에 제한되지 않으며, 상기 전자 제품은 임의의 운영 시스템을 사용할 수 있는 바, 예를 들면, android 운영 시스템, iOS 운영 시스템 등이 있다. 그 중에서, 상기 네트워크 설비에는 사전 설정되거나 저장된 명령에 따라 자동으로 수치 계산과 정보 처리를 진행하는 전자 설비가 포함되는 바, 이의 하드웨어에는 마이크로프로세서, 응용 주문형 집적 회로(ASIC), 필드 프로그램가능한 게이트 어레이(FPGA), 디지털 신호 처리기(DSP), 임베디드 설비 등이 포함되나 이에 제한되지 않는다. 상기 네트워크 설비에는 컴퓨터, 네트워크 호스트, 싱글 네트워크 서버, 다수의 네트워크 서버 클러스터 또는 다수의 서버로 구성된 클라우드가 포함되나 이에 제한되지 않으며; 여기에서, 클라우드는 클라우드 컴퓨팅(Cloud Computing) 기반의 대량의 컴퓨터 또는 네트워크 서버로 구성되며, 그 중에서, 클라우드 컴퓨팅은 분산 컴퓨팅의 일종으로서, 이는 느슨하게 결합된 컴퓨터 클러스터로 구성된 하나의 가상의 슈퍼 컴퓨터이다. 상기 네트워크에는 인터넷, 광역망, 도시 지역 통신망, 근거리 통신망, VPN 네트워크, 무선 자체 구성 네트워크(Ad Hoc 네트워크) 등이 포함되나 이에 제한되지 않는다. 당업계의 기술자들은 기타 터치 제어 설비도 마찬가지로 본 발명에 적용되고 본 발명의 보호 범위 내에 속하여야 하며, 여기에서 인용의 방식으로 본 발명에 포함됨을 이해하여야 할 것이다.
상기 각 장치 사이에서는 지속적으로 부단히 작업이 진행되는 것으로서, 여기에서, 당업계의 기술자들은 "지속적"이란 상기 각 장치가 각각 실시하거나 또는 설정되거나 또는 실시간 조절된 작업 모드 요구에 따라 제1 조작과 제2 조작의 취득, 조작의 실행 등을 진행하는 것이며, 상기 터치 제어 설비가 사용자의 멀티 터치 단말의 터치 스크린 상의 제1 터치 버튼의 제1 조작 및 제2 터치 버튼의 제2 조작에 대한 것을 취득하는 것을 정지하기까지 진행하는 것이라는 것을 이해하여야 할 것이다.
상기 제1 장치(1)는 사용자의 멀티 터치 단말의 터치 스크린 상에서의 제1 터치 버튼에 대한 제1 조작 및 제2 터치 버튼에 대한 제2 조작을 취득한다.
구체적으로 말하면, 상기 제1 장치(1)는 상기 멀티 포인트 터치 단말의 터치 스크린의 터치 감지 부품을 통하여 사용자의 상기 터치 스크린 상의 조작을 취득하며; 그 후, 상기 제1 장치(1)는 상기 조작의 위치와 터치 스크린 상의 제1 터치 버튼의 위치를 매칭시켜, 상기 제1 터치 버튼 위치에 부합되는 조작을 제1 조작으로 하며, 이와 유사하게, 상기 제1 장치(1)는 상기 조작의 위치와 터치 스크린 상의 제2 터치 버튼의 위치를 매칭시켜, 상기 제2 터치 버튼 위치에 부합되는 조작을 제2 조작으로 한다. 그 중에서, 상기 조작에는 클릭, 더블 클릭, 길게 누르기, 눌렀다 해제하기, 슬라이딩(여러 방향이 포함되나 이에 제한되지 않음), 회전 등이 포함되나 이에 제한되지 않는다.
도 5는 본 발명의 일 바람직한 실시예에 의한 멀티 터치 단말에 사용되는 터치 스크린 도면이다. 도 5에 도시된 바와 같이, 버튼 B가 바로 상기 제1 터치 버튼이고, 버튼 E가 바로 상기 제2 터치 버튼이다. 사용자가 버튼 B와 버튼 E 상에서 터치 조작을 진행할 때, 상기 제1 장치(1)는 상기 사용자의 멀티 터치 단말의 터치 스크린 상에서의 제1 터치 버튼에 대한 제1 조작 및 제2 터치 버튼에 대한 제2 조작을 취득한다.
여기에서, 상기 제1 터치 버튼과 상기 제2 터치 버튼의 위치, 이미지 등 설정 정보는 디폴트 설정에 의하여 확정할 수 있고, 사용자 또는 기타 조절 설정에 의하여 확정할 수 있으며, 또는 사용자의 특정 조작에 의하여 확정할 수 있는 바, 예를 들면, 사용자가 터치 스크린의 어느 한 위치에서 더블 클릭을 진행한다면, 해당 위치를 상기 제2 터치 버튼의 중심 위치로 확정하며, 상기 중심 위치에 대응되는 범위 구간은 디폴트 설정에 의하여 확정하거나(예를 들면, 사전 설정된 반경 범위), 또는 사용자의 기타 조작에 의하여 확정하는 등이다. 당업계의 기술자들은 상기 위치에는 터치 버튼의 중심 위치 및 이에 대응되는 범위 구간이 포함됨을 이해햐여야 할 것이다.
바람직하게는, 상기 제1 터치 버튼과 상기 제2 터치 버튼의 상기 터치 스크린 상의 위치는 하기 적어도 한 항에 대응된다.
- 상기 터치 스크린의 크기 속성, 그 중에서, 상기 크기 속성에는 가로/세로 길이, 가로/세로 비례 등이 포함되나 이에 제한되지 않는 바, 예를 들면, 상기 터치 스크린이 비교적 크다면 상기 제1 터치 버튼과 상기 제2 터치 버튼에 대응되는 범위가 비교적 크고, 만일 상기 터치 스크린이 비교적 작다면, 상기 제1 터치 버튼과 상기 제2 터치 버튼에 대응되는 범위도 비례적으로 감소되며, 만일 상기 터치 스크린의 가로/세로 비례가 4:3이라면, 대응되는 비례에 따라 터치 버튼의 위치와 크기를 설정하고, 만일 상기 터치 스크린의 가로/세로 비례가 16:9라면(와이드 스크린), 와이드 스크린에 대응되는 상응한 방식에 따라 터치 버튼의 위치와 크기를 설정하는 등이며;
- 상기 사용자가 상기 멀티 터치 단말을 파지한 상태 속성, 그 중에서, 상기 상태 속성에는 멀티 터치 단말의 파지 상태(한 손으로 파지, 두 손으로 파지, 가로/세로 방향으로 파지 등)이 포함되나 이에 제한되지 않으며; 예를 들면, 사용자가 상기 단말을 세로 방향 파지에서 가로 방향 파지로 전환시킬 때, 상기 터치 버튼의 배열이 스크린의 가로/세로 조절에 적응하는 등이며;
- 상기 터치의 현재 어플리케이션 상황 정보, 그 중에서, 상기 현재 어플리케이션에는 상기 터치 버튼에 대응되는 어플리케이션 또는 기타 어플리케이션이 포함되며; 예를 들면, 상기 터치 버튼에 대응되는 어플리케이션의 현재 화면 내용에 의하여 상기 터치 버튼의 위치를 조절하여 현재 화면 내용의 디스플레이에 영향을 미치지 않도록 하거나, 또는 예를 들면, 상기 터치 스크린에 현재 기타 어플리케이션이 존재한다면, 상기 터치 버튼의 위치와 해당 어플리케이션을 분리시켜 배열하여 기타 어플리케이션의 조작에 미치는 영향을 방지한다.
상기 제2 장치(2)는 상기 제1 조작에 대응되는 조작 실행 객체에 의하여 상기 제2 조작에 대응되는 객체 조작을 진행한다.
구체적으로 말하면, 상기 제2 장치(2)는 상기 제1 조작에 의하여, 상기 제1 터치 버튼의 설정을 기반으로 상기 제1 조작에 대응되는 조작 실행 객체를 확정한다. 예를 들면, 상기 제1 터치 버튼에 대응되는 위치 범위 내의 객체를 조작 실행 객체로 하며; 또는 사전 정의된 바인딩 설정에 의하여, 예를 들면, 상기 제1 터치 버튼을 터치할 때마다, 상기 제1 터치 버튼과 바인딩된 어느 한 사전 정의된 객체를 조작 실행 객체로 하며, 여기에서, 만일 사전 정의된 바인딩 설정을 이용한다면, 상기 사전 정의된 객체는 상기 터치 스크린의 임의 위치에 위치할 수 있고, 상기 제1 터치 버튼에 대응되는 위치 범위 내에 제한되지 않는다.
도 5를 예로 든다면, 물체 F가 상기 조작 실행 객체이며; 이어 상기 제2 장치(2)는 상기 제2 조작에 의하여, 상기 조작 실행 객체가 상기 제2 조작에 대응되는 객체 조작을 실행한다. 즉, 상기 조작 실행 객체가 상기 제2 조작에 대응되는 내용을 실행한다.
예를 들면, 상기 제2 조작이 "이동"이라면, 상기 물체 F가 해당 "이동" 조작을 실행하며; 만일 상기 제2 조작이 "기타 대상과 상호작용을 진행하는 것"이라면, 상기 물체 F가 해당 "상호 작용" 조작을 실행한다.
바람직하게는, 상기 제1 조작과 상기 제2 조작은 시간 순서 상에서 적어도 부분적으로 중첩된다.
구체적으로 말하면, 상기 제1 조작과 상기 제2 조작은 동시 조작되거나 또는 사전 설정된 역치 내에서 조작되며, 상기 제1 조작과 상기 제2 조작이 시간 순서 상에서 적어도 부분적으로 중첩될 때, 실행되는 조작은 상기 제1 조작, 상기 제2 조작, 상기 제1 조작과 상기 제2 조작의 결합 등 상기 한 항 또는 다수 항과 동일하거나 부동하다. 예를 들면, 만일 상기 제2 조작이 상기 제1 조작에 대응되는 조작 실행 객체로 하여금 어느 한 사전 설정된 범위 내에서 이동을 진행하도록 하는 것이라면, 상기 제1 조작과 상기 제2 조작이 시간 순서 상에서 적어도 부분적으로 중첩될 때, 대응되는 조작은 상기 제1 조작에 대응되는 조작 실행 객체로 하여금 다른 한 사전 설정된 범위 내에서 이동을 진행하도록 하는 것 등이다.
바람직하게는, 상기 제1 조작은 상기 조작 실행 객체의 이동을 제어하는데 이용될 수 있다.
구체적으로 말하면, 상기 제1 조작은 상기 조작 실행 객체를 확정하는데 이용되는 외, 또한 상기 조작 실행 객체를 임의의 각도로 사전 설정된 범위 내에서 이동시킬 수 있으며; 여기에서, 상기 사전 설정된 범위에는 상기 터치 스크린 내의 임의의 범위 또는 상기 제1 터치 버튼에 대응되는 범위가 포함되나 이에 제한되지 않는다.
예를 들면, 도 5에 도시된 바와 같이, 상기 제1 조작은 우선 상기 조작 실행 객체를 F로 확정하고, 이어 길게 누르고 드래깅하는 등 조작을 통하여 상게 객체 F로 하여금 스크린 내의 360° 내에서 이동하도록 제어한다.
여기에서, 당업계의 기술자들은 상기 제1 조작과 상기 제2 조작은 모두 상기 조작 실행 객체의 이동을 제어할 수 있으나, 상기 제1 조작을 이용하여 상기 조작 실행 객체의 이동을 제어하도록 하면, 나아가 상기 제2 터치 버튼과 상기 제2 조작을 자유롭게 하여 상기 제2 조작으로 하여금 더욱 복잡한 기능을 실행하게 할 수 있다는 것을 이해하여야 할 것이다.
더욱 바람직하게는, 상기 제2 조작에는 상기 객체 조작의 조작 작용 구역을 조절하는 것이 포함되며; 상기 제2 장치(2)는 상기 조작 실행 객체의 현재 위치의 상기 조작 작용 구역을 기반으로, 상기 조작 실행 객체에 의하여 상기 객체 조작을 실행한다.
구체적으로 말하면, 상기 제2 조작에는 또한 상기 객체 조작의 조작 작용 구역을 조절하는 것이 포함되는 바, 예를 들면, 상기 조작 작용 구역을 다른 크기, 다른 형상(예를 들면, 부채형, 원형, 정방형 또는 기타 형상)의 여러 가지 구역으로 설정하는 것이다. 여기에서, 예를 들면, 도 5에 도시된 상기 조작 작용 구역으로는 G를 반경으로 하는 구역이며; 도 6에 도시된 상기 조작 작용 구역은 J를 반경으로 하는 구역이며; 도 7에 도시된 상기 조작 작용 구역은 K를 반경으로 하는 부채형 구역 등이며;
그 후, 상기 제2 장치(2)는 상기 조작 실행 객체의 상기 조작 작용 구역 및 상기 조작 실행 객체의 현재 위치에 의하여 상기 객체 조작의 조작 실행 범위를 확정하며, 이어 조작 구역의 구역 범위 내에서 상기 조작 실행 객체가 상기 객체 조작을 실행한다. 예를 들면, 만일 상기 조작 작용 구역이 반경이 r인 동그라미이고, 또한 상기 조작 실행 객체의 현재 위치가 x라면, 상기 조작 실행 객체의 현재 위치의 상기 조작 작용 구역은 바로 x를 원심으로 하고, r을 반경으로 하는 원이며; 만일 상기 조작 실행 객체의 현재 위치가 y라면, 상기 조작 실행 객체의 현재 위치의 상기 조작 작용 구역은 바로 y를 원심으로 하고, r을 반경으로 하는 원이며; 그 후 만일 상기 객체 조작이 상기 조작 실행 객체를 조작하여 기타 목표 객체와의 상호 작용을 실행하는 것이라면, 만일 상기 객체 조작의 범위가 해당 조작 작용 구역 내에 있다면 대응되는 조작을 실행하고, 그렇지 않다면 대응되는 조작을 실행하지 않는다.
더욱 바람직하게는, 상기 제2 장치(2)는 상기 현재 위치을 기반으로 하는 상기 조작 작용 구역 내의 조작 작용 목표에 대하여, 상기 조작 실행 객체에 의하여 상기 객체 조작을 실행할 수 있다.
구체적으로 말하면, 상기 제2 장치(2)는 상기 현재 위치의 상기 조작 작용 구역을 취득하고, 상기 조작 작용 구역에 대응되는 조작 작용 목표를 확정할 수 있는 바, 예를 들면, 만일 상기 조작 작용 구역이 반경이 r인 동그라미이고, 또한 상기 조작 실행 객체의 현재 위치가 x라면, 상기 조작 실행 객체의 현재 위치의 상기 조작 작용 구역은 바로 x를 원심으로 하고, r을 반경으로 하는 원이며, 상기 제2 장치(2)는 해당 구역 내의 모든 목표 객체를 취득하여 상기 조작 작용 목표로 한다.
그 후, 상기 제2 장치(2)는 상기 조작 작용 목표에 대하여 상기 조작 실행 객체의 상기 객체 조작을 실행한다. 예를 들면, 만일 상기 조작 실행 객체가 하나의 이동 목표라면, 상기 조작 작용 구역은 바로 해당 이동 목표를 원심으로 하는 원이고, 이 조작 작용 구역이 한 주차장으로 이동하면, 상기 조작 작용 목표는 바로 해당 주차장 중의 모든 차량이며, 그 후, 상기 객체 조작은 바로 상기 조작 작용 목표의 관련 소개 정보를 취득하는 것이므로, 상기 제2 장치(2)는 모든 차량의 차량 소개 정보를 취득하게 된다.
여기에서, 당업계의 기술자들은 상기 객체 조작에 또한 여러 가지 상호 작용 정보, 즉 상기 조작 실행 객체 및 상기 조작 작용 목표의 상호 작용이 포함되는 바, 예를 들면, 상기 조작 실행 객체가 게임 인물이고, 상기 조작 작용 목표가 목적 공격 객체일 때, 상기 상호 작용에는 대화, 공격, 줍기 등이 포함되나 이에 제한되지 않음을 이해하여야 할 것이다.
더욱 바람직하게는, 상기 제2 조작에는 상기 객체 조작의 조작 작용 목표를 조절하는 것이 포함된다.
구체적으로 말하면, 사전 정의된 조작 로직을 기반으로, 상기 제2 조작이 상기 객체 조작의 조작 작용 목표를 조절하는 사전 정의된 하나 또는 다수의 조작 로직에 부합될 때, 상기 제2 조작은 상기 객체 조작의 조작 작용 목표를 조절하는데 이용된다.
예를 들면, 사전 설정된 방식 또는 기타 방식에 의하여 상기 객체 조작의 조작 작용 목표를 확정한 후, 만일 사용자가 사전 정의된 하나 또는 다수의 조작 시퀀스를 실행하였다면, 해당 시퀀스에 설정된 조작 로직에 따라 상기 객체 조작의 조작 작용 목표를 조절하며; 만일 사용자가 "터치 스크린 공백 구역 클릭-길게 누르고 위로 슬라이딩 하기"의 제2 조작을 실행하였다면, 이는 상기 제2 조작이 상기 객체 조작의 조작 작용 목표를 원래의 조작 작용 목표와 다른 기타 목표로 조절하였음을 뜻한다. 여기에서, 당업계의 기술자들은 상기 조작 시퀀스는 단지 예시적인 것이고 본 발명을 한정하는 것이 아니며, 기타 조작 시퀀스가 본 발명에 적용된다면 마찬가지로 상기 객체 조작의 조작 작용 목표를 조절하는데 이용될 수 있음을 이해하여야 할 것이다.
더욱 바람직하게는, 상기 터치 제어 설비에는 또한 제5 장치(미도시)가 포함되며, 그 중에서, 상기 제5 장치는 상기 조작 작용 구역을 조절하는 과정에서, 상기 조작 실행 객체의 현재 위치에 의하여 조절된 후의 상기 조작 작용 구역을 동기화 디스플레이한다.
구체적으로 말하면, 상기 제5 장치는 스크린 상에서 범위 경계선 또는 범위 구역을 디스플레이하는 등 방식을 통하여 상기 조작 작용 구역을 조절하는 과정에서, 상기 조작 실행 객체의 현재 위치에 의하여 조절된 후의 상기 조작 작용 구역을 동기화 디스플레한다. 상기 조작 실행 객체가 상기 조작 작용 구역 내에서 조작을 진행하면 조작에 성공하고, 반대로, 만일 상기 조작 실행 객체가 상기 조작 작용 구역 외부에서 조작을 진행하면, 상기 제5 장치는 상응한 통지 칼러 또는 통지 표기 등 정보를 디스플레이하는 것을 통하여 조작 불허를 통지한다.
바람직하게는, 상기 터치 제어 장치에는 또한 제6 장치(미도시)가 포함되며, 그 중에서, 상기 제6 자치는 상기 객체 조작을 실행 종료한 후, 상기 객체 조작에 대응되는 후속의 조작을 실행한다.
구체적으로 말하면, 상기 객체 조작을 실행 종료한 후, 상기 제6 장치는 디폴트 설정, 사용자의 선택 등 한 가지 또는 여러 가지 조건에 의하여, 상기 기 실행 종료된 객체 조작에 의하여 상기 객체 조작에 대응되는 후속 조작을 실행한다. 예를 들면, 기 실행 종료된 객체 조작이 목표 객체의 간략한 소개를 취득하는 것이라면, 후속 조작은 해당 목표 객체와 상호 작용(예를 들면, 대화)을 진행하는 것이다. 바람직하게는, 상기 후속 조작은 또한 상기 객체 조작을 실행 종료한 후의 사전 설정된 시간 역치 내에 실행되도록 설정할 수 있는 바, 예를 들면, 해당 역치 내에서 사용자가 선택 또는 확정 등 조작을 진행하면 계속하여 상기 후속 조작을 실행하고, 반대로, 만일 상기 역치를 초과하였으나 사용자가 아직 선택 또는 확정 등 조작을 진행하지 않으면, 상기 후속 조작의 실행을 정지시킨다.
당업계의 기술자들은 본 발명이 적용되는 어플리케이션 상황에 하기가 포함되나 이에 제한되지 않음을 이해하여야 할 것이다.
1) 인공지능 분야의 지능 에이전트, 예를 들면, agent(대리)를 기반으로 하는 일정 비서, 여행 비서 등이며, agent는 이에 대응되는 사용자가 상응한 조작을 진행하는 것을 뜻한다. 예를 들면, 제1 터치 버튼이 agent를 특정 구역으로 이동하고, 또한 해당 agent가 제2 터치 버튼을 통하여 호텔 검색, 예약, 기타 사용자와의 면담 약속 등 조작을 진행하는 것이다.
2) 네비게이션 어플리케이션을 포함하는 지지 정보 시스템 GIS, 예를 들면, 보행자, 대중교통 승객, 운전자 등 부동한 사용자 캐릭터 agent에 대하여 이로 하여금 상응한 조작을 하도록 지원한다. 예를 들면, 제1 터치 버튼이 agent를 특정 구역으로 이동하고, 또한 해당 agent가 제2 터치 버튼을 통하여 경로 조회 및 네비게이션, 친구 검색 및 약속 등 조작을 진행하는 것이다.
3) 게임 디자인 또는 응용 예를 들면, 종래의 멀티 터치 스크린을 기반으로 하는 조작에 있어서, 대부분 조작 목표의 동작 실행 방향은 해당 목표의 방향과 반드시 일치해야 한다. 때문에 해당 유형의 객체의 조작 디자인 상에서 제한성이 존재하며; 이에 비하여, 본 발명은 사용자 캐릭터 디지인과 사용자 조작 디자인이 병행되도록 할 수 있어, 디자인 효율을 향상시킬 수 있을 뿐 아니라 디자인 복잡성을 감소시키고, 디자인의 강인성을 향상시킬 수 있다.
도 2는 본 발명의 일 바람직한 실시예에 의한 멀티 터치 단말에 사용되는 터치 제어 설비 도면으로서, 그 중에서, 상기 터치 제어 설비에는 제1 장치(1'), 제2 장치(2'), 제3 장치(3')가 포함된다. 구체적으로 말하면, 상기 제3 장치(3')는 상기 사용자가 상기 터치 스크린의 목표 제어 구역을 터치하였는지 여부를 감지하며; 만일 터치하였다면, 상기 제1 터치 버튼 또는 상기 제2 터치 버튼을 디스플레이하여 상기 사용자로 하여금 조작을 진행하도록 하며; 상기 제1 장치(1')는 사용자의 멀티 터치 단말의 터치 스크린 상에서의 제1 터치 버튼에 대한 제1 조작 및 제2 터치 버튼에 대한 제2 조작을 취득하며; 상기 제2 장치(2')는 상기 제1 조작에 대응되는 조작 실행 객체에 의하여 상기 제2 조작에 대응되는 객체 조작을 진행한다.
그 중에서, 상기 제1 장치(1'), 제2 장치(2')는 도1에 도시된 대응되는 장치와 동일하거나 기본상 동일하기 때문에, 여기에서는 상세한 설명을 생략하며, 인용의 방식으로 여기에 포함시키도록 한다.
상기 각 장치 사이에서는 지속적으로 부단히 작업이 진행되는 것으로서, 여기에서, 당업계의 기술자들은 "지속적"이란 상기 각 장치가 각각 실시하거나 또는 설정되거나 또는 실시간 조절된 작업 모드 요구에 따라 목표 제어 구역을 터치하였는지 여부에 대한 감지, 제1 조작과 제2 조작의 취득, 조작의 실행 등을 진행하는 것이며, 상기 터치 제어 설비가 상기 사용자가 상기 터치 스크린의 목표 제어 구역을 터치하였는지 여부를 감지하는 것을 정지하기까지 진행하는 것이라는 것을 이해하여야 할 것이다.
상기 제3 장치(3')는 상기 사용자가 상기 터치 스크린의 목표 제어 구역을 터치하였는지 여부를 감지하며; 만일 터치하였다면, 상기 제1 터치 버튼 또는 상기 제2 터치 버튼을 디스플레이하여 상기 사용자로 하여금 조작을 진행하도록 한다.
구체적으로 말하면, 상기 제3 장치(3')는 상기 멀티 터치 단말의 터치 스크린의 터치 감지 부품을 통하여 상기 사용자가 상기 터치 스크린의 목표 제어 구역을 터치하였는지 여부를 감지하며; 여기에서, 상기 목표 제어 구역은 사전 정의된 고정 구역일 수도 있고, 상기 터치 스크린의 현재 어플리케이션 상황에 의하여 변화되는 구역일 수도 있다.
상기 사용자의 터치 조작이 상기 목표 제어 구역과 매칭된다면, 상기 제3 장치(3')는 매칭되는 구역에 의하여, 상기 제1 터치 버튼 또는 제2 터치 버튼을 디스플레이하며; 예를 들면, 상기 제1 버튼에 대응되는 목표 구역을 터치하면, 상기 제1 터치 버튼을 디스플레이하거나, 또는 동시에 상기 제1 터치 버튼과 상기 제2 터치 버튼을 디스플레이하여 사용자로 하여금을 조작을 진행하도록 한다. 여기에서, 상기 목표 제어 구역과 상기 제1 터치 버튼 및/또는 상기 제2 터치 버튼과 대응되는 구역은 중첩되거나 또는 중첩되지 않는다.
바람직하게는, 상기 멀티 터치 단말에는 또한 제4 장치(미도시)가 포함되며, 그 중에서, 상기 사용자가 상기 터치 스크린의 목표 제어 구역을 터치하는 것을 정지하면, 상기 제4 장치는 상기 제1 터치 버튼 또는 상기 제2 터치 버튼을 숨긴다.
구체적으로 말하면, 상기 사용자가 상기 터치 스크린의 목표 제어 구역을 터치하는 것을 정지하면, 즉 상기 사용자가 상기 터치 스크린을 터치하는 것을 정지하거나, 또는 상기 사용자의 터치 조작과 상기 목표 제어 구역이 매칭되지 않으면, 상기 제4 장치는 상기 목표 제어 구역에 대응되는 터치 버튼을 숨기며; 예를 들면, 상기 제3 장치가 이미 상기 제1 터치 버튼과 상기 제2 터치 버튼을 디스플레이하였고, 만일 상기 사용자 상기 제1 터치 버튼에 대응되는 목표 제어 구역을 더는 터치하지 않는다면, 상기 제4 장치는 상기 제1 터치 버튼을 숨기며, 이와 유사하게, 만일 상기 사용자 상기 제2 터치 버튼에 대응되는 목표 제어 구역을 더는 터치하지 않는다면, 상기 제4 장치는 상기 제2 터치 버튼을 숨긴다.
도 3은 본 발명의 다른 일 방면에 의한 멀티 터치 단말에 사용되는 터치 제어 방법 흐름도로서, 구체적으로 말하면, S1 단계에 있어서, 상기 터치 제어 설비는 사용자의 멀티 터치 단말의 터치 스크린 상에서의 제1 터치 버튼에 대한 제1 조작 및 제2 터치 버튼에 대한 제2 조작을 취득하며; S2 단계에 있어서, 상기 터치 제어 설비는 상기 제1 조작에 대응되는 조작 실행 객체에 의하여 상기 제2 조작에 대응되는 객체 조작을 진행한다.
상기 각 단계 사이에서는 지속적으로 부단히 작업이 진행되는 것으로서, 여기에서, 당업계의 기술자들은 "지속적"이란 상기 각 단계가 각각 실시하거나 또는 설정되거나 또는 실시간 조절된 작업 모드 요구에 따라 제1 조작과 제2 조작의 취득, 조작의 실행 등을 진행하는 것이며, 상기 터치 제어 설비가 사용자의 멀티 터치 단말의 터치 스크린 상의 제1 터치 버튼의 제1 조작 및 제2 터치 버튼의 제2 조작에 대한 것을 취득하는 것을 정지하기까지 진행하는 것이라는 것을 이해하여야 할 것이다.
S1 단계에 있어서, 상기 터치 제어 설비는 사용자의 멀티 터치 단말의 터치 스크린 상에서의 제1 터치 버튼에 대한 제1 조작 및 제2 터치 버튼에 대한 제2 조작을 취득한다.
구체적으로 말하면, S1 단계에 있어서, 상기 터치 제어 설비는 상기 멀티 포인트 터치 단말의 터치 스크린의 터치 감지 부품을 통하여 사용자의 상기 터치 스크린 상의 조작을 취득하며; 그 후, S1 단계에 있어서, 상기 터치 제어 설비는 상기 조작의 위치와 터치 스크린 상의 제1 터치 버튼의 위치를 매칭시켜, 상기 제1 터치 버튼 위치에 부합되는 조작을 제1 조작으로 하며, 이와 유사하게, S1 단계에 있어서, 상기 터치 제어 설비는 상기 조작의 위치와 터치 스크린 상의 제2 터치 버튼의 위치를 매칭시켜, 상기 제2 터치 버튼 위치에 부합되는 조작을 제2 조작으로 한다. 그 중에서, 상기 조작에는 클릭, 더블 클릭, 길게 누르기, 눌렀다 해제하기, 슬라이딩(여러 방향이 포함되나 이에 제한되지 않음) 등이 포함되나 이에 제한되지 않는다.
도 5는 본 발명의 일 바람직한 실시예에 의한 멀티 터치 단말에 사용되는 터치 스크린 도면이다. 도 5에 도시된 바와 같이, 버튼 B가 바로 상기 제1 터치 버튼이고, 버튼 E가 바로 상기 제2 터치 버튼이다. 사용자가 버튼 B와 버튼 E 상에서 터치 조작을 진행할 때, S1 단계에 있어서, 상기 터치 제어 설비는 상기 사용자의 멀티 터치 단말의 터치 스크린 상에서의 제1 터치 버튼에 대한 제1 조작 및 제2 터치 버튼에 대한 제2 조작을 취득한다.
여기에서, 상기 제1 터치 버튼과 상기 제2 터치 버튼의 위치, 이미지 등 설정 정보는 티폴트 설정에 의하여 확정할 수 있고, 사용자 또는 기타 조절 설정에 의하여 확정할 수 있으며, 또는 사용자의 특정 조작에 의하여 확정할 수 있는 바, 예를 들면, 사용자가 터치 스크린의 어느 한 위치에서 더블 클릭을 진행한다면, 해당 위치를 상기 제2 터치 버튼의 중심 위치로 확정하며, 상기 중심 위치에 대응되는 범위 구간은 디폴트 설정에 의하여 확정하거나(예를 들면, 사전 설정된 반경 범위), 또는 사용자의 기타 조작에 의하여 확정하는 등이다. 당업계의 기술자들은 상기 위치에는 터치 버튼의 중심 위치 및 이에 대응되는 범위 구간이 포함됨을 이해햐여야 할 것이다.
바람직하게는, 상기 제1 터치 버튼과 상기 제2 터치 버튼의 상기 터치 스크린 상의 위치는 하기 적어도 한 항에 대응된다.
- 상기 터치 스크린의 크기 속성, 그 중에서, 상기 크기 속성에는 가로/세로 길이, 가로/세로 비례 등이 포함되나 이에 제한되지 않는 바, 예를 들면, 상기 터치 스크린이 비교적 크다면 상기 제1 터치 버튼과 상기 제2 터치 버튼에 대응되는 범위가 비교적 크고, 만일 상기 터치 스크린이 비교적 작다면, 상기 제1 터치 버튼과 상기 제2 터치 버튼에 대응되는 범위도 비례적으로 감소되며, 만일 상기 터치 스크린의 가로/세로 비례가 4:3이라면, 대응되는 비례에 따라 터치 버튼의 위치와 크기를 설정하고, 만일 상기 터치 스크린의 가로/세로 비례가 16:9라면(와이드 스크린), 와이드 스크린에 대응되는 상응한 방식에 따라 터치 버튼의 위치와 크기를 설정하는 등이며;
- 상기 사용자가 상기 멀티 터치 단말을 파지한 상태 속성, 그 중에서, 상기 상태 속성에는 멀티 터치 단말의 파지 상태(한 손으로 파지, 두 손으로 파지, 가로/세로 방향으로 파지 등)이 포함되나 이에 제한되지 않으며; 예를 들면, 사용자가 상기 단말을 세로 방향 파지에서 가로 방향 파지로 전환시킬 때, 상기 터치 버튼의 배열이 스크린의 가로/세로 조절에 적응하는 등이며;
- 상기 터치의 현재 어플리케이션 상황 정보, 그 중에서, 상기 현재 어플리케이션에는 상기 터치 버튼에 대응되는 어플리케이션 또는 기타 어플리케이션이 포함되며; 예를 들면, 상기 터치 버튼에 대응되는 어플리케이션의 현재 화면 내용에 의하여 상기 터치 버튼의 위치를 조절하여 현재 화면 내용의 디스플레이에 영향을 미치지 않도록 하거나, 또는 예를 들면, 상기 터치 스크린에 현재 기타 어플리케이션이 존재한다면, 상기 터치 버튼의 위치와 해당 어플리케이션을 분리시켜 배열하여 기타 어플리케이션의 조작에 미치는 영향을 방지한다.
S2 단계에 있어서, 상기 터치 제어 설비는 상기 제1 조작에 대응되는 조작 실행 객체에 의하여 상기 제2 조작에 대응되는 객체 조작을 진행한다.
구체적으로 말하면, S2 단계에 있어서, 상기 터치 제어 설비는 상기 제1 조작에 의하여, 상기 제1 터치 버튼의 설정을 기반으로 상기 제1 조작에 대응되는 조작 실행 객체를 확정한다. 예를 들면, 상기 제1 터치 버튼에 대응되는 위치 범위 내의 객체를 조작 실행 객체로 하며; 또는 사전 정의된 바인딩 설정에 의하여, 예를 들면, 상기 제1 터치 버튼을 터치할 때마다, 상기 제1 터치 버튼과 바인딩된 어느 한 사전 정의된 객체를 조작 실행 객체로 하며, 여기에서, 만일 사전 정의된 바인딩 설정을 이용한다면, 상기 사전 정의된 객체는 상기 터치 스크린의 임의 위치에 위치할 수 있고, 상기 제1 터치 버튼에 대응되는 위치 범위 내에 제한되지 않는다.
도 5를 예로 든다면, 물체 F가 상기 조작 실행 객체이며; 이어 S2 단계에 있어서, 상기 터치 제어 설비는 상기 제2 조작에 의하여, 상기 조작 실행 객체가 상기 제2 조작에 대응되는 객체 조작을 실행한다. 즉, 상기 조작 실행 객체가 상기 제2 조작에 대응되는 내용을 실행한다.
예를 들면, 상기 제2 조작이 "이동"이라면, 상기 물체 F가 해당 "이동" 조작을 실행하며; 만일 상기 제2 조작이 "기타 대상과 상호작용을 진행하는 것"이라면, 상기 물체 F가 해당 "상호 작용" 조작을 실행한다.
바람직하게는, 상기 제1 조작과 상기 제2 조작은 시간 순서 상에서 적어도 부분적으로 중첩된다.
구체적으로 말하면, 상기 제1 조작과 상기 제2 조작은 동시 조작되거나 또는 사전 설정된 역치 내에서 조작되며, 상기 제1 조작과 상기 제2 조작이 시간 순서 상에서 적어도 부분적으로 중첩될 때, 실행되는 조작은 상기 제1 조작, 상기 제2 조작, 상기 제1 조작과 상기 제2 조작의 결합 등 상기 한 항 또는 다수 항과 동일하거나 부동하다. 예를 들면, 만일 상기 제2 조작이 상기 제1 조작에 대응되는 조작 실행 객체로 하여금 어느 한 사전 설정된 범위 내에서 이동을 진행하도록 하는 것이라면, 상기 제1 조작과 상기 제2 조작이 시간 순서 상에서 적어도 부분적으로 중첩될 때, 대응되는 조작은 상기 제1 조작에 대응되는 조작 실행 객체로 하여금 다른 한 사전 설정된 범위 내에서 이동을 진행하도록 하는 것 등이다.
바람직하게는, 상기 제1 조작은 상기 조작 실행 객체의 이동을 제어하는데 이용될 수 있다.
구체적으로 말하면, 상기 제1 조작은 상기 조작 실행 객체를 확정하는데 이용되는 외, 또한 상기 조작 실행 객체를 임의의 각도로 사전 설정된 범위 내에서 이동시킬 수 있으며; 여기에서, 상기 사전 설정된 범위에는 상기 터치 스크린 내의 임의의 범위 또는 상기 제1 터치 버튼에 대응되는 범위가 포함되나 이에 제한되지 않는다.
예를 들면, 도5에 도시된 바와 같이, 상기 제1 조작은 우선 상기 조작 실행 객체를 F로 확정하고, 이어 길게 누르고 드래깅하는 등 조작을 통하여 상게 객체 F로 하여금 스크린 내의 360° 내에서 이동하도록 제어한다.
여기에서, 당업계의 기술자들은 상기 제1 조작과 상기 제2 조작은 모두 상기 조작 실행 객체의 이동을 제어할 수 있으나, 상기 제1 조작을 이용하여 상기 조작 실행 객체의 이동을 제어하도록 하면, 나아가 상기 제2 터치 버튼과 상기 제2 조작을 자유롭게 하여 상기 제2 조작으로 하여금 더욱 복잡한 기능을 실행하게 할 수 있다는 것을 이해하여야 할 것이다.
더욱 바람직하게는, 상기 제2 조작에는 상기 객체 조작의 조작 작용 구역을 조절하는 것이 포함되며; S2 단계에 있어서, 상기 터치 제어 설비는 상기 조작 실행 객체의 현재 위치의 상기 조작 작용 구역을 기반으로, 상기 조작 실행 객체에 의하여 상기 객체 조작을 실행한다.
구체적으로 말하면, 상기 제2 조작에는 또한 상기 객체 조작의 조작 작용 구역을 조절하는 것이 포함되는 바, 예를 들면, 상기 조작 작용 구역을 부동한 크기, 부동한 형상(예를 들면, 부채형, 원형, 정방형 또는 기타 형상)의 여러 가지 구역으로 설정하는 것이다. 여기에서, 예를 들면, 도 5에 도시된 상기 조작 작용 구역으로는 G를 반경으로 하는 구역이며; 도 6에 도시된 상기 조작 작용 구역은 J를 반경으로 하는 구역이며; 도 7에 도시된 상기 조작 작용 구역은 K를 반경으로 하는 부채형 구역 등이며;
그 후, S2 단계에 있어서, 상기 터치 제어 설비는 상기 조작 실행 객체의 상기 조작 작용 구역 및 상기 조작 실행 객체의 현재 위치에 의하여 상기 객체 조작의 조작 실행 범위를 확정하며, 이어 조작 구역의 구역 범위 내에서 상기 조작 실행 객체가 상기 객체 조작을 실행한다. 예를 들면, 만일 상기 조작 작용 구역이 반경이 r인 동그라미이고, 또한 상기 조작 실행 객체의 현재 위치가 x라면, 상기 조작 실행 객체의 현재 위치의 상기 조작 작용 구역은 바로 x를 원심으로 하고, r을 반경으로 하는 원이며; 만일 상기 조작 실행 객체의 현재 위치가 y라면, 상기 조작 실행 객체의 현재 위치의 상기 조작 작용 구역은 바로 y를 원심으로 하고, r을 반경으로 하는 원이며; 그 후 만일 상기 객체 조작이 상기 조작 실행 객체를 조작하여 기타 목표 객체와의 상호 작용을 실행하는 것이라면, 만일 상기 객체 조작의 범위가 해당 조작 작용 구역 내에 있다면 대응되는 조작을 실행하고, 그렇지 않다면 대응되는 조작을 실행하지 않는다.
더욱 바람직하게는, S2 단계에 있어서, 상기 터치 제어 설비는 상기 현재 위치을 기반으로 하는 상기 조작 작용 구역 내의 조작 작용 목표에 대하여, 상기 조작 실행 객체에 의하여 상기 객체 조작을 실행할 수 있다.
구체적으로 말하면, S2 단계에 있어서, 상기 터치 제어 설비는 상기 현재 위치의 상기 조작 작용 구역을 취득하고, 상기 조작 작용 구역에 대응되는 조작 작용 목표를 확정할 수 있는 바, 예를 들면, 만일 상기 조작 작용 구역이 반경이 r인 동그라미이고, 또한 상기 조작 실행 객체의 현재 위치가 x라면, 상기 조작 실행 객체의 현재 위치의 상기 조작 작용 구역은 바로 x를 원심으로 하고, r을 반경으로 하는 원이며, S2 단계에 있어서, 상기 터치 제어 설비는 해당 구역 내의 모든 목표 객체를 취득하여 상기 조작 작용 목표로 한다.
그 후, S2 단계에 있어서, 상기 터치 제어 설비는 상기 조작 작용 목표에 대하여 상기 조작 실행 객체의 상기 객체 조작을 실행한다. 예를 들면, 만일 상기 조작 실행 객체가 하나의 이동 목표라면, 상기 조작 작용 구역은 바로 해당 이동 목표를 원심으로 하는 원이고, 이 조작 작용 구역이 한 주차장으로 이동하면, 상기 조작 작용 목표는 바로 해당 주차장 중의 모든 차량이며, 그 후, 상기 객체 조작은 바로 상기 조작 작용 목표의 관련 소개 정보를 취득하는 것이므로, 상기 터치 제어 설비는 모든 차량의 차량 소개 정보를 취득하게 된다.
여기에서, 당업계의 기술자들은 상기 객체 조작에 또한 여러 가지 상호 작용 정보, 즉 상기 조작 실행 객체 및 상기 조작 작용 목표의 상호 작용이 포함되는 바, 예를 들면, 상기 조작 실행 객체가 게임 인물이고, 상기 조작 작용 목표가 목적 공격 객체일 때, 상기 상호 작용에는 대화, 공격, 줍기 등이 포함되나 이에 제한되지 않음을 이해하여야 할 것이다.
더욱 바람직하게는, 상기 제2 조작에는 상기 객체 조작의 조작 작용 목표를 조절하는 것이 포함된다.
구체적으로 말하면, 사전 정의된 조작 로직을 기반으로, 상기 제2 조작이 상기 객체 조작의 조작 작용 목표를 조절하는 사전 정의된 하나 또는 다수의 조작 로직에 부합될 때, 상기 제2 조작은 상기 객체 조작의 조작 작용 목표를 조절하는데 이용된다.
예를 들면, 사전 설정된 방식 또는 기타 방식에 의하여 상기 객체 조작의 조작 작용 목표를 확정한 후, 만일 사용자가 사전 정의된 하나 또는 다수의 조작 시퀀스를 실행하였다면, 해당 시퀀스에 설정된 조작 로직에 따라 상기 객체 조작의 조작 작용 목표를 조절하며; 만일 사용자가 "터치 스크린 공백 구역 클릭-길게 누르고 위로 슬라이딩 하기"의 제2 조작을 실행하였다면, 이는 상기 제2 조작이 상기 객체 조작의 조작 작용 목표를 원래의 조작 작용 목표와 다른 기타 목표로 조절하였음을 뜻한다. 여기에서, 당업계의 기술자들은 상기 조작 시퀀스는 단지 예시적인 것이고 본 발명을 한정하는 것이 아니며, 기타 조작 시퀀스가 본 발명에 적용된다면 마찬가지로 상기 객체 조작의 조작 작용 목표를 조절하는데 이용될 수 있음을 이해하여야 할 것이다.
더욱 바람직하게는, 상기 방법에는 또한 S5 단계(미도시)가 포함되며, 그 중에서, 상기 S5 단계에서, 상기 터치 제어 설비는 상기 조작 작용 구역을 조절하는 과정에서, 상기 조작 실행 객체의 현재 위치에 의하여 조절된 후의 상기 조작 작용 구역을 동기화 디스플레이한다.
구체적으로 말하면, S5 단계에 있어서, 상기 터치 제어 설비는 스크린 상에서 범위 경계선 또는 범위 구역을 디스플레이하는 등 방식을 통하여 상기 조작 작용 구역을 조절하는 과정에서, 상기 조작 실행 객체의 현재 위치에 의하여 조절된 후의 상기 조작 작용 구역을 동기화 디스플레이한다. 상기 조작 실행 객체가 상기 조작 작용 구역 내에서 조작을 진행하면 조작에 성공하고, 반대로, 만일 상기 조작 실행 객체가 상기 조작 작용 구역 외부에서 조작을 진행하면, S5 단계에 있어서, 상기 터치 제어 설비는 상응한 통지 칼러 또는 통지 표기 등 정보를 디스플레이하는 것을 통하여 조작 불허를 통지한다.
바람직하게는, 상기 방법에는 또한 S6 단계(미도시)가 포함되며, 그 중에서, 상기 S6 단계에서, 상기 터치 제어 설비는 상기 객체 조작을 실행 종료한 후, 상기 객체 조작에 대응되는 후속의 조작을 실행한다.
구체적으로 말하면, 상기 객체 조작을 실행 종료한 후, S6 단계에 있어서, 상기 터치 제어 설비는 디폴트 설정, 사용자의 선택 등 한 가지 또는 여러 가지 조건에 의하여, 상기 기 실행 종료된 객체 조작에 의하여 상기 객체 조작에 대응되는 후속 조작을 실행한다. 예를 들면, 기 실행 종료된 객체 조작이 목표 객체의 간략한 소개를 취득하는 것이라면, 후속 조작은 해당 목표 객체와 상호 작용(예를 들면, 대화)을 진행하는 것이다. 바람직하게는, 상기 후속 조작은 또한 상기 객체 조작을 실행 종료한 후의 사전 설정된 시간 역치 내에 실행되도록 설정할 수 있는 바, 예를 들면, 해당 역치 내에서 사용자가 선택 또는 확정 등 조작을 진행하면 계속하여 상기 후속 조작을 실행하고, 반대로, 만일 상기 역치를 초과하였으나 사용자가 아직 선택 또는 확정 등 조작을 진행하지 않으면, 상기 후속 조작의 실행을 정지시킨다.
당업계의 기술자들은 본 발명이 적용되는 어플리케이션 상황에 하기가 포함되나 이에 제한되지 않음을 이해하여야 할 것이다.
1) 인공지능 분야의 지능 에이전트, 예를 들면, agent(대리)를 기반으로 하는 일정 비서, 여행 비서 등이며, agent는 이에 대응되는 사용자가 상응한 조작을 진행하는 것을 뜻한다. 예를 들면, 제1 터치 버튼이 agent를 특정 구역으로 이동하고, 또한 해당 agent가 제2 터치 버튼을 통하여 호텔 검색, 예약, 기타 사용자와의 면담 약속 등 조작을 진행하는 것이다.
2) 네비게이션 어플리케이션을 포함하는 지지 정보 시스템 GIS, 예를 들면, 보행자, 대중교통 승객, 운전자 등 부동한 사용자 캐릭터 agent에 대하여 이로 하여금 상응한 조작을 하도록 지원한다. 예를 들면, 제1 터치 버튼이 agent를 특정 구역으로 이동하고, 또한 해당 agent가 제2 터치 버튼을 통하여 경로 조회 및 네비게이션, 친구 검색 및 약속 등 조작을 진행하는 것이다.
3) 게임 디자인 또는 응용 예를 들면, 종래의 멀티 터치 스크린을 기반으로 하는 조작에 있어서, 대부분 조작 목표의 동작 실행 방향은 해당 목표의 방향과 반드시 일치해야 한다. 때문에 해당 유형의 객체의 조작 디자인 상에서 제한성이 존재하며; 이에 비하여, 본 발명은 사용자 캐릭터 디지인과 사용자 조작 디자인이 병행되도록 할 수 있어, 디자인 효율을 향상시킬 수 있을 뿐 아니라 디자인 복잡성을 감소시키고, 디자인의 강인성을 향상시킬 수 있다.
도 4는 본 발명의 일 바람직한 실시예에 의한 멀티 터치 단말에 사용되는 터치 제어 방법 흐름도이다. 구체적으로 말하면, S3' 단계에 있어서, 상기 터치 제어 설비는 상기 사용자가 상기 터치 스크린의 목표 제어 구역을 터치하였는지 여부를 감지하며; 만일 터치하였다면, 상기 제1 터치 버튼 또는 상기 제2 터치 버튼을 디스플레이하여 상기 사용자로 하여금 조작을 진행하도록 하며; S1' 단계에 있어서, 상기 터치 제어 설비는 사용자의 멀티 터치 단말의 터치 스크린 상에서의 제1 터치 버튼에 대한 제1 조작 및 제2 터치 버튼에 대한 제2 조작을 취득하며; S2' 단계에 있어서, 상기 터치 제어 설비는 상기 제1 조작에 대응되는 조작 실행 객체에 의하여 상기 제2 조작에 대응되는 객체 조작을 진행한다.
그 중에서, S1' 단계, S2' 단계는 도3에 도시된 대응되는 단계와 동일하거나 기본상 동일하기 때문에, 여기에서는 상세한 설명을 생략하며, 인용의 방식으로 여기에 포함시키도록 한다.
상기 각 단계 사이에서는 지속적으로 부단히 작업이 진행되는 것으로서, 여기에서, 당업계의 기술자들은 "지속적"이란 상기 각 단계가 각각 실시하거나 또는 설정되거나 또는 실시간 조절된 작업 모드 요구에 따라 목표 제어 구역을 터치하였는지 여부에 대한 감지, 제1 조작과 제2 조작의 취득, 조작의 실행 등을 진행하는 것이며, 상기 터치 제어 설비가 상기 사용자가 상기 터치 스크린의 목표 제어 구역을 터치하였는지 여부를 감지하는 것을 정지하기까지 진행하는 것이라는 것을 이해하여야 할 것이다.
S3' 단계에 있어서, 상기 터치 제어 설비는 상기 사용자가 상기 터치 스크린의 목표 제어 구역을 터치하였는지 여부를 감지하며; 만일 터치하였다면, 상기 제1 터치 버튼 또는 상기 제2 터치 버튼을 디스플레이하여 상기 사용자로 하여금 조작을 진행하도록 한다.
구체적으로 말하면, S3 단계에 있어서, 상기 터치 제어 설비는 상기 멀티 터치 단말의 터치 스크린의 터치 감지 부품을 통하여 상기 사용자가 상기 터치 스크린의 목표 제어 구역을 터치하였는지 여부를 감지하며; 여기에서, 상기 목펴 제어 구역은 사전 정의된 고정 구역일 수도 있고, 상기 터치 스크린의 현재 어플리케이션 상황에 의하여 변화되는 구역일 수도 있다.
상기 사용자의 터치 조작이 상기 목표 제어 구역과 매칭된다면, S3' 단계에 있어서, 상기 터치 제어 설비는 매칭되는 구역에 의하여, 상기 제1 터치 버튼 또는 제2 터치 버튼을 디스플레이하며; 예를 들면, 상기 제1 버튼에 대응되는 목표 구역을 터치하면, 상기 제1 터치 버튼을 디스플레이하거나, 또는 동시에 상기 제1 터치 버튼과 상기 제2 터치 버튼을 디스플레이하여 사용자로 하여금을 조작을 진행하도록 한다. 여기에서, 상기 목표 제어 구역과 상기 제1 터치 버튼 및/또는 상기 제2 터치 버튼과 대응되는 구역은 중첩되거나 또는 중첩되지 않는다.
바람직하게는, 상기 방법에는 또한 S4' 단계(미도시)가 포함되며, 그 중에서, 상기 사용자가 상기 터치 스크린의 목표 제어 구역을 터치하는 것을 정지하면, S4' 단계에 있어서, 상기 터치 제어 설비는 상기 제1 터치 버튼 또는 상기 제2 터치 버튼을 숨긴다.
구체적으로 말하면, 상기 사용자가 상기 터치 스크린의 목표 제어 구역을 터치하는 것을 정지하면, 즉 상기 사용자가 상기 터치 스크린을 터치하는 것을 정지하거나, 또는 상기 사용자의 터치 조작과 상기 목표 제어 구역이 매칭되지 않으면, S4' 단계에 있어서, 상기 터치 제어 설비는 상기 목표 제어 구역에 대응되는 터치 버튼을 숨기며; 예를 들면, S3' 단계에 있어서, 상기 터치 제어 설비가 이미 상기 제1 터치 버튼과 상기 제2 터치 버튼을 디스플레이하였고, 만일 상기 사용자 상기 제1 터치 버튼에 대응되는 목표 제어 구역을 더는 터치하지 않는다면, S4' 단계에 있어서, 상기 터치 제어 설비는 상기 제1 터치 버튼을 숨기며, 이와 유사하게, 만일 상기 사용자 상기 제2 터치 버튼에 대응되는 목표 제어 구역을 더는 터치하지 않는다면, S4' 단계에 있어서, 상기 터치 제어 설비는 상기 제2 터치 버튼을 숨긴다.
당업계의 기술자들로 놓고 말하면, 본 발명은 상기 예시적 실시예의 세부 내용에 제한되는 것이 아니며, 또한 본 발명의 정신 또는 기본 특징을 벗어나지 않는 상황에서 기타 구체적인 형식으로 본 발명을 구현할 수 있을 것이다. 그러므로, 어떠한 면에서든 실시예는 모두 예시적인 것이고 비한정적인 것이며, 본 발명의 범위는 특허청구범위에 의하여 한정되는 것이지 상기 설명에 의하여 한정되는 것이 아니기 때문에, 특허청구범위와 동등한 의미 및 범위 내의 모든 변화는 모두 본 발명에 속한다 하여야 할 것이다. 청구항 중의 어떠한 도면 부호도 관련된 청구범항을 제한하는 것으로 보아서는 아니될 것이다. 그리고, "포함된다"는 용어는 기타 유닛 또는 단계를 배제하는 것이 아니고, 단수라 할지라도 복수를 배제하는 것이 아니다. 장치 청구항 중의 다수의 유닛 또는 장치는 소프트웨어 또는 하드웨어를 통하여 하나의 유닛 또는 장치로 구현될 수도 있다. 제1, 제2 등 용어는 단지 명칭을 표기하는 것이고, 특정의 순서를 한정하는 것이 아니다.

Claims (22)

  1. 멀티 터치 단말에 사용되는 터치 제어 방법에 있어서,
    a. 제1 장치에 의해, 사용자의 멀티 터치 단말의 터치 스크린 상에서의 제1 터치 버튼에 대한 제1 조작 및 제2 터치 버튼에 대한 제2 조작을 취득하는 단계;
    b. 제2 장치에 의해, 상기 제1 조작에 대응되는 조작 실행 객체에 의하여 상기 제2 조작에 대응되는 객체 조작을 진행하는 단계; 및
    c. 제4 장치에 의해, 사용자가 상기 터치 스크린에 대한 터치를 해제하거나, 사용자가 터치한 위치가 상기 터치 스크린의 목표 제어 구역을 벗어나면, 상기 제1 터치 버튼 또는 상기 제2 터치 버튼을 숨기는 단계를 포함하고,
    상기 제1 조작은 상기 조작 실행 객체의 이동을 제어하는데 이용되며,
    상기 제2 조작에는 상기 객체 조작의 조작 작용 구역의 크기 및 형상 중 하나 이상을 조절하는 것이 포함되고,
    상기 b 단계는,
    상기 제2 장치에 의해, 상기 조작 실행 객체의 현재 위치의 상기 조작 작용 구역을 기반으로, 상기 조작 실행 객체에 의하여 상기 객체 조작을 실행하는 단계를 포함하는 것을 특징으로 하는 멀티 터치 단말에 사용되는 터치 제어 방법.
  2. 제1항에 있어서, 상기 방법은 또한,
    제3 장치에 의해, 상기 사용자가 상기 터치 스크린의 목표 제어 구역을 터치하였는지 여부를 감지하는 단계; 및
    만일 터치하였다면, 상기 제3 장치에 의해, 상기 제1 터치 버튼 또는 상기 제2 터치 버튼을 디스플레이하여 상기 사용자로 하여금 조작을 진행하도록 하는 단계를 포함하는 것을 특징으로 하는 멀티 터치 단말에 사용되는 터치 제어 방법.
  3. 삭제
  4. 삭제
  5. 삭제
  6. 제1항에 있어서, 상기 b 단계는,
    상기 제2 장치에 의해, 상기 현재 위치를 기반으로 하는 상기 조작 작용 구역 내의 조작 작용 목표에 대하여, 상기 조작 실행 객체에 의하여 상기 객체 조작을 실행하는 단계를 포함하는 것을 특징으로 하는 멀티 터치 단말에 사용되는 터치 제어 방법.
  7. 제6항에 있어서, 상기 제2 조작에는 상기 객체 조작의 조작 작용 목표를 조절하는 것이 포함되는 것을 특징으로 하는 멀티 터치 단말에 사용되는 터치 제어 방법.
  8. 제1항에 있어서, 상기 방법은 또한,
    제5 장치에 의해, 상기 조작 작용 구역을 조절하는 과정에서, 상기 조작 실행 객체의 현재 위치에 의하여 조절된 후의 상기 조작 작용 구역을 동기화 디스플레이하는 단계를 포함하는 것을 특징으로 하는 멀티 터치 단말에 사용되는 터치 제어 방법.
  9. 제1항 또는 제2항에 있어서, 상기 제1 조작과 상기 제2 조작은 시간 순서 상에서 적어도 부분적으로 중첩되는 것을 특징으로 하는 멀티 터치 단말에 사용되는 터치 제어 방법.
  10. 제1항 또는 제2항에 있어서, 상기 방법은 또한,
    제6 장치에 의해, 상기 객체 조작을 실행 종료한 후, 상기 객체 조작에 대응되는 후속의 조작을 실행하는 단계를 포함하는 것을 특징으로 하는 멀티 터치 단말에 사용되는 터치 제어 방법.
  11. 제1항 또는 제2항에 있어서, 상기 제1 터치 버튼과 상기 제2 터치 버튼의 상기 터치 스크린 상의 위치는
    상기 터치 스크린의 크기 속성;
    상기 사용자가 상기 멀티 터치 단말을 파지한 상태 속성;
    상기 터치의 현재 어플리케이션 상황 정보; 중 하나 이상에 대응되는 것을 특징으로 하는 멀티 터치 단말에 사용되는 터치 제어 방법.
  12. 멀티 터치 단말에 사용되는 터치 제어 설비에 있어서, 상기 설비는,
    사용자의 멀티 터치 단말의 터치 스크린 상에서의 제1 터치 버튼에 대한 제1 조작 및 제2 터치 버튼에 대한 제2 조작을 취득하는 제1 장치;
    상기 제1 조작에 대응되는 조작 실행 객체에 의하여 상기 제2 조작에 대응되는 객체 조작을 진행하는 제2 장치; 및
    사용자가 상기 터치 스크린에 대한 터치를 해제하거나, 사용자가 터치한 위치가 상기 터치 스크린의 목표 제어 구역을 벗어나면, 상기 제1 터치 버튼 또는 상기 제2 터치 버튼을 숨기는 제4 장치를 포함하고,
    상기 제1 조작은 상기 조작 실행 객체의 이동을 제어하는데 이용되며,
    상기 제2 조작에는 상기 객체 조작의 조작 작용 구역의 크기 및 형상 중 하나 이상을 조절하는 것이 포함되고;
    상기 제2 장치는,
    상기 조작 실행 객체의 현재 위치의 상기 조작 작용 구역을 기반으로, 상기 조작 실행 객체에 의하여 상기 객체 조작을 실행하는데 이용되는 것을 특징으로 하는 멀티 터치 단말에 사용되는 터치 제어 설비.
  13. 제12항에 있어서, 상기 설비는 또한,
    상기 사용자가 상기 터치 스크린의 목표 제어 구역을 터치하였는지 여부를 감지하며; 만일 터치하였다면, 상기 제1 터치 버튼 또는 상기 제2 터치 버튼을 디스플레이하여 상기 사용자로 하여금 조작을 진행하도록 하는 제3 장치를 포함하는 것을 특징으로 하는 멀티 터치 단말에 사용되는 터치 제어 설비.
  14. 삭제
  15. 삭제
  16. 삭제
  17. 제12항에 있어서, 상기 제2 장치는,
    상기 현재 위치을 기반으로 하는 상기 조작 작용 구역 내의 조작 작용 목표에 대하여, 상기 조작 실행 객체에 의하여 상기 객체 조작을 실행하는데 이용되는 것을 특징으로 하는 멀티 터치 단말에 사용되는 터치 제어 설비.
  18. 제17항에 있어서, 그 중에서, 상기 제2 조작에는 상기 객체 조작의 조작 작용 목표를 조절하는 것이 포함되는 것을 특징으로 하는 멀티 터치 단말에 사용되는 터치 제어 설비.
  19. 제12항에 있어서, 상기 설비는 또한,
    상기 조작 작용 구역을 조절하는 과정에서, 상기 조작 실행 객체의 현재 위치에 의하여 조절된 후의 상기 조작 작용 구역을 동기화 디스플레이하는 제5 장치를 포함하는 것을 특징으로 하는 멀티 터치 단말에 사용되는 터치 제어 설비.
  20. 제12항 또는 제13항에 있어서, 상기 제1 조작과 상기 제2 조작은 시간 순서 상에서 적어도 부분적으로 중첩되는 것을 특징으로 하는 멀티 터치 단말에 사용되는 터치 제어 설비.
  21. 제12항 또는 제13항에 있어서, 상기 설비는 또한,
    상기 객체 조작을 실행 종료한 후, 상기 객체 조작에 대응되는 후속의 조작을 실행하는 제6 장치를 포함하는 것을 특징으로 하는 멀티 터치 단말에 사용되는 터치 제어 설비.
  22. 제12항 또는 제13항에 있어서, 상기 제1 터치 버튼과 상기 제2 터치 버튼의 상기 터치 스크린 상의 위치는
    상기 터치 스크린의 크기 속성;
    상기 사용자가 상기 멀티 터치 단말을 파지한 상태 속성;
    상기 터치의 현재 어플리케이션 상황 정보; 중 하나 이상에 대응되는 것을 특징으로 하는 멀티 터치 단말에 사용되는 터치 제어 설비.
KR1020147028782A 2014-07-25 2014-08-14 멀티 터치 단말에 사용되는 터치 제어 방법 및 설비 KR101739782B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201410357414.XA CN104076986B (zh) 2014-07-25 2014-07-25 一种用于多点触摸终端的触摸控制方法与设备
CN201410357414.X 2014-07-25
PCT/CN2014/000767 WO2016011568A1 (zh) 2014-07-25 2014-08-14 一种用于多点触摸终端的触摸控制方法与设备

Publications (2)

Publication Number Publication Date
KR20160023532A KR20160023532A (ko) 2016-03-03
KR101739782B1 true KR101739782B1 (ko) 2017-05-25

Family

ID=51598292

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147028782A KR101739782B1 (ko) 2014-07-25 2014-08-14 멀티 터치 단말에 사용되는 터치 제어 방법 및 설비

Country Status (11)

Country Link
US (1) US10503323B2 (ko)
EP (1) EP2977881A1 (ko)
JP (1) JP6033824B2 (ko)
KR (1) KR101739782B1 (ko)
CN (1) CN104076986B (ko)
AU (3) AU2014277695A1 (ko)
CA (1) CA2878801C (ko)
HK (1) HK1197466A1 (ko)
RU (1) RU2630392C2 (ko)
TW (1) TWI571792B (ko)
WO (1) WO2016011568A1 (ko)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150193096A1 (en) * 2014-01-07 2015-07-09 Samsung Electronics Co., Ltd. Electronic device and method for operating the electronic device
CN104635925A (zh) * 2015-01-05 2015-05-20 徐杨 一种滑动手势锁定目标的方法及装置
CN104636063B (zh) * 2015-01-22 2018-10-12 杭州电魂网络科技股份有限公司 电子屏幕虚拟摇杆的构建方法
CN104699399A (zh) * 2015-02-16 2015-06-10 上海逗屋网络科技有限公司 一种用于在触摸终端上确定目标操作对象的方法与设备
CN104881230A (zh) * 2015-02-16 2015-09-02 上海逗屋网络科技有限公司 在触控终端进行人机交互的方法和设备
CN104965655A (zh) * 2015-06-15 2015-10-07 北京极品无限科技发展有限责任公司 一种触摸屏游戏控制方法
CN104898953B (zh) 2015-06-16 2016-10-26 深圳市腾讯计算机系统有限公司 基于触控屏的操控方法和装置
CN105148517B (zh) 2015-09-29 2017-08-15 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
CN105260100B (zh) * 2015-09-29 2017-05-17 腾讯科技(深圳)有限公司 一种信息处理方法和终端
CN105335065A (zh) * 2015-10-10 2016-02-17 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
CN105194873B (zh) 2015-10-10 2019-01-04 腾讯科技(成都)有限公司 一种信息处理方法、终端及计算机存储介质
CN105320410B (zh) * 2015-12-01 2019-03-15 成都龙渊网络科技有限公司 一种用于在触摸终端上进行触摸操控的方法与设备
CN105426052A (zh) * 2015-12-01 2016-03-23 成都龙渊网络科技有限公司 用于在触摸终端上管理操作工具的方法与设备
CN105373336B (zh) * 2015-12-17 2018-06-12 网易(杭州)网络有限公司 信息面板呈现控制方法及装置
CN105597315B (zh) * 2015-12-17 2019-05-10 网易(杭州)网络有限公司 虚拟对象投掷控制方法及装置
CN105582670B (zh) * 2015-12-17 2019-04-30 网易(杭州)网络有限公司 瞄准射击控制方法及装置
CN105653187A (zh) * 2015-12-24 2016-06-08 杭州勺子网络科技有限公司 一种用于多点触摸终端的触摸控制方法
CN105930079A (zh) * 2016-04-15 2016-09-07 上海逗屋网络科技有限公司 用于在多点触摸终端上执行用户操作的方法及设备
CN107728870B (zh) * 2016-10-17 2020-03-24 西安艾润物联网技术服务有限责任公司 停车场管理系统及信息显示控制方法
CN106527924A (zh) * 2016-10-20 2017-03-22 北京乐动卓越科技有限公司 一种第三人称视角3d动作手机游戏的角色控制方法及装置
CN106422329A (zh) * 2016-11-01 2017-02-22 网易(杭州)网络有限公司 游戏操控方法和装置
CN106512406A (zh) * 2016-11-01 2017-03-22 网易(杭州)网络有限公司 游戏操控方法和装置
JP6143934B1 (ja) * 2016-11-10 2017-06-07 株式会社Cygames 情報処理プログラム、情報処理方法、及び情報処理装置
CN106354418B (zh) 2016-11-16 2019-07-09 腾讯科技(深圳)有限公司 一种基于触摸屏的操控方法和装置
CN106843722B (zh) * 2016-12-26 2019-12-31 上海莉莉丝网络科技有限公司 一种用于触控终端的触摸控制方法以及触摸控制装置
CN108905212B (zh) * 2017-03-27 2019-12-31 网易(杭州)网络有限公司 游戏画面的显示控制方法及装置、存储介质、电子设备
CN107008003B (zh) * 2017-04-13 2020-08-14 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及计算机可读存储介质
CN107126698B (zh) * 2017-04-24 2020-06-30 网易(杭州)网络有限公司 游戏虚拟对象的控制方法、装置、电子设备及可读介质
JP7104473B2 (ja) 2017-10-31 2022-07-21 シャープ株式会社 エネルギー管理システム、電力変換制御装置、および電力変換制御方法
CN107895179A (zh) * 2017-11-29 2018-04-10 合肥赑歌数据科技有限公司 一种基于临近值分析的工件分类系统及方法
CN108037888B (zh) * 2017-12-11 2020-11-24 网易(杭州)网络有限公司 技能控制方法、装置、电子设备及存储介质
CN108196765A (zh) * 2017-12-13 2018-06-22 网易(杭州)网络有限公司 显示控制方法、电子设备及存储介质
CN108434728B (zh) * 2018-02-09 2022-05-13 网易(杭州)网络有限公司 操作控件的适配方法、装置、电子设备及存储介质
CN109126133A (zh) * 2018-08-27 2019-01-04 广州要玩娱乐网络技术股份有限公司 游戏单位编队控制方法、装置、存储介质及移动终端
CN112578981A (zh) * 2019-09-29 2021-03-30 华为技术有限公司 具有柔性屏幕的电子设备的控制方法及电子设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100774928B1 (ko) * 2006-09-27 2007-11-09 엘지전자 주식회사 투명아이콘이 디스플레이되는 이동단말기 및 이를 이용한투명아이콘의 디스플레이방법

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11342265A (ja) * 1998-06-01 1999-12-14 Sony Computer Entertainment Inc 記録媒体及びエンタテインメントシステム
US6762752B2 (en) * 2001-11-29 2004-07-13 N-Trig Ltd. Dual function input device and method
US6938221B2 (en) * 2001-11-30 2005-08-30 Microsoft Corporation User interface for stylus-based user input
EP1970799B1 (en) * 2007-03-15 2017-08-16 LG Electronics Inc. Electronic device and method of controlling mode thereof and mobile communication terminal
US20090327975A1 (en) * 2008-06-27 2009-12-31 Stedman Roy W Multi-Touch Sorting Gesture
US8342926B2 (en) * 2008-07-13 2013-01-01 Sony Computer Entertainment America Llc Game aim assist
KR101611601B1 (ko) * 2008-09-12 2016-04-12 코닌클리케 필립스 엔.브이. 핸드헬드 디바이스들 상의 그래픽 이용자 인터페이스에서의 네비게이팅
FR2936326B1 (fr) * 2008-09-22 2011-04-29 Stantum Dispositif pour le controle d'appareil electronique par la manipulation d'objets graphiques sur un ecran tactile multicontacts
CN101799727B (zh) * 2009-02-11 2012-11-07 晨星软件研发(深圳)有限公司 多点触控接口的讯号处理装置、方法及使用者接口图像的选取方法
KR101055924B1 (ko) * 2009-05-26 2011-08-09 주식회사 팬택 터치 기기에서의 유저 인터페이스 장치 및 방법
JP5127780B2 (ja) * 2009-06-16 2013-01-23 株式会社ソニー・コンピュータエンタテインメント ゲーム制御プログラム、ゲーム装置、及びゲーム制御方法
JP5127792B2 (ja) * 2009-08-18 2013-01-23 キヤノン株式会社 情報処理装置、その制御方法、プログラム及び記録媒体
CN101655771B (zh) * 2009-09-07 2011-07-20 上海合合信息科技发展有限公司 多触点字符输入方法及系统
EP2360665A3 (en) * 2009-11-26 2012-03-28 LG Electronics Mobile terminal and control method thereof
CN101776968A (zh) * 2010-01-18 2010-07-14 华为终端有限公司 触控方法和装置
US9262073B2 (en) * 2010-05-20 2016-02-16 John W. Howard Touch screen with virtual joystick and methods for use therewith
US8907903B2 (en) * 2011-01-13 2014-12-09 Sony Computer Entertainment America Llc Handing control of an object from one touch input to another touch input
KR101710418B1 (ko) * 2011-12-19 2017-02-28 삼성전자주식회사 휴대 단말기의 멀티 터치 인터렉션 제공 방법 및 장치
US9724599B2 (en) * 2011-12-20 2017-08-08 Sony Corporation Operator and operating device
US9223483B2 (en) * 2012-02-24 2015-12-29 Blackberry Limited Method and apparatus for providing a user interface on a device that indicates content operators
JP5891083B2 (ja) * 2012-03-26 2016-03-22 京セラ株式会社 装置、方法、及びプログラム
TW201343227A (zh) * 2012-04-25 2013-11-01 Fu Li Ye Internat Corp 具有觸控面板裝置媒體的互動遊戲控制方法
TWM457924U (zh) * 2012-11-23 2013-07-21 Higgstec Inc 雙感測區觸碰感測器、觸控裝置
US20140165003A1 (en) * 2012-12-12 2014-06-12 Appsense Limited Touch screen display
CN102999297B (zh) * 2012-12-19 2016-01-20 深圳怡化电脑股份有限公司 Atm设备上控制广告播放的方法及图形界面
GB201300031D0 (en) * 2013-01-02 2013-02-13 Canonical Ltd Ubuntu UX innovations
US9423268B2 (en) * 2014-06-20 2016-08-23 Apple Inc. Graphical representation generation for multiple points of interest

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100774928B1 (ko) * 2006-09-27 2007-11-09 엘지전자 주식회사 투명아이콘이 디스플레이되는 이동단말기 및 이를 이용한투명아이콘의 디스플레이방법

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KerooSeta, Geometry Wars Touch for iPad, Youtube, [online] 2010.04.03., [2016.09.07.검색], 인터넷[URL:https://www.youtube.com/watch?v=JunHFvBIQ2E]*
TouchArcade, Modern Combat HD for iPad, Youtube, [online] 2010.04.04., [2016.09.07.검색], 인터넷[URL:https://www.youtube.com/watch?v=pgmfpYNtLwU]*

Also Published As

Publication number Publication date
AU2016208316A1 (en) 2016-08-11
CN104076986B (zh) 2015-12-09
CA2878801A1 (en) 2015-03-24
HK1197466A1 (zh) 2015-01-16
JP2016031755A (ja) 2016-03-07
US20170205908A9 (en) 2017-07-20
US20150049058A1 (en) 2015-02-19
AU2014277695A1 (en) 2015-01-22
WO2016011568A1 (zh) 2016-01-28
KR20160023532A (ko) 2016-03-03
RU2630392C2 (ru) 2017-09-07
EP2977881A1 (en) 2016-01-27
TWI571792B (zh) 2017-02-21
CN104076986A (zh) 2014-10-01
TW201604762A (zh) 2016-02-01
US10503323B2 (en) 2019-12-10
AU2018208753A1 (en) 2018-08-16
RU2015104255A (ru) 2016-08-27
JP6033824B2 (ja) 2016-11-30
CA2878801C (en) 2019-01-15

Similar Documents

Publication Publication Date Title
KR101739782B1 (ko) 멀티 터치 단말에 사용되는 터치 제어 방법 및 설비
JP6434052B2 (ja) ウェアラブルデバイスを通じたレーダ型ジェスチャ認識
US11354009B2 (en) Method and apparatus for using gestures across multiple devices
US20170291110A1 (en) Game control program, game control method, and game control device
CN103257811A (zh) 基于触摸屏的图片显示系统和方法
US10351386B2 (en) System and method of initiating elevator service by entering an elevator call
CN103150095A (zh) 终端和终端操控方法
KR20130061711A (ko) 통신 기기들 사이에서 정보 아이템들을 전달하기 위한 장치 및 방법
US20170355556A1 (en) System and method of initiating elevator service by entering an elevator call
US10843896B2 (en) System and method of initiating elevator service by entering an elevator call
US9778780B2 (en) Method for providing user interface using multi-point touch and apparatus for same
JPWO2018216080A1 (ja) ゲームプログラム、情報処理装置、情報処理システム、および、ゲーム処理方法
WO2016038677A1 (ja) 触感制御システムおよび触感制御方法
JP5901663B2 (ja) 表示装置及び表示制御プログラム
US20180173398A1 (en) Touch panel type information terminal device, information input processing method and program thereof
JP2015133080A5 (ko)
JP2015141592A (ja) 表示装置及び表示制御プログラム
JP6368263B2 (ja) 情報処理システム、情報処理装置および遠隔操作支援方法
JP2015207132A (ja) 入力装置および操作入力方法

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
E902 Notification of reason for refusal
GRNT Written decision to grant