KR20120062053A - 터치스크린의 가상 캐릭터 제어방법 - Google Patents
터치스크린의 가상 캐릭터 제어방법 Download PDFInfo
- Publication number
- KR20120062053A KR20120062053A KR1020100123136A KR20100123136A KR20120062053A KR 20120062053 A KR20120062053 A KR 20120062053A KR 1020100123136 A KR1020100123136 A KR 1020100123136A KR 20100123136 A KR20100123136 A KR 20100123136A KR 20120062053 A KR20120062053 A KR 20120062053A
- Authority
- KR
- South Korea
- Prior art keywords
- virtual pet
- touch
- user
- pet character
- character
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0412—Digitisers structurally integrated in a display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명에서 기존에 사용되는 터치감지장치의 멀티스크린 방식은 전자기기의 본래 기능만을 이용하여 작업을 함으로 친숙한 느낌을 갖기에 한정된 느낌을 받으며 이용자들이 가상환경에서 호감을 가질 수 있는 요소가 부족하다는 느낌을 가지게 한다.
본 발명 방법으로 이용자의 인터넷 검색이나 작업수행에서 가상애완 캐릭터기능을 이용하여 이용자에게 터치로 가상캐릭터를 만지면 반응도 하는 편한 느낌과 호기심을 유발하여 터치스크린을 이용하는 사용자에게 가상애완동물 등을 기르거나 가지게 함으로써 친밀함을 가질 수 있으며, 기존의 줌인 및 줌 아웃기능은 두 손가락으로 모양을 만들어야 하는 어려움을 가져오고 있어 다소 불편한 느낌을 가지게 하지만 상기 가상애완 캐릭터를 클릭해서 줌 인과 줌 아웃을 함으로 이용자들이 간편하게 확대와 축소를 클릭기능으로 쉽게 할 수 있다.
본 발명은 이용자가 가상애완 캐릭터를 가짐으로 친밀감, 편의성 및 효율성으로 멀티 네트워크통신 및 전자정보를 사용하는데 있어서 이용자 환경을 개선하고 더욱 효율적으로 기존의 컴퓨터 네트워크 기반을 연결하는 수단으로 활용될 것이다.
본 발명 방법으로 이용자의 인터넷 검색이나 작업수행에서 가상애완 캐릭터기능을 이용하여 이용자에게 터치로 가상캐릭터를 만지면 반응도 하는 편한 느낌과 호기심을 유발하여 터치스크린을 이용하는 사용자에게 가상애완동물 등을 기르거나 가지게 함으로써 친밀함을 가질 수 있으며, 기존의 줌인 및 줌 아웃기능은 두 손가락으로 모양을 만들어야 하는 어려움을 가져오고 있어 다소 불편한 느낌을 가지게 하지만 상기 가상애완 캐릭터를 클릭해서 줌 인과 줌 아웃을 함으로 이용자들이 간편하게 확대와 축소를 클릭기능으로 쉽게 할 수 있다.
본 발명은 이용자가 가상애완 캐릭터를 가짐으로 친밀감, 편의성 및 효율성으로 멀티 네트워크통신 및 전자정보를 사용하는데 있어서 이용자 환경을 개선하고 더욱 효율적으로 기존의 컴퓨터 네트워크 기반을 연결하는 수단으로 활용될 것이다.
Description
본 발명은 터치스크린 패드의 가상애완 캐릭터프로그램 제어 방법에서 터치스크린 패드 장치 및 전자 장치에 관한 것이다.
최근에 휴대용 및 유비쿼터스 환경의 유선 및 무선 전자장치에서 사용자 인터페이스의 감지장치로 터치스크린이 널리 사용되고 있다.
터치스크린 패드는 소프트웨어를 활용하여 전자기기를 작동함에 있어서 사용자의 멀티네트워크 환경을 보다 풍부하고 다양하게 수행하고 보다 편리한 그래픽 사용자 인터페이스를 제공할 수 있다는 장점을 가진다.
사용자가 터치스크린의 가상애완도구 프로그램을 이용하여 사용자들이 터치스크린장치를 갖는 전자장치에서 더욱 친숙하고 즐겁게 이용하기 위해서는 그에 맞는 친숙하고 재미있는 수단을 활용하여야 하며 표시된 가상애완도구를 용이하게 클릭 및 선택해서 가상애완 캐릭터가 이용자의 터치에 반응하고 피 제어 화면의 이미지객체를 확대 및 축소하여 터치스크린 상의 작은 문자를 검색하는데 이용할 수 있다. 이에 관련된 종래 기술로서 미국공개번호 제2008/0122796호 등에 개시된 다중 터치에 관한 멀티 터치 방식이 있다.
그러나 멀티 터치스크린 방식은 이용자의 손가락만을 사용해서 친숙함이 낮고 이용자가 직접 터치스크린을 두 손가락으로 줌인 및 줌 아웃으로 조작하고 검색하기 때문에 빠른 동작을 하기에 불편함이 따르고 이용자의 손으로만 작은 화면을 보면서 작업을 하기 때문에 피곤함을 느끼는 경우가 많다. 이용자들은 더욱 친숙한 애니메이션기능의 도구가 필요하고 상기 도구를 이용하여 터치스크린의 화면상에 있는 이미지객체의 문자 등을 확인하기 위해서 가상애완 캐릭터를 이용자가 한 번의 터치로 줌인 및 줌 아웃을 해서 한 손가락으로 더욱 간편하게 사용할 수 있고 전자장치를 사용함에 있어서 더욱 친숙하고 안정된 정서를 느낄 수 있다. 이용자는 가상애완 캐릭터를 이용함으로 더욱 즐거운 멀티 터치스크린 환경을 누릴 수 있다.
기존에 사용되는 멀티스크린 방식은 손가락 그 자체만을 사용하기 때문에 전자기기의 본래 기능만을 이용하여 작업을 함으로 친숙한 느낌을 가지기에 한정된 느낌을 받으며 이용자의 인터넷 검색이나 작업수행에서 잦은 줌인 및 줌 아웃기능은 두 손가락으로 모양을 만들어야 하는 어려움을 가져오고 있다.
기존의 터치스크린과정에서 이용자들이 보다 빠른 작업의 수행과 친숙하고 즐거운 가상환경을 만들고자 가상애완 캐릭터를 이용하여 몇 가지 동작과정을 멀티 환경에 적용하였다. 본 발명 방법으로 이용자가 인터넷검색이나 책 읽기 작업 등에서 수행한다면 더욱 인간적인 친숙함과 편리한 유비쿼터스 환경을 만들 수 있고 더 간편하게 터치감지장치를 작동할 수 있다.
기존의 스마트 터치스크린장치를 갖춘 전자기기는 이용자들이 화면에서 친숙함을 느끼기에 한정된 느낌을 가지며 손동작을 만들기 위해서 터치스크린에 두 손가락을 수직으로 만드는 과정으로 이용자들이 조작하기 때문에 더 다양한 기능을 가진 친숙한 소프트웨어 도구가 필요한 시점이다.
본 발명의 방식 및 방법에서 상기 터치스크린에서 가상애완 캐릭터의 제어 방법은 상기 터치스크린의 터치 위치에서 소정의 기간이상 실질적으로 작동되어 동일하게 유지되는지 판단하는 과정과 터치다운 - 작동기간과 터치가 없어졌을 때 - 을 판단하는 단계; 상기 터치 지점이 동일하게 유지 및 터치다운 될 때에, 상기 실질적인 터치 위치에서 일정한 간격 거리와 방향에 가상애완 캐릭터를 생성하는 단계; 상기 가상애완 캐릭터에 설정한 프로그램이 실행되고 터치 위치의 이동에 따라 일정한 거리를 유지하도록 유지하는 단계; 상기 가상애완도구 프로그램을 연계하도록 사용자인터페이스요소로 연관시키는 단계; 상기 사용자인터페이스요소를 디스플레이하는 단계; 상기 터치스크린에 생성된 가상애완 캐릭터를 클릭 및 확인하는 선택단계; 및 상기 클릭으로 가상캐릭터의 반응 및 줌인 및 줌 아웃기능을 실행하는 단계를 구비하며 가상애완 캐릭터에 입력된 다양한 프로그램기능을 수행하는 과정으로 구성되며 가상애완 캐릭터를 이용자가 기능을 설정하기 위해서 설정프로그램을 사용자인터페이스요소로 연관하여 실행하는 것을 포함한다.
상기 가상애완 캐릭터를 터치 위치에서 일정한 거리에 표시하는 표시부 및 상기 터치 위치에서 일정한 거리를 유지하며 이동 및 반응하는 가상애완 캐릭터를 이용자의 터치로 클릭선택에 따라서 줌인 및 줌 아웃 또는 특정한 애니메이션 반응을 하도록 하는 설정된 프로그램을 실행하는 마이크로프로세서 제어부를 구비한다.
또 다른 구현 예에 있어서, 터치감지장치를 구비한 전자장치가 구비되고 상기 터치 스크린은 터치 위치를 감지하는 터치 센서부; 및 상기 터치스크린의 좌표를 조정하고 설정하여 제어신호를 만드는 터치스크린회로 제어부; 및 상기 터치 위치에서 일정한 거리에 가상애완 캐릭터를 표시하는 표시부를 구비한다.
기존에 사용되는 터치감지장치의 멀티스크린 방식은 전자기기의 본래 기능만을 이용하여 작업을 함으로 친숙한 느낌을 갖기에 한정된 느낌을 받으며 이용자들이 호감을 가질 수 있는 요소가 부족하다는 느낌을 가지게 한다. 본 발명 방법으로 이용자의 인터넷 검색이나 작업수행에서 가상애완 캐릭터기능을 이용하여 이용자에게 편한 느낌과 호기심을 유발하여 터치스크린을 이용하는 사용자에게 가상애완동물 등을 기르거나 가지게 함으로써 친밀함을 가질 수 있고 터치감지장치를 갖는 전자기기에서 더욱 친숙함을 느끼게 할 수 있다. 그리고 기존의 잦은 줌인 및 줌 아웃기능은 두 손가락으로 모양을 만들어야 하는 어려움을 가져오고 있어 다소 불편한 느낌을 가지게 하지만 상기 가상애완 캐릭터를 클릭해서 줌 인과 줌 아웃을 하게 됨으로 이용자들이 간편하게 확대와 축소를 클릭기능으로 쉽게 할 수 있다.
상기 터치스크린과정에서 이용자들이 보다 빠른 작업의 수행과 귀여운 가상애완 캐릭터를 가짐으로 친숙하고 즐거운 가상환경을 만들고 이용자들에게 즐거움을 주어서 터치감지장치를 갖는 전자장치에 있어서 많은 사람이 친밀감을 느끼게 할 수 있다. 본 발명 방법으로 인터넷검색이나 책 읽기 작업 등에서 수행한다면 더욱 편리한 유비쿼터스 환경을 만들 수 있고 더 간편하게 터치감지장치를 작동할 수 있다.
기존의 스마트 터치스크린장치를 갖춘 전자기기는 이용자들이 화면에서 친숙함을 느끼기에 한정된 느낌을 가지며 손동작을 만들기 위해서 터치스크린에 두 손가락을 수직으로 만드는 과정과 이용자들이 그동안 느낄 수 없었던 이용자들에게 전자기기가 친밀하게 반응하는 역할을 할 수 있고 이용자가 즐거움을 느낄 수 있게 조작하기 위해서 더 다양한 기능을 가진 친숙한 소프트웨어 도구가 필요한 시점이다.
이용자에게 친밀감, 편의성과 효율성으로 멀티 네트워크통신 및 전자정보를 사용하는데 있어서 이용자 환경을 개선하고 더욱 효율적으로 기존의 컴퓨터 네트워크 기반을 연결하는 수단으로 활용될 것이다.
도 1은 본 발명의 실시 예에서 터치스크린 장치부분 및 터치스크린회로 제어부를 나타내는 도면이다.
도 2a는 본 발명의 실시 예에서 마이크로프로세서 제어부가 터치스크린을 이용하여 가상애완캐릭터의 실행에서 가상애완 캐릭터의 제어 방법을 설명하기 위한 흐름도이다.
도 2b는 본 발명의 실시 예에서 가상애완 캐릭터의 기능을 설정하는 수행 흐름도이다.
도 3는 본 발명의 실시 예에서 터치스크린 전자장치에서 이용자의 터치 위치에서 검출되는 데이터를 이용하는 방법을 예시로 나타내는 도면이다.
도 4는 본 발명의 실시 예에서 터치스크린 전자장치에서 가상애완 캐릭터의 먹이에너지와 운동 및 반응에너지를 생성되고 설정프로그램에 따라서 실행되는 동작의 예시를 나타내는 도면이다.
도 5는 본 발명의 실시 예에서 터치스크린 전자장치에서 가상애완 캐릭터가 생성되고 설정프로그램에 따라서 실행되는 동작의 예시를 나타내는 도면이다.
도 6는 본 발명의 실시 예에서 가상애완 캐릭터를 클릭해서 상기 터치스크린 화면을 확대함과 동시에 확대상태에서 다시 가상애완도구를 클릭하면 화면이 축소되면서 돌아오는 작동방법 및 가상애완 캐릭터가 설정된 반응으로 변형하는 것을 터치스크린장치의 화면에서 나타내는 동작의 예시를 나타내는 도면이다.
도 7는 본 발명의 실시 예에서 이용자가 설정 상태에 따라서 터치스크린화면의 인터넷 검색에서 가상애완 캐릭터를 클릭해서 가상애완동물이 이용자에게 반응을 하는 작동방법을 터치스크린장치의 화면에서 나타내는 도면이다.
도 2a는 본 발명의 실시 예에서 마이크로프로세서 제어부가 터치스크린을 이용하여 가상애완캐릭터의 실행에서 가상애완 캐릭터의 제어 방법을 설명하기 위한 흐름도이다.
도 2b는 본 발명의 실시 예에서 가상애완 캐릭터의 기능을 설정하는 수행 흐름도이다.
도 3는 본 발명의 실시 예에서 터치스크린 전자장치에서 이용자의 터치 위치에서 검출되는 데이터를 이용하는 방법을 예시로 나타내는 도면이다.
도 4는 본 발명의 실시 예에서 터치스크린 전자장치에서 가상애완 캐릭터의 먹이에너지와 운동 및 반응에너지를 생성되고 설정프로그램에 따라서 실행되는 동작의 예시를 나타내는 도면이다.
도 5는 본 발명의 실시 예에서 터치스크린 전자장치에서 가상애완 캐릭터가 생성되고 설정프로그램에 따라서 실행되는 동작의 예시를 나타내는 도면이다.
도 6는 본 발명의 실시 예에서 가상애완 캐릭터를 클릭해서 상기 터치스크린 화면을 확대함과 동시에 확대상태에서 다시 가상애완도구를 클릭하면 화면이 축소되면서 돌아오는 작동방법 및 가상애완 캐릭터가 설정된 반응으로 변형하는 것을 터치스크린장치의 화면에서 나타내는 동작의 예시를 나타내는 도면이다.
도 7는 본 발명의 실시 예에서 이용자가 설정 상태에 따라서 터치스크린화면의 인터넷 검색에서 가상애완 캐릭터를 클릭해서 가상애완동물이 이용자에게 반응을 하는 작동방법을 터치스크린장치의 화면에서 나타내는 도면이다.
상기 목적을 달성하기 위해서 본 발명은 도면을 참조하여 상세하게 설명하고자 하며 실시 예에 따른 사상이 충분히 전달될 수 있도록 하기 위해서 실시 예로서 제공되는 것으로 본 발명은 이하 설명된 실시 예들에 한정되지 않고 다른 형태로 구체화될 수도 있다.
도 1은 실시 예에 따른 본 발명에서 구성되는 장치 및 프로그램으로서 메모리장치(150)에 저장되는 가상애완 캐릭터 프로그램(160), 상기 가상애완 캐릭터를 표시하고 프로그램의 영상을 출력하는 화면표시부(140), 상기 이용자가 가상애완 캐릭터를 터치할 수 있도록 하여서 피 제어 화면의 가상애완 캐릭터가 설정된 기능으로 실행하도록 터치 위치의 신호를 입력하는 터치스크린(120), 상기 터치 위치 신호를 감지하는 터치감지센서(130), 상기 터치스크린 및 터치감지센서와 화면표시부를 보호하는 본체(100), 상기 가상애완 캐릭터가 설정된 기능으로 실행하도록 센싱을 하는 터치스크린(120)의 종류는 저항막, 정전용량, 표면 초음파전도 또는 IR(infra red) 방식 등의 터치스크린이 있고, 상기 가상애완 캐릭터가 터치에 반응하고 설정된 기능을 분류하고 계산하는 마이크로프로세서 제어부(200) 및 상기 이용자가 가상애완동물을 다른 프로그램으로 교체할 수 있도록 가상애완 캐릭터를 입출력하여 변경하는 기능을 이용하여 UI요소와 연관해서 입력하는 입출력장치(170)를 구비된다.
본 발명에서 도 2a는 실시 예에 따른 가상애완 캐릭터의 흐름도(S100)를 도 1과 비교하여 설명하면 상기 터치감지장치인 터치스크린(120)과 터치 감지센서(130)에서 이용자의 터치 지점에서 일정한 터치 기간 및 터치 상태가 없어질 때 가상애완 캐릭터생성 - 인지 판단하는 단계(S110); 상기 동일한 일정한 터치 기간일 때 가상애완 캐릭터가 화면표시부(140)에서 출력되도록 실행하기 위해서 상기 가상애완도구의 이미지가 터치 위치에서 일정한 거리에 표시되는 단계(S120); 상기 가상애완 캐릭터의 프로그램(160)이 저장된 메모리장치(150)에서 가상애완 캐릭터이미지의 설정프로그램이 터치 위치에서 일정한 거리에 유지되어 실행되도록 입력한 애니메이션 프로그램을 제어하는 제어부(200)로 데이터를 보내어 분류 및 리스트로 변환하여 실행하는 단계(S130); 상기 설정한 가상애완 캐릭터와 연계된 UI요소 및 요소들 또는 전자기기의 명령어로 연관 및 실행하는 단계(S140); 및 상기 가상애완도구의 GUI요소 및 명령어의 동작이 디스플레이 상에 디스플레이하는 단계(S150) 상기 이용자가 터치스크린에서 터치로 가상애완 캐릭터를 클릭 및 특정한 동작을 식별하는 단계(S160); 상기 가상애완 캐릭터의 클릭 또는 터치 동작 ,터치 기간으로 설정한 터치에 반응 및 입력한 프로그램이 실행하는 단계(S170); 및 상기 가상애완 캐릭터생성을 중지할 것인지 판단하는 단계(S180)로서 이용자가 디스플레이(140)에서 가상애완 캐릭터의 실행 및 GUI의 내용을 확인하거나 연계작업을 실행 및 설정할 수 있으며 입출력장치(170)로 보내어져서 가상애완 캐릭터의 프로그램입력 및 명령이 실행되는 데이터를 입출력할 수 있다.
본 발명에서 도 2b는 본 발명에서 실시 예에 따른 터치감지장치의 가상애완 캐릭터를 사용자가 사용자인터페이스요소로 연관하여 상기 디스플레이(140) 상에서 이용자가 가상애완 캐릭터의 기능을 변경하는 과정을 나타낸 흐름도(S300)이고 상기 판독 단계 전에 상기 가상애완 캐릭터의 사용자 인터페이스 요소를 디스플레이 상에 디스플레이하는 단계(S310); 및 상기 가상애완 캐릭터의 기능상태를 바꾸기 위해서 디스플레이되는 상기 사용자 인터페이스 요소를 변경하는 단계(S320)를 더 포함하는 컴퓨터 구현 방법을 실시 예로서 나타낸 것으로 설정기능은 먹이기간 및 먹이에너지 설정기능, 가상애완 캐릭터의 성장기능, 운동 및 반응에너지 설정기능, 줌인 및 줌 아웃 설정기능과 기호 (+, -) 표시기능, 가상애완 캐릭터의 종류 선택기능, 기타 효과 선택기능 등등이며 바람직하게 추가하여 전송기능, 버튼 및 조이스틱 기능을 추가할 수 있다.
본 발명으로 터치스크린 상의 이용자의 터치 위치에서 검출되는 데이터를 이용하여 가상애완캐릭터의 이미지에서 최초의 터치 위치 및 기준좌표 링크와 이동각도 및 좌표위치를 식별하여서 가상애완 캐릭터의 다양한 입력수단으로 활용할 수 있다.
도 3에서 본 발명의 실시 예에 따른 상기 각각의 터치 위치의 가상애완 캐릭터의 이미지영역의 링크좌표에서 터치의 방향이동(54)은 별개의 입력을 나타낸다. 그림(a)에서 터치스크린(120)에서 이용자의 터치 위치(90)가 검출 데이터에 의해서 감지되어 크기 Z를 형성하고 그림(b)에서 각각의 터치 위치(90)에서 터치 영역의 특징은 그 자신의 각각의 터치 위치(90)에서 가상캐릭터의 이미지영역 내의 터치감지영역에서 고유 식별자(IDn), x 좌표, y 좌표, Z 크기, 각도 θ, 면적 A, 기타 등등을 포함한다. 상기 터치 위치(90)에서 얻어진 A의 좌표(x, y) 및 방향을 기준(95)으로 가상애완 캐릭터의 이미지영역에서 정해진 각도 θn 및 좌표를 검출할 수 있고 적어도 하나의 감지영역(90)을 판독하여 감지영역모양의 각도 및 좌표요소로 정확하게 컴퓨터 명령을 수행할 수 있으므로 상기 화면의 터치스크린(120)에서 입력한 사용자인터페이스요소로 연관하여 명령을 수행(ID)하여서 설정한 프로그램을 실행하고 이용자가 선호하는 작동방식을 만들고 설정해서 자신의 가상애완 캐릭터(30)를 입력할 수 있다. 상기 터치 위치가 이미지영역일 때에 처음 터치한 순간 가상애완 캐릭터는 설정한 프로그램을 일시 중지하고 이용자의 터치에 반응하여 터치 위치의 데이터에 따라서 설정한 프로그램이 실행된다. 도 3의 그림(b)에서 표시한 각도 θn와 면적 A 및 좌표를 분석 및 분류하고 여기에서 얻어진 데이터를 활용해서 터치감지영역입력에서 이용자가 접촉하는 가상애완 캐릭터의 이미지영역(30) 내에서 방향이동 및 드래그(54) 및 클릭으로 터치 위치(90)의 데이터를 이용하여 컴퓨터 및 칩에 명령을 보내기 위해서 사용자인터페이스로 연관하여 프로그램실행 및 명령어를 보내어 가상애완 캐릭터의 작동, 이미지 출력 등을 실행할 수 있다.
상기 터치 위치를 실행할 때에 설정하고 제어하는 방식 중에 한 가지로 포함되며 이 데이터는, 예를 들어, 다중 터치 프로토콜을 사용하여 출력될 수 있다.
상기 도 4의 그림(c)에서 사용자가 터치 위치에서 적어도 하나의 입력된 감지영역 내의 링크 및 기준좌표(53) 및 방향과 위치(54)를 구하기 위해서 적어도 하나의 터치 위치에서 검출된 데이터를 바탕으로 그 모양의 중심을 이은 선(54)과 기준 좌표축(53)을 기준으로 하거나 입력된 기준 좌표(54)를 활용할 수도 있으며 가상애완 캐릭터(30)의 성장에너지(51)와 운동 및 반응에너지(50)를 나타내며 상기 이용자의 터치로 생성된 데이터를 분석하고 분류해서 실행하는 과정으로 그림(a)에서 가상애완 캐릭터(30)를 생성하고 성장에너지(60)를 주기 위해서 일정기간마다 때에 맞추어서 가상먹이 그릇(61)이 나타나며 가상먹이 그릇(61)을 이용자의 손가락 및 물체(90)로 클릭 및 링크(46)하여 먹이 및 성장에너지(60)를 자동으로 주게 되어 먹이 및 성장에너지(60)가 차면 그릇은 사라진다. 그림 (b)는 가상애완 캐릭터(30)의 운동 및 반응에너지(50)를 주기 위해서 이용자가 가상애완 캐릭터를 클릭(45)해서 기준좌표에 링크(53)하고 가상캐릭터를 상하(51) 좌우(52) 및 이미지영역범위(54)를 문지르거나 이동(51, 52)시키면 운동 및 반응에너지(50)를 주게 되며 가상애완 캐릭터는 활동이 활발해지면서 특정한 반응 작동신호를 표시하거나 실행하고, 이때 가상애완 캐릭터는 기준좌표(53)에서 이미지영역(30)의 링크좌표(53)에서 이동하는 방향 및 거리(54) 또는 위치(X, Y)좌표에 따라서 가상애완 캐릭터(30)의 이미지가 특정한 변화 및 변형을 하게 되고 가상캐릭터의 일정한 거리(54) 및 영역(56)이상 터치 위치(53)가 기준 링크좌표(53)에서 이동하면 드래그 신호(56)로 인식되어 가상애완 캐릭터를 드래그시켜서 적당한 장소에 가상캐릭터를 위치하도록 할 수 있다. 이때, 상기 이동은 터치스크린의 표면에서 클릭 또는 터치접촉상태에서 실행하며 클릭이 동시에 빠르게 접점신호를 주게 되면 클릭으로 신호를 인식하고 상기 가상애완 캐릭터에 광고기능표시도 설정 가능하게 할 수 있다. 상기 터치스크린 장치(120)는 상기 터치 위치에서 가상애완 캐릭터의 감지영역 방향 및 각도 또는 이동좌표의 정보를 제어부(200)로 전달한다. 메모리장치(150)로부터의 가상애완 캐릭터작동 프로그램(160)을 사용하여, 상기 프로세서 제어부(200)는 가상캐릭터의 감지영역 내에서 기준좌표와 방향 및 각도를 해석하고 저장하는 메모리장치(150), 디스플레이(140) 및 입출력장치(170) 등의 컴퓨터 시스템의 서로 다른 요소 및 부품을 제어한다. 가상애완 캐릭터의 작동 프로그램(160)은 메모리장치(150)에 저장된 애플리케이션에서의 동작을 수행하고, 디스플레이(140) 상에 GUI요소와 연관해서 프로그램을 수행 및 실행하며, 메모리장치(150)에 저장된 데이터를 실행하고, 입출력장치(170)에서의 동작을 수행하는 명령으로서 식별될 수 있다.
상기 명령은 각각의 이용자의 손가락 및 손에서 터치 감지영역의 데이터, 터치 위치의 상태 및 작동기간의 조합된 실행으로 컴퓨터 시스템에 로그온 및 제한된 영역에의 엑세스 등으로 연관되어 있을 수 있다.
상기 UI 요소는 가상 버튼, 리스트, 이미지객체, 이미지 아이콘, 특정프로그램 실행 및 종료, 전자기기 작동 및 종료 기타 등등이다. 각각의 UI 요소는 사용자 인터페이스의 요소부품 또는 컨트롤을 나타낸다.
도 5의 그림 (a)는 가상애완 캐릭터(30)가 터치스크린의 화면(100)에 생성하는 과정이고 그림 (b)는 상기 생성한 가상애완 캐릭터(30)가 스스로 설정된 변환으로 프로그램이 초기 가상애완 캐릭터(35)에서 변환 중인 가상애완 캐릭터(36)가 설정된 프로그램을 진행(45)하는 과정에서 이미지영역을 이용하여 광고기능(36)을 실행할 수 있다. 그림 (c)는 가상애완 캐릭터(30)가 이용자의 손가락(90)에서 일정한 거리(41)를 유지하며 따라오며 설정된 프로그램이 실행(40)되는 것을 나타낸 것으로 상기 바람직하게 가상캐릭터는 문서 파일 및 인터넷에서 투명해지거나 일정한 장소로 자동으로 이동 및 사라지도록 드래그 및 설정할 수 있다.
도 6은 본 발명에서 실시 예로서 가상애완 캐릭터를 초기상태의 이미지(37)에서 이용자가 손가락(90)으로 클릭(46)해서 설정된 기능을 실행하거나 특정한 반응으로 변형된 이미지(38)로 변형되어 이용자의 터치 위치(90)를 자동으로 따라오는 것을 나타낸 것이다.
도 7의 그림 (a)는 본 발명에서 실시 예로서 터치스크린화면(100)에서 가상애완 캐릭터(30)를 인터넷 등을 이용할 때에 터치 위치(90)에서 일정한 거리(41)에서 대기하거나 그림(b)에서 상기 이용자가 손가락(90)으로 클릭(46)해서 설정된 기능을 실행하거나 특정한 반응으로 변형된 이미지로 변형되도록 이용자가 조작하는 모습을 나타낸 것이며 상기 클릭(46)으로 설정된 프로그램이 실행되고 터치 위치(90)를 자동으로 따라오도록 한 것을 실시 예로서 나타낸 것이다.
본 발명에서 이용자들의 터치감지장치의 접촉상태를 이용하여 입력된 가상애완 캐릭터의 프로그램으로 가상캐릭터가 터치 상황을 판단하고 이에 대응하는 설정 프로그램을 작동하거나 반응을 할 수 있어서 터치감지장치를 갖춘 전자기기를 사용할 때에 이용자의 작업 수행이 더욱 친밀해지고 가상 멀티 네트워크통신을 사용하는데 있어서 사용자 중심의 즐거운 감성적인 유비쿼터스환경을 만드는 수단으로 이용하게 될 것이다.
160: 가상애완 캐릭터 프로그램 도구
120: 터치스크린
130: 터치감지센서
150: 메모리장치
140: 디스플레이
200: 제어부
170: 입출력장치
120: 터치스크린
130: 터치감지센서
150: 메모리장치
140: 디스플레이
200: 제어부
170: 입출력장치
Claims (16)
- 다중점 터치감지장치에서 가상애완 캐릭터의 이미지 및 데이터를 처리하기 위한 컴퓨터구현방법에 있어서,
상기 터치 위치에서 일정한 거리 및 방향에 가상애완 캐릭터의 이미지를 표시하는 단계; 및
상기 터치 위치에서 일정한 거리 및 방향을 유지하는 가상애완 캐릭터의 이미지영역에 터치하여 상기 터치 위치의 데이터에 의해서 터치접촉이동으로 특정한 반응 및 설정한 프로그램이 실행하도록 제어하는 단계를 포함하는 상기 터치 위치의 일정한 거리 및 방향에 가상애완 캐릭터를 구현하는 방법. - 제1항에 있어서,
상기 가상애완 캐릭터에 반응 및 설정한 프로그램이 실행되도록 사용자 인터페이스 요소를 연관시키는 단계; 및
상기 사용자 인터페이스 요소를 디스플레이 상에 디스플레이하는 단계를 더 포함하는 구현 방법. - 제1항에 있어서,
상기 판독 단계 전에 상기 사용자 인터페이스 요소를 디스플레이 상에 디스플레이하는 단계; 및
그 다음에, 상기 적어도 하나의 이용자의 손이 터치하는 가상애완 캐릭터의 이미지영역의 반응 및 입력한 프로그램에 기초해서 디스플레이되는 상기 사용자인터페이스 요소를 변경하는 단계를 더 포함하는 구현 방법. - 제1항에 있어서,
상기 가상애완 캐릭터에 클릭 및 터치를 식별하는 단계; 및
상기 사용자의 클릭 및 터치이동으로 가상애완 캐릭터가 설정된 프로그램이 실행되는 단계를 더 포함하는 구현 방법. - 제1항 내지 제4항 중 어느 한 항에 있어서,
상기 이용자의 가상애완 캐릭터의 반응 및 설정프로그램을 사용자인터페이스요소 또는 명령어와 연관하는 구현 방법. - 제1항 내지 제4항 중 어느 한 항에 있어서,
상기 이용자의 터치 위치의 데이터를 이용하여 터치로 가상애완 캐릭터의 이미지를 변환시키는 구현 방법. - 제1항 내지 제4항 중 어느 한 항에 있어서,
상기 가상애완 캐릭터의 설정프로그램을 실행하기 위해서 이미지영역의 터치감지장치의 표면에서 연속하여 구현하는 방법. - 제1항 내지 제4항 중 어느 한 항에 있어서,
상기 가상애완 캐릭터의 이미지영역의 일정한 거리이상에서 드래그로 이동을 구현하는 방법. - 제1항 내지 제3항 중 어느 한 항에 있어서,
상기 가상애완 캐릭터가 일정한 기간에 먹이 그릇을 표시 및 먹이 에너지연동 구현 방법. - 제1항 내지 제2항 중 어느 한 항에 있어서,
상기 터치 위치에서 일정한 거리 및 방향에 가상애완 캐릭터의 이미지를 유지하는 구현 방법. - 제1항 내지 제2항 중 어느 한 항에 있어서,
상기 피 제어 화면상의 일정한 위치에 가상애완 캐릭터의 이미지를 유지하는 구현 방법. - 제1항 내지 제4항 중 어느 한 항에 있어서,
상기 터치 위치에서 일정한 거리 및 방향에 가상애완 캐릭터의 이미지를 표시하는 구현 방법. - 제1항 내지 제2항 중 어느 한 항에 있어서,
상기 가상애완 캐릭터의 이미지에 이용자가 터치로 링크하는 구현 방법. - 제4항에 있어서,
상기 가상애완 캐릭터의 이미지를 클릭하여 줌인 및 줌 아웃을 구현하는 방법. - 제1항 내지 제2항 중 어느 한 항에 있어서,
상기 가상애완 캐릭터에 먹이에너지와 운동 및 반응에너지를 구현하는 방법. - 터치감지장치에서 터치감지영역의 제어방법과 전자장치에 있어서,
상기 이용자의 터치 위치를 감지하는 센서부; 및
상기 터치 위치를 판독하여 일정한 거리 및 방향 또는 위치에 가상애완 캐릭터를 구현하는 방법과 이를 이용하는 전자장치.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100123136A KR20120062053A (ko) | 2010-12-06 | 2010-12-06 | 터치스크린의 가상 캐릭터 제어방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100123136A KR20120062053A (ko) | 2010-12-06 | 2010-12-06 | 터치스크린의 가상 캐릭터 제어방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20120062053A true KR20120062053A (ko) | 2012-06-14 |
Family
ID=46683104
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100123136A KR20120062053A (ko) | 2010-12-06 | 2010-12-06 | 터치스크린의 가상 캐릭터 제어방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20120062053A (ko) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101407483B1 (ko) * | 2013-04-19 | 2014-06-17 | 주식회사 위메이드엔터테인먼트 | 터치 스크린을 구비한 모바일 단말기를 이용하여 온라인 게임을 수행하는 방법 및 시스템. |
CN110871447A (zh) * | 2018-08-31 | 2020-03-10 | 比亚迪股份有限公司 | 车载机器人及其人机交互方法 |
CN111784805A (zh) * | 2020-07-03 | 2020-10-16 | 珠海金山网络游戏科技有限公司 | 一种虚拟角色交互反馈方法和装置 |
-
2010
- 2010-12-06 KR KR1020100123136A patent/KR20120062053A/ko not_active Application Discontinuation
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101407483B1 (ko) * | 2013-04-19 | 2014-06-17 | 주식회사 위메이드엔터테인먼트 | 터치 스크린을 구비한 모바일 단말기를 이용하여 온라인 게임을 수행하는 방법 및 시스템. |
CN110871447A (zh) * | 2018-08-31 | 2020-03-10 | 比亚迪股份有限公司 | 车载机器人及其人机交互方法 |
CN111784805A (zh) * | 2020-07-03 | 2020-10-16 | 珠海金山网络游戏科技有限公司 | 一种虚拟角色交互反馈方法和装置 |
CN111784805B (zh) * | 2020-07-03 | 2024-02-09 | 珠海金山数字网络科技有限公司 | 一种虚拟角色交互反馈方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9891820B2 (en) | Method for controlling a virtual keyboard from a touchpad of a computerized device | |
US9891821B2 (en) | Method for controlling a control region of a computerized device from a touchpad | |
US9678662B2 (en) | Method for detecting user gestures from alternative touchpads of a handheld computerized device | |
US20170017393A1 (en) | Method for controlling interactive objects from a touchpad of a computerized device | |
US20160364138A1 (en) | Front touchscreen and back touchpad operated user interface employing semi-persistent button groups | |
US7907125B2 (en) | Recognizing multiple input point gestures | |
KR101361214B1 (ko) | 터치스크린의 제어영역을 설정하는 인터페이스 장치 및 방법 | |
US9529523B2 (en) | Method using a finger above a touchpad for controlling a computerized system | |
US9542032B2 (en) | Method using a predicted finger location above a touchpad for controlling a computerized system | |
TWI493387B (zh) | 多點觸控滑鼠 | |
EP2575006B1 (en) | Touch and non touch based interaction of a user with a device | |
US20110060986A1 (en) | Method for Controlling the Display of a Touch Screen, User Interface of the Touch Screen, and an Electronic Device using The Same | |
JPWO2013094371A1 (ja) | 表示制御装置、表示制御方法およびコンピュータプログラム | |
JP2011028524A (ja) | 情報処理装置、プログラムおよびポインティング方法 | |
Wolf et al. | Performance envelopes of in-air direct and smartwatch indirect control for head-mounted augmented reality | |
WO2010032268A2 (en) | System and method for controlling graphical objects | |
Corsten et al. | Forceray: Extending thumb reach via force input stabilizes device grip for mobile touch input | |
JP2006500676A (ja) | グラフィカル・ユーザ・インタフェース・ナビゲーション方法、及び装置。 | |
US20140253486A1 (en) | Method Using a Finger Above a Touchpad During a Time Window for Controlling a Computerized System | |
KR20160097410A (ko) | 동작 인식을 통한 비접촉식 입력 인터페이스 제공 방법 및 그 장치 | |
JP5275429B2 (ja) | 情報処理装置、プログラムおよびポインティング方法 | |
US9639195B2 (en) | Method using finger force upon a touchpad for controlling a computerized system | |
KR20120062053A (ko) | 터치스크린의 가상 캐릭터 제어방법 | |
WO2015013662A1 (en) | Method for controlling a virtual keyboard from a touchpad of a computerized device | |
WO2015178893A1 (en) | Method using finger force upon a touchpad for controlling a computerized system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E601 | Decision to refuse application |