KR101398862B1 - 터치 스크린을 이용한 스마트 기기 간 던지기 액션 수행방법 - Google Patents

터치 스크린을 이용한 스마트 기기 간 던지기 액션 수행방법 Download PDF

Info

Publication number
KR101398862B1
KR101398862B1 KR1020120103052A KR20120103052A KR101398862B1 KR 101398862 B1 KR101398862 B1 KR 101398862B1 KR 1020120103052 A KR1020120103052 A KR 1020120103052A KR 20120103052 A KR20120103052 A KR 20120103052A KR 101398862 B1 KR101398862 B1 KR 101398862B1
Authority
KR
South Korea
Prior art keywords
touch
coordinates
smart device
movement
action
Prior art date
Application number
KR1020120103052A
Other languages
English (en)
Other versions
KR20140037397A (ko
Inventor
한정준
최태준
Original Assignee
주식회사 윌드림
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 윌드림 filed Critical 주식회사 윌드림
Priority to KR1020120103052A priority Critical patent/KR101398862B1/ko
Publication of KR20140037397A publication Critical patent/KR20140037397A/ko
Application granted granted Critical
Publication of KR101398862B1 publication Critical patent/KR101398862B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 터치 스크린을 이용한 스마트 기기 간 던지기 액션 수행방법에 관한 것으로서, 터치 스크린이 장착된 제1 스마트 기기에서, 상기 제1 스마트 기기의 터치 스크린상의 미리 정해진 위치에 하나 이상의 오브젝트를 디스플레이하는 단계(S00); 상기 제1 스마트 기기의 터치 스크린에 디스플레이된 오브젝트 상의 사용자의 손가락 터치를 감지하여, 터치된 손가락의 터치 포인트의 위치 좌표를 기초로 던지기 액션의 대상인 오브젝트를 선택하고, 상기 위치 좌표를 기준좌표로 손가락 터치가 감지된 시간을 터치시간으로 저장하는 터치 시작/오브젝트 선택 단계(S10); 상기 오브젝트 상에 터치된 손가락의 이동을 감지하고, 이동중인 손가락의 터치 스크린에서 변경되는 위치좌표를 측정하여 이동좌표로서 저장하는 터치이동 이벤트 감지단계(S20); 상기 오브젝트 상에 터치되어 이동중인 손가락의 터치 스크린에서의 이탈을 감지하여, 상기 이동중인 손가락이 터치 스크린에서 이탈시 이동좌표를 최종좌표로 상기 손가락이 터치 스크린에서 이탈된 시간을 터치종료시간으로 저장하는 터치종료 이벤트 감지단계(S30); 상기 기준좌표 및 터치시간과 이동좌표 및 터치종료시간을 기초로, 제2 스마트 기기의 스크린상에 상기 오브젝트가 디스플레이될 미리 설정된 위치인 타겟을 결정하고, 상기 제2 스마트 기기의 디스플레이를 컨트롤하는 신호인 타겟 디스플레이 컨트롤 신호를 생성하여 제2 스마트 기기로 전송함으로써, 상기 오브젝트가 제2 스마트 기기의 타겟에 디스플레이 되도록 하는 던지기 액션 수행 단계(S40)를 포함하여 수행된다.

Description

터치 스크린을 이용한 스마트 기기 간 던지기 액션 수행방법{Method for performing throwing action between smart devices using touch screen}
본 발명은 스마트 기기 간 던지기 액션의 수행방법에 관한 것으로서, 보다 상세하게는, 타 스마트 기기(예컨대, 스마트 폰, 태블릿 PC, 스마트 TV 등)의 컨트롤 기능이 구비되고 터치 스크린이 장착된 스마트 기기(예컨대, 스마트 폰, 태블릿 PC 등)의 터치 스크린을 이용한 스마트 기기 간 던지기 액션의 수행 방법에 관한 것이다.
텔레비전(이하, ‘TV’라 칭함)은 19세기 말에 처음 등장한 이후, 20세기 후반부터 가장 대중적인 정보 전달 기기로 확고히 자리 잡았다. 따라서 화질이 발달하고 채널이 늘어난 TV가 속속 등장하고 있다. 하지만, 방송국에서 전해주는 단방향의 정보를 시청자들이 일방적으로 수용한다는 근본적인 형태는 거의 변화할 기미가 보이지 않았다. 이러한 TV의 한계는 1990년대부터 개인용 컴퓨터(이하,‘PC’라 칭함) 및 인터넷이 대중화되면서 더욱 분명하게 부각되기 시작했다.
물론, 케이블 TV, IPTV(Internet Protocol television) 등이 등장하면서 VOD(Video On Demand, 주문형 비디오) 서비스가 활성화되는 등 TV는 부분적이나마 쌍방향 서비스가 가능한 방향으로 진화를 하고 있었다. 하지만, 이 정도 수준으로는 PC 수준의 쌍방향성에 비할 수가 없었고, 시대는 TV 자체에 좀 더 근본적인 변화를 요구하고 있었다.
스마트 TV(Smart TV)는 이러한 배경에서 비롯된 것으로서, TV에 인터넷 접속 기능을 결합, 각종 앱(Application, 응용 프로그램)을 설치해 웹 서핑 및 VOD 시청, 소셜 네트워크 서비스(Social Networking Service, 이하‘SNS’라 칭함), 게임 등의 다양한 기능을 활용할 수 있는 다기능 TV이다.
또한, 스마트 TV는 휴대용 통신 장치인 스마트 기기(예컨대, 스마트 폰, 태블릿 PC 등)과 유선/무선 통신네트워크를 통해 연결이 가능하며, 스마트 기기의 한 종류로서 분류된다. 한편, 휴대용 통신 장치인 스마트 기기는 입력장치로서 터치 스크린이 필수적으로 구비된 상황이다.
따라서, 스마트 TV를 포함하는 스마트 기기들이 다양한 유선/무선 네트워크로 연결됨에 따라, 상호 간 정보 데이터의 송/수신에 의한 정보의 공유가 가능할 뿐만 아니라, 스마트 기기들 간의 상호 연동되어 기능 컨트롤이 가능해지므로, 연동 된 스마트 기기 (예를 들어, 하나 이상의 스마트 폰 또는 테블릿 PC와 스마트 TV, 하나 이상의 스마트 폰 또는 테블릿 PC 등)를 이용하여 하나 이상의 스마트 기기를 사용하는 게임 등 다양한 어플리케이션의 구현이 가능해 지고 있다.
따라서, 본 발명은 터치 스크린이 구비된 휴대용 스마트 기기가 유선/무선 네트워크로 연결된 스마트 TV를 포함하는 타 스마트 기기에서 구동중인 게임을 원격지에서 컨트롤하여 스마트 기기 간 던지기 액션의 수행 방법을 제공하는 것을 목적으로 한다.
또한, 터치 스크린을 이용한 스마트 기기 간 던지기 액션 수행을 사용자에게 보다 직관적으로 전달하도록 하는 스마트 기기 간 던지기 액션의 수행 방법을 제공하는 것을 목적으로 한다.
상기 목적을 달성하기 위하여, 본 발명은 터치 스크린을 이용한 스마트 기기 간 던지기 액션 수행방법에 관한 것으로서, 터치 스크린이 장착된 제1 스마트 기기에서, 상기 제1 스마트 기기의 터치 스크린상의 미리 정해진 위치에 하나 이상의 오브젝트를 디스플레이하는 단계(S00); 상기 제1 스마트 기기의 터치 스크린에 디스플레이된 오브젝트 상의 사용자의 손가락 터치를 감지하여, 터치된 손가락의 터치 포인트의 위치 좌표를 기초로 던지기 액션의 대상인 오브젝트를 선택하고, 상기 위치 좌표를 기준좌표로 손가락 터치가 감지된 시간을 터치시간으로 저장하는 터치 시작/오브젝트 선택 단계(S10); 상기 오브젝트 상에 터치된 손가락의 이동을 감지하고, 이동중인 손가락의 터치 스크린에서 변경되는 위치좌표를 측정하여 이동좌표로서 저장하는 터치이동 이벤트 감지단계(S20); 상기 오브젝트 상에 터치되어 이동중인 손가락의 터치 스크린에서의 이탈을 감지하여, 상기 이동중인 손가락이 터치 스크린에서 이탈시 이동좌표를 최종좌표로 상기 손가락이 터치 스크린에서 이탈된 시간을 터치종료시간으로 저장하는 터치종료 이벤트 감지단계(S30); 상기 기준좌표 및 터치시간과 이동좌표 및 터치종료시간을 기초로, 제2 스마트 기기의 스크린상에 상기 오브젝트가 디스플레이될 미리 설정된 위치인 타겟을 결정하고, 상기 제2 스마트 기기의 디스플레이를 컨트롤하는 신호인 타겟 디스플레이 컨트롤 신호를 생성하여 제2 스마트 기기로 전송함으로써, 상기 오브젝트가 제2 스마트 기기의 타겟에 디스플레이 되도록 하는 던지기 액션 수행 단계(S40)를 포함하여 수행된다.
또한, 본 발명은 터치 스크린을 이용한 스마트 기기 간 던지기 액션 수행방법에 관한 것으로서, 터치 스크린이 장착된 제1 스마트 기기에서, 상기 제1 스마트 기기의 터치 스크린상의 미리 정해진 위치에 하나 이상의 오브젝트를 디스플레이하는 단계(S00); 상기 제1 스마트 기기의 터치 스크린에 디스플레이된 오브젝트 상의 사용자의 손가락 터치를 감지하여, 터치된 손가락의 터치 포인트의 위치 좌표를 기초로 던지기 액션의 대상 오브젝트를 선택하고, 상기 위치 좌표를 기준좌표로 저장하는 터치 시작/오브젝트 선택 단계(S10); 선택된 오브젝트 상에 터치된 손가락의 이동을 감지하고, 이동중인 손가락의 터치 스크린에서 변경되는 위치좌표를 측정하여 이동좌표로서 저장하는 터치이동 이벤트 감지단계(S20); 선택된 오브젝트 상에 터치되어 이동중인 손가락의 터치 스크린에서의 이탈을 감지하여, 상기 이동중인 손가락이 터치 스크린에서 이탈시 이동좌표를 최종좌표로 저장하는 터치종료 이벤트 감지단계(S30); 상기 기준좌표와 이동좌표를 기초로, 제2 스마트 기기의 스크린상에 상기 오브젝트가 디스플레이될 미리 설정된 위치인 타겟을 결정하고, 상기 제2 스마트 기기의 디스플레이를 컨트롤하는 신호인 타겟 디스플레이 컨트롤 신호를 생성하여 제2 스마트 기기로 전송함으로써, 상기 오브젝트가 제2 스마트 기기의 타겟에 디스플레이 되도록 하는 던지기 액션 수행 단계(S40)를 포함하여 수행된다.
바람직하게는, 상기 터치 시작/오브젝트 선택 단계(S10)는 터치된 손가락의 터치 포인트의 위치좌표가 특정 오브젝트가 선택되도록 미리 설정된 영역의 범위인 충돌임계범위 이내인지를 판단하는 터치 포인트와 던지기 오브젝트와의 충돌 첵 과정을 수행하여 상기 터치 포인트의 위치좌표가 상기 충돌임계범위 이내인 경우 상기 특정 오브젝트를 던지기 대상인 오브젝트로 선택하도록 수행된다
또한, 바람직하게는, 상기 터치이동 이벤트 감지단계(S20)는 선택된 오브젝트 상에 터치된 손가락의 이동이 미리 설정된 유효시간 이상 멈추었는지 여부를 판단하는 과정을 수행하여, 터치된 손가락의 이동이 유효시간 이상 멈춘 경우 손가락의 이동이 멈춘 터치 포인트의 위치 좌표를 기준위치좌표로 손가락의 이동이 멈춘 시간을 터치시간으로 변경하여 저장하는 과정을 수행된다.
더욱 바람직하게는, 상기 던지기 액션 수행 단계(S40)는, 상기 기준좌표와 최종좌표의 연장선이 터치 스크린상에서 이루는 각도인 진행각도를 계산하는 과정을 수행하여, 상기 진행각도에 따라 타겟을 결정하도록 수행된다.
아울러, 던지기 액션 수행 단계(S40)는, 상기 기준좌표와 제1 기기의 터치 스크린의 좌측 한계점(Lmax)의 연장선이 터치 스크린상에서 이루는 각도인 좌측 한계각도를 계산하는 과정; 상기 기준좌표와 제1 기기의 터치 스크린의 우측 좌측 한계점(Rmax)의 연장선이 터치 스크린상에서 이루는 각도인 우측 한계각도를 계산하는 과정; 상기 기준좌표와 최종좌표의 연장선이 터치 스크린상에서 이루는 각도인 진행각도를 계산하는 과정;을 수행하여, 상기 좌측 한계각도와 우측 한계각도 사이의 각도 범위를 유효각도 범위로 설정하고, 상기 진행각도가 유효각도 범위를 벗어나는 경우, 터치 스크린상의 미리 정해진 위치로 오브젝트 디스플레이를 복귀시키고 오브젝트 터치 대기 상태로 변경하도록 수행되는 것이 바람직하다.
또한, 상기 던지기 액션 수행 단계(S40)는, 상기 기준좌표에서 최종좌표까지의 이동좌표 간의 거리를 계산하고 이들의 합을 기준좌표와 최종좌표간의 오브젝트의 이동거리로서 계산하고, 상기 터치시간과 터치종료시간으로부터 오브젝트의 이동시간을 계산하여, 계산된 오브젝트의 이동거리 및 이동시간을 저장하는 과정 및 상기 오브젝트의 이동거리 및 이동시간으로부터 기준좌표와 최종좌표간의 이동속도를 계산하여 저장하는 과정을 수행하여, 상기 이동속도에 기초하여 제2 스마트 기기의 스크린상에 상기 오브젝트가 디스플레이될 미리 설정된 위치인 타겟을 결정하는 것이 바람직하다.
또한, 상기 던지기 액션 수행 단계(S40)는 상기 기준좌표와 최종좌표간의 거리를 오브젝트의 이동거리로서 계산하고, 터치시간과 터치종료시간으로부터 오브젝트의 이동시간을 계산하여, 계산된 오브젝트의 이동거리 및 이동시간을 저장하는 과정 및 상기 오브젝트의 이동거리 및 이동시간으로부터 기준좌표와 최종좌표간의 이동속도를 계산하여 저장하는 과정을 수행하여, 상기 이동속도에 기초하여 제2 스마트 기기의 스크린상에 상기 오브젝트가 디스플레이될 미리 설정된 위치인 타겟을 결정하는 것이 바람직하다.
여기서, 상기 던지기 액션 수행 단계(S40)는, 상기 기준좌표와 최종좌표가 터치 스크린상에서 이루는 각도인 진행각도를 계산하는 과정;을 수행하여, 상기 이동속도 및 진행각도에 기초하여 제2 스마트 기기의 스크린상에 상기 오브젝트가 디스플레이될 미리 설정된 위치인 타겟을 결정하는 것이 더욱 바람직하다.
아울러, 상기 던지기 액션 수행 단계(S40)는, 상기 기준좌표와 최종좌표가 터치 스크린상에서 이루는 각도인 진행각도를 계산하는 과정;을 수행하여, 상기 이동속도 및 진행각도에 기초하여 제2 스마트 기기의 스크린상에 상기 오브젝트가 디스플레이될 미리 설정된 위치인 타겟을 결정하는 것이 더욱 바람직하다.
또한, 상기 미리 설정된 이동속도의 범위에 따른 미리 설정된 가중치를 상기 이동속도에 곱하여 액션속도를 연산하는 과정을 포함하여, 상기 연산 된 액션속도에 따라 제2 스마트 기기의 스크린상에 상기 오브젝트가 디스플레이될 미리 설정된 위치인 타겟을 결정하는 것이 더욱 바람직하다.
한편, 상기 미리 설정된 이동거리의 범위에 따른 미리 설정된 제1 가중치를 이동거리에 곱하여 액션거리를 연산하는 과정을 포함하여, 상기 이동속도와 액션거리에 의하여 액션지속시간을 계산하고, 상기 액션지속시간에 기초하여 제1 스마트 기기 또는 제2 스마트 기기에서의 선택된 오브젝트의 이동 애니메이션을 수행하는 것이 바람직하다.
나아가, 바람직하게는 상기 던지기 액션 수행 단계(S40)는, 상기 기준좌표와 최종좌표간의 거리를 오브젝트의 이동거리로서 계산하고, 터치시간과 터치종료시간으로부터 오브젝트의 이동시간을 계산하여, 계산된 오브젝트의 이동거리 및 이동시간을 저장하는 과정을 포함하여 상기 이동거리 및 이동시간에 기초하여 제2 스마트 기기의 스크린상에 상기 오브젝트가 디스플레이될 미리 설정된 위치인 타겟을 결정도록 수행되며, 상기 던지기 액션 수행 단계(S40)는, 상기 기준좌표에서 최종좌표까지의 이동좌표 간의 거리의 합을 기준좌표와 최종좌표간의 오브젝트의 이동거리로서 계산하여, 계산된 오브젝트의 이동거리 및 이동시간을 저장하는 과정을 포함하여, 상기 이동거리 및 이동시간에 기초하여 제2 스마트 기기의 스크린상에 상기 오브젝트가 디스플레이될 미리 설정된 위치인 타겟을 결정하도록 수행된다.
여기서, 바람직하게는 상기 이동거리에 이동거리의 미리 설정된 범위에 따라 상기 이동거리가 길어지면 큰 값을 가지도록 미리 설정된 거리 가중치와 이동시간의 미리 설정된 범위에 따라 이동시간이 짧아지면 큰 값을 가지도록 미리 설정된 시간 가중치를 곱하여 액션거리를 연산하는 과정을 포함하여, 상기 액션거리에 기초하여 제2 스마트 기기의 스크린상에 상기 오브젝트가 디스플레이될 미리 설정된 위치인 타겟을 결정하도록 수행되는 것이 바람직하다.
나아가, 상기 기준좌표로부터 최종좌표 방향으로의 연장선상에 액션거리를 가지는 액션좌표를 연산하는 과정을 더 포함하여, 상기 액션좌표 값에 따라, 제2 스마트 기기의 스크린상에 상기 오브젝트가 디스플레이될 미리 설정된 위치인 타겟을 결정하도록 수행될 수 있다.
여기서, 상기 최종좌표와 액션좌표간의 거리을 상기 이동속도로 나눈 값인 액션지속시간을 계산하고, 상기 액션지속시간 동안 제1 스마트 기기 또는 제2 스마트 기기에서의 선택된 오브젝트의 이동 애니메이션을 수행하고 제2 스마트 기기의 타겟에 오브젝트를 디스플레이하도록 수행되는 것이 바람직하다.
상기와 같은 본 발명에 의하면 터치 스크린이 구비된 휴대용 스마트 기기가 유선/무선 네트워크로 연결된 스마트 TV를 포함하는 타 스마트 기기에서 구동중인 게임을 원격지에서 컨트롤하여 스마트 기기 간 던지기 액션의 수행 방법을 제공할 수 있다.
또한, 터치 스크린을 이용한 스마트 기기 간 던지기 액션 수행에 있어, 사용자에게 던지기 동작을 직관적으로 전달하는 것이 가능하다.
아울러, 스마트 기기 간 던지기 액션의 수행 방법은 다양한 스마트 기기 및 어플리케이션에 적용하여 다양한 방식의 게임 등 어플리케이션의 개발이 가능해진다.
도 1은 본 발명의 일실시 예에 따른 스마트 기기 간 던지기 액션의 수행방법이 구현되는 예시적인 시스템 구성도
도 2는 본 발명의 스마트 기기 간 던지기 액션의 수행방법의 흐름도
도 3a는 본 발명을 설명하기 위한 터치 스크린이 장착된 제1 스마트 기기의 예시 화면도
도 3b는 본 발명을 설명하기 위한 타겟 영역을 포함하는 제1 스마트 기기의 예시 화면도
도 4는 본 발명의 일실시예에 따라 구현되어 제1 스마트 기기에 설치되는 어플리케이션의 기능 수행 절차 흐름도
도 5는 본 발명의 일실시예에 따라 구현된 어플리케이션에 포함된 각도계산 모듈의 기능 수행 절차 흐름도
도 6a는 본 발명의 일실시예에 따라 구현된 어플리케이션에 포함된 이동거리 이동시간 계산 모듈의 기능 수행 절차 흐름도
도 6b는 본 발명의 실시예의 이동거리의 계산방법을 설명하기 위한 도면
도 7a는 본 발명의 일실시예에 따라 구현된 어플리케이션에 포함된 액션완료좌표와 액션지속시간 계산 모듈의 기능 수행 절차 흐름도
도 7b는 본 발명의 실시예의 액션완료좌표의 계산 방법을 설명하기 위한 도면
도 7c는 본 발명의 실시예의 액션완료좌표의 계산 방법이 적용된 어플리케이션의 구동을 설명하기 위한 화면.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는 적절하게 설명된다면 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
본 발명은 서로 연동되는 하나 이상의 스마트 기기에 설치된 특정 게임 애플리케이션과 같은 형태로 설치되어, 터치 스크린이 장착된 스마트 기기기에 디스플레이된 오브젝트를 사용자가 터치에 의하여 선택하여 터치앤드래그(Touch & Drag)와 같이 화면상에서 실제의 던지기 동작과 유사한 던지기 액션을 수행하고, 이에 따라, 연동 된 타 스마트 기기의 특정 위치(타겟)에 디스플레이되도록 하여 사용자는 특정 게임 애플리케이션 자신이 대상 오브젝트에 대하여 던지기 액션에 의하여 터치 스크린이 장착된 스마트 기기에서 타 스마트 기기로 실제로 던지기 동작을 수행한 것과 같이 느끼도록 하는 터치 스크린을 이용한 스마트 기기 간 던지기 액션 수행방법이다.
이때, 본 발명의 실시예에 따라, 각 미리 설정된 값은 어플레케이션의 제작시 최적화되어 제작자에 의하여 설정되어 제공될 수도 있고, 어플리케이션 사용자에 의하여 어플리케이션 상에서 설정될 수도 있다. 또한, 본 발명의 다른 실시예에 따라, 각 스마트 기기에는 사용자에게 던지기 액션의 느낌을 효과적으로 전달하기 위하여, 오브젝트의 이동 애니메이션 또는 음향효과 기능이 제공될 수 있다.
한편, 후술하는 상세한 설명에서의 제1 스마트 기기는 터치 스크린이 필수적으로 장착되어야 하나, 터치 스크린은 이에 한정되지 않고 터치 입력이 가능한 터치 패드, 태블릿 등을 포함되는 개념으로 사용되며, 제2 스마트 기기는 터치 스크린이 장착된 기기에 한정되지 않으며, 스마트 폰 및 스마트 TV와 스마트 기기뿐만 아니라 디스플레이 스크린이 구비되고 유선/무선 네트워크 접속이 가능한 컴퓨터, 디지털 방송용 단말기, 네비게이션, TV 등 단말기라면 어떠한 단말기도 본 발명의 제1 스마트 기기가 될 수 있다.
이하 본 발명의 바람직한 실시예에 따른 상세한 설명을 첨부된 도면들을 참조하여 설명한다. 하기에는 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.
도 1은 본 발명의 일실시 예에 따른 스마트 기기 간 던지기 액션의 수행방법이 구현되는 예시적인 시스템 구성도이다. 도 1을 참조하면, 본 발명을 구현하기 위해 스마트 TV(100)에는 상기 게임을 실행하기 위한 게임 어플리케이션(App.)(110)이 설치되고, 스마트 폰(200) 및 타블렛 PC(300)에는 타 기기에 생성된 컨트롤 신호를 생성하여 전송하기 위한 컨트 기능이 포함된 게임 어플리케이션(App.)(210, 310)이 설치되어 있다. 스마트 폰(200) 또는 타블렛 PC(300)은 사용자의 터치에 의한 던지기 액션의 입력 즉, 터치엔 드래그 동작을 입력받기 위한 터치 스크린이 장착되며, 스마트 폰(200) 또는 타블렛 PC(300) 각각과 스마트 TV(100)간 네트워크가 연결되어, 그 네트워크를 통해 스마트 폰(200) 또는 타블렛 PC(300)는 스마트 TV(100)의 디스플레이를 원격 제어하거나 타 스마트 폰(200) 또는 타블렛 PC(300)의 디스플레이를 원격 제어하도록 함으로써, 각 기기에서 연동되어 구동되는 게임 어플리케이션 본 발명의 스마트 기기 간 던지기 액션의 수행방법이 구현된다.
도 2는 본 발명의 스마트 기기 간 던지기 액션의 수행방법의 흐름도이다. 도 3a은 오브젝트 디스플레이 및 던지기 액션을 설명하기 위한 터치 스크린이 장착된 제1 스마트 기기의 예시 화면 도 3b는 던지기 액션에 의하여 오브젝트가 디스플레이되는 타겟 을 포함하는 제2 스마트 기기의 예시화면이다.
도 2를 참조하면, 본 발명은 터치 스크린이 장착된 제1 스마트 기기에서, 상기 제1 스마트 기기의 터치 스크린상의 미리 정해진 위치에 하나 이상의 오브젝트를 디스플레이하는 단계(S00), 터치 시작/오브젝트 선택 단계(S10), 터치이동 이벤트 감지단계(S20); 터치종료 이벤트 감지단계(S30), 던지기 액션 수행 단계(S40)를 포함하여 수행되며, 제2 스마트 기기에서는 어플리케이션의 시작과 함께 상기 오브젝트 중 던지기 액션의 대상이 되는 오브젝트가 디스플레이될 미리 설정된 타겟영역이 도 3b에서와 같이 사전 설정되어 디스플레이 된다(S01). 어플리케이션의 시작 및 활성화는 제1 스마트 기기와 제2 스마트 기기는 상호 또는 제1 스마트 기기에 의하여 제2 스마트 기기가 제어될 수 있으며, 이를 위하여 양 기기가 유선/무선 네트워크를 통하여 연동된 상태이다.
도 3a에서와 같이, 제1 스마트 기기의 터치 스크린상의 미리 정해진 위치에 하나 이상의 오브젝트(Object1, Object2,...ObjectN)를 디스플레이하고, 제1 스마트 기기는 터치 스크린상의 사용자의 오브젝트 터치 입력을 위한 오브젝트 터치 대기 상태가 되어 터치 스크린상에서의 오브젝트의 터치를 기다린다.
이어, 터치 시작/오브젝트 선택 단계(S10)는 터치 시작 이벤트로서 상기 제1 스마트 기기의 터치 스크린에 디스플레이된 오브젝트 상의 사용자의 손가락 터치를 감지하여, 터치된 손가락의 터치 포인트의 위치 좌표를 기초로 던지기 액션의 대상 오브젝트를 선택하고, 상기 터치된 손가락의 터치 포인트의 위치 좌표를 기준좌표로 손가락 터치가 감지된 시간을 터치시간으로 저장한다.
던지기 액션의 수행에 있어 타겟결정의 기초로 터치종료시간, 이로부터 연산되는 속도 등 시간과 관련된 변수의 사용 없이 타겟이 결정될 수 있으며, 이러한 실시예의 경우에는 터치 시작/오브젝트 선택 단계(S10)는 상기 터치된 손가락의 터치 포인트의 위치 좌표를 기준좌표로 저장하는 과정만을 수행하고, 손가락 터치가 감지된 시간을 터치시간으로 저장하는 과정은 생략할 수도 있다.
또한, 터치 시작/오브젝트 선택 단계(S10)는 터치된 손가락의 터치 포인트의 위치좌표가 특정 오브젝트가 선택되도록 미리 설정된 영역의 범위인 충돌임계범위 이내인지를 판단하는 터치 포인트와 던지기 오브젝트와의 충돌 첵 과정을 수행하도록 구현될 수 있으며, 이 경우 상기 터치 포인트의 위치좌표가 상기 충돌임계범위 이내인 경우에 한하여 상기 특정 오브젝트를 던지기 대상 오브젝트로 선택되고, 상기 터치 포인트의 위치좌표가 상기 충돌임계범위를 벗어나는 경우, 제1 기기의 터치 스크린상에서 오브젝트 터치 대기모드가 유지되며, 대상 오브젝트의 선택은 이루어지지 않도록 실시된다.
터치이동 이벤트 감지단계(S20)에서는 선택된 오브젝트 상에 터치된 손가락의 이동을 감지하고, 이동중인 손가락의 터치 스크린에서 변경되는 위치좌표를 측정하여 이동좌표로서 저장하는 과정을 수행하여, 도 6b에서와 같이, 선택된 오브젝트 상에 터치된 손가락의 이동 즉, 선택된 오브젝트의 드래그에 의하여 발생하는 사용자의 터치 포인트의 이동 경로에 따라 변경되는 각 위치좌표를 일련의 이동좌표(P11,P12,P13...)로서 저장한다. 터치 포인트의 변경에 따라 디스플레이된 선택된 오브젝트의 위치가 연속적으로 변경되어 디스플레이된다.
바람직하게는, 터치이동 이벤트 감지단계(S20)는 선택된 오브젝트 상에 터치된 손가락의 이동이 미리 설정된 유효시간 이상 멈추었는지 여부를 판단하는 과정을 수행하여 유효시간 이상 멈춘 경우 손가락의 이동이 멈춘 터치 포인트의 위치 좌표를 기준위치좌표로 손가락의 이동이 멈춘 시간을 터치시간으로 변경하여 저장하는 과정을 포함하여 수행될 수 있다. 사용자가 던지기 액션을 위한 선택된 오브젝트 상에 터치된 손가락의 이동을 미리 설정된 시간이상 멈추었다가 다시 던지기 액션을 위한 이동을 개시하는 경우 손가락의 이동이 멈춘 터치 포인트를 기준으로 던지기 액션의 수행을 위한 변수를 연산함으로써, 사용자가 자신의 던지기 동작이 반영되어 이를 더욱 실감, 예를 들어 손가락의 이동이 멈춘 위치에서 다시 던지는 효과 실감할 수 있도록 수행될 수 있다.
터치종료 이벤트 감지단계(S30)에서는 선택된 오브젝트 상에 터치되어 이동중인 손가락의 터치 스크린에서의 이탈을 감지하여, 저장되는 일련의 이동좌표(P11,P12,P13...) 상기 이동중인 손가락이 터치 스크린에서 이탈시의 이동좌표를 최종좌표(P1f)로 저장하며, 상기 손가락이 터치 스크린에서 이탈된 시간을 터치종료시간으로 저장한다.
던지기 액션의 수행에 있어 타겟 결정의 기초로 터치종료시간, 이로부터 연산되는 속도 등 시간과 관련된 변수의 사용 없이 타겟이 결정될 수 있으며, 이러한 실시예의 경우에는, 선택된 오브젝트 상에 터치되어 이동중인 손가락의 터치 스크린에서의 이탈을 감지하여, 상기 이동중인 손가락이 터치 스크린에서 이탈시 이동좌표를 최종좌표로 저장하는 과정만을 수행하고, 상기 손가락이 터치 스크린에서 이탈된 시간을 터치종료시간으로 저장하는 과정을 생략하고 수행될 수도 있다.
이어, 상기 제2 스마트 기기의 디스플레이를 컨트롤하는 신호인 타겟 디스플레이 컨트롤 신호를 생성하여 제2 스마트 기기로 전송함으로써, 상기 오브젝트가 제2 스마트 기기의 타겟에 디스플레이 되도록 하는 던지기 액션 수행 단계(S40)가 수행되며, 선행된 과정에서 저장된 기준좌표 및 터치시간과 이동좌표(또는 최종좌표) 및 터치종료시간을 기초로, 제2 스마트 기기의 스크린상에 상기 오브젝트가 디스플레이될 미리 설정된 위치인 타겟을 결정하며(S41), 저장된 이동좌표에는 최종좌표로 저장된 이동좌표가 포함된다. 결정된 타겟에 따라 미리 규정된 타겟 디스플레이 컨트롤 신호를 생성하여 유선/무선 네트워크를 통해 연동된 제2 스마트 기기로 전송한다(S42). 또한, 제1 스마트 기기에서의 던지기 액션의 수행 완료에 따라, 사용자가 선택된 오브젝트의 타 기기로의 던짐이 완료된 것을 직감할 수 있는 방식, 예를 들면, 선택된 오브젝트의 사라짐 또는 스크린 외부 방향으로의 이동 애니메이션 등의 방식으로 오브젝트 디스플레이가 변경된다(S43).
던지기 액션의 수행에 있어 타겟결정의 기초로 터치종료시간, 이로부터 연산되는 속도 등 시간과 관련된 변수의 사용 없이 타겟을 결정하는 실시예의 경우에는 타겟의 결정에 기준좌표와 이동좌표 또는 최종좌표만을 사용하고 터치시간과 터치종료시간은 사용되지 않으므로, 기준좌표와 이동좌표 또는 최종좌표로 미리 정해진 방식에 따라 타겟을 결정하게 된다.
타겟을 결정하는 과정은, 사용자의 터지 스크린상의 던지기 액션 과정에 측정된 기준좌표, 터치시간, 이동좌표, 최종좌표, 터치종료시간 중 하나 이상에 기초하여 이루어지며, 이들로부터 진행각도, 거리, 이동시간, 이동속도, 액션속도, 액션지속시간 등 새로운 변수를 연산하여 변수의 하나 또는 둘 이상의 값에 따라 미리 설정된 방식으로 제2 스마트기기에 오브젝트가 디스플레이될 타겟을 결정하며, 던지기 액션의 과정 및 완료를 표시하도록 제1 스마트기기 및/또는 제2 스마트기기의 디스플레이를 변경한다.
이하, 타겟의 결정하는 방법을 각 실시예를 통하여 도면을 참조하여 설명한다.
(1)진행각도를 사용하는 실시예
도 3a를 참조하면 상기 기준좌표(P10)와 최종좌표(P1f)의 연장선이 터치 스크린상에서 이루는 각도인 진행각도(α)를 계산하는 과정;을 수행하여, 상기 진행각도에 따라 타겟을 결정할 수 있다. 진행각도의 계산은 기준좌표(P10)와 최종좌표(P1f) 값을 이용하여 α=arctan[(Y1n-Y20)/(X1n-Y10)]과 같은 공지의 계산 방법으로 계산되며, 진행각도의 미리 설정된 다수의 각도범위에 따라, 연관된 타겟이 결정된다. 도 3b(a)와 같이 제2 스마트 기기의 타겟이 수평 배열의 1차원 타겟인 경우에는 상기 진행각도만으로도 타겟을 결정할 수도 있다. 그러나, 이에 한정되지 않고 후술하는 바와 같이 다른 변수와 결합되어 타겟을 결정하도록 구현될 수도 있다. 타겟을 결정하는 진행각도의 각 범위는 어플레케이션의 제작시 미리 설정될 수도 있으며, 어플리케이션의 사용자가 사용과정에서 변경/설정할 수도 있다.
진행각도를 사용하는 실시예에 있어서, 던지기 액션 수행 단계(S40)는 도 3a에서와 같이, 기준좌표(P10)와 제1 기기의 터치 스크린의 좌측 한계점(Lmax)의 연장선이 터치 스크린상에서 이루는 각도인 좌측 한계각도(αL)를 계산하는 과정, 상기 기준좌표와 제1 기기의 터치 스크린의 우측 좌측 한계점(Rmax)의 연장선이 터치 스크린상에서 이루는 각도인 우측 한계각도(αR)를 계산하는 과정을 수행하여, 상기 진행각도가 상기 좌측 한계각도와 우측 한계각도 사이의 각도 범위를 유효각도 범위(αRL)로 설정하고, 상기 진행각도가 유효각도 범위(αRL)를 벗어나는 경우, 터치 스크린상의 미리 정해진 위치로 오브젝트 디스플레이를 복귀시키고 오브젝트 터치 대기 상태로 변경하도록 수행되어, 던지기 액션이 스크린의 범위를 벗어나는 경우, 던지기 액션이 진행되지 않고, 오브젝트 디스플레이가 원위치로 복귀되어, 적절한 오 제1 스마트 기기의 사용자는 던지기를 시도한 오브젝트가 마치 튕겨오는 것과 같은 효과를 경험할 수 있도록 하며, 이를 극대화시키기 위하여, 오브젝트의 원 위치 복귀에 부가하여 오브젝트의 이동 애니메이션 또는 음향효과 기능이 제공될 수 있다. 이 경우 제1 스마트 기기는 최초 오브젝트를 디스플레이하고, 사용자의 터치에 의한 오브젝트 선택을 기다리는 오브젝트 터치 대기 상태로 기능이 복귀하게 된다.
(2)이동속도를 사용하는 실시예
도 6b를 참조하면, 상기 던지기 액션 수행 단계(S40)는 상기 기준좌표(P10)와 최종좌표(P1f)간의 기준좌표와 최종좌표간의 거리를 오브젝트의 이동거리로서 계산하고, 터치시간과 터치종료시간으로부터 오브젝트의 이동시간을 계산하여, 계산된 오브젝트의 이동거리 및 이동시간을 저장하는 과정 및 상기 오브젝트의 이동거리 및 이동시간으로부터 기준좌표와 최종좌표간의 이동속도를 계산하여 저장하는 과정을 수행하여, 상기 이동속도에 기초하여 제2 스마트 기기의 스크린상에 상기 오브젝트가 디스플레이될 미리 설정된 위치인 타겟을 결정하도록 수행될 수 있다. 미리 설정된 다수의 이동속도의 범위에 따라, 연관된 타겟이 결정된다. 제2 스마트 기기의 타겟이 수직으로 배열된 1차원 타겟인 경우에는 상기 이동속도만으로도 타겟을 결정할 수도 있다. 그러나, 이에 한정되지 않고 후술하는 바와 같이 다른 변수와 결합되어 타겟을 결정하도록 구현될 수도 있다. 타겟을 결정하는 진행속도의 각 범위는 어플레케이션의 제작시 미리 설정될 수도 있으며, 어플리케이션의 사용자가 사용과정에서 변경/설정할 수도 있다.
또한, 실시예에 따라서는, 사용자의 터치 스크린 상에서의 던지기 액션 즉, 터치앤드래그(Touch & Drag)시 터치된 손가락의 이동속도의 편차보다 큰 편차의 오브젝트의 이동속도를 얻기 위하여, 도 6b에 점선으로 표시된 기준좌표(P10)에서 최종좌표(P1f)까지의 직선 거리를 사용하지 않고, 이동좌표(P10,P21,P13...P1f) 간의 거리의 합을 기준좌표와 최종좌표간의 오브젝트의 이동거리로서 계산하여 이동속도를 계산하는 방식으로 수행될 수 있다.
아울러, 미리 설정된 이동속도의 범위에 따라 미리 설정된 가중치를 상기 이동속도에 곱하여 가중치가 적용된 속도(액션속도)를 연산하는 과정을 포함하여, 상기 연산된 가중치가 적용된 속도(액션속도)에 따라 제2 스마트 기기의 스크린상에 상기 오브젝트가 디스플레이될 미리 설정된 위치인 타겟을 결정하는 방식으로도 구현될 수 있다. 예를 들면, 이동속도의 범위에 따라, 가중치를 0.1, 0.5,..1.0, 2.0...으로 설정하여 실제 이동속도의 편차보다 더 큰 편차를 갖는 액션속도를 사용하여 타겟을 결정할 수도 있다.
(3)이동속도 및 진행각도를 사용하는 실시예
상기 던지기 액션 수행 단계(S40)에서의 타겟의 결정은 (1)진행각도를 사용하는 실시예 및 (2)이동속도를 사용하는 실시예에서 연산된 상기 이동속도 및 진행각도에 기초하여 제2 스마트 기기의 스크린상에 상기 오브젝트가 디스플레이될 미리 설정된 위치인 타겟을 결정하도록 수행될 수 있으며, 도 3b(b)와 같이 제2 스마트 기기의 타겟이 수직 및 수평 배열을 포함하는 2차원 타겟인 경우에는 상기 이동속도와 진행각도로 타겟을 결정할 수도 있다. 그러나, 이에 한정되지 않고 후술하는 바와 같이 다른 변수와 결합되어 타겟을 결정하도록 구현될 수도 있다. 타겟을 결정하는 이동속도 및 진행각도의 각 범위는 어플레케이션의 제작시 미리 설정될 수도 있으며, 어플리케이션의 사용자가 사용과정에서 변경/설정할 수도 있다.
(4) 이동거리 및/또는 이동시간을 사용하는 실시예
상술한 바와 같이 계산된 오브젝트의 이동거리 및/또는 이동시간에 기초하여 제2 스마트 기기의 스크린상에 상기 오브젝트가 디스플레이될 미리 설정된 위치인 타겟을 결정할 수도 있다.
또한, 상기 미리 설정된 이동거리의 범위에 따른 미리 설정된 가중치를 이동거리에 곱하여 가중치가 적용된 거리를 연산하는 과정을 포함하여 상기 가중치가 적용된 거리를 타겟의 결정 또는 이를 위한 이동속도의 연산에 사용할 수도 있다. 아울러, 상기 미리 설정된 이동시간의 범위에 따른 미리 설정된 가중치를 이동시간에 곱하여 가중치가 적용된 시간를 연산하는 과정을 더 포함하여 타겟의 결정 또는 이를 위한 이동속도의 연산에 사용할 수도 있으며, 각각 가중치가 적용된 거리 및 시간을 사용하여, 타겟의 결정 또는 이를 위한 이동속도의 연산에 사용할 수도 있다.
(5) 가상좌표인 액션좌표를 사용하는 실시예 및 어플리케이션 구현예
제1 스마트 기기와 제2 스마트 기기의 스크린을 가상적으로 연장된 하나의 스크린으로 설정하고, 상술한 실시예에서 측정 또는 연산된 변수값을 이용하여 가상적으로 연장된 하나의 스크린의 제2 스마트 기기의 스크린 부분에 위치하는 가상좌표인 액션완료좌표를 연산하여, 타겟을 결정하는 방법이다. 여기서 연산되는 액션완료좌표는 제1 스마트 기기의 스크린의 범위를 넘어서는 스크린 밖의 화면좌표로 이를 기초로 타겟이 결정되고 해당하는 제2 스마트 기기의 디스플레이 컨트롤이 생성되어, 제2 스마트 기기로 전송되며, 제2 스마트 기기에서 제2 스마트 기기의 스크린의 좌표값으로 환산된다.
본 실시예 및 구현예는 본 발명을 타블렛 PC(아이패드)와 스마트 TV가 연동하는 게임 어플리케이션으로 구현하는 과정에서 실험적으로 현재의 타블렛 PC(아이패드)나 스마트 폰의 기기의 스크린이 작거나, 터치 반응속도의 한계에서 비롯되는 것으로 파악되는 던지기 액션의 크기가 제한적인 문제점, 즉, 터치앤 드래그에 기초한 던지기 동작의 이동거리와 이동시간이 큰 편차를 보이지 않고 최종좌표 또한 큰 차이를 보이지 않는 반면, 스마트 TV는 큰 화면을 논리적으로 분할하다 보니 보다 명확한 편차를 보이는 던지기 액션이 필요하여, 앞서 살핀 실시예에 있어서, 이동속도, 이동거리에 가중치를 적용하는 방법과 선택적으로 또는 병행하여 수행되는 던지기 액션에 가중치를 주기 위한 방법으로 가중치가 적용된 가상의 액션완료좌표 도입하게 된 것이다.
도 4는 본 발명의 일실시예에 따라 구현되어 제1 스마트 기기에 설치되는 어플리케이션의 기능 수행 절차 흐름도, 도 5는 본 발명의 일실시예에 따라 구현된 어플리케이션에 포함된 각도계산 모듈의 기능 수행 절차 흐름도, 도 6a는 본 발명의 일실시예에 따라 구현된 어플리케이션에 포함된 이동거리 이동시간 계산 모듈의 기능 수행 절차 흐름도, 도 6b는 본 발명의 실시예의 이동거리의 계산방법을 설명하기 위한 도면, 도 7a는 본 발명의 일실시예에 따라 구현된 어플리케이션에 포함된 액션완료좌표와 액션지속시간 계산 모듈의 기능 수행 절차 흐름도, 도 7b는 본 발명의 실시예의 액션완료좌표의 계산 방법을 설명하기 위한 도면, 도 7c는 본 발명의 실시예의 액션완료좌표의 계산 방법이 적용된 어플리케이션의 구동을 설명하기 위한 화면이다.
도 3 내지 도 7을 참조하여, 가상좌표인 액션좌표를 사용하는 실시예와 이를 포함하여 본 발명이 타블렛 PC(아이패드)를 제1 스마트 기기로 스마트 TV를 제2 스마트 기기로 사용하는 게임 어플리케이션으로 구현된 예시적인 모델을 상술한 바와 중복되지 않는 범위에서 설명한다. 본 예시적인 모델은 상술한 실시예의 특정조합으로 구현 기기에 최적화된 모델로서 구현될 수 있다.
도 3을 참조하면, 터치 스크린이 장착된 제1 스마트 기기에 설치된 게임 어플리케이션의 던지기 액션 기능이 활성화되면, 상기 어플리케이션은 제1 스마트 기기를 제어하여 터치 스크린상의 미리 정해진 위치에 하나 이상의 오브젝트를 디스플레이하도록 하고, 사용자의 터치 스크린상의 터치를 기다리는 오브젝트 터치 대기 상태로 진입시킨다.
사용자의 이어 사용자의 터치 스크린상의 특정 포인트의 터치에 의한 터치 시작 이벤트가 발생하면 손가락의 터치 포인트의 위치좌표가 특정 오브젝트가 선택되도록 미리 설정된 영역의 범위인 충돌임계범위 이내인지를 판단하는 터치 포인트와 던지기 오브젝트와의 충돌 첵 과정을 수행하여 상기 터치 포인트의 위치좌표가 상기 충돌임계범위 이내인 경우 상기 특정 오브젝젝트를 선택하도록 한다.
던지기 액션의 대상이 되는 오브젝트가 선택되면, 던지기 action 유효 Flag를 on 시킨다. 본 어플리케이션에 있어서, 본 발명의 던지기 액션을 수행을 위해 터치 시작 이벤트, 터치 이동 이벤트, 터치 종료 이벤트가 순차적으로 발생하여야한다. 즉, 터치 시작 이벤트 이후에 터치 이동 이벤트와 터치 종료 이벤트를 순서대로 거쳐야만 하며, 만약, 터치 시작 이벤트에서 오브젝트가 선택되지 않았다면,터치 이동 이벤트와 터치 종료 이벤트가 발생하더라도 어플리케이션이 반응을 하여서는 안된다. 따라서, 각 이벤트의 발생 이후, 최초 반응(이동좌표 저장, 최종좌표 및 터치 종료시간 저장)이전에 던지기 action 유효 Flag가 on인지를 판단하여, 최조 반응의 개시여부를 결정하여, 던지기 action 유효 Flag가 on이 아닌 경우 오브젝트가 선택된 것이 아니므로, 제1 스마트 기기의 상태를 오브젝트 터치 대기 상태로 복귀시키도록 구현되었다.
이어, 터치된 손가락의 터치 포인트의 위치 좌표를 기준좌표로 터치된 시간을 터치시간으로 저장하도록 한다.
선택된 오브젝트 상에 터치된 사용자의 손가락 이동이 감지되면 이를 터치 이동 이벤트의 발생으로 정의하여, 이동시간이 일정시간 이내 멈추지 않으면 상술한 던지기 action 유효 Flag가 on인지를 판단하고, on 인 경우 제1 스마트 기기를 제어하여, 터치 스크린 상에서 터치된 손가락의 이동에 따라 변화하는 위치좌표를 이동 좌표로 저장하고, 이에 따라, 터치 스크린상에 선택된 오브젝트의 디스플레이 위치를 변경한다.
이동중인 손가락의 이탈이 감지되면 이를 터지 종료 이벤트의 발생으로 정의하여, 먼저, 던지기 action 유효 Flag가 on인지를 판단하고, on 인 경우 제1 스마트 기기를 제어하여, 최종좌표와 터치종료시간을 저장하고, 각도계산 모둘을 기동한다.
각도 계산 모듈은 기동되어 시작되면, 도 5의 기능을 순차적으로 수행한다. 먼저, 각종 데이터를 로드하고 변수 초기화하는 과정을 수행하여, 터치 이벤트가 시작되는 기준점의 데이터로서 저장된 기준좌표 데이터를 로드하고, 터치 이벤트가 끝나는 최종점의 데이터로서 최종좌표를 로드하며, 기타 기준좌표로부터 최종좌표까지 이동한 중간 포인트들의 좌표인 이동좌표를 로드하며, 이동거리 변수 및 이동 시간 변수를 초기화한다. 이어 좌측 한계점 계산, 우측 한계점 계산, 진행각도계산의 과정을 수행하며, 이어 진행각도가 유효각도 범위 이내 인지를 판단한다. 그 계산방법은 앞서 설명한 (1)진행각도를 사용하는 실시예에서와 동일하다. 진행각도가 유효각도범위 이내인 경우 유효각도 플래그를 on하고, 계산된 진행각도를 저장한다.
각도 계산 모듈은 계산된 진행각도와 그 각도의 유효성이 최종 결과값이며, 계산된 각도가 유효(유효각도 범위 이내인 경우)하면 스마트 기기 간의 던지기 액션이 일어나고, 유효하지 않으면(유효범위를 벗어나는 경우 오브젝트 디스플레이를 복귀시키는 액션(즉, 튕기는 에러 액션)을 수행하기 위한 과정이 진행된다. 따라서, 유효각도 플래그는 초기값이 off로 초기화되어 그 on 여부에 따라 유효각도 flag 는 던지기 액션을 수행할지 디스플레이 복귀 액션을 수행할지를 판단하는 변수로서의 역할을 수행하며, 유효각도 범위 이내인 경우에만 on 되어 뒤따르는 과정에서 이를 기초로 수행할 액션을 결정하도록 하는 역할을 수행한다.
이동거리 이동시간 계산모듈이 기동되면, 도 6a의 기능을 순차적으로 수행한다. 이동거리의 계산방법으로 도 6b에 점선으로 표시된 기준좌표(P10)에서 최종좌표(P1f)까지의 직선 거리 또는 이동좌표(P10,P21,P13...P1f) 간의 거리의 합을 기준좌표와 최종좌표간의 오브젝트의 이동거리로서 계산할 수 있으며, 본 어플리케이션에서는 후자의 이동거리 계산방법을 적용하여 구현하고 있다.
먼저 이동거리 이동시간 계산모듈은 저장되어 있는 기준좌표 데이터, 최종좌표 데이터, 각 이동좌표 데이터 등 필요 데이터를 로드하고, 이동거리 변수, 이동시간 변수 등 필요변수를 초기화한다.
이어 기준좌표에서 시작하여 현재좌표와 다음 좌표간의 거리를 계산하여 혀재의 이동거리에 더하는 과정을 최종좌표까지 반복하여, 이동거리를 연산하며, 이어 기준좌표와 최종 좌표간의 이동시간을 계산하여, 이동거리 변수 및 이동시간 변수를 설정하는 방식으로 이동거리와 이동시간을 저장한다.
이어, 액션완료 좌표와 액션시간 계산모듈이 기동되면, 도 7의 기능을 순차적으로 수행한다. 본 어플리케이션에 있어서, 도 7c와 같이, 제1 스마트 기기와 제2 스마트 기기의 스크린을 가상적으로 상하로 연장된 하나의 스크린으로 설정하고, 상술한 실시예에서 측정 또는 연산된 변수값을 이용하여 가상적으로 연장된 하나의 스크린의 제2 스마트 기기의 스크린 부분에 위치하는 가상좌표인 액션좌표를 연산하여, 가상화된 하나의 스크린상에서 오브젝트가 디스플레이되는 위치인 타겟을 상기 액션좌표 값을 이용하여 결정하는 방법 사용된다.
먼저 액션완료 좌표와 액션시간 계산모듈은 저장되어 있는 기준좌표 데이터, 최종좌표 데이터 등 필요 데이터를 로드하고, 이동속도 변수, 이동시간 변수,액션완료 좌표 변수, 액션지속시간 변수 등 필요변수를 초기화한다.
이어 액션완료 좌표 및 액션지속시간의 계산을 위한, 이동속도를 계산하여 저장한다. 이동속도의 계산방법으로는 앞서 살핀 (2)이동속도를 사용하는 실시예에서의 이동속도 계산방법이 사용된다.
이어, 이동거리에 미리 정해진 가중치가 적용되어 액션좌표가 연산 된다. 가중치는 제1 스마트 기기 및 제2 스마트 기기의 화면 크기, 성능 등 기기의 특성, 게임 내용 등 어플리케이션의 특성, 사용자의 연령대, 사용장소 등에 따른 사용자의 동작이나 반응을 속도 및 인지 속도 등의 사용자 특성을 고려하여 경험적/실험적으로 사전 설정되거나 설정변경될 수 있도록 구현되며, 이동거리의 범위와 이동시간의 범위, 또는 이동속도의 범위에 따라 결정되는 하나 이상의 가중치가 실제 측정 이동거리에 곱하여져 얻어지는 값을 액션거리로 정의하고, 이를 기초로 액션완료좌표가 연산된다. 7c의 타블렛 PC(아이패드)를 제1 스마트 기기로 스마트 TV를 제2 스마트 기기로 사용하는 게임 어플리케이션에서의 던지기 액션의 구현에 있어서는, 기본적으로 상기 기준좌표로부터 최종좌표 방향으로의 연장선상에 위치하는 액션완료좌표를 가정하여, 이동속도가 높고 이동거리가 길 경우 액션완료좌표는 최종좌표로부터 멀리 떨어진 좌표(즉, 긴 액션거리만큼 떨어진 좌표)로 이동속도가 낮고 이동거리가 짧을 경우 액션완료좌표는 최종좌표로부터 상대적으로 가까이 떨어진 좌표(즉, 짧은 액션거리만큼 떨어진 좌표)로 연산되도록 설정된 가중치를 적용한다. 7c의 실제 어플리케이션의 구현에 있어서는 실험적으로 이동거리가 200px이하의 경우 거리에 가중치 0.3을 곱해주어 보다 액션거리가 짧아지도록 했고, 이동거리가 700px이상의 경우 이동거리에 가중치 2.5를 곱해주어 액션거리가 길어져 결과적으로 제2 기기의 스크린상에서 멀리 떨어진 타겟을 결정하도록 했다. 아울러, 이동시간이 0.5초 이하의 경우 가중치 1.5를 곱해 주어 액션거리가 보다 길어지도록 했고, 이동시간이 1초 이상인 경우 가중치 0.6을 주어 액션거리가 보다 짧아지도록 하여, 액션완료좌표 선택하고, 이를 기초로 제2 기기의 스크린상의 타겟을 결정하도록 하는 5단계의 가중치를 경험적으로 설정하여 구현하였다.
이어, 후술하는 액션지속시간을 상기 최종좌표와 액션좌표간의 거리을 상기 이동속도로 나눈 값을 액션지속시간으로 설정하는 방식으로 구현하여, 타겟이 결정되어 디스플레이 컨트롤이 생성되면, 제2 스마트 기기로 컨트롤이 전송되며, 선택된 오브젝트의 이동 애니메이션을 개시된다. 상기 이동 애니메이션은 기본적으로 상기 액션지속시간 종료 시점에 제2 스마트 기기의 타겟에 오브젝트를 디스플레이하여 사용자가 제2 스마트 기기의 스크린에 던져진 오브젝트가 떨어진 것으로 느끼도록 제작되며, 제1 스마트 기기 및 제2 스마트 기기의 두 스크린에 연속적인 방식으로 액션지속시간 동안 수행되도록 제작되어 사용자가 던지기 액션의 효과를 화면상에서 더욱 직감할 수 있도록 하였다.
(7) 액션지속시간
상기 실시예에서 측정 또는 연산된 변수에 기초하여, 선택된 오브젝트의 스크린상 이동 효과를 디스플레이하는 시간인 액션지속시간을 계산하는 과정을 수행할 수 있다.
기본적으로 상기 액션지속시간 종료 시점에 제2 스마트 기기의 타겟에 오브젝트를 디스플레이하여 사용자가 제2 스마트 기기의 스크린에 던져진 오브젝트가 떨어진 것으로 느끼도록 수행되며, 상기 액션지속시간 동안 제1 스마트 기기 또는 제2 스마트 기기에서의 선택된 오브젝트의 이동 애니메이션을 수행하거나, 애니메이션의 플레이 속도를 조절하여 사용자가 던지기 액션의 효과를 화면상에서 직감할 수 있도록 구현된다.
상기 이동거리 또는 이동시간에 가중치가 곱하여진 가중치가 적용된 거리 또는 시간 중 하나 이상에 기초하여 액션지속시간을 계산하거나, 단순히 상기 이동속도와 액션거리에 의하여 액션지속시간을 계산할 수도 있다.
상기 가상좌표인 액션완료좌표를 사용하는 실시예의 경우에는 상기 최종좌표와 액션좌표간의 거리을 상기 이동속도로 나눈 값을 액션지속시간으로 설정하여, 사용자가 던지기 액션의 효과를 화면상에서 더욱 직감할 수 있도록 구현된다.
본 발명의 여러가지 기능들 및 특정들의 특별한 조합들이 여기에 분명히 설명된 반면, 이러한 특징들 및 기능들의 다른 조합들이 마찬가지로 가능하다. 본 발명은 여기에 개시된 특정한 예들에 제한되지 않으며, 이러한 다른 조합들을 명백히 통합한다.
이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.
100: 스마트 TV 200: 스마트 폰
300: 타블렛 PC

Claims (15)

  1. 터치 스크린을 이용한 스마트 기기 간 던지기 액션 수행방법에 있어서,
    터치 스크린이 장착된 제1 스마트 기기에서,
    상기 제1 스마트 기기의 터치 스크린상의 미리 정해진 위치에 하나 이상의 오브젝트를 디스플레이하는 단계(S00);
    상기 제1 스마트 기기의 터치 스크린에 디스플레이된 오브젝트 상의 사용자의 손가락 터치를 감지하여, 터치된 손가락의 터치 포인트의 위치 좌표를 기초로 던지기 액션의 대상 오브젝트를 선택하고, 상기 위치 좌표를 기준좌표로 손가락 터치가 감지된 시간을 터치시간으로 저장하는 터치 시작/오브젝트 선택 단계(S10);
    선택된 오브젝트 상에 터치된 손가락의 이동을 감지하고, 이동중인 손가락의 터치 스크린에서 변경되는 위치좌표를 측정하여 이동좌표로서 저장하는 터치이동 이벤트 감지단계(S20);
    선택된 오브젝트 상에 터치되어 이동중인 손가락의 터치 스크린에서의 이탈을 감지하여, 상기 이동중인 손가락이 터치 스크린에서 이탈시 이동좌표를 최종좌표로 상기 손가락이 터치 스크린에서 이탈된 시간을 터치종료시간으로 저장하는 터치종료 이벤트 감지단계(S30);
    상기 기준좌표 및 터치시간과 이동좌표 및 터치종료시간을 기초로, 제2 스마트 기기의 스크린상에 상기 오브젝트가 디스플레이될 미리 설정된 위치인 타겟을 결정하고, 상기 제2 스마트 기기의 디스플레이를 컨트롤하는 신호인 타겟 디스플레이 컨트롤 신호를 생성하여 제2 스마트 기기로 전송함으로써, 상기 오브젝트가 제2 스마트 기기의 타겟에 디스플레이 되도록 하는 던지기 액션 수행 단계(S40)를 포함하는 것을 특징으로 하는 터치 스크린을 이용한 스마트 기기 간 던지기 액션 수행방법.
  2. 터치 스크린을 이용한 스마트 기기 간 던지기 액션 수행방법에 있어서,
    터치 스크린이 장착된 제1 스마트 기기에서,
    상기 제1 스마트 기기의 터치 스크린상의 미리 정해진 위치에 하나 이상의 오브젝트를 디스플레이하는 단계(S00);
    상기 제1 스마트 기기의 터치 스크린에 디스플레이된 오브젝트 상의 사용자의 손가락 터치를 감지하여, 터치된 손가락의 터치 포인트의 위치 좌표를 기초로 던지기 액션의 대상 오브젝트를 선택하고, 상기 위치 좌표를 기준좌표로 저장하는 터치 시작/오브젝트 선택 단계(S10);
    선택된 오브젝트 상에 터치된 손가락의 이동을 감지하고, 이동중인 손가락의 터치 스크린에서 변경되는 위치좌표를 측정하여 이동좌표로서 저장하는 터치이동 이벤트 감지단계(S20);
    선택된 오브젝트 상에 터치되어 이동중인 손가락의 터치 스크린에서의 이탈을 감지하여, 상기 이동중인 손가락이 터치 스크린에서 이탈시 이동좌표를 최종좌표로 저장하는 터치종료 이벤트 감지단계(S30);
    상기 기준좌표와 이동좌표를 기초로, 제2 스마트 기기의 스크린상에 상기 오브젝트가 디스플레이될 미리 설정된 위치인 타겟을 결정하고, 상기 제2 스마트 기기의 디스플레이를 컨트롤하는 신호인 타겟 디스플레이 컨트롤 신호를 생성하여 제2 스마트 기기로 전송함으로써, 상기 오브젝트가 제2 스마트 기기의 타겟에 디스플레이 되도록 하는 던지기 액션 수행 단계(S40)를 포함하며,
    상기 터치 시작/오브젝트 선택 단계(S10)는 터치된 손가락의 터치 포인트의 위치좌표가 특정 오브젝트가 선택되도록 미리 설정된 영역의 범위인 충돌임계범위 이내인지를 판단하는 터치 포인트와 던지기 오브젝트와의 충돌 첵 과정을 수행하여 상기 터치 포인트의 위치좌표가 상기 충돌임계범위 이내인 경우 상기 특정 오브젝트를 던지기 대상 오브젝트로 선택하는 것을 특징으로 하는 터치 스크린을 이용한 스마트 기기 간 던지기 액션 수행방법.
  3. 제1항에 있어서,
    상기 터치 시작/오브젝트 선택 단계(S10)는 터치된 손가락의 터치 포인트의 위치좌표가 특정 오브젝트가 선택되도록 미리 설정된 영역의 범위인 충돌임계범위 이내인지를 판단하는 터치 포인트와 던지기 오브젝트와의 충돌 첵 과정을 수행하여 상기 터치 포인트의 위치좌표가 상기 충돌임계범위 이내인 경우 상기 특정 오브젝트를 던지기 대상 오브젝트로 선택하는 것을 특징으로 하는 터치 스크린을 이용한 스마트 기기 간 던지기 액션 수행방법.
  4. 제1항 또는 제2항에 있어서,
    상기 터치이동 이벤트 감지단계(S20)는 선택된 오브젝트 상에 터치된 손가락의 이동이 미리 설정된 유효시간 이상 멈추었는지 여부를 판단하는 과정을 수행하여 유효시간 이상 멈춘 경우 손가락의 이동이 멈춘 터치 포인트의 위치 좌표를 기준위치좌표로 손가락의 이동이 멈춘 시간을 터치시간으로 변경하여 저장하는 과정을 수행하는 것을 특징으로 하는 터치 스크린을 이용한 스마트 기기 간 던지기 액션 수행방법.
  5. 제1항 또는 제2항에 있어서,
    상기 던지기 액션 수행 단계(S40)는, 상기 기준좌표와 최종좌표의 연장선이 터치 스크린상에서 이루는 각도인 진행각도를 계산하는 과정;을 수행하여, 상기 진행각도에 따라 타겟을 결정하는 것을 특징으로 하는 터치 스크린을 이용한 스마트 기기 간 던지기 액션 수행방법.
  6. 제1항 또는 제2항에 있어서,
    던지기 액션 수행 단계(S40)는, 상기 기준좌표와 제1 기기의 터치 스크린의 좌측 한계점(Lmax)의 연장선이 터치 스크린상에서 이루는 각도인 좌측 한계각도를 계산하는 과정;
    상기 기준좌표와 제1 기기의 터치 스크린의 우측 좌측 한계점(Rmax)의 연장선이 터치 스크린상에서 이루는 각도인 우측 한계각도를 계산하는 과정;
    상기 기준좌표와 최종좌표의 연장선이 터치 스크린상에서 이루는 각도인 진행각도를 계산하는 과정;
    상기 좌측 한계각도와 우측 한계각도 사이의 각도 범위를 유효각도 범위로 설정하고, 상기 진행각도가 유효각도 범위를 벗어나는 경우, 터치 스크린상의 미리 정해진 위치로 오브젝트 디스플레이를 복귀시키고 오브젝트 터치 대기 상태로 변경하는 것을 특징으로 하는 터치 스크린을 이용한 스마트 기기 간 던지기 액션 수행방법.
  7. 제1항에 있어서,
    상기 던지기 액션 수행 단계(S40)는, 상기 기준좌표에서 최종좌표까지의 이동좌표 간의 거리의 합을 기준좌표와 최종좌표간의 오브젝트의 이동거리로서 계산하고, 터치시간과 터치종료시간으로부터 오브젝트의 이동시간을 계산하여, 계산된 오브젝트의 이동거리 및 이동시간을 저장하는 과정 및 상기 오브젝트의 이동거리 및 이동시간으로부터 기준좌표와 최종좌표간의 이동속도를 계산하여 저장하는 과정을 수행하여,
    상기 이동속도에 기초하여 제2 스마트 기기의 스크린상에 상기 오브젝트가 디스플레이될 미리 설정된 위치인 타겟을 결정하는 것을 특징으로 하는 터치 스크린을 이용한 스마트 기기 간 던지기 액션 수행방법.
  8. 제1항에 있어서,
    상기 던지기 액션 수행 단계(S40)는 상기 기준좌표와 최종좌표간의 거리를 오브젝트의 이동거리로서 계산하고, 터치시간과 터치종료시간으로부터 오브젝트의 이동시간을 계산하여, 계산된 오브젝트의 이동거리 및 이동시간을 저장하는 과정 및 상기 오브젝트의 이동거리 및 이동시간으로부터 기준좌표와 최종좌표간의 이동속도를 계산하여 저장하는 과정을 수행하여,
    상기 이동속도에 기초하여 제2 스마트 기기의 스크린상에 상기 오브젝트가 디스플레이될 미리 설정된 위치인 타겟을 결정하는 것을 특징으로 하는 터치 스크린을 이용한 스마트 기기 간 던지기 액션 수행방법.
  9. 제7항 또는 제8항에 있어서,
    상기 던지기 액션 수행 단계(S40)는, 상기 기준좌표와 최종좌표의 연장선이 터치 스크린상에서 이루는 각도인 진행각도를 계산하는 과정;을 수행하여,
    상기 이동속도 및 진행각도에 기초하여 제2 스마트 기기의 스크린상에 상기 오브젝트가 디스플레이될 미리 설정된 위치인 타겟을 결정하는 것을 특징으로 하는 터치 스크린을 이용한 스마트 기기 간 던지기 액션 수행방법.
  10. 제7항 또는 제8항에 있어서,
    상기 던지기 액션 수행 단계(S40)는, 상기 기준좌표와 최종좌표의 연장선이 터치 스크린상에서 이루는 각도인 진행각도를 계산하는 과정;을 수행하여,
    상기 이동속도 및 진행각도에 기초하여 제2 스마트 기기의 스크린상에 상기 오브젝트가 디스플레이될 미리 설정된 위치인 타겟을 결정하는 것을 특징으로 하는 터치 스크린을 이용한 스마트 기기 간 던지기 액션 수행방법.
  11. 제1항에 있어서,
    상기 던지기 액션 수행 단계(S40)는, 상기 기준좌표와 최종좌표간의 거리를 오브젝트의 이동거리로서 계산하고, 터치시간과 터치종료시간으로부터 오브젝트의 이동시간을 계산하여, 계산된 오브젝트의 이동거리 및 이동시간을 저장하는 과정을 포함하여 상기 이동거리 및 이동시간에 기초하여 제2 스마트 기기의 스크린상에 상기 오브젝트가 디스플레이될 미리 설정된 위치인 타겟을 결정하는 것을 특징으로 하는 터치 스크린을 이용한 스마트 기기 간 던지기 액션 수행방법.
  12. 제1항에 있어서,
    상기 던지기 액션 수행 단계(S40)는, 상기 기준좌표에서 최종좌표까지의 이동좌표 간의 거리의 합을 기준좌표와 최종좌표간의 오브젝트의 이동거리로서 계산하여, 계산된 오브젝트의 이동거리 및 이동시간을 저장하는 과정을 포함하여, 상기 이동거리 및 이동시간에 기초하여 제2 스마트 기기의 스크린상에 상기 오브젝트가 디스플레이될 미리 설정된 위치인 타겟을 결정하는 것을 특징으로 하는 터치 스크린을 이용한 스마트 기기 간 던지기 액션 수행방법.
  13. 제11항에 또는 제12항에 있어서,
    이동거리의 미리 설정된 범위에 따라 상기 이동거리가 길어지면 큰 값을 가지도록 미리 설정된 거리 가중치와 이동시간의 미리 설정된 범위에 따라 이동시간이 짧아지면 큰 값을 가지도록 미리 설정된 시간 가중치를 이동거리에 곱하여 액션거리를 연산하는 과정을 포함하여, 상기 액션거리에 기초하여 제2 스마트 기기의 스크린상에 상기 오브젝트가 디스플레이될 미리 설정된 위치인 타겟을 결정하는 것을 특징으로 하는 터치 스크린을 이용한 스마트 기기 간 던지기 액션 수행방법.
  14. 제13항에 있어서,
    상기 기준좌표로부터 최종좌표 방향으로의 연장선상에 액션거리를 가지는 액션좌표를 연산하는 과정을 더 포함하여, 상기 액션좌표 값에 따라, 제2 스마트 기기의 스크린상에 상기 오브젝트가 디스플레이될 미리 설정된 위치인 타겟을 결정하는 것을 특징으로 하는 터치 스크린을 이용한 스마트 기기 간 던지기 액션 수행방법.
  15. 제14항에 있어서,
    상기 최종좌표와 액션좌표간의 거리를 오브젝트의 이동거리 및 이동시간으로부터 계산되는 이동속도로 나눈 값인 액션지속시간을 계산하고, 상기 액션지속시간 동안 제1 스마트 기기 또는 제2 스마트 기기에서의 선택된 오브젝트의 이동 애니메이션을 수행하고 제2 스마트 기기의 타겟에 오브젝트를 디스플레이 하도록 수행되는 것을 특징으로 하는 터치 스크린을 이용한 스마트 기기 간 던지기 액션 수행방법.
KR1020120103052A 2012-09-17 2012-09-17 터치 스크린을 이용한 스마트 기기 간 던지기 액션 수행방법 KR101398862B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120103052A KR101398862B1 (ko) 2012-09-17 2012-09-17 터치 스크린을 이용한 스마트 기기 간 던지기 액션 수행방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120103052A KR101398862B1 (ko) 2012-09-17 2012-09-17 터치 스크린을 이용한 스마트 기기 간 던지기 액션 수행방법

Publications (2)

Publication Number Publication Date
KR20140037397A KR20140037397A (ko) 2014-03-27
KR101398862B1 true KR101398862B1 (ko) 2014-06-11

Family

ID=50646209

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120103052A KR101398862B1 (ko) 2012-09-17 2012-09-17 터치 스크린을 이용한 스마트 기기 간 던지기 액션 수행방법

Country Status (1)

Country Link
KR (1) KR101398862B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10108388B2 (en) 2015-10-12 2018-10-23 Samsung Electronics Co., Ltd. Display apparatus and controlling method thereof

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101651427B1 (ko) * 2014-11-20 2016-08-26 주식회사 이노스파크 터치시간 기반의 가상 객체 제어 장치 및 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002055808A (ja) * 2000-08-11 2002-02-20 Ricoh Co Ltd マルチディスプレイシステム
KR20120005933A (ko) * 2010-07-09 2012-01-17 (주)디스트릭트홀딩스 터치 스크린 및 프로젝터를 이용한 멀티미디어 광고 디스플레이 방법 및 시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002055808A (ja) * 2000-08-11 2002-02-20 Ricoh Co Ltd マルチディスプレイシステム
KR20120005933A (ko) * 2010-07-09 2012-01-17 (주)디스트릭트홀딩스 터치 스크린 및 프로젝터를 이용한 멀티미디어 광고 디스플레이 방법 및 시스템

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10108388B2 (en) 2015-10-12 2018-10-23 Samsung Electronics Co., Ltd. Display apparatus and controlling method thereof

Also Published As

Publication number Publication date
KR20140037397A (ko) 2014-03-27

Similar Documents

Publication Publication Date Title
US11068025B2 (en) Smart wearable device and control method for smart wearable device
US8913026B2 (en) System for linking and controlling terminals and user terminal used in the same
JP7150108B2 (ja) ゲームプログラム、情報処理装置、情報処理システム、および、ゲーム処理方法
US10572017B2 (en) Systems and methods for providing dynamic haptic playback for an augmented or virtual reality environments
KR101872272B1 (ko) 제어 기기를 이용한 전자기기의 제어 방법 및 장치
US11194400B2 (en) Gesture display method and apparatus for virtual reality scene
KR20140112470A (ko) 터치 가능한 모바일 기기 상의 게임 컨트롤러
CN102999218B (zh) 用于多指针间接触摸输入设备的应用编程接口
US9733788B2 (en) Multi-stage cursor control
JP2022511837A (ja) アクション実行方法、アクション実行装置、コンピュータプログラム及び電子装置
CN105446468A (zh) 操控模式的切换方法及装置
CN113485626A (zh) 一种智能显示设备、移动终端和显示控制方法
KR101398862B1 (ko) 터치 스크린을 이용한 스마트 기기 간 던지기 액션 수행방법
CN113318429B (zh) 退出游戏的控制方法、装置、处理器及电子装置
CN104049873A (zh) 具有翻转屏幕功能的移动显示设备
US20130244730A1 (en) User terminal capable of sharing image and method for controlling the same
JP6535376B2 (ja) プログラム、処理方法、および情報端末装置
CN113797527B (zh) 一种游戏处理方法、装置、设备、介质及程序产品
JP6924564B2 (ja) ゲームプログラム
JP2020058666A (ja) ゲームプログラム、方法、および情報処理装置
US20200164272A1 (en) Video game processing program and video game processing system
KR101322895B1 (ko) 야구 게임의 투구 방법 및 시스템
CN115624742B (zh) 一种控制方法、控制终端以及计算机程序产品
KR20130037827A (ko) 야구 게임의 투구 방법 및 시스템
KR20150090299A (ko) 게임 실행 모듈을 갖는 스마트 디스플레이를 이용한 광고 방법

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170620

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee