KR20110098938A - 예측 모델 제공 방법, 장치 및 컴퓨터 판독가능 저장 매체 - Google Patents

예측 모델 제공 방법, 장치 및 컴퓨터 판독가능 저장 매체 Download PDF

Info

Publication number
KR20110098938A
KR20110098938A KR1020117015674A KR20117015674A KR20110098938A KR 20110098938 A KR20110098938 A KR 20110098938A KR 1020117015674 A KR1020117015674 A KR 1020117015674A KR 20117015674 A KR20117015674 A KR 20117015674A KR 20110098938 A KR20110098938 A KR 20110098938A
Authority
KR
South Korea
Prior art keywords
scenario
touch screen
screen display
stroke event
predictive model
Prior art date
Application number
KR1020117015674A
Other languages
English (en)
Inventor
하오 왕
쿤 유
Original Assignee
노키아 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 노키아 코포레이션 filed Critical 노키아 코포레이션
Publication of KR20110098938A publication Critical patent/KR20110098938A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/04Protocols specially adapted for terminals or networks with limited capabilities; specially adapted for terminal portability

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

터치 스크린 디바이스에 사용하기 위한 예측 모델(predictive model)을 제공하는 장치는 프로세서를 포함할 수 있다. 프로세서는 터치 스크린 디스플레이에서 수신된 스트로크 이벤트를 식별하고, 터치 스크린 디스플레이에 대응하는 환경 파라미터를 평가하여 환경 파라미터에 기초한 시나리오를 결정하고, 결정된 시나리오를 위한 식별된 스트로크 이벤트에 대응하는 그래픽 출력을 생성하도록 구성될 수 있다. 본 발명은 그에 대응하는 방법 및 컴퓨터 프로그램 제품도 제공한다.

Description

예측 모델 제공 방법, 장치 및 컴퓨터 프로그램 제품{METHOD AND APPARATUS FOR PROVIDING A PREDICTIVE MODEL FOR DRAWING USING TOUCH SCREEN DEVICES}
본 발명의 실시예는 일반적으로 사용자 인터페이스 기술에 관한 것으로, 보다 구체적으로는, 터치 스크린 디바이스를 이용하여 그림을 그리기 위한 예측 모델(predictive model)을 제공하는 방법, 장치 및 컴퓨터 프로그램 제품에 관한 것이다.
현대의 통신 시대는 유선 및 무선 네트워크의 거대한 확장을 야기하였다. 컴퓨터 네트워크, 텔레비전 네트워크 및 텔레포니(telephony) 네트워크는 소비자 요구에 힘입어 전례없는 기술적 확장을 경험하고 있다. 무선 및 이동 네트워킹 기술은 정보 전달에 있어 더 큰 유연성 및 즉각성을 제공하면서, 그와 관련된 소비자 요구 사항을 반영하고 있다.
현재 및 미래의 네트워킹 기술은 정보 전송의 용이성 및 사용자에게의 편의성을 지속적으로 촉진하고 있다. 정보 전달의 용이성을 증대하고자 하는 요구 사항이 존재하는 하나의 영역은 이동 단말기의 사용자에게 서비스를 전달하는 것과 관련된다. 이 서비스는 뮤직 플레이어, 게임 플레이어, 전자책, 단문 메시지, 전자 우편, 컨텐츠 공유, 웹 브라우징 등과 같이, 사용자가 희망하는 특정한 매체 또는 통신 애플리케이션의 형태를 가질 수 있다. 이 서비스는 또한 작업을 실행하거나 목표를 달성하기 위해서 사용자가 네트워크 디바이스에 응답하는 대화형 애플리케이션의 형태를 가질 수도 있다. 이 서비스는 네트워크 서버 또는 다른 네트워크 디바이스로부터 제공되거나, 예를 들면, 이동 전화기, 이동 텔레비전, 이동 게임 시스템 등과 같은 이동 단말기로부터 제공될 수 있다.
여러 상황에서, 사용자는 애플리케이션 또는 서비스의 제공을 위해서 이동 단말기 등과 같은 디바이스와 인터페이스로 연결되는 것이 바람직할 수 있다. 예를 들면, 그림을 그릴 수 있게 하는 웹 브라우징 또는 애플리케이션 등과 같은 특정 애플리케이션 동안에 사용자의 체험은 사용자 인터페이스로서 터치 스크린 디스플레이를 이용함으로써 향상될 수 있다. 더욱이, 몇몇 사용자는 다른 대체물을 사용한 것보다는 터치 스크린 디스플레이를 이용한 사용자 인터페이스 명령의 입력 또는 컨텐츠의 간단한 생성을 선호할 수 있을 것이다. 터치 스크린 디스플레이의 유용성 및 대중성을 인식하게 되면서, 이제 몇몇 이동 단말기를 포함하는 많은 디바이스는 터치 스크린 디스플레이를 채용하고 있다. 이와 같이, 물체가 터치 스크린 디스플레이에 접촉할 수 있는 특정 포인트를 감지하는 여러 서로 다른 기술이 사용되면서 터치 스크린 디바이스는 이제 비교적 잘 알려져 있다.
그러므로 터치 스크린 디바이스에서 사용하기 위한 예측 모델을 제공하는 방법, 장치 및 컴퓨터 프로그램 제품이 제공된다. 특히, 소형 디스플레이 환경에서 특별한 용도를 가질 수 있는 예측 기능성을 제공함으로써 디바이스의 사용자가 터치 스크린을 가지고 시각 컨텐츠를 비교적 빠르고 용이하게 생성할 수 있게 하는 방법, 장치 및 컴퓨터 프로그램 제품을 제공한다. 그러나 본 명세서에 개시된 예측 모델의 이점은 또한 대형 스크린 환경을 포함하는 다른 환경에서도 구현될 수 있다.
예시적인 일실시예에서, 터치 스크린 디바이스에서 사용되는 예측 모델을 제공하는 방법이 제공된다. 이 방법은 터치 스크린 디스플레이에서 수신된 스트로크 이벤트를 식별하는 단계와, 터치 스크린 디스플레이에 대응하는 환경 파라미터를 평가하여 환경 파라미터에 기초한 시나리오를 결정하는 단계와, 결정된 시나리오를 위한 식별된 스트로크 이벤트에 대응하는 그래픽 출력을 생성하는 단계를 포함할 수 있다.
다른 예시적인 실시예에서, 터치 스크린 디바이스에서 사용하는 예측 모델을 제공하는 컴퓨터 프로그램 제품이 제공된다. 컴퓨터 프로그램 제품은 컴퓨터 실행 가능 프로그램 코드 명령어를 저장하고 있는 적어도 하나의 컴퓨터 판독 가능 저장 매체를 포함한다. 컴퓨터 실행 가능 프로그램 코드 명령어는 터치 스크린 디스플레이에서 수신된 스트로크 이벤트를 식별하고, 터치 스크린 디스플레이에 대응하는 환경 파라미터를 평가하여 환경 파라미터에 기초한 시나리오를 결정하고, 결정된 시나리오를 위한 식별된 스트로크 이벤트에 대응하는 그래픽 출력을 생성하는 프로그램 코드 명령어를 포함할 수 있다.
다른 예시적인 실시예에서, 터치 스크린 디바이스에서 사용하기 위한 예측 모델을 제공하는 장치를 제공한다. 이 장치는 터치 스크린 디스플레이에서 수신된 스트로크 이벤트(stroke event)를 식별하고, 터치 스크린 디스플레이에 대응하는 환경 파라미터를 평가하여 환경 파라미터에 기초한 시나리오를 결정하고, 결정된 시나리오를 위한 식별된 스트로크 이벤트에 대응하는 그래픽 출력을 생성하도록 구성되는 프로세서를 포함할 수 있다.
다른 예시적인 실시예에서, 터치 스크린 디바이스에서 사용할 예측 모델을 제공하는 장치를 제공한다. 이 장치는 터치 스크린 디스플레이에서 수신된 스트로크 이벤트를 식별하는 수단과, 터치 스크린 디스플레이에 대응하는 환경 파라미터를 평가하여 환경 파라미터에 기초한 시나리오를 결정하는 수단과, 결정된 시나리오를 위한 식별된 스트로크 이벤트에 대응하는 그래픽 출력을 생성하는 수단을 포함한다.
본 발명의 실시예는 터치 스크린 인터페이스 성능을 향상하는 방법, 장치 및 컴퓨터 프로그램 제품을 제공할 수 있다. 결과적으로, 예를 들면 이동 단말기 사용자는 터치 스크린 디스플레이와 접속하여 사용될 수 있는 서비스 또는 애플리케이션에 대한 향상된 성능을 누릴 수 있게 된다.
위와 같은 본 발명의 설명된 실시예를 일반적인 용어로 간주하면, 본 발명은 반드시 실제 축적대로 도시되지는 않은 다음의 도면을 참조하여 설명될 수 있을 것이다.
도 1은 본 발명의 예시적인 실시예에 따른 시스템을 도시하는 개략적인 블록도.
도 2는 본 발명의 예시적인 실시예에 따른 터치 스크린 디바이스에서 사용하기 위한 예측 모델을 제공하는 장치를 도시하는 개략적인 블록도.
도 3은 본 발명의 예시적인 실시예에 따라서 도 2에 도시된 장치의 동작에 대한 예시를 도시하는 도면.
도 4는 본 발명의 다른 예시적인 실시예의 예시적인 동작을 도시하는 흐름도.
도 5(도 5(a) 내지 도 5(g)를 포함)는 그림을 수정하기 위해서 본 발명의 예시적인 실시예에 의해 제공될 수 있는 특정한 스트로크 이벤트와 대응하는 그래픽 출력 사이의 관계에 대한 예시를 도시하는 도면.
도 6은 본 발명의 또 다른 예시적인 실시예에 따라서 도 2에 도시된 장치의 동작에 대한 예시를 도시하는 도면.
도 7은 본 발명의 예시적인 실시예에 따른 터치 스크린 디바이스에서 사용하기 위한 예측 모델을 제공하는 예시적인 방법을 도시하는 블록도.
이하에서 본 발명의 몇몇 실시예는, 본 발명의 전체의 실시예가 아닌 일부의 실시예를 도시하는 첨부된 도면을 참조하여 보다 구체적으로 설명될 것이다. 또한 본 발명의 여러 실시예는 여러 상이한 형태로 구현될 수 있고, 본 명세서에 설명된 실시예만으로 한정된다고 해석되지 않아야 한다. 도면에 걸쳐 동일한 참조 번호는 동일한 구성 요소를 지칭한다. 본 명세서에 사용된 바와 같이, "데이터", "컨텐츠", "정보" 및 그와 유사한 용어는 본 발명의 실시예에 따라서 송신, 수신 및/또는 저장될 수 있는 데이터를 지칭하기 위해 호환하여 사용될 수 있다. 더욱이 본 명세서에서 사용된 "예시적인"이라는 용어는, 임의의 정성적 평가를 의미하기 위해 제공된 것이 아니고, 단지 예시를 나타내기 위해 제공된 것에 불과하다. 따라서, 이러한 용어의 사용은 본 발명의 실시예에 대한 정신 및 범주를 제한하는 것으로 간주되어서는 안 된다.
비교적 소형 디스플레이를 갖는 이동 단말기 또는 다른 디바이스와의 접속을 위해 사용되는 때와 같은 특정 환경에서, 그림 도구로서 손가락이 아닌 스타일러스(stylus)를 이용한다고 해도 적절한 수준의 정확도 또는 해상도를 가지고 터치 스크린에 그림 입력을 제공하는 것을 어려운 일일 것이다. 따라서 터치 스크린 상에 그림을 그리는 것과 관련된 사용자 경험을 향상하기 위한 메커니즘을 제공하는 것이 바람직할 것이다.
상술된 바와 같이, 본 발명의 몇몇 실시예는 터치 스크린 인터페이스가 작동하는 당시의 시나리오의 묘사를 가능하게 하기 위해서 배경 및/또는 환경 조건의 인식을 돕는 예측 모델을 제공함으로써 터치 스크린 인터페이스 성능을 향상할 수 있다. 감지된 조건 및 결정된 시나리오에 기초하여, 예측 모델은 생성 및/또는 업데이트될 수 있다. 그림, 패턴, 기호 또는 다른 연관된 그래픽 출력의 형태로 출력을 생성하기 위해 터치 스크린 인터페이스에 의해 수신된 입력에 따른 예측 모델을 사용할 수 있을 것이다.
도 1은 본 발명의 실시예에 의해 이점을 제공받는 시스템에 대한 블록도를 도시한다. 그러나 앞서 개시되고 이하에 설명되는 시스템은 본 발명의 실시예로부터 이점을 제공받을 수 있는 하나의 시스템에 대한 예시에 불과하고, 그에 따라 본 발명의 실시예에 대한 범주를 제한하는 것으로 간주되지 않아야 한다는 것을 이해할 것이다. 도 1에 도시된 바와 같이, 본 발명의 예시적인 실시예에 따른 시스템의 실시예는 예를 들면, 서비스 플랫폼(20)을 포함하는 여러 다른 디바이스와 네트워크(30)를 통해 통신할 수 있는 이동 단말기(10)를 포함할 수 있다. 본 발명의 몇몇 실시예에서, 시스템은 퍼스널 컴퓨터(PC), 서버, 네트워크 하드 디스크, 파일 저장 서버 등과 같이 이동 단말기(10)와 통신할 수 있고, 서비스 플랫폼(20)에 의해 액세스 가능한 하나 이상의 추가 디바이스를 더 포함할 수 있다. 그러나 본 발명의 실시예를 적용하는 모든 시스템이 본 명세서에 설명 및/또는 개시된 모든 디바이스를 포함할 수 있는 것은 아니다. 더욱이 몇몇 경우에 실시예는 어떠한 시스템과도 독립적인 단독 디바이스에 적용될 수 있다.
이동 단말기(10)는 예를 들면, PDA(portable digital assistant), 페이저(pager), 이동 텔레비전, 이동 전화기, 게임 디바이스, 랩탑 컴퓨터, 카메라, 카메라 전화기, 비디오 레코더, 오디오/비디오 플레이어, 라디오, GPS 디바이스 또는 그 임의의 조합 등과 같은 다양한 타입의 이동 통신 및/또는 컴퓨터 디바이스 및 다른 타입의 음성 및 문자 통신 시스템 중 어느 하나일 수 있다. 네트워크(30)는 대응하는 유선 및/또는 무선 인터페이스를 통해 서로에 대해 통신할 수 있는 여러 상이한 노드, 디바이스 또는 기능의 조합을 포함할 수 있다. 이와 같이, 도 1의 예시는 시스템의 소정의 구성 요소에 대한 넓은 견지에서의 일례이고, 시스템 또는 네트워크(30)에 대한 것을 모두 포괄한다거나 세부적인 견지에서의 예시가 아님을 이해할 것이다. 필수적인 것은 아니지만, 몇몇 실시예에서 네트워크(30)는 다수의 제 1 세대(1G), 제 2 세대(2G), 2.5G, 제 3 세대(3G), 3.5G, 3.9G, 제 4 세대(4G) 이동 통신 프로토콜, LTE(Long Term Evolution) 중 어느 하나 이상에 따른 통신을 지원할 수 있을 것이다. 따라서 네트워크(30)는 LAN(local area network), MAN(metropolitan area network) 및/또는 예컨대, 인터넷 등의 WAN(wide area network) 등과 같은 셀룰러 네트워크, 이동 네트워크 및/또는 데이터 네트워크일 수 있다. 그리고 처리 소자(예컨대, 퍼스널 컴퓨터, 서버 컴퓨터 등) 등과 같은 다른 디바이스는 네트워크(30)에 포함되나 결합될 수 있다. 이동 단말기(10)와 다른 디바이스(예컨대, 서비스 플랫폼(20) 또는 다른 이동 단말기)를 네트워크(30)로 간접 또는 직접 접속함으로써, 이동 단말기(10) 및/또는 다른 디바이스는 예를 들면, 여러 통신 프로토콜에 따라서 서로 통신 가능하게 되어 이동 단말기(10) 및 다른 디바이스의 여러 통신 또는 다른 기능을 각각 수행하도록 할 수 있다. 이와 같이, 이동 단말기(10) 및 다른 디바이스가 수많은 액세스 메커니즘 중 어느 하나에 의해 상이한 네트워크(30) 및/또는 서로에 대해 통신하도록 할 수 있다. 예를 들면, W-CDMA(wideband code division multiple access), CDMA2000, GSM(global system for mobile communications), GPRS(general packet radio service) 등과 같은 이동 액세스 메커니즘은, 무선 LAN(WLAN), WiMAX(Worldwide Interoperability for Microwave Access), WiFi(Wireless Fidelity), UWB(ultra-wide band), 와이브로(Wibree) 기술 등과 같은 무선 액세스 메커니즘뿐만 아니라 DSL(digital subscriber line), 케이블 모뎀, 이더넷(Ethernet) 등과 같은 고정 액세스 메커니즘의 지원을 받을 수 있다.
예시적인 일실시예에서, 서비스 플랫폼(20)은 서버 또는 다른 처리 소자 등과 같은 디바이스 또는 노드일 수 있다. 서비스 플랫폼(20)은 다양한 서비스에 대한 임의의 개수의 기능 또는 연관성을 가질 수 있다. 이와 같이, 예를 들면 서비스 플랫폼(20)은 특정한 정보 소스 또는 서비스(예컨대, 그림 지원 서비스)와 연관된 전용 서버(또는 서버 뱅크) 등과 같은 플랫폼이거나, 서비스 플랫폼(20)은 하나 이상의 다른 기능 또는 서비스와 연관된 백엔드(backend) 서버일 수 있다. 이와 같이, 서비스 플랫폼(20)은 복수의 상이한 서비스 또는 정보 소스에 대한 잠재적 호스트를 나타낼 수 있다. 몇몇 실시예에서, 서비스 플랫폼(20)의 기능성은 통신 디바이스의 사용자에게 정보를 제공하는 공지된 기법에 따라서 작동하도록 구성된 하드웨어 및/또는 소프트웨어 구성 요소에 의해 제공될 수 있다. 그러나 서비스 플랫폼(20)에 의해 제공되는 적어도 몇개의 기능성은 본 발명의 실시예에 따라서 제공된 데이터 처리 및/또는 서비스 제공 기능성일 수 있다.
도 2는 본 발명의 실시예로부터 이득을 얻을 수 있는 장치에 대한 블록도를 도시한다. 그러나 앞서 개시되고 이하에 설명되는 장치는 본 발명의 실시예로부터 이점을 제공받을 수 있는 하나의 장치에 대한 예시에 불과하고, 그에 따라 본 발명의 실시예에 대한 범주를 제한하는 것으로 간주되지 않아야 한다는 것을 이해할 것이다. 예시적인 일실시예에서, 도 2의 장치는 네트워크를 통해 다른 디바이스와 통신할 수 있는 이동 단말기(예컨대, 이동 단말기(10))에서 이용될 수 있다. 그러나 몇몇 경우에 본 발명의 실시예가 적용되는 장치는 고정 단말기 및/또는 다른 디바이스와 통신하지 않는 단말기일 수 있다. 이와 같이, 모든 시스템이 본 명세서에 설명된 본 발명의 실시예를 적용할 수 있는 것은 아니다. 더욱이 본 발명의 실시예를 이용하는 장치의 다른 구조도 제공될 수 있으며, 이러한 구조는 도 2에 도시된 것보다 더 많거나 더 적은 개수의 구성 요소를 포함할 수 있다. 따라서, 몇몇 실시예는 본 명세서에 예시 및/또는 설명된 전체의 디바이스보다 더 많은 개수 또는 더 적은 개수를 포함할 수 있다. 더욱이, 몇몇 실시예에서 디바이스 또는 구성 요소가 서로 통신하는 것으로 도시되어 있으나, 이하에서 이러한 디바이스 또는 구성 요소는 동일한 디바이스 또는 구성 요소 내에 포함될 수 있다고 간주되어야 하고, 그에 따라 통신하는 것으로 도시된 디바이스 또는 구성 요소는 그와 다르게 동일한 디바이스 또는 구성 요소의 일부분으로서 이해되어야 할 것이다.
다음으로 도 2를 참조하면, 터치 스크린 디스플레이 상에 그림 보조를 위한 예측 모델을 사용하는 장치가 제공된다. 장치(40)는 터치 스크린 디스플레이(50), 프로세서(52), 터치 스크린 인터페이스(54), 통신 인터페이스(56) 및 메모리 디바이스(58) 내에 포함되거나 이들과 통신할 수 있다. 메모리 디바이스(58)는 예를 들면, 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 메모리 디바이스(58)는 장치가 본 발명의 예시적인 실시예에 따른 여러 기능을 수행할 수 있게 하는 정보, 데이터, 애플리케이션, 명령어 등을 저장하도록 구성될 수 있다. 예를 들면, 메모리 디바이스(58)는 프로세서(52)에 의해 처리될 입력 데이터를 버퍼링하도록 구성될 수 있다. 그에 추가하거나 그 대신에, 메모리 디바이스(58)는 프로세서(52)에 의한 실행을 위해 명령어를 저장하도록 구성될 수 있다. 또 다른 대안으로, 메모리 디바이스(58)는 정보 및/또는 매체 컨텐츠를 저장하는 복수의 데이터베이스 또는 저장 위치 중 하나일 수 있다.
프로세서(52)는 다수의 상이한 방법으로 구현될 수 있다. 예를 들면, 프로세서(52)는 처리 소자, 코프로세서, 제어기 또는 예를 들면, ASIC(application specific integrated circuit), FPGA(field programmable gate array), 하드웨어 가속기 등과 같은 집적 회로를 포함하는 다양한 다른 처리 디바이스 등과 같은 여러 처리 수단으로 구현될 수 있다. 예시적인 실시예에서, 프로세서(52)는 메모리 디바이스(58) 내에 저장되었거나 프로세서(52)에게 액세스 가능한 명령어를 실행하도록 구성될 수 있다. 이와 같이, 하드웨어 또는 소프트웨어 방법에 의해서 구성되었거나, 그 조합에 의해서 구성된 것에 무관하게, 프로세서(52)는 본 발명의 실시예에 따라 구성되어 그에 따라 동작을 실행할 수 있는 개체를 나타낼 수 있다.
한편, 통신 인터페이스(56)는 장치(40)와 통신하면서 네트워크 및/또는 임의의 다른 디바이스 또는 모듈로부터/로 데이터를 수신 및/또는 송신하도록 구성되는 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합 내에 구현된 디바이스 또는 회로 등과 같은 임의의 수단일 수 있다. 이러한 점에서, 통신 인터페이스(56)는 예를 들면, 무선 통신 네트워크와의 통신을 가능하게 하는 안테나(또는 다수의 안테나) 및 지원형 하드웨어 및/또는 소프트웨어를 포함할 수 있다. 고정 환경에서, 통신 인터페이스(56)는 그 대신에 또는 그것에 추가하여 유선 통신을 지원할 수 있다. 이와 같이, 통신 인터페이스(56)는 케이블, DSL(digital subscriber line), USB(universal serial bus), 이더넷, HDMI(High-Definition Multimedia Interface) 또는 다른 메커니즘을 통해 통신을 지원하는 통신 모뎀 및/또는 다른 하드웨어/소프트웨어를 포함할 수 있다. 더욱이, 통신 인터페이스(56)는 블루투스(Bluetooth), 적외선, UWB(ultra-wideband), WiFi 등과 같이 통신 메커니즘을 지원하는 하드웨어 및/또는 소프트웨어를 포함할 수 있다.
터치 스크린 디스플레이(50)는 임의의 공지된 터치 스크린 디스플레이로서 구현될 수 있다. 따라서 예를 들면, 터치 스크린 디스플레이(50)는 저항성, 용량성, 적외선(infrared), 변형률 게이지(strain gauge), 표면파(surface wave), 광학 영상, 분산 신호(dispersive signal) 기술, 음파 인식(acoustic pulse recognition) 또는 다른 유사 기법 등과 같은 임의의 적절한 기법에 의해 터치 인식을 가능하게 하도록 구성될 수 있다. 터치 스크린 인터페이스(54)는 터치 스크린 디스플레이(50)와 통신하여 터치 스크린 디스플레이(50)에서 사용자 입력의 표시를 수신하고, 대응하는 사용자 동작에 기초하여, 표시에 의해 추론되거나 표시에 응답하여 결정될 수 있는 이러한 표시에 대한 응답을 수정할 수 있다. 이러한 점에서 터치 스크린 인터페이스(54)는 이하에 설명된 바와 같이 터치 스크린 인터페이스(54)와 연관된 각각의 기능을 수행하도록 구성되는 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합으로 구현되는 임의의 디바이스 또는 수단일 수 있다. 예시적인 실시예에서, 터치 스크린 인터페이스(54)는 메모리 디바이스(58) 내에 저장되고 프로세서(52)에 의해 실행되는 명령어로서 소프트웨어의 형태로 구현될 수 있다. 이와 다르게, 터치 스크린 인터페이스(54)는 터치 스크린 인터페이스(54)의 기능을 실행하도록 구성되는 프로세서(52)로서 구현될 수 있다.
터치 스크린 인터페이스(54)는 터치 스크린 디스플레이(50)에서 터치 이벤트의 형태로 된 입력의 표시를 수신하도록 구성될 수 있다. 터치 이벤트의 인식 이후에, 터치 스크린 인터페이스(54)는 그 후의 스트로크 이벤트 또는 다른 입력 행위를 결정하고, 스트로크 이벤트에 기초하여 터치 스크린 디스플레이(50) 상에 대응하는 표시를 제공하도록 구성될 수 있다. 이와 관련하여 예를 들면, 터치 스크린 인터페이스(54)는 검출기(60)에서 수신된 각각의 입력에 기초하여 터치 이벤트를 인식 및/또는 결정하기 위해 사용자 입력의 표시를 수신하는 검출기(60)를 포함할 수 있다.
터치 이벤트는 터치로서 등록하기에 충분한 방식으로 터치 스크린 디스플레이의 일부분을 접촉하게 되는 스타일러스(stylus), 손가락, 펜, 연필 또는 임의의 다른 포인팅 디바이스 등과 같은 대상의 검출로서 정의될 수 있다. 이러한 점에서, 예를 들면, 터치 이벤트는 터치 스크린 디스플레이(50)의 스크린에 주어진 영역에 대한 특정한 압력 임계점을 넘어서는 압력의 검출일 수 있다. 각각의 터치 이벤트 이후에, 터치 스크린 인터페이스(54)는 (예컨대, 검출기(60)를 통해) 대응하는 스트로크 이벤트 또는 입력 행위를 인식 및/또는 결정하도록 더 구성될 수 있다. 스트로크 이벤트(또한 입력 행위로도 지칭될 수 있음)는 터치 이벤트 바로 뒤에 물체가 터치 스크린 디스플레이(50)와 접촉을 유지하면서 터치 이벤트를 시작하는 물체의 움직임으로서 정의될 수 있다. 다시 말해서, 스트로크 이벤트 또는 입력 행위는 터치 이벤트 이후의 움직임으로 정의될 수 있는데, 그것에 의해 순간적인 터치 위치의 일련의 이동을 정의하는 연속적인 이동 터치 이벤트를 형성한다. 스트로크 이벤트 또는 입력 행위는 일련의 중단없는 터치 이벤트를 나타내거나, 몇몇 경우에 별개의 터치 이벤트의 조합을 나타낸다. 상기 내용의 설명에 있어서, "바로(immediately)"라는 용어가 반드시 시간적인 한도에 대응하는 것으로 이해되어서는 안 된다. 오히려 "바로"라는 용어는 일반적으로 여러 경우에 터치 이벤트 이후의 비교적 짧은 시간을 의미하는 것에 대응할 수 있지만, 여기에서는 그 대신에 물체가 터치 스크린 디스플레이(50)와 접촉을 유지하면서 터치 위치를 정의하는 물체의 터치 이벤트와 이동 사이에 간섭 동작이 없는 것을 나타낸다. 그러나 임계 시간 주기동안 유지된 터치 이벤트가 대응하는 기능을 유발하는 몇몇 경우에, "바로"라는 용어는 또한 터치 이벤트를 유발하는 물체의 움직임이 임계 시간 주기 이전에 발생해야만 한다는 것과 관련된 시간 성분을 가질 수 있다.
예시적인 실시예에서, 검출기(60)는 입력 분석기(62) 및/또는 패턴 매퍼(pattern mapper)(64)에 대해 스트로크 이벤트 또는 입력 행위의 인식 또는 검출에 관한 검출 정보를 통신하도록 구성될 수 있다. 몇몇 실시예에서, 입력 분석기(62) 및 패턴 매퍼(64)는 각각(검출기(60)와 함께) 터치 스크린 인터페이스(54)의 일부분이 될 수 있다. 더욱이, 각각의 입력 분석기(62) 및 패턴 매퍼(64)는 입력 분석기(62) 및 패턴 매퍼(64)의 대응하는 기능을 각각 수행하도록 구성되는 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현된 디바이스 또는 회로 등의 임의의 수단으로 구현될 수 있다.
이러한 점에서, 예를 들면 입력 분석기(62)는 특정한 입력 행위 또는 스트로크 이벤트가 공지되었거나 이전에 수신된 입력 행위 또는 스트로크 이벤트에 대응하는지 여부를 판정하기 위해서 입력 행위(gesture) 또는 스트로크 이벤트를 이전에 수신된 입력 행위 및/또는 스트로크 이벤트의 여러 프로파일에 대해 비교하도록 구성될 수 있다. 그 대응성이 판정되면, 입력 분석기(62)는 인식되거나 결정된 입력 행위 또는 스트로크 이벤트를 패턴 매퍼(64)로 식별할 수 있다. 몇몇 실시예에서, 입력 분석기(62)는 스트로크 또는 선 방향(예컨대, 수직, 수평, 사선 등)과, 길이, 굴곡, 형상 등과 같은 여러 다른 스트로크 특성을 결정하도록 구성될 수 있다. 결정된 특성은 그 사용자 또는 일반 사용자의 다른 입력 행위의 특성에 대해 비교되어, 공지된 입력 행위에 대한 유사성에 기초하여 특정한 입력 행위 또는 스트로크 이벤트를 결정하거나 식별할 수 있다.
일반적으로 말해서, 패턴 매퍼(64)는 각각의 인식된 입력 행위 또는 스트로크 이벤트(또는 선택된 것)가 연관되어 있는 저장된 패턴에 대응하는 인식된 입력 행위 또는 스트로크 이벤트를 매핑하도록 구성될 수 있다. 따라서 패턴 매퍼(64)는 대응하는 하나 이상의 입력 행위 또는 스트로크 이벤트와 연관될 완전한 패턴, 기호, 그림, 그래픽, 애니메이션 또는 다른 그래픽 출력을 제공할 수 있다. 그러나 예시적인 실시예에서, 패턴 매퍼(64)는 또한 입력 행위 또는 스트로크 이벤트 중 특정한 하나와, 입력뿐만 아니라 예측 모델(70)에 기초한 대응하는 특정한 완전한 패턴, 기호, 그림, 애니메이션, 그래픽 또는 다른 그래픽 출력 사이의 연관을 가능하게 할 수 있다. 예측 모델(70)은 동일한 행위 또는 스트로크 이벤트와 연관될 수 있는 상이한 그래픽 출력 사이의 구별을 제공할 수 있다. 따라서 예를 들어 동일한 스트로크 이벤트가 복수의 상이한 패턴과 연관될 수 있기는 하지만, 예측 모델(70)은 패턴 매퍼(64)가 복수의 상이한 패턴 중에서 어떤 연관된 특정 패턴이 스트로크 이벤트가 수신된 상황에 기초하여 스트로크 이벤트의 검출된 예시와 연관되는지를 식별할 수 있게 할 수 있다. 다시 말해서, 예측 모델(70)은 현재의 시나리오에 기초하여 패턴 매퍼(64)에 상황 인식 가능성을 제공하도록 구성될 수 있다.
예측 모델(70)은 몇몇 경우에, 터치 스크린 인터페이스(54)의 부품이 된다. 보다 구체적으로, 몇몇 경우에 예측 모델(70)은 패턴 매퍼(64)의 모듈 또는 다른 구성 부분일 수 있다. 그러나 몇몇 다른 실시예(도 2의 예시에 도시된 것 등)에서, 예측 모델(70)은 별개의 디바이스일 수 있다. 어느 경우에도, 예측 모델(70)은 복수의 잠재적인 그래픽 출력 중 어느 것이 각각의 입력 행위 또는 스트로크 이벤트와 연관되는지를 나타내는 정보를 (예컨대, 메모리 디바이스(58) 내부 또는 다른 데이터베이스 또는 저장 위치 내부에) 기록할 수 있다. 이와 같이, 몇몇 실시예에서 예측 모델(70)은 예측 모델(70)(또는 패턴 매퍼(64))이 현재의 상황 또는 시나리오를 결정할 수 있게 하는 여러 디바이스 및/또는 센서로부터 정보를 수신할 수 있다.
예시적인 실시예에서, 하나 이상의 센서(예컨대, 센서(72)) 및/또는 시나리오 선택기(74)는 패턴 매퍼(64)의 일부분으로서 포함되거나 패턴 매퍼(64)와 통신할 수 있다. 센서는 복수의 상이한 환경 및/또는 상황적 조건을 감지하도록 구성된 여러 디바이스 또는 모듈 중 어느 하나일 수 있다. 이러한 점에서, 예를 들면 센서(72)에 의해 모니터링될 수 있는 조건은 시간, 위치, 감정, 날씨, 속도, 부근의 사람, 온도, 부근의 사람 및/또는 디바이스, 압력(예컨대, 터치 이벤트에 의해 인가되는 압력의 양), 및 다른 파라미터를 포함할 수 있다. 이와 같이, 센서(72)는 위의 요소 중 어느 하나를 결정하는 복수의 별개의 디바이스 중 하나(예컨대, 온도 정보를 제공하는 온도계, 시간 정보를 제공하는 시계 또는 달력, 속도 및/또는 위치 정보를 제공하는 GPS 디바이스 등)를 나타내거나, 센서(72)는 대응하는 파라미터를 결정하도록 구성된 디바이스 및 기능 요소의 조합(예컨대, 감정 정보를 제공하는 알고리즘에 따라 감정을 판정하는 온도계 및 심박수 모니터, GPS 디바이스에 의해 제공되는 장치(40)의 위치에 대응하는 위치에서의 날씨 정보에 대한 특정 웹 페이지를 검사하는 웹 애플리케이션, 부근의 디바이스 또는 사람을 결정하는 블루투스 디바이스 또는 카메라, 검출기(60)와 연관된 압력 센서 등)을 나타낼 수 있다.
시나리오 선택기(74)는 본 명세서에 설명된 시나리오 선택기(74)의 대응하는 기능을 수행하도록 구성된 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합으로 구현되는 디바이스 또는 회로 등과 같은 임의의 수단일 수 있다. 이러한 점에서, 예를 들면 시나리오 선택기(74)는 센서(72)로부터 센서 정보를, 몇몇 경우에는 사용자 입력을 수신하여, 장치(40)에서 감지된 현재의 조건에 대응하는 시나리오를 결정(또는 그와 다르게 예측)하도록 구성될 수 있다. 따라서 예를 들면, 시나리오 선택기(74)는 사용자에 의해 입력된 사전 정의된 상황 정보를 이용하여 상황을 정의하거나, 소정 조건 하에서의 사용자 행동에 기초하여 상황을 학습하고 분류하도록 구성될 수 있다. 예를 들면, 특정 위치와 결합된 특정한 시간은 그와 연관된 대응하는 시나리오를 가질 수 있다. 예를 들면, 주중의 근무 시간 동안에 사용자가 사용자의 근무처에 대응하는 GPS 위치에 있는 경우, 시나리오는 "근무중(at work)"으로 정의될 수 있다. 반면에, 근무 시간 이후의 시간 또는 주말에 사용자가 사용자의 집에 대응하는 GPS 위치에 있다면, 시나리오는 "집에 있음(at home)"으로 정의될 수 있다. 또 다른 예로서, 날짜, 온도, 날씨 및 부근의 사람 등과 같은 추가 요소는 파티, 휴일 행사, 레저 활동, 회의 및 다른 많은 것에 대응하는 시나리오 등과 같은 다른 시나리오를 정의하는 데 유용할 것이다.
몇몇 경우에, 사용자는 확장된 정보를 제공받거나, 요소 또는 시나리오 자체를 직접 선택할 수 있다. 예를 들면, 사용자는 사용자가 슬플 때 "우울한(blue)" 등과 같은 기분 또는 감정을 선택하거나, 다가오는 이벤트를 열렬히 기대할 때 "흥분되는(excited)"이라는 기분 또는 감정을 선택할 수 있다. 기분은 시나리오를 정의하거나 다른 정보를 가지고 시나리오를 선택할 때의 인자로 사용될 수 있다. 더욱이, 몇몇 경우에 시나리오는 임의로 선택되거나, 임의적인 시나리오 자체가 정의되어, 사용자로부터 검출된 스트로크 이벤트와 디스플레이된 패턴 사이의 연관성이 임의로 결정되는 것에 의해 재미있는 결과가 발생할 가능성을 생성할 수 있다.
예시적인 실시예에서, 예측 모델(70)은 사용자에 의해 완성된 그림의 구축된 라이브러리(library)에 기초하여 결정된 연관성을 포함할 수 있다. 이러한 점에서 예를 들면, 사용자가 그림을 작업하고 있을 때 시나리오 선택기(74)는 센서(72)로부터의 정보를 활용하여 현재의 상황을 결정하고, 만들어진 그림과, 그림에 착수하는 데 이용된 스트로크 이벤트 또는 입력 행위와, 그림이 생성된 시나리오 사이의 연관성을 기록할 수 있다. 그 대안으로서, 사용자는 이전에 완성된 라이브러리와, 저장되었거나 다운로딩된 그래픽 출력(예컨대, 그림)과, 여러 상이한 스트로크 이벤트 또는 입력 행위 사이의 연관성을 정의할 수 있다. 또 다른 대안으로서, 그래픽 출력 및 대응하는 스트로크 이벤트의 사전 결정된 라이브러리를 이용할 수 있다. 몇몇 경우에, 사전 결정된 라이브러리는 서비스 플랫폼(20)에 저장되거나 서비스 플랫폼(20)에 의해 제공될 수 있다. 더욱이, 몇몇 경우에 장치(40)의 부분(예컨대, 패턴 매퍼(64))은 서비스 플랫폼(20)에서 구현될 수 있고, 본 발명의 실시예는 클라이언트/서버 환경에서 실행될 수 있다. 몇몇 실시예에서, 상기 대안의 조합이 이용될 수 있다. 따라서 예를 들면, 초기 라이브러리가 존재할 수 있고, 사용자는 시간에 걸쳐 전체적으로 또는 부분적으로 라이브러리를 수정할 수 있다. 따라서 예측 모델(70)은 패턴 매퍼(64)에 상황 인식 가능성을 제공하는 것과 연관된 사전 결정된 및/또는 학습된 지식을 사용할 수 있다.
도 3은 일실시예에 따라서 도 2에 도시된 장치(40)의 동작에 대한 예시를 도시한다. 이러한 점에서 도 3에 도시된 바와 같이, (예컨대, 센서(72)로부터의) 상황 및 환경 감지 입력(80)은 시나리오 선택(82)과 함께 예측 모델(70)에 의해 수신될 수 있다. 반면에, 입력 행위(일례에서, 약간의 낙서)(84)는 (예컨대, 터치 스크린 인터페이스(54)의 입력 분석기(62)에 의한) 행위 분석(86)을 위해 수신될 수 있다. 이 예에서, 상황이 선택되거나 결정 가능하지 않기 때문에, (예컨대, 패턴 매퍼(64)를 통한) 매핑 동작(88)이 대응하는 그래픽 출력을 결정하지 못할 것이다. 이와 같이, 예를 들면 그래픽(90)에 의해 도시된 것과 같은 매핑 동작의 실패에 관한 표시가 제공될 수 있다. 한편 시나리오가 센서(72)에 의해 "시골 들판(country field)"으로서 선택되는 상황으로 스트로크 이벤트(92)가 수신되는 다른 예시에서, 행위 분석(86)은 수직(역방향)으로 긴 스트로크를 인식할 수 있고, 매핑 동작(88)은 선택된 시나리오에 대한 예측 모델(70)을 사용하여 대응하는 출력 그래픽으로서 나무(94)를 결정할 수 있다.
도 4는 본 발명의 다른 예시적인 실시예의 예시적인 동작에 대한 흐름도를 도시한다. 이러한 점에서 도 4에 도시된 바와 같이, 예시적인 실시예에 따른 예측 그림 애플리케이션은 시나리오 선택의 초기 동작(100)을 포함한다. (예컨대, 시나리오 선택기(74)를 통한) 시나리오 선택에서, 장치는 (예컨대, 센서(72)를 통해) 환경을 감지하고, 위치, 속도, 온도, 시간, 사용자의 감정 상태 등과 같은 감지된 환경 파라미터에 기초한 "시나리오 분류기" 알고리즘을 이용하여 적절한 시나리오를 결정하거나 선택할 수 있다. 예시적인 실시예에서, "디시전 트리(decision tree)" 또는 "룩업 테이블(look-up-table)"도 장치(40) 내에 (예컨대, 소프트웨어 모듈로서) 사전 설치될 수 있다. 그러나 몇몇 실시예에서, 소프트웨어, 하드웨어 또는 그 조합으로 구현된 보다 복잡한 패턴 인식 알고리즘이 사용될 수 있다. 상술된 바와 같이 사용자 대화는 요소로서 사용되거나 몇몇 경우에 실제로 시나리오를 명확하게 선택할 수 있다.
스트로크 또는 스케치 검출은 도 4의 동작(110)에 의해 도시된 바와 같이 몇몇 실시예에서 다른 동작을 형성할 수 있다. 동작(110)은 동작(100) 뒤에 있는 것으로 도시되어 있으나, 다른 실시예에서 그 순서가 바뀌거나 이러한 동작이 적어도 부분적으로 동시에 실행될 수 있다. 스트로크 검출 동안에, 터치 스크린 상에 스트로크를 생성하는 손가락, 스타일러스 또는 다른 도구의 접촉이 검출된다. 몇몇 경우에 (예컨대, 센서(72)를 통해) 스트로크/스케치의 파라미터가 또한 결정되고, 사전 정의된 그림 패턴으로 분석 및 매핑하는 데 이용될 수 있다. 파라미터는 각각의 샘플링 포인트의 (x,y) 좌표, 샘플링 시간 간격, 접촉 압력, 스타일러스/펜의 기울기 등을 포함하지만 이것으로 한정되지 않는다.
스케치 분석은 동작(120)에서 실행될 수 있다. 스케치 분석 동안에, 감지된 파라미터 형태의 감지된 스트로크/스케치는 패턴 인식 기술의 지원으로 분석될 수 있다. 동작(100)에 의한 특정 시나리오의 선택에 기인하여, 그림 패턴의 코드 표가 결정될 수 있다. 따라서 예를 들면, 선택된 시나리오 내의 형상에 대한 후보가 되는 그림 패턴의 부분 집합이 결정될 수 있다. 예를 들어 "시골 들판" 시나리오에 대응하는 6개의 전형적인 그림 패턴(소나무, 사시나무, 꽃, 풀, 구름 및 바람 등)이 존재한다면, 스케치 분석 동작은 입력 스트로크가 6개의 그림 패턴 중 대응하는 것(예컨대, 도 3의 소나무)에 대한 맵을 이용한다는 것을 인식할 수 있다. 임의의 적절한 패턴 인식 알고리즘을 이용할 수 있다. 몇몇 예시는 HMM(hidden markov model) 및 GLVQ(generalized local vector quantization) 알고리즘을 포함한다.
동작(130)에서, 그림 패턴 부합화가 이루어질 수 있다. 그림 패턴 부합화는 입력 스트로크에 대응하는 그림 패턴의 유형 또는 등급의 결정을 포함할 수 있다. 그림 효과를 최대화하기 위해서, 표준 그림 패턴에 대한 몇몇 변경이 도입될 수 있다. 예를 들면, 서로 다른 사람이 매번 동일한 형태로 항상 소나무를 그리기를 원하지는 않을 것이다. 이와 같이, 최종 결과가 보다 더 원본처럼 보이게 하기 위해서 최소의 변경이 도입될 수 있다. 따라서 예를 들면, 스트로크의 방향 정보(형상), 길이, 압력, 기울기 또는 다른 요소 등과 같은 감지된 스케치 파라미터는 표준 그림 패턴에 대한 예측 변경이 이루어질 수 있다. 이러한 점에서 예를 들면, 강한 압력의 터치는 부분적으로 더 어두운 색상 효과를 만들 수 있다. 상이한 경사(예컨대, 스타일러스와 터치 스크린 사이의 각도)는 서로 다른 선 두께를 만들 수 있고, 몇몇 경우에 스트로크의 길이는 여러 형상 변동에 영향을 줄 수 있다. 예시적인 실시예에서, 패턴 매퍼(64)는 사전 정의된 명령어에 기초하여 기본 출력 그래픽에 예측 변경을 실행하도록 구성될 수 있다.
몇몇 경우에 스트로크 이벤트 또는 입력 행위는 보다 복잡한 입력과 연관될 수 있다. 예를 들면, 몇몇 실시예에서 입력 분석기(62)는 동작(140)에서 입력 행위에 대한 타이밍 파라미터를 인식하고, 이러한 타이밍 파라미터를 애니메이션 행위 입력과 연관되도록 구성할 수 있다. 이러한 점에서 예를 들면, 사전 정의된 시간 간격, 특정 방향, 특정 길이 및/또는 다른 동적 특성과 연관된 특성을 갖는 입력 행위는 애니메이션 행위 입력으로 인식될 수 있고, 그에 따라 대응하는 출력 그래픽은 그에 대응하여 선택된 애니메이션을 포함할 수 있다.
결정된 스트로크 이벤트에 대응하는 패턴을 결정한 후, 패턴 매퍼(64)는 동작(150)에서 대응하는 패턴, 그림, 애니메이션, 기호 또는 다른 그래픽 출력을 렌더링(render)할 수 있다. 이러한 점에서 예를 들면, 예측 모델(70)에 기초하여 결정된 부합 그림 패턴은 (예컨대, 터치 스크린 디스플레이(50)에) 렌더링될 수 있다. 애니메이션 행위 입력이 검출되었다면, 애니메이션 효과도 렌더링될 수 있다. 이러한 점에서 예를 들면, 패턴 매퍼(64)의 동작을 개시하는 스트로크 이벤트는 (예컨대 고정된 시간 간격 후에) 자동적으로 사라질 수 있고, 스트로크 이벤트는 패턴 매퍼(64)에 의해 결정된 것과 같이 선택된 패턴, 기호, 이미지, 애니메이션 또는 다른 그래픽 출력으로 대체될 수 있다.
상술된 바와 같이 서비스 플랫폼(20)은 본 발명의 실시예와 연관된 지원 또는 다른 서비스를 제공할 수 있다. 그러나 몇몇 실시예는 서비스 플랫폼(20)으로부터 입력을 전혀 요구하지 않아서 장치(40)가 이동 단말기 또는 다른 디바이스에서 독립적으로 작동할 수 있다. 서비스 플랫폼(20)이 사용되는 경우에, 서비스 플랫폼(20)은 다수의 상이한 사용자 사이에서 그림 패턴, 특정한 시나리오와의 연관성 또는 다른 정보의 공유를 가능하게 할 수 있다. 이와 같이, 예를 들면 시나리오 및 연관성에 대한 데이터베이스 관리는 몇몇 경우에 적어도 부분적으로 인터넷 기반의 이동 활동일 수 있다. 서비스 플랫폼(20)은 지역 패턴 매퍼에 의해 사용될 연관성/매핑의 기본 세트를 제공할 수 있고, 지역 패턴 매퍼는 그 후에 연관성/매핑을 맞춤화(customize)하고/또는 사용자의 활동에 기초하여 연관성/매핑을 계속적으로 업데이트할 수 있다. 따라서 예를 들면, 지역 패턴 매퍼는 스트로크 이벤트의 기본 시작 맵을 소정의 사전 결정된 시나리오를 위한 대응하는 그래픽 출력으로 사용하도록 구성될 수 있지만, 사용자의 활동에 기초하여 매핑을 업데이트하기 위해서 사용자의 습관 및/또는 명확한 요구를 학습할 수 있을 것이다.
도 5(도 5(a) 내지 도 5(g)를 포함함)는 (도 5(g)에 도시된) 그림을 수정(또는 완성)하기 위해서 본 발명의 실시예에 의해 제공될 수 있는 특정한 스트로크 이벤트와 대응하는 그래픽 출력 사이의 연관성에 대한 몇몇 예시를 나타낸다. 이러한 점에서 예를 들면, 긴 수직 선은 도 5(a)에 도시된 바와 같이 현재의 시나리오에 대한 특정 타입의 나무로 매핑될 수 있다. 한편, 지그-재그 패턴으로 마무리되는 수직 선은 도 5(b)에 도시된 바와 같이 동일 시나리오에 대한 다른 유형의 나무로 매핑될 수 있다. 도 5(c)에 도시된 바와 같이, 현재의 시나리오(예컨대, 시골 들판)에 있어서 풀은 수평 배향된 지그-재그 패턴의 스트로크로 매핑되고, 곡선은 꽃으로 매핑(도 5(d))되는 한편, 구름과 유사한 폐쇄된 형상을 형성하는 곡선은 구름 그래픽(도 5(e))으로 매핑될 수 있다. 도 5(a) 내지 도 5(e)와 관련하여 상술된 것과 같이 개별적으로 입력된 모든 형상을 나타내는 그림은 도 5(f)에 도시된 바와 같이 사용자에게 디스플레이될 수 있다. 사용자가 도면에 또 다른 수정을 요구한다면, 일련의 선(180)을 입력하여 도 5(g)에 도시된 그림에 보충하여 바람의 이미지를 제공할 수 있을 것이다.
도 6은 본 발명의 실시예에 대한 다른 예시적인 동작을 도시한다. 이러한 점에서, 도 6에 도시된 바와 같이 현재의 시나리오의 결정이 항상 이루어지지는 않을 수 있다. 이러한 경우에 몇몇 실시예는 사용자에게 제공될 여러 선택 사항을 제공할 수 있다. 도 6의 예에서, 여러 파라미터는 동작(200)에서의 환경 감지에 의해 감지되어 동작(210)에서 시나리오 예측을 가능하게 할 수 있다. 특정한 시나리오가 결정될 수 있다면, 예측 그림(220)은 결정된 시나리오 및 사용자로부터 수신된 스트로크 이벤트에 기초하여 이루어질 수 있다. 그러나 시나리오가 결정되지 않았거나 결정될 수 없다면, 사용자는 후보 시나리오 중에서 적절한 시나리오를 선택하거나 새로운 시나리오를 정의하기 위한 상이한 선택 사항을 제공받을 수 있다. 어떤 후보 시나리오가 선택 사항으로서 제시되는지에 대한 결정은 사용자 선호도 또는 서비스 플랫폼(20)과 연관된 서비스 사용자에 의해 설정된 우선 순위에 기초하여 이루어질 수 있다. 사용자에게 선택 사항이 제시된 후, 사용자는 선택 사항 중 하나를 선택할 수 있고, 그 후 선택된 선택 사항과 연관된 시나리오에 기초하여 예측 그림(220)이 실행될 수 있다. 몇몇 경우에 시나리오 선택기(74)는 사용자의 선택에 기초하여 그에 따라 업데이트될 수 있다. 이와 같이, 시나리오 선택기(74)는 시나리오가 그 외에는 초기에 결정될 수 없을 때 사용자 대화에 기초한 선택을 위해서 새로운 시나리오를 학습하거나, 더 좋은 시나리오 결정 방식을 학습할 수 있다.
따라서, 본 발명의 몇몇 실시예는 시나리오 기반의 예측 그림 보조를 가능하게 하는 메커니즘을 제공한다. 더욱이 임의의 형상을 이용하는 것에 의해서, 재미있는 시각 컨텐츠가 수신된 스트로크 이벤트와의 임의적 연관성에 의해 생성될 수 있다. 추가하여 몇몇 실시예는 이러한 실시예가 사용자 행동에 기초하여 특정한 식별된 스트로크 이벤트와 소정의 환경 하에서 대응하는 그림의 새로운 연관성을 생성할 수 있다는 점에서 유연성을 제공한다. 이와 같이, 적어도 몇몇 실시예는 (예컨대, 본 명세서에 설명된 바와 같이 작동하도록 구성된 프로세서를 통해) 기록 도구의 이동에 대응하는 화소의 트레이스로서 디스플레이 상에 표현되는 물리적 터치 이벤트를, 터치 이벤트 자체의 특성뿐 아니라 터치 이벤트가 수신되는 환경 상황 또는 배경에 기초하여 선택된 대응하는 그림으로 변환할 능력을 제공한다. 다음에 조정되고 업데이트 가능한 예측 모델을 이용함으로써 비교적 최소의 입력에 응답하여 완전한 그림(또는 그림 요소)을 제공하는 그림이 디스플레이된다.
도 7은 본 발명의 예시적인 실시예에 따른 시스템, 방법 및 프로그램 제품에 대한 흐름도를 도시한다. 흐름도의 각각의 블록 또는 단계 및 흐름도 내의 블록의 조합은 하드웨어, 펌웨어 및/또는 하나 이상의 컴퓨터 프로그램 명령어를 포함하는 소프트웨어 등과 같은 여러 수단으로 구현될 수 있다는 것을 이해할 것이다. 예를 들면, 상술된 절차 중 하나 이상의 절차는 컴퓨터 프로그램 명령어로 구현될 수 있을 것이다. 이러한 점에서, 예시적인 실시예에서 상술된 절차를 구현하는 컴퓨터 프로그램 명령어는 메모리 디바이스(예컨대, 메모리 디바이스(58))에 의해 저장되고, 내장형 프로세서(예컨대, 프로세서(52))에 의해 실행된다. 이해할 수 있듯이, 임의의 이러한 컴퓨터 프로그램 명령어는 컴퓨터 또는 다른 프로그래밍 가능 장치(즉, 하드웨어)에 로딩되어 머신을 생성함으로써, 컴퓨터 또는 다른 프로그래밍 가능 장치에서 실행되는 명령어가 흐름도 블록 또는 단계에서 지정된 기능을 실행하는 수단을 생성할 수 있게 한다. 몇몇 실시예에서, 컴퓨터 프로그램 명령어는 컴퓨터 또는 다른 프로그래밍 가능 장치가 특정 방식으로 작동하도록 지시할 수 있는 컴퓨터 판독 가능 메모리 내에 저장되어, 컴퓨터 판독 가능 메모리 내에 저장된 명령어가 흐름도 블록 또는 단계에 지정된 기능을 수행하는 명령어 수단을 포함하는 제조물을 생성하게 한다. 컴퓨터 프로그램 명령어는 또한 컴퓨터 또는 다른 프로그래밍 가능 장치 상에 로딩되어 일련의 동작 단계가 컴퓨터 또는 다른 프로그래밍 가능 장치에서 실행되게 함으로써 컴퓨터 또는 다른 프로그래밍 가능 장치에서 실행되는 명령어가 흐름도 블록 또는 단계에서 지정된 기능을 실행하는 단계를 제공하는 컴퓨터 구현 프로세스를 생성하게 한다.
따라서 흐름도의 블록 또는 단계는 지정된 기능을 수행하는 수단의 조합, 지정된 기능을 수행하는 단계의 조합 및 지정된 기능을 수행하는 프로그램 명령어 수단을 지원한다. 또한 흐름도의 하나 이상의 블록 또는 단계와, 흐름도의 블록 또는 단계의 조합은 지정된 기능 또는 단계를 실행하는 특정 용도의 하드웨어 기반의 컴퓨터 시스템으로 구현되거나, 특정 용도의 전용 하드웨어 및 컴퓨터 명령어의 조합으로 구현될 수 있다는 것을 이해할 것이다.
이러한 점에서 도 7에 제시된 바와 같은 터치 스크린 디스플레이에서 예측 모델을 제공하는 방법에 대한 일실시예는 터치 스크린 디스플레이에서 수신된 스트로크 이벤트를 식별하는 동작(300)을 포함할 수 있다. 이 방법은 동작(310)에서 터치 스크린 디스플레이에 대응하는 환경 파라미터를 평가하여 환경 파라미터에 기초한 시나리오를 결정하는 것을 더 포함할 수 있다. 특히, 동작(300) 및 동작(310)은 임의의 순서로 실행될 수 있다. 이 방법은 동작(320)에서 결정된 시나리오에 대한 식별된 스트로크 이벤트에 대응하는 그래픽 출력을 생성하는 것을 더 포함할 수 있다.
몇몇 실시예에서, 이 방법은 다른 선택 사항 동작을 포함할 수 있고, 그 예시는 도 7에 점선으로 도시되어 있다. 선택 사항 동작은 여러 다른 실시예에서 임의의 순서 및/또는 서로 조합하여 실행될 수 있다. 이와 같이, 이 방법은 동작(315)에서 평가가 시나리오의 결정을 획득하는 데 실패했다는 것에 응답하여 대응하는 시나리오에 관련된 사용자 선택가능 선택 사항을 제공하는 것을 더 포함할 수 있다.
몇몇 실시예에서, 상기 동작 중 특정한 하나는 이하에 설명된 바와 같이 수정되거나 더 확장될 수 있다. 상기 동작에 대한 이하의 각각의 수정 또는 확장은 단독으로 포함되거나, 본 명세서에 설명된 특징부들 중에서 임의의 다른 것들과 조합하여 포함될 수 있다는 것을 이해할 것이다. 이러한 점에서 예를 들면, 스트로크 이벤트의 식별은 대응하는 공지된 입력의 사전 결정된 특징의 집합에 대해 터치 스크린 입력의 특징을 평가하는 것을 포함할 수 있다. 몇몇 경우에, 환경 파라미터의 평가는 터치 스크린 디스플레이와 연관된 센서로부터 파라미터를 수신하는 것과, 수신된 파라미터와 대응하는 시나리오 사이의 사전 결정된 연관성의 참조를 포함한다. 몇몇 실시예에서, 그래픽 출력의 생성은 터치 스크린 디스플레이로부터 스트로크 이벤트를 소거하는 것과, 스트로크 이벤트와 결정된 시나리오 사이의 연관성을 갖는 선택된 그래픽 요소를 제공하는 것을 포함한다. 예시적인 실시예에서, 그래픽 출력의 생성은 결정된 시나리오에 기초하여 선택된 애니메이션을 생성하는 것과, 스트로크 이벤트와 연관된 특징을 유발하는 것을 포함한다.
예시적인 실시예에서, 상기 도 7의 방법을 실행하는 장치는 상술된 몇몇 또는 각각의 동작(300-320)을 실행하도록 구성된 프로세서(예컨대, 프로세서(52))를 포함할 수 있다. 프로세서는 예를 들면, 하드웨어 구현 로직 기능을 수행하거나, 저장된 명령어를 실행하거나, 각각의 동작을 수행하는 알고리즘을 실행하는 것에 의해 동작(300-320)을 수행하도록 구성될 수 있다. 이와 다르게, 장치는 상술된 각각의 동작을 수행하는 수단을 포함할 수 있다. 이러한 점에서, 예시적인 실시예에 따르면 동작(300-320)을 수행하는 수단의 예시는 예를 들면, 프로세서(52), (예컨대, 터치 스크린 디스플레이에서 수신되는 스트로크 이벤트를 식별하는 수단으로서의) 입력 분석기(62), (예컨대, 터치 스크린 디스플레이에 대응하는 환경 파라미터를 평가하여 환경 파라미터에 기초한 시나리오를 결정하는 수단으로서의) 시나리오 선택기(74), (예컨대, 결정된 시나리오에 대한 식별된 스트로크 이벤트에 대응하는 그래픽 출력을 생성하는 수단으로서의) 패턴 매퍼(64) 및/또는 상술된 바와 같이 정보를 처리하기 위해 프로세서(52)에 의해 실행되는 알고리즘을 포함할 수 있다.
본 발명이 속한 분야의 당업자라면 상술된 설명 및 첨부된 도면 내에 제시된 개시 내용의 이점을 가지면서 본 명세서에 제시된 본 발명의 여러 수정 및 다른 실시예를 생각해 낼 수 있을 것이다. 그러므로 본 발명은 개시되어 있는 특정한 실시예로 한정되지 않고, 수정 및 다른 실시예는 첨부된 청구항의 범주에 속하도록 의도되었다는 것을 이해할 것이다. 더욱이 상술된 설명 및 연관된 도면은 구성 요소 및/또는 기능의 특정한 예시적인 조합과 관련하여 예시적인 실시예를 설명하였으나, 첨부된 청구항의 범주를 벗어나지 않으면서 다른 실시예에 의해 구성 요소 및/또는 기능의 상이한 조합이 제공될 수 있다는 것을 이해할 것이다. 이러한 점에서 예를 들면, 위에 명확히 설명되어 있는 것과는 상이한 구성 요소 및/또는 기능의 조합은 또한 첨부된 청구항 중 몇몇 청구항 내에 제시된 것으로 간주된다. 본 명세서에서는 특정 용어가 사용되었으나, 이들은 오로지 일반적이고 설명적인 의미로 사용된 것에 불과하고 제한을 목적으로 사용된 것이 아니다.

Claims (20)

  1. 예측 모델 제공 방법으로서,
    터치 스크린 디스플레이에서 수신된 스트로크 이벤트(stroke event)를 식별하는 단계와,
    상기 터치 스크린 디스플레이에 대응하는 환경 파라미터를 평가하는 것에 의해 시나리오를 결정하는 단계와,
    결정된 상기 시나리오를 위한, 상기 식별된 스트로크 이벤트에 대응하는 그래픽 출력을 생성하는 단계를 포함하는
    예측 모델 제공 방법.
  2. 제 1 항에 있어서,
    상기 스트로크 이벤트를 식별하는 단계는 대응하는 공지된 입력의 사전 결정된 특성의 집합에 대해 터치 스크린 입력의 특성을 평가하는 단계를 포함하는
    예측 모델 제공 방법.
  3. 제 1 항 또는 제 2 항에 있어서,
    상기 환경 파라미터의 평가는
    상기 터치 스크린 디스플레이와 연관된 센서로부터 파라미터를 수신하는 것과,
    수신된 상기 파라미터와 대응하는 시나리오 사이의 사전 결정된 연관성을 참조하는 것을 포함하는
    예측 모델 제공 방법.
  4. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    상기 그래픽 출력을 생성하는 단계는
    상기 터치 스크린 디스플레이로부터 상기 스트로크 이벤트를 소거하는 단계와,
    상기 스트로크 이벤트와 결정된 상기 시나리와의 연관성을 갖는 선택된 그래픽 성분을 제공하는 단계를 포함하는
    예측 모델 제공 방법.
  5. 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
    상기 그래픽 출력을 생성하는 단계는
    상기 결정된 시나리오에 기초하여 선택된 애니메이션을 생성하는 단계와,
    상기 스트로크 이벤트와 연관된 특성을 유발하는 단계를 포함하는
    예측 모델 제공 방법.
  6. 제 1 항 내지 제 5 항 중 어느 한 항에 있어서,
    상기 평가가 상기 시나리오의 결정 획득에 실패했다는 것에 응답하여, 대응하는 시나리오에 관한 사용자 선택가능 선택 사항을 제공하는 단계를 더 포함하는
    예측 모델 제공 방법.
  7. 컴퓨터 실행 가능 프로그램 코드 명령어를 저장하고 있는 적어도 하나의 컴퓨터 판독 가능 저장 매체를 포함하는 컴퓨터 프로그램 제품으로서,
    상기 컴퓨터 실행 가능 프로그램 코드 명령어는
    터치 스크린 디스플레이에서 수신된 스트로크 이벤트를 식별하는 프로그램 코드 명령어와,
    상기 터치 스크린 디스플레이에 대응하는 환경 파라미터를 평가함으로써 시나리오를 결정하는 프로그램 코드 명령어와,
    결정된 상기 시나리오를 위한 상기 식별된 스트로크 이벤트에 대응하는 그래픽 출력을 생성하는 프로그램 코드 명령어를 포함하는
    컴퓨터 프로그램 제품.
  8. 제 7 항에 있어서,
    상기 스트로크 이벤트를 식별하는 상기 프로그램 코드 명령어는
    대응하는 공지된 입력의 사전 결정된 특성의 집합에 대해 터치 스크린 입력의 특성을 평가하는 명령어를 포함하는
    컴퓨터 프로그램 제품.
  9. 제 7 항 또는 제 8 항에 있어서,
    상기 환경 파라미터를 평가하는 상기 프로그램 코드 명령어는
    상기 터치 스크린 디스플레이와 연관된 센서로부터 파라미터를 수신하는 명령어와,
    수신된 상기 파라미터와 대응하는 시나리오 사이의 사전 결정된 연관성을 참조하는 명령어를 포함하는
    컴퓨터 프로그램 제품.
  10. 제 7 항 내지 제 9 항 중 어느 한 항에 있어서,
    상기 그래픽 출력을 생성하는 상기 프로그램 코드 명령어는
    상기 터치 스크린 디스플레이로부터 상기 스트로크 이벤트를 소거하고, 상기 스트로크 이벤트와 결정된 상기 시나리오의 연관성을 갖는 선택된 그래픽 성분을 제공하는 명령어를 포함하는
    컴퓨터 프로그램 제품.
  11. 제 7 항 내지 제 10 항 중 어느 한 항에 있어서,
    상기 그래픽 출력을 생성하는 상기 프로그램 코드 명령어는
    상기 결정된 시나리오에 기초하여 선택된 애니메이션을 생성하고, 상기 스트로크 이벤트와 연관된 특성을 유발하는 명령어를 포함하는
    컴퓨터 프로그램 제품.
  12. 제 7 항 내지 제 11 항 중 어느 한 항에 있어서,
    상기 평가가 상기 시나리오의 결정 획득에 실패했다는 것에 응답하여 대응하는 시나리오에 관한 사용자 선택가능 선택 사항을 제공하는 프로그램 코드 명령어를 더 포함하는
    컴퓨터 프로그램 제품.
  13. 예측 모델 제공 장치로서,
    적어도 하나의 프로세서와,
    컴퓨터 프로그램 코드를 포함하는 적어도 하나의 메모리를 포함하고,
    상기 적어도 하나의 메모리 및 상기 컴퓨터 프로그램 코드는 상기 적어도 하나의 프로세서를 가지고, 터치 스크린 디스플레이로부터 수신된 스트로크 이벤트를 식별하는 것과, 상기 터치 스크린 디스플레이에 대응하는 환경 파라미터를 평가함으로써 시나리오를 결정하는 것과, 결정된 상기 시나리오를 위한 상기 식별된 스트로크 이벤트에 대응하는 그래픽 출력을 생성하는 것을 상기 장치가 적어도 실행하게 하도록 구성되는
    예측 모델 제공 장치.
  14. 제 13 항에 있어서,
    상기 프로세서는 대응하는 공지된 입력의 사전 결정된 특성의 집합에 대해 터치 스크린 입력의 특성을 평가하는 것에 의해 상기 스트로크 이벤트를 식별하도록 구성되는
    예측 모델 제공 장치.
  15. 제 13 항 또는 제 14 항에 있어서,
    상기 프로세서는 상기 터치 스크린 디스플레이와 연관된 센서로부터 파라미터를 수신하고, 수신된 상기 파라미터와 대응하는 시나리오 사이의 사전 결정된 연관성을 참조하는 것에 의해 상기 환경 파라미터를 평가하도록 구성되는
    예측 모델 제공 장치.
  16. 제 13 항 내지 제 15 항 중 어느 한 항에 있어서,
    상기 프로세서는 상기 터치 스크린 디스플레이로부터 상기 스트로크 이벤트를 소거하고, 상기 스트로크 이벤트와 결정된 상기 시나리오의 연관성을 갖는 선택된 그래픽 성분을 제공하는 것에 의해 상기 그래픽 출력을 생성하도록 구성되는
    예측 모델 제공 장치.
  17. 제 13 항 내지 제 16 항 중 어느 한 항에 있어서,
    상기 프로세서는 상기 결정된 시나리오에 기초하여 선택된 애니메이션을 생성하고, 상기 스트로크 이벤트와 연관된 특성을 유발하는 것에 의해 상기 그래픽 출력을 생성하도록 구성되는
    예측 모델 제공 장치.
  18. 제 13 항 내지 제 17 항 중 어느 한 항에 있어서,
    상기 프로세서는 상기 평가가 상기 시나리오의 결정 획득에 실패했다는 것에 응답하여 대응하는 시나리오에 관한 사용자 선택가능 선택 사항을 제공하도록 더 구성되는
    예측 모델 제공 장치.
  19. 예측 모델 제공 장치로서,
    터치 스크린 디스플레이에서 수신된 스트로크 이벤트를 식별하는 수단과,
    상기 터치 스크린 디스플레이에 대응하는 환경 파라미터를 평가함으로써 시나리오를 결정하는 수단과,
    결정된 상기 시나리오를 위한 상기 식별된 스트로크 이벤트에 대응하는 그래픽 출력을 생성하는 수단을 포함하는
    예측 모델 제공 장치.
  20. 제 19 항에 있어서,
    상기 평가가 상기 시나리오의 결정 획득에 실패했다는 것에 응답하여, 대응하는 시나리오에 관한 사용자 선택가능 선택 사항을 제공하는 수단을 더 포함하는
    예측 모델 제공 장치.
KR1020117015674A 2008-12-11 2009-12-11 예측 모델 제공 방법, 장치 및 컴퓨터 판독가능 저장 매체 KR20110098938A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/332,675 2008-12-11
US12/332,675 US20100153890A1 (en) 2008-12-11 2008-12-11 Method, Apparatus and Computer Program Product for Providing a Predictive Model for Drawing Using Touch Screen Devices

Publications (1)

Publication Number Publication Date
KR20110098938A true KR20110098938A (ko) 2011-09-02

Family

ID=42242092

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020117015674A KR20110098938A (ko) 2008-12-11 2009-12-11 예측 모델 제공 방법, 장치 및 컴퓨터 판독가능 저장 매체

Country Status (5)

Country Link
US (1) US20100153890A1 (ko)
EP (1) EP2366142A1 (ko)
KR (1) KR20110098938A (ko)
CN (1) CN102246132A (ko)
WO (1) WO2010067194A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230145288A (ko) * 2017-12-26 2023-10-17 삼성전자주식회사 고장 예측을 위해 가전기기의 운영데이터를 관리하는 방법 및 장치

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9696842B2 (en) * 2009-10-06 2017-07-04 Cherif Algreatly Three-dimensional cube touchscreen with database
US20110153868A1 (en) * 2009-12-18 2011-06-23 Alcatel-Lucent Usa Inc. Cloud-Based Application For Low-Provisioned High-Functionality Mobile Station
KR101380967B1 (ko) * 2011-09-09 2014-04-10 주식회사 팬택 애플리케이션 기능 실행을 위한 사용자 정의 패턴 설정 장치 및 방법
US9052819B2 (en) 2012-01-25 2015-06-09 Honeywell International Inc. Intelligent gesture-based user's instantaneous interaction and task requirements recognition system and method
US20150193098A1 (en) * 2012-03-23 2015-07-09 Google Inc. Yes or No User-Interface
US9373049B1 (en) * 2012-04-05 2016-06-21 Amazon Technologies, Inc. Straight line gesture recognition and rendering
US9098186B1 (en) 2012-04-05 2015-08-04 Amazon Technologies, Inc. Straight line gesture recognition and rendering
US20140007019A1 (en) * 2012-06-29 2014-01-02 Nokia Corporation Method and apparatus for related user inputs
US9323985B2 (en) 2012-08-16 2016-04-26 Microchip Technology Incorporated Automatic gesture recognition for a sensor system
US8935638B2 (en) * 2012-10-11 2015-01-13 Google Inc. Non-textual user input
TWI475472B (zh) * 2012-12-19 2015-03-01 Inventec Corp 在觸控螢幕中提供繪圖操作之系統及其方法
EP3047360A4 (en) * 2013-09-18 2017-07-19 Tactual Labs Co. Systems and methods for providing response to user input using information about state changes predicting future user input
CN103793222A (zh) * 2013-11-01 2014-05-14 中兴通讯股份有限公司 一种移动设备管理的方法、服务器及系统
US9406025B2 (en) * 2014-06-04 2016-08-02 International Business Machines Corporation Touch prediction for visual displays
US20160259488A1 (en) * 2015-03-06 2016-09-08 Alibaba Group Holding Limited Navigation user interface for compact mobile devices
CN106331291B (zh) * 2015-06-25 2020-11-06 西安中兴新软件有限责任公司 一种操作执行方法和移动终端
CN108230427B (zh) * 2018-01-19 2021-12-24 京东方科技集团股份有限公司 一种智能作画设备、图画分析系统及图画处理方法
US11650717B2 (en) * 2019-07-10 2023-05-16 International Business Machines Corporation Using artificial intelligence to iteratively design a user interface through progressive feedback
CN110851059A (zh) * 2019-11-13 2020-02-28 北京字节跳动网络技术有限公司 图片编辑方法、装置和电子设备
CN112843681B (zh) * 2021-03-04 2022-12-02 腾讯科技(深圳)有限公司 虚拟场景控制方法、装置、电子设备及存储介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5287417A (en) * 1992-09-10 1994-02-15 Microsoft Corporation Method and system for recognizing a graphic object's shape, line style, and fill pattern in a pen environment
US6259436B1 (en) * 1998-12-22 2001-07-10 Ericsson Inc. Apparatus and method for determining selection of touchable items on a computer touchscreen by an imprecise touch
US6938222B2 (en) * 2002-02-08 2005-08-30 Microsoft Corporation Ink gestures
US20030223640A1 (en) * 2002-05-31 2003-12-04 Homiller Daniel P. Apparatus, methods, computer program products for editing handwritten symbols using alternative known symbols
US7301529B2 (en) * 2004-03-23 2007-11-27 Fujitsu Limited Context dependent gesture response
US20050273761A1 (en) * 2004-06-07 2005-12-08 The Mathworks, Inc. Freehand system and method for creating, editing, and manipulating block diagrams
US8161415B2 (en) * 2005-06-20 2012-04-17 Hewlett-Packard Development Company, L.P. Method, article, apparatus and computer system for inputting a graphical object
US7725547B2 (en) * 2006-09-06 2010-05-25 International Business Machines Corporation Informing a user of gestures made by others out of the user's line of sight
US9001047B2 (en) * 2007-01-07 2015-04-07 Apple Inc. Modal change based on orientation of a portable multifunction device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230145288A (ko) * 2017-12-26 2023-10-17 삼성전자주식회사 고장 예측을 위해 가전기기의 운영데이터를 관리하는 방법 및 장치

Also Published As

Publication number Publication date
CN102246132A (zh) 2011-11-16
WO2010067194A1 (en) 2010-06-17
EP2366142A1 (en) 2011-09-21
US20100153890A1 (en) 2010-06-17

Similar Documents

Publication Publication Date Title
KR20110098938A (ko) 예측 모델 제공 방법, 장치 및 컴퓨터 판독가능 저장 매체
US9589233B2 (en) Automatic recognition and insights of data
US20200310601A1 (en) Dynamic media selection menu
US9360992B2 (en) Three dimensional conditional formatting
CN106293074B (zh) 一种情绪识别方法和移动终端
US8289287B2 (en) Method, apparatus and computer program product for providing a personalizable user interface
US20180225025A1 (en) Technologies for providing user centric interfaces
KR20160003683A (ko) 시각화된 데이터를 상호작용에 기초하여 자동으로 조작하는 기법
US11663723B2 (en) Image segmentation system
US11012388B2 (en) Media enhancement system
US11295073B2 (en) Cross-application ingestion and restructuring of spreadsheet content
US8928578B2 (en) Cursor adjustment in ambient light
WO2016018682A1 (en) Processing image to identify object for insertion into document
US12105932B2 (en) Context based interface options
US11093041B2 (en) Computer system gesture-based graphical user interface control
US20230206288A1 (en) Systems and methods for utilizing augmented reality and voice commands to capture and display product information
US10082931B2 (en) Transitioning command user interface between toolbar user interface and full menu user interface based on use context
US10768780B2 (en) Method and system for context-driven displaying of shortcuts on touchscreen
KR20140089069A (ko) 재생 가능 객체를 생성하는 사용자 단말 장치 및 그 인터렉션 방법
JP5957026B2 (ja) 入力領域の生成方法、生成装置、および生成プログラム
JP2012164020A (ja) 認知負荷評価装置、認知負荷評価方法、及びプログラム
KR20160087590A (ko) 사용자 단말에서의 인스턴트 메시징 서비스 제공 장치
CN111191795A (zh) 一种训练机器学习模型的方法、装置及系统
US11960914B2 (en) Methods and systems for suggesting an enhanced multimodal interaction
Wollner et al. Improvements in interface design through implicit modeling

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right