KR102212846B1 - 정보 처리 장치, 정보 처리 방법 및 기록 매체 - Google Patents

정보 처리 장치, 정보 처리 방법 및 기록 매체 Download PDF

Info

Publication number
KR102212846B1
KR102212846B1 KR1020157031201A KR20157031201A KR102212846B1 KR 102212846 B1 KR102212846 B1 KR 102212846B1 KR 1020157031201 A KR1020157031201 A KR 1020157031201A KR 20157031201 A KR20157031201 A KR 20157031201A KR 102212846 B1 KR102212846 B1 KR 102212846B1
Authority
KR
South Korea
Prior art keywords
data
user
weight
input operation
coordinate data
Prior art date
Application number
KR1020157031201A
Other languages
English (en)
Other versions
KR20160013009A (ko
Inventor
히로토 가와구치
마나부 고다테
무네타케 에비하라
Original Assignee
소니 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 주식회사 filed Critical 소니 주식회사
Publication of KR20160013009A publication Critical patent/KR20160013009A/ko
Application granted granted Critical
Publication of KR102212846B1 publication Critical patent/KR102212846B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0442Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using active external devices, e.g. active pens, for transmitting changes in electrical potential to be received by the digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0445Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using two or more layers of sensing electrodes, e.g. using two layers of electrodes separated by a dielectric layer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0447Position sensing using the local deformation of sensor cells
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

정보 처리 장치는, 센서와, 기억부와, 제어부를 갖는다. 상기 센서는, 필기구에 의한 유저의 입력 조작을 접수하는 입력면을 갖고, 상기 입력 조작이 있었던 위치의 좌표 및 상기 위치에 가해지는 하중량을 검출할 수 있다. 상기 제어부는, 검출된 상기 좌표를 나타내는 좌표 데이터 및 상기 하중량을 나타내는 하중량 데이터를 소정의 시간 간격으로 상기 기억부에 상기 유저의 식별 정보와 관련지어 기억시키고, 기억된 상기 좌표 데이터 및 상기 하중량 데이터를 상기 기억부로부터 상기 식별 정보와 관련지어 판독하는 것이 가능하다.

Description

정보 처리 장치, 정보 처리 방법 및 기록 매체{INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND RECORDING MEDIUM}
본 기술은, 터치 센서를 갖는 정보 처리 장치, 그 정보 처리 장치에 있어서의 정보 처리 방법 및 프로그램에 관한 것이다.
종래부터, 정보 처리 장치에 있어서, 터치 패널이나 터치 패드를 사용하여, 유저가 화면 상에 스타일러스 등의 필기구에 의해 입력 조작을 행하는 것(이하, 펜 입력)이 가능한 정보 처리 장치가 실용화되고 있다(예를 들어, 특허문헌 1 참조). 이 펜 입력은, 펜의 위치를 검출하고, 그 검출 데이터를 바탕으로 표시 장치에 화상을 표시함으로써 실현된다.
일본 특허 공개 제2012-168993호 공보
상기와 같은 종래의 펜 입력 기술은, 오로지 실시간으로 문자나 선화의 입력 결과를 표시하는 것에 특화되어 있다. 그러나, 정보 처리 장치가 화면 상의 펜의 위치뿐만 아니라, 펜에 의한 가압력을 높은 정밀도로 안정적으로 검출할 수 있으면, 필적뿐만 아니라 필압이나 필법과 같은 각 유저의 펜 입력 시의 보다 상세한 특징을 기록하는 것이 가능하게 된다. 그리고, 그들 특징 데이터는, 다채로운 애플리케이션에 이용 가능하게 된다.
이상과 같은 사정을 감안하여, 본 기술의 목적은, 필기구에 의한 입력 시의 상세한 특징을 유저마다 기록하여 활용하는 것이 가능한 정보 처리 장치, 그 정보 처리 장치에 있어서의 정보 처리 방법 및 프로그램을 제공하는 데 있다.
상술한 과제를 해결하기 위해, 본 기술의 일 형태에 따른 정보 처리 장치는, 센서와, 기억부와, 제어부를 갖는다. 상기 센서는, 필기구에 의한 유저의 입력 조작을 접수하는 입력면을 갖고, 상기 입력 조작이 있었던 위치의 좌표 및 상기 위치에 가해지는 하중량을 검출할 수 있다. 상기 제어부는, 검출된 상기 좌표를 나타내는 좌표 데이터 및 상기 하중량을 나타내는 하중량 데이터를 소정의 시간 간격으로 상기 기억부에 상기 유저의 식별 정보와 관련지어 기억시키고, 기억된 상기 좌표 데이터 및 상기 하중량 데이터를 상기 기억부로부터 상기 식별 정보와 관련지어 판독하는 것이 가능하다.
이 구성에 따르면, 정보 처리 장치는, 필기구에 의한 센서에의 입력 조작 시의 좌표 데이터뿐만 아니라 하중량 데이터도 검출할 수 있기 때문에, 필기구에 의한 입력 조작 시의 상세한 특징을 유저마다 기록하고, 그것을 활용할 수 있다. 여기서 필기구에는, 예를 들어 스타일러스, 펜, 붓 등, 형상이나 잉크의 유무를 막론하고, 필기 조작이 가능한 모든 용구를 가리킨다.
상기 제어부는, 상기 소정의 시간 간격으로 기억된 상기 좌표 데이터로부터, 상기 좌표의 이동 속도를 나타내는 이동 속도 데이터를 산출할 수 있어도 된다.
이에 의해 정보 처리 장치는, 좌표 데이터 및 하중량 데이터에 더하여 이동 속도 데이터도 산출함으로써, 입력 조작 시의 특징을 보다 상세하게 기록하여 활용할 수 있다.
상기 제어부는, 상기 소정의 시간 간격으로 기억된 상기 하중량 데이터로부터, 상기 하중량의 시간적 변화를 나타내는 하중량 변화 데이터를 산출할 수 있어도 된다.
이에 의해 정보 처리 장치는, 좌표 데이터 및 하중량 데이터에 더하여 하중량 변화 데이터도 산출함으로써, 입력 조작 시의 특징을 보다 상세하게 기록하여 활용할 수 있다.
상기 제어부는, 상기 좌표 데이터 및 상기 하중량 데이터의 기억 후의 상기 필기구에 의한 입력 조작으로부터 검출된 상기 좌표 및 상기 하중량과, 상기 기억된 좌표 데이터 및 하중량 데이터를 비교하고, 차이의 유무를 판별할 수 있어도 된다.
이에 의해 정보 처리 장치는, 좌표 데이터 및 하중량 데이터를 기초로, 다른 유저에 의한 입력 조작의 특징의 차이를 판별할 수 있다.
상기 제어부는, 상기 판별된 차이의 유무를 바탕으로 상기 유저를 인증하고, 인증 결과를 출력할 수 있어도 된다.
이에 의해 정보 처리 장치는, 좌표 데이터 및 하중량 데이터의 차이를 기초로 개인 인증을 행할 수 있다.
상기 정보 처리 장치는, 표시부를 더 구비해도 된다. 이 경우 상기 제어부는, 상기 입력 조작에 따라서, 상기 좌표 데이터 및 상기 하중량 데이터 중, 좌표 데이터만을 사용해서 상기 입력 조작의 개시부터 종료까지의 궤적을 나타내는 화상을 표시하도록 상기 표시부를 제어할 수 있어도 된다.
이에 의해 정보 처리 장치는, 인증 처리에 있어서는 좌표 데이터와 하중량 데이터의 양쪽을 사용하는 한편, 유저의 입력 조작의 결과로서의 화상에는 하중량 데이터를 반영시키지 않음으로써, 모방자가 다른 유저의 입력 조작을 하중량을 포함시켜서 모방하는 것을 곤란하게 할 수 있다.
상기 정보 처리 장치는, 출력부를 더 구비해도 된다. 이 경우 상기 제어부는, 상기 판별된 차이를 나타내는 정보를 출력하도록 상기 출력부를 제어할 수 있어도 된다.
이에 의해 정보 처리 장치는, 좌표 데이터 및 하중량 데이터의 차이를 기초로, 조작 입력의 차이를 유저에게 알릴 수 있다.
상기 정보 처리 장치는, 표시부를 더 구비해도 된다. 이 경우 상기 제어부는, 상기 기억된 좌표 데이터 및 하중량 데이터를 기초로, 상기 유저의 입력 조작의 개시부터 종료까지의 궤적을 나타내는 제1 화상을 표시하도록 상기 표시부를 제어할 수 있어도 된다.
이에 의해, 좌표 데이터 및 하중량 데이터의 기억 후에 조작 입력을 행한 다른 유저는, 기억 예를 들어 좌표 데이터 및 하중량 데이터가 기억된 유저의 조작 입력의 궤적을, 자신의 글씨본으로서 참조할 수 있다.
상기 센서는, 상기 화상의 표시 후, 다른 유저의 상기 필기구에 의한 입력 조작으로부터 좌표 데이터 및 하중량 데이터를 검출할 수 있어도 된다. 이 경우 제어부는, 상기 검출된 좌표 데이터 및 하중량 데이터를 기초로, 상기 다른 유저의 입력 조작의 개시부터 종료까지의 궤적을 나타내는 제2 화상을, 상기 제1 화상에 중첩시켜서 표시하도록 상기 표시부를 제어해도 된다. 또한 제어부는, 상기 기억된 좌표 데이터 및 하중량 데이터와 상기 다른 유저의 입력 조작으로부터 검출된 좌표 데이터 및 하중량 데이터를 비교하고, 상기 제1 화상과 상기 제2 화상의 차이를 나타내는 정보를 표시하도록 상기 표시부를 제어해도 된다.
이에 의해 정보 처리 장치는, 기억된 좌표 데이터 및 하중량 데이터를 기초로 제1 화상을 표시함과 함께, 그 제1 화상과, 다른 유저가 묘화한 제2 화상의 차이를 다른 유저에게 알림으로써 예를 들어 펜글씨, 습자, 회화 등 기술의 숙달을 원조할 수 있다.
상기 제어부는, 상기 기억된 하중량 데이터 및 상기 다른 유저의 입력 조작으로부터 검출된 하중량 데이터에 따라서, 상기 제1 화상 및 상기 제2 화상에 있어서의 선폭 또는 농담을 변화시켜도 된다.
이에 의해 정보 처리 장치는, 제1 화상 및 제2 화상에 있어서, 각 유저의 필압 등의 상세한 특징을 선폭 또는 농담으로서 표현하여, 양 화상의 차이를 보다 상세하게 알릴 수 있다.
상기 센서는, 상기 필기구에 의한 유저의 입력 조작 시에 상기 입력면에 상기 유저의 손이 접촉한 경우에 그 접촉 위치의 좌표 및 그 접촉 위치에 가해지는 하중량을 검출할 수 있어도 된다. 이 경우 상기 제어부는, 검출된 상기 접촉 위치의 좌표를 나타내는 좌표 데이터 및 상기 접촉 위치에 가해지는 하중량을 나타내는 하중량 데이터를, 상기 입력 조작으로부터 검출된 좌표 데이터 및 하중량 데이터, 및 상기 식별 정보와 관련지어 상기 기억부에 기억시켜도 된다.
이에 의해 정보 처리 장치는, 필기구에 의한 유저의 입력 조작의 유저 특징뿐만 아니라, 입력 조작 시의 유저가 손을 두는 방식에 관한 특징도 기록함으로써, 유저의 특징을 보다 상세하게 기록할 수 있다.
상기 정보 처리 장치는, 통신부를 더 구비해도 된다. 이 경우 상기 제어부는, 상기 기억된 좌표 데이터 및 하중량 데이터를 다른 정보 처리 장치로 송신하도록 상기 통신부를 제어해도 된다. 상기 다른 정보 처리 장치는, 상기 송신된 좌표 데이터 및 하중량 데이터를 기초로, 상기 유저의 입력 조작의 개시부터 종료까지의 궤적을 나타내는 화상을 표시해도 된다.
이에 의해 정보 처리 장치는, 필기구에 의한 유저의 입력 조작을 다른 정보 처리 장치에서 재현할 수 있다.
본 기술의 다른 형태에 따른 정보 처리 방법은, 필기구에 의한 유저의 입력 조작을 접수하는 입력면을 갖는 센서에 의해, 상기 입력 조작이 있었던 위치의 좌표 및 상기 위치에 가해지는 하중량을 검출하고, 검출된 상기 좌표를 나타내는 좌표 데이터 및 상기 하중량을 나타내는 하중량 데이터를 소정의 시간 간격으로 상기 유저의 식별 정보와 관련지어 기억부에 기억하고, 기억된 상기 좌표 데이터 및 상기 하중량 데이터를 상기 기억부로부터 상기 식별 정보와 관련지어 판독하는 것을 포함한다.
본 기술의 또 다른 형태에 따른 프로그램은, 정보 처리 장치에, 검출 스텝과, 기억 스텝과, 판독 스텝을 실행시킨다. 상기 검출 스텝에서는, 필기구에 의한 유저의 입력 조작을 접수하는 입력면을 갖는 센서에 의해, 상기 입력 조작이 있었던 위치의 좌표 및 상기 위치에 가해지는 하중량이 검출된다. 상기 기억 스텝에서는, 검출된 상기 좌표를 나타내는 좌표 데이터 및 상기 하중량을 나타내는 하중량 데이터가 소정의 시간 간격으로 상기 유저의 식별 정보와 관련지어 기억부에 기억된다. 상기 판독 스텝에서는, 기억된 상기 좌표 데이터 및 상기 하중량 데이터가 상기 기억부로부터 상기 식별 정보와 관련지어 판독된다.
이상과 같이, 본 기술에 따르면, 필기구에 의한 입력 시의 상세한 특징을 유저마다 기록하여 활용할 수 있다.
도 1은 본 기술의 제1 실시 형태에 따른 태블릿 컴퓨터의 외관을 도시한 도면이다.
도 2는 상기 태블릿 컴퓨터의 구성을 나타낸 블록도이다.
도 3은 상기 태블릿 컴퓨터가 갖는 입력 장치의 개략 단면도이다.
도 4는 상기 태블릿 컴퓨터에 의한 좌표 데이터, 하중량 데이터, 이동 속도 데이터, 하중량의 시간적 변화 데이터의 산출 처리를 설명하기 위한 도면이다.
도 5는 상기 태블릿 컴퓨터에 의한 개인 인증 처리의 흐름을 나타낸 흐름도이다.
도 6은 본 기술의 제1 실시 형태에 있어서, 다른 유저의 펜 조작의 예와, 양자의 비교 처리에 대해서 설명하기 위한 도면이다.
도 7은 본 기술의 제1 실시 형태에 있어서, 어떤 유저의 펜 조작의 모방자를 판별하는 처리에 대해서 설명하기 위한 도면이다.
도 8은 본 기술의 제2 실시 형태에 있어서의, 어떤 유저의 그림의 묘화 조작과, 그 묘화 조작의 기록 데이터로부터의 재생 처리를 도시한 도면이다.
도 9는 본 기술의 제2 실시 형태에 있어서의, 각종 기록 데이터를 사용한 묘화 조작의 재생예를 도시한 도면이다.
도 10은 본 기술의 제2 실시 형태에 있어서의, 회화 또는 습자의 학습 애플리케이션의 실행 시의 태블릿 컴퓨터의 동작의 흐름을 도시한 도면이다.
도 11은 상기 회화 또는 습자의 학습 애플리케이션의 처리의 흐름을 도시한 도면이다.
이하, 본 기술에 관한 실시 형태를, 도면을 참조하면서 설명한다.
<제1 실시 형태>
먼저, 본 기술의 제1 실시 형태에 대해서 설명한다. 본 실시 형태에서는, 본 기술이 태블릿 컴퓨터에 적용된다. 상기 태블릿 컴퓨터는, 예를 들어 점포 및 웹 상에서의 결제나, 은행에서의 각종 수속 등에 있어서, 서명에 의해 본인을 인증하는 것이 필요한 시스템에 사용된다. 상기 태블릿 컴퓨터는, 유저 개인이 소유한 것이어도 되고, 점포 등이 소유한 것이어도 상관없다.
[태블릿 컴퓨터의 구성]
도 1은, 본 실시 형태에 따른 태블릿 컴퓨터(100)(이하, 간단히 태블릿(100)이라고 칭함)의 외관을 도시한 도면이다. 또한 도 2는, 상기 태블릿(100)의 구성을 나타낸 블록도이다.
도 1에 도시한 바와 같이, 태블릿(100)은, 스타일러스 S 등의 필기구에 의한 입력 조작(이하, 펜 조작이라고도 함)을 접수하는 입력 장치(150)를 갖는다.
입력 장치(150)는, 후술하는 센서(1)와, 펜 조작에 따라서 문자나 화상을 표시하는 디스플레이(6)가 일체화되어 구성되어 있다. 디스플레이(6)의 입력면에 대하여 펜 조작이 있으면, 스타일러스 S의 선단 위치의 궤적 T를 따라, 디스플레이(6) 상에 화상 I가 표시된다.
도 2에 도시한 바와 같이, 태블릿(100)은, 센서(1), 센서 IC(2), CPU(Central Processing Unit)(3), 메모리(4), 그래픽 드라이버(5) 및 디스플레이(6)를 갖는다. 상술한 바와 같이, 센서(1)와 디스플레이(6)가 입력 장치(150)를 구성한다. 입력 장치(150)의 구체적인 구성에 대해서는 후술한다.
센서 IC(2)는, 소정의 시간 간격으로 센서(1)가 검출한 센서 데이터를 수취하고, 그것을 기초로, 스타일러스 S의 좌표 데이터, 하중량 데이터를 산출한다. 또한 센서 IC는, 그 소정 시간 간격의 좌표 데이터로부터, 스타일러스 S의 좌표의 이동 속도를 나타내는 데이터를 산출하고, 소정 시간 간격의 하중량 데이터로부터, 하중량의 시간적 변화를 나타내는 데이터(이하, 하중 변화 데이터라고도 칭함)를 산출한다. 산출된 각 데이터는, CPU(3)에 출력된다.
CPU(3)는, 상기 센서 IC(2)로부터 출력된 각 센싱 데이터를 메모리(4)에 기입하고, 또한 그 기입된 각 데이터를 메모리(4)로부터 적절히 판독한다. 이때, 각 데이터는, 상기 펜 조작을 행한 유저와 관련지어 기록된다. 그리고 CPU(3)는, 센서 IC(2)로부터 출력되거나 또는 메모리(4)로부터 판독된 상기 각 센싱 데이터를 기초로, 디스플레이(6)에 있어서의 데이터의 표시 방법을 결정하고, 그래픽 드라이버(5)에 표시를 지시한다.
메모리(4)는, 상기 각 센싱 데이터를 유저마다의 입력 조작 데이터로서 기억한다. 또한 메모리(4)는, 펜 조작의 접수나 펜 조작 데이터의 재생 등에 필요한 프로그램 등, 그 외의 데이터도 기억한다.
그래픽 드라이버(5)는, CPU(3)로부터의 표시 지령을 기초로, 펜 조작에 따른 화상(스타일러스 S의 궤적을 나타내는 화상 등)을 생성하고, 디스플레이(6)에 출력해서 표시시킨다.
도시하지 않지만, 태블릿(100)은, 다른 정보 처리 장치와 무선 또는 유선을 통해서 통신하는 통신부를 갖고 있어도 된다.
[입력 장치의 구성]
이어서, 입력 장치(150)의 구성에 대해서 설명한다. 도 3은, 상기 입력 장치(150)의 개략 단면도이다. 이 도면에 도시한 바와 같이, 입력 장치(150)는, 펜 조작을 접수하는 디스플레이(6)와, 유저의 조작을 검출하는 센서(1)를 갖는다. 입력 장치(150)는, 예를 들어 플렉시블한 터치 패널 디스플레이로 구성되어, 상기 태블릿(100)에 내장된다. 센서(1) 및 디스플레이(6)는, Z축에 수직인 방향으로 연장되는 평판 형상으로 형성된다.
디스플레이(6)는, 제1 면(110)과, 제1 면(110)의 반대측의 제2 면(120)을 갖는다. 디스플레이(6)는, 입력 장치(150)에 있어서의 입력 조작부로서의 기능과, 표시부로서의 기능을 겸비한다. 즉 디스플레이(6)는, 제1 면(110)을 입력 조작면 및 표시면으로서 기능시키고, 제1 면(110)으로부터 유저에 의한 조작에 따른 화상을 Z축 방향 상방을 향해서 표시한다. 제1 면(110)에는, 스타일러스 S에 의해 유저가 필기한 문자나 묘화한 화상, 그 외, 예를 들어 키보드에 대응하는 화상이나, GUI(Graphical User Interface) 등이 표시된다.
디스플레이(6)의 구체적인 구성은 특별히 한정되지 않는다. 예를 들어, 디스플레이(6)로서, 소위 전자 페이퍼, 유기 EL(Electro Luminescence) 패널, 무기 EL 패널, 액정 패널 등을 채용할 수 있다. 또한 디스플레이(6)의 두께도 특별히 한정되지 않으며, 예를 들어 0.1mm 내지 1mm 정도이다.
센서(1)는, 금속막(제1 도체층)(12)과, 도체층(제2 도체층)(50)과, 전극 기판(20)과, 제1 지지체(30)와, 제2 지지체(40)를 갖는다. 센서(1)는, 디스플레이(6)의 제2 면(120)측에 배치되어 있다.
금속막(12)은, 변형 가능한 시트 형상으로 구성된다. 도체층(50)은, 금속막(12)에 대향해서 배치된다. 전극 기판(20)은, 복수의 제1 전극선(210)과, 복수의 제1 전극선(210)에 대향해서 배치되어 복수의 제1 전극선(210)과 교차하는 복수의 제2 전극선(220)을 갖고, 금속막(12)과 도체층(50) 사이에 변형 가능하게 배치되고, 금속막(12) 및 도체층(50) 각각의 거리의 변화를 정전적으로 검출하는 것이 가능하다. 제1 지지체(30)는, 금속막(12)과 전극 기판(20) 사이를 접속하는 복수의 제1 구조체(310)와, 복수의 제1 구조체(310) 사이에 형성된 제1 공간부(330)를 갖는다. 제2 지지체(40)는, 인접하는 복수의 제1 구조체(310) 사이에 각각 배치되어 도체층(50)과 전극 기판(20) 사이를 접속하는 복수의 제2 구조체(410)와, 복수의 제2 구조체(410) 사이에 형성된 제2 공간부(430)를 갖는다.
본 실시 형태에 따른 센서(1)(입력 장치(150))는 디스플레이(6)의 제1 면(110) 상에서의 입력 조작에 의한 금속막(12) 및 전극 기판(20)과, 도체층(50) 및 전극 기판(20) 사이의 거리의 변화를 정전적으로 검출함으로써, 그 입력 조작이 있었던 위치의 좌표 및 그 위치에 가해지는 하중량을 검출한다. 구체적인 검출 원리는 이하와 같다.
즉, 스타일러스 S에 의한 제1 면(110)에 대한 입력 조작 시의 가압력에 의해, 금속막(12)이 휜다. 그에 수반하여, 제1 공간부(330)에 인접하는 제1 구조체(310)가 힘을 받아, Z축 방향으로 탄성 변형되어 두께가 약간 감소한다. 또한, 상기 힘에 의해 전극 기판(20)에도 힘이 가해져서, 하방으로 휜다. 이에 의해, 2개의 제1 구조체(310) 사이에 배치된 제2 구조체(410)도 힘을 받아, Z축 방향으로 탄성 변형되어 두께가 약간 감소한다.
이와 같이, 제1 및 제2 구조체(310, 410)에 의해 두께 방향으로 힘을 전달할 수 있어, 전극 기판(20)을 용이하게 변형시킬 수 있다. 또한, 금속막(12) 및 전극 기판(20)이 휘고, 면 내 방향(X축 방향 및 Y축 방향으로 평행한 방향)으로 가압력의 영향이 미침으로써, 스타일러스 S의 바로 아래의 영역뿐만 아니라, 그 근방의 제1 및 제2 구조체(310, 410)에도 힘을 미치게 할 수 있다.
또한 제1 및 제2 공간부(330, 430)에 의해 금속막(12) 및 전극 기판(20)을 용이하게 변형시킬 수 있다. 또한 기둥체 등으로 구성된 제1 및 제2 구조체(310, 410)에 의해, 스타일러스 S의 가압력에 대하여 전극 기판(20)에 높은 압력을 미치게 할 수 있어, 전극 기판(20)을 효율적으로 휘게 할 수 있다.
또한, 제1 및 제2 구조체(310, 410)가 Z축 방향에서 보면 중복되어 배치되어 있지 않기 때문에, 제1 구조체(310)가 그 아래의 제2 공간부(430)를 통해서 전극 기판(20)을 용이하게 휘게 할 수 있다.
전극 기판(20)은, 제1 구조체(310)의 탄성 변형 및 금속막(12)의 휨에 의해, 금속막(12)과 전극 기판(20)의 거리 및 도체층(50)과 전극 기판(20)의 거리가 변화되는 것을 검출함으로써, 정전 용량의 변화량을 얻을 수 있다.
그리고 전극 기판(20)은, 복수의 제1 전극선(210) 및 복수의 제2 전극선(220)의 각 위치에 있어서의 정전 용량의 변화량의 비율에 기초하여, 펜 조작 위치(스타일러스 S의 선단의 위치)의 XY 좌표를 산출할 수 있다. 또한 전극 기판(20)은, 상기 정전 용량의 변화량에 기초하여, 상기 입력 조작 위치에 있어서의 하중량(가압력)도 산출할 수 있다.
[태블릿의 동작]
이어서, 이상과 같이 구성된 태블릿(100)의 동작에 대해서 설명한다. 본 실시 형태 및 다른 실시 형태에 있어서, 태블릿(100)의 동작은, CPU(3)과, 그 제어 하에 실행되는 소프트웨어가 협동해서 행해진다.
(데이터 취득·산출 처리)
먼저, 상기 좌표 데이터, 하중량 데이터, 이동 속도 데이터, 하중 변화 데이터의 취득·산출 처리에 대해서 설명한다. 도 4는, 그 각 데이터의 산출 처리를 설명하기 위한 도면이다.
이 도면의 (A)는 상기 좌표 데이터 및 하중량 데이터의 산출 처리를 나타낸다. 센서(1)는, 유저에 의한 펜 조작 사이, 소정의 시간 간격으로 스타일러스 S의 접촉 위치의 좌표 데이터((Xt1, Yt1), (Xt2, Yt2), ..., (Xtn, Ytn),) 및 가중량 데이터(Ft1, Ft2, ..., Ftn)을 출력하고, CPU(3)는 그들 데이터를 수시로 메모리(4)에 기입한다.
이 도면의 (B)는 상기 이동 속도 데이터 및 하중 변화 데이터의 산출 처리를 나타낸다. 센서 IC(2)는, 단위 시간 Δt당 좌표 데이터의 차분((Xt2-Xt1)/Δt, (Yt2-Yt1)/Δt)으로부터 상기 이동 속도 데이터를 산출하고, 또한 단위 시간 Δt당 하중량 데이터의 차분((Ft2-Ft1)/Δt)으로부터 상기 하중 변화 데이터를 산출한다. CPU(3)는 그들의 데이터도 수시로 메모리(4)에 기입한다.
(기록 데이터에 기초한 개인 인증 동작)
이어서, 상기 기록된 데이터에 기초한 개인 인증 처리에 대해서 설명한다. 도 5는, 그 개인 인증 처리의 흐름을 나타낸 흐름도이다. 이하의 설명에서는, CPU(3)를 동작 주체로 해서 설명하지만, 이 동작은 센서(1), 센서 IC(2), 메모리(4) 등 그 밖의 하드웨어 및 그와 관련된 소프트웨어와 협동해서 실행된다.
이 도면에 도시한 바와 같이, 태블릿(100)의 CPU(3)는, 유저 A의 스타일러스 S에 의한 펜 조작을 접수한다(스텝 51). 이 펜 조작은, 예를 들어 신용카드 결제 시나, 컴퓨터 또는 네트워크에의 로그인 시 등에 있어서 서명을 행하는 조작이다. 서명이란, 정확한 이름뿐만 아니라, 개인을 식별할 목적으로 쓰여진 어떠한 문자나 도형 등을 포함한다.
계속해서 CPU(3)는, 상기 펜 조작이 있었던 위치의 좌표 및 그 위치에 가해지는 하중량을 검출한다(스텝 52). 이때, CPU(3)는, 도 1에 도시한 바와 같이 펜 조작의 궤적을 디스플레이(6)에 표시시킨다. 그러나, 이 표시 처리는 생략되어도 상관없다.
계속해서 CPU(3)는, 상기 좌표 데이터와 하중량 데이터를, 조작 주체인 유저 A와 관련지어 메모리(4)에 기록한다(스텝 53).
계속해서 CPU(3)는, 상기 좌표 데이터로부터 좌표의 이동 속도 데이터를 산출하고, 하중량 데이터로부터 하중 변화 데이터를 산출하고(스텝 54), 그들 데이터를 유저 A와 관련지어 메모리(4)에 기록한다(스텝 55). 여기까지의 처리가 유저 A의 스타일러스 S에 의한 입력 조작 데이터의 기록 처리로 된다.
계속해서 CPU(3)는, 상기 기록한 입력 조작을 활용한 인증 처리로 이행한다. CPU(3)는, 유저 B(유저 A와 다른 인물인지 여부는 묻지 않음)의 스타일러스 S에 의한 펜 조작을 접수한다.
계속해서 CPU(3)는, 상기 유저 B에 의한 입력 조작 위치의 좌표 및 하중량을 검출한다(스텝 57).
계속해서 CPU(3)는, 상기 좌표 데이터 및 하중량 데이터로부터, 좌표의 이동 속도 데이터 및 하중 변화 데이터를 산출한다(스텝 58).
계속해서 CPU(3)는, 상기 기록된 유저 A의 입력 조작 데이터를 메모리(4)로부터 판독하고, 그 데이터와, 유저 B의 입력 조작 데이터를 비교하여, 양자간의 차이를 판별한다(스텝 59).
그리고, 상기 비교 결과, 차이가 있는 경우(스텝 60의 예), CPU(3)는, 인증 실패를 통지하는 정보를 디스플레이(6)에 표시시킨다(스텝 61).
한편, 차이가 없는 경우 또는 미소한 차이인 경우(스텝 60의 아니오), CPU(3)는, 인증 성공을 통지하는 정보를 디스플레이(6)에 표시시킨다(스텝 62).
도 6은 상기 유저 A와 유저 B의 펜 조작의 예와, 양자의 비교 처리에 대해서 설명하기 위한 도면이다.
이 도면에 도시한 바와 같이, 유저 A의 펜 조작 시의 힘(하중)을 주는 방식의 버릇에 대해서, 예를 들어 펜 조작 결과의 표시 화상에 선폭을 변경하는 등의 처리를 행하지 않은 경우, 표시 화상으로부터는 유저의 버릇을 판별할 수는 없다(이 도면 상부 참조).
그러나, 본 실시 형태에 있어서의 펜 조작의 기록 데이터에는, 유저가 힘을 주는 상태의 버릇이 하중량 데이터로서 기록되어 있기 때문에, 그 기록 데이터와 유저 B가 힘을 주는 상태를 비교함으로써, 개인 인증율을 높이는 것이 가능하게 된다(이 도면 하부 참조). 또한 한편, 표시 화상을 등폭의 선에 의해 표현해서 힘을 주는 상태를 반영시키지 않음으로써, 가령 유저 B가 유저 A의 펜 조작의 화상(서명)을 보았다 하더라도, 힘을 주는 상태를 포함한 유저 A의 펜 조작을 모방하는 것이 곤란해진다.
도 7은 유저 A의 펜 조작의 모방자를 판별하는 처리에 대해서 설명하기 위한 도면이다.
이 도면에 도시한 바와 같이, 유저 A의 펜 조작 시에 있어서의 스타일러스 S의 이동 속도의 버릇에 대해서, 이동 속도의 차이는 펜 조작 결과의 표시 화상에는 나타나지 않으므로, 모방자는 표시 화상으로부터는 유저 A의 버릇을 알 수는 없다. 한편, 펜 조작의 기록 데이터에는 유저 A의 속도의 버릇이 이동 속도 데이터로서 기록되어 있기 때문에, 그 이동 속도 데이터를 비교함으로써, 개인 인증율을 높이는 것이 가능하게 된다. 또한, 표시 화상에는 속도를 반영시키지 않음으로써, 모방자가, 속도를 포함하는 유저 A의 펜 조작을 모방하는 것이 곤란해진다.
이와 같이, 본 실시 형태에서는, 태블릿(100)은, 좌표 데이터 및 하중량 데이터를 검출할 수 있는 센서(1)에 의해, 유저의 펜 조작을 좌표 데이터, 하중량 데이터, 이동 속도 데이터 및 하중 변화 데이터로서 기록함으로써, 그 기록 내용에 의해 개인 인증 처리를 실행할 수 있다.
<제2 실시 형태>
이어서, 본 기술의 제2 실시 형태에 대해서 설명한다. 본 실시 형태에 있어서는, 상기 제1 실시 형태와 공통된 점에 대해서는 설명을 간략화 또는 생략하고, 다른 점을 중심으로 설명한다.
상기 제1 실시 형태에서는, 태블릿(100)이, 기록된 펜 조작 데이터를 기초로 개인 인증 처리를 실행하는 예가 설명되었다. 본 실시 형태에 있어서 태블릿(100)은, 기록된 펜 조작 데이터를 기초로, 글자를 쓰는 방식이나 그림을 그리는 방식의 학습이 가능한 애플리케이션을 실행한다.
상기 제1 실시 형태에서는, 입력 조작에 스타일러스 S가 사용되었지만, 본 실시 형태에서는, 스타일러스에 더해, 예를 들어 습자용이나 회화용 붓 등의 다른 필기구가 사용되어도 된다.
도 8은, 어떤 유저의 그림 묘화 조작과, 그 묘화 조작의 기록 데이터로부터의 재생 처리를 도시한 도면이다.
이 도면에 도시한 바와 같이, 어떤 유저가 묘화 조작을 입력하면, 그 묘화 결과가 디스플레이(6)에 표시됨과 함께, 그 조작 시의 좌표 데이터, 하중량 데이터, 이동 속도 데이터 및 하중 변화 데이터가 메모리(4)에 기록된다(이 도면 상부, 중부 참조). 상기 묘화 결과의 표시 처리에 있어서는, 하중량 데이터에 따라서 선폭이 변경된다.
계속해서, 상기 기록된 묘화 조작 데이터를 사용하여, 묘화 조작이 재생된다(이 도면 하부 참조). 이 재생 처리는, 상기 묘화 조작 데이터를 사용하고 있는 점에 있어서, 종래의 녹화 데이터에 기초한 재생 처리와는 근본적으로 다르다(재묘화 처리).
이때, 이 도면에 도시한 바와 같이, 태블릿(100)은, 재생 처리에 있어서의 속도를 기록 시의 속도로부터 변경해도 상관없다.
도 9는 상기 묘화 조작 데이터를 사용한 재생 처리의 다른 예를 나타낸 도면이다.
이 도면 상부에 도시한 바와 같이, 태블릿(100)은, 묘화 조작 데이터 중 좌표 데이터만 사용해서 묘화 조작을 재생해도 된다. 또한 이 도면 하부에 도시한 바와 같이, 태블릿(100)은, 좌표 데이터에 더해, 하중량 데이터를 농담으로서 표현해서 묘화 조작을 재생해도 상관없다.
또한 태블릿(100)은, 묘화 시의 선폭이나 색을 변경해도 되고, 또한 복수의 기록 데이터를 순서대로 재생해도 상관없다.
상기 묘화 조작의 기록 시의 장치(태블릿)와, 재생 시의 장치(태블릿)는 다른 장치여도 된다. 즉, 어떤 장치에서 기록된 묘화 조작 데이터가, 다른 장치로 송신되어 재생되어도 된다.
전형적으로는, 어떤 저명한 화가나 서도가 등의 묘화 데이터가 사전에 기록되고, 그것이 예를 들어 인터넷 상의 서버 경유 또는 프리 인스톨의 형태로 태블릿(100)에 기억되고, 유저가 상기 묘화 데이터를 글씨본에 회화나 서도를 배운다고 하는 솔루션이 생각된다.
또한, 유저가 스스로 쓴 글자나 그린 그림을 상기 묘화 이력 데이터로서 태블릿(100)에 기록시키고, 그것을 나중에 다시 보고 학습한다고 하는 솔루션도 가능하게 된다.
또한 본 실시 형태에서는, 태블릿(100)은, 어떤 유저 A의 묘화 조작을 기록 데이터를 사용해서 재생하면서, 다른 유저 B가 그것을 흉내낸 묘화 조작을 실시간으로 기록하고, 유저 A의 기록 데이터를 유저 B의 기록 데이터와 비교하는 학습(교육) 애플리케이션도 실행 가능하다.
도 10은, 상기 학습 애플리케이션의 실행 시의 태블릿 컴퓨터의 동작 흐름을 도시한 도면이다. 또한 도 11은, 상기 학습 애플리케이션의 처리의 흐름을 도식화한 것이다.
도 10에 도시한 바와 같이, 태블릿(100)의 CPU(3)는 먼저, 유저 A의 묘화 조작 입력을 접수한다(스텝 101).
계속해서 CPU(3)는, 묘화 조작의 입력 위치의 좌표 및 그 입력 위치에 가해지는 하중량을 검출하고(스텝 102), 좌표 데이터 및 하중량 데이터를 유저 A와 관련지어 기록한다(스텝 103). 이때, 유저 A의 묘화 조작의 개시부터 종료까지의 궤적을 나타내는 화상이 디스플레이(6)에 표시된다(도 11의 상부 참조).
계속해서 CPU(3)는, 상기 좌표 데이터 및 하중량 데이터로부터, 상기 이동 속도 데이터 및 하중 변화 데이터를 산출하고(스텝 104), 그들 데이터를 유저 A와 관련지어 메모리(4)에 기록한다(스텝 105).
계속해서 CPU(3)는, 상기 유저 A의 묘화 조작의 재생 지시가 있었는지 여부를 판단한다(스텝 106).
재생 지시가 있는 경우(예), CPU(3)는, 상기 기록 데이터를 기초로, 유저 A의 묘화 조작을 디스플레이(6) 상에 재생한다(스텝 107). 그와 함께 CPU(3)는, 유저 B가, 재생되거나 또는 재생 중인 유저 A의 묘화 조작을 덧쓰는 유저 B의 묘화 조작을 접수한다(스텝 108)(도 11의 중부 참조).
계속해서 CPU(3)는, 상기 유저 B의 묘화 조작에 대해서, 좌표 및 하중량을 검출하고(스텝 109), 좌표 데이터 및 하중량 데이터를 유저 B와 관련지어 메모리(4)에 기록한다(스텝 110).
계속해서 CPU(3)는, 상기 좌표 데이터 및 하중량 데이터로부터, 이동 속도 데이터 및 하중 변화 데이터를 산출하고(스텝 111), 그들의 데이터를 유저 B와 관련지어 메모리(4)에 기록한다(스텝 112).
계속해서 CPU(3)는, 상기 기록한 유저 A의 묘화 조작 데이터와 유저 B의 묘화 조작 데이터를 비교하여, 양자간의 차이를 판별한다(스텝 113).
그리고 CPU(3)는, 상기 차이를 나타내는 정보를 생성하고, 그 정보를, 상기 재생된 유저 A의 묘화 조작 데이터에 중첩시켜서 디스플레이(6)에 표시한다(스텝 114).
예를 들어, 도 11의 하부에 도시한 바와 같이, 어떤 위치에 있어서의 유저 A의 하중량 데이터보다 유저 B의 하중량 데이터가 작은 경우, 즉 유저 B의 힘조절이 부족한 경우에는, 그 위치를 가리켜서 「강하게」라고 하는 메시지가 표시되어도 된다. 또한, 유저 A의 좌표 데이터와 유저 B의 좌표 데이터에 어긋남이 있는 경우에는, 그 개소를 가리켜서 「정확하게」라고 하는 메시지가 표시되어도 된다. 이 외에, 유저 B의 묘화 속도가 느린 경우나 하중량에 불균일이 있는 경우 등에도 그 취지의 메시지가 표시되어도 된다.
이와 같이, 본 실시 형태에 따르면, 태블릿(100)은, 유저 A의 묘화 조작과 유저 B의 묘화 조작의 차이를 유저 B에게 알릴 수 있다. 이에 의해, 유저 B는 예를 들어 모필 묘화에서의 필법이나 필체의 힘조절의 차등도 알 수 있다. 즉, 유저 B는, 견본으로 하고 있는 유저 A의 묘화 능력을 얻기 위한 훈련을 할 수 있다. 이러한 애플리케이션은, 개인의 유저에도 이용될 수 있고, 학교 등의 교육 기관에서도 이용될 수 있다.
[변형예]
본 기술은 상술한 실시 형태에만 한정되는 것은 아니고, 본 기술의 요지를 일탈하지 않는 범위 내에서 다양하게 변경될 수 있다.
상술한 각 실시 형태에서는, 센서(1)는 필기구에 의한 입력 조작만을 검출하였지만, 센서(1)는 예를 들어 유저의 손가락 등에 의한 조작도 물론 검출 가능하다. 또한 센서(1)는, 필기구에 의한 입력 조작 시에 디스플레이(6)의 제1 면(110)에 접촉하는 유저의 손의 좌표 및 하중량도 검출 가능하다. 이에 의해 태블릿(100)은, 예를 들어 펜 조작 시의 유저가 손을 두는 방식도 포함시켜 유저의 특징으로서 기록함으로써, 개인 인증 처리에 있어서의 인증율을 높일 수 있고, 또한 상기 학습 애플리케이션에 있어서는 보다 상세한 글씨본을 제공할 수 있다.
상술한 각 실시 형태에서는, 입력 조작의 기록 데이터를 인증 처리나 학습 애플리케이션에 활용한 예가 나타났지만, 기록 데이터는 그 외에도 여러가지 솔루션에 활용하는 것이 가능하다.
예를 들어, 어떤 유저의 피아노 연주 시나 드럼 연주 시에 있어서의 건반 상 또는 드럼 상의 좌표 데이터나 하중량 데이터가 기록되면, 그것을 연주 학습 애플리케이션에 활용할 수 있다.
또한, 화가 등의 예술가가 새롭게 작품을 제작할 때에 묘화 조작 데이터를 맞춰서 기록해 둠으로써, 나중에 그 작품의 위조가 나온 경우에, 그 위조의 묘화 조작 데이터도 존재하고 있으면, 그 묘화 조작 데이터를 비교함으로써, 위조를 간파하는 것이 가능하게 된다.
상술한 제2 실시 형태에서는, 묘화 조작 데이터가 학습 애플리케이션에 사용되었지만, 묘화 조작 데이터 바로 그 자체에 가치를 만들어 내는 것도 가능하다. 예를 들어, 예술가의 묘화 데이터가, 유저의 요구에 따라서 인터넷 등을 통해서 다운로드되어도 된다. 이에 의해, 단순한 묘화 결과로서의 데이터가 아닌, 예술가의 미묘한 필법 등도 포함한 데이터이며, 여러가지 응용이 가능하게 되기 때문에, 상품으로서의 높은 가치를 부가할 수 있다.
상술한 각 실시 형태에서는, 좌표 데이터 및 하중량 데이터에 더해 이동 속도 데이터 및 하중 변화 데이터도 각종 처리에 사용되고 있었지만, 좌표 데이터, 하중량 데이터, 이동 속도 데이터 및 하중 변화 데이터 중 적어도 하나가 필요에 따라서 적절히 인증 처리나 재생 처리에 선택적으로 사용되어도 된다.
상술한 실시 형태에서는, 본 기술이 태블릿 컴퓨터에 적용된 예가 나타났다. 그러나, 본 기술은, 노트북형 PC, 스마트폰, PDA(Personal Digital Assistant), 전자 서적 리더, 포터블 플레이어, 카 내비게이션 시스템 등, 터치 센서를 탑재 가능한 모든 정보 처리 장치에 적용 가능하다.
[그 외]
본 기술은 이하와 같은 구성도 채용할 수 있다.
(1)
필기구에 의한 유저의 입력 조작을 접수하는 입력면을 갖고, 상기 입력 조작이 있었던 위치의 좌표 및 상기 위치에 가해지는 하중량을 검출할 수 있는 센서와,
기억부와,
검출된 상기 좌표를 나타내는 좌표 데이터 및 상기 하중량을 나타내는 하중량 데이터를 소정의 시간 간격으로 상기 기억부에 상기 유저의 식별 정보와 관련지어 기억시키고, 기억된 상기 좌표 데이터 및 상기 하중량 데이터를 상기 기억부로부터 상기 식별 정보와 관련지어 판독하는 것이 가능한 제어부
를 구비하는 정보 처리 장치.
(2)
상기 (1)에 기재된 정보 처리 장치로서,
상기 제어부는, 상기 소정의 시간 간격으로 기억된 상기 좌표 데이터로부터, 상기 좌표의 이동 속도를 나타내는 이동 속도 데이터를 산출할 수 있는 정보 처리 장치.
(3)
상기 (1) 또는 (2)에 기재된 정보 처리 장치로서,
상기 제어부는, 상기 소정의 시간 간격으로 기억된 상기 하중량 데이터로부터, 상기 하중량의 시간적 변화를 나타내는 하중량 변화 데이터를 산출할 수 있는 정보 처리 장치.
(4)
상기 (1) 내지 (3) 중 어느 하나에 기재된 정보 처리 장치로서,
상기 제어부는, 상기 좌표 데이터 및 상기 하중량 데이터의 기억 후의 상기 필기구에 의한 입력 조작으로부터 검출된 상기 좌표 및 상기 하중량과, 상기 기억된 좌표 데이터 및 하중량 데이터를 비교하고, 차이의 유무를 판별할 수 있는 정보 처리 장치.
(5)
상기 (4)에 기재된 정보 처리 장치로서,
상기 제어부는, 판별된 상기 차이의 유무를 바탕으로 상기 유저를 인증하고, 인증 결과를 출력할 수 있는 정보 처리 장치.
(6)
상기 (5)에 기재된 정보 처리 장치로서,
표시부를 더 구비하고,
상기 제어부는, 상기 입력 조작에 따라서, 상기 좌표 데이터 및 상기 하중량 데이터 중, 좌표 데이터만을 사용해서 상기 입력 조작의 개시부터 종료까지의 궤적을 나타내는 화상을 표시하도록 상기 표시부를 제어할 수 있는 정보 처리 장치.
(7)
상기 (1) 내지 (6) 중 어느 하나에 기재된 정보 처리 장치로서,
출력부를 더 구비하고,
상기 제어부는, 판별된 상기 차이를 나타내는 정보를 출력하도록 상기 출력부를 제어할 수 있는 정보 처리 장치.
(8)
상기 (1) 내지 (7) 중 어느 하나에 기재된 정보 처리 장치로서,
표시부를 더 구비하고,
상기 제어부는, 상기 기억된 좌표 데이터 및 하중량 데이터를 기초로, 상기 유저의 입력 조작의 개시부터 종료까지의 궤적을 나타내는 제1 화상을 표시하도록 상기 표시부를 제어할 수 있는 정보 처리 장치.
(9)
상기 (8)에 기재된 정보 처리 장치로서,
상기 센서는, 상기 화상의 표시 후, 다른 유저의 상기 필기구에 의한 입력 조작으로부터 좌표 데이터 및 하중량 데이터를 검출할 수 있고,
상기 제어부는,
상기 검출된 좌표 데이터 및 하중량 데이터를 기초로, 상기 다른 유저의 입력 조작의 개시부터 종료까지의 궤적을 나타내는 제2 화상을, 상기 제1 화상에 중첩시켜서 표시하도록 상기 표시부를 제어하고,
상기 기억된 좌표 데이터 및 하중량 데이터와 상기 다른 유저의 입력 조작으로부터 검출된 좌표 데이터 및 하중량 데이터를 비교하고,
상기 제1 화상과 상기 제2 화상의 차이를 나타내는 정보를 표시하도록 상기 표시부를 제어하는 것이 가능한 정보 처리 장치.
(10)
상기 (9)에 기재된 정보 처리 장치로서,
상기 제어부는, 상기 기억된 하중량 데이터 및 상기 다른 유저의 입력 조작으로부터 검출된 하중량 데이터에 따라서, 상기 제1 화상 및 상기 제2 화상에 있어서의 선폭 또는 농담을 변화시키는 정보 처리 장치.
(11)
상기 (1) 내지 (10) 중 어느 하나에 기재된 정보 처리 장치로서,
상기 센서는, 상기 필기구에 의한 유저의 입력 조작 시에 상기 입력면에 상기 유저의 손이 접촉한 경우에 그 접촉 위치의 좌표 및 그 접촉 위치에 가해지는 하중량을 검출할 수 있고,
상기 제어부는, 검출된 상기 접촉 위치의 좌표를 나타내는 좌표 데이터 및 상기 접촉 위치에 가해지는 하중량을 나타내는 하중량 데이터를, 상기 입력 조작으로부터 검출된 좌표 데이터 및 하중량 데이터, 및 상기 식별 정보와 관련지어 상기 기억부에 기억시키는 정보 처리 장치.
(12)
상기 (1) 내지 (11) 중 어느 하나에 기재된 정보 처리 장치로서,
통신부를 더 구비하고,
상기 제어부는, 상기 기억된 좌표 데이터 및 하중량 데이터를 다른 정보 처리 장치로 송신하도록 상기 통신부를 제어하고,
상기 다른 정보 처리 장치는, 상기 송신된 좌표 데이터 및 하중량 데이터를 기초로, 상기 유저의 입력 조작의 개시부터 종료까지의 궤적을 나타내는 화상을 표시하는 정보 처리 장치.
1 : 센서
2 : 센서 IC
3 : CPU
4 : 메모리
5 : 그래픽 드라이버
6 : 디스플레이
100 : 태블릿 컴퓨터
110 : 제1 면
150 : 입력 장치

Claims (14)

  1. 필기구에 의한 유저의 입력 조작을 접수하는 입력면을 갖고, 상기 입력 조작이 있었던 위치의 좌표 및 상기 위치에 가해지는 하중량을 검출할 수 있는 센서와,
    기억부와,
    검출된 상기 좌표를 나타내는 좌표 데이터 및 상기 하중량을 나타내는 하중량 데이터를 소정의 시간 간격으로 상기 기억부에 상기 유저의 식별 정보와 관련지어 기억시키고, 기억된 상기 좌표 데이터 및 상기 하중량 데이터를 상기 기억부로부터 상기 식별 정보와 관련지어 판독하는 것이 가능한 제어부
    를 구비하고,
    상기 센서는, 상기 필기구에 의한 유저의 입력 조작 시에 상기 입력면에 상기 유저의 손이 접촉한 경우에 그 접촉 위치의 좌표 및 그 접촉 위치에 가해지는 하중량을 검출할 수 있고,
    상기 제어부는, 검출된 상기 접촉 위치의 좌표를 나타내는 좌표 데이터 및 상기 접촉 위치에 가해지는 하중량을 나타내는 하중량 데이터를, 상기 입력 조작으로부터 검출된 좌표 데이터 및 하중량 데이터, 및 상기 식별 정보와 관련지어 상기 기억부에 기억시키는, 정보 처리 장치.
  2. 제1항에 있어서,
    상기 제어부는, 상기 소정의 시간 간격으로 기억된 상기 좌표 데이터로부터, 상기 좌표의 이동 속도를 나타내는 이동 속도 데이터를 산출할 수 있는, 정보 처리 장치.
  3. 제1항에 있어서,
    상기 제어부는, 상기 소정의 시간 간격으로 기억된 상기 하중량 데이터로부터, 상기 하중량의 시간적 변화를 나타내는 하중량 변화 데이터를 산출할 수 있는, 정보 처리 장치.
  4. 제1항에 있어서,
    상기 제어부는, 상기 좌표 데이터 및 상기 하중량 데이터의 기억 후의 상기 필기구에 의한 입력 조작으로부터 검출된 상기 좌표 및 상기 하중량과, 상기 기억된 좌표 데이터 및 하중량 데이터를 비교하고, 차이의 유무를 판별할 수 있는, 정보 처리 장치.
  5. 제4항에 있어서,
    상기 제어부는, 판별된 상기 차이의 유무를 바탕으로 상기 유저를 인증하고, 인증 결과를 출력할 수 있는, 정보 처리 장치.
  6. 제5항에 있어서,
    표시부를 더 구비하고,
    상기 제어부는, 상기 입력 조작에 따라서, 상기 좌표 데이터 및 상기 하중량 데이터 중, 좌표 데이터만을 사용해서 상기 입력 조작의 개시부터 종료까지의 궤적을 나타내는 화상을 표시하도록 상기 표시부를 제어할 수 있는, 정보 처리 장치.
  7. 제4항에 있어서,
    출력부를 더 구비하고,
    상기 제어부는, 판별된 상기 차이를 나타내는 정보를 출력하도록 상기 출력부를 제어할 수 있는, 정보 처리 장치.
  8. 제1항에 있어서,
    표시부를 더 구비하고,
    상기 제어부는, 상기 기억된 좌표 데이터 및 하중량 데이터를 기초로, 상기 유저의 입력 조작의 개시부터 종료까지의 궤적을 나타내는 제1 화상을 표시하도록 상기 표시부를 제어할 수 있는, 정보 처리 장치.
  9. 제8항에 있어서,
    상기 센서는, 상기 화상의 표시 후, 다른 유저의 상기 필기구에 의한 입력 조작으로부터 좌표 데이터 및 하중량 데이터를 검출할 수 있고,
    상기 제어부는,
    상기 검출된 좌표 데이터 및 하중량 데이터를 기초로, 상기 다른 유저의 입력 조작의 개시부터 종료까지의 궤적을 나타내는 제2 화상을, 상기 제1 화상에 중첩시켜서 표시하도록 상기 표시부를 제어하고,
    상기 기억된 좌표 데이터 및 하중량 데이터와 상기 다른 유저의 입력 조작으로부터 검출된 좌표 데이터 및 하중량 데이터를 비교하고,
    상기 제1 화상과 상기 제2 화상의 차이를 나타내는 정보를 표시하도록 상기 표시부를 제어하는 것이 가능한, 정보 처리 장치.
  10. 제9항에 있어서,
    상기 제어부는, 상기 기억된 하중량 데이터 및 상기 다른 유저의 입력 조작으로부터 검출된 하중량 데이터에 따라서, 상기 제1 화상 및 상기 제2 화상에 있어서의 선폭 또는 농담을 변화시키는, 정보 처리 장치.
  11. 삭제
  12. 제1항에 있어서,
    통신부를 더 구비하고,
    상기 제어부는, 상기 기억된 좌표 데이터 및 하중량 데이터를 다른 정보 처리 장치로 송신하도록 상기 통신부를 제어하고,
    상기 다른 정보 처리 장치는, 상기 송신된 좌표 데이터 및 하중량 데이터를 기초로, 상기 유저의 입력 조작의 개시부터 종료까지의 궤적을 나타내는 화상을 표시하는, 정보 처리 장치.
  13. 필기구에 의한 유저의 입력 조작을 접수하는 입력면을 갖는 센서에 의해, 상기 입력 조작이 있었던 위치의 좌표 및 상기 위치에 가해지는 하중량을 검출하고,
    검출된 상기 좌표를 나타내는 좌표 데이터 및 상기 하중량을 나타내는 하중량 데이터를 소정의 시간 간격으로 상기 유저의 식별 정보와 관련지어 기억부에 기억하고,
    기억된 상기 좌표 데이터 및 상기 하중량 데이터를 상기 기억부로부터 상기 식별 정보와 관련지어 판독하고,
    상기 센서에 의해, 상기 필기구에 의한 유저의 입력 조작 시에 상기 입력면에 상기 유저의 손이 접촉한 경우에 그 접촉 위치의 좌표 및 그 접촉 위치에 가해지는 하중량을 검출하고,
    검출된 상기 접촉 위치의 좌표를 나타내는 좌표 데이터 및 상기 접촉 위치에 가해지는 하중량을 나타내는 하중량 데이터를, 상기 입력 조작으로부터 검출된 좌표 데이터 및 하중량 데이터, 및 상기 식별 정보와 관련지어 상기 기억부에 기억시키는, 정보 처리 방법.
  14. 정보 처리 장치에,
    필기구에 의한 유저의 입력 조작을 접수하는 입력면을 갖는 센서에 의해, 상기 입력 조작이 있었던 위치의 좌표 및 상기 위치에 가해지는 하중량을 검출하는 스텝과,
    검출된 상기 좌표를 나타내는 좌표 데이터 및 상기 하중량을 나타내는 하중량 데이터를 소정의 시간 간격으로 상기 유저의 식별 정보와 관련지어 기억부에 기억하는 스텝과,
    기억된 상기 좌표 데이터 및 상기 하중량 데이터를 상기 기억부로부터 상기 식별 정보와 관련지어 판독하는 스텝과,
    상기 센서에 의해, 상기 필기구에 의한 유저의 입력 조작 시에 상기 입력면에 상기 유저의 손이 접촉한 경우에 그 접촉 위치의 좌표 및 그 접촉 위치에 가해지는 하중량을 검출하는 스텝과,
    검출된 상기 접촉 위치의 좌표를 나타내는 좌표 데이터 및 상기 접촉 위치에 가해지는 하중량을 나타내는 하중량 데이터를, 상기 입력 조작으로부터 검출된 좌표 데이터 및 하중량 데이터, 및 상기 식별 정보와 관련지어 상기 기억부에 기억시키는 스텝을 실행시키는 프로그램이 기록되어 있는 컴퓨터로 판독 가능한 기록 매체.
KR1020157031201A 2013-05-20 2014-02-12 정보 처리 장치, 정보 처리 방법 및 기록 매체 KR102212846B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013105763 2013-05-20
JPJP-P-2013-105763 2013-05-20
PCT/JP2014/000715 WO2014188635A1 (ja) 2013-05-20 2014-02-12 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
KR20160013009A KR20160013009A (ko) 2016-02-03
KR102212846B1 true KR102212846B1 (ko) 2021-02-05

Family

ID=51933210

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157031201A KR102212846B1 (ko) 2013-05-20 2014-02-12 정보 처리 장치, 정보 처리 방법 및 기록 매체

Country Status (6)

Country Link
US (1) US9886107B2 (ko)
JP (1) JP6237769B2 (ko)
KR (1) KR102212846B1 (ko)
CN (1) CN105210014A (ko)
TW (1) TWI626569B (ko)
WO (1) WO2014188635A1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016173779A (ja) * 2015-03-18 2016-09-29 株式会社リコー 画像処理システム、画像処理装置およびプログラム
JP6261153B1 (ja) 2016-08-22 2018-01-17 株式会社ワコム 電子ペン、位置検出装置及び情報処理装置
CN109564479A (zh) * 2016-08-22 2019-04-02 株式会社和冠 电子笔、位置检测装置及信息处理装置
WO2018176486A1 (zh) * 2017-04-01 2018-10-04 深圳市汇顶科技股份有限公司 触控笔、芯片、触控设备、电子设备和触控的方法
JP6784422B1 (ja) * 2019-09-05 2020-11-11 mui Lab株式会社 描画内容を記憶する操作表示パネル組込物品及びシステム
TWI748245B (zh) * 2019-09-23 2021-12-01 義隆電子股份有限公司 觸控顯示系統及其晶片
JP7312454B2 (ja) * 2020-02-20 2023-07-21 学校法人早稲田大学 認証システム、認証プログラム及び認証方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000194618A (ja) * 1998-12-24 2000-07-14 Nippon Telegr & Teleph Corp <Ntt> 手書き認証通信システム、手書き認証通信方法、手書き認証サーバ及び手書き入力装置
JP2004062251A (ja) * 2002-07-24 2004-02-26 Laboratories Of Image Information Science & Technology 手書きデータ記録装置および手書きデータ出力装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3696365B2 (ja) * 1996-11-15 2005-09-14 株式会社リコー ペン型入力装置
JP4320818B2 (ja) * 1999-02-04 2009-08-26 富士通株式会社 手書き文字入力装置とその記録媒体
US7750891B2 (en) * 2003-04-09 2010-07-06 Tegic Communications, Inc. Selective input system based on tracking of motion parameters of an input device
JP3817627B2 (ja) 2002-11-21 2006-09-06 有限会社山口ティー・エル・オー 書道用学習教材と書道用下敷と書道用半紙
KR100649442B1 (ko) * 2004-06-08 2006-11-27 (주) 아이.에스.브이. 무선 펜마우스장치 및 그것을 이용한 다중 처리시스템
US8360669B2 (en) * 2008-06-23 2013-01-29 Silverbrook Research Pty Ltd Retractable electronic pen with sensing arrangement
KR101590762B1 (ko) * 2009-07-28 2016-02-02 삼성전자주식회사 사용자의 동작에 따른 디스플레이 장치 및 방법
IN2012DN01870A (ko) * 2009-09-02 2015-08-21 Amazon Tech Inc
JP2012043029A (ja) 2010-08-13 2012-03-01 Yokohama System Kenkyusho:Kk タッチパネルおよびその入力判定方法
JP2012212410A (ja) * 2011-03-24 2012-11-01 Nitto Denko Corp 情報表示システム
JP2012168993A (ja) 2012-06-14 2012-09-06 Sony Corp 情報処理装置および方法、プログラム、並びに記録媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000194618A (ja) * 1998-12-24 2000-07-14 Nippon Telegr & Teleph Corp <Ntt> 手書き認証通信システム、手書き認証通信方法、手書き認証サーバ及び手書き入力装置
JP2004062251A (ja) * 2002-07-24 2004-02-26 Laboratories Of Image Information Science & Technology 手書きデータ記録装置および手書きデータ出力装置

Also Published As

Publication number Publication date
WO2014188635A1 (ja) 2014-11-27
TWI626569B (zh) 2018-06-11
CN105210014A (zh) 2015-12-30
JP6237769B2 (ja) 2017-11-29
TW201445395A (zh) 2014-12-01
JPWO2014188635A1 (ja) 2017-02-23
US9886107B2 (en) 2018-02-06
US20160188014A1 (en) 2016-06-30
KR20160013009A (ko) 2016-02-03

Similar Documents

Publication Publication Date Title
KR102212846B1 (ko) 정보 처리 장치, 정보 처리 방법 및 기록 매체
KR101183381B1 (ko) 플릭 제스쳐
US9285903B1 (en) Stylus and electronic display
CN103631518B (zh) 移动终端和用于移动终端的显示控制
CN106716317A (zh) 解决触摸不连续性的方法和装置
US20190107942A1 (en) Touch screen finger tracing device
US20090052778A1 (en) Electronic Annotation Of Documents With Preexisting Content
CN106575203A (zh) 与再现的内容的基于悬停的交互
CN102067153A (zh) 多模态学习系统
US20130033461A1 (en) System for notetaking with source document referencing
CN107992803A (zh) 一种电子签名的验证方法、终端设备及计算机可读介质
CN106919333A (zh) 电子书写板上书写内容的记录方法和装置
CN109643213A (zh) 用于协同编辑工具的触摸屏用户界面的系统和方法
CN101334937A (zh) 电子计算器以及控制方法
Atkinson A bitter pill to swallow: the rise and fall of the tablet computer
US20130033460A1 (en) Method of notetaking using optically imaging pen with source document referencing
CN109871117A (zh) 信息处理装置、显示装置及信息处理系统
US20130033429A1 (en) Method of notetaking with source document referencing
WO2021176609A1 (ja) 入出力モデルを設定可能なペン状態検出回路
Kern et al. Handwriting for Text Input and the Impact of XR Displays, Surface Alignments, and Sentence Complexities
JP6183111B2 (ja) 並べ替え装置及びプログラム
KR102613361B1 (ko) 디지털 필적에 대한 진정성 감정방법
WO2023281954A1 (ja) 情報処理装置、方法、プログラム及びシステム
JP4963633B2 (ja) 情報処理装置及び情報処理方法
CN106126092A (zh) 一种信息处理方法及电子设备

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant